Rational Choice: Eine Kritik am Beispiel von Anwendungen in der Politischen Wissenschaft. Übersetzung aus dem Amerikanischen von Annette Schmitt 9783486831603, 9783486564341

In diesem gut lesbaren und verständlichen Buch bewerten die Autoren die Anwendung der Rational-Choice-Theorie. In ihrer

161 57 16MB

German Pages 271 [272] Year 1999

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Rational Choice: Eine Kritik am Beispiel von Anwendungen in der Politischen Wissenschaft. Übersetzung aus dem Amerikanischen von Annette Schmitt
 9783486831603, 9783486564341

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Green/Shapiro · Rational Choice

Scientia Nova Herausgegeben von Rainer Hegselmann, Gebhard Kirchgässner, Hans Lenk, Siegwart Lindenberg, Julian Nida-Rümelin, Werner Raub, Thomas Voss

Bisher erschienen u. a.: Robert Axelrod, Die Evolution der Kooperation Karl H. Borch, Wirtschaftliches Verhalten bei Unsicherheit Churehman/Ackoff/Arnoff, Operations Research James S. Coleman, Grundlagen der Sozialtheorie Morton D. Davis, Spieltheorie für Nichtmathematiker Erklären und Verstehen in der Wissenschaft Evolution und Spieltheorie Bruno de Finetti, Wahrscheinlichkeitstheorie Robert Frank, Strategie der Emotionen Green/Shapiro, Rational Choice Peter Kappelhoff, Soziale Tauschsysteme Bernd Lahno, Versprechen. Überlegungen zu einer künstlichen Tugend Klaus Manhart, KI-Modelle in den Sozialwissenschaften Moralische Entscheidungen und rationale Wahl Moral und Interesse Nagel/Newman, Der Gödelsche Beweis John v. Neumann, Die Rechenmaschine und das Gehirn Julian Nida-Rümelin, Kritik des Konsequentialismus Ökonomie und Moral Erhard Oeser, Wissenschaft und Information ~ Howard Raiffa, Einführung in die Entscheidungstheorie Erwin Schrödinger, Was ist ein Naturgesetz? Rudolf Schüßler, Kooperation unter Egoisten Geo Siegwart, Vorfragen zur Wahrheit Paul W. Thurner, Wählen als rationale Entscheidung Thomas Voss, Rationale Akteure und soziale Institutionen Hermann Weyl, Philosophie der Mathematik und Naturwissenschaft

Donald P. Green/Ian Shapiro

Rational Choice Eine Kritik am Beispiel von Anwendungen in der Politischen Wissenschaft

Oldenbourg Wissenschaftsverlag München 1999

Deutsche Übersetzung: Annette Schmitt

Die Deutsche Bibliothek - CIP-Einheitsaufnahme Green, Donald P.: Rational Choice : Eine Kritik am Beispiel von Anwendungen in der Politischen Wissenschaft / Donald P. Green ; Ian Shapiro [Dt. Übers. A. Schmitt], - München: Oldenbourg, 1999 (Scientia Nova) Einheitssacht.: Pathologies of Rational Choice Theory ISBN 3-486-56434-X Titel der Originalsausgabe: Pathologies of Rational Choice Theory. A Critique of Applications in Political Science by Donald P. Green and Ian Shapiro. Yale University Press. © 1994 by Yale University © 1999 Oldenbourg Wissenschaftsverlag GmbH, München Rosenheimer Straße 145, D - 81671 München Internet: http://www.oldenbourg-verlag.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Dies gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen.

Umschlaggestaltung: Dieter Vollendorf Gedruckt auf säurefreiem, alterungsbeständigem Papier (chlorfrei gebleicht). Gesamtherstellung: R. Oldenbourg Graphische Betriebe GmbH, München ISBN 3-486-56434-X

Inhalt

Vorwort

7

1. Rationalität in Politik und Wirtschaft Die Erklärungskraft der Rational-Choice-Theorie Gegenstand unserer Kritik Worum es uns nicht geht Aufbau des Buches

11 15 17 20 23

2. Worum geht es in der Rational-Choice-Theorie? Unstrittige Annahmen Strittige Annahmen Was heißt „erklären"? Methodologische Annahmen

24 24 28 31 43

3. Methodologische Defekte Theoriebildung post hoc Die Entwicklung von Tests Auswahl und Interpretation von Daten Abschließende Bemerkungen

46 46 51 56 60

4. Das Paradox der Wahlbeteiligung Entscheidungstheoretische Modelle des Wählens Theorie prallt auf Daten Rettung durch Spieltheorie? Ehrenvoller Frieden durch willkürliche Bereichseinschränkung? Von der Punkt- zur Marginalprognose Die Kosten des Wählens und selektive Anreize Abschließende Bemerkungen

62 63 65 73 74 76 83 86

5. Soziale Dilemmata und das Problem des Trittbrettfahrens Soziale Dilemmata Experimentelle Ergebnisse Auf der Suche nach einer solideren Basis

91 93 109 114

6

Inhalt

6. Gesetzgebung und Abstimmungsparadox Instabilität, zyklische Mehrheiten und die Manipulation der Tagesordnung Zyklische Mehrheiten: Theorie und Realität Post Aoc-Erklärungen von Stabilität Experimentelle Belege Das Experiment: Ein Überblick zur Methode Die Bewertung der Daten Unter welchen Bedingungen behauptet sich der Kern? Spiele ohne Kern Ist die Existenz eines Kerns von Belang? Die Auswirkungen struktureller Faktoren Zur internen und externen Validität von Experimenten Räumliche Theorien und ihr Verhältnis zu den Daten

120 121 130 137 145 148 150 154 158 161 163 166 169

7. Räumliche Theorien des politischen Wettbewerbs 175 Ein rudimentäres räumliches Wahlkampfmodell 179 Ungewißheit 188 Andere Verschönerungsmaßnahmen 199 Was lehren uns räumliche Modelle über die Strategien von Kandidaten? 203 Was können räumliche Modelle zur Erforschung von Wahlen beitragen?....205 8. Erwiderungen auf mögliche Gegenargumente Naiver Falsifikationismus Keine Alternative Wir sind gegen Theorie Der wissenschaftliche Wert der Parteinahme für eine Theorie Übertrieben hohe Maßstäbe Alle Theorien vereinfachen durch Abstraktion Es gibt nicht die eine Rational-Choice-Theorie Die Tyrannei disziplinarer Lagermentalität Die Überlegenheit der Rational-Choice-Theorie Zu hohe Erwartungen an eine junge Theorie Abschließende Bemerkungen

211 212 216 217 221 222 224 225 227 228 230 237

Literatur

241

Index

267

Vorwort

Seit der Veröffentlichung von Kenneth Arrows Social Choice and Individual Values im Jahre 1951 hat der Rational-Choice-Ansatz in der Politikwissenschaft einen ungeheuren Aufschwung erlebt. Dabei ist jedoch ein merkwürdiges Mißverhältnis zu beobachten, das sowohl Anlaß als auch Ansporn für dieses Buch war. Einerseits konnten bei der theoretischen Ausgestaltung der Modelle des rationalen Akteurs große Fortschritte erzielt werden. Eine Reihe erstklassiger Wissenschaftler stellte sich den großen analytischen Herausforderungen mit dem Ergebnis, daß RationalChoice-Theorien zunehmend komplexer und subtiler wurden. Andererseits sind erfolgreiche empirische Anwendungen dieser Rational-Choice-Modelle bisher äußerst selten. Die meisten frühen Rational-Choice-Arbeiten hatten entweder überhaupt keinen empirischen Bezug, oder sie waren ungenau und intuitiv. Erstaunlicherweise hat sich daran seit den fünfziger Jahren wenig geändert. Auslöser für die vorliegende Untersuchung war unser Wunsch zu verstehen und zu erklären, warum die Ausbeute an fundierten empirischen Studien so dürftig geblieben ist. Schon bald stellten wir fest, daß die Beteiligten an der hitzigen Auseinandersetzung Uber die möglichen Verdienste der Rational-Choice-Theorie in der Regel aneinander vorbeireden. Ihre Anhänger bewegen sich in den engen Grenzen eines esoterischen technischen Vokabulars, das kaum ein Außenseiter versteht. Kritiker dagegen neigen dazu, den Rational-Choice-Ansatz mit Mißachtung zu strafen oder gar zu verdammen, ohne ihn richtig verstanden zu haben. Entweder lehnen sie seine zentralen Annahmen und wissenschaftlichen Ansprüche schlichtweg ab, oder sie mißverstehen ihn grundlegend. Es ist daher nicht verwunderlich, daß die Anhänger des Ansatzes seinen Kritikern kaum Beachtung schenken. Wir hingegen wollten uns mit dem Rational-Choice-Ansatz anhand seiner eigenen Kriterien auseinandersetzen. Wir hatten weder Einwände gegen den Anspruch von Rational-Choice-Theoretikem, Politik wissenschaftlich zu untersuchen, noch gegen ihre zentralen Modellannahmen. Ihre Kritik an anderen Arten der wissenschaftlichen Auseinandersetzung mit Politik akzeptierten wir weitgehend, und wir beschäftigten uns nur mit Publikationen aus den Bereichen, in denen der Rational-Choice-Ansatz seine vermeintlich größten Erfolge verbuchen konnte - also mit Studien im Anschluß an die bahnbrechenden Arbeiten von Arrow, Anthony Downs und Mancur Olson. Unsere Fragestellung lautete: Was haben wir durch sie über Politik gelernt? Unsere Aufmerksamkeit galt folglich vor allem der empirischen Rational-ChoiceLiteratur. Und mit der Zeit stellten wir fest, daß die Ausbeute an neuen Erkenntnissen ausgesprochen dürftig ist. Das liegt zum Teil daran, daß es einfach sehr wenige empirische Anwendungen gibt; Rational-Choice-Anhänger scheinen sich vor allem für die Theoriebildung zu interessieren und die mühsame Arbeit der empirischen Überprüfung auf später verschieben oder anderen überlassen zu wollen. Das ist aber nur ein Teil des Problems. Nach unserer Auffassung wurzelt der Mißerfolg auf em-

8

Vorwort

pirischem Gebiet vor allem in dem Anspruch der Rational-Choice-Theoretiker, universelle Theorien der Politik zu entwickeln. Genau dies hat unserer Ansicht nach dazu geführt, daß ein großer Teil der empirischen Arbeiten, die auf dem RationalChoice-Ansatz beruhen, methodologische Mängel aufweist. Solange dieses Syndrom methodologischer Defekte nicht verstanden und der dafür verantwortliche universalistische Anspruch nicht überdacht wird, ist nach unserer Meinung mit Fortschritten nicht zu rechnen. In den folgenden Kapiteln wollen wir erklären, warum das so ist; wir werden erläutern, was geändert werden sollte; und wir wollen etwas dazu sagen, welche Auswirkungen auf die künftige Forschung die Umsetzung unserer Empfehlungen haben würde. Wir möchten also unsere methodologische Kritik - obwohl unsere Botschaft vielleicht eher negativ erscheinen mag - als einen konstruktiven Beitrag zur Verbesserung der Qualität empirischer Forschung in der Politikwissenschaft verstanden wissen. Für Uneingeweihte ist der Rational-Choice-Ansatz eine ziemlich verwirrende Angelegenheit; wer mit der esoterischen Terminologie und den Methoden seiner Anhänger nicht vertraut ist, kann die Verdienste, die sie ihren Modellen zuschreiben, oft gar nicht verstehen und schon gar nicht beurteilen. Die vorliegende Arbeit will auch diesem Zustand Abhilfe leisten. Keine der grundlegenden Behauptungen der Rational-Choice-Theorie ist an sich schwer zu verstehen, und deshalb gibt es auch keinen Grund, warum die Rationalwahl für diejenigen, die in der Politikwissenschaft nicht zu ihren Anwendern gehören, rätselhaft und damit einschüchternd bleiben soll. Obwohl dies kein Lehrbuch ist - davon gibt es bereits eine ganze Reihe, ζ. B. Luce und Raiffa (1957), Riker und Ordeshook (1973), Ordeshook (1986, 1992), Mueller (1989), Myerson (1991) und andere - , haben wir uns folglich dennoch bemüht, grundlegende Begriffe des Rational-Choice-Ansatzes in nicht-technischer Sprache zu erläutern und unsere Kritik so zu formulieren, daß sie auch für Nicht-Spezialisten verständlich ist. Ein drittes Ziel des Buches besteht darin, eine Diskussion zwischen RationalChoice-Theoretikem und anderen Politikwissenschaftlern anzuregen. Bislang werden Kritiker weitgehend ignoriert, weil ihre globale Ablehnung des RationalChoice-Paradigmas keinen Raum für eine konstruktive Auseinandersetzung oder gar eine Synthese zwischen der Rationalwahl und anderen Erklärungsansätzen in der Politikwissenschaft läßt. Umgekehrt ist die Isolation und Selbstgenügsamkeit der Rational-Choice-Theorie die Quelle vieler ihrer Mängel. Die Arbeit in diesem Bereich ist zu sehr von hausgemachten Kontroversen ihrer Anhänger und zu wenig von den politischen Phänomenen geprägt, die Sozialwissenschaftler traditionell zu verstehen suchen. Um das in Gang zu setzen, was hoffentlich eine dauerhafte Diskussion werden wird, haben wir ein Schlußkapitel angefügt, in dem wir auf zehn Gegenargumente eingehen, die Rational-Choice-Theoretiker bei Tagungen und in persönlichen Briefen gegen unsere Auffassungen vorgebracht haben. Noch eine Bemerkung zur Terminologie: Wir verwenden in diesem Buch durchgängig die Bezeichnung „Rational-Choice-Theorie" (oder Rationalwahl) in einem weiten Sinne, der auch solche Arbeiten einschließt, die unter Etiketten daherkommen wie Public-Choice-Theorie, Social-Choice-Theorie, Spieltheorie, Modelle des

Vorwort

9

rationalen Akteurs, Positive Politische Ökonomie, Ökonomische Theorie der Politik und ähnliches. Im allgemeinen übernehmen wir die von den jeweils diskutierten Benutzern vorgeschlagenen Definitionen. Wo Uneinigkeit über die Bedeutung von Rationalwahl bei ihren Anhängern selbst besteht, behandeln wir deren Ursachen und Konsequenzen. Alle Zitate im Text sind der jeweiligen Quelle wortwörtlich entnommen, alle Hervorhebungen stammen aus den Originalen. Dieses Buch hatte viele Helfer aus vielen Bereichen. Unser besonderer Dank gilt Eric Schickler, dessen erstklassige Dienste als Forschungsassistent uns von Anfang an zur Verfügung standen. Ebenso danken wir Clarissa Hayward und Adam Sheingate, die später dazukamen. Kollegen, Freunde und Kritiker haben unzählige Entwürfe verschiedener Kapitel gelesen und kommentiert. Ohne sie damit irgendwie kompromittieren zu wollen, danken wir Bob Abelson, Bruce Ackerman, Steve Brams, David Cameron, Jack Citrin, Bob Dahl, Robyn Dawes, David Epstein, Bob Erikson, John Ferejohn, Mo Fiorina, Alan Gerber, Mitch Green, Jeff Isaac, Danny Kahneman, Keith Krehbiel, Bob Lane, Joseph LaPalombara, David Lumsdaine, Sylvia Maxfield, David Mayhew, Sharyn O'Halloran, Barry O'Neill, Chick Perrow, David Plotke, Doug Rae, Susan Rose-Ackerman, Debra Satz, David Schmidtz, Norman Schofield, Jim Scott, Steve Skowronek, Rogers Smith, Edward Tufte, Mike Wallerstein, Alex Wendt und dem verstorbenen Aaron Wildavsky. Frühere Fassungen des Manuskripts wurden vorgestellt beim Yale Political Theory Workshop (Februar 1993), bei der Jahrestagung der Public Choice Society in Zusammenarbeit mit der Economic Science Association in New Orleans (März 1993), der International Conference for the Advancement of Socioeconomics in New York (März 1993), der 68. Jahrestagung der Westem Economic Association in Lake Tahoe, Nevada (Juni 1993), und bei der Jahrestagung der American Political Science Association in Washington, D. C. (September 1993). Zahlreiche Teilnehmer dieser verschiedenen Veranstaltungen - zu viele, als daß wir sie einzeln aufführen könnten - haben uns wertvolle Anregungen gegeben; ihnen allen sei hiermit herzlich gedankt. Wir danken auch der Yale Institution for Social and Policy Studies sowie der National Science Foundation (Grant SBR-9357937) für ihre finanzielle Unterstützung. Dank schulden wir auch John S. Covell von der Yale University Press für sein Interesse und seine Unterstützung dieses Projekts von Anfang an. Und schließlich danken wir auch unseren beiden Familien für ihre gutmütige Duldung der täglichen Ärgernisse, die mit der Entstehung dieses Buches einhergingen.

1. Rationalität in Politik und Wirtschaft

Genau wie in der Wirtschaft konkurrieren Menschen auch in der Politik häufig um knappe Ressourcen. Angesichts dieser Parallele zwischen der Konkurrenz um Güter auf dem Markt und der Konkurrenz um die Früchte der Macht in der Politik ist seit den fünfziger Jahren eine wachsende Anzahl von Sozialwissenschaftlern zu der Überzeugung gelangt, daß wirtschaftswissenschaftliche Methoden gewinnbringend für das Studium politischer Prozesse nutzbar gemacht werden können. Diese Überzeugung kommt in der klassischen Feststellung von James Buchanan und Gordon Tullock in The Calculus of Consent (1962, 20) zum Ausdruck, bei der Untersuchung politischer Prozesse gehe man - zumindest als Arbeitshypothese - von der Annahme aus, daß „das repräsentative, durchschnittliche Individuum immer auf der Grundlage derselben globalen Werteskala handelt, ob es sich nun politisch oder am Markt betätigt". Diesen Gedanken führt Tullock (1976, 5) später weiter aus, wenn er feststellt: „Wähler und Kunden sind im Grunde dieselben Personen. Hänschen Müller geht einkaufen und wählen; er ist im Supermarkt derselbe wie in der Wahlkabine." Buchanan und Tullock sowie all die anderen, die ihnen in der Entwicklung der modernen Rational-Choice-Theorie gefolgt sind, hofften, daß es mit Hilfe dieser einheitlichen Auffassung vom Menschen möglich sein würde, eine „kohärente, gemeinsame theoretische Sicht von Politik und Ökonomie" (Alt und Shepsle 1990, 1) zu erarbeiten. Nach Einschätzung von Ordeshook (1993, 76) ist es die wichtigste Leistung der modernen Rational-Choice-Theorie, „zu einer Reintegration von Politik und Ökonomie unter einem gemeinsamen Paradigma und einer gemeinsamen deduktiven Struktur geführt zu haben". Obwohl sich das interdisziplinäre Studium von Politik und Ökonomie mindestens bis ins 18. Jahrhundert zurückverfolgen läßt, ist die charakteristische Mischung von Ansätzen, wie sie für die moderne Rational-Choice-Theorie typisch ist, ein Produkt der fünfziger Jahre dieses Jahrhunderts.1 Zu dieser Zeit war die Rational-ChoiceTheorie noch ein kleines Teilgebiet einer Politikwissenschaft, die vor allem durch Institutionenanalyse, behavioristische Methoden und eine auf Gruppen ausgerichtete pluralistische Theorie der Politik geprägt war.2 Inzwischen ist die Rational-ChoiceTheorie weit Uber die Grenzen ihrer esoterischen Studien und Anhänger der fünf1

Ihre Wurzeln reichen jedoch in das frühe 20. Jahrhundert zurück. Schon 1929 wies Harold Hotelling auf die Parallele zwischen dem Marktwettbewerb um Konsumenten und dem Parteienwettbewerb um Wähler hin. Diese Vorstellung von der Demokratie untermauerte dann Joseph Schumpeter in seinem klassischen Werk von 1942 Capitalism, Socialism and Democracy (dt.: Kapitalismus, Sozialismus und Demokratie, 1950), in dem er dafür plädierte, die traditionelle demokratietheoretische Beschäftigung mit Partizipation und dem Gemeinwohl aufzugeben. Statt dessen sprach er sich für ein Modell aus, in dem politische Eliten und Parteien als Unternehmen betrachtet werden, die ein bestimmtes Gut - „Regierungsleistungen" - produzieren und um Stimmen konkurrieren genau wie Firmen um Marktanteile. 2 Für eine Beschreibung der politikwissenschaftlichen Orthodoxien, gegen die sich die füllten Rational-Choice-Theoretiker wandten, vgl. Schumpeter 1993, 397-426, und Olson 1968,97-129.

12

1. Rationalität in Politik und Wirtschaft

ziger und sechziger Jahre hinausgewachsen. Sie hat sich einen festen Platz in den wichtigsten Zeitschriften und Vereinigungen der Disziplin erkämpft, und ihre Vertreter sind in allen bedeutenden politikwissenschaftlichen Instituten der USA stark gefragt. Rational-Choice-Theorie hat sich jenseits der Politischen Theorie und der Amerikanischen Politik auch auf andere Bereiche der Politikwissenschaft ausgedehnt: zunächst auf das Studium der internationalen Beziehungen und zuletzt auch auf das der vergleichenden Systemforschung. Im Grunde ist kaum ein Bereich der Politikwissenschaft von ihrem Einfluß unberührt geblieben. Eine Zählung der Rational-Choice-Artikel, die (in Intervallen von fünf Jahren) in ausgewählten Jahrgängen der American Political Science Review seit 1952 veröffentlicht wurden, zeugt von der stetigen Weiterentwicklung der Rational-Choice-Theorie (siehe Abb. 1.1). Während 1952 noch gar keine Rational-Choice-Arbeiten in der APSR vorkamen, machen sie rund vierzig Jahre später fünfzehn von einundvierzig Artikeln in der führenden politikwissenschaftlichen Zeitschrift aus.3

Abb. 1.1: In der American Political Science Review veröffentlichte Rational-Choice-Artikel

3 Diese Zahlung ist nicht ganz genau, da sich einige Beiträge nur schwer zuordnen lassen. Technische Aufsätze, die nichts mit Rationalwahl zu tun haben, können leicht mit Rational-Choice-Aufsätzen verwechselt werden, wie das folgende Beispiel verdeutlicht: In seiner Beschwerde darüber, daß Theodore Lowi seine Arbeit fälschlicherweise dem Bereich der Rationalwahl zugeordnet habe, erliegt Herbert Simon (1992) demselben Irrtum, indem er Green 1992 als Rational-Choice-Arbeit klassifiziert. Aber auch wenn man Fehler und Grenzfälle einräumt, ist die Zunahme von RationalChoice-Studien in der Politikwissenschaft unbestreitbar.

1. Rationalität in Politik und Wirtschaft

13

Viele sehen in dieser Umorientierung in der politikwissenschaftlichen Forschung einen Triumph. William Riker (1990, 177 f.) etwa meint, daß der Rational-ChoiceTheorie der einzig wahre Fortschritt zu verdanken sei, der je in der Politikwissenschaft stattgefunden habe. So weit würden andere vielleicht nicht gehen; aber es ist heute durchaus üblich, in der Einleitung zu Sammelbänden und Überblicksartikeln Verbeugungen vor den Leistungen dieser Theorie zu machen. So heißt es etwa bei Jack Knight (1992,1063), die Rational-Choice-Theorie habe „unser Verständnis von der Rolle von Institutionen im sozialen Leben erheblich vorangebracht". Nach Gregory Kavka (1991, 371) war die Ausbreitung ökonomischer Rational-Choice-Modelle nirgendwo „umfassender oder erfolgreicher als im Bereich der Politik". Für Kristen Monroe (1991, 2) ist die Rationalwahl „eines der vorherrschenden Paradigmen der Politik- und Sozialwissenschaft, das aufschlußreiche, strenge und sparsame Erklärungen ermöglicht". Peter Abell (1992, 203 f.) schließlich fordert die Soziologen unter anderem auch deshalb auf, die Rational-Choice-Theorie zu übernehmen, weil ihre Erfolge in der Politikwissenschaft so zahlreich und offenkundig seien, daß sie „kaum der Erwähnung bedürfen". Rational-Choice-Theoretiker sind keineswegs die ersten, die versucht haben, politische Prozesse mit Hilfe der Annahme zu erklären, daß sowohl Wähler als auch Politiker rationale Interessen- oder Nutzenmaximierer sind. Während frühere Untersuchungen zu diesem Thema aber eher informell und skizzenhaft waren4, gehen moderne Rational-Choice-Theoretiker bei der Ableitung von Aussagen über die Mikrofundierung politischen Verhaltens systematisch vor. Um politische Phänomene zu erklären, benutzen sie deduktive Modelle, die von den Anreizen, Zwängen und Kalkülen ausgehen, mit denen Individuen zu tun haben. Durch diese systematischanalytische Untersuchung des strategischen Verhaltens von Individuen haben Rational-Choice-Theoretiker neue Zugänge zu traditionellen Problemen der Politikwissenschaft eröffnet und neue Fragen über die Natur politischer Phänomene aufgeworfen. Sie behaupten nicht, daß traditionelle Politikwissenschaftler die falschen Phänomene untersucht haben, sondern vielmehr, daß sie die richtigen Phänomene im falschen Licht betrachtet haben, weil sie die Logik der Mikrofundierung politischen Verhaltens außer acht ließen. Das Aufkommen der Rational-Choice-Theorie hat die geistige Landschaft der Politikwissenschaft erheblich verändert. Seit den fünfziger Jahren haben RationalChoice-Modelle beispielsweise zu einer Reihe von Theoremen über die Logik der Mehrheitsregel geführt, die darauf hindeuten, daß demokratische Institutionen vielleicht in bislang nicht wahrgenommener Hinsicht grundlegend dysfunktional sind. Diese analytischen Ergebnisse haben mindestens drei miteinander verbundene Forschungsrichtungen hervorgebracht. Eine davon beschäftigt sich mit der Untersuchung von Ungereimtheiten in demokratischen Verfahren und mit der Erkundung von institutionellen Reformen, die diese Ungereimtheiten wenigstens im Prinzip 4

Vgl. Hans Morgenthau, Politics Among Nations, Charles Beard, Economic Theory of the Constitution, John Calhoun, Disquisition of Government sowie The Federalist Papers, ganz zu schweigen von Marx' umfassendem Werk und Hobbes' Leviathan.

14

1. Rationalität in Politik und Wirtschaft

auflösen könnten (Riker 1982). Ein zweiter Strang bedient sich der analytischen Ergebnisse der fünfziger Jahre, um eine Reihe von politischen Phänomenen zu erklären, mit denen Politikwissenschaftler bislang gar nicht oder nicht befriedigend zurechtgekommen sind. Scheinbar willkürliche Muster politischer Entscheidungsfindung (Riker 1992), systemische Inflation (Nordhaus 1975), defizitäre Ausgabenpolitik (Buchanan und Wagner 1977) oder die stetige Ausdehnung des öffentlichen Sektors (Meitzer und Richard 1978, 1981; Peltzman 1980) sind in diesem Zusammenhang alle mit dem Hinweis auf die Willkür und Manipulierbarkeit demokratischer Institutionen interpretiert worden. Die dritte Forschungsrichtung schließlich, die sich auf der Grundlage früher Rational-Choice-Erkenntnisse über die Logik der Mehrheitsregel entwickelte, beschäftigt sich mit neuartigen Überlegungen zur normativen Grundlage der Demokratie. Wenn vermeintliche Mehrheiten oft nur Trugbilder sind, wenn Minderheiten die demokratischen Entscheidungsregeln so manipulieren können, daß sie die von ihnen gewünschten Ergebnisse hervorbringen, und wenn es unmöglich ist, individuelle Wünsche zu einem „Gemeinwillen" zu verschmelzen, wie Rousseau im Contrat Social behauptet hatte, dann müssen die Natur und die Wünschbarkeit von Demokratie neu überdacht werden (Buchanan und Tullock 1962; Brittan 1977; Riker 1982). Der Rational-Choice-Ansatz hat der Politikwissenschaft auch einen neuen Zugang zur Untersuchung der Dynamik innerhalb demokratischer Institutionen eröffnet. Anciennitätsregeln und die Vergabe von Ausschußsitzen (McKelvey und Riezman 1992; Cox und McCubbins 1993), die Methoden, mit denen gewählte Politiker Verwaltungen kontrollieren (McCubbins und Schwartz 1984; Weingast 1984), die interne Struktur und Beschaffenheit von Verwaltungen selbst (Moe 1989) sowie die makroökonomischen Maßnahmen von Regierungen (Nordhaus 1975; Lindbeck 1976; Tufte 1978) wurden alle auf die für gewählte Politiker oft so typischen Bemühungen zurückgeführt, in Amt und Würden zu bleiben und ihre Pfründe zu sichern. Und was für Politiker gilt, das gilt auch für politische Organisationen und für Wähler. Die meisten Rational-Choice-Studien kommen zu dem Schluß, daß die Parteien viel mehr darum bemüht sind, ihre Chancen auf einen Wahlsieg zu maximieren, als ein bestimmtes ideologisches Programm durchzusetzen, und daß es den Wählern beim politischen Prozeß vor allem um die Maximierung ihrer individuellen Interessen geht. Personen, die Zeit und Geld zur Unterstützung von Wahlkämpfen opfern, tun dies keineswegs nur, weil sie damit eine Bürgerpflicht erfüllen oder weil sie unbedingt Einfluß auf das politische Geschehen nehmen wollen, wie Politikwissenschaftler traditionell häufig annahmen (Hedges 1984). Rational-Choice-Theoretiker behaupten vielmehr, daß der Einsatz im Wahlkampf wahrscheinlich oft wie eine Markttransaktion aufgefaßt wird: Die Spender tätigen eine „Investition" im Austausch gegen „Vorteile", die die Kandidaten für den Fall ihrer Wahl versprechen (Snyder 1990). Zwar sind viele dieser Behauptungen mit früheren Hypothesen über Politiker und Wähler vereinbar, aber Rational-Choice-Theoretiker haben die Mikrofundierung dieser Verhaltensweisen mit einer in der Politikwissenschaft zuvor nie erreichten Sparsamkeit und Strenge herausgearbeitet. Durch die Analyse der Anreize, denen

Die Erklärungskraft der Rational-Choice-Theorie

15

politische Akteure in verschiedenen strukturellen Zusammenhängen ausgesetzt sind, versuchen Rational-Choice-Theoretiker, unser Verständnis von der Natur der Politik und den Möglichkeiten und Grenzen politischer Reformen zu bereichern.

Die Erklärungskraft der Rational-Choice-Theorie Die Rational-Choice-Bewegung ist von einer Aura das Erfolgs umgeben. Das hat dazu geführt, daß politikwissenschaftliche Zeitschriften „voll sind von spieltheoretischen Modellen von Wahlen und Ausschüssen, Krieg und Abschreckung; die Herausgeber reißen sich um jedes halbfertige Manuskript" (Ordeshook 1993, 74). Merkwürdigerweise kann sich jedoch das Ansehen der Rational-Choice-Forschung nicht auf eine ohne weiteres angebbare Menge empirischer Erfolge stützen. 1978 stellten etwa McKelvey und Rosenthal (405 f.) fest, daß die Spieltheorie zwar „auf der begrifflichen Ebene" bedeutenden Einfluß auf die Politikwissenschaft gewonnen, aber nur selten zu einer „rigorosen empirischen Analyse von tatsächlichem politischem Verhalten" geführt habe. Ein Jahr später bemerkte Fiorina (1979,48) spitz, die Beschäftigung mit den empirischen Erfolgen der Rational-Choice-Theorie sei in etwa damit vergleichbar, daß man sich mit den Toqägerqualitäten eines Torwarts aufhält. Daran hat sich seitdem offenbar nicht viel geändert. In einem Überblicksaufsatz über die Literatur zum Gesetzgebungsprozeß stellt Krehbiel (1988, 259) fest, daß „in den vergangenen zehn Jahren räumliche Modelle aufgrund verschiedener Durchbrüche erheblich an Bedeutung und Anerkennung gewonnen" hätten, gibt aber zu, daß empirische Erfolge bislang weitgehend ausgeblieben seien. Auch in dem Überblickskapitel von Lalman, Oppenheimer und Swistak (1993) zum Beitrag der Rational-Choice-Theorie zur Politikwissenschaft überwiegen analytische Innovationen gegenüber empirischen Erfolgen.5 Auch Kritiker der Rational-Choice-Theorie scheinen sich oft kaum für die Beschäftigung mit der empirischen Anwendung zu interessieren. Sie konzentrieren ihre Angriffe vielmehr auf die Annahmen der Rational-Choice-Theorie Uber die menschliche Psyche und Rationalität oder auf ihre vermeintlichen ideologischen Implikationen. Diese Tendenz spiegelt sich auch in vier Sammelbänden wider, die seit 1986 erschienen sind: Eine Ausgabe von Rationality and Society (Oktober 1992), die vollständig einem Symposium Uber Rational-Choice-Theorie gewidmet ist, enthält keinen einzigen Beitrag (von Befürwortern oder von Kritikern), der sich mit den empirischen Erfolgen oder Mißerfolgen von Rational-Choice-Modellen auseinander5

Zwar behaupten Lalman u. a., daß „die Menge der formalen Ergebnisse und ihrer empirischen Überprüfungen stetig angewachsen" (82) sei und daB „formale Theoriemodelle wiederholt zu einer besseren Spezifizierung der statistischen Modelle geführt haben - bis hin zur Angabe der Form der zu schätzenden Funktion. Viele neue (zum Teil nicht offenkundige) Beziehungen konnten durch die Anwendung formaler Methoden aufgedeckt werden" (98). Leider werden diese Behauptungen aber nicht weiter ausgeführt.

16

1. Rationalität in Politik und Wirtschaft

setzt - und das, obwohl die Zeitschrift den Anspruch hat, „ein Forum für die Diskussion über den Begriffsapparat und die empirische Anwendung der Rational-ChoiceTheorie in den Sozialwissenschaften zu bieten". Dasselbe gilt auch für den von Coleman und Fararo 1992 herausgegebenen Band Rational Choice Theory: Advocacy and Critique, obwohl einige der darin enthaltenen Aufsätze so vielversprechende Titel wie „Rational Choice Theory: A Critical Assessment of its Explanatory Power" oder „The Limits of Rational Choice Explanation" tragen. Und in Jon Elsters Sammelband Rational Choice (1986a) sowie in Kristen Monroes Economic Approach to Politics (1991) sind zwar Aufsätze enthalten, die sich mit empirischen Problemen auseinandersetzen, aber keiner davon hat eine empirische Überprüfung von Ergebnissen der Rational-Choice-Forschung zum Thema. Wir hingegen wollen uns im weiteren genau darauf konzentrieren: auf die Frage nach der empirischen Erklärungskraft der Rational-Choice-Theorie. Wir meinen, daß sich die hohen Erwartungen, die dem Rational-Choice-Ansatz in der Politikwissenschaft entgegengebracht werden, als voreilig erweisen, sobald man sich mit der Frage beschäftigt, was die entsprechende Literatur zu unserem Verständnis von Politik tatsächlich beigetragen hat. Dabei wollen wir nicht bestreiten, daß die Vertreter der Rational-Choice-Theorie ungeheuer subtile und zunehmend komplexe Modelle hervorgebracht haben. Wir sehen lediglich nicht, inwiefern diese Modelle unser Verständnis davon, wie Politik tatsächlich funktioniert, vorangebracht haben könnten. Bis heute ist der größte Teil der theoretischen Hypothesen von Rational-ChoiceTheoretikern nicht empirisch getestet worden. Und diejenigen Tests, die stattgefunden haben, sind entweder nach Maßgabe der eigenen Kriterien gescheitert oder haben Aussagen gestützt, die bei genauerer Betrachtung als banal zu bezeichnen sind, da sie sich im wesentlichen darauf beschränken, bereits vorhandene Erkenntnisse in Rational-Choice-Terminologie zu übersetzen. Die Tatsache, daß die Rational-Choice-Theorie das Zutrauen ihrer Anhänger bisher empirisch nicht hat rechtfertigen können, legt es nahe, die Rational-Choice-Forschung selbst als wissenschaftliches Unternehmen näher zu beleuchten. Nach unserer Überzeugung wurzeln die Schwächen von Rational-Choice-Studien in der für ihre Vertreter typischen Suche nach universellen Theorien der Politik. Dieser Ehrgeiz veranlaßt viele Rational-Choice-Theoretiker, sich immer subtileren Formen der Theoriebildung zu verschreiben, ohne dabei die Frage zu beachten, wie diese Theorien - zumindest prinzipiell - operationalisiert und getestet werden können. Wenn sich Rational-Choice-Theoretiker aber tatsächlich an der empirischen Anwendung ihrer Modelle versuchen, weisen ihre Arbeiten häufig eine Reihe von charakteristischen Fehlem auf, die sich auf eben jene universalistischen Ambitionen zurückführen lassen, die für viele Rational-Choice-Theoretiker irrtümlicherweise der Inbegriff guter wissenschaftlicher Arbeit sind. Diese Defekte lassen sich in jeder Etappe der theoretischen Entwicklung und empirischen Überprüfung feststellen. Hypothesen werden so formuliert, daß sie empirisch nicht umsetzbar sind; Daten werden einseitig ausgewählt und getestet; Schlüsse werden gezogen, ohne alternative Erklärungsmöglichkeiten in Betracht zu ziehen; empirische Anomalien oder widersprechende Tatsachen werden häufig entweder ignoriert oder mittels post ftoc-Modifi-

Gegenstand unserer Kritik

17

kationen der deduktiven Argumentation umgangen. Dadurch, daß Theorien erarbeitet und dann so abgeändert werden, daß ihr universalistischer Charakter bewahrt wird, anstatt sie den Bedingungen aussagekräftiger empirischer Überprüfungen anzupassen, erzeugen und verstärken die methodologischen Mängel der RationalChoice-Theorie, die wir in diesem Buch behandeln wollen, ein Schwächungssyndrom, das dazu führt, daß Theorien nicht mehr anhand der Daten überprüft, sondern Daten anhand der Theorien angefochten und übergangen werden. Die empirische Forschung wird sozusagen an der Theorie anstatt an Problemstellungen ausgerichtet; sie dient damit vornehmlich dem Zweck, irgendeine Variante der Rational-ChoiceTheorie zu retten oder zu verteidigen, anstatt politische Phänomene zu erklären. Wenn auch die Rational-Choice-Kritik an anderen Modellen der Politikwissenschaft berechtigt sein mag, so bleibt doch festzuhalten, daß sie sich selbst als streng empirische Unternehmung erst noch beweisen muß. Wie sich herausstellen wird, lassen sich sogar viele der Einwände, die Rational-Choice-Theoretiker üblicherweise gegen konkurrierende sozialwissenschaftliche Ansätze vorbringen, auch gegen ihre eigene empirische Arbeit geltend machen. So beklagen sie etwa, die induktive Theoriebildung sei „nicht fruchtbar, da sie zu wenigen logischen Beschränkungen unterliegt", Erklärungskategorien könnten willkürlich „vervielfacht werden, um auf alle Fälle zu passen", und es sei unmöglich, zwischen einer „wichtigen Entdekkung" und einem „Artefakt" zu unterscheiden (Achen und Snidal 1989, 167 f.). Wir werden im folgenden zeigen, daß ein Großteil der bisherigen empirischen RationalChoice-Forschung ebenso kritikanfällig ist. Sie wird beeinträchtigt von unwissenschaftlich ausgewählten Stichproben, fehlerhaft durchgeführten Tests und einseitigen Interpretationen ihrer Ergebnisse. Die Rational-Choice-Theorie hat daher - trotz ihres großen und noch immer wachsenden Ansehens in der Disziplin - bisher keineswegs ihr Versprechen eingelöst, die empirische Politikforschung voranzubringen.

Gegenstand unserer Kritik Obwohl wir überzeugt sind, daß unsere Kritik auf alle Bereiche der Rationalwahl zutrifft, werden wir uns hier nur mit einem Teil der Literatur beschäftigen. Das ist unvermeidbar. Die Produktions- und Veröffentlichungsrate von Rational-ChoiceStudien ist so hoch, daß man wohl nie zu einem Ende kommen würde, wenn man versuchen wollte, eine erschöpfende Beurteilung der gesamten Literatur abzugeben. Wir konzentrieren uns deshalb auf Untersuchungen zur US-amerikanischen Politik einen Bereich, in dem der Rational-Choice-Ansatz besonders weit entwickelt ist und betrachten dort vor allem die Themen des kollektiven Handelns, der Gesetzgebung und des Parteienwettbewerbs. Drei klassische Arbeiten bilden hierfür die Grundlage, nämlich Kenneth Arrows Social Choice and Individual Values (1951), Anthony Downs' An Economic Theory of Democracy (1957; dt.: Eine ökonomische

18

1. Rationalität in Politik und Wirtschaft

Theorie der Demokratie, 1968) und Mancur Olsons The Logic of Collective Action (1965; dt.: Die Logik des kollektiven Handelns, 1968). Arrows Unmöglichkeitstheorem läßt alle demokratischen Verfahren zur kollektiven Entscheidungsfindung potentiell verdächtig erscheinen. Als Antwort auf Abram Bergsons einflußreiche Analyse der sozialen Wohlfahrtsfunktion (1938), nach der es für den Staat möglich zu sein schien, durch die objektive Aggregation individueller Präferenzen die soziale Wohlfahrt zu maximieren, zeigte Arrow, daß es unter Voraussetzung minimaler Annahmen über Rationalität und die Komplexität von Entscheidungen keine Wohlfahrtsfunktion geben kann, die nicht entweder willkürlich oder diktatorisch ist. Die Einsicht in diese Unmöglichkeit, die Arrow den Nobelpreis einbrachte, hat die Vorstellung von Rational-Choice-Theoretikern über die grundlegenden Eigenschaften von Demokratie und Mehrheitsregel enorm beeinflußt. Ganz besonders hat sie spätere Untersuchungen des potentiell instabilen Charakters von Mehrheitskoalitionen geprägt. Arrow hatte festgestellt, daß es zu zyklischen Mehrheiten kommen kann, wenn drei Wähler {I, II, III} unter drei möglichen Ergebnissen {A, B, C} nach der Mehrheitsregel wählen müssen. Nehmen wir zum Beispiel an, Wähler I zieht Α gegenüber Β und Β gegenüber C vor, Wähler II zieht Β gegenüber C und C gegenüber Α vor, und Wähler III zieht C gegenüber Α und Α gegenüber Β vor. Wenn Α der status quo ist, kann er durch C, C wiederum durch Β und Β durch Α geschlagen werden. In diesem Beispiel kann also die Mehrheitsregel keine stabile kollektive Wahlentscheidung liefern. Zwar ist das Problem der zyklischen Mehrheiten seit Condorcet bekannt; aber erst Arrow hat seine umfassendere Bedeutung für die Politikforschung deutlich gemacht. Eine Ökonomische Theorie der Demokratie (Downs 1968) gilt heute weithin als „einer der Eckpfeiler moderner Rational-Choice-Theorie" (Monroe 1991, ix). Nach Downs ist das Programm einer Partei nicht einfach eine Auflistung ihrer Ziele, sondern ein Mittel, um politische Ämter zu gewinnen. Wenn zwei politische Parteien ihre jeweilige Position entlang eines ideologischen Kontinuums austarieren müssen, um möglichst viele Wähler zu gewinnen, dann - so Downs - stellt man in der Regel fest, daß sie sich beide allmählich der ideologischen Position des „Medianwählers" annähern (vgl. Kapitel 7). Wenn die Anzahl der Parteien oder der ideologischen Dimensionen zunimmt oder wenn sich die Wähler der Stimme enthalten, falls ihnen keine der angebotenen Alternativen zusagt, dann wird die Sache komplizierter. Seit den fünfziger Jahren sind viele Untersuchungen über den Parteienwettbewerb genau diesen komplexen Zusammenhängen nachgegangen, was von Downs' anhaltendem Einfluß auf die Analyse der Politik der USA zeugt. Downs eröffnete der Politikwissenschaft auch einen neuen Zugang zur Natur von Massenmeinungen und politischer Partizipation. Anstatt sich der damals üblichen Klage über die Apathie und Ignoranz der Wähler anzuschließen, argumentierte Downs, daß es angesichts des kollektiven Charakters politischer Wahlen irrational wäre, wenn Wähler Ressourcen für die Beschaffung politischer Informationen aufwendeten. In eine ähnliche Richtung geht auch seine Feststellung, daß die Wahlbeteiligung ein Problem kollektiven Handelns sei. Warum sollte ein rationales Individuum überhaupt zur Wahl gehen, wo doch die Wahrscheinlichkeit, daß die Stimme eines einzelnen Wählers das

Gegenstand unserer Kritik

19

Wahlergebnis verändert, so winzig ist? Downs' Überlegungen zum Parteienwettbewerb, zur Wählerpositionierung im ideologischen Raum, zu rationaler Ignoranz und Wahlbeteiligung haben die Forschung zur US-amerikanischen Politik so sehr verändert, daß Mueller (1989,4) dem Buch „den vielleicht größten Einfluß auf Politikwissenschaftler" zuschreibt, den je eine Arbeit zur Rational-Choice-Theorie verbuchen konnte. Die Logik des kollektiven Handelns (Olson 1968) erweiterte den Anwendungsbereich der Rational-Choice-Theorie Uber das Handeln von Regierungen und politischen Parteien hinaus. Olson interessierte sich vor allem für die logische Grundlage der Mitgliedschaft in und der Beteiligung an Interessengruppen. Führende Politikwissenschaftler seiner Zeit räumten Gruppen einen fast primordialen Status ein. Einige verwiesen im Sinne von Gaetano Mosca (1939, 163) auf den natürlichen menschlichen „Instinkt", sich „in Herden zusammenzuschließen und gegen andere Herden zu kämpfen". Andere folgten Talcott Parsons und Robert Bales (1955, 9) in der Auffassung, die Bildung von Gruppen, die nicht auf Verwandtschaftsverhältnissen beruhen, gehe auf den Prozeß der Modernisierung zurück. Wie immer die Rechtfertigung aussah - Politikwissenschaftler gingen im allgemeinen von organisierten Gruppen als Grundeinheiten der Politik aus: Einheiten, die sich praktisch unausweichlich um gemeinsame Werte und Interessen bilden. Diese Gruppentheorie der Politik, wie sie etwa von Arthur Bentley, David Truman und Earl Latham vertreten wurde, war die Hauptzielscheibe von Olsons Kritik. Ihrer Annahme, daß private Gruppen und Verbände nach Prinzipien funktionieren, die sich von denen, die „die Beziehungen zwischen Unternehmungen auf dem Markt oder zwischen Steuerzahlern und Staat regeln" (1968, 15), unterscheiden, stellte er eine radikal andere Vorstellung von der logischen Grundlage organisierten kollektiven Handelns entgegen. Seine Hauptthese lautete, daß „nur ein besonderer,,selektiver' Anreiz" - d. h. ein Anreiz, in dessen Genuß nur kommt, wer zum Gruppenwohl beiträgt - „ein rational handelndes Mitglied einer latenten Gruppe dazu bewegen [wird], gruppenorientiert zu handeln" (1968,49). Ähnlich wie Downs interessierte sich auch Olson insbesondere für die Logik des Trittbrettfahrens. Wenn wirtschaftliche, politische oder soziale Güter unabhängig davon zur Verfügung gestellt werden, ob man zu ihrer Bereitstellung beiträgt, dann wird ein rationales Individuum diese Güter konsumieren, ohne einen eigenen Beitrag zu leisten. Olsons Arbeit machte das Trittbrettfahrerproblem auch für die Politikwissenschaft relevant; seitdem ist das Thema immer wieder Gegenstand von Rational-Choice-Untersuchungen gewesen. Nach Einschätzung von Mueller „spielt das Trittbrettfahrerproblem bei jeder Art von kollektiver Entscheidung eine Rolle. Es macht erforderlich, daß Gesetze erlassen, Steuern erhoben und Polizisten beschäftigt werden. Es hält Menschen davon ab, sich über die öffentlichen Angelegenheiten zu informieren; es hält sie sogar vom Wählen ab" (1989, 319). Wie groß Olsons Einfluß auf diesem Gebiet ist, läßt sich schon allein daran ablesen, daß das gesamte Kapitel über die Logik kollektiven Handelns in Muellers Überblick Uber die Rational-Choice-Theorie unmittelbar an Olsons Arbeit und den Reaktionen darauf ausgerichtet ist.

20

1. Rationalität in Politik und Wirtschaft

Abgesehen von ihren eigenen bahnbrechenden Beiträgen haben Arrow, Downs und Olson mit ihren Arbeiten auch eine Fülle von weiteren Veröffentlichungen angeregt, die weithin zum Fortgeschrittensten und Besten gezählt werden, was der Rational-Choice-Ansatz in der Politikwissenschaft hervorgebracht hat. Für Monroe (1991, 2) gehören die von dieser Literatur abgedeckten Felder zu den Forschungsbereichen, in denen Rational-Choice-Theorien „aufschlußreiche, strenge und sparsame Erklärungen" geliefert haben. Alle diese Arbeiten werden auch in Ordeshooks Liste von „Eckpfeilern" der Rational-Choice-,Revolution" genannt (1993, 72, 87, 92). Gemeinsam nehmen sie zudem gut die Hälfte von Muellers Lehrbuch von 1989 ein. Und wer noch einen weiteren Beleg für die führende Rolle dieser Arbeiten auf dem Gebiet der Rational-Choice-Forschung für nötig hält, findet ihn bei Lalman, Oppenheimer und Swistak (1993) in ihrem Überblick über die Beiträge der Rational-Choice-Theorie zur Politikwissenschaft: Sie heben die Stabilität von Koalitionen und das kollektive Handeln ausdrücklich als die Bereiche hervor, in denen die Rational-Choice-Theorie ihre wichtigsten Beiträge geleistet habe. Auch wir beziehen uns hauptsächlich auf diese Gruppe von Arbeiten, und wir behaupten, daß bis heute nur wenige theoretische Erkenntnisse, die aus der RationalChoice-Theorie gewonnen und einer ernsthaften empirischen Überprüfung unterzogen wurden, dem standgehalten haben. Bei näherer Betrachtung stellt sich heraus, daß viele empirische Tests so fehlerhaft durchgeführt wurden, daß sie zur Beurteilung der Rational-Choice-Hypothesen unbrauchbar sind. Richtig durchgeführte Überprüfungen dagegen haben in der Regel entweder die Hypothesen widerlegt oder banale Aussagen bestätigt. Darüber hinaus sind viele Rational-Choice-Hypothesen so formuliert, daß sie sich von vornherein einer echten empirischen Überprüfung entziehen und damit Zweifel aufkommen lassen, ob die Betätigung im Bereich der Rationalwahl tatsächlich als Sozialwissenschaft angesehen werden kann. Die Mängel der bisher vorliegenden empirischen Untersuchungen sollte Rational-ChoiceAnhänger eigentlich mehr beschäftigen, als dies offensichtlich der Fall ist. Im weiteren Verlauf unserer Kritik werden wir verschiedene Möglichkeiten aufzeigen, wie ihre Theorien so umgestaltet werden könnten, daß die von uns diagnostizierten Schwierigkeiten vermieden werden.

Worum es uns nicht geht Wichtig scheint es uns, gleich zu Beginn klarzustellen, womit wir uns nicht beschäftigen werden. Erstens haben wir keinerlei Einwände gegen den Anspruch der Rational-Choice-Theoretiker, Politik wissenschaftlich zu erforschen. Wir begrüßen im Gegenteil die wissenschaftliche Absicht hinter dem Rational-Choice-Projekt. Wie seine Vertreter richtig feststellen, ist vieles von dem, was sich als wissenschaftliche Politikforschung geriert, alles andere als das; und es geht ihnen darum, das zu ändern. Während viele andere Politikwissenschaftler die traditionellen Ziele der

Worum es uns nicht geht

21

Wissenschaft aufgegeben haben, halten Rational-Choice-Theoretiker an ihrem Anspruch fest, „gesetzesartige Aussagen über meßbare Phänomene" zu formulieren und „Theorien zu entwickeln, die beobachtete Verhaltensmuster und Praktiken erklären und vorhersagen können" (Ferejohn 1991, 280). Auch wenn wir hinsichtlich der Möglichkeit, allgemeine Gesetze der Politik zu entdecken, nicht so zuversichtlich sind wie die meisten Rational-Choice-Theoretiker, teilen wir doch ihr Bestreben, Politik wissenschaftlich zu untersuchen. Wie wir jedoch in Kapitel 2 argumentieren werden, sollte nach allen wissenschaftsphilosophischen Auffassungen, die von Rational-Choice-Theoretikern gewöhnlich vertreten werden, die empirische Überprüfung eine zentrale Rolle spielen. Und das ist derzeit nicht der Fall. Zweitens haben wir weder etwas gegen die formale, mathematische Darstellungsweise, der sich Rational-Choice-Theoretiker häufig bedienen, noch gegen die Entwicklung einer „kohärenten, sparsamen und deduktiven Theorie" (Ordeshook 1993, 72). Es hat durchaus Vorteile, eine Theorie in Form einer deduktiven Aussagenmenge darzustellen; dadurch können Widersprüche, die in nicht formal dargestellten Theorien unerkannt bleiben, ans Tageslicht gebracht und bislang verborgene analytische Beziehungen aufgedeckt werden. Wir werden in den folgenden Kapiteln jedoch zeigen, daß Formalismus kein Allheilmittel für die Probleme der Sozialwissenschaften ist. Eine formale Darstellungsweise garantiert noch nicht einmal klares Denken. Formal strenge Theorien können ungenau und mehrdeutig sein, wenn ihre empirischen Referenten nicht präzise spezifiziert werden. Formalisierung kann im übrigen auch kein Zweck an sich sein; eine Theorie mag analytisch noch so knapp und sparsam sein - ihr wissenschaftlicher Wert hängt letztlich davon ab, wie gut sie relevante Daten erklären kann. Prinzipiell aber haben wir keinerlei Einwände gegen Formalismus. Drittens beabsichtigen wir nicht, einen allgemeinen Angriff gegen das Rationalitätsparadigma zu führen. Im Gegensatz zu anderen Kritikern der Rational-ChoiceTheorie bekennen wir uns hinsichtlich der Frage, ob rationale Individuen die Quelle politischer Phänomene sind, als Agnostiker. Wir behaupten auch nicht, daß Rational-Choice-Modelle keinen heuristischen Wert oder Nutzen für die Hypothesenbildung haben können. Wir sind durchaus offen gegenüber der Möglichkeit, daß Rationalität in haltbaren politikwissenschaftlichen Erklärungen häufig eine Rolle spielen mag. Aber das ist etwas ganz anderes als zu sagen, daß Rational-Choice-Anwendungen wichtige empirische Beiträge zur Politikforschung geleistet haben; nach unserer Meinung ist genau das nicht der Fall. Viertens behaupten wir auch nicht, daß Rational-Choice-Modelle generell unfähig sind, politische Phänomene zu erklären, sondern nur, daß bislang nur wenige nichttriviale Anwendungen solcher Modelle der empirischen Überprüfung standgehalten haben. Wie sich zeigen wird, gibt es unserer Ansicht nach gute Gründe, gegenüber den universalistischen Ambitionen vieler Rational-Choice-Theoretiker skeptisch zu sein. Aber wir geben gerne zu, daß bestimmte Rational-Choice-Anwendungen durchaus haltbar sein mögen. Wir werden allerdings argumentieren, daß die bis heute vorliegenden empirischen Studien, die die Rational-Choice-Modelle vermeintlich stützen, große Mängel aufweisen und daß die Untersuchungen, die korrekt durchge-

22

1. Rationalität in Politik und Wirtschaft

führt wurden, in der Regel den Rational-Choice-Ansatz in Frage stellen. Fehlerhafte empirische Arbeiten sind hier nicht nur eine Folge schlampiger Arbeit (obwohl das, wie überall in den Sozialwissenschaften, oft genug vorkommt), sondern auch davon, daß Rational-Choice-Theoretiker dazu neigen, bei der Formulierung und Überprüfung empirischer Hypothesen bestimmte typische Fehler zu begehen. Folglich ist die Rational-Choice-Theorie, so eindrucksvoll ihre analytischen Ergebnisse oft auch sein mögen, bislang den Beweis schuldig geblieben, daß sie uns zuverlässig irgend etwas Neues über Politik sagen kann. Wenn Rational-Choice-Modelle rigoros empirisch angewendet und überprüft werden sollen, dann müssen ihre Vertreter an empirische Fragen anders herangehen. Im Laufe dieser Arbeit werden wir verschiedentlich konkrete Vorschläge unterbreiten, wie dies erreicht werden kann. Fünftens schließlich beschäftigen wir uns mit der Rational-Choice-Theorie als einem erklärenden Ansatz in der Politikwissenschaft. Über die ideologischen oder präskriptiven Aspekte der Rationalwahl werden wir kaum etwas sagen. Das heißt jedoch nicht, daß die Diskussion keine normativen Implikationen hätte. Präskriptive Schlußfolgerungen werden gelegentlich aus erklärenden Rational-Choice-Argumenten gezogen, die selbst auf wackligen empirischen Beinen stehen. So gibt es beispielsweise eine recht umfangreiche Rational-Choice-Literatur zum Phänomen des sogenannten rent-seeking, worunter verstanden wird, daß monopolistische Interessengruppen Regierungen dazu veranlassen, ihre dominante Position durch entsprechende Gesetzgebung abzusichern. Nun ist aber keineswegs eindeutig belegt, daß und wie häufig solches Verhalten tatsächlich auftritt. Dennoch kommt Mueller (1989, 245) am Ende seines ansonsten ausgewogenen Überblicks über die RationalChoice-Literatur diesbezüglich zu dem Schluß, „der beste und einfachste Weg zur Vermeidung des rent-seeking-Problems ist es, die Einrichtung von Institutionen zu vermeiden, die Renten erzeugen, also von Regelungen und Regelungsinstanzen, die zu rent-seeking führen". Präskriptive Schlußfolgerungen dieser Art werden allzu oft auf der Grundlage empirisch zweifelhafter Rational-Choice-Hypothesen gezogen. Das ist etwa der Fall, wenn Riker und Weingast (1988, 378) argumentieren, die Manipulationsanfälligkeit der Mehrheitsregel rechtfertige solch drastische, gerichtlich durchgesetzte verfassungsmäßige Beschränkungen des legitimen Handlungsspielraums des Gesetzgebers, wie sie während der Lochner-Ära vom Obersten Gerichtshof der USA vertreten wurden. Riker und Weingast verweisen auf die analytische Möglichkeit legislativer Instabilität, um ihre Behauptung zu stützen, daß „weder der Oberste Gerichtshof noch die Rechtswissenschaft theoretische Argumente für die Annahme geliefert [haben], daß die Urteile des Gesetzgebers angemessen sind; sie [haben] sich noch nicht einmal die Frage gestellt, ob der Gesetzgeber überhaupt in der Lage ist, zu eindeutigen Urteilen zu kommen". Wie sich in den folgenden Kapiteln herausstellen wird, gibt es jedoch keine überzeugenden empirischen Belege für die Behauptung von Riker und Weingast, daß zyklische Mehrheiten in bestehenden Gesetzgebungsorganen tatsächlich häufig vorkommen. Wenn erklärende Rational-Choice-Theorien dazu benutzt werden, derartige präskriptiven Behauptungen zu stützen, erhalten sie

Der Aufbau des Buches

23

einen ideologischen Zug, der durch die Kritik an der fragwürdigen empirischen Grundlage, auf der sie beruhen, enthüllt wird.

Der Aufbau des Buches Wir beginnen in Kapitel 2 mit einem Überblick über die wichtigsten Merkmale der Rational-Choice-Theorie, wobei wir aufzeigen werden, worüber sich die verschiedenen Vertreter einig sind und worüber nicht. Kapitel 3 ist der Darstellung der typischen Defizite gewidmet, unter denen Rational-Choice-Anwendungen leiden. Dieses Kapitel bereitet auch die Grundlage für den kritischen Überblick über die Literatur in den darauffolgenden vier Kapiteln. Kapitel 4 und 5 beschäftigen sich mit kollektivem Handeln: In Kapitel 4 geht es um die Wahlbeteiligung, in Kapitel 5 um soziale Dilemmata. Kapitel 6 behandelt zyklische Mehrheiten und legislatives Verhalten, und Kapitel 7 beschäftigt sich mit räumlichen Modellen des Parteienwettbewerbs. In Kapitel 8 setzen wir uns abschließend mit zehn Kritikpunkten auseinander, die vielleicht gegen unsere Argumente vorgebracht werden könnten. Wir hoffen, damit einen anhaltenden Dialog über die Zukunft der Rational-Choice-Theorie und der Politikwissenschaft anzuregen.

24

2. Worum geht es in der Rational-Choice-Theorie?

2. Worum geht es in der Rational-Choice-Theorie?

Bevor wir uns mit der Anwendung von Rational-Choice-Theorien beschäftigen, sollten wir zunächst klären, worum es sich dabei Uberhaupt handelt und was Rational-Choice-Theorien von anderen Theorien unterscheidet. Wie Jackman (1993, 281), Grofman (1993b) und andere festgestellt haben, wird dieser Ansatz zur Untersuchung politischer Phänomene häufig dadurch karikiert, daß er auf eine oder zwei seiner zentralen Annahmen reduziert und als eine monolithische Theorie dargestellt wird, die all seine Anhänger vermeintlich vorbehaltlos akzeptieren. Richtig ist dagegen, daß sich die meisten seiner Anhänger über einige, aber keinesweg über alle Bedingungen einig sind, die zur Definition des Rational-Choice-Ansatzes gehören. Folglich gibt es auch weder eine einzige Rational-Choice-Theorie noch ein eindeutiges Klassifizierungskriterium. Diesem Umstand werden wir bei der nachfolgenden Darstellung des Rational-Choice-Ansatzes in der Politikwissenschaft Rechnung tragen. Dabei ist es nicht unsere Absicht, in die „hausinterne" Debatte über das angemessenste Verständnis von Rationalität schlichtend einzugreifen. Es geht uns vielmehr darum, den Lesern eine Vorstellung davon zu vermitteln, welche grundlegenden Auffassungen von Rationalität für die Rational-Choice-Tradition kennzeichnend sind und welche Konsequenzen damit jeweils für die empirische Überprüfung verbunden sind. Wir beginnen mit den weniger strittigen, von Rational-Choice-Theoretikem gemeinhin geteilten Annahmen Uber Nutzenmaximierung, die Struktur von Präferenzen, Entscheidungsfindung unter Unsicherheit und allgemeiner über die zentrale Rolle von Individuen bei der Erklärung kollektiver Ergebnisse. Im Anschluß daran wenden wir uns den strittigen Punkten zu, und zwar insbesondere den Fragen nach Natur und Inhalt menschlicher Ziele sowie nach dem Informationsumfang, den rationale Akteure vermeintlich besitzen und nutzen. Das Kapitel schließt mit einigen Bemerkungen zu den unterschiedlichen die Rational-Choice-Theoriebildung leitenden Ansichten darüber, was eine Erklärung ausmacht, und deren Implikationen für die empirische Forschung. Dieser Überblick bildet die Grundlage für die nachfolgenden Kapitel, in denen wir uns mit verschiedenen Rational-Choice-Modellen von politischen Phänomenen beschäftigen wollen.

Unstrittige Annahmen Weitgehend einig sind sich Rational-Choice-Theoretiker erstens darüber, daß Nutzenmaximierung ein zentraler Aspekt rationalen Handelns ist. Eine Person maximiert ihren Nutzen dann, wenn sie aus einer Menge von Handlungsoptionen dieje-

Unstrittige Annahmen

25

nige auswählt, von der sie annimmt, daß sie der Verwirklichung ihrer Ziele am besten dient. Nach Olson (1968, 64) sind die Handlungen eines Individuums dann rational, wenn es in Anbetracht seiner Überzeugungen seine „Ziele mit geeigneten und wirksamen Mitteln" verfolgt. Rationales Verhalten wird in der Regel mit „irgendeiner Form von Maximierung" (Arrow 1951, 3) gleichgesetzt. Was das aber genau ist, was da maximiert wird, und wie - wenn überhaupt - dieser Nutzen gemessen werden soll, darüber herrscht unter Rational-Choice-Theoretikern kaum Einigkeit.6 Sie gehen davon aus, daß sich Individuen für das Schicksal anderer Menschen (und auch für ihr eigenes) genau soweit interessieren, wie ihre jeweiligen Maximierungsstrategien davon betroffen sind. Daher können sie auch ohne weiteres der Behauptung zustimmen, daß sich das Wohlergehen anderer auf die Vorstellung von den eigenen Präferenzen auswirken kann: Wem Gleichheit am Herzen liegt, der wird selbst wollen, daß Arme mehr bekommen; und wer eine elitäre Einstellung hat, der wird wollen, daß andere weniger haben als er selbst. Die Maximierungsannahme verlangt nur, daß irgendeine Präferenzordnung maximiert wird, „ohne Angabe eines bestimmten Ziels" (Riker 1990, 173). Rational-Choice-Theoretiker sind sich zweitens auch darin einig, daß die Definition von Rationalität bestimmten &»ui5tenzbedingungen genügen muß. Diese Bedingungen sind ihrer Meinung nach für das Studium rationalen Handelns unabdingbar. „Würden ökonomische Einheiten nicht nach irgendeinem rationalen Muster handeln, dann wäre eine allgemeine Theorie darüber, was aus bestimmten Prämissen folgt, unmöglich" (Rothschild 1946, 50). Nach dem Vorbild der MikroÖkonomen versuchen auch in der Politikwissenschaft Rational-Choice-Theoretiker, sich auf möglichst wenige Konsistenzbedingungen zu beschränken; zwei von ihnen scheinen jedoch weitgehend anerkannt zu sein: Erstens müssen alle Handlungsalternativen eines Akteurs in eine Rangfolge gebracht werden können. Diese Bedingung wird gelegentlich als Annahme der Vollständigkeit - oder auch Verbundenheit (connectedness) - bezeichnet. Sie verlangt, daß ein Handelnder je zwei mögliche Ergebnisse entweder als ungleich ansieht (also das eine dem anderen vorzieht) oder als gleich einschätzt (d. h. zwischen ihnen indifferent ist). Sie verlangt nicht, daß den Präferenzen für unterschiedliche Alternativen numerische Werte zugeordnet werden, daß Vergleiche zwischen Individuen angestellt oder daß auf einer individuellen Präferenzordnung arithmetische Operationen durchgeführt werden können. Aber sie setzt voraus, daß für jedes Individuum und für alle möglichen Handlungsfolgen eine Präferenzordnung angegeben werden kann. Rational-Choice-Theoretiker gehen außerdem davon aus, daß Präferenzordnungen transitiv sind. Wenn jemand Α gegenüber Β und Β gegenüber C vorzieht, dann muß er gemäß dieser Konsistenzregel auch Α gegenüber C vorziehen. Aus Transitivität 6

Es gibt Formen strategischen Verhaltens, die nicht auf Maximierung ausgerichtet sind. Herbert Simon (1955, 1956) etwa vertritt die Ansicht, daB Menschen nicht stets die bestmögliche Alternative suchen, sondern daß sie sich mit dem begnügen, was sie in einer gegebenen Situation für „gut genug" oder für zufriedenstellend halten. Diese Art strategischen Verhaltens wird bei Simon und im folgenden als satisficing bezeichnet. Vgl. auch Eckstein 1991.

26

2. Worum geht es in der Rational-Choice-Theorie?

folgt nichts über die Intensität von Präferenzen oder über den Wert unterschiedlicher Handlungsfolgen im Vergleich. Sie erfordert nicht einmal, daß das Individuum sich dieser unterschiedlichen Werte bewußt ist, geschweige denn, daß sie sich durch Dritte messen lassen. Die Transitivitätsannahme setzt lediglich minimale Konsistenz innerhalb von Präferenzordnungen voraus. Wenn sowohl die Vollständigkeits- als auch die Transitivitätsbedingung erfüllt sind, liegt das vor, was Arrow (1951, 13) eine schwache Präferenzordnung genannt hat. Rational-Choice-Theoretiker sehen genau das im allgemeinen als axiomatisch für Rationalität an. 7 Drittens gehen Rational-Choice-Theoretiker in der Regel davon aus, daß Individuen den - auf irgendeiner Nutzenskala - ermittelten Erwartungswert ihrer eigenen Auszahlung maximieren (Luce und Raiffa 1957, 50). Sie konzentrieren sich auf den erwarteten und nicht auf den tatsächlichen Nutzen, weil Entscheidungen oft unter Bedingungen der Unsicherheit getroffen werden. Bevor ein Landwirt entscheiden kann, welche Feldfrucht er anbaut, muß er Vermutungen etwa Uber die künftigen Wetterverhältnisse anstellen, die er nicht mit Sicherheit vorhersagen kann. RationalChoice-Theoretiker gehen gewöhnlich davon aus, daß man den verschiedenen möglicherweise eintretenden Ereignissen numerische Wahrscheinlichkeiten zuschreiben kann - der Nutzen einer Handlungsfolge für einen Akteur ergibt sich dann unter Berücksichtigung der Wahrscheinlichkeit, daß sie auch eintritt (Elster 1986b; Harsanyi 1986). Nehmen wir ζ. B. an, eine Person hat eine neutrale Einstellung zum Risiko (obwohl das die Rational-Choice-Theorie keineswegs verlangt). Dann folgt nach dem Prinzip der Maximierung des Erwartungsnutzens, daß es ihr gleichgültig ist, ob sie DM 5 oder aber eine 50-prozentige Chance auf den Gewinn von DM 10 erhält. Die Annahme der Maximierung des Erwartungsnutzens wird gewöhnlich mit dem Hinweis auf das Theorem von von Neumann und Morgenstern (1947) gerechtfertigt. Sie haben gezeigt, daß man - bei nur schwachen Annahmen über rationales Verhalten für Entscheider, deren Wahlen zwischen bestimmten Ergebnissen und Lotterien gewissen Konsistenzanforderungen genügen, den verschiedenen möglichen Ergebnissen Nutzenwerte so zuschreiben kann, daß sie immer eine Wahl treffen, die ihren Erwartungsnutzen maximiert. „Der Erwartungsnutzen", so Fishburn (1988, 1), „dient seit mehr als einer Generation als das bevorzugte Modell für rationale Präferenzen bei Entscheidungen unter Risiko". Rational-Choice-Theoretiker sind sich, viertens, auch weitgehend darin einig, daß es sich bei den relevanten Maximierern um Individuen handelt. Im Gegensatz etwa zu den Evolutionsbiologen, die sich seit Jahrzehnten darüber streiten, ob die maßgebliche Einheit beim Überleben die Art, die Gruppe, das Individuum, das Gen oder eine andere Größe ist (siehe Gould 1992), herrscht unter Rational-Choice-Theoretikern in der Politikwissenschaft allgemeines Einvernehmen darüber, daß kollektive Ergebnisse durch das Maximierungshandeln von Individuen erklärt werden müssen. 7

Wenn wir R als eine singulare Beziehung „präferiert oder gleichgültig gegenüber" definieren, dann verlangt nach Arrows Darstellung (1951, 12 f.) der Begriff einer schwachen Präferenzordnung die Anerkennung der beiden folgenden Axiome: für alle χ und y gilt entweder xRy oder yRx, und Für alle x, y und ζ folgt xRz aus xRy und yRz.

Unstrittige Annahmen

27

Buchanan und Tullock (1962, 13) etwa meinen, kollektives Handeln sei lediglich „das Handeln von Individuen, die sich entschieden haben, Ziele gemeinsam anstatt allein zu verwirklichen". Folglich ist der Staat für sie auch „nichts anderes als die Menge von Verfahren, die Maschinerie, mit deren Hilfe solch kollektives Handeln möglich wird". In den Worten von Riker und Ordeshook (1973, 78 f.): „Da die Gesellschaft kein menschliches Wesen ist, kann sie auch nicht im eigentlichen Sinn des Wortes Präferenzen ,haben' oder gar die Präferenzen, die sie gar nicht hat, ordnen". Daher, so ihr Argument, müssen wir uns mit der Existenz individueller Präferenzordnungen und individueller Wahlentscheidungen zwischen Alternativen als den grundlegenden theoretischen Bausteinen beim Studium der Politik begnügen. Ähnlich argumentiert Elster (1986b, 3): Rational-Choice-Erklärungen können sich nicht auf andere Einheiten als Individuen beziehen, da auch nur Präferenzen und Überzeugungen von Individuen in sie eingehen. „Eine Familie mag sich zwar nach einiger Diskussion auf eine bestimmte Art, ihr Einkommen auszugeben, einigen", so Elster, „aber diese Entscheidung beruht dann nicht auf ,ihren' Zielen oder .ihren' Überzeugungen, da es die als solche gar nicht gibt". Riker (1990, 171) ist sogar der Ansicht, daß konsistente Verallgemeinerungen in den Sozialwissenschaften überhaupt nur möglich sind, wenn „ihre zentralen Aussagen von den rationalen Entscheidungen von Individuen handeln".8 Rational-Choice-Theoretiker stehen also vor der Aufgabe, kollektive Ergebnisse anhand des Maximierungshandelns von Individuen zu erklären. Olsons ursprüngliche These über die Logik kollektiven Handelns beruhte auf seiner Beobachtung, daß die damals vorherrschende, eng mit den Schriften von Bentley, Truman, Latham und anderen verbundene Gruppentheorie der Politik nicht erklären konnte, warum sich rationale Individuen zur Verfolgung ihrer Ziele in Gruppen zusammenschließen. Olson meinte, die Gruppentheoretiker hätten nicht erkannt, daß Individuen ,Aicht freiwillig Opfer bringen, um ihrer Gruppe bei der Erlangung ihrer politischen (öffentlichen oder kollektiven) Ziele zu helfen" (Olson 1965, 126). Selbst wenn ein Individuum das von der Gruppe bereitgestellte Gut sehr schätze, habe es doch stets einen Anreiz, sich als „Trittbrettfahrer" zu betätigen, also keinen eigenen Beitrag zu leisten, da es ziemlich sicher sein könne, daß dieses individuelle Verhalten auf die 8

Gelegentlich wird behauptet, daB sich die Annahmen der Rational-Choice-Theorie nicht unbedingt auf Individuen beziehen müssen. So werden ζ. B. politische Parteien in Wahlkampftheorien oder Nationalstaaten von Spieltheoretikern der Internationalen Beziehungen als maximierende Akteure behandelt. Darüber hinaus gibt es Varianten eines Rational-Choice-Marxismus, in denen Klassen als die maximierenden Grundeinheiten betrachtet werden (vgl. Przeworski 1991). Aber in all diesen Fällen werden die Parteien, Nationalstaaten bzw. Klassen als einheitliche Akteure angesehen, von denen sinnvoll gesagt werden kann, daß sie Präferenzen, Ziele und Strategien besitzen. Auch bei solchen Anwendungen bleibt also die grundlegende Rational-Choice-Ontologie individualistisch. Aus diesem Grund werden Rational-Choice-Theorien manchmal schon allein deswegen als irreführend kritisiert, weil sie wesentliche interne Komplexitäten ihrer Grundeinheiten außer Acht lassen. Eine entsprechende Kritik an Downs' Modell der Paiteienkonkurrenz äußern Budge und Farlie (1977, IIS). Gegen die Gleichsetzung von Nationalstaaten mit monolithischen, „rationalen" Individuen in vielen Rational-Choice-Modellen der Internationalen Beziehungen wenden sich Maoz (1990), Bueno de Mesquita und Lalman (1992) sowie Russett (1994). FUr eine analoge Kritik an Przeworskis Marxismus vgl. Swenson (1991a, 1991b) und Shapiro (1993).

28

2. Worum geht es in der Rational-Choice-Theorie?

Bereitstellung des Gutes keine Auswirkungen haben werde. Die Rational-ChoiceLiteratur hat sich dieser individualistischen Auffassung Olsons im allgemeinen angeschlossen; ja viele ihrer zentralen Forschungsfragen würden gar nicht erst gestellt, wenn Individuen nicht als die maximierenden Grundeinheiten betrachtet wUrden. Und schließlich gehen Rational-Choice-Theoretiker meist auch davon aus, daß ihre Modelle gleichermaßen für alle Akteure gelten, daß also Entscheidungen, Regeln und Vorlieben ,4m Zeitverlauf stabil und bei allen Menschen ähnlich" sind (Stigler und Becker 1977, 76). Obwohl aus keiner der Kemannahmen der RationalChoice-Theorie notwendig folgt, daß der Inhalt oder auch nur der strategische Charakter der Präferenzen aller Akteure gleich sein müssen, ergäben sich in praktischer Hinsicht doch wohl unüberwindliche Probleme der Nachvollziehbarkeit, wenn interpersonelle Unterschiede zugelassen würden (Strom 1990, 126). „Wenn Nutzenfunktionen und Wahrnehmungen weit auseinandergehen," so Goetze und Galderisi (1989,38), „und wenn Menschen höchst unterschiedliche Kombinationen von altruistischen und egoistischen Motiven aufweisen, dann mag es unmöglich sein, angemessene Erklärungmodelle zu entwerfen. Universelle Verhaltensmuster sind [dann] vielleicht unauffindbar". Um das zu vermeiden, gehen Rational-Choice-Theoretiker - zumindest bei der empirischen Anwendung ihrer Modelle - gemeinhin einfach davon aus, daß derartige Unterschiede nicht bestehen. Diese Homogenitätsaimahme. wird gewöhnlich mit dem Prinzip theoretischer Sparsamkeit gerechtfertigt. Wenn etwa ein Wahlergebnis nur durch die Annahme erklärt werden könnte, daß manche Wähler ihrer Entscheidung eine ausgeklügelte Berechnung des wahrscheinlichen Stimmverhaltens der anderen Wähler vorausschicken, andere aber nicht, dann „miißten wir eingestehen, daß zur Erklärung unserer Beobachtungen gleichzeitig zwei unterschiedliche Modelle benutzt werden müssen, nämlich das des aufrichtigen und das des raffinierten Wählens. Das wäre, gelinde gesagt, wissenschaftlich unsparsam und würde nach einer Erklärung rufen, warum das Verhalten mancher Wähler durch das eine und das Verhalten anderer Wähler durch ein anderes Modell erklärt werden muß" (Enelow 1981, 1077 f.; siehe allerdings Denzau, Riker und Shepsle 1985). Fassen wir zusammen: Rational-Choice-Theoretiker teilen in der Regel eine instrumenteile Auffassung von individueller Rationalität und gehen aufgrunddessen davon aus, daß Menschen ihren Erwartungsnutzen auf formal vorhersagbare Weise maximieren. Bei empirischen Anwendungen wird zudem die ebenfalls allgemein geteilte Annahme zugrundegelegt, daß die zu untersuchenden Individuen hinsichtlich ihrer Rationalität homogen sind.

Strittige Annahmen Mit den genannten Bedingungen ist jedoch noch keine Theorie des rationalen Verhaltens erschöpfend beschrieben. Wenn man sich folglich genauer mit der Bedeu-

Strittige Annahmen

29

tung von Rationalität befaßt, entdeckt man auch eine ganze Reihe von Punkten, Uber die sich Rational-Choice-Theoretiker keineswegs einig sind. Eine dieser strittigen Fragen betrifft die Robustheit der Annahmen über menschliche Ziele. Nach der, wie Ferejohn (1991, 282) sie nennt, „dünnen Theorie des Rationalen" („thin-rational" account) wird angenommen, daß Akteure lediglich in dem Sinne rational sind, daß „sie die ihnen verfügbaren Mittel effizient zur Verfolgung ihrer Ziele einsetzen". Bei einer „dicken Theorie des Rationalen" („ thickrational" account) dagegen „legt der Forscher nicht nur Rationalität, sondern auch noch irgendeine zusätzliche Beschreibung der Präferenzen und Überzeugungen der Akteure zugrunde". Anhänger dieser Sichtweise „nehmen im allgemeinen an, daß Akteure in den unterschiedlichsten Situationen ganz ähnliche Dinge schätzen, wie z. B. Reichtum, Einkommen, Macht oder die Privilegien eines Amtes". Der Utilitarismus sowie die klassische Ökonomie beruhten lange Zeit auf solchen „dicken Theorien des Rationalen", ebenso wie die noch in den Kinderschuhen steckenden Rational-Choice-Argumente von Hobbes (der annahm, daß Individuen Macht maximieren) und von Bentham (der annahm, daß sie Wohlbefinden maximieren). Im Gegensatz dazu geht die neoklassische Ökonomie im Hinblick auf Konsumenten von einer „dünnen Theorie des Rationalen" aus: Es wird angenommen, daß Konsumenten ihren Nutzen maximieren, ohne daß näher bestimmt wird, worin dieser Nutzen besteht. Die neoklassische Unternehmenstheorie hingegen beruht im Sinne Ferejohns auf einer „dicken Theorie des Rationalen", da sie annimmt, daß alle Unternehmen Profitmaximierer sind. Einige Rational-Choice-Theoretiker in der Politikwissenschaft behaupten, nur von einer „dünnen Theorie des Rationalen" auszugehen. Riker (1990, 173) ζ. B. ist der Ansicht, daß jede Entscheidung - und sei es die, Selbstmord zu begehen - als rational interpretiert werden kann, sofern nur Arrows Konsistenzbedingungen für eine schwache Präferenzordnung erfüllt sind. Er räumt zwar ein, daß damit die Bedeutung von individuellem Handeln im Eigeninteresse tautologisch wird, argumentiert aber, daß sich die Erklärungskraft der Rational-Choice-Theorie eben nicht aus dem Inhalt, sondern aus der formalen Struktur der Präferenzen ergebe. Andere RationalChoice-Theoretiker hingegen benutzen Modelle, die von robusteren Vorstellungen vom Eigeninteresse ausgehen, die mit altruistischem oder bewußt selbstzerstörerischem Verhalten unvereinbar sind (vgl. Klosko 1987). Riker hat insofern Recht, als manche politikwissenschaftlichen Rational-ChoiceStudien - vor allem Arbeiten über zyklische Mehrheiten und Instabilität - nahezu ausschließlich auf einer „dünnen Theorie des Rationalen" beruhen. Daher kommen diese Studien auch mit einem Minimum an problematischen Annahmen über menschliche Ziele und Motivationen aus. Wie wir aber zeigen werden, stehen dem Nutzen, der durch die Vermeidung solcher umstrittenen Annahmen über die menschliche Natur erzielt wird, möglicherweise beträchtliche Kosten bei der Messung und empirischen Überprüfung von Rational-Choice-Hypothesen gegenüber. Wenn der Inhalt von Präferenzen nicht dargelegt wird, kann man nur schwer feststellen, ob ζ. B. ein von früheren Ergebnissen abweichender Mehrheitsbeschluß eines Gremiums auf stabile, aber zyklische Präferenzen der Abstimmenden, auf die

30

2. Worum geht es in der Rational-Choice-Theorie?

Veränderung ihrer Präferenzen im Laufe der Zeit oder aber auf irgendein anderes Phänomen zurückzuführen ist. Darüber hinaus ist manchmal gar nicht klar, ob eine bestimmte Rationalitätsauffassung „dick" oder „dünn" ist. Auch wenn nichts weiter über den Inhalt von Präferenzen gesagt wird, ist es dennoch möglich, daß ein Forscher bestimmte Annahmen Uber die Stabilität von Präferenzordnungen macht, die robuster sind, als dies von bloß „dünner" Rationalität verlangt wird. Eine ansonsten „dünne" Rationalitätsannahme mag etwa davon ausgehen, daß Menschen ihre Präferenzen bezüglich der gleichen Menge verfügbarer Handlungsfolgen im Laufe der Zeit nicht verändern oder daß die Vorlieben der Akteure nicht unmittelbar durch die sich ihnen bietenden Entscheidungsalternativen oder das Verhalten anderer beeinflußt werden. Prinzipiell rangieren Theorien zwar von „dick" bis „dünn", aber empirische Anwendungen kommen letzterem Idealtyp nur selten nahe. Viele Rational-Choice-Studien beruhen auf eindeutig „dicken" Rationalitätsannahmen. Arbeiten über Parteienkonkurrenz ζ. B. gehen im allgemeinen davon aus, daß Parteien versuchen, Stimmen und dadurch Macht zu maximieren. Arbeiten zum sogenannten rent-seeking nehmen an, daß Interessengruppen eine ganze Reihe von Zielen - von Profit bis Umweltschutz - zu maximieren trachten; viele Untersuchungen aus dem Bereich der ökonomischen Theorie des Rechts gehen davon aus, daß Gerichtsurteile die Produktion von Wohlstand maximieren; und Arbeiten über Abgeordnete und öffentliche Bedienstete liegt die Annahme zugrunde, daß die von ihnen untersuchten Akteure auf die eine oder andere Weise versuchen, ihr berufliches Fortkommen zu maximieren. Diese Annahmen sind vielleicht strittiger als die der „dünnen" Rationalität. Dafür sollte man aber prima facie erwarten können, daß sie im Hinblick auf die empirische Überprüfung weniger Schwierigkeiten verursachen, da sie bezüglich der Definition und der Messung dessen, was vermeintlich maximiert wird, weniger Spielraum bieten. Wie wir aber in den folgenden Kapiteln zeigen werden, haben sich „dicke" Rationalitätsannahmen in der empirischen Überprüfung oft als ebenso unscharf erwiesen wie „dünne" Rationalitätsannahmen. Uneinigkeit herrscht unter Rational-Choice-Theoretikern auch über die Menge von relevanten Informationen, von denen angenommen werden kann, daß Akteure sie in der Regel besitzen und verarbeiten. Herkömmliche neoklassische Modelle des Marktverhaltens gehen davon aus, daß Konsumenten nicht nur vollkommen informiert, sondern auch in der Lage sind, diese Informationen zu verstehen und nutzbringend zu verarbeiten. Diese Annahmen sind unrealistisch - besonders in der Politik, wo man ziemlich genau weiß, daß Wähler Uber die Personen und Programme, zwischen denen sie entscheiden sollen, nur unzureichend informiert sind. Infolgedessen sind viele Rational-Choice-Theoretiker in der Politikwissenschaft von der Annahme vollkommener Information abgerückt, wenngleich sie bei der Auffassung bleiben, daß Akteure aus ihren unvollkommenen Informationen das Beste machen (siehe McKelvey und Ordeshook 1987). Daß Akteure nur über unvollkommene Information verfügen, läßt sich damit erklären, daß der Informationserwerb häufig zeitaufwendig und kostspielig ist. Downs (1968, 214) geht davon aus, daß es sich mit der Informationsbeschaffung ähnlich

Was heißt „erklären"?

31

verhält wie mit anderen ökonomischen Investitionen, und schließt daraus, daß der Informationssuchende „solange Informationen [beschafft], bis der Grenzertrag den ihm entstehenden Grenzkosten gleich ist". Wie Elster (1986, 215) bemerkt, gibt es bei dieser Argumentation aber ein Problem: Akteure müssen den Wert von Informationen einschätzen, die sie noch gar nicht besitzen, um entscheiden zu können, ob sich die Mühe lohnt, diese Informationen zu beschaffen. Ein ähnliches Problem haben Rational-Choice-Theoretiker auch, wenn sie die Rationalität des „kurzsichtigen" Verhaltens von Akteuren bestreiten, die nach unmittelbarer Bedürfnisbefriedigung streben, ohne dabei zu berücksichtigen, daß diese Strategie unerwünschte Folgen haben kann (Krehbiel und Rivers 1990; Austen-Smith 1991). Wenn man davon ausgeht, daß strategische Voraussicht und Planung keinerlei Kosten verursachen, dann kann kurzsichtiges Handeln nicht als rational angesehen werden. Wenn man aber einräumt, daß Erkenntniskosten auftreten (oder Akteure durch die Verfolgung von Zielen in anderen Lebensbereichen abgelenkt werden können), dann können kurzsichtige Strategien in Anbetracht der kurzsichtigen Überzeugungen der Akteure durchaus als rational betrachtet werden. Rational-Choice-Theorien umfassen also, kurz gesagt, eine ganze Reihe von unterschiedlichen Annahmen über das, was Akteure über die sich ihnen bietenden strategischen Wahlmöglichkeiten wissen.

Was heißt „erklären"?

Rational-Choice-Theoretiker betrachten ihre Arbeit als Teil eines gemeinsamen Projekts zur Erklärung politischer Phänomene. Aber wie schon bei der Definition von Rationalität gibt es auch hier unterschiedliche Ansichten darüber, worin dieses Vorhaben im einzelnen besteht. In zweierlei Hinsicht ist man sich allerdings weitgehend einig, nämlich erstens bezüglich der Art der zu betrachtenden Kausalaussagen und zweitens im Hinblick auf den angestrebten Universalismus. Absichten als Ursachen Da Rational-Choice-Theoretiker davon ausgehen, daß soziale Ergebnisse als Nebenprodukte individueller Entscheidungen entstehen, nehmen Rational-Choice-Erklärungen typischerweise Bezug auf individuelle Absichten. Nach Satz und Ferejohn (1993, 1 f.) handelt es sich bei der Rational-Choice-Theorie gemäß der verbreitetsten philosophischen Interpretation um „eine psychologische Theorie, die einem reduktionistischen Programm in den Sozialwissenschaften verpflichtet ist und wonach das Verhalten eines sozialen Aggregats anhand der geistigen Verfassung (d. h. der Wünsche und Überzeugungen) der dazugehörigen Individuen und ihrer Interaktionen erklärt wird". Auch Elster (1986b, 12) ist der Ansicht, daß es sich bei Rational-Choice-Erklärungen um eine „Variante intentionaler Erklärungen" handelt.

32

2. Worum geht es in der Rational-Choice-Theorie?

Sie setze nicht nur voraus, daß für die Akteure ihre „Gründe Ursachen der Handlung sind, die sie rationalisieren", sondern auch, daß die Überzeugungen und Wünsche der Akteure, auf denen diese Gründe beruhen, sowohl rational als auch in sich konsistent sind. Wie Elster (1986b, 16) ausführt, „erfüllt also eine Rational-Choice-Erklärung im Idealfall drei Arten von Bedingungen. Erstens sind drei Optimalitätsbedingungen zu nennen: Die Handlung ist angesichts der Überzeugungen, die der Akteur hat, der beste Weg für ihn, seine Wünsche zu befriedigen; seine Überzeugungen sind angesichts der Informationen, über die er verfügt, optimal begründet; und die Menge der Informationen, die er beschafft hat, ist angesichts seiner Wünsche ebenfalls optimal gewählt. Zweitens gibt es eine Reihe von Konsistenzbedingungen. Überzeugungen und Wünsche müssen in sich widerspruchsfrei sein. Der Akteur darf nicht aufgrund eines Wunsches handeln, der seiner eigenen Meinung nach weniger Gewicht hat als andere Wünsche, die Gründe dafür sind, die Handlung zu unterlassen. Und drittens gibt es verschiedene kausale Bedingungen. Die Handlung muß nicht nur angesichts der Wünsche und Überzeugungen rational, sie muß zudem auch durch diese verursacht sein, und das auch noch auf die .richtige' Art und Weise [der Handelnde muß die tatsächlich eintretende Wirkung seines Handelns beabsichtigt haben]. Die Beziehung zwischen Überzeugungen und Informationen unterliegt zwei analogen Kausalbedingungen".

In Anbetracht dieses anspruchsvollen Forderungskatalogs verwundert es kaum, daß manche Rational-Choice-Theoretiker nicht alle genannten Bedingungen anerkennen wollen. Für die reale Welt der Politik Erklärungen hervorbringen zu müssen, die nachweislich allen relevanten Optimalitäts-, Konsistenz- und Intentionalitätsbedingungen genügen, wäre sehr viel verlangt. Offensichtlich können aber weder die Optimalitäts· noch die Konsistenzbedingungen (die eine schwache Präferenzordnung im Sinne Arrows gewährleisten) abgeschwächt werden, ohne das ganze RationalChoice-Projekt aufzugeben. Als Kandidaten für eine weniger anspruchsvolle Interpretation bleiben demnach nur zwei Bedingungen: die der Rationalität der Überzeugungen des Akteurs und die der beabsichtigten Verursachung. Mit beiden Alternativen haben Rational-Choice-Theoretiker experimentiert. Es gibt gute Gründe für den Wunsch, Elsters starke Anforderungen an die Rationalität der Überzeugungen von Akteuren abzuschwächen - allein schon, um die enorme Bürde, die sie den Forschern auferlegt, zu verringern. Dies könnte man etwa dadurch erreichen, daß die Überzeugungen von Akteuren als gegeben betrachtet werden. Das würde darauf hinauslaufen, daß Überzeugungen in dem Modell keinen epistemologisch strengeren Bedingungen unterworfen werden als Präferenzen. Damit würde es sich für den Forscher erübrigen, Fragen zu erörtern, die über die subjektive Welt des jeweils betrachteten Akteurs hinausgehen. Eine andere Möglichkeit wäre, die Frage, ob der Inhalt einer Überzeugung wahr oder falsch ist, offen zu lassen und lediglich zu verlangen, daß Akteure ihre Überzeugungen rational auf den neuesten Stand bringen, wenn sie neue Informationen erhalten. Solche Entscheidungen bringen jedoch neue Probleme mit sich. Schon Downs (1968, 8) hatte die Frage aufgeworfen: „Wie können wir zwischen den Irrtümern rationaler und dem normalen Verhalten irrationaler Menschen unterscheiden?" Wenn wir die Überzeugungen eines Akteurs als gegeben betrachten, ist es wohl unmöglich, zwischen diesen beiden Fällen zu unterscheiden. Versucht ein Forscher trotzdem, diese Unterscheidung empirisch vorzunehmen, steht er vor beträchtlichen

Was heißt „erklären"?

33

Meßproblemen. Oft läßt sich kaum feststellen, ob die Überzeugungen eines Akteurs im Sinne Elsters rational begründet sind, oder auch nur, ob sie angesichts neuer Informationen rational auf den neuesten Stand gebracht wurden. Die Existenz und die kausale Wirksamkeit von Absichten empirisch zu beweisen, ist selbst unter den besten Umständen schwierig, weshalb manche Rational-ChoiceTheoretiker damit liebäugeln, die Intentionalitätsbedingung gänzlich aufzugeben. So argumentieren McKelvey und Ordeshook (1982, 312), daß sich Kandidaten für politische Ämter komplexer strategischer Entscheidungsregeln bedienen, obwohl man angesichts des „hohen Komplexitätsgrades der Kalküle", die solche Strategien erfordern, bezweifeln müsse, daß sie „solche Lösungen jemals errechnen und einhalten können". Auch Posner (1972, 1979, 1980) verabschiedet sich von der Intentionalitätsbedingung, wenn er behauptet, daß Richter in Fallrechtssystemen Urteile fällen, die die effiziente Produktion von Wohlstand maximieren, und gleichzeitig meint, daß sich die Richter dieses Ergebnisses in der Regel nicht bewußt sind und es häufig auch gar nicht beabsichtigen.9 Durch diesen theoretischen Kunstgriff erübrigt es sich zwar, die Mechanismen der beabsichtigten Verursachung aufzuspüren; im Hinblick auf die empirische Überprüfung hat dieser Vorteil aber einen hohen Preis. Für den Forscher wird es dadurch nämlich zunehmend schwieriger festzustellen, wie die jeweils zugrunde liegende Kausalbeziehung aussieht oder welche Art von Daten ihre Existenz belegen könnten. Satz und Ferejohn (1993) versuchen, diese Probleme zu umgehen, indem sie zwischen „intemalistischen" und „externalistischen" Rational-Choice-Erklärungen unterscheiden. Die übliche Bedingung der intentionalen Verursachung beschreiben sie als eine intemalistische Interpretation, die ihrer Ansicht nach für viele der von den Sozialwissenschaften behandelten Fragen unnötig anspruchsvoll ist. Das ist ein wichtiger Schritt, denn Simon (1955, 1956), Kahneman und Tversky (1979, 1984), Abelson und Levi (1985) und andere haben nachgewiesen, daß sich die Psychologie des Wählens von den Überlegungsabläufen einer rationalen Wahl oft stark unterscheidet. Falls die Rational-Choice-Theorie den Anspruch erhebt, „einen psychologischen Mechanismus darzulegen", so räumen Satz und Ferejohn (1993, 6) ein, „dann könnte diese Kritik vernichtend sein". Deshalb schlagen sie vor, die Theorie vielmehr als Erläuterung der „Strukturen sozialer Interaktion auf Märkten, in Regierungen und anderen Institutionen" aufzufassen. Nach diesem externalistischen Verständnis sind Rational-Choice-Theoretiker „nicht daran interessiert, das Verhalten eines bestimmten Akteurs zu erklären, sondern an den allgemeinen Gesetzmäßigkeiten, die das Verhalten aller Akteure prägen". Satz und Ferejohn behaupten nun, diese Regelmäßigkeiten seien Ausdruck der Tatsache, daß „das Verhalten von Akteuren nicht primär durch ihre psychologische Ausstattung bestimmt wird, sondern durch die Beschränkungen, die ihnen ihre Umwelt auferlegt". Nach dieser Auffassung sollten Rational-Choice-Erklärungen am besten als Darstellungen von Umweltbeschränkungen und ihren Auswirkungen begriffen werden; und als solche

9

Er geht sogar so weit, einen Richter dafür anzugreifen, daß er in einem konkreten Einzelfall versucht hat, eine wohlfahrtsmaximierende Theorie anzuwenden (Posner 1979,298 f.).

34

2. Worum geht es in der Rational-Choice-Theorie?

„sind sie nicht notwendigerweise auf eine psychologische Unterfütterung angewiesen" (1993, 7). Satz und Ferejohn sind sich darüber im klaren, daß uneingeschränkte Varianten des Externalismus gewisse Schwierigkeiten in sich bergen. Wenngleich sie daran festhalten wollen, daß gute Rational-Choice-Erklärungen nicht auf Postulaten über die psychische Verfassung von Individuen beruhen müssen, bestreiten sie nicht den kausalen Einfluß des geistigen Befindens und geben zu, daß es nicht dasselbe ist, eine Handlung vorauszusagen oder sie zu erklären. Folglich argumentieren sie, daß Rational-Choice-Erklärungen zwar nicht aus Annahmen über die Maximierungsabsichten von Individuen ableitbar, aber doch mit ihnen kompatibel sein müssen. Die Handlungen der betreffenden Akteure müssen so erklärt werden können, als ob sie Nutzen maximierten. Die Anhänger solcher hypothetischen Annahmen bedienen sich häufig evolutionstheoretischer Metaphern, da die Evolutionstheorie weitgehend eine Theorie der strukturellen Restriktionen ist, denen Organismen ausgesetzt sind. Satz und Ferejohn (1993, 17 f.) stellen dies folgendermaßen dar: „Die Evolutionsbiologie begreift die Natur als eine selektive Struktur. Die Struktur der Natur selektiert Typen mit bestimmten Eigenschaften: Wer diese Eigenschaften nicht hat, pflanzt sich nicht fort. Diese Eigenschaften sind jedoch nicht unbedingt eine von diesen Organismen absichtlich hervorgebrachte Folge. Trotzdem können die Eigenschaften selbst oft in entscheidungstheoretischer Form beschrieben werden; wir können das Verhalten eines Organismus vorhersagen, indem wir annehmen, daß er sich innerhalb der gegebenen Beschränkungen so verhält, daß er seine erwartete Fortpflanzungsrate maximiert." So wie die Evolutionstheorie keine Theorie über die Absichten von Organismen ist, so sind auch Rational-Choice-Modelle in den Sozialwissenschaften am besten als Modelle von „mächtigen Selektionsmechanismen" zu verstehen. Die Strategie von Satz und Ferejohn zur Vermeidung starker Annahmen über die kausale Wirksamkeit von Absichten hat intuitiv einiges für sich; sie bringt allerdings auch Probleme mit sich, die sich gerade bei der Bewertung der empirischen Aussagekraft der Theorie besonders bemerkbar machen. Evolutionstheorien sind dafür bekannt, daß sie empirisch kaum überprüfbar sind, weil sie mit so vielen verschiedenen Ergebnissen kompatibel sind. Die Evolutionstheorie bringt zwar bestimmte Arten von überprüfbaren Vorhersagen hervor. Die Hypothese etwa, daß sich der Schädelumfang einer bestimmten Gattung im Laufe eines angegebenen Zeitraumes vergrößert hat, könnte zu der Vorhersage führen, daß gerade entdeckte Schädel, die aus der Endphase dieses Zeitraumes stammen, größer sind, als solche aus der Anfangsphase. Diese Vorhersage wäre dann falsifiziert, wenn größere frühere Schädel oder kleinere spätere Schädel der entsprechenden Gattung entdeckt würden (vorausgesetzt, daß unabhängige Verfahren zur Datierung von Schädeln verfügbar sind). Im Normalfall ist es aber nicht möglich, die Entwicklung eines bestimmten Organismus oder gar einer Gattung anhand einer evolutionären Hypothese vorherzusagen. Allgemeiner gesagt tut sich die Evolutionstheorie oft schwer damit, überprüfbare Vorhersagen zu liefern, weil der natürliche Selektionsmechanismus mit einer Vielzahl von Richtungen vereinbar ist, die ein Organismus in seiner Entwicklung nehmen kann,

Was heißt „erklären"?

35

da sein Überleben, sein Aussterben oder seine Weiterentwicklung entscheidend von zufälligen externen Vorkommnissen mitgeprägt wird. Nach der Satz-Ferejohn-Interpretation der individuellen Maximierung würde die Evolutionstheorie vermutlich vorhersagen, daß sich Lemminge nicht von Klippen in den Tod stürzen und daß Menschen nicht freiwillig zu ihrem sicheren Ende in den Krieg ziehen. Satz und Ferejohn könnten dem entgegnen, daß es ihnen nicht darum geht, einzelne Ergebnisse oder Ereignisse vorherzusagen. Wenn man aber einmal die „interne" Lesart der Mikrofundierung von Rational-Choice-Hypothesen aufgegeben hat, ist es nur schwer vorstellbar, wie solche Hypothesen „strukturelle Beziehungen und Ursachen verdeutlichen" (Satz und Ferejohn 1993, 26) können, außer durch überprüfbare Vorhersagen. Die folgenden Kapitel werden jedoch zeigen, daß nach der „externen" Lesart Rational-Choice-Hypothesen mit so vielen unterschiedlichen empirischen Ergebnissen vereinbar sind, daß ihre Überprüfung zu einem Problem wird. Man sollte die Unterschiede zwischen Rational-Choice-Internalisten und -Externalisten im Sinne von Satz und Ferejohn nicht überbewerten. Beide sind methodologische Individualisten, da sie politisches Verhalten durch die Maximierungsneigungen von Individuen erklären wollen. Beide akzeptieren die übliche „dünne" Definition von strategischer Rationalität im Zusammenhang mit einer schwachen Präferenzordnung im Sinne Arrows, und beide können sich auch „dicker" Rationalitätsannahmen bedienen, etwa im Sinne von Eigennutz oder einer anderen Variablen, deren Maximierung angenommen wird. Intemalisten unterscheiden sich von Externalisten lediglich dadurch, daß erstere davon ausgehen, daß so etwas wie Elsters intentionalistische Darstellung der psychologischen Mikrofundierung politischen Handelns wahr ist, während Externalisten vorschlagen, einfach so zu tun, ab ob sie wahr wäre, und dann zu sehen, inwieweit dies zu erfolgreichen Vorhersagen führt. Universalismus und die Suche nach Gleichgewichten Eine weitere Annahme bezüglich Erklärungen, Uber die sich Rational-Choice-Theoretiker weitgehend einig sind, betrifft ihren universalistischen Anspruch. Nach Ferejohn (1991, 281) sind Rational-Choice-Theoretiker „einem Universalitätsprinzip verpflichtet", wonach „die Handlungen [aller] Akteure immer dazu dienen, ihr Wohlbefinden, so wie sie selbst es verstehen, auf der Grundlage ihrer Überzeugungen, Präferenzen und strategischen Möglichkeiten zu maximieren". Auch Noll und Weingast (1991, 239) sind der Überzeugung, daß eine Theorie des rationalen Handelns „nach Konsistenz und Universalität streben sollte". Dieser Hang zur Universalität resultiert aus einer Vorstellung von wissenschaftlichem Fortschritt, der unter Rational-Choice-Theoretikern weit verbreitet ist: Fortschritt setzt erst dann ein, wenn gezeigt werden kann, daß verallgemeinerungsfähige Ergebnisse aus analytischen Aussagen folgen, die ihrerseits aus Axiomen abgeleitet wurden. Rational-Choice-Theoretiker bezweifeln, daß universelle Theorien der Politik mit den induktiven Methoden gewonnen werden können, die für die Politikwissenschaft lange Zeit kennzeichnend waren. „Deduktive theoretische Aussagen sind interes-

36

2. Worum geht es in der Rational-Choice-Theorie?

sant", so Achen und Snidal (1989,168), weil sie „miteinander einen Zusammenhang bilden". Der Einsatz solcher Theorien verhindere die „willkürliche Vermehrung erklärender Kategorien" und stelle sicher, daß die Theorie zu Überraschungen und Erkenntnissen führt anstatt zu wildwuchernden Erfindungen, die entstehen, um die Eigenarten von Einzelfällen erklären zu können. Riker (1990, 177) ist der festen Überzeugung, daß die Sozialwissenschaften genau deshalb keine Fortschritte verzeichnen konnten, weil sie ,.nicht auf Rational-Choice-Modellen beruhten". Bueno de Mesquita (1985, 129) führt den wissenschaftlichen Status von Rational-ChoiceModellen auf ihren Gesetzescharakter zurück. Er mahnt: „Wir sollten uns durch vermeintliche empirische Erfolge nicht zu der Illusion verführen lassen, daß wissenschaftliche Erkenntnis ohne abstrakte, streng logische Beweisführung erzielt werden kann." Im gleichen Sinne argumentieren auch Achen und Snidal (1989, 168), daß Sozialwissenschaftler, die aus der Analyse von Einzelfällen auf empirische Verallgemeinerungen schließen (die ihrer Meinung nach häufig, aber fälschlicherweise als „Theorien mittlerer Reichweite" bezeichnet werden), nicht erkennen, daß mit dieser Methode „eine schlüssige Verifikation von Theorien nahezu unmöglich" ist. Induktive Schlüsse hätten sicher ihr Gutes, seien aber „kein Ersatz für Theoriebildung; empirische Gesetze dürfen nicht mit theoretischen Aussagen verwechselt werden". Für viele Rational-Choice-Theoretiker ist die Suche nach theoretischen Aussagen gleichbedeutend mit der Suche nach Gleichgewichten. Ordeshook (1982, 25) etwa stellt fest, daß Rational-Choice-Theoretiker trotz aller methodologischen Differenzen „bewußt oder unbewußt ein gemeinsames Ziel verfolgen: die Suche nach politischen Gleichgewichten". Mit der für ihn typischen Bestimmtheit verkündet Riker (1980, 443), daß wir „ohne solche Gleichgewichte rein gar nichts Uber die Zukunft aussagen" können. Obwohl der Gleichgewichtsbegriff unterschiedlich ausgelegt wird (siehe Ordeshook und Shepsle 1982), bestehen Rational-Choice-Theoretiker darauf, daß die Entwicklung gesetzesartiger Aussagen - aus denen dann Vorhersagen abgeleitet werden - die Entdeckung von Gleichgewichten voraussetzt. Ordeshook (1986, xiii) erläutert die Beziehung zwischen Gleichgewichten und gesetzesartigen Aussagen wie folgt: „Ein Gleichgewicht ist eine Prognose über die Entscheidungen von Menschen und die daraus resultierenden Folgen unter zuvor festgelegten Umständen. Die Prognose sieht im allgemeinen folgendermaßen aus: ,Bei gegebenem institutionellen Entscheidungszusammenhang χ und bei gegebenen Präferenzen y sind die einzigen dauerhaft möglichen Entscheidungen und Ergebnisse ...'. Gleichgewichte ersetzen folglich sowohl journalistische Ereignisinterpretationen als auch statistische Korrelationen zwischen Umweltfaktoren und politischen Ergebnissen als Erklärungen. Die spieltheoretische Untersuchung von Gleichgewichten in Verbindung mit inhaltlichen Anwendungen ist im wahrsten Sinn des Wortes der Versuch, kausale Erklärungen zu liefern." Gleichgewichtsbegriffe „sind die Verbindung zwischen unseren abstrakten Modellen und der empirischen Welt, die wir zu verstehen suchen". Aber was müssen wir uns unter einem Gleichgewicht in politikwissenschaftlichen Untersuchungen vorstellen? Der Begriff wurde - in leicht abgeänderter Form - aus den Naturwissenschaften übernommen. „Ein physisches Gleichgewicht liegt vor, wenn Kräfte sich

Was heißt „erklären"?

37

gegenseitig so ausgleichen, daß sich ein Prozeß entweder immer wiederholt (wie bei Umlaufbahnen) oder zum Stillstand kommt (wie bei abgeschlossenen Reaktionen). Wissenschaftler erklären solche Gleichgewichte, indem sie zeigen, daß sich die Kräfte in einem Gleichgewicht tatsächlich ausgleichen müssen bzw. in einem Ungleichgewicht nicht ausgleichen können" (Riker 1990,177). Während die Gleichgewichte, mit denen sich Physiker beschäftigen, durch mechanische Kräfte hervorgerufen werden, sind die der Rational-Choice-Theoretiker Produkt des absichtsvollen Handelns von Individuen: , 3 s sind die Handlungsentscheidungen, die in ein Gleichgewicht gebracht werden müssen, d. h. die Absichten, die damit analog zu den physischen Kräften sind. Soziale Gleichgewichte stellen sich dann ein, wenn die Akteure angesichts der Entscheidungen der jeweils anderen die vorteilhafteste Wahl treffen und ein Ergebnis erzielen, von dem sie nicht abweichen wollen. Das heißt, sie wünschten nicht, sich anders entschieden zu haben, weil das erzielte Ergebnis das beste ist, das sie unter den gegebenen Umständen erreichen können" (Riker 1990,177). Die Rational-Choice-Konzeption eines Gleichgewichtes wurde entscheidend durch die Arbeiten von John Nash (1950) geprägt. Ein Nash-Gleichgewicht liegt dann vor, wenn eine sich potentiell selbstverstärkende Übereinkunft besteht, nach der jeder Akteur „das tut, was in Anbetracht der Handlungen anderer das beste für ihn ist" (Przeworski 1991, 20). Intuitiv gesprochen handelt es sich also um eine Übereinkunft, die zu brechen für keine Seite von Vorteil wäre. Eine präzisere Definition liefert Harsanyi (1986,92): „Eine Strategie eines Spielers wird eine beste Antwort auf die Strategien der anderen Spieler genannt, wenn sie die Auszahlung dieses Spielers maximiert, solange sich die Strategien der anderen Spieler nicht ändern. Eine Strategienkombination (die genau eine Strategie pro Spieler enthält) wird als Gleichgewichtspunkt bezeichnet, wenn die Strategie eines jeden Spielers eine beste Antwort auf die Strategien aller anderen Spieler ist." Wenn Menschen verbindliche Übereinkünfte mit anderen eingehen können, dann „entspricht ein Gleichgewicht einem Ergebnis, bei dem keine Koalition einen Anreiz oder die Mittel hat, einseitig eine Verbesserung der Situation aller ihrer Mitglieder herbeizuführen. In der Spieltheorie heißt ein solches Gleichgewicht ,Kern' und entspricht in einfachen Abstimmungsspielen einem Condorcet-Gewinner" (Ordeshook 1982,26). 10 Wenn für eine bestimmte Konfiguration von Spielerpräferenzen und eine Menge von institutionellen Regeln genau ein Gleichgewichtspunkt existiert, dann kann man Ό Die Bezeichnung Spiel meint hier eine formale Darstellung einer Entscheidungssituation. Eine solche formale Darstellung benennt die Menge der Spieler, die ihnen zur Verfügung stehenden strategischen Alternativen, die Ergebnisse, die mit jeder Kombination von Spielzügen verbunden sind, sowie die Rangfolge, in die jeder Spieler diese möglichen Ergebnisse seinen Präferenzen entsprechend bringt. Vgl. dazu Luce und Raiffa 1957, Kap. 1 und 3. Die nicht-kooperative Spieltheorie beschäftigt sich mit sozialen Interaktionen, bei denen Übereinkünfte und Versprechen nicht von einer dritten Partei durchgesetzt werden. Im Gegensatz dazu betrachtet die kooperative Spieltheorie Entscheidungssituationen, in denen die Spieler gewöhnlich miteinander kommunizieren und verbindliche Übereinkünfte eingehen können, die von Dritten durchgesetzt werden. Wegen der Existenz einer solchen Durchsetzungsinstanz besteht in kooperativen Spielen keine Notwendigkeit für sogenannte „sich-selbst-durchsetzende" (self-enforcing) Verträge. Siehe Nash 1950; Harsanyi 1986,92 f.

38

2. Worum geht es in der Rational-Choice-Theorie?

unter der Annahme, daß sich Menschen rational verhalten, Prognosen darüber aufstellen, was tatsächliche Akteure tun werden. Wenn mehrere mögliche Gleichgewichte vorliegen, dann können sich auch Rational-Choice-Modelle nicht auf ein Ergebnis festlegen. Und wenn es überhaupt kein Gleichgewicht gibt, dann droht die Welt der Politik chaotisch und hinsichtlich ihrer grundlegenden Struktur gänzlich unberechenbar zu sein. Das ist der Grund dafür, daß es in der theoretischen Rational-Choice-Literatur so häufig darum geht, die notwendigen und hinreichenden Bedingungen für die Existenz von Gleichgewichten herauszuarbeiten. Die meisten Rational-Choice-Theoretiker sind zwar der Ansicht, daß im Bereich der Politik Situationen mit genau einem Gleichgewicht die Ausnahme sind, ziehen daraus aber ganz unterschiedliche Konsequenzen. Für Theoretiker wie Riker (1980, 443) bedeutet es, daß die Politikwissenschaft ,4ie trostlose Wissenschaft" ist. Wenn man aus den Gesetzen, in die die Gleichgewichtsmodelle eingebettet sind, keine klaren Vorhersagen ableiten könne, dann müsse der Anspruch aufgegeben werden, daß Rational-Choice-Modelle mehr sind als bloße empirische Verallgemeinerungen. Diesen „Alles-oder-nichts"-Standpunkt teilen jedoch nicht alle Rational-ChoiceTheoretiker. Elster (1986b, 19) etwa ist der Ansicht, daß ein Modell, auch wenn es mehrere Gleichgewichte vorhersagt, „uns immer noch dabei helfen kann, einige Alternativen von der Betrachtung auszuschließen, selbst wenn es nicht dem Ideal entspricht, alle Möglichkeiten bis auf eine zu eliminieren". Ordeshook (1986, 98) weist darauf hin, daß auch die Erkenntnis, daß kein Gleichgewicht existiert, uns „einen Hinweis darauf [gibt], welche Handlungen und Ergebnisse wir erwarten können". Und eine ganze Reihe von Rational-Choice-Studien bemüht sich gerade darum, strategisches Verhalten unter solchen Umständen zu modellieren. 11 Die Rational-Choice-Theoretiker, die Rikers reinen „Alles-oder-nichts"-Universalismus ablehnen, geben ihre universalistischen Ambitionen deshalb nicht gänzlich auf. Die von ihnen vertretenen eingeschränkten Formen des Universalismus sind jedoch unterschiedlich. Die von Elster und Ferejohn vertretene Version könnte man als partiellen Universalismus bezeichnen. Damit ist die Ansicht gemeint, daß die rationale individuelle Maximierung einiges, aber nicht alles erklärt, was in den verschiedenen Sphären der Politik vor sich geht. Uneinigkeit herrscht bei ihren Anhängern darüber, wie groß die zu erwartende Erklärungskraft der Rationalität unter verschiedenen Umständen ist. Für Elster (1986, 27) sollte Rationalität „eine herausragende, aber nicht die einzige Rolle" bei der Erklärung politischer Ergebnisse spielen. Ferejohns Ansprüche (1991, 284) sind angesichts der Erkenntnis, daß multiple Gleichgewichte allgegenwärtig sind, geringer: ,3ei einer sehr großen Klasse von Situationen strategischer Interaktion - eigentlich in nahezu allen Spielen, die sich über einen gewissen Zeitraum erstrecken und eine nicht-triviale Informationsstruktur aufweisen - ist in einem spieltheoretischen Gleichgewicht so gut wie jedes Ergebnis möglich. Diese Unbestimmtheit, die von Spieltheoretikern häufig als das Jblk theorem' bezeichnet wird, legt es nahe, daß Rationalität allein die Auswahl 11 Für Überblicke Uber diese Literatur siehe Ordeshook 1986 und McKelvey 1991. Wir werden auf das Thema in Kap. 6 zurückkommen.

Was heißt „erklären"?

39

eines bestimmten Ergebnisses nicht vollständig erklären kann, solange der Rationalitätsbegriff nicht selbst inhaltlich stark angereichert oder durch zusätzliche Annahmen über die menschliche Natur ergänzt wird." Folglich sollte die Rational-Choice-Theorie nach Meinung Ferejohns durch andere partielle Theorien, etwa durch Kulturtheorien, ergänzt werden. Da menschliche Handlungen im Grenzbereich zwischen der Sphäre der Handlung und der Sphäre der Bedeutung angesiedelt seien und somit einerseits von der Logik des rationalen Kalküls und andererseits von „subtileren ideationalen Logiken" beschränkt würden, könnten sie nicht erklärt werden, „ohne beide Sphären zu berücksichtigen" (1991, 283-86). Nach Ferejohn ergänzt also die Kulturtheorie die Rational-Choice-Theorie insofern, als sie dem Forscher herauszufinden erlaubt, welches der vielen möglichen Gleichgewichte, die die Rational-Choice-Theorie vorhersagt, tatsächlich eintreten wird. Fraglich ist allerdings, inwiefern eine solche Erklärung dann noch wirklich universell ist. In den folgenden Kapiteln werden wir zeigen, daß Rational-ChoiceTheoretiker, die einen partiellen Universalismus vertreten, der Frage, in welchem Maße Phänomene durch individuelle Maximierung oder aber durch Gewohnheit, Fehler usw. erklärt werden können, bisher kaum nachgegangen sind. Auch die Frage, wie die individuelle Maximierung mit anderen unabhängigen Variablen interagiert, wurde weitgehend außer Acht gelassen. Statt dessen haben sie es vorgezogen, sich auf die Rationalitätskomponente in partiellen universalistischen Erklärungen zu konzentrieren. Radikalere Revisionisten verschreiben sich dem segmentierten Universalismus, d. h. der Ansicht, daß nur für bestimmte Bereiche des politischen Lebens erfolgreiche Rational-Choice-Erklärungen erstellt werden können. In Anbetracht des systematischen Scheiterns von Rational-Choice-Theorien in bestimmten Bereichen - ζ. B. bei der Erklärung der Wahlbeteiligung - sollten dieser Auffassung zufolge RationalChoice-Theoretiker versuchen, einen Katalog der Umstände aufzustellen, unter denen Rational-Choice-Erklärungen gelingen können. Satz und Ferejohn (1993, 3) etwa argumentieren, daß „Rational-Choice-Erklärungen am überzeugendsten für Situationen sind, in denen das individuelle Handeln starken Beschränkungen unterliegt". Genau wie Modelle des rationalen Akteurs besser dazu geeignet seien, das Verhalten von Finnen als das von Konsumenten auf dem Markt zu erklären, sollte man nach Ansicht dieser Autoren auch erwarten, daß sie eher dazu in der Lage sind, das Verhalten von Parteien als das von Wählern in der Politik zu erklären. Möglicherweise lassen sich Rational-Choice-Modelle aber auch eher auf solche Bereiche der Politik anwenden, die der Wirtschaft vergleichsweise ähnlich sind. Demzufolge könnte man erwarten, daß sie besser geeignet sind, bürokratische Beutezüge als ethnische Unruhen zu erklären (Schumpeter 1942; Green 1992). Eine dritte Möglichkeit, die von Maoz (1990, 318-21) vertreten wird, ist, daß Rational-Choice-Modelle erfolgreicher auf solche Situationen angewendet werden können, in denen die Akteure weder unter extrem hohem noch unter extrem niedrigem Druck stehen. Geringer Druck „kann bedeuten, daß sowohl der motivationale Antrieb als auch die praktischen Beschränkungen gering sind", so daß die Akteure „wahrscheinlich auf routinemäßige Problemlösungsverfahren zurückgreifen". Umgekehrt sei in Situa-

40

2. Worum geht es in der Rational-Choice-Theorie?

tionen, in denen ein Akteur großem Druck ausgesetzt ist, häufig „die Motivation extrem hoch und auch der Zeitdruck enorm". Das erhöhe die Wahrscheinlichkeit, daß „analytisches Vorgehen durch emotionale Faktoren und praktische Beschränkungen behindert" und eine rationale Entscheidungsfindung verhindert werde. Nach dieser Auffassung ist zu erwarten, daß Rational-Choice-Modelle am besten für Situationen geeignet sind, in denen nur mäßiger Streß herrscht. Elster (19986, 19 f.) schlägt eine vierte Hypothese vor, nach der Rational-Choice-Erklärungen eher dann zutreffen, wenn die Optionen, die ein Akteur hat, festgelegt sind, als wenn sie von den möglichen Handlungen anderer abhängen, und eher bei weniger dringlichen als bei drängenden Entscheidungen. Einen weiteren Vorschlag machen Brennan und Buchanan (1984): Nach ihrer Logik kann ein Wahlakt kaum als eine Investition aufgefaßt werden, da die Wahrscheinlichkeit, daß eine einzelne Stimme das Wahlergebnis entscheidend beeinflußt, nahezu Null ist. Folglich lägen räumliche Modelle der Wählerpräferenzen nicht innerhalb der Reichweite der Theorie. Aldrich (1993) und Fiorina (persönliche Korrespondenz, 1993) verallgemeinern dieses Argument, wenn sie vermuten, daß Rational-Choice-Modelle dann nützlich sind, wenn hohe Gewinne auf dem Spiel stehen und die Handlungen des Individuums einen spürbaren Einfluß auf ihr Zustandekommen haben. Wenn das Ergebnis nicht besonders wichtig sei oder der Handelnde kaum hoffen könne, es zu beeinflussen, dann lohne es dagegen nicht, sich strategisch rational zu verhalten. Man könnte meinen, daß die Anhänger des segmentierten Universalismus ihre universalistischen Ambitionen völlig aufgegeben haben; das wäre aber ein falscher Eindruck. Erstens denken sie, wenn sie von den Grenzen der Rational-Choice-Theorie sprechen, meistens an Modelle, die sich einer „dicken" Theorie des Rationalen im Sinne Ferejohns bedienen. Modelle, die auf einer „dünnen" Theorien des Rationalen beruhen und die von Ferejohn, Riker und anderen ihrer Vertreter als Tautologien aufgefaßt werden, die sich auf alle menschlichen Handlungen anwenden lassen, genießen hingegen weiterhin allenthalben Anerkennung. Zweitens haben sich die meisten Rational-Choice-Theoretiker, die den segmentierten Universalismus vertreten, diese Sichtweise nur ganz allmählich angeeignet, nachdem sie sich aus einem Betätigungsfeld nach dem anderen infolge empirischer Mißerfolge zurückziehen mußten. Ihr Ziel ist es, eine möglichst universelle Spielart der Theorie aufrechtzuerhalten, und daher suchen sie in der Regel lieber nach einer Version, die erklären kann, was auf einem besonders „widerborstigen" Gebiet vonstatten geht, als daß sie es ganz aufgeben, einen solchen Bereich zu erklären. Drittens beruhen einige der Argumente für den segmentierten Universalismus ihrerseits auf der RationalChoice-Logik - wie ganz offensichtlich Fiorinas Vermutung, daß sich unter bestimmten Umständen strategisches Verhalten nicht lohnt, oder Satz und Ferejohns Behauptung, daß relativ beschränkte Bedingungen eher strategisches Handeln hervorrufen als relativ unbeschränkte Bedingungen. Wir werden in den folgenden Kapiteln zeigen, daß solche Vermutungen noch der empirischen Prüfung bedürfen und daß die ihnen zugrunde liegenden theoretischen Argumente bislang noch eher unterentwickelt sind.

Was heißt „erklären"?

41

Und schließlich haben manche Rational-Choice-Theoretiker ihren Universalismus auch insofern abgemildert, als sie die Rationalwahl nicht als eine einzige Theorie, sondern als eine Familie von Theorien auffassen. Wie wir bereits gesehen haben, gehen mit unterschiedlichen Versionen der Theorie unterschiedliche Vorstellungen davon einher, was genau maximiert wird. Neben der Unterscheidung zwischen „dünnen" und „dicken" Theorien des Rationalen findet man in der Literatur auch eine ganze Reihe unterschiedlicher „dicker" Theorien. Je nach Vorgabe des Theoretikers können Stimmen, Wohlstand, Profit, Macht, Einfluß oder irgendeine andere Größe maximiert werden. Verschiedene Rational-Choice-Theoretiker arbeiten auch mit verschiedenen Annahmen darüber, was unter instrumenteller Rationalität zu verstehen ist. Manche Theoretiker versuchen, die Erwartungen der Akteure hinsichtlich des strategischen Verhaltens anderer Akteure zu erklären. Dieser Aspekt wird noch weiter kompliziert durch die große Bandbreite an Rational-Choice-Vorstellungen von den Einstellungen, die maximierende Individuen zueinander haben und die von gegenseitiger Gleichgültigkeit bis zu verschiedenen Formen von Nutzeninterdependenz reichen. Deshalb heißt es gelegentlich, die Rational-Choice-Theorie umfasse tatsächlich eine ganze Familie von Theorien, deren gemeinsamer Nenner die Anerkennung des Leitgedankens ist, daß man mittels des Maximierungsverhaltens von Individuen politische Ergebnisse erklären kann (s. Becker 1976; Laver 1981; Elster 1986a; Riker 1990, 172-177). Manche Theoretiker scheinen sogar vorzuschlagen, daß auch die Maximierungshypothese unter bestimmten Umständen abgeändert oder aufgegeben werden kann. Ferejohn und Fiorina (1993, 1) bezeichnen ihre Theorie, nach der Wähler ihrer Stimme abgeben, um die Wahrscheinlichkeit zu minimieren, daß das Ergebnis eintritt, das sie am meisten bedauern würden - nämlich die entscheidende Stimme nicht abgegeben zu haben - , als ein Rational-Choice-Modell (minimax regret), während Schwartz (1987) und andere dem widersprechen. Und sowohl Lowi (1992) als auch Monroe (1991) betrachten Simons Modell des satisficing als eine Art von Rational-Choice-Erklärung, was Simon selbst jedoch energisch bestreitet (1993). Je nachdem, was man als die Grundlage der Familienähnlichkeit ansieht, kann die Auffassung, daß es sich bei der Rationalwahl um eine Familie von Theorien handelt, von einer geringen Modifikation des Universalismus bis hin zu seiner völligen Aufgabe alles bedeuten. Dabei ist hinsichtlich des zweiten Extrems daran zu erinnern, daß Wittgenstein (1963, 31 f.) den Begriff der „Familienähnlichkeit" im Rahmen seines Angriffs gegen Universalien geprägt und darauf hingewiesen hat, daß sich Wörter wie Spiel auf Klassen miteinander verwandter Phänomene beziehen, die kein einziges Definitionsmerkmal gemeinsam haben. Daß ein Rational-Choice-Theoretiker so weit gehen würde, kann man bezweifeln; ein derartiger Schritt wäre schließlich unvereinbar mit der so häufig verkündeten Zielsetzung, eine Theorie zu schaffen, die glaubhaft beanspruchen kann, systematischer und weniger ad hoc zu sein als die gängigen Alternativen in der Politikwissenschaft. Wir haben vielmehr den Eindruck, daß Rational-Choice-Theoretiker manche Familienmitglieder anderen

42

2. Worum geht es in der Rational-Choice-Theorie?

vorziehen und damit eine Hierarchie schaffen, die von kaum plausiblen, aber interessanten bis zu plausiblen, aber banalen Versionen reicht. Am interessantesten und unter Rational-Choice-Theoretikern gewöhnlich auch am beliebtesten sind „dünne" Modellierungen, die unabhängig von den Vorlieben und Präferenzen der Akteure oder ihrem Wissen über das zu erwartende Verhalten anderer zu kontraintuitiven Ergebnissen führen (Stigler und Becker 1977). Arrows Unmöglichkeitstheorem beruht auf einer solchen Modellierung, aber Ergebnisse von derart großer Bedeutung sind höchst selten. Häufiger sind Modelle, die auf einer „dicken" Theorie des Rationalen beruhen und im Eigeninteresse die grundlegende politische Motivationsinstanz sehen. Unter diesen wiederum suchen RationalChoice-Theoretiker vor allem für solche Theorien Bestätigung, die die bewußte Maximierung von Geld, Macht oder Einfluß unter Bedingungen vollkommener Information behaupten. Olsons Logik des kollektiven Handelns hat gewiß deswegen so viel Aufmerksamkeit erregt, weil es eine Theorie genau dieses Typs ist. Wenn solche Erklärungen scheitern, dann wird zur Verteidigung des Modells in der Regel als erstes die Annahme vollkommener durch die unvollkommener Information ersetzt (Harsanyi 1986; Coughlin 1992). Wenn auch das fehlschlägt, werden als nächstes oft „dicke" Modellierungen herangezogen, die von anderen Motiven als dem Eigeninteresse im engeren Sinn ausgehen. In diese Richtung zielt etwa die Behauptung von Riker und Ordeshook, daß Bürger zur Wahl gehen, um den psychischen Nutzen zu maximieren, der mit der Erfüllung ihrer Bürgerpflicht einhergeht. Wenn auch diese Schutzwälle um die Definition der Rationalität brechen, kommen andere Varianten menschlicher Motivation zum Einsatz, wie wir in den Kapiteln 4 bis 7 zeigen werden. Rational-Choice-Theoretiker bevorzugen zwar im allgemeinen Resultate, die ihre Annahmen über die strategischen Fähigkeiten nutzenmaximierender Individuen bestätigen; aber wenn sich solche Ergebnisse nicht einstellen, dann gehen sie zu realistischeren entscheidungstheoretischen Modellen über, die weniger anspruchsvolle Anforderungen an die kognitiven Fähigkeiten von Menschen stellen. Wenn Akteure selbst unter diesen Bedingungen offensichtlich nicht maximieren, warten bereits satisficing- und minimax regrer-Strategien in den Startlöchern. Und wenn nicht einmal mehr die Möglichkeit besteht, daß die Akteure auch nur quasi-rationales Verhalten an den Tag legen, dann gibt es immer noch den letzten Ausweg, von einer „internalistischen" auf eine „externalistische" Betrachtungsweise umzuschalten und sich der schwammigen Welt evolutionärer Metaphern zu öffnen. Diese hierarchische Ordnung der Rational-Choice-Familienangehörigen wird von den Theoretikern nicht ausdrücklich propagiert. Ihre Präferenzen lassen sich vielmehr aus dem Muster schließen, nach dem sich empirische Untersuchungen entwickeln. Am Anfang eines Forschungsprogramms steht eine interessante Hypothese, die sich in dieser Hierarchie ganz oder fast ganz oben befindet; wenn dann aber Anomalien auftreten, bewegen sich die nachfolgenden Arbeiten langsam auf der Leiter nach unten.

Methodologische Annahmen

43

Methodologische Annahmen Die Schwäche der Rational-Choice-Theoretiker für irgendeine Form des Universalismus - und sei sie auch noch so verwässert - geht mit einem bestimmten methodologischen Standpunkt einher. Ihr Ziel, aus Axiomen wahre Erklärungen abzuleiten, macht dann Sinn, wenn man von der deduktiv-nomologischen Vorstellung einer Erklärung ausgeht, die verlangt, daß empirische Gesetze nur allgemeine Ausdrücke enthalten, die sich auf „allgemeine Klassen, nicht auf Individuen" beziehen, und daß „die Gesetze in ihrer Gesamtheit implizieren müssen, daß dann, wenn bestimmte Anfangsbedingungen bezüglich der allgemeinen Klassen erfüllt sind, immer ein Ereignis der zu erklärenden Art eintritt" (Miller 1987, 19). Trotz ihrer Zielsetzung, allgemeine Gesetze zu entwickeln, werden viele RationalChoice-Untersuchungen den strengen Anforderungen dieses Modells nicht gerecht. Das liegt daran, daß die Arbeiten häufig auf sogenannten „Kernaussagen" (Moe 1979, 215 f.) - Axiomen, Postulaten und Annahmen über Menschen und die Situationen, in denen sie handeln - beruhen, die zugegebenermaßen unrealistisch sind. Dazu gehören für gewöhnlich mehrere Aussagen der folgenden Art: daß Menschen immer rational (nach der jeweiligen Definition) handeln; daß Menschen ihre Handlungen auf bestimmte Arten von Informationen gründen, gelegentlich auf „vollkommene Information"; daß Menschen ihre Überzeugungen in Übereinstimmung mit der Bayesschen Regel auf den neuesten Stand bringen; daß Menschen ihre Optionen auf der Grundlage der von der Theorie ausgewiesenen Werte (meistens nichtaltruistische Werte oder Nutzenfunktionen, die mathematische Eigenschaften wie Transitivität, Ordinalität usw. besitzen) bewerten; daß die relevanten politischen „Güter" homogen und beliebig teilbar sind; und daß Präferenzen innerhalb des betrachteten Zeitrahmens stabil bleiben. Wenngleich manche Rational-Choice-Modelle realistischer sind als andere, gilt doch, wie Moe feststellt, daß sie in der Regel „von einer korrekten Beschreibung weit entfernt" sind. Der Einsatz von Erklärungen, die auf unrealistischen Annahmen beruhen, wird gewöhnlich mit Hilfe eines Erklärungsmodells gerechtfertigt, das sich vom deduktiv-nomologischen Modell unterscheidet. Nach dieser Vorstellung, die Milton Friedman (1953, 3-43) zum Teil als Kritik am Subsumtionsmodell der Erklärung entwickelt hat, kommt wissenschaftlicher Fortschritt nicht unbedingt nur auf dem Wege der Entwicklung gesetzesartiger Verallgemeinerungen zustande; gültige Theorien können ebensogut einem Aberglauben oder einem Traum wie einem Theorem entspringen. Gerade die Tatsache, daß gelegentlich Theorien überlebt haben und mit der Zeit anerkannt wurden, die (gemessen am seinerzeit verfügbaren Wissensstand) völlig abwegig und widersprüchlich erschienen, zeugt nach Friedman von der Gefahr, daß die Überbetonung realistischer Annahmen und konsistenter Verallgemeinerungen zu einem unzulässigen konservativen Vorurteil in der Theoriebildung führen kann. Nach Friedmans instrumenteller Sichtweise ist der entscheidende Prüfstein für eine Theorie ihre Vorhersage- und Erklärungskraft und

44

2. Worum geht es in der Rational-Choice-Theorie?

nicht ihre interne Struktur oder ihre Übereinstimmung mit althergebrachten Weisheiten. Mit Friedmans instrumentellem Ansatz hat man zwar eine Rechtfertigung für die Entwicklung von Rational-Choice-Hypothesen auf der Grundlage unrealistischer Annahmen; aber gleichzeitig untergräbt man damit den Ansatz von Achen und Snidal, Bueno de Mesquita, Noll und Weingast und anderen, nach deren Überzeugung wissenschaftlicher Fortschritt nur durch Theoriebildung, also durch den Nachweis der Existenz allgemeiner Gesetze, herbeigeführt werden kann. Wie Moe (1979, 215-239) und Miller (1987, 19 f.) bemerkt haben, beruht die besondere Aussagekraft des deduktiv-nomologischen Modells gerade auf seinem Anspruch, daß allgemeine Gesetze sowohl für eine ganze Klasse von Objekten gelten als auch an der Erfahrung scheitern können, d. h. durch Beobachtungen widerlegbar sein müssen. Diese Überprüfung an der Realität ist unerläßlich, um zu gewährleisten, daß allgemeine Gesetze nicht einfach nur intellektuelle Hirngespinste sind; wenn sich zeigt, daß sie mit den beobachteten Daten nicht übereinstimmen, müssen sie aufgegeben oder modifiziert und anschließend weiteren empirischen Überprüfungen unterzogen werden. In Anbetracht der konkurrierenden Grundprinzipien, die den beiden Ansätzen zugrunde liegen, kann man nicht einerseits den fehlenden Wirklichkeitsbezug der Rational-Choice-Erklärungen aus instrumentellen Gründen rechtfertigen und andererseits das nomologische Modell zur Verteidigung axiomatischer Beweise heranziehen. Entweder wird die Entwicklung einer allgemeinen Theorie mit Hilfe des nomologischen Modells gerechtfertigt (und das heißt, daß sie nicht auf unrealistischen Annahmen beruhen darf), oder der Mangel an Realismus wird mit instrumenteilen Gründen gerechtfertigt (und das heißt wiederum, daß die Art der Theoriebildung keine Rolle spielt, denn dann kommt es einzig und allein auf überprüfbare Vorhersagen an). Wer also Rational-Choice-Theorie betreiben will, um das empirische Studium der Politik voranzutreiben, hat genau zwei Möglichkeiten. Man kann erstens die der Theorie zugrunde liegenden Annahmen so verändern, daß sie sich der Realität annähern (und damit innerhalb der Grenzen des nomologischen Modells bleiben). Diese Strategie wird von Austen-Smith (1984), Krehbiel (1988), Ferejohn (1991), Noll und Weingast (1991) sowie Johnson (1991) empfohlen. Mit dem Bemühen um realistischere Annahmen wachsen allerdings sowohl die Nachfrage nach empirischen Überprüfungen als auch die Ansprüche, die eine Theorie erfüllen muß, um erfolgreich zu sein. Man kann zweitens aber auch das nomologische Modell aufgeben und den fehlenden Realitätsbezug der Theorie aus instrumenteilen Gründen rechtfertigen. Vor dieser Möglichkeit schrecken Rational-Choice-Theoretiker in ihren expliziten Bemerkungen zu Methodenfragen aber oft zurück, weil damit der Wert eines Großteils ihrer Arbeiten, die ja meist überhaupt nicht empirisch sind, in Frage gestellt wird. Oft genug wird der intellektuelle Reiz der Rational-Choice-Theorie aber gerade in ihrer vermeintlichen Fähigkeit gesehen, aus einer Handvoll unrealistischer Annahmen über Motive, Informationen und Anreizstrukturen Vorhersagen über politische Phänomene zu liefern. Auf dieser Basis macht das Rational-Choice-Projekt dann eigentlich nur nach Friedmans instrumentellem Ansatz Sinn.

Methodologische Annahmen

45

Ob man die Rational-Choice-Theorie nun im Sinne des nomologischen Modells oder in Friedmans instrumentellem Sinn begreift - um die empirische Überprüfung kommt man in keinem Fall herum. Nach beiden Ansätzen ist eine politikwissenschaftliche Theorie wertlos, wenn ihre Hypothesen der empirischen Überprüfung nicht standhalten. Um so erstaunlicher ist es, daß sowohl Anhänger als auch Kritiker der Rational-Choice-Theorie der empirischen Überprüfung so wenig Aufmerksamkeit geschenkt haben. Diesem Thema wollen wir uns nun zuwenden.

46

3. Methodologische Defekte

3. Methodologische Defekte

Was immer man zugunsten der analytischen Eleganz und des heuristischen Wertes von Rational-Choice-Theorien sagen kann - ihre empirischen Anwendungen kranken meist an zwei Arten von methodologischen Schwächen. Zum einen sind da die üblichen methodologischen Fehler. Bisweilen wenden Rational-Choice-Vertreter statistische Techniken falsch an, übersehen Meßfehler oder verlassen sich allzu sehr auf Schlüsse aus einer kleinen Fallzahl. Solche methodologischen Unzulänglichkeiten sind zwar nicht zu unterschätzen, sie sind aber in der gesamten Disziplin gang und gäbe und bilden nicht die eigentliche Zielscheibe unserer Kritik. Viel interessanter ist das Syndrom grundlegender und immer wieder auftretender methodologischer Defekte, die auf die universalistischen Ambitionen zurückzuführen sind, die so oft die treibende Kraft hinter der Theoriebildung auf der Grundlage von Rationalwahl sind. Diese Fehler haben damit zu tun, wie Hypothesen entwickelt und in überprüfbare Aussagen überführt und wie die im Zuge ihrer Überprüfung gewonnenen empirischen Ergebnisse interpretiert werden. Wir behaupten, daß sich diese (häufig sich gegenseitig verstärkenden) Probleme darauf zurückführen lassen, daß Rational-Choice-Theoretiker keinen problemorientierten, sondern einen methodenorientierten Forschungsansatz vertreten, d. h. daß es ihnen oft viel mehr darum geht, irgendein universalistisches Modell zu verteidigen, als reale politische Zusammenhänge zu verstehen und zu erklären. Genau dieser Anspruch ist mehr als alles andere für die Irrtümer verantwortlich, die wir als „Defekte der RationalChoice-Theorie" bezeichnet haben. In den Kapiteln 4 bis 7, in denen wir uns systematisch mit der Rational-Choice-Literatur über Wahlbeteiligung, kollektives Handeln, Gesetzgebungsverhalten und Stimmenwettbewerb auseinandersetzen, werden wir begründen, warum wir meinen, daß es sich hierbei um typische Fehler handelt. Im vorliegenden Kapitel wollen wir diese methodologischen Mängel zunächst beschreiben und veranschaulichen sowie erklären, warum sie grundlegende Bedingungen solider empirischer Forschung verletzen.12

Theoriebildung post hoc Viele der methodologischen Schwächen angewandter Rational-Choice-Theorien lassen sich auf eine Art von Theoriebildung zurückführen, die großen Wert auf die 12 Damit wollen wir nicht sagen, daß jeder Versuch, Rational-Choice-Modelle empirisch zu testen, schiefgeht. Wie wir aber in den kommenden Kapiteln zeigen werden, waren in den wenigen Fällen, in denen die richtigen Tests auch richtig durchgeführt wurden, die Ergebnisse nur selten neu oder kontraintuitiv.

Theoriebildung post hoc

47

Entwicklung nachträglicher Erklärungen für bereits bekannte Tatsachen legt. Gibt es eine Rational-Choice-Erklärung für das Anciennitätssystem im US-amerikanischen Kongreß? Oder für die zunehmend defizitäre Ausgabenpolitik der Regierungen? Warum wählen Wähler in einem Zweiparteiensystem eine zum Scheitern verurteilte dritte Partei? Zur Beantwortung solcher Fragen bedient sich der Theoretiker eines Gedankenexperiments, um für ein gegebenes Phänomen eine Erklärung zu finden, die mit bestimmten Rational-Choice-Annahmen vereinbar ist. Eine anschauliche Beschreibung dieses Ansatzes geben Fiorina und Shepsle (1982, 63): „Unserer Ansicht nach ist wissenschaftlicher Fortschritt Ausdruck (1) der vom Wissenschaftler getroffenen Wahl von Modellen, die (2) Gleichgewichte enthalten, welche (3) beobachteten Regelmäßigkeiten entsprechen. Das bedeutet weder, daß man Gleichgewichtsmodelle ex ante konstruiert, die dann unter Wahrung der Gleichgewichte verallgemeinert und weiterentwickelt werden, ... noch, daß man Ungleichgewichtsmodelle beibehält, nur um dann in stumme Verlegenheit zu geraten, wenn es darum geht, etwas Definitives über die Welt zu berichten.... Wer den ersten Weg einschlägt, sagt nur wenig Uber die reale Welt aus, und wer den zweiten Weg einschlägt, sagt überhaupt nur wenig aus. Wir hingegen empfehlen einen dritten Weg, den wir als .Retroduktion' bezeichnen möchten.... Einfach ausgedrückt, beginnt der retroduktive Prozeß mit einer empirischen Regelmäßigkeit X und stellt die Frage: ,Wie müßte die Welt strukturiert sein, damit X ein zu erwartendes Merkmal dieser Welt ist?' Die Antworten darauf (von denen es mehrere geben dürfte) sind Modelle, die alle die Regelmäßigkeit X als logische Implikation enthalten."

Der Versuch, beobachtete empirische Regelmäßigkeiten zu erklären, ist sicher einer Theoriebildung vorzuziehen, der es vor allem um „Eleganz oder andere ästhetische Kriterien" geht, wie dies bei der Rational-Choice-Theoriebildung sowohl in der Politikwissenschaft als auch in der Ökonomie häufig der Fall ist (Fiorina und Shepsle 1982, 63). Da aber nicht klar ist, was genau es bedeutet, ein rationaler Akteur zu sein, ist auch keineswegs offenkundig, welche Arten von Verhaltensweisen sich prinzipiell nicht durch irgendeine Rational-Choice-theoretische Variante erklären lassen. Rational-Choice-Theoretiker verfügen über ein ganzes Arsenal von Annahmen über Akteursziele (Wohlstand, Macht, moralische Befriedigung usw.) und das Ausmaß, in dem Individuen Nutzen aus dem Wohlergehen anderer ziehen, sowie über die Art von Informationen und Überzeugungen, die Individuen haben, ihre Einstellung zum Risiko, den Prozentsatz, um den sie zukünftige Gewinne diskontieren, und darüber, ob ihre Entscheidungen auf Überlegungen Uber das strategische Verhalten anderer beruhen und, wenn ja, wie die Entscheidungsregeln aussehen, deren sich Akteure unter Bedingungen der Unsicherheit bedienen. 13 Wie Ordeshook (1993, 95) hervorhebt, haben Theoretiker, die post /joc-Erklärungen produzieren, damit nicht unbedingt viel erreicht: „Selbst wenn solche Modelle den Daten mit akzeptabler statistischer Genauigkeit entsprechen, haben wir doch immer noch das Problem, daß wir nahezu jedes denkbare Ergebnis als ein Gleichgewicht irgendeines

Zwar wird die Rational-Choice-Theorie häufig als ein einheitlicher Ansatz zum Studium sozialen, ökonomischen und politischen Verhaltens angepriesen, aber, wie wir in Kap. 2 gesehen haben, scheinen die Annahmen, die empirischen Erklärungen zugrunde liegen, nur wenigen Beschränkungen zu unterliegen; und je nach Anwendungsbereich werden Akteuren gelegentlich recht widersprüchliche Motive zugeschrieben (Mueller 1979).

48

3. Methodologische Defekte

Modells darstellen können, sofern das Modell nur hinreichend komplex ist. ... Annahmen so zu formulieren, daß die Vorhersagen des Modells den Daten entsprechen, ist lediglich eine Übung im Anpassen von Kurven, wenn auch von einer etwas komplizierteren Sorte als die, die wir im allgemeinen ablehnen." Die Leichtigkeit, mit der post Aoc-Erklärungen erstellt werden können, zeigt sich unter anderem an der Vielzahl von hinreichenden Erklärungen für Phänomene wie eine positive Wahlbeteiligung oder die Unterschiede in den Wahlprogrammen der beiden Parteien in den Vereinigten Staaten. Sie zeigt sich weiterhin daran, daß hinreichende Erklärungen für gewisse „stilisierte Fakten" auftauchen, die bei genauem Hinsehen gar keine Fakten sind. McKelvey und Riezman (1992, 951) etwa wollten sowohl erklären, warum amtierende Abgeordnete häufig mit großem Vorsprung wiedergewählt werden, als auch, warum in manchen Gesetzgebungsorganen das Anciennitätsprinzip herrscht. Nun gelten die beiden Annahmen aber nicht für alle Abgeordneten bzw. Gesetzgebungsorgane. Der Prozentsatz der wiedergewählten Amtsinhaber weist für den Senat und das Repräsentantenhaus in den USA erhebliche Unterschiede auf, und die Verbreitung des Anciennitätssystems im Kongreß war im Laufe der Zeit großen Schwankungen unterworfen. Darüber hinaus geben statistische Untersuchungen der Wahlen zum Kongreß (Feldman und Jondrow 1984; Ragsdale und Cook 1987) keinen Hinweis darauf, daß zwischen dem Senioritätssystem und den Wahlerfolgen der Amtsinhaber ein Kausalzusammenhang bestehen könnte. Unter diesen Umständen weiß man nicht recht, was man mit McKelvey und Riezmans analytischem Ergebnis anfangen soll, wonach sich im Gleichgewicht Abgeordnete für ein Anciennitätssystem entscheiden und Wähler einstimmig alle Amtsinhaber wiederwählen.14 Man könnte an dieser Stelle einwenden, daß es sich bei dem, was wir post hocTheoriebildung nennen, um das Lösen von Rätseln, also um eine ganz legitime wissenschaftliche Tätigkeit handelt. Man könnte ζ. B. argumentieren, daß die Tatsache, daß die Wähler - entgegen der theoretischen Vorhersage, daß rationale Bürger sich der Wahl enthalten - in Scharen zu den Wahlurnen strömen, zur Entdeckung des Bürgersinns geführt hat. Unsere Skepsis gegenüber solchen „Entdeckungen" (wenn man sie überhaupt so nennen kann) beruht darauf, daß Retroduktion lediglich die Aussage stützt, daß manche Rational-Choice-Hypothesen möglicherweise wahr sind. Damit scheinen Rational-Choice-Theoretiker häufig ihr Soll für erfüllt zu halten; sie scheinen der Ansicht zu sein, daß die von ihnen vorgeschlagene post hocErklärung schon den Ansatz rechtfertigt, Politik so zu betrachten, als würde sie von Akteuren betrieben, die „an jede Situation herangehen, indem sie ein Auge auf die erreichbaren Gewinne richten und das andere auf die Kosten, daß sie eine hochentwickelte Fähigkeit haben, diese beiden Faktoren gegeneinander abzuwägen, und daß sie ein starkes Verlangen verspüren, stets der Richtung zu folgen, in die sie ihre Rationalität lenkt" (Downs 1968, 7 f. [Übers, dem Satzbau angepaßt]). Daten, an denen sich die Theoriebildung inspiriert, können jedoch eigentlich nicht zur Überprüfung McKelvey und Riezman (1992, 958) weisen darauf hin, daß es in ihrem Modell mehr als nur ein Gleichgewicht gibt. In einem anderen Gleichgewicht „wird das Anciennitätssystem von den Gesetzgebern abgelehnt, und alle Abgeordneten, die sich zur Wiederwahl stellen, scheitern".

Theoriebildung post hoc

49

dieser Theorie herangezogen werden, vor allem dann nicht, wenn viele post hocModelle zu den gleichen Prognosen führen. Wenn eine gegebene retroduktive Erklärung nicht dazu benutzt wird, Hypothesen zu erzeugen, die der Überprüfimg in anderen Zusammenhängen standhalten, ist kaum etwas von empirischer Bedeutung bewiesen. Viele Rational-Choice-Theoretiker haben ζ. B. versucht zu erklären, warum, wie Schumpeter (1993, 414 f.) es formuliert hat, „[normalerweise] die großen politischen Fragen im Seelenhaushalt des typischen Bürgers den Platz mit jenen Mußestunden-Interessen [teilen], die nicht den Rang von Liebhabereien erlangt haben". Die Hypothese der „rationalen Unwissenheit" (Downs 1968) besagt, daß die Bürger kaum mehr wissen als das, was sie kostenlos erfahren können, da sie keinen Anreiz haben, Ressourcen einzusetzen, um sich über politische Angelegenheiten zu informieren. Angesichts der geringen Wahrscheinlichkeit, daß die Stimme eines einzelnen Wählers eine Wahl entscheidend beeinflußt, stellt der rationale Bürger fest, daß der durch eine wohlinformierte Wahlentscheidung erzeugte Nutzen die durch Informationsbeschaffung entstehenden Kosten an Zeit und Geld keinesfalls wettmacht. Wie wir in Kapitel 5 ausführen werden, wird dieses Argument im allgemeinen als erfolgreiche Erklärung für die vermeintlich weitverbreitete Uninformiertheit der Wähler gepriesen. Aber da auch andere post Zioc-Erklärungen für Wählerignoranz vorstellbar sind, stellt sich die Frage: Warum sollten wir uns gerade dieser Erklärung anschließen? Was sagt uns diese Erklärung noch über die Bedingungen, unter denen Wähler in kostspielige Informationen investieren? Post fcoc-Theorien werden nicht nur unzulänglich überprüft: Auch die Art und Weise ihrer Entwicklung ist der empirischen Überprüfung eher unzuträglich. In dem Maß, in dem Theoretiker die Mehrdeutigkeit des Rationalitätsbegriffs ausnutzen, um eine Anomalie nach der anderen in Daten zu verwandeln, die mit einer entsprechend umformulierten Theorie vereinbar sind, muß man sich fragen, ob eine solche Folge von Theorien empirisch überhaupt sinnvoll beurteilt werden kann. Wie wir in den folgenden Kapiteln zeigen werden, machen Rational-Choice-Theoretiker nur selten genaue Angaben darüber, welche Beobachtungsfälle sie dazu veranlassen würden, ihre Hypothesen zu verwerfen oder allgemeiner ihre Überzeugung aufzugeben, daß Politik ein Produkt des Maximierungsverhaltens rationaler Akteure ist. 15 Zu den Problemen der empirischen Überprüfung kommt noch hinzu, daß sich Rational-Choice-Modelle eines gegebenen Phänomens mit anderen theoretischen Zugängen, die nicht auf der Annahme der Nutzenmaximierung beruhen, nur schwer vergleichen lassen. In Theorie und Praxis können Rational-Choice-Modelle aus einer großen Menge ganz unterschiedlicher Annahmen über Überzeugungen, Vorlie15 Es läßt sich ziemlich leicht nachvollziehen, warum sich Rational-Choice-Theoretiker von ihren Aussagen nur ungern trennen. Abgesehen von den wenigen Füllen, in denen Theoreme auf einer ungültigen Beweisführung beruhen (ζ. B. Austen-Smith und Riker 1987), sind diese Aussagen ja analytisch wahr. Daher betrachten Rational-Choice-Theoretiker empirische Rückschläge häufig lediglich als ein Anzeichen des begrenzten Anwendungsbereichs des betreffenden Theorems. Wie wir in Kap. 5-7 zeigen werden, halten sie in dieser Situation oft an der Vorstellung fest, daß die in einem Theorem behaupteten allgemeinen Strukturen auch dann grundlegend richtig sind, wenn sie sich bei bestimmten Anwendungen als falsch erweisen.

50

3. Methodologische Defekte

ben und Umweltbeschränkungen konstruiert werden. Da verwundert es wenig, daß solche Modelle zu völlig gegensätzlichen Prognosen kommen können. Manche Rational-Choice-Theorien etwa sagen voraus, daß kollektives politisches Handeln unter dem Gewicht des Trittbrettfahrerproblems zusammenbrechen wird; andere dagegen verweisen darauf, daß entsprechende Bewegungen durch Anreize zur Solidarität am Leben erhalten werden können. Manche Varianten der Rational-ChoiceTheorie sagen vorher, daß Kandidaten in einem Zwei-Parteien-System identische Programme vertreten, andere dagegen argumentieren, daß die Kandidaten unterschiedliche politische Standpunkte einnehmen. Daß verschiedene Rational-ChoiceTheorien X und Nicht-X vorhersagen, verursacht große Probleme für jeden, der die Leistung von Rational-Choice-Modellen mit denen konkurrierender Ansätze vergleichen will. Immer werden sich die Vorhersagen irgendeines Rational-ChoiceModells mit den Vorhersagen Uberschneiden, die aus einem anderen Modelltyp gewonnen wurden. Dabei ist anzumerken, daß die Erklärungen anderer theoretischer Ansätze von Rational-Choice-Theoretiker kaum zur Kenntnis genommen werden. Ihr Streben nach hinreichenden Erklärungen politischer Phänomene verleitet sie häufig dazu, nur das in den Blick zu nehmen, was die Theorie tatsächlich zu erklären scheint. Wie Russell (1979, 11) bemerkt, geht dieser Analysestil oft mit einer auffälligen Mißachtung alternativer Erklärungen einher, so daß der Frage, ob die Daten den Vorhersagen konkurrierender theoretischer Erklärungen ebensogut entsprechen, gar nicht erst nachgegangen wird. Manchmal ist es reine Nachlässigkeit oder Engstirnigkeit, daß kein Vergleich zwischen der relativen Erklärungskraft von Rational-Choice- und anderen Ansätzen gezogen wird. Meistens liegt es aber an einer falschen Vorstellung von Theoriebildung, die auf der Formulierung hinreichender Erklärungen beharrt. Die Ironie dabei ist, daß die einseitige Bevorzugung eines Erklärungstyps bei gleichzeitigem Ausschluß aller anderen Erklärungsmöglichkeiten dazu führt, daß Rational-Choice-Modelle deutlich an Überzeugungskraft einbüßen. 16 Aufgrund dieses fehlenden Interesses an anderen Erklärungsansätzen ist die Forschung nur selten darauf angelegt, glaubwürdige Nullhypothesen - d. h. Vermutungen, von deren Wahrheit die Forscher zunächst einmal ausgehen - zugunsten von Alternativen zu verwerfen, die aus einem Rational-Choice-Ansatz abgeleitet wurden. Die Nullhypothesen, die man zu widerlegen versucht, sind statt dessen häufig ziemlich platt - so etwa die Hypothese, daß „Wähler" im Experiment nach dem Zufallsprinzip wählen (McKelvey und Ordeshook 1984a) oder daß Preisänderungen sich nicht auf das Verhalten auswirken (Wittman 1975).17 Ebensowenig wie der

Olsons Rational-Choice-Erklärung des wirtschaftlichen Niedergangs Großbritanniens (1982) wäre ζ. Β weitaus Uberzeugender gewesen, wenn er einige der konkurrierenden Erklärungsansätze, von denen es schließlich mehr als ein halbes Dutzend gibt (s. Cameron 1988), damit verglichen (oder sie zumindest erwähnt) hätte. Ähnliches gilt auch für die Vielzahl von Studien, die demokratischen Institutionen und den durch sie erzeugten Anreizen die Schuld an Inflation und zunehmender Bürokratisierung zuweisen (s. Barry 1984; Mueller 1989, Kap. 17). 17 Wittman (1975, 738) stellt die Hypothese auf (überprüft sie aber nicht), daß Personen, die bezahlten Urlaub erhalten, um wählen zu gehen, das mit größerer Wahrscheinlichkeit auch tun werden

Die Entwicklung von Tests

51

Sieg über einen Gegner wie Grenada etwas über die militärische Schlagkraft der USA aussagt, wird das Verständnis von Politik durch die Tatsache bereichert, daß eine triviale oder unplausible Nullhypothese durch eine Rational-Choice-Hypothese aus dem Feld geschlagen wurde. Auch wenn es sich hierbei nicht um ein zentrales Problem handelt, sollte man Rational-Choice-Theorien Erklärungskraft doch nur in dem Maße attestieren, wie die von ihnen widerlegten Nullhypothesen glaubwürdig sind. Meist berücksichtigen Rational-Choice-Theoretiker entweder nur unhaltbare alternative Erklärungsversuche oder Uberhaupt keine. Wenn also post Aoc-Theoriebildung dazu verwendet wird, plausible RationalChoice-Erklärungen für beobachtete Phänomene zu geben oder Rational-ChoiceHypothesen so umzuformulieren, daß sie Anomalien umgehen oder scheinbar erklären, dann mag ein Rational-Choice-Theoretiker glauben, daß der Ansatz damit in einem irgendwie signifikanten Sinne „gerettet" wurde. Tatsache ist jedoch, daß die Überprüfung der betreffenden Hypothesen dann noch aussteht. Mit unserer Kritik an der post ftoc-Theoriebildung wollen wir nicht ausschließen, daß dadurch echte theoretische Innovationen zustande kommen können. Wir behaupten nicht, daß theoretische Vorhersagen niemals geändert werden dürfen, um neue Tatsachen zu berücksichtigen. Es geht uns vielmehr darum, daß die „Innovationen", mit denen in der Regel aufgewartet wird, gar keine neuen Vorhersagen als solche beinhalten, sondern lediglich die Prozesse, durch die ein bereits bekanntes Ergebnis erzeugt wird, neu beschreiben. Nachdem sie ihre Hypothesen so umformuliert haben, daß sie bekannten Tatsachen - und vor allem Anomalien - Rechnung tragen, versäumen es Rational-Choice-Theoretiker meist, den nächsten Schritt zu tun, nämlich einen kohärenten Test vorzuschlagen, um die revidierten Hypothesen auf empirische Haltbarkeit zu überprüfen. Noch seltener kommt es vor, daß sie auch den darauf folgenden Schritt tun und die empirische Aussagekraft des von ihnen favorisierten theoretischen Zugangs mit der anderer Erklärungsversuche vergleichen.

Die Entwicklung von Tests Um eine Theorie überprüfen zu können, muß man vorab wissen, was die Theorie vorhersagt. Diesem Aspekt angewandter Rational-Choice-Forschung wird nur sehr wenig Aufmerksamkeit gezollt, was auch manchen Rational-Choice-Theoretikem gelegentlich Unbehagen bereitet. So stellten Fiorina und Plott 1978 fest, daß „spieltheoretische und sozial wahltheoretische Modelle ... ohne den geringsten Hinweis auf mögliche operationale Definitionen entwickelt und vertreten werden - man findet einen Beweis nach dem anderen, sucht aber vergeblich nach einer ausführlichen als andere Personen. Er vermutet auch, daß ceteris paribus die Wahlbeteiligung unter gesunden Bürgern höher sein wird.

52

3. Methodologische Defekte

Erläuterung dazu, wie und wann genau das Modell angewendet werden kann" (575 f.). Solche Bedenken haben jedoch einen erstaunlich geringen Einfluß auf die Entwicklung der Rational-Choice-Forschung gehabt, so daß nach wie vor ein bemerkenswertes Ungleichgewicht zwischen analytischen Darstellungen und Anwendungen besteht. Wer versucht, aus Rational-Choice-Modellen überprüfbare Aussagen abzuleiten, stellt zudem häufig fest, daß die Theorien so konstruiert wurden, daß sie gegen ungelegene Konfrontationen mit den Tatsachen immun sind. Dieses Problem tritt in ganz unterschiedlichen Formen auf. Manche Theoretiker schlagen Modelle vor, die so sparsam oder abstrakt sind, daß ihnen jegliches Erkennungsmerkmal von Politik fehlt (ζ. B. Modelle der politischen Entscheidungsfindung, in denen politische Parteien überhaupt nicht vorkommen und jeder Regierungszweig als einheitlicher Akteur behandelt wird [Banks 1989; Spiller und Spitzer 1992]); sie wiegeln empirische Überprüfungen dadurch ab, daß sie ihre Theorien als Vereinfachungen oder erste Versuche zur Bewältigung schwieriger theoretischer Fragen darstellen. Andere behaupten, daß ihre Modelle allgemeine Wahrheiten wiedergeben, die nicht mit spezifischen Anwendungsfällen übereinstimmen müssen; das gilt etwa für Calvert (1985, 87), der ein Modell für die Strategien von Kandidaten verteidigt, „weil es die Eigenschaften enthüllt, die allen Wahlkämpfen zugrunde liegen, auch wenn diese Eigenschaften durch die besonderen Bedingungen einzelner realweltlicher Situationen aufgehoben werden können" (vgl. auch Strom 1990,11). Die wichtigste Quelle der Immunisierung bei der Erstellung von Modellen ist aber wohl die Anhäufung von unbeobachtbaren Faktoren, so daß die Fähigkeit von Daten, eine aussagekräftige Überprüfung zu ermöglichen, durch die Komplexität der Theorie ausgehebelt wird. Dieses allgemeine Problem wird verstärkt durch die besonderen Schwierigkeiten, die mit der unklaren Übertragung von Gleichgewichtsmodellen in empirische Tests einhergehen. Vage Vorhersagen Rational-Choice-Erklärungen umfassen in der Regel eine stattliche Menge nichtbeobachtbarer Dinge. Vorlieben, Überzeugungen, Entscheidungsregeln und - auf einer höheren Abstraktionsebene - Gleichgewichte bilden die wesentlichen Bestandteile der meisten Rational-Choice-Modelle. Das Problem ist aber nicht die Postulierung nichtbeobachtbarer Termini an sich, sondern das Verhältnis zwischen latenten Konstrukten und beobachtbaren Indikatoren in Rational-Choice-Modellen. 18 Je größer

Noch um einiges verschärft wird dieses Problem durch die Skepsis, mit der Rational-ChoiceTheoretiker „psychologische" Indikatoren fUr Geschmäcker und Überzeugungen beäugen. Obwohl Geschmäcker und Überzeugungen für ihre Erklärungen von großer Bedeutung sind, stellen viele Rational-Choice-Wissenschaftler die Gültigkeit von Messungen in Frage, die etwas anderes als Verhalten - konkrete Wahlentscheidungen - als Indikator flir Präferenzen ansehen. Wie wir in den folgenden Kapiteln zeigen werden, hat diese Skepsis gegenüber weichen Daten die Rational-ChoiceTheoretiker jedoch nicht davon abgehalten, ohne jegliche Datengrundlage Mutmaßungen Uber psychologische Prozesse anzustellen.

Die Entwicklung von Tests

S3

dieser Quotient ist, desto schwieriger läßt sich feststellen, ob ein Datensatz eine Rational-Choice-Erklärung bestätigt oder nicht. Stellen wir uns zur Verdeutlichung ein Spiel vor, in dem zwei Spieler 14 Dollar untereinander aufteilen müssen. Wenn sich die Spieler über die Verteilung des Betrages einigen können, dann ist diese Einigung verbindlich; wenn keine Einigung zustande kommt, erhält der erste Spieler zwölf Dollar und der andere gar nichts. „Die kooperative Spieltheorie", so Hoffman und Spitzer (1985, 259), „sagt voraus, daß die Beteiligten kooperieren und die Belohnung in einem Verhältnis von dreizehn Dollar zu einem Dollar (entsprechend der Nash-Verhandlungslösung: der Gewinn aus dem Handel in Höhe von zwei Dollar wird gleichmäßig aufgeteilt) aufteilen werden. Nach der Spieltheorie sollte sich [Spieler 1] auf keinen Fall mit weniger als zwölf Dollar begnügen." Nehmen wir nun an, daß dieses Spiel tatsächlich mehrmals gespielt wird und man beobachtet, daß die Spieler die 14 Dollar häufig zu gleichen Teilen untereinander aufsplitten. 19 Was läßt sich daraus schließen? Daß die Geldbeträge zu klein sind, um Präferenzen zu erzeugen, die den bereits bestehenden Gerechtigkeitssinn ausbooten? Daß trotz des Verbots von Drohungen der erste Spieler physische Vergeltungsmaßnahmen des zweiten Spielers befürchtete? Daß die Spieler das Spiel nicht richtig verstanden hatten? Oder daß es sich bei diesem Verhalten um eine vorübergehende Abweichung vom Gleichgewicht handelt, die in der Folge zunehmender Erfahrungen mit der realen Welt knallharter Verhandlungen korrigiert werden würde? Das Beispiel zeigt, daß Rational-Choice-Hypothesen, die auf unerwartete Tatsachen stoßen, durch Rückgriff auf eine Reihe nichtbeobachtbarer Gedankengänge wiederbelebt werden können, die weder direkt noch indirekt hinreichend gemessen werden können. Angesichts zuwiderlaufender Ergebnisse kann es daher schwierig sein, zwischen drei verschiedenen Behauptungen über die wichtigste nichtbeobachtbare Variable - Gleichgewicht - empirisch zu unterscheiden: - In der beobachteten Situation liegen genau die im Modell angenommenen Präferenzen vor, aber einige oder alle Akteure sind strategisch nicht gewieft genug, um das Spiel so zu spielen, wie die Rationalwahl es empfiehlt und daher auch vorhersagt. - Die Ziele der Akteure werden vom Modell zutreffend erfaßt, aber es liegt eine vorübergehende Abweichung vom erwarteten Gleichgewichtsergebnis vor, die möglicherweise auf die besonderen Eigenschaften des Gleichgewichts selbst zurückzuführen sind. 20 Hoffman und Spitzer (1985, 260) berichten, daB alle ihre Untersuchungspersonen tatsächlich genau dies tun, wenn die Rollen des ersten und des zweiten Spielers per MUnzwurf zugeteilt werden. Unter diesen Bedingungen stimmte die Versuchsperson in der Rolle des ersten Spielers „immer zu, fünf Mark weniger als die zwölf Dollar zu bekommen, die sie ohne die Kooperation der anderen Person hätte erhalten können." Siehe auch Hoffman und Spitzer 1982. Fiorina und Shepsle (1982) schlagen eine anschauliche Typologie der verschiedenen Arten von Gleichgewichten vor. Einige, „Schwarzen Löchern" gleich, ziehen Ergebnisse in einem sozialen System an und geben sie dann nicht wieder frei. Andere erhalten Ergebnisse aufrecht, ziehen sie aber nicht an, oder umgekehrt. Im letzten Fall kann es unmöglich sein, empirisch festzustellen, ob ein System nur vorübergehend oder dauerhaft aus dem Gleichgewicht ist.

54

3. Methodologische Defekte

- Eines oder mehrere Merkmale des beobachteten Spiels werden vom Modell nicht erfaßt, und die Ergebnisse entsprechen den Gleichgewichten (oder den fehlenden Gleichgewichten) eines anderen Spiels. Die Verwendung theoretischer Begriffe, die entweder gar nicht oder nur schwer meßbar sind, verursacht ähnliche Probleme wie die Unterdeterminierung in statistischen Modellen mit latenten Variablen (Bollen 1989). Unter solchen Umständen läßt sich mit Daten keine stichhaltige Überprüfung vornehmen. Wenn sich eine Hypothese als falsch erweist, kann der Forscher immer argumentieren, daß eine erfolgreiche Vorhersage durch gegenläufige Tendenzen oder vorübergehende Abweichungen vereitelt wurde. In dieser Hinsicht erinnern die empirischen Diskussionen in der Rational-Choice-Forschung an die Debatten über fallende Profitraten, über die sich die Marxisten früher die Köpfe zerbrachen. Nachdem sie durch analytische Argumente zu der Überzeugung gelangt waren, daß die Profitrate im Kapitalismus im Laufe der Zeit fallen müsse, aber keine empirischen Belege für diesen Zusammenhang finden konnten, beschäftigten sie sich jahrzehntelang damit, die überlagernden, vorübergehenden und gegenläufigen Tendenzen ausfindig zu machen, durch die dieses angebliche Phänomen verschleiert werde. Aufgrund einer Theorie, die darauf bestand, daß dem so sein mußte, glaubte man fest daran, daß unter der sichtbaren Oberfläche die Profitrate am sinken war (vgl. Roemer 1979a; Van Parijs 1980). Dem Problem der Unterdeterminierung kann auf zweierlei Arten begegnet werden. Man kann erstens die Bandbreite der theoretischen Argumente beschränken, die bei der Theoriebildung oder -Wiederbelebung verwendet werden dürfen. Angesichts der Stärke des Wunsches, die universelle Anwendbarkeit des Rational-Choice-Ansatzes zu verteidigen, erweist es sich jedoch als schwierig, eine solche Einschränkung durchzusetzen. Von Autoren wie Downs (1968) und Olson (1965), die den Rational-Choice-Ansatz in einem bestimmten Politikbereich einführen, werden solche Restriktionen zwar oft befürwortet. Sie werden dann aber im Laufe der Zeit von nachfolgenden Autoren gelockert, um das betreffende Modell angesichts zuwiderlaufender Tatsachen aufrechterhalten zu können. Eine zweite Möglichkeit besteht darin, zusätzliches Datenmaterial zu sammeln, um der Anzahl von Meßgrößen eine faire Chance zu geben, mit der Anzahl theoretischer Begriffen gleichzuziehen. Vor dieser Alternative scheuen Rational-Choice-Theoretiker meist zurück - vielleicht ein stillschweigendes Eingeständnis, daß die formale Präzision von RationalChoice-Modellen über die Meßkapazitäten von Politikwissenschaftlern weit hinausgeht. Vage operationalisierte

Vorhersagen

Die Hypothesenüberpriifung krankt im allgemeinen noch an einer zweiten Schwäche: Die empirischen Tests, die zur Beurteilung vorgeschlagener Hypothesen herangezogen werden, passen oft gar nicht zu den Hypothesen. Da die Gleichgewichtsanalyse das Kernstück vieler Rational-Choice-Studien bildet, werden RationalChoice-Aussagen häufig in Form von präzisen Vorhersagen bestimmter Ergebnisse

Die Entwicklung von Tests

55

(point predictions) ausgedrückt. Manchmal werden ζ. B. Quoten oder Verhältnisse prognostiziert, wie im Fall von Olsons Vermutung (1968), daß sich Mitglieder großer Gruppen ohne selektive Anreize oder Zwang nicht an kollektiven Handlungen zur Verfolgung gemeinsamer Interessen beteiligen werden. In anderen Fällen benennt die punktuelle Vorhersage ein bestimmtes Ergebnis, wie im Fall eines bestimmten Gleichgewichtspunkts unter der Mehrheitsregel in einem kooperativen Verhandlungsspiel. Solche Aussagen sind immer bis zu einem gewissen Grad falsch: Strategische Fehler, die zu Ergebnissen führen, die nicht im Gleichgewicht liegen, kommen immer mal wieder vor. Das Argument verlagert sich dann auf die häufig geäußerte „Hoffnung, daß sich so viele Menschen so oft politisch rational verhalten, daß ökonomische Theorien der Politik Beschreibungen, Erklärungen und Vorhersagen liefern, die häufig nützliche Annäherungen an die Wahrheit sind" (Kavka 1991, 372), 21 Ob strenge Überprüfungen punktueller Vorhersagen in Form von Annäherungen konstruiert werden können, ist jedoch nicht klar. Wenn in einer Kampagne vor einer Volksbefragung mehrere Millionen Dollar an Kleinspenden zusammenkommen, spricht das dann - wegen des, gemessen an der großen Bedeutung des Abstimmungsergebnisses für die Allgemeinheit, eher dürftigen Spendenaufkommens - ßr die Trittbrettfahrer-Hypothese (Lowenstein 1982, 572 f.) oder - wegen der vermeintlichen Irrationalität der Bereitschaft, persönliche Kosten für ein öffentliches Gut auf sich zu nehmen, das allen zugute kommt - eher gegen sie (Tillock und Morrison 1979)? Die Übereinstimmung zwischen Theorie und Tatsachen wird noch fragwürdiger, wenn sich Rational-Choice-Hypothesen fließend zwischen punktuellen und marginalen Vorhersagen bewegen. Bei punktuellen Vorhersagen handelt es sich um die Bestimmung von Gleichgewichten unter statischen Bedingungen, bei marginalen Vorhersagen, die aus der vergleichenden Analyse statischer Zustände abgeleitet werden, geht es um die Richtung der zu erwartenden Veränderung eines Gleichgewichts als Reaktion auf exogene Veränderungen von Zielen, Überzeugungen oder Umweltbeschränkungen. Es ist logisch möglich, daß nur eine der beiden Arten von Vorhersagen der empirischen Überprüfung standhält. Da aber zwei Beurteilungsmaßstäbe zur Verfügung stehen, haben Anhänger eines Modells mehr Möglichkeiten, die Stützung ihrer Vorhersagen zu behaupten. Marginale Vorhersagen stehen dann besonders hoch im Kurs, wenn statische Prognosen Probleme aufwerfen. Wie unzulänglich Rational-Choice-Theorien auch sein mögen, wenn es darum geht zu erklären, warum Bürger sich überhaupt die Mühe machen, wählen zu gehen - eines, so Grofman (1993a), sehen sie richtig voraus, nämlich daß die Wahlbeteiligung bei schlechtem Wetter sinkt. Wir haben keine Einwände dagegen, zur Hypothesenfindung den Vergleich statischer Zustände heranzuziehen; im Gegenteil - unserer Ansicht nach sind Überprüfungen, die sich auf die Richtung von Veränderungen konzentrieren, viel eher mit Wie wir in Kap. 5 darlegen, geht diese Vorstellung von .Annäherung" damit einher, daß im Falle empirischer Probleme Anomalien dem Verhalten einiger weniger irrationaler Personen zugeschrieben werden.

56

3. Methodologische Defekte

den traditionellen quasi-experimentellen Methoden zu leisten als Überprüfungen von punktuellen Vorhersagen. Was uns stört ist vielmehr die Auffassung, daß sich die Rationalität bestimmter Handlungen mit dem Argument retten läßt, daß die Akteure eben in einem bestimmten Maß auf Veränderungen von Kosten oder Nutzen reagieren. Man betrachte etwa die Untersuchung der Frage, warum politisch unerfahrene Kandidaten amtierende Abgeordnete des Repräsentantenhauses herausfordern. Ihr Verhalten gibt uns Rätsel auf, da ihre Chancen, gegen einen Amtsinhaber zu gewinnen, äußerst gering sind. Wie die meisten Rätsel dieser Art kann auch das Verhalten von Herausforderern durch Hilfskonstrukte wie Selbsttäuschung oder die Absicht, im Wahlkampf für bestimmte Rechtspraktiken zu werben, oder die Auffassung, irgend jemand sollte den Amtsinhaber herausfordern, oder ähnliches erklärt werden. Banks und Kiewiet (1989, 1007) versuchen jedoch, die Behauptung zu retten, daß sich die Entscheidung schwacher Herausforderer als rationales, auf einen Wahlsieg ausgerichtetes Verhalten erklären läßt, indem sie argumentieren, daß „schwache Herausforderer ihre Chance, in den Kongreß gewählt zu werden, maximieren können, indem sie jetzt gegen einen Amtsinhaber antreten", anstatt auf den Kampf um einen frei gewordenen Sitz zu warten, bei dem sie dann vielleicht andere starke Gegner sowohl in den Vorwahlen als auch in den allgemeinen Wahlen schlagen müßten. Trocken kommentieren der Autoren: „Diese Chance mag zwar nicht besonders groß sein, aber sie maximieren sie." Die Frage, ob schwache Herausforderer lieber gegen Amtsinhaber antreten als in Konkurrenzkämpfen um freie Sitze, mag durchaus der Untersuchung wert sein. Unklar ist aber, was die Ergebnisse einer solchen Untersuchung zur Beantwortung der Frage beitragen können, ob es rational ist, als schwacher Herausforderer gegen einen amtierenden Abgeordneten anzutreten, wenn Rationalität verlangt, daß der Nutzen die Kosten übersteigt (ebd., 1000).

Auswahl und Interpretation von Daten Typische Schwächen zeigt die Rational-Choice-Theorie auch bei der Art und Weise, wie Hypothesen getestet werden. Das betrifft zum einen die einseitige Datenauswahl, zum anderen aber auch die subtileren Wege, auf die Daten mit Blick auf die Theorie und nicht unabhängig von ihr gesammelt werden. Und schließlich geht es um den strategischen Rückzug aus Bereichen, in denen die Theorie offenkundig schlecht abschneidet. Alle drei methodologischen Mängel schwächen die theoretischen Aussagen, die sie eigentlich stützen sollten, da es gerade die systematische Suche nach Gegenbeispielen ist, die den Kern wissenschaftlicher Überprüfung bildet.

Auswahl und Interpretation von Daten

57

Die Suche nach bestätigendem Datenmaterial Liest man Untersuchungen aus der angewandten Rational-Choice-Forschung, ist man immer wieder überrascht, in welchem Ausmaß Vertreter von Rational-ChoiceModellen die Verzerrung ihrer Datenauswahl durch ihren theoretischen Standpunkt zulassen. Am offenkundigsten ist die Neigung, Fälle zusammenzutragen, die eine Hypothese bestätigen, im Bereich der Regulierungs- und Verwaltungspolitik, wo es ideologisch um einiges geht. Die Praxis - die an Werbespots erinnert, die die Vorteile eines Produkts anpreisen, ohne auch nur einen Ton über seine Mängel oder über vergleichbare Leistungen von Konkurrenzprodukten zu verlieren - ist jedoch nicht auf ideologisch belastete Bereiche beschränkt. Mehr qualitativ ausgerichtete Rational-Choice-Studien haben die Neigung, die weite Welt der Politik, denkwürdige Momente der Geschichte oder gar Bibeltexte auf der Suche nach bestätigenden Beispielen zu durchforsten (Brams 1980, 1993; Riker 1982, 1986). Manchmal führt diese Schwäche dazu, daß einzelne erfolgreiche Vorhersagen über Gebühr strapaziert werden, wie ζ. B. das Phänomen, daß Ausschußvorsitzende im Plenum des Repräsentantenhauses strategische Gegenvorschläge für Änderungen an Gesetzentwürfen machen (Weingast 1989, 810), oder das der suboptimalen Bereitstellung kollektiver Güter (Olson 1968). Die Neigung, nur bestätigende Daten anzuführen, zeigt sich ebenfalls, wenn auch nicht ganz so offensichtlich, in quantitativen Untersuchungen, die zwar das Ritual vollziehen, ihren Untersuchungsbedingungen Kontrollbedingungen gegenüberzustellen, tatsächlich aber auf eine Schlußfolgerung zusteuern, die sich aus dem Forschungsdesign trivial ableitet. Nach Ansicht von McCubbins (1991, 107) etwa „stützen" Zeitreihenanalysen von Daten des Bundes für den Zeitraum zwischen 1929 und 1988 „in hohem Maße" seine spieltheoretische Vorhersage, daß gespaltene Mehrheitsverhältnisse im Kongreß zu Haushaltsdefiziten führen. Seine statistischen Schätzungen legen zwar tatsächlich die Vermutung nahe, daß „seit 1929 gespaltene Mehrheitsverhältnisse eine beträchtliche Zunahme der Staatsverschuldung mit sich gebracht haben" (102), aber im untersuchten Zeitraum gab es überhaupt nur zwei derartige Episoden: die Zeit der angebotsorientierten Wirtschaftspolitik unter Ronald Reagan und die „Dürre" bei den Bundeseinnahmen in der Endphase der Hoover-Administration. Eine Variante dieses methodologischen Problems tritt in Untersuchungen auf, die zur Stützung von Rational-Choice-Hypothesen das Verhalten unter Laborbedingungen heranziehen, ohne im Forschungsdesign eine Kontrollgruppe zu berücksichtigen. Wie wir in Kapitel 6 ausführlicher darlegen werden, zeigen erfolgreiche Experimente dieser Art bestenfalls, daß sich Laborsituationen so gestalten lassen, daß sie den von einem Theorem angenommenen Bedingungen annähernd entsprechen. Zur Stützung einer Rational-Choice-Hypothese muß ein Forscher also nur eine Situation konstruieren, die die Hypothese bestätigt. Ohne Einbeziehung einer Kontrollgruppe sagen die Resultate nichts darüber aus, ob das beobachtete Ergebnis aus Gründen, die mit der Theorie gar nichts zu tun haben, vielleicht ohnehin eingetreten wäre, und solche Experimente geben auch keinerlei Aufschluß darüber, ob die Theorie unter anderen Umständen ebenfalls zu erfolgreichen Prognosen in der Lage wäre. Derart

58

3. Methodologische Defekte

angelegte Experimente können der Veranschaulichung dienen, nicht aber der Überprüfung. Theoriegesteuerte Dateninterpretation Der starke Wunsch, die Anwendungsbreite der Rational-Choice-Theorie zu dokumentieren, führt gelegenüich zu einer voreingenommenen Auslegung der empirischen Gegebenheiten. Manchmal äußert sich das darin, daß sich Autoren vorstellen, daß bestimmte Fakten der ökonomischen Logik entsprechen würden (daß sich ζ. B. schlechtes Wetter negativ auf die Wahlbeteiligung auswirkt), und diese Fakten dann einfach als empirisch verifiziert annehmen. Dann wiederum stößt man auf RationalChoice-Theoretiker, die quasi im nachhinein von irgendeinem seltsamen Merkmal eines Modells behaupten, daß es die Realität widerspiegelt. Das Gesetzgebungsmodell von McKelvey und Riezman (1992) ζ. B. beruht auf der Annahme, daß Abgeordnete, die Seniorität genießen, in der ersten Lesung einen größeren Einfluß auf das Plenum haben als andere, nicht aber in den folgenden Lesungen. Die Autoren behaupten, diese Darstellung sei eine „realistische Beschreibung des Anciennitätssystems im Kongreß der Vereinigten Staaten", da die auf dem Anciennitätsprinzip basierenden Ausschüsse das Privileg haben, die ersten Vorschläge einzubringen, daß aber „die Ausschüsse ihre Macht weitgehend verlieren, sobald ein Entwurf dem Plenum vorliegt" (ebd., 958). Dazu sei hier nur angemerkt, daß dies eine recht sparsame Darstellung der Art und Weise ist, wie Gesetzentwürfe im US-Kongreß vorgeschlagen und abgeändert werden (Weingast 1989). Selbst wenn eine umfassende empirische Untersuchung durchgeführt wird, kommt es vor, daß die Interpretation und Aufbereitung der Beobachtungsdaten von den theoretischen Überzeugungen der Autoren gesteuert werden. So wird ζ. B. eine obskure Reihe von Abstimmungen im Repräsentantenhaus über den sogenannten Powell-Zusatz zu einer Bestimmung von 1956, die den Bau von Schulen autorisiert, immer wieder als Beleg dafür angeführt, daß Abgeordnete manchmal dafür stimmen, einen Vorschlag, den sie eigentlich ablehnen, zu stärken, um den Gesetzentwurf so für die Mehrheit unannehmbar zu machen (Riker 1965,1982,1986; Denzau, Riker und Shepsle 1985). Eine unvoreingenommene Überprüfung der Sitzungsprotokolle ergibt jedoch, daß die Tatsachen im Zusammenhang mit dem Powell-Zusatz keineswegs eindeutige Schlüsse in bezug auf das Phänomen des strategischen Wählens zulassen (Krehbiel und Rivers 1990). Die Auslassungen und Tatsachenverzerrungen, die Krehbiel und Rivers in früheren Darstellungen entdeckten (ebd., 556560, 574), legen vielmehr die Vermutung nahe, daß die betreffenden Autoren nicht in der Lage waren, Daten, die ihren theoretischen Erwartungen nicht entsprachen, richtig wahrzunehmen und zu verarbeiten. Willkürliche Einschränkung des Anwendungsbereichs Gelegentlich geben Rational-Choice-Theoretiker zu, daß es Anwendungsbereiche gibt - Wahlbeteiligung etwa oder organisiertes kollektives Handeln - für die keine

Auswahl und Interpretation von Daten

59

plausible Variante der Theorie zu funktionieren scheint. Das veranlaßt manche Theoretiker dazu, sich aus diesen Bereichen zurückzuziehen und sich statt dessen auf Gebiete zu konzentrieren, in denen die Anwendung ihrer Theorien erfolgreicher zu sein scheint. Bei dem Versuch, die Entwicklung des Strafrechts mit Hilfe seiner Hypothese der Wohlstandsmaximierung zu erklären, mußte Posner (1985) letztlich einsehen, daß sich die Existenz von Gesetzen gegen „opferlose Verbrechen" wie Prostitution und Drogenmißbrauch so nicht erklären läßt. Daraufhin wandte er sich von diesem Bereich ab, bestand aber weiterhin darauf, daß Wohlstandsmaximierung für das übrige Strafrecht eine aussagekräftige Erklärung liefert. Diese Strategie mag auf den ersten Blick ganz vernünftig und sogar bescheiden aussehen. Aber hier geht es um mehr, als es oberflächlich den Anschein hat. Nehmen wir ζ. B. an, eines Tages würde sich herausstellen, daß rote Äpfel nicht wie andere schwere Körper zu Boden fallen. Wir wären sicher nicht allzu beeindruckt, wenn uns ein Physiker dann sagen würde, daß die Theorie der Schwerkraft zwar für rote Äpfel nicht zu gelten scheine, daß sie bei allen anderen Körpern aber sehr gut erkläre, warum sie fallen, so daß er sich künftig auf diese anderen Dinge beschränken werde, wenn er die Theorie anwende. Die von uns als willkürlich bezeichnete Beschränkung auf solche Bereiche, in denen eine Theorie erfolgreich zu sein scheint, ist nicht mit zwei nicht-willkürlichen Arten der Einschränkung zu verwechseln, deren sich Wissenschaftler regelmäßig bedienen. Erstens müssen, wie Moe bemerkt (1979, 235), bei der Überprüfung jeder wissenschaftlichen Theorie ceteris parifcws-Klauseln eingeführt werden, um unberücksichtigte Faktoren auszuschließen. Ein angemessener Test für die Hypothese, daß Gegenstände von ungleicher Masse im gleichen Verhältnis zu Boden fallen, setzt ζ. B. voraus, daß der Widerstand konstant gehalten wird. 22 Zweitens können Theorien durchaus eine Auflistung sogenannter„Interaktionseffekte" beinhalten, die den Einfluß der theoretisch interessierenden unabhängigen Variablen verstärken oder schwächen. Für diejenigen, die Politik verstehen und beeinflussen wollen, hängt der Wert einer Theorie gerade davon ab, daß die Bedingungen, unter denen die Theorie gilt, präzise benannt werden. Eine willkürliche Einschränkung des Anwendungsbereichs liegt dann vor, wenn empirisch überprüfbare einschränkende Bedingungen fehlen und trotzdem zum Rückzug geblasen wird. Anders ausgedrückt ist es ein entscheidender Unterschied, ob man im vorhinein den Anwendungsbereich einer Theorie unter Angabe einschränkender Bedingungen abgrenzt oder ob man den relevanten Bereich nach dem Motto festlegt: „Die Theorie gilt, wo immer sie zu funktionieren scheint". 23 22

Dabei ist zu beachten, daB sich ceteris parifcui-Klauseln auf Störfaktoren beziehen müssen, deren Auswirkungen - wie ζ. B. beim Widerstand - prinzipiell überprüfbar sind. Man kann nicht die Position vertreten, daß die empirische Vorhersagen eines Theorems nur dann folgen, wenn all seine logischen Annahmen empirisch erfüllt sind. 23 Entsprechend müssen auch Argumente dafür, wann und wo eine Theorie anzuwenden ist, konsistent sein. Bei dem Versuch, Belege fUr ihre Hypothese zu finden, daß im Repräsentantenhaus die „Führungspersonen so ausgewählt werden, daB ihre persönliche Wiederwahl mit den Amtspflichten nicht allzu unvereinbar ist", verweisen ζ. B. Cox und McCubbins (1993, 130) darauf, daB mittels eines Rational-Choice-Arguments - das auf der Idee der uncovered set (s. Kap. 6 und 7) beruht -

60

3. Methodologische Defekte

Das Problem der willkürlichen Bereichseinschränkung ist somit das Gegenstück zu der Neigung, nur bestätigende empirische Belege anzuführen. Im ersten Fall geht es darum, problematische Daten-Seen einfach trockenzulegen; im zweiten Fall versucht man, stützendes Datenmaterial herauszufischen. Während die Praxis, nur bestätigende Belege anzubringen, irreführende Testergebnisse zur Folge hat, wird durch die willkürliche Bereichseinschränkung die Überprüfung selbst zu einem Problem. Wenn der für die Überprüfung einer Theorie relevante Bereich anhand des Kriteriums abgesteckt wird, ob die Theorie in diesem Bereich funktioniert, ist eine Überprüfung witzlos. In unserem Beispiel hält Posner so weit wie möglich an seiner Hypothese von der Maximierung des Wohlstands fest und läßt sie einfach fallen, wenn er damit nicht mehr weiterkommt. Er zieht aber weder eine andere Erklärungsmöglichkeit in Betracht, noch hält er es für nötig darzulegen, warum seine Theorie im Bereich der opferlosen Verbrechen nicht funktioniert. Damit eine Bereichseinschränkung zulässig ist, muß der relevante Bereich unabhängig davon definiert werden, ob die Theorie das Phänomen auf diesem Gebiet zu erklären vermag oder nicht. Zudem müssen Hypothesen über die Einschränkungsbedingungen für Rational-Choice-Erklärungen selbst der empirischen Überprüfung zugänglich sein. Wie wir in Kapitel 2 festgestellt haben, schlagen Rational-Choice-Theoretiker wie Brennan und Buchanan, Fiorina sowie Satz und Ferejohn verschiedene Hypothesen über die Bedingungen vor, unter denen Rational-Choice-Erklärungen vermutlich gelten. Wie wir aber in den folgenden Kapiteln zeigen werden, haben diese Empfehlungen bei der Konstruktion und Anwendung von Rational-Choice-Modellen noch keinen großen Niederschlag gefunden.

Abschließende Bemerkungen Wenngleich die methodologischen Probleme, die wir in diesem Kapitel angesprochen haben, bei den empirischen Anwendungen weit verbreitet sind, handelt es sich

vorhergesagt werden kann, daB „Parteiprogrammen, die von Kandidaten ftlr FUhrungspositionen vertreten werden" strenge Grenzen gesetzt sind und insbesondere ein Erfolg von Kandidaten, die nicht in der Mitte angesiedelt sind, ausgeschlossen ist (ebd., 130). Cox und McCubbins möchten diese Vorhersage zwar gerne Ubernehmen, bemerken jedoch, daß man dagegen einwenden könnte, daB Entscheidungen nach dem Mehrheitsprinzip prinzipiell instabil sind, da es „immer eine Mehrheit gibt, deren Mitglieder sich alle besserstellen könnten, wenn sie ihre Politik änderten" (ebd., 131). Cox und McCubbins entgegnen darauf, daB dieser Einwand Uber die prinzipielle Verletzlichkeit der FraktionsfUhrer im Repräsentantenhaus auf der Annahme beruhe, daB den Akteuren bei der Sondierung oder Bildung neuer Mehrheitskoalitionen keine Transaktionskosten entstehen. Wenn solche Kosten aber berücksichtigt wurden, so Cox und McCubbins, bestehe das Instabilitätsproblem bei der Wahl von Fraktionsvorsitzenden nicht mehr. Was sie dabei zu erwähnen vergessen, ist, daB auch die von ihnen favorisierte Vorhersage auf der Grundlage der uncovered set voraussetzt, daß es keine Transaktionskosten gibt.

Abschließende Bemerkungen

61

hierbei keineswegs um Mängel, die mit der Rational-Choice-Theoriebildung untrennbar verbunden sind. Die zentrale Empfehlung dieses Buches lautet ja auch nicht dahingehend, Rational-Choice-Modelle der Politik am besten einfach aufzugeben. Vielmehr ist es unser Anliegen darauf hinzuwirken, daß der Rational-ChoiceZugang grundlegend Uberdacht und seine Beziehung zu dem bestehenden Wissensund Theorienbestand in den Sozialwissenschaften neu bewertet wird. Dafür müssen wir verstehen, wie die immer wieder auftretenden methodologischen Probleme aussehen, warum sie auftreten und wie sie überwunden werden können. In dieser Absicht wenden wir uns jetzt den Untersuchungen zu, die sich mit Wahlbeteiligung, kollektivem Handeln, Gesetzgebungsverhalten und Wahlkämpfen beschäftigen.

62

4. Das Paradox der Wahlbeteiligung

4. Das Paradox der Wahlbeteiligung

Die Grundfeste demokratischer Politik ist der Wahlakt, und der geht mit einem Paradox einher. Seit Anthony Downs (1968) haben Rational-Choice-Theoretiker die Wahlbeteiligung als ein Problem kollektiven Handelns dargestellt, bei dem von Individuen verlangt wird, Zeit- und Transportkosten für die Bereitstellung eines öffentliches Gutes, nämlich die Wahl eines Kandidaten oder einer Partei, aufzuwenden. Auch wenn es rationalen Bürgern ganz und gar nicht gleichgültig sein mag, welche Person oder Gruppe eine Wahl gewinnt, folgt aus der Analyse des instrumentellen Wertes des Wahlaktes, daß sie trotzdem davor zurückscheuen müßten, ihren Beitrag zu diesem kollektiven Unternehmen zu leisten, da ganz offensichtlich jede Stimme nur eine unendlich geringe Chance hat, den Ausgang einer Wahl zu verändern. Warum sollte man sich also die Zeit nehmen und wählen gehen, wenn doch diese eine Stimme keinerlei Auswirkungen auf das Wahlergebnis hat? Wenn rationale Bürger den Gang zur Urne nicht in irgendeiner Hinsicht lohnend finden etwa weil demokratische Partizipation ihnen Vergnügen bereitet oder weil sie aus Prestigegründen im Wahllokal gesehen werden möchten - , müßten sie eigentlich zu Hause bleiben und die Kosten des Wählens auf andere abwälzen. Wenn der Wahlakt freiwillig und Altruismus die Ausnahme ist, dann wird für die Wahlbeteiligung in großen Wählerschaften erwartet, daß sich im Gleichgewicht nur wenige Menschen - wenn überhaupt jemand - die Mühe machen, zur Wahl zu gehen. Viele Wissenschaftler, darunter auch einige aus dem Bereich der RationalChoice-Forschung (Tullock 1967; Hardin 1982; Brennan und Buchanan 1984; Satz und Ferejohn 1993), sind daher der Ansicht, daß die Wahlbeteiligung zu den Fällen gehört, in denen die Rational-Choice-Theorie an der Empirie scheitert. Wir interessieren uns für diesen Fall nicht deshalb, weil er der Rational-Choice-Theorie Rätsel aufgibt, sondern weil er verdeutlicht, wie Rational-Choice-Theoretiker typischerweise auf Diskrepanzen zwischen Theorie und Beobachtung reagieren. Fest entschlossen, irgendeine Variante der Rational-Choice-Theorie zum Sieger über die Fakten zu küren (oder zumindest durch geschickte Bereichseinschränkung einen ehrenvollen Frieden zu schließen), haben Rational-Choice-Theoretiker eine erstaunliche Bandbreite an Vermutungen über Kosten und Nutzen des Wählens erdacht und im Zuge dessen auch eine enorme Menge an Literatur produziert, die, gemessen an der Häufigkeit, mit der sie zitiert wird, und ihrem rein bibliographischen Umfang, wohl größer ist als jede andere Sparte von Rational-Choice-Literatur zur Politik der Vereinigten Staaten. Darüber hinaus hat diese Literatur in führenden politikwissenschaftlichen Fachzeitschriften so etwas wie eine Renaissance erfahren (Uhlaner 1989; Morton 1991; Fedderson 1992, Knack 1992; Aldrich 1993; Filer u. a. 1993; vgl. auch Grofman 1993a). Ungeachtet ihres Umfangs und des Prestiges der wissenschaftlichen Periodika, in denen diese Arbeiten erschienen sind, haben Rational-Choice-Untersuchungen we-

Entscheidungstheoretische Modelle des Wählens

63

niger inhaltliche Erkenntnisse als Beispiele für schlechte sozialwissenschaftliche Forschung beigesteuert. Anhand der Wahlbeteiligung als Ausgangspunkt können wir viele der im letzten Kapitel erörterten Mängel der Rational-Choice-Forschung verdeutlichen - vor allem das, was wir als post Äoc-Theoriebildung, vage Vorhersagen und die Unfähigkeit zur Formulierung stichhaltiger Nullhypothesen bezeichnet haben. Die Literatur zur Wahlbeteiligung hat darüber hinaus den Vorteil, ziemlich intuitiv und weniger technisch zu sein. Die wesentlichen formalen Bestandteile von Rational-Choice-Erklärungen, die wir zu Beginn dieses Kapitels vorstellen, beschränken sich auf einige wenige elementare Ausdrücke. Anschließend geben wir einen kurzen Überblick über die gängigen Rational-Choice-Modelle, um dann die einschlägige Literatur nach ihren zwei Zielen zu ordnen, nämlich einerseits das Phänomen einer in absoluten Zahlen hohen Wahlbeteiligung zu verstehen und andererseits Veränderungen in der Höhe der Wahlbeteiligung mit Veränderungen in Kosten und Nutzen des Wählens zu erklären.

Entscheidungstheoretische Modelle des Wählens Das vorherrschende Rational-Choice-Modell der Wahlbeteiligung beschreibt das Entscheidungskalkül eines jeden Bürgers als ein Gleichgewicht zwischen vier Größen. Bei der ersten handelt es sich um den Nutzen N, den der Wähler aus dem Wahlsieg seines bevorzugten Kandidaten zieht. Manchmal werden dabei unter Nutzen greifbare Gewinne etwa in Form von finanziellen Vorteilen verstanden, manchmal aber auch immaterielle, ideologische Befriedigungen. Zur Verdeutlichung kann man sich vorstellen, daß es sich bei Ν um den Betrag handelt, den man zu zahlen bereit wäre, um das Wahlergebnis einseitig festsetzen zu können (Schwartz 1987). Man beachte, daß es sich bei Ν um ein Kollektivgut handelt, da kein Bürger davon ausgeschlossen werden kann, sich am Sieg des von ihm bevorzugten Kandidaten zu erfreuen, unabhängig davon, ob er selbst zur Wahl gegangen ist oder nicht. Rationalen Wählern ist jedoch klar, daß die Chance, - der sie die Wahrscheinlichkeit ρ zuschreiben - die entscheidende Stimme abzugeben, bestenfalls unsicher ist. Anders als der weiter unten dargestellte spieltheoretische Ansatz nimmt das entscheidungstheoretische Modell an, daß es sich bei ρ um eine feste Größe und nicht um einen Parameter handelt, der sich endogen aus der strategischen Interaktion zwischen Bürgern ergibt, die entscheiden, ob sie zur Wahl gehen. 24 Neben den erwarteten Auswirkungen der Stimmabgabe für den Wahlausgang berücksichtigt das Modell auch die Vorteile und Kosten, die dem Wähler durch den Wahlakt entstehen. Der Nutzen, den man unmittelbar aus der Stimmabgabe selbst

Hält man ρ konstant, ergibt sich jedoch ein Paradox: Wenn sich alle Wahlberechtigten der Wahl enthalten, weil keine einzelne Stimme für entscheidend gehalten wird (p ist sehr klein), dann ist die Stimme eines beliebigen einzelnen Wählers entscheidend (p = 1). Siehe Meehl 1977.

64

4. Das Paradox der Wahlbeteiligung

zieht, bildet die „selektiven Anreize" (A) des Urnengangs. Es ist aufschlußreich, daß man sich heutzutage kaum ein Beispiel für solche selektiven Anreize vorstellen kann, das nicht psychischer Art ist. Nach einigem Kopfzerbrechen kann man auf Staaten wie Kalifornien verweisen, wo Wähler nach der Stimmabgabe einen Kontrollabschnitt erhalten, der gelegentlich im Zuge von Werbekampagnen örtlicher Schnellimbißbuden als Rabattmarke angenommen wurde. In solchen Fällen stellt der ökonomische Wert des Kontrollabschnitts einen selektiven Nutzen des Wählens dar. Auf der anderen Seite der Rechnung stehen die Kosten (K) des Wahlgangs, die viele verschiedene Arten von Unannehmlichkeiten umfassen, von den Aufwendungen für den Transport zum Wahllokal bis zu finanziellen Einbußen durch den Verlust von Arbeitszeit (Tollison und Willett 1973). Wenn auch die Registrierung zur Wahl als integraler Bestandteil des Wahlaktes definiert wird, entstehen möglicherweise weitere Kosten durch den Aufwand, erst einmal herausfinden zu müssen, wann und wo man sich in die Wahlliste einzutragen hat (Rosenstone und Wolfinger 1978), oder auch durch das Risiko, infolge der Registrierung eines Tages als Geschworener ausgewählt zu werden (Knack 1993b). Nach dieser Modellierung wägen die Bürger nun Kosten und Nutzen gegeneinander ab und beteiligen sich dann an der Wahl, wenn die Summe der selektiven Anreize und der erwarteten kollektiven Vorteile größer ist als die Kosten des Wahlgangs. Bürger gehen also dann zur Urne, wenn pN + A > Κ

(4.1)

Der zentrale Bestandteil des Wahlbeteiligungsparadoxes ist das Produkt pN. Beck (1975), Margolis (1977) sowie Chamberlain und Rothschild (1981) haben darauf hingewiesen, daß sogar dann, wenn sich zwei Kandidaten ein Kopf-an-Kopf-Rennen liefern, die Wahrscheinlichkeit minimal ist, bei einer großen Anzahl abgegebener Stimmen die eine entscheidende Stimme abzugeben.25 Angenommen etwa, die Hin paar Sätze seien zu den statistischen Modellen gesagt, die zur Berechnung der Wahrscheinlichkeit, die entscheidende Stimme in einem Wahlkampf zwischen zwei Kandidaten abzugeben, herangezogen werden (s. Chamberlain und Rothschild 1981). Diese Modelle gehen davon aus, daB χ Wähler ihre Stimme abgeben und daB jeder Wähler durch einen unabhängigen MUnzwurf entscheidet, für wen er stimmen wird, wobei „Kopf* mit Wahrscheinlichkeit ρ eintritt. Dieses Modell ist in zweierlei Hinsicht unrealistisch: Erstens ist es eine merkwürdige Annahme, daß jeder Wähler die Wahlkabine mit derselben Wahrscheinlichkeit betritt, einen gegebenen Kandidaten zu wählen. Diese Annahme unterschätzt tendenziell die Wahrscheinlichkeit, mit der es zu einem Unentschieden oder einem Wahlsieg mit einer Stimme kommt (man denke an den alternativen Grenzfall, in dem zwei gleich große Gruppen deterministisch fUr den jeweils von ihnen bevorzugten Kandidaten stimmen, so daB mit Wahrscheinlichkeit 1 eine Pattsituation eintritt). Und zweitens gehen diese Modelle davon aus, daB es sich bei der Wahlbeteiligung χ um eine feste Größe handelt. Der gesunde Menschenverstand läßt jedoch vermuten, daB nicht nur die Entscheidung jedes einzelnen Wahlberechtigten, zur Wahl zu gehen, probabilistisch ist, sondern daB auch die Wahrscheinlichkeit der Stimmabgabe eines Wählers nicht unabhängig von deijenigen anderer Wähler sein muß (vielleicht waren sie alle derselben Kampagne zur Erhöhung der Wahlbeteiligung ausgesetzt). Aufgrund dieser Feinheiten ist es alles andere als einfach, die Wahrscheinlichkeit zu berechnen, mit der ein Wähler die entscheidende Stimme abgibt. Aber von den statistischen Modellen ganz abgesehen: Tatsache ist, daB bei Präsidentschaftswahlen, die seit jeher für die empirische Überprüfung des Rational-Choice-Modells bevorzugt

Theorie prallt auf Daten

65

Wahrscheinlichkeit, die entscheidende Stimme abzugeben, ist 1 zu 100 000 - was eine ziemlich gute Chance wäre. Selbst für einen Wähler, der bereit ist, 10 000 DM für das Privileg zu zahlen, den Wahlausgang ganz allein bestimmen zu dürfen, beläuft sich dann der Erwartungswert des Wahlgangs, wie Schwartz (1987) richtig festgestellt hat, auf nicht mehr als zehn Pfennige. Erhöht man den Umfang der hypothetischen Wählerschaft oder vergrößert man den Abstand zwischen den Kandidaten, dann muß selbst ein so engagierter Bürger bald feststellen, daß der Erwartungswert der Wahl unter einen Pfennig sinkt. Je mehr Zeit und Energie die Wähler aufwenden müssen, um zu den Urnen zu gehen, desto mehr werden also die Kosten des Wählens die Bürger davon abhalten, sich an einer Wahl zu beteiligen (Downs 1968; Tullock 1967,108-14; Fröhlich und Oppenheimer 1978,97-116).

Theorie prallt auf Daten „Zum Leidwesen der Theorie gehen die Leute aber doch wählen", klagt Carole Uhlaner (1989, 390). Tatsächlich drängen bei jeder bundesweiten Wahl viele Millionen Menschen an die Wahlurnen; und wenn die Beteiligung auf lokaler Ebene oft auch eher gering ausfällt, so ist sie doch bei weitem nicht gleich Null. Soweit wir wissen, waren daher bisher auch nur ganz wenige Rational-Choice-Theoretiker so dreist, Beispiele von Wahlen, die in einer Pattsituation endeten oder an denen sich niemand beteiligte, als Belege für die Bestätigung ihrer Theorie ins Feld zu führen (Sanders 1980; Ledyard 1984; Owen und Grofman 1984). Die meisten geben unumwunden zu, daß die absolute Anzahl von Wählern über das, was jede einfache Variante der Theorie vorhersagt, weit hinausgeht und daß die Wahlbeteiligung offenbar nicht notwendigerweise zu einem Gleichgewicht bei oder nahe Null tendiert. In Experimenten, in denen Wählern - je nachdem, welcher Kandidat das Rennen machte genau festgelegte Geldbeträge zugeteilt wurden, stellte man darüber hinaus fest, daß die meisten sogar dann eine Kopfsteuer zu zahlen bereit sind, wenn diese höher ist als die Summe, die sie durch das Wahlergebnis gewinnen können (Plott 1991). Die Diskrepanz zwischen der Höhe der beobachteten Wahlbeteiligung und dem erwarteten Gleichgewicht stellt zumindest prima facie ein Problem dar, denn Irrationalität scheint bei der Teilnahme an Wahlen unweigerlich im Spiel zu sein. Wie gehen nun Rational-Choice-Theoretiker mit dieser Anomalie um? Die Reaktion darauf nimmt überwiegend die Form von Theoriebildung post hoc an, die ausdrücklich darauf ausgelegt ist, „das Kalkül der Wahlberechtigten so umzuinterpretieren, daß [der Wahlakt] bequem in eine rationalistische Theorie des politischen Verhaltens eingefügt werden kann" (Riker und Ordeshook 1968, 25). Anstatt zuzugeben, daß reale Wähler eben nicht der Beschreibung des Trittbrettfahrers entspreherangezogen werden, in den kleinen Staaten Tausende und in den großen Staaten Zehntausende von Wählerstimmen zwischen Gewinner und Verlierer liegen.

66

4. Das Paradox der Wahlbeteiligung

chen, wie ökonomische Theorien ihn sich ausmalen, stellen viele Rational-ChoiceTheoretiker die Anomalie auf den Kopf und fragen: Wie müssen die Daten aussehen, damit ein Rational-Choice-Modell der Wahlbeteiligung zutrifft? Wie kommt es zustande, daß für große Mengen von Stimmbürgern die Vorteile des Wählens die Kosten überwiegen? Von Anfang an hatten Rational-Choice-Theoretiker Schwierigkeiten, ein zufriedenstellendes post /ioc-Modell der Wahlbeteiligung zu entwickeln. Da die Wahrscheinlichkeit, die entscheidende Stimme abzugeben, so klein ist, hat die RationalChoice-Forschung immer und immer wieder auf instrumenteile Ziele jenseits der Unterstützung eines bestimmten Wahlbündnisses verwiesen. In dem Bemühen, die Schlußfolgerung zu umgehen, daß das Gleichgewicht der Wahlbeteiligung nahe Null liegt, und doch die Überzeugung aufrechtzuerhalten, daß Wählen eine interessengeleitete Handlung ist, stellte Downs (1968) die Vermutung an, daß Menschen zur Wahl gehen, weil sie den Zusammenbruch der Demokratie befürchten, falls ein Großteil der Bevölkerung der Wahl fernbliebe. Seine Kritiker haben darauf hingewiesen, daß diese Erklärung nicht nur unplausibel ist, sondern auch der Logik kollektiven Handelns widerspricht, auf der das Wahlbeteiligungsparadox beruht. Die Aufrechterhaltung demokratischer Institutionen ist selbst ein öffentliches Gut, und der Beitrag, den eine einzelne Person dazu leisten kann, ist vernachlässigbar gering. Warum sollte man also nicht zu Hause bleiben und die Rettung der Demokratie den anderen überlassen? Wie Barry (1978), Tullock (1967) und Meehl (1977) bemerkt haben, ersetzt Downs das Wahlbeteiligungsparadox lediglich durch das Paradox der Partizipation aus Bürgerverantwortung. In eine andere Richtung zielen Riker und Ordeshooks Überlegungen (1968, 1973), die den wohl am häufigsten zitierten Versuch unternommen haben, die Lükken im Rational-Choice-Modell der Wahlbeteiligung zu stopfen. Sie argumentierten, daß Downs' ursprüngliches Modell, in dem das Α in Gleichung 4.1 fehlte, die selektiven Anreize des Wählens unterschätzt habe. Was hat man sich nun unter solchen selektiven Anreizen vorzustellen? In der ursprünglichen Formulierung seiner Theorie der Entscheidungsfindung von Massen wollte Downs nur greifbare Kosten und Vorteile wie Geld oder Opportunitätskosten berücksichtigen. Dagegen erweitern Riker und Ordeshook die Theorie dahingehend, daß sie auch die psychischen Gratifikationen enthält, die man aus dem Wahlakt ziehen kann. Dazu zählen fünf Quellen von „Befriedigung", nämlich die „Befolgung des moralischen Gebots des Wählens", „Treuebekundung gegenüber dem politischen System", „Ausdruck einer Parteipräferenz", „eine Entscheidung zu treffen ... für diejenigen, die Spaß daran haben, sich zu informieren" und Bekräftigung der eigenen Bedeutsamkeit im politischen System" (1973, 63). 26 Wie Niemi (1976, 117) in einer zustimmenden Auslegung von Riker Man beachte, daß im System der Rationalwahl der Verzicht auf Nutzen in der Regel per definitionem ausgeschlossen ist. Im allgemeinen wird angenommen, daB die bloße Tatsache, daß man einer Verpflichtung nachkommt, „zeigt", daß der Nutzen aus der Pflichterfüllung größer ist als der aus der Nicht-ErfUllung. Damit wird die Möglichkeit, daß manche Wähler vielleicht ein echtes Opfer bringen, wenn sie wählen gehen, anstatt etwas anderes zu tun, was sie eigentlich lieber täten, einfach von vornherein „hinwegdefiniert".

Theorie prallt auf Daten

67

und Ordeshook feststellt, definieren die Autoren ihren Begriff der Belohnung so breit, daß er sogar den Wert einschließt, der damit verbunden ist, nicht „nein" sagen zu müssen, „wenn man gefragt wird, ob man gewählt hat". Der Wahlakt ist demnach nichts anderes als ein Akt des Konsums, und Menschen gehen zur Wahl, weil der Nutzen, den sie automatisch aus Pflichterfüllung und Meinungsbekundung ziehen, die erwarteten Kosten des Wahlaktes übersteigt. Riker und Ordeshook (1968) untersuchen zwar einige Umfragedaten, versuchen aber weder, die Kosten des Wählens zu schätzen, noch gar, diese Kosten gegen die psychische Befriedigung aus der Erfüllung der Wahlpflicht abzuwägen. Folglich ist das Argument des Abwägens von Kosten und Nutzen kaum mehr als eine Tautologie. Wie kommen Riker und Ordeshook eigentlich zu der Annahme, daß selektive Anreize wie etwa die Erfüllung der Bürgerpflicht ausreichen, um die Kosten des Wahlaktes aufzuwiegen? Ganz einfach: Weil Menschen nicht zur Wahl gehen würden, wenn der Nutzen des Wählens geringer wäre als die Kosten. Ja, sie weisen sogar darauf hin, daß sie überhaupt nur aufgrund der Höhe der Wahlbeteiligung auf die Bedeutung des Bürgersinns gestoßen sind, da andernfalls das Phänomen der Wahlbeteiligung der „mysteriösen und unerklärlichen Welt des Irrationalen" überlassen werden müßte (ebd., 25 f.). Nachdem sie also einfach festgelegt haben, daß der Wahlakt mehr Nutzen bringt als Kosten, lösen die Autoren das Wahlbeteiligungsparadox, indem sie es auf denselben logischen Status reduzieren wie das Paradox des Besuchs von Gratiskonzerten oder das Paradox des Flanierens an öffentlichen Stränden. Vielen Vertretern des Rational-Choice-Ansatzes sind solche krampfhaften Versuche, die Theorie zu retten, sichtlich peinlich, denn die Vorliebe für Bürgerpflichterfüllung wird dem Rational-Choice-Modell dabei von außen aufgepfropft. 27 Abgesehen davon, daß es sich um eine post /toc-Erklärung handelt (und um eine empirisch äußerst vage Vermutung obendrein), wirft die Vorstellung, daß das Pflichtgefühl der Bürger die Wahlbeteiligung prägt, mehr empirische Probleme auf, als sie löst. Erstens ist ungeklärt, warum dieses Pflichtgefühl in ein und derselben Region bei verschiedenen Arten von Wahlen derartigen Schwankungen unterliegen sollte, daß die Beteiligung an Präsidentschaftswahlen, anderen bundesweiten Wahlen, Landeswahlen und Kommunalwahlen ganz unterschiedlich ausfällt. 28

27

Mit seinem ökonomischen Modell der Wahlbeteiligung hoffte Downs gerade, Erklärungen, die auf psychischen Nutzen rekurrieren, vermeiden zu können, denn „wenn es rational ist, sich aus Prestigegründen an einer Wahl zu beteiligen, warum ist es dann nicht auch rational zu wählen, um seinem Arbeitgeber oder seiner Freundin eine Freude zu machen? Bald wird dann jedes beliebige Verhalten rational, weil ja jeder Akt ein Mittel zur Erreichung irgendeines Zwecks ist, dem der Handelnde einen Wert zuschreibt. Um dieser sterilen Schlußfolgerung zu entgehen, haben wir nur Handlungen, die auf rein politische oder ökonomische Zwecke gerichtet sind, als rational betrachtet" (Downs 1968,271). 28 Niemi (1976) behauptet, Kommunal wählen seien für die Wähler kostspieliger, weil die Öffnungszeiten der Wahllokale manchmal vergleichsweise kurz sind, der Wahltermin leicht in Vergessenheit gerät und man sich angesichts der bei Kommunalwahlen größeren Undurchschaubarkeit der zur Wahl stehenden Kandidaten und Alternativen auch schwerer damit tut, eine Entscheidung zu fällen. Er unterzieht jedoch keine dieser Vermutungen einer empirischen Überprüfung. Hinsichtlich des

68

4. Das Paradox der Wahlbeteiligung

Zweitens muß es eine seltsame Art von bürgerlichem Pflichtgefühl sein, wenn damit nicht nur erklärt werden soll, warum Millionen von Menschen in die Wahllokale strömen, sondern auch, warum immer weniger Bürger sich schriftlich an ihre örtlichen Behörden wenden (Verba und Nie 1972) oder willig sind, als Geschworene zu dienen (Knack 1993b). Wenn die Erfüllung der Bürgerpflicht oder der Ausdruck der eigenen Parteiidentität tatsächlich Konsumgüter sind, in deren Genuß Bürger zu kommen wünschen, dann ist es angesichts der Vielzahl von Möglichkeiten, seiner Pflicht nachzukommen und seine politische Meinung öffentlich kundzutun, nicht nachvollziehbar, wieso gerade auf Bundesebene die Nachfrage nach Wahlbeteiligung so groß ist. Und es scheint auch nicht der Fall zu sein, daß der Drang nach der Art von Gratifikation, die man durch den Wahlakt angeblich erhält, nachläßt, wenn man mehr von den betreffenden Gütern konsumiert - indem man etwa Wahlplakate im eigenen Vorgarten aufstellt, Wahlkampfspenden entrichtet oder an Vorwahlen teilnimmt (Margolis 1982). Obwohl ihnen der Rückzug auf psychische Belohnungen zur Erklärung der Wahlbeteiligung vielleicht nicht ganz geheuer ist, übt doch die Idee, daß es die Wähler wegen der damit verbundenen „Nebeneinkünfte" zu den Urnen zieht, eine gewisse Faszination auf Rational-Choice-Theoretiker aus. So argumentiert etwa Uhlaner (1989, 419), daß „die Führer von Gruppen zusätzlichen Nutzen für Wähler (bzw. Kosten für NichtWähler) bereitstellen können, so daß die Vorteile des Wählens steigen und mehr Gruppenmitglieder zur Wahl gehen". Für die Führer lohne es sich, auf eine Zunahme der Wahlbeteiligung hinzuwirken, „da zwar die Stimme eines einzelnen Individuums kaum Einfluß auf das Endergebnis hat, das Ansteigen der Wahlbeteiligung in einer Gruppe um ein paar Prozentpunkte aber sehr wohl den Wahlausgang verändern kann", so daß der Führer einer solchen Gruppe den Kandidaten Zugeständnisse entlocken könne (ebd., 392). Abgesehen davon, daß aus ihrer Beschreibung nicht hervorgeht, an welche gesellschaftlichen oder politischen Gruppen und Gruppenführer sie dabei denkt, bietet Uhlaner keine überzeugenden Belege dafür, daß selektive Anreize - im Unterschied zu kollektiven Gütern, die lediglich zu einem Trittbrettfahrerproblem innerhalb der Gruppe führen würden - Menschen tatsächlich zur Stimmabgabe veranlassen.29 Im Gegenteil ist ihr einziges datengestütztes Beispiel (der vermeintliche Anstieg der Wahlbeteiligung von Gewerkschaftsmitgliedern während der Hundstage von 1982) schon deswegen höchst bemerkenswert, weil ihre Interpretation der Gruppenmobilisierung von ihren eigenen statistischen Daten gar nicht gestützt wird. 30

letzten Aspekts ist zudem noch nicht einmal klar, ob er sich mit der Rational-Choice-Hypothese Uber „rationale Unwissenheit" verträgt (s. Kap. 5). 29 pQf eine gruppenorientierte Analyse, in der weder gesagt wird, was unter einer Gruppe zu verstehen ist, noch, wie das Trittbrettfahrerproblem innerhalb der Gruppe gelöst wird, vgl. auch Morton 1991. 30 Unsere Nachanalyse von Uhlaners Daten für den Zeitraum 1980-1984 auf der Grundlage von Probit (die wir auf Anfrage gerne zur Verfügung stellen) erbringt selbst dann, wenn sie auf NichtRepublikaner beschränkt wird, keine Bestätigung des von ihr postulierten Zusammenhangs zwischen Gewerkschaftsmitgliedschaft und der Wahl von 1982 (p > 0.10).

Theorie prallt auf Daten

69

Andere Rational-Choice-Theoretiker lassen sich ihre schönen Geschichten von den „Nebeneinkünften" gar nicht erst durch irgendwelche Daten kaputt machen. Ausgehend von der erstaunlichen Prämisse, daß es „für andere häufig offenkundig ist, ob und wie man gewählt hat", behauptet ζ. B. Schwartz (1987, 104 f.), daß „dadurch, daß der Wahlakt nicht völlig geheim ist, politische Führer und Parteiorganisationen vom Wahlbezirk an aufwärts einzelnen Wählern selektive Anreize bieten können. Dazu zählen greifbare Güter wie Begünstigungen, die Instandhaltung von Bürgersteigen oder die Veränderung von Baubestimmungen ebenso wie ein generell größerer Einfluß und Zugang zu öffentlichen Entscheidungsverfahren". Obwohl Schwartz offensichtlich an der empirischen Beweiskraft seiner Theorie im Vergleich zu anderen Theorien gelegen ist, bietet er keine Belege dafür, daß tatsächlich Wählerpräferenzen überwacht oder Seitenzahlungen der genannten Art gegen Stimmen getauscht werden oder daß solche Transaktionen häufig genug stattfinden, um die Höhe der Wahlbeteiligung bei bundesweiten Wahlen zu erklären.31 Würde man nun die selektiven Anreize aus dem Modell eliminieren, weil sie ad hoc sind bzw. jeder empirischen Grundlage entbehren, dann würde sich das Modell der Wahlbeteiligung auf die ursprünglich von Downs vorgeschlagene Ungleichung reduzieren, wonach man zur Wahl geht, wenn pN>K

(4.2)

Angesichts dieses reduzierten Modells schlagen die Verfechter des Rational-ChoiceAnsatzes natürlich eine zweigleisige Strategie ein, die darin besteht, einerseits die Kosten des Wählens herunterzuspielen und andererseits den kollektiven Nutzen der individuellen Stimme hervorzuheben. Olson (1968, 161) meint, daß die Kosten des Wählens für viele Bürger „unbedeutend und nicht spürbar" seien, während Smith (1975, 65), Niemi (1976), Hinich (1981), Palfrey und Rosenthal (1985), Schwartz (1987) und Aldrich (1993) behaupten, die mit dem Wählen verbundenen Opportunitäts- und Transportkosten (sowie in erweitertem Sinne auch die Kosten für die Registrierung als Wähler) würden überbewertet. In Verdrehung der üblichen ökonomischen Logik der Opportunitätskosten argumentiert Niemi (1976, 115), daß „sich so gut wie jeder im Laufe des Tages Zeit nimmt, Dinge zu tun, die keine Arbeit darstellen, vom Aperitif vor dem Mittagessen über die Kaffeepause zum Bierchen auf dem Heimweg, der Gutenachtgeschichte für die Kinder, der Lektüre der Zeitung usw. Die Zeit zum Wählen wird wahrscheinlich von dieser Art von Aktivitäten abgezwackt". Palfrey und Rosenthal (1985) führen dieses Argument noch einen Schritt weiter: Aufgrund eines Gedankenexperiments, nach dem die Wahlbeteiligung „nahezu universell" wäre, wenn 20 Dollar dafür gezahlt würden, daß man zur

Denjenigen, die davon überzeugt sind, daß individuelle Wahlgewohnheiten öffentlich zutage liegen, sei ein nützliches Feldexperiment vorgeschlagen: Sie sollten einmal die Zeit messen, die man benötigt, um herauszufinden, wie ein Fremder, der in der Nachbarschaft lebt, sich bei früheren Wahlen verhalten hat.

70

4. Das Paradox der Wahlbeteiligung

Wahl geht, schließen sie, daß der Wahlgang keine Kosten verursacht.32 Letztlich benutzen diese Autoren also ihre theoretischen Überzeugungen, um die Belege zu liefern, die erforderlich sind, damit die Theorie funktioniert. Wir haben zwar noch einiges zu den Auswirkungen der Registrierungspflicht und anderer greifbarer Kosten anzumerken, wollen uns aber im Moment mit der Feststellung begnügen, daß das tendenziöse Argument von den „ungeheuer übertriebenen" Kosten des Wählens (Niemi 1976, 115) impliziert, daß das Kalkül der Wahlbeteiligung auf folgende Ungleichung hinausläuft: pN>e,

(4.3)

wobei e sehr klein ist. Damit macht jeder wahrnehmbare kollektive Nutzen, den der Wahlakt mit sich bringt, die Beteiligung an der Wahl rational. Der kollektive Nutzen wird jedoch durch die winzig kleine Wahrscheinlichkeit, daß eine einzelne Stimme die Wahl entscheidet, so stark diskontiert, daß selbst die niedrige Hürde von Gleichung 4.3 nur mit Mühe genommen werden kann. Eine Möglichkeit, die Ungleichheit, die in der Gleichung ausgedrückt wird, zu bewahren, ist das Argument, daß ρ gar nicht so klein ist, wie man intuitiv annehmen würde. An dieser Stelle ziehen Autoren wie Riker und Ordeshook (1968) gerne einen Joker aus dem Ärmel, indem sie behaupten, daß Wähler die Wahrscheinlichkeit, daß ihre Stimme die Wahl entscheidet, falsch einschätzen und auf der Grundlage ihrer stark überhöhten Wahrscheinlichkeitsannahme rational handeln. Bemerkenswert ist, daß weder Riker und Ordeshook noch andere bisher irgendwelche Belege dafür geliefert haben, daß Bürger tatsächlich solche Vorstellungen haben. 33 Die Vertreter der Fehleinschätzungsthese haben allenfalls Umfragedaten angeführt, in denen einige Befragte eine anstehende Wahl als „Kopf-an-Kopf-Rennen" bezeichneten. Das ist aber, wie Cyr (1975, 25) und Aldrich (1993, 259) bemerkt haben, etwas ganz anderes, als danach zu fragen, wie hoch man die Wahrscheinlichkeit einschätzt, daß eine bevorstehende Wahl durch eine einzige Stimme entschieden wird. Und noch viel weniger erlaubt es den Schluß, daß Millionen von Wählern sich selbst in der Rolle des Züngleins an der Waage sehen. 34 Bei der Konstruktion dieses Gedankenexperiments wurde aber offensichtlich die Berücksichtigung der unbeabsichtigten Wirkungen von Seitenzahlungen vergessen. Tatsächlich zeigen zahlreiche in letzter Zeit durchgeführte Experimente, daß die intrinsische Motivation durch extrinsische Belohnungen manchmal sogar vermindert wird, ζ. B. wenn Schüler für gute Noten oder unbeteiligte Zuschauer für gute Taten bezahlt werden (s. Lane 1991). Möglicherweise würde man das Gefühl für die Bürgerpflicht, das nach Riker und Ordeshook (1968) doch so wichtig für die Wahlbeteiligung ist, untergraben, wenn man Bürger dafür bezahlte, daß sie zur Wahl gehen. 33 Ebensowenig haben sie bislang systematische Belege für ihre Behauptung vorgelegt, daß viele Bürger der Propaganda ausgesetzt sind, daß jede Stimme zählt, und ihr auch Glauben schenken (s. auch Brunk 1980). Trotzdem scheint, wenn auch nur implizit, der Glaube an Downs' Ausspruch ungebrochen, daß ,3Urger, die sich irrational verhalten, dies zum Teil deswegen tun, weil jemand sie dazu veranlaßt, um daraus Gewinn zu ziehen" (Downs 1968, 10). 34 Dennis (1991, 44-47) versucht wenigstens, den wahrgenommenen Einfluß auf den Wahlausgang zu messen, versäumt es aber, direkt danach zu fragen, ob die betreffende Wahl wohl durch eine einzige Stimme entschieden werden wird. Statt dessen konfrontiert er eine Stichprobe von Erwachsenen

Theorie prallt auf Daten

71

Die verzweifelten Bemühungen, Modelle der Wahlbeteiligung mit dem Hinweis auf die weite Verbreitung von Fehlwahrnehmungen zu retten, stießen sowohl innerhalb als auch außerhalb von Rational-Choice-Kreisen auf ebensowenig Begeisterung wie die Versuche mit der Bürgerpflicht. Wie Schwartz festgestellt hat (1987, 108), führen solche Fehlwahrnehmungen lediglich vom Paradox des Nichtwählens zum Paradox des dummen Wählers. Wild entschlossen, eine Erklärung für die Wahlbeteiligung zu finden, die die instrumenteile Natur des Wahlakts hervorhebt, haben Rational-Choice-Theoretiker jedoch nach und nach den Vorrat an Vermutungen erschöpft, die sich über die vier Erklärungsvariablen in Gleichung 4.1 anstellen lassen. Je mehr Aufmerksamkeit das Paradox erregte, desto phantasievoller wurden die Lösungsvorschläge. So behauptet ζ. B. Strom (1975, s. auch Tideman 1985), der Wähler berücksichtige bei seiner Berechnung des Erwartungsnutzens nicht nur den Nutzen, den er durch die Abgabe der entscheidenden Stimme erhalten würde, sondern auch den Nutzen, der ihm entgehen würde, wenn er diese Chance verpaßte, indem er am Wahltag zu Hause bleibt. 35 Von Stroms Verdoppelung des unendlich kleinen Nutzens aus der Stimmabgabe offenbar nicht ganz überzeugt, schlug Hinich (1981) genau die entgegengesetzte ad Aoc-Erklärung vor, nämlich daß Menschen einen Nutzen daraus ziehen, einen Beitrag zu einer erfolgreichen kollektiven Anstrengung zu leisten. Er meint, daß die Bürger am Triumph eines Kandidaten teilhaben möchten und daher bereitwillig überflüssige Stimmen abgeben, um sich dann auch im Glänze des Siegers sonnen zu können. Leider fehlen für diese Erklärungsversuche die empirischen Belege, daß Anreize für die Vermeidung von Handlungen, die man später bereuen könnte, oder für Mitläuferverhalten weitverbreitet und stark genug sind, um das beobachtete Ausmaß der Wahlbeteiligung erklären zu können. Wie so viele Rational-Choice-Theorien gehen auch diese Arbeiten nicht darüber hinaus, sich genau die Daten herbeizudenken, die zu der jeweiligen RationalChoice-Erklärung passen.

aus dem Staate Wisconsin mit Ja/Nein-Aussagen wie „Manchmal gehe ich nicht wählen, wenn der Wahlausgang sicher scheint" und „Ob ich zur Wahl gehe oder nicht hat so gut wie keinen Einfluß darauf, wer gewählt wird". 35 Schon vor Stroms Modell haben Ferejohn und Fiorina (1974, 1975) das Argument von der Minimierung des maximalen Bedauerns (minimax regret) vorgebracht, wenngleich es sich dabei nicht um ein Rational-Choice-Modell im eigentlichen Sinne handelt, da es keine Nutzenmaximierung voraussetzt (Schwartz, 1987). Ferejohn und Fiorina gehen davon aus, daß Wähler die Wahrscheinlichkeit für die Situation minimieren, die sie am meisten bedauern würden, nämlich am Tag nach der Wahl feststellen zu müssen, daß ihr Kandidat die Wahl mit einer einzigen Stimme verloren hat. DaB eine Wahlniederlage größeres Bedauern verursacht als andere mögliche Ereignisse - ζ. B. ein Verkehrsunfall auf dem Weg zum Wahllokal - , ist von vielen in Frage gestellt worden; das Modell wurde inzwischen so gründlich auseinandergenommen, daß wir davon absehen wollen, es hier zu diskutieren (s. Beck 1975; Stevens 1975; Tullock 1975; Schwartz 1987; Aldrich 1993). Aus einem ähnlichen Grund behandeln wir hier auch nicht die von Grafstein (1991) vorgeschlagene Lösung, wonach ein „legitimes" Rational-Choice-Modell, das auf einer schlüssigen Entscheidungstheorie beruht, eine positive Wahlbeteiligung erklären kann: Das Entscheidungskalkül, das Grafstein vorschwebt, wird von manchen für das genaue Gegenteil einer rationalen Wahl gehalten (Quattrone und Tversky 1988).

72

4. Das Paradox der Wahlbeteiligung

Ein weiterer kreativer Ansatz beschäftigt sich mit der Frage, unter welchen Umständen es auf eine einzelne Stimme ankommen könnte. So kann man etwa das lästige Problem der entscheidenden Stimme dadurch umgehen, daß man annimmt, Wähler wollten lediglich den sichtbaren Rückhalt ihrer Partei bei den Wählern um ihre eine Stimme verstärken, und so das Mandat der entsprechenden Koalition für die Verfolgung ihrer politischen Ziele festigen (Stigler 1972). Diese Erklärung enthält jedoch keinerlei Belege dafür, daß eine einzelne Stimme irgendeinen wahrnehmbaren Beitrag zur Macht einer Partei in der Legislative leistet. 36 Ein anderes Szenario, in dem sich einzelne Stimmen als einflußreich erweisen, schlägt Schwartz (1987, 105) vor: Während eine einzelne Stimme, so seine Behauptung, „praktisch keine Chance hat, über den Wahlsieg eines Kandidaten zu entscheiden, hat sie doch eine zumindest vergleichsweise nicht zu vernachlässigende Chance, über den Gewinner ihres Wahlkreises zu entscheiden, und das wiederum kann ausschlaggebend dafür sein, ob und in welchem Umfang diesem Wahlkreis bestimmte Vorteile - wie Instandsetzung von Straßen, Schneeräumung, Polizeistreifen usw. - zugeteilt werden und ob generell die Anliegen und Beschwerden des Wahlkreises ein offenes Ohr finden". Warum aber Kandidaten (und folglich Wähler, die deren Unmut nicht wekken wollen) daran interessiert sein sollten, in einem bestimmten Wahlkreis die absolute Mehrheit zu erhalten (vorausgesetzt, es gibt keine institutionelle Struktur wie das Wahlmännerkollegium), ist nicht klar, da, wie man annehmen darf, eine Stimme eine Stimme ist, egal, woher sie kommt. 37 Diese Kritik trifft noch stärker auf Abstimmungen über Sachfragen zu. Schließlich kann jeder Bürger nur eine Stimme abgeben (vielleicht gegen die Präferenzen der etablierten Mächte), und es ist schwer vorstellbar, daß so eine Stimme für eine Verteilungsentscheidung irgendeines Amtsträgers ausschlaggebend sein sollte. Wiederum kann sich der Leser aber nur auf seine Intuition verlassen, da Schwartz keinerlei Belege dafür liefert, daß es eine derart fein abgestimmte Patronage überhaupt gibt, geschweige denn daß sie landesweit in einem Umfang existiert, der Anlaß für die Art von strategischen Überlegungen gäbe, die er den Wählern unterstellt.

36

Sogar Uber die Frage, ob die Größe der siegreichen Koalition Uberhaupt einen Einfluß auf den Erfolg hat, mit dem Regierungen ihre politischen Ziele verfolgen, sind Politikwissenschaftler geteilter Meinung (s. Michelson 1994). 37 Schwartz führt eine ganze Reihe von anderen möglichen „Subelektoraten" auf: Stadtbezirk, Stadtzentrum, Verwaltungsbezirk, Nachbarschaften, Stadtteile, Gewerkschaften, ethnische Minderheiten und Einkommenskategorien. Seine Vorhersagen werden noch schwammiger, wenn er feststellt, daß „der Wahlsieger (oder die regierende Partei) ein Subelektorat dafUr belohnen kann, daß es eine strategisch zugewiesene Quote erfüllt, die Erwartungen um eine bestimmte Anzahl von Stimmen Ubertroffen oder den Wahlsieg entscheidend mitverursacht hat. Es gibt möglicherweise mehr als einen Schwellenwert, bei dem eine zusätzliche Stimme einen sprunghaften Anstieg der Vorteile für ein bestimmtes Subelektorat mit sich bringt" (ebd., 107).

Rettung durch Spieltheorie?

73

Rettung durch Spieltheorie? In der Hierarchie der Rational-Choice-Modelle scheinen spieltheoretische Modelle, die die Möglichkeit einräumen, daß Menschen die strategischen Entscheidungen der anderen Akteure miteinkalkulieren, entscheidungstheoretischen Erklärungsansätzen, bei denen es um Entscheidungen bei gegebenem Verhalten anderer geht, überlegen zu sein. Spieltheoretische Modelle erlauben damit eine differenziertere rationale Berechnung von Kosten und Nutzen. Wenn also die Spieltheorie dort erfolgreich wäre, wo frühere Modelle scheiterten, wäre das schon ein Triumph. Angesichts der unglücklichen Struktur des Modells in Gleichung 4.1 war jedenfalls wohl damit zu rechnen, daß Rational-Choice-Theoretiker zur Erklärung der Wahlbeteiligung die spieltheoretische Karte ausspielen: Die Wahrscheinlichkeit, die entscheidende Stimme abzugeben, die als unabhängige Variable auftritt, ist ihrerseits eine Folge der Entscheidung, sich an der Wahl zu beteiligen. Wenn viele Bürger zur Wahl gehen, ist die Chance, daß die eigene Stimme den Ausschlag gibt, winzig klein; wenn aber aufgrund eben dieser Überlegung andere der Wahl fernbleiben würden, dann wäre die eigene Stimme sehr wohl entscheidend (Meehl 1977). In den achtziger Jahren gab es den Schimmer einer Hoffnung, daß spieltheoretische Modelle, in denen Wähler aufgrund der strategischen Antizipation des Handelns der anderen simultan entscheiden, ob sie zur Wahl gehen oder nicht, ein Gleichgewichtsergebnis aufzeigen könnten, bei dem viele Menschen an der Wahl teilnehmen. Anstatt ρ als gegeben (und unendlich klein) anzunehmen, wollten die betreffenden Wissenschaftler untersuchen, was wohl passiert, wenn der Wert von ρ durch die Interaktion strategisch denkender Wähler, die alle in der gleichen Entscheidungssituation stehen, endogen bestimmt wird. Wie Palfrey und Rosenthal (1983) zunächst feststellten, schien sich diese theoretische Entwicklung auszuzahlen. 38 Ihr Modell, in dem Wähler vollständige Informationen über die Präferenzen und Wahlkosten der anderen Wähler besitzen, generiert Gleichgewichte, in denen ein hohes Maß an Wahlbeteiligung auftritt. Mit einem etwas anderen Modell meinte Ledyard (1981, 1984) zeigen zu können, daß selbst bei einem gewissen Grad von Ungewißheit eine positive Wahlbeteiligung zustande kommt, obwohl er nicht in der Lage war, etwas über die genaue Höhe der Wahlbeteiligung zu sagen. 39 Dies schien 38 Palfrey und Rosenthal gehen ebenso wie Ledyard (s. u.) in ihrem Modell davon aus, daß die konkurrierenden Kandidaten unterschiedliche Programme vertreten; auf dieses Problem kommen wir in Kap. 7 zurück. Wenn aber, wie u. a. Morton (1991) feststellt, Kandidaten identische Programme anbieten, dann sagen Modelle, die annehmen, daß Wähler Kandidaten anhand von politischen Inhalten bewerten, eine Wahlbeteiligung von Null voraus, sofern Κ > A. 39 Im Laufe der Jahre haben viele Autoren (ζ. B. Schräm 1991) mit großer Befriedigung verkündet, daß ihre Modelle rationalen Verhaltens eine „positive Wahlbeteiligung" voraussagen. Besonders beliebt scheint es zu sein, diese Behauptung in Abstracts von Zeitschriftenartikeln aufzustellen (ζ. B. Fedderson 1992; Morton 1991). Nun umfaßt die Menge der positiven Zahlen (oder besser: ganzen Zahlen) zweifellos eine ziemlich große Bandbreite potentiell beobachtbarer Ergebnisse. Offenbar legen sich Autoren nur ungem auf eine so äußerst positive Zahl wie ζ. B. 104 000 000 fest, was ungefähr der Anzahl von Wählern entspricht, die in der Präsidentschaftswahl von 1992 ihre Stimme

74

4. Das Paradox der Wahlbeteiligung

der Durchbruch zu sein, auf den die Theorie der rationalen Wahl so lange gewartet hatte: ein Modell, das eine hohe Wählerbeteiligung erklären konnte, ohne auf post hoc- Vermutungen über Bürgerpflicht und ähnliche Dinge zurückgreifen zu müssen. Man mußte jedoch bald feststellen, daß das Gleichgewichtsergebnis mit der hohen Wahlbeteiligung zusammenbrach, sobald man zuließ, daß die Wahlberechtigten vielleicht doch nicht so genau über die Höhe der Kosten des Wahlgangs für die anderen Bürger oder über das exakte Ausmaß an Unterstützung für zwei konkurrierende Kandidaten informiert sind. Die instrumentalistische Argumentation Friedmans über die Rolle unrealistischer Annahmen in prognostischen Theorien hätte das spieltheoretische Modell vielleicht retten können, wenn sich nicht herausgestellt hätte, daß das Gleichgewicht bereits bei einem „relativ geringen Grad strategischer Ungewißheit" (Palfrey und Rosenthal 1985, 73) kollabiert.40 In jäher Abkehr von ihren früheren Ergebnissen begaben sich Palfrey und Rosenthal widerstrebend auf die übliche Rückzugsposition von Rational-Choice-Theoretikern und bemerkten nun, daß „in sehr großen Elektoraten nur solche Bürger zur Wahl gehen, die aus dem Wahlakt einen positiven Nettonutzen ziehen, Bürger also, deren Pflichtgefühl alle Kosten des Wahlakts überwiegt. Wir sind wieder da, wo wir angefangen haben, nämlich beim Paradox des Nichtwählens" (ebd., 64). Seit diesem Rückzieher vor mehr als einem Jahrzehnt sind keine neuen spieltheoretischen Lösungen für das Problem der Wahlbeteiligung vorgelegt worden.

Ehrenvoller Friede durch willkürliche Bereichseinschränkung? Die geringe Überzeugungskraft der verschiedenen Versuche zur Formulierung eines allgemeinen Gleichgewichtsmodells, in dem die Wähler zahlreich zu den Urnen drängen, hat manch einen Rational-Choice-Theoretiker dazu veranlaßt, das lästige Problem der Wahlbeteiligung ganz zu streichen. In seinem Literaturüberblick zu diesem Thema argumentiert Aldrich (1993, 261), daß die Wahlbeteiligung nicht mehr zum Gegenstandsbereich von Rationalwähl theorien gehöre. Anders als etwa bei der Entrichtung von Wahlkampfspenden handelt es sich bei der Entscheidung, zur Wahl zu gehen, seiner Ansicht nach um eine Angelegenheit von „geringen Kosten und geringem Nutzen". Das aber sei genau die Sorte von Verhalten, die eine Rationalwahltheorie schwerlich erklären könne; Rational-Choice-Theorien sollten daher nicht verurteilt werden, nur weil ihnen die Wahlbeteiligung Rätsel aufgibt.

abgaben. Vielleicht liegt das daran, daß aus den Modellen selbst nicht hervorgeht, ob es mehr Wähler geben wird als — um nur eine mögliche Vergleichsgruppe zu nennen — Wahlforscher. Ein Beispiel für einen solchen Rückzug innerhalb eines einzelnen Aufsatzes findet sich in Owen und Grofmans Analyse gemischter Strategien (1984); zwar behaupten sie eingangs, das Wahlparadox sei „leicht zu lösen" (315), aber nur wenige schwülstige Seiten weiter geben sie zu, daß die Stimmabgabe nur bei solchen Wahlen sinnvoll ist, in denen man glaubt, daß sich die Kandidaten ein Kopfan-Kopf-Rennen liefern (318).

Ehrenvoller Friede durch willkürliche Bereichseinschränkung?

75

Bei dieser Argumentation handelt es sich um einen Fall von willkürlicher Bereichseinschränkung in doppelter Hinsicht. Erstens wird in der Rational-ChoiceTheorie nirgendwo etwas darüber gesagt, ab welchem Wert die Kosten oder Vorteile einer Handlung zu klein sind, um die Theorie noch anwenden zu können. Aldrichs Ansichten über die Nachvollziehbarkeit der Wahlbeteiligung mittels der Rationalwahl stehen in krassem Gegensatz zur Überzeugung all derjenigen Rational-ChoiceTheoretiker, die im Laufe der Jahre immer wieder behauptet haben, daß die Wahlbeteiligung kein dauerhaftes Rätsel für die Rationalwahl bildet (ζ. B. Riker und Ordeshook 1968; Strom 1975; Schwartz 1987; Uhlaner 1989), und sich wie Morton (1991,759) die Frage stellten: „Wenn wir die individuelle Wahlbeteiligung nicht erklären können, wie kann dann der Rational-Choice-Ansatz für die Untersuchung politischer Gleichgewichte nützlich sein?" Offensichtlich wurde die Wahlbeteiligung erst dann aus der Rational-Choice-Theorie verbannt, als sich gezeigt hatte, daß keine zufriedenstellende theoretische Lösung gefunden werden konnte. Zweitens zeugt Aldrichs Versuch, die Wahlbeteiligung als Spezialfall kollektiven Handelns abzutun, bei dem Kosten und Vorteile gering sind, von einer erheblichen Unterschätzung der Herausforderung, die die Wahlbeteiligung für die RationalChoice-Theorie darstellt. Kann man etwa von Wahlen in Lateinamerika, bei denen die Wähler stundenlang vor den Wahllokalen Schlange stehen und dabei manchmal auch noch bedroht werden, wirklich behaupten, daß die Stimmabgabe eine Handlung mit geringen Kosten ist? Und was ist mit den mehr als 100 000 Afro-Amerikanern, die sich im rassistischen Süden der USA in den fünfziger Jahren trotz aller Einschüchterungsversuche und Registrierungsgebühren nicht davon abbringen ließen, bei bundesweiten Wahlen ihre Stimme abzugeben? 41 Und wenn wir argumentieren, daß die Stimmabgabe für den einzelnen Wähler nur geringen Nutzen verspricht, da er oder sie vernünftigerweise nicht erwarten können, den Wahlausgang entscheidend zu beeinflussen, dann stellt sich die Frage, worin sich die Wahlbeteiligung von 100-Dollar-Spenden an politische Parteien oder von anderen kostspieligen, aber wirkungslosen Handlungen unterscheidet, die Aldrich doch offenbar für der Rational-Choice-Theorie zugänglich hält? Bei seinem Versuch, sich dem Problem der Wahlbeteiligung zu entziehen, begeht Aldrich genau den gleichen Fehler wie diejenigen, die die Wahlbeteiligung durch die Rational-Choice-Theorie für erklärbar halten: er führt keine empirische Untersuchung durch, mit der seine These überprüft werden könnte.

Es läßt sich nur schwer ermitteln, wieviele Afro-Amerikaner im Süden der USA während dieser Zeit jeweils an den Wahlen teilnahmen. Unsere grobe Schätzung beruht auf von Campbell u. a. 1960 (297) vorgelegten Umfragedaten sowie auf den Daten der Volkszählung von 1950. Zu einem ähnlichen Ergebnis käme man anhand der Daten aus der Wählerregistrierung im Süden der USA vor dem Voting Rights Act (U. S. Commission on Civil Rights 1965, 1968).

76

4. Das Paradox der Wahlbeteiligung

Von der Punkt- zur Marginalprognose Bislang haben wir uns mit der Frage beschäftigt, wie hoch die von der RationalChoice-Analyse im Gleichgewicht vorhergesagte Wahlbeteiligung ist. In der urspünglichen Fassung des Paradoxes lautete die Antwort „Null" oder „nahe Null". Niemand kann erwarten, die entscheidende Stimme abzugeben — es sei denn, man wäre sicher, daß von den Millionen Wahlberechtigten nur eine Handvoll zur Wahl geht; für einen Wähler, der kurz vor Schließung der Wahllokale darüber nachsinnt, ob er zur Wahl gehen soll oder nicht, wäre das jedoch eine absurde Annahme. Die Nullhypothese, daß eine große Anzahl von Wählern völlig wirkungslose Stimmen abgibt, konnte offensichtlich nicht widerlegt werden. Durch eine Reihe späterer Korrekturen wurden die Rational-Choice-Erklärungen daraufhin dem beobachteten Wahlbeteiligungsverhalten von Millionen von Wahlberechtigten angepaßt. Diese revidierten Modelle waren allerdings trotz all ihrer formalen Brillanz nicht in der Lage, präzise anzugeben, wo genau das nun vorhergesagte Gleichgewicht der Wahlbeteiligung liegt oder welche Höhe der Wahlbeteiligung mit einer Rational-ChoiceAnalyse jedenfalls nicht vereinbar wäre. Außerdem tun sich Rational-Choice-Theoretiker schwer damit zu zeigen, daß strategische Überlegungen tatsächlich eine Rolle bei der Entscheidung zur Stimmabgabe spielen. Spieltheoretische Erklärungen wie die von Palfrey und Rosenthal (1983) brachen unter ihrem eigenen Gewicht zusammen, während die „Deine Stimme zählt"-Argumentation von Schwartz (1987) oder Stigler (1972) weder intuitiv plausibel noch durch systematische empirische Untersuchungen gestützt war. Immer wieder mußten Rational-Choice-Theoretiker auf die Rückzugsposition von Riker und Ordeshook (1968, 1973) ausweichen, nach der sich die Wahlbeteiligung durch den psychischen Nutzen erklären läßt, den Wahlberechtigte aus der Erfüllung ihrer Bürgerpflicht ziehen (Palfrey und Rosenthal 1985; Plott 1991). Es muß jedoch betont werden, daß diese Hypothese kaum mehr ist als eine ungeprüfte (und vielleicht auch gar nicht überprüfbare) Vermutung, da jener psychische Nutzen, wenn überhaupt, nur so gemessen wird, daß er mit den Kosten der Stimmabgabe nicht verglichen werden kann. Man könnte nun aber argumentieren, daß Variablen wie die mehr oder weniger große Knappheit des Wahlausgangs oder die Intensität des Gefühls, eine Bürgerpflicht zu haben, die Höhe der Wahlbeteiligung erwiesenermaßen marginal, d. h. in der Tendenz, beeinflussen (Grofman 1993a). Lassen wir im Moment einmal außer acht, ob diese Aussagen empirisch belegt sind, und konzentrieren uns auf den feinen, aber bedeutsamen Unterschied zwischen diesem Argument und den zuvor behandelten Gleichgewichtsanalysen. Die Behauptung beispielsweise, daß die Auszahlung aus der Erfüllung einer vermeintlichen Bürgerpflicht groß genug ist, um den Nutzen in jedem Fall größer als die Kosten werden zu lassen, ist etwas ganz anderes als die Behauptung, daß mit der Zunahme des Bürgerpflichtgefühls einer Person auch die Wahrscheinlichkeit wächst, daß sie zur Wahl geht. Es ist logisch möglich, daß sich nur eine dieser beiden Vermutungen empirisch bewährt.

Von der Punkt- zur Marginalprognose

77

Dieser Gedanke läßt sich anhand eines einfachen hypothetischen Beispiels verdeutlichen. Wir erinnern uns, daß das in Gleichung 4.1 dargestellte Rational-ChoiceModell der Entscheidung über die Stimmabgabe vier Variablen enthält: den Nettonutzen, den man durch den Sieg des favorisierten Kandidaten erhält, die Wahrscheinlichkeit, die entscheidende Stimme abzugeben, die Kosten der Stimmabgabe und die selektiven Vorteile des Wählens. Nehmen wir nun an, daß wir eine Stichprobe von acht Wahlberechtigten ziehen. Der Einfachheit halber gehen wir davon aus, daß die Kosten (Κ) fiir unsere hypothetischen Bürger konstant sind. Zur Veranschaulichung weisen wir diesen Kosten in unserem Zahlenbeispiel den Wert von „9 Nutzeneinheiten" zu. Zudem nehmen wir an, daß alle Bürger in unserer Stichprobe glauben, die Wahrscheinlichkeit, die entscheidende Stimme abzugeben, habe den sehr kleinen Wert e . Obwohl es einigen unserer Bürger ganz und gar nicht gleichgültig ist, welcher Kandidat die Wahl gewinnt, ist für jeden von ihnen pN( dennoch kleiner als eine Nutzeneinheit, weil es so unwahrscheinlich ist, daß die eigene die ausschlaggebende Stimme ist. Was bleibt, sind die selektiven Vorteile des Wählens, von denen wir annehmen, daß sie von Person zu Person unterschiedlich sind. Tabelle 4.1: Hypothetische Darstellung des Unterschieds zwischen rationaler Wahlbeteiligung und der marginalen Auswirkung unterschiedlicher selektiver Vorteile des Wählens Wähler

Erwartete

Kollektiver

Selektive

Kosten

Stimm-

Stimmabgc

Wahr-

Nutzen

Vorteile

(Nutzen-

abgabe?

rationall

scheinlich-

(Nutzen-

einheiten)

keit, die

einheiten)

Nein Nein Ja Nein Nein Ja Ja Ja

Nein Nein Nein Nein Nein Nein Nein Nein

entscheidende Stimme abzugeben

Anton Bernd Christa Doris Ernst Frank Gudrun Harald

(P)

(N)

(A)

(K)

e e e e e 6 e e

ΝΓ

1 2 3 4 5 6 7 8

9

N2 N3 N4 Ν5 Ν6 ΝΗ

9 9 9 9 9 9 9

Anmerkung: Man nehme an, daß Nke < 1 für alle i Wähler

Tabelle 4.1 stellt die Kosten, Vorteile, Erwartungen und Wahlbeteiligungsentscheidungen der acht hypothetischen Bürgern dar. Wie man sieht, steigt die Wahrscheinlichkeit der Wahlbeteiligung mit der Zunahme der selektiven Vorteile dramatisch an. Eine statistische Standardanalyse dieser Daten würde ergeben, daß die Bürger-

78

4. Das Paradox der Wahlbeteiligung

pflicht eine „Wirkung" auf die Wahlbeteiligung hat. Aber ist es im Sinne von Gleichung 4.1 rational, zur Wahl zu gehen? Die Antwort lautet „nein": Der Erwartungswert des Wählens ist immer negativ, also befindet sich das prognostizierte Gleichgewicht dort, wo keiner unserer Modellbürger an der Wahl teilnimmt. Aus der Erkenntnis, daß die Variablen des kanonischen Rational-Choice-Modells einen marginalen Einfluß auf die Wahlbeteiligung haben, folgt nicht, daß die Wähler im Sinne von Gleichung 4.1 rational handeln. Marginale Einflüsse müssen noch nicht einmal implizieren, daß die meisten Wähler rational handeln; an der Bedeutung von Tabelle 4.1 ändert sich auch dann nichts, wenn wir den Anteil der Bürger erhöhen, deren Kosten und Vorteile denen unserer hypothetischen Wähler „Gudrun" und „Harald" entsprechen.42 Ob man zeigt, daß Veränderungen von Kosten und Nutzen das Verhalten in der Tendenz beeinflussen, oder ob man zeigt, daß die Stimmabgabe den Wählern einen Nettonutzen einbringt, scheint keinen nennenswerten Unterschied zu machen. Und doch ist er wesentlich, um einen Fehler zu verstehen, der bei der Argumentation in der Literatur zur Wahlbeteiligung immer wieder auftritt. Selbst wenn sich herausstellen würde, daß die Wahlbeteiligung ansteigt, wenn in einer landes- oder bundesweiten Wahl ein Kopf-an-Kopf-Rennen erwartet wird, weil damit die Chancen jedes einzelnen Wählers zunehmen, die entscheidende Stimme abzugeben - wie dies etwa Fröhlich u.a. (1978), Silberman und Durden (1975) sowie Barzel und Silberberg (1973) behaupten - , würde daraus nicht folgen, daß die erwarteten Vorteile des Wählens groß genug sind, um zu erklären, warum Menschen die Kosten dafür auf sich nehmen. In jeder großen Wählerschaft ist die Wahrscheinlichkeit, die ausschlaggebende Stimme abzugeben, bestenfalls minimal. Die Behauptung, daß die Wahrscheinlichkeit, mit der ein Wähler die entscheidende Stimme abgibt, in einer knappen Wahl größer ist, hat, wie Schwartz (1987, 118) einmal anmerkte, ungefähr die gleiche Aussagekraft wie die Behauptung, daß „die Wahrscheinlichkeit, sich am Mond den Kopf zu stoßen, für hochgewachsene Menschen größer ist als für kleine Personen". Und wenn Wahlberechtigte mit einem starken Gefühl für ihre staatsbürgerliche Pflicht eher zur Wahl gehen als Bürger, die dieses Pflichtgefühl nicht haben, wie Riker und Ordeshook (1968) behaupten, so folgt daraus ebensowenig, daß die Vorteile, die man aus der Pflichterfüllung zieht, groß genug sind, um die Kosten des Wahlgangs zu überwiegen. Ob ein hinreichend großer Nutzen vorliegt, ließe sich feststellen, indem man die Kosten und den Nutzen des Wählens direkt mißt (indem man sich etwa der in der Wirtschaftswissenschaft entwickelten Techniken zur Nachfragefeststellung bedient) und miteinander vergleicht; die marginalen Einflüsse solcher Variablen wie die Knappheit des Wahlausgangs sind in gewisser Hinsicht irrelevant.

42

Man kann sich auch das umgekehrte Beispiel vorstellen, in dem das Rational-Choice-Modell für alle Wähler gilt, also Gleichung 4.1 auf jeden zutrifft, aber der marginale Einfluß der Kosten durch lineare Regression als sehr gering eingeschätzt wird. Man betrachte den Fall, in dem die Nettokosten des Wählens (Λ) von -100 bis +100 gleichmäßig verteilt sind (aber X#0) und die Wahrscheinlichkeit der Wahlbeteiligung beträgt.

Von der Punkt- zur Marginalprognose

79

Damit wollen wir nicht sagen, daß die Schätzung von marginalen Einflüssen keinen Informationswert hat. Es mag durchaus sein, daß es sich hierbei um ein äußerst informatives Unterfangen handelt; aber es bezieht sich auf eine ganz andere theoretische Fragestellung, die da lautet: Welche Art von Faktoren beeinflußt die Höhe der Wahlbeteiligung im Gleichgewicht? Zu dieser Frage aus dem Bereich der „statischen Vergleiche" wird man mit Rational-Choice-theoretischen Mitteln wohl kaum kommen, solange die Frage nicht beantwortet ist, warum die offensichtliche Gleichgewichtshöhe der Wahlbeteiligung in den USA bei etwa 50 Prozent und nicht bei Null liegt. Da wir uns mit diesem Problem aber bereits ziemlich ausführlich beschäftigt haben, wollen wir es dabei belassen und uns statt dessen der Frage zuwenden, was die Rational-Choice-Theorie über die Auswirkungen von Veränderungen und über die Ursache für die Schwankungen in der Höhe der beobachteten Wahlbeteiligung zu sagen hat. Der Erwartungsnutzenansatz, der Gleichung 4.1 zugrunde liegt, scheint zwei überprüfbare Hypothesen über marginale Einflüsse zu beinhalten (vgl. Ferejohn und Fiorina 1974, 1975). Erstens sollte der kollektive Nutzen des Wahlausgangs keine Rolle spielen, wenn die Wahrscheinlichkeit, die entscheidende Stimme abzugeben, praktisch gleich Null ist. Nehmen wir eine Abstimmung, die für die Bürger von großem Interesse sein dürfte, wie etwa ein Referendum über eine grundlegende Steuerreform. Welche Auswirkungen kann es haben, wenn eine Steuersenkungsmaßnahme wie „Proposition 13" in Kalifornien für eine Gruppe von Bürgern Einsparungen in Höhe von Zehntausenden von Dollar bei der Vermögenssteuer in Aussicht stellt, während eine andere Gruppe so gut wie leer ausgeht? Wenn ein sehr deutlicher Wahlausgang zu erwarten ist - wie es bei „Proposition 13" der Fall war, für die sich zwei Drittel der Wähler aussprachen - , ist die Chance, die ausschlaggebende Stimme abzugeben, lächerlich klein (wahrscheinlich kleiner als die, auf dem Weg zum Wahllokal Opfer eines schweren Unfalls zu werden). Da diese winzige Wahrscheinlichkeit mit dem erwarteten kollektiven Nutzen Ν multipliziert werden muß, um den Erwartungsnutzen zu erhalten, fallen selbst riesige Unterschiede im Nutzen zwischen den großen Gewinnern und den großen Verlierern nicht ins Gewicht. Unabhängig davon, ob man durch das Abstimmungsergebnis gewinnen oder verlieren kann, hat man immer einen Anreiz, die Kosten des Wählens auf andere abzuwälzen. Wie Brennan und Buchanan (1984) feststellen, ist es Rational-Choice-Theoretiker gelegentlich gar nicht so recht, daß der kollektive Nutzen in großen Wählerschaften keinen Einfluß auf die Wahlbeteiligung haben sollte. Manche Autoren haben diese Hypothese sogar praktisch in ihr Gegenteil verkehrt, den Wahlakt als „Investition" (Fiorina 1976) bezeichnet und die Auffassung vertreten, daß handfeste Interessen wie etwa „steuerpflichtige Vermögen und Einkommen" (Stigler 1975, 744) die Wahlberechtigten zu den Urnen treiben. So argumentiert ζ. B. Wittman, daß „eine landesweite Abstimmung über die Bewilligung von gewissen Vergünstigungen für Kriegsveteranen dazu herangezogen werden könnte, Hypothesen über rationales Wahlverhalten zu testen. Es ist anzunehmen, daß in Gegenden, in denen ein großer Anteil von aktiven oder pensionierten Mitgliedern der Streitkräfte lebt, sowohl eine

80

4. Das Paradox der Wahlbeteiligung

höhere Wahlbeteiligung als auch ein größerer Prozentsatz an Zustimmung zu diesem Vorschlag festzustellen sein wird als in Gegenden mit einer ähnlichen demographischen Struktur, aber ohne den militärischen Hintergrund" (1975, 737). Solche Hypothesen scheinen insofern etwas mit Rationalwahl zu tun zu haben, als sie eine Art von instrumentellem Kalkül voraussetzen (s. Smith 1975; Filer u. a. 1993). Aber in Anbetracht des Trittbrettfahrerproblems sind sie mit dem Rational-Choice-Standpunkt zum kollektiven Handeln wohl kaum zu vereinbaren, es sei denn, man würde argumentieren, daß die Wähler die Wahrscheinlichkeit, die entscheidende Stimme abzugeben, enorm überschätzen. Eine zweite und nicht ganz so abwegige Hypothese lautet, daß die Auswirkungen der kollektiven Vorteile in der Tendenz zunehmen sollten, j e knapper der erwartete Wahlausgang ist. Akzeptiert man die Annahme, daß die Wahrscheinlichkeit (p), die entscheidende Stimme abzugeben, zunimmt, wenn der erwartete Abstand zwischen den Konkurrenten abnimmt, dann sagt das Modell des Erwartungsnutzens voraus, daß der kausale Einfluß des Nutzens (ΛΓ) um so größer ist, j e knapper das Rennen in den Augen der Wähler ausgehen wird. Wir sollten also beobachten, daß es einen Zusammenhang gibt zwischen der wahrgenommenen Knappheit einer Wahl und dem Interesse der Wahlberechtigten an ihrem Ergebnis: Wie oben bereits gesagt, sollten kollektive Vorteile für die Entscheidung von Wählern, die ein einseitiges Wahlergebnis erwarten, so gut wie unerheblich sein, aber zunehmend an Einfluß gewinnen, j e mehr die Wähler den Wahlkampf als ein noch unentschiedenes Rennen betrachten. Bei der empirischen Überprüfung von Rational-Choice-Modellen werden zwei unterschiedliche Methoden zur Prüfung von Hypothesen über den Zusammenhang zwischen kollektiven Vorteilen und der Wahrscheinlichkeit, die ausschlaggebende Stimme abzugeben, verwendet. Bei der einen werden auf Aggregatebene die Knappheit des Wahlausgangs und die kollektiven Vorteilen in verschiedenen Wahlen verglichen; bei dieser Art von Analyse stellt also die Wahl die Untersuchungseinheit dar. Die andere Methode verwendet Umfragedaten und vergleicht Individuen, die den Abstand zwischen den Konkurrenten unterschiedlich wahrnehmen und ein unterschiedliches Interesse am Wahlausgang haben. Für die meisten Anwendungen ist der zweite Ansatz aus drei Gründen der fruchtbarere: In den auf Aggregatdaten beruhenden Studien dient die tatsächliche Knappheit des Wahlausgangs als Indikator für den erwarteten Abstand zwischen den Kontrahenten. Abgesehen davon, daß der erwartete Abstand vom tatsächlichen Wahlergebnis durchaus abweichen kann, ist es auch möglich, daß der scheinbare „Effekt" eines tatsächlich knappen Wahlausgangs auf die Wahlbeteiligung des Aggregats Einflußfaktoren widerspiegelt, die mit den strategischen Überlegungen individueller Wähler gar nichts zu tun haben - wie ζ. B. die verschärften Wahlkampfanstrengungen, die mit Kopf-an-Kopf-Rennen einherzugehen und die Wahlbeteiligung zu stimulieren pflegen (Gosnell 1927; Cox und Munger 1989). Zweitens ergeben sich bei der Analyse der Wahlbeteiligung auf Landes- oder Kreisebene genau die Probleme, die generell bei statistischen Schlüssen aus Aggregatdaten auftreten, wenn die unabhängigen Variablen Gruppenmittelwerte sind (ζ. B. der Prozentsatz einer Gruppe mit Abitur), während sich die be-

Von der Punkt- zur Marginalprognose

81

trachteten Parameter auf individuelle Entscheidungen beziehen. Zwar ist seit Jahrzehnten bekannt, daß diese Art der ökologischen Analyse zu stark verzerrten Schlußfolgerungen führen kann (Robinson 1950; Palmquist 1993), aber die Wahlbeteiligungsforschung ist nur selten dafür kritisiert worden (s. allerdings Grofman 1993a). Hinzu kommt, daß Regressionsanalysen auf Aggregatebene im allgemeinen den Zusammenhang zwischen der angenommenen Knappheit des Wahlausgangs und den kollektiven Vorteilen außer acht lassen, da er sich auf die individuelle Entscheidung, sich an der Wahl zu beteiligen, bezieht - was womöglich als ein stillschweigendes Zugeständnis angesehen werden darf, daß mittels ökologischer Regression die in diesem Zusammenhang relevanten Parameter ohnehin nicht herausgefiltert werden könnten. Selbst wenn sich herausstellte, daß Wahlen, in denen es „um viel geht", die größten Wählermassen anlocken, würde daraus nicht notwendigerweise folgen, daß auf der individuellen Ebene der marginale Einfluß des Interesses am Wahlergebnis zunimmt, je knapper der Wähler den Wahlausgang einschätzt.43 Beschränkt man seine Aufmerksamkeit auf solche Überprüfungen von RationalChoice-Modellen, in denen das Individuum die Untersuchungseinheit bildet, so muß man feststellen, daß die Ergebnisse mit keiner der beiden Hypothesen zum Erwartungsnutzen übereinstimmen. Die von Riker und Ordeshook (1968) vorgelegten Daten zur Wahlbeteiligung bei Präsidentschaftswahlen in den USA zeigen, daß in den Jahren 1952, 1956 und 1960 kollektive Vorteile sich auch auf die Wahlbeteiligung solcher Individuen auswirkten, die nicht erwarteten, daß die Wahl knapp ausgehen würde.44 43

Cox (1988) fügt dieser Liste einen ökonometrischen Hinwand hinzu, der sich gegen die Verwendung anderer MaBe für die Knappheit des Wahlausgangs richtet als den absoluten Abstand der Stimmen zwischen Gewinnern und Verlierern. Ohne darauf weiter einzugehen und nur der Vollständigkeit halber verweisen wir darauf, daB in der Literatur die Ansicht vorzuherrschen scheint, daB bei KongreB-, Gouverneurs- und Präsidentschaftswahlen die Knappheit des Wahlausgangs tatsächlich eine Rolle spielt (Barzel und Silberberg 1973; Silberman und Durden 1975; Dawson und Zinser 1976; Gray 1976; Patterson und Caldiera 1983; Crain, Leavens und Abbot 1987), obwohl auch einige Ergebnisse vorliegen, die dem widersprechen (Foster 1984; Ostrosky 1984). Es soll hier der Hinweis genügen, daß viele der Aufsätze, die der Knappheit des Wahlausgangs einen EinfluB attestieren, ihre Ergebnisse als Beleg für Rational-Choice-Theorien der Wahlbeteiligung anpreisen. Die beste dieser Arbeiten ist wohl eine Untersuchung von Schulbezirkswahlen in Oregon, nach der die Wahlbeteiligung umgekehrt proportional zur Anzahl der in einem Bezirk registrierten Wähler ist (Hanson u. a. 1987). Leider enthält die Studie keine Vergleiche der Höhe der Wahlbeteiligung in den untersuchten Bezirken bei landes- oder bundesweiten Wahlen, so daß man sehen könnte, inwieweit die Chance, die entscheidende Stimme abzugeben, die Wähler in kleinen Schulbezirken tatsächlich an die Urnen lockt. Damit nicht gesagt werden kann, daB wir uns nur die schwächsten RationalChoice-Untersuchungen vornehmen, haben wir viele ökologische Studien gar nicht erst erwähnt, die sich auf dem Niveau von Kau und Rubins „Beweis" befinden, daB die Existenz von Wahlmännerkollegien die Wahlbeteiligung drückt, weil bevölkerungsstarke Staaten weniger Wahlmänner pro Kopf und ihre Wähler damit weniger „Stimm-Macht" besitzen (1976). 44

Kollektive Vorteile wurden daran gemessen, ob ein Befragter bejahte, daB der Wahlausgang für ihn wichtig ist. Wie Aldrich (1976) feststellt, ergeben andere Indikatoren für Vorteile ähnliche oder schwächere Ergebnisse. Interessanterweise erhielt das Downssche Modell eine schwache Stützung durch die Untersuchung von Campbell u. a. (1960,99 f.), die eine leichte Zunahme der Wirkung von Ν feststellten, wenn ein knapper Wahlausgang erwartet wurde. Die Autoren weisen jedoch darauf

82

4. Das Paradox der Wahlbeteiligung

Diese Form von Analyse wurde zwar mit dem Argument kritisiert, daß bei bundesweiten Wahlen viele verschiedene Kandidaten in zahlreichen Wahlkämpfen gegeneinander antreten, von denen jeder einzelne die Wähler zu den Urnen treiben kann (Wittman 1975; Hansen, Palfrey und Rosenthal 1987; Wolfinger 1993), aber an unserer Schlußfolgerung ändert sich auch dann nichts, wenn wir uns auf Sonderwahlen oder auf solche Wahlen konzentrieren, bei denen die Abstimmung über einen einzigen Vorschlag im Vordergrund steht. Bei einem außerordentlichen Referendum von 1974 in Boston über die Frage, ob Schulkinder nach dem Kriterium ethnischer Ausgewogenheit auf die Schulen der Stadt verteilt werden sollten, war die Beteiligung von Hausbesitzern und Eltern von Kindern, die öffentliche Schulen besuchten, signifikant höher, obwohl es sich ganz offensichtlich um ein einseitiges Rennen handelte (Green und Cowden 1992). Andere Umfragedaten über die Teilnahme an örtlichen Wahlen zu den Schulaufsichtsgremien weisen ähnliche Muster auf und legen die Vermutung nahe, daß der Grad der persönlichen Betroffenheit oder des Interesses die Wahlbeteiligung selbst dann beeinflußt, wenn der Wahlausgang bereits feststeht. Das Erwartungsnutzenmodell muß noch einen weiteren Rückschlag einstecken: Zwischen der erwarteten Knappheit des Wahlausgangs und den kollektiven Vorteilen besteht kein oder nur ein schwacher Zusammenhang. Ferejohn und Fiorinas Untersuchung der Entscheidung registrierter Wähler über die Teilnahme an Wahlen zeigt, daß kollektive Vorteile keinen größeren Einfluß auf Personen ausüben, die davon ausgehen, daß die Wahl äußerst knapp ausgehen wird (1975). Obwohl Fröhlich u. a. (1978) behaupten, einen solchen Zusammenhang für die Wahl von 1964 nachweisen zu können, zeigen Aldrich (1976) und Cyr (1975), daß dieser Einfluß nur schwach ist und bei anderen Präsidentschaftswahlen nicht vorliegt. Wie andere Formen kollektiven Handelns, mit denen wir uns im nächsten Kapitel beschäftigen wollen, hält sich auch die Wahlbeteiligung im allgemeinen offenbar nicht an die Vorgaben des Erwartungsnutzenmodells. Wie gehen nun Rational-Choice-Theoretiker mit diesen Ergebnissen um? Einige geben zu, daß „nur wenig für das Modell des Erwartungsnutzens spricht" (Aldrich 1976, 732), und argumentieren, daß die Bürger statt dessen einer quasi-rationalen Entscheidungsregel wie etwa der Minimierung des maximalen Bedauerns (minimax regret; s. Anm. 35) folgen. Andere sind der Ansicht, daß der fehlende Zusammenhang zwischen der Knappheit des Wahlausgangs und den kollektiven Vorteilen keineswegs gegen die Hypothese des Erwartungsnutzens spricht, sondern vielmehr Stiglers Überzeugung (1972) stützt, daß die Bürger einen nicht-probabilistischen Beitrag (von einer Stimme) zu einer Koalition leisten wollen (Thompson 1982).

hin, daß die Knappheit des bundesweiten Wahlausgangs (das von Riker und Ordeshook später verwendete Umfrageinstrument) einen größeren statistischen Einfluß ausübt als der theoretisch gehaltvollere Indikator der Knappheit auf Landesebene. Aldrich (1976), der die Analyse auf die Wahlen von 1964 und 1972 ausweitete, erhält ganz ähnliche Ergebnisse, obwohl er für 1972 als Umfrageinstrument die erwartete Knappheit des Wahlausgangs in dem Staat, in dem der Befragte lebte, verwendet. Rationale Wähler sind offensichtlich nicht daran interessiert, die Funktionsweise des Wahlmännerkollegiums zu erkunden.

Von der Punkt- zur Marginalprognose

83

Die meisten Überlegungen zu den Variablen ρ und Ν sind jedoch uninteressant, da sie sich mit den marginalen Auswirkungen einer einzigen Variable auf die Wahlbeteiligung anstatt mit ihrer Wechselbeziehung befassen. Riker und Ordeshook (1968) verkünden vollmundig, daß sich die Wahlbeteiligung anhand der erwarteten Knappheit des Wahlausgangs vorhersagen läßt, wobei sie darauf hinweisen, daß die Menschen einer „Propaganda" ausgesetzt seien, die sie dazu bringe, ihre Chancen, die entscheidende Stimme abzugeben, zu Uberschätzen (s. auch Brunk 1980; Thompson 1982). Wenn hingegen die erwartete Knappheit des Wahlausgangs als Prognoseinstrument versagt, dann ist man schnell bereit, die Vorstellung, daß Individuen tatsächlich an ihre winzige Chance glauben könnten, die entscheidende Stimme abzugeben, als illusorisch (Ashenfelter und Kelley 1975) oder absurd (Schwartz 1987) abzutun. Irgendeine Variante der Rational-Choice-Theorie bewährt sich jedenfalls immer: Wenn die Knappheit des Wahlausgangs mit der Wahlbeteiligung nicht zusammenhängt, dann ist das eine Bestätigung der Modelle, die auf der formal-mathematischen Berechnung der Wahrscheinlichkeit beruhen, die entscheidende Stimme abzugeben (Foster 1984); wenn die Knappheit des Wahlausgangs hingegen von Bedeutung ist, dann heißt das, die Wähler hätten sich als gute rationale Akteure, aber schlechte Statistiker erwiesen (Barzel und Silberberg 1973; Silberman und Durden 1975; Fröhlich u. a. 1978; Filer und Kenny 1980). Die umfangreiche Literatur über die Auswirkungen der Wahrnehmung eines knappen Wahlausgangs äußert sich nicht eindeutig darüber, welche Theorie den Ausführungen gerade zugrunde liegt, sondern macht vielmehr eine Menge von Vorhersagen, die alle möglichen empirischen Beobachtungen erschöpfend umfassen.

Die Kosten des Wählens und selektive Anreize Wenden wir uns nun der Frage zu, welche Rolle die Kosten des Wählens für die Wahlbeteiligung spielen.45 Hier scheint es Belege dafür zu geben, daß sich Faktoren wie RegistrierungsgebUhren, Anforderungen hinsichtlich der Lese- und Schreibfähigkeit und andere Hürden bei der Registrierung negativ auf die Wahlbeteiligung auswirken (Ashenfelter und Kelley 1975; Rosenstone und Wolfinger 1978).46 Solche Folgen sind zwar zu berücksichtigen bei politischen Entscheidungen über das Die Arbeiten von Fröhlich u. a. 1978, Sanders 1980 oder Schräm 1991 werden im folgenden nicht berücksichtigt, da sie zwar die Wirkung der Kosten behandeln, diese aber nicht direkt messen. Die erwartete Höhe der Wahlbeteiligung ist ζ. B. in Staaten wie Arizona und Georgia, in denen man bis spätestens 50 Tage vor der Wahl gemeldet sein muß, beträchtlich geringer als in einem Staat wie North Dakota, wo man sich noch am Tag der Wahl registrieren lassen kann. Es ist jedoch nicht unmittelbar einsichtig, daß die Korrelation zwischen strengen Fristen und der durchschnittlichen Höhe der Wahlbeteiligung unbedingt als Beleg für die Wirkung von Kosten interpretiert werden muß. Es könnte ja auch sein, daß in Staaten, deren Bürger ein hohes Maß an entsprechendem Pflichtgefühl aufweisen, politische Maßnahmen zur Vereinfachung der Meldebedingungen getroffen werden.

84

4. Das Paradox der Wahlbeteiligung

Wahlsystem, aus theoretischer Sicht sind sie aber weder überwältigend noch überraschend. Wie Ashenfelter und Kelley (1975) selbst einräumen, ist die Erkenntnis banal, daß Kosten die Wahlbeteiligung in gewissem Umfang vermindern. Zwar haben RegistrierungsgebUhren und das mit ihnen einhergehende Ein-Parteien-System die Wahlbeteiligung zweifelsohne reduziert, aber weniger schwerwiegende (und zeitlich begrenzte) negative Anreize wie kurze Öffnungszeiten der Wahllokale, unregelmäßige Registrierungstermine oder die Gefahr, infolge der Registrierung als Geschworener herangezogen werden zu können, haben einen weitaus geringeren Einfluß auf die Höhe der Wahlbeteiligung oder -registrierung (Ashenfelter und Kelley 1975; Knack 1993b; Rosenstone und Wolfmger 1978). Noch schwächer ist der Einfluß von Kostenfaktoren, die sich von Wahl zu Wahl ändern. Wenngleich, so Knack, oft die Vermutung geäußert wird, daß schlechtes Wetter die Wahlbeteiligung schmälert, hat sich gezeigt, daß der Einfluß von Temperatur und Niederschlag tatsächlich nur gering und statistisch kaum faßbar ist (Traugott 1974; Knack 1994). Vergleicht man die Höhe der Wahlbeteiligung für unterschiedliche Typen von Individuen, werden die Auswirkungen des Kostenfaktors immer unklarer und die Vorhersagen entsprechend schwammiger. Seit fast fünfzig Jahren stellt man regelmäßig fest, daß die Wahlbeteiligung der US-Bürger mit wachsendem Einkommen zunimmt (Press und Traugott 1992). Manche Autoren argumentieren, daß sich das Einkommen deshalb positiv auf die Wahlbeteiligung auswirken sollte, weil wohlhabende Menschen mehr Muße haben, Dinge zu tun wie wählen zu gehen (Downs 1968; Russell 1972) oder sich zu informieren (Sanders 1980). Andererseits besagt die ökonomische Substitutionslogik, daß gerade Personen mit hohem Einkommen entsprechend höhere Opportunitätskosten haben - ζ. B. in Form von Einbußen bei Einkünften oder vergleichbar bewerteter Freizeit (Tollison und Willett 1973). Frey (1971) versucht, diese beiden widersprüchlichen Vorhersagen unter einen Hut zu bringen und dabei trotzdem zu dem altbekannten Ergebnis zu kommen, daß die Wahlbeteiligung mit dem Einkommen zunimmt, indem er spekuliert, daß die Mitglieder höherer Einkommensgruppen mit größerer Wahrscheinlichkeit einer Beschäftigung nachgehen, die es ihnen erlaubt, auch während des Schlangestehens im Wahllokal zu „arbeiten" (d. h. nachzudenken).47 Für Fräser (1972) und Niemi (1976) ist der Zeitfaktor beim Wählen hingegen so minimal, daß weder Einkommens- noch Substitutionseffekte eine Rolle spielen. Schließlich sind da noch Filer u. a. (1993), die den positiven Einfluß des Einkommens mit dem Erwartungsnutzen erklären und argumentieren, daß der grundsätzliche Umverteilungscharakter von Politik die Besitzstände der Wohlhabenden stärker betrifft als die der weniger Wohlhabenden. Es sieht also so aus, als sei so gut wie jede beobachtete Beziehung zwischen Einkommen und Wahlbeteiligung mit einer Rational-Choice-Interpretation vereinbar. Den Gegenpart zu den Kosten bilden die selektiven Vorteile des Wählens. Wir haben bereits darauf hingewiesen, daß es keine systematischen Belege dafür gibt, daß Menschen deshalb zur Wahl gehen, weil sie denken, daß sie dadurch an Einfluß 47

Aus der Sicht dieser Argumentation ist es merkwürdig, daß bei Personen, die gerade arbeitslos geworden sind, kein plötzlicher Anstieg der Wahlbeteiligung oder anderer Formen politischer Partizipation zu beobachten ist (Schlozman und Verba 1979).

Die Kosten des Wählens und selektive Anreize

85

auf die örtlichen Amtsinhaber gewinnen (Schwartz 1987) oder sich bei ihren Freunden beliebt machen (Niemi 1976). Gleichermaßen dünn ist auch die Literatur zu der Frage, ob derlei strategische Ziele wenigstens in der Tendenz einen Einfluß auf die Wahlbeteiligung haben. Knack (1992) legt zwar Daten vor, die zeigen sollen, daß der soziale Druck, den Ehegatten aufeinander ausüben, die Wahrscheinlichkeit verändert, daß der jeweils andere an der Wahl teilnimmt, aber die Anlage dieser Untersuchung ist nicht überzeugend.48 Und Uhlaners Darstellung der Wirkung von Aufrufen, mit denen Interessengruppen die Wahlberechtigten zum Wahlgang ermutigen, enthält, wie schon gesagt, kaum Anzeichen dafür, daß Gewerkschaftsmitglieder zur Wahl gehen, wenn die Stellung der Gewerkschaften auf dem Spiel steht (1989). Der besten Stützung durch die Daten erfreut sich die Auffassung, daß Menschen eher zur Wahl gehen, wenn sie denken, daß es ihre Pflicht ist zu wählen, oder wenn sie ihre Parteibindung kundtun wollen (Riker und Ordeshook 1968, 1973). Zur Stützung dieser Überzeugung zeigen Riker und Ordeshook, daß Personen mit größerer Wahrscheinlichkeit zur Wahl gehen, die Aussagen ablehnen wie „Es ist nicht so wichtig zur Wahl zu gehen, wenn du weißt, daß deine Partei keine Aussichten auf den Sieg hat" oder „So viele Leute beteiligen sich an bundesweiten Wahlen, daß es für mich kaum einen Unterschied macht, ob ich zur Wahl gehe oder nicht" (vgl. Aldrich 1976, 728). 49 In seiner überzeugenden Kritik an der Validität dieser Meßinstrumente argumentiert Wolfinger (1993), daß sie nicht die von Riker und Ordeshook behaupteten Konsumvorteile messen. Das von diesen Umfrage-Items erfaßte Handlungsprinzip postuliert, daß man sich an Wahlen beteiligen soll, unabhängig von der Höhe der Wahrscheinlichkeit, die entscheidende Stimme abzugeben - welch' Ironie angesichts der Bedeutung des Erwartungsnutzens für die Argumentation der Rational-Choice-Theoretiker! Man könnte nun einwenden, daß der Befund einer höheren Wahlbeteiligung bei Bürgern, die ein stärkeres Bürgerpflichtgefühl haben, zwar an den Grundlagen der Rational-Choice-Theorie rührt, aber dennoch eine empirische Erkenntnis ist, die von Vertretern des Rational-Choice-Ansatzes entdeckt wurde. 50 Dazu läßt sich sagen, Da Knack auf eine nicht-experimentelle Querschnittsanalyse zurückgreift, kann er nur begrenzt die unzähligen ausgelassenen Faktoren berücksichtigen, die dazu fuhren könnten, daß Paare, die der Wahlnorm Geltung verschaffen, mit größerer Wahrscheinlichkeit zur Wahl gehen. Im übrigen berücksichtigt die von Knack angewendete statistische Analyse nicht das allgemeine Ausmaß politischer Kommunikation zwischen den Ehegatten. Zu den anderen Umfrage-Items in der von Riker und Ordeshook verwendeten BUrgerpflichtskala gehören auch 'Viele lokale Wahlen sind nicht wichtig genug, um sich damit abzugeben' und 'Wenn es jemandem egal ist, wie eine Wahl ausgeht, dann sollte er sich auch nicht daran beteiligen' (Campbell, Gurin und Miller 1954, 194). Alle Fragen in dieser Skala sind also so formuliert, daß ihre Verneinung ein Gefühl von Bürgerpflicht ausdrückt. Da Befragte mit höherer Bildung solche Zustimmungs-/Ablehnungs-Items mit geringerer Wahrscheinlichkeit akzeptieren, ist nicht klar, ob nicht der Bürgerpflichts-'Effekt' auf die Wahlbeteiligung eigentlich auf Bildung zurückzuführen ist. 50 Man sollte die Billigung von BUrgerpflichtsnormen nicht voreilig zum kausalen Antezedenz der Wahlabsicht erklären. Wie Wittman (1975, 740) erläutert hat, gibt es auch eine andere Hypothese, die von Wissenschaftlern, die sich mit dem statistischen Zusammenhang zwischen Bürgerpflicht und Wahlbeteiligung beschäftigen, nicht berücksichtigt wird. Sie besagt, daß Wahlberechtigte mit einer positiven Einstellung gegenüber dem Wahlakt sowohl mit größerer Wahrscheinlichkeit zur Wahl gehen als auch mit größerer Wahrscheinlichkeit positiven Aussagen über das Wählen zustimmen.

86

4. Das Paradox der Wahlbeteiligung

daß die Diskussion über die Rolle der Bürgerpflicht infolge von Rational-ChoiceStudien vielleicht erst richtig in Gang kam (Ordeshook 1986, 50); die Lorbeeren für die empirische Forschung selbst gebühren ihnen aber nicht. Mit dem Einfluß des Bürgerpflichtgefühls verhält es sich nämlich ähnlich wie mit dem Einfluß der wahrgenommenen Knappheit des Wahlausgangs auf die Wahlbeteiligung: Mit diesen Zusammenhängen hatten sich Wissenschaftler wie Gosnell (1927, 3) oder Campbell u. a. (1960, 99 f.) schon beschäftigt, lange bevor sie in Rational-Choice-Kreisen „entdeckt" wurden. Mit genau demselben Umfrageinstrument, das Riker und Ordeshook später verwendeten, kamen die Autoren von The Voter Decides zu der Schlußfolgerung: ,,[J]e stärker eine Person das Gefühl hat, ihre Bürgerpflicht erfüllen zu müssen, desto höher ist die Wahrscheinlichkeit, daß sie politisch aktiv ist" (Campbell, Gurin und Miller 1954, 199). Rikers und Ordeshooks Innovation gegenüber den früheren sozialpsychologischen Untersuchungen bestand darin, diese Schlußfolgerung neu zu „verpacken" und dann die empirische Erkenntnis, daß Menschen wählen gehen, wenn sie glauben, daß sie dies tun sollten, für die RationalChoice-Forschung zu vereinnahmen. Bis zum heutigen Tage betrachten Kommentatoren, die sich nicht auf Rikers und Ordeshooks Arbeit beziehen (ζ. B. Knack 1992), diese Erkenntnis als Beleg für eine „soziologische" Interpretation des Wählens.

Abschließende Bemerkungen In der Rational-Choice-Tradition durchgeführte empirische Untersuchungen haben dem Leser, der sich für die Determinanten der Wahlbeteiligung interessiert, also nur wenig zu bieten. Noch offene Forschungsfragen wie etwa die, warum Bildung einen so nachhaltigen statistischen Einfluß auf das Wahlverhalten der US-Amerikaner ausübt, werden nur selten in aufschlußreicher Weise behandelt. Einige Autoren (Sander 1980; Schräm 1991) vermuten, daß die greifbaren Kosten des Wählens (oder der Eintragung in die Wahlliste) durch Bildung verringert werden, liefern aber keine systematische empirische Untersuchung der Wahlkosten und ihrer Wirkung auf Personen mit unterschiedlichem Bildungsgrad.51 Andere behaupten, daß Bildung ein Gefühl für Bürgerpflicht erzeugt und das politische Interesse steigert; dazu Es gibt zwei Varianten des Argumentes, daß Bildung zur Verringerung der Wahlkosten beiträgt: erstens helfe Bildung bei der Bewältigung der bürokratischen Schritte, die man unternehmen muB, um sich in die Wahlliste eintragen zu lassen und herauszufinden, wann und wo die Wahl stattfindet (siehe aber Nagler 1991); und zweitens reduziert Bildung die Kosten bei der Aufgabe, die Themen zu verstehen, um die es bei einer Wahl geht. Obwohl Downs (1968, 265) behauptet, daß die Informationskosten zur Nichtwahl beitragen (siehe auch Aldrich 1993, 248, 263; Filer u.a. 1993, 80), stimmt diese Überzeugung nicht mit der Rational-Choice-Theorie, wie sie üblicherweise verstanden wird, überein. Wie Fröhlich u.a. feststellen „steht die Behauptung, daß die Informationskosten von der Wahl abhalten, in scharfem Kontrast zur Downsschen Schlußfolgerung, daß es oft rational ist, relativ unwissend zu wählen" (1978, 182). Siehe Kapitel 5.

Abschließende Bemerkungen

87

kann die Rational-Choice-Theorie gar nichts sagen, weil sie darüber, wie sich Vorlieben und Identitäten entwickeln, nichts zu sagen hat. Gelegentlich versuchen Rational-Choice-Theoretiker der starken Korrelation zwischen Bildung und Wahlbeteiligung beizukommen, indem sie sich instrumenteller Überlegungen Uber Seitenzahlungen bedienen, aber derartige Versuche scheinen sehr weit hergeholt zu sein. Schwartz (1987, 116) etwa behauptet, daß „Bildung häufig ... dabei hilft, die komplexen und subtilen Zusammenhänge wahrzunehmen, durch die sich das Wahlverhalten eines Subelektorats [d. h. das Wahlergebnis im eigenen Wahlbezirk] auf die Bereitstellung politischer Vorteile auswirkt". In unvorsichtigen Momenten geben Rational-Choice-Theoretiker jedoch stillschweigend zu, daß es sich bei dem positiven Einfluß der Bildung auf die Wahlbeteiligung in gewisser Weise um eine Anomalie handelt. Unter dem Eindruck eines Experimentes, bei dem eine Vorlesung Uber Downs die Wahlabsichten der Studenten augenscheinlich verringerte, behauptet Brunk (1980, 562), daß die positive Beziehung zwischen Bildung und Wahlbeteiligung im Endeffekt ins Gegenteil verkehrt werden kann, „da Höhergebildete eher auf Theorien rationaler Partizipation stoßen werden". Das Phänomen der Wahlbeteiligung sagt am Ende vielleicht mehr über die Rational-Choice-Theorie aus als umgekehrt. Die Unfähigkeit, eine Hypothese darüber aufzustellen und aufrechtzuerhalten, was eine bestimmte Spielart der RationalChoice-Theorie nicht vorhersagt, zeigt sich sowohl in den Überlegungen über die Gleichgewichtshöhe der Wahlbeteiligung in großen Elektoraten als auch bei den marginalen Einflüssen der Erklärungsvariablen. Welche Beobachtung wäre prinzipiell unvereinbar mit einem theoretischen Rahmen, der es zuläßt, daß idiosynkratische Vorlieben, Überzeugungen und Wahrscheinlichkeitsschätzungen post hoc als Erklärungsvariablen hinzugefügt werden? Die Stimmabgabe für die Präsidentschaftskandidaten in Guam vielleicht, die 1992 wegen eines Taifuns erst eine Woche nach dem Rest der Vereinigten Staaten stattfand? Nein, denn zweifellos wäre alsbald eine Geschichte darüber zur Hand, wie eine Kombination von bürgerlichem Pflichtgefühl und Anreizen durch andere, lokale Wahlkämpfe Tausende von Bürgern zu den Wahlurnen trieb. Oder vielleicht die Tatsache, daß das Wählengehen anscheinend zur Gewohnheit werden kann? Nein, denn dagegen könnte man sagen, daß die Wahlerfahrung Vorbehalte abbaut, die man möglicherweise gegen den Gang zur Urne hat. Vielleicht die positive Wirkung, die Wahlkampfaufrufe und Tür-zu-TürPropaganda auf die Wahlbeteiligung zu haben scheinen? Wiederum ließe sich argumentieren, daß solche Aufrufe das Bürgerpflichtgefühl steigern, die Informationskosten des Wählens verringern oder Angst vor Vergeltungsmaßnahmen wütender Aktivisten schüren, die dazu neigen, sich unkooperative Mitbürger „vorzuknöpfen". Wie Grafstein (1991, 989) bemerkt, „fällt es der Rational-Choice-Theorie schwer, die Wähler an die Urnen zu kriegen". Dem möchten wir hinzufügen, daß RationalChoice-Modelle an theoretischer Bedeutung gewinnen würden, wenn ihre Schwierigkeiten dabei noch größer wären. Rational-Choice-Überlegungen zur Wahlbeteiligung könnten durch verschiedene Veränderungen in ihrem Ansatz verbessert werden. Kohärenz und Erklärungskraft dieser Modelle würden gesteigert werden, wenn man die Festlegung auf einen strik-

88

4. Das Paradox der Wahlbeteiligung

ten Universalismus aufgäbe und sich statt dessen eines, wie wir ihn genannt haben, partiellen Universalismus bediente; wenn man also einräumte, daß rationale Maximierung nur einer von mehreren Faktoren ist, die auf die Entscheidung, sich an einer Wahl zu beteiligen, einwirken, und daß der Einfluß strategischer Überlegungen wahrscheinlich je nach Person und Entscheidungszusammenhang variiert. Auch wenn die Synthese zwischen verschiedenen theoretischen Perspektiven immer mit Kosten hinsichtlich der theoretischen Sparsamkeit einhergeht, hat sie doch auch eine Reihe von Vorteilen. Erstens würde die Kohärenz der Rational-Choice-Theorie gesteigert, wenn man Phänomene wie die Befolgung von Bürgerpflichtsnormen oder die Bekundung von Parteiidentifikation einer eigenen Erklärungskategorie zuordnete, die sich deutlich von eher instrumenteilen Motiven unterscheidet - wie dem Wunsch, die aus der Abgabe der entscheidenden Stimme erwarteten Vorteile einzustreichen, oder der Abneigung dagegen, seine Zeit damit zu verschwenden, in einer Schlange zu stehen. Eine schärfere Grenzziehung dieser Art würde dazu beitragen, Bedeutungsinhalte nicht über Gebühr auszudehnen, indem offenkundig gewohnheitsmäßiges, expressives oder regelgeleitetes Verhalten in einen Interpretationsrahmen gepreßt wird, der nur Nutzenmaximierung anerkennt. Durch eine eher synoptische Sicht der Kausalmechanismen, die der Entscheidung zur Wahlbeteiligung zugrunde liegen, könnten Rational-Choice-Theoretiker zweitens die endlosen post Aoc-Spekulationen, warum wohl so viele Leute zur Wahl gehen, hinter sich lassen und sich nuancierteren und informativeren Untersuchungen widmen. Das Phänomen der Wahlbeteiligung enthält viele interessante Aspekte, die mit Hilfe von Rational-Choice-Überlegungen besser verstanden werden könnten, aber nicht durch solche Überlegungen allein. Knack (1994) stellt ζ. B. fest, daß die Höhe der Wahlbeteiligung bei Personen mit starkem Bürgerpflichtgefühl nicht durch die Wetterverhältnisse beeinflußt wird, während es bei Personen, die dieses Pflichtgefühl nicht haben, einen großen Unterschied für die Wahlbeteiligung macht, ob es am Wahltag regnet oder nicht. Das Zusammenspiel zwischen internalisierten Nonnen und der Rolle von Kosten im Entscheidungsprozeß, das bereits in anderen Zusammenhängen beobachtet wurde (Green 1992), legt nahe, daß die Psychologie der Entscheidungen komplexer ist, als Rational-Choice- oder sozialpsychologische Modelle üblicherweise annehmen. Befreit man Rational-Choice-Erörterungen von der Fessel, daß jeder Aspekt einer Erklärung mit Nutzenmaximierung vereinbar sein muß, sowie von der Konvention, daß ein einziges (lies: sparsames) Entscheidungskalkül für alle Bürger gilt, dann erhalten die Forscher größere Spielräume, um neue Fakten wie diese vorhersagen zu können. Aber nicht nur eine Veränderung der theoretischen Ausrichtung, sondern auch eine Veränderung der Art und Weise, wie Daten zur Wahlbeteiligung gesammelt und analysiert werden, würde die Rational-Choice-Forschung voranbringen. Nur wenige Untersuchungen zu den Entscheidungen von Individuen zur Beteiligung an einer Wahl wurden von Rational-Choice-Theoretikern selbst durchgeführt. Ihre Datenanalyse beruht daher auf Meßinstrumenten, die von Sozialpsychologen zu ganz anderen Zwecken entwickelt wurden. Um das Studium des Einflusses von Kosten und Nutzen auf das Verhalten voranzubringen, mttßte der Messung dieser theoreti-

Abschließende Bemerkungen

89

sehen Begriffe viel größere Aufmerksamkeit gewidmet werden - mit RationalChoice-Theoretikem an vorderster Front. 52 Wenn die Fortschritte, die in den fünfziger und sechziger Jahren mit dem sozialpsychologischen Ansatz erzielt werden konnten, kein Zufall sind, dann kann eine engere Anbindung an die Daten zu einer präziseren Theorieentwicklung führen. Auf kurze Sicht könnten angewandte statistische Untersuchungen über den Einfluß verschiedener politischer Maßnahmen frischen Wind in die empirische Rational-Choice-Forschung auf diesem Gebiet bringen. Wenn die Rational-ChoiceTheorie einen Vorteil gegenüber anderen Erklärungsansätzen hat, dann ist es ihre Fähigkeit, klare Vorhersagen über die Auswirkungen von Steigerungen oder Senkungen der Wahlkosten zu machen. Wie würde sich die Wahlbeteiligung verändern, wenn bestimmte Wahlberechtigte regelmäßig Briefwahlunterlagen erhielten? Was würde geschehen, wenn die Wahl eine ganze Woche dauern würde oder wenn man seine Stimme an vielen verschiedenen Orten abgeben könnte, wie ζ. B. im Supermarkt? Welche Wirkung hätte es, wenn Antragsformulare zur Eintragung in die Wählerlisten regelmäßig an nicht-registrierte Wahlberechtigte verschickt würden? Wenn eine von Rational-Choice-Überlegungen geleitete, genaue empirische Untersuchung erfolgreiche Vorhersagen liefern könnte, dann würde die Forschung auf diesem Gebiet von ätherischen Spekulationen Uber die Ursachen der Wahlbeteiligung rationaler Bürger entwöhnt werden und sich wieder auf bodenständigere Probleme konzentrieren. Zum gegenwärtigen Zeitpunkt lassen sich empirische Erfolge der RationalChoice-Theorie nur schwer ausmachen. Empirische Untersuchungen zur Wahlbeteiligung erwähnen folglich auch die Rational-Choice-Theorie meist allenfalls am Rande (ζ. B. Teixeira 1987, Wolfinger und Rosenstone 1980). Dieser Zustand spiegelt vielleicht die Tatsache wieder, daß sich die meisten Rational-Choice-Theoretiker nur deshalb für die Wahlbeteiligung interessieren, weil sie das Phänomen darstellt, das, weil paradox, „die Rational-Choice-Theorie mit Haut und Haar aufgefressen hat" (Fiorina 1990, 334). Wie dem auch sei: Manche Rational-Choice-Anhänger halten die Wahlbeteiligung offenbar für einen besonders widerspenstigen Anwendungsbereich, der dem empirischen Erfolg, den die Theorie anderswo verzeichnet hat, nicht entspricht. Solange diese Auffassung nicht mit einer überzeugenden Erklärung einhergeht, warum gerade der Wahlakt außerhalb der Reichweite der Rational-Choice-Theorie liegen soll, ist sie nur Ausdruck einer willkürlichen Bereichseinschränkung und schon als solche kritikwürdig. Darüber hinaus sind wir noch nicht einmal davon überzeugt, daß das Argument selbst zutrifft. Die Literatur zur Wahlbeteiligung ist repräsentativ für eine breite Klasse von Anwendungen der Rational-Choice-Theorie auf Fragestellungen zur US-amerikanischen Politik. Daß die empirischen Untersuchungen zur Wahlbeteiligung ungewöhnlich problematisch 52

Die von Jack Dennis (1991) durchgeführte Umfrage zur Überprüfung von Rational-Choice-Theorien zur Wahlbeteiligung ist zwar lobenswert als eine der wenigen ihrer Art, krankt aber an ernsten begrifflichen Problemen, die vielleicht hätten vermindert werden können, wenn an dem Projekt auch Rational-Choice-Mitarbeiter beteiligt gewesen wären. Siehe Knack (1993a) für kritische Anmerkungen.

90

4. Das Paradox der Wahlbeteiligung

zu sein scheinen, zeigt nur, daß andere Anwendungen, die weniger kritische Aufmerksamkeit gefunden haben, bisher übertrieben gut bewertet wurden. Wenn wir uns im folgenden mit kollektivem Handeln, Gesetzgebung und Kandidatenkonkurrenz beschäftigen, haben wir wiederum große Schwierigkeiten, Fälle aufzuspüren, in denen Rational-Choice-Überlegungen zum Bestand des empirischen Wissens über US-amerikanische Politik einen echten Beitrag geleistet haben.

5. Soziale Dilemmata und das Trittbrettfahrerproblem

91

5. Soziale Dilemmata und das Trittbrettfahrerproblem

Rational-Choice-Überlegungen in der Politik- und der Wirtschaftswissenschaft beschäftigen sich häufig mit den speziellen Problemen, die auftreten, wenn Menschen sich die Gelegenheit bietet, etwas umsonst zu bekommen. Die definierende Metapher für diesen Problembereich ist die Allmende, das öffentliche Weideland, das allen kostenlos zur Verfügung steht. Da der Grenznutzen, den „rationale Viehhalter" erzielen, wenn sie ein zusätzliches Tier auf die Weide bringen, die Grenzkosten für die Benutzung des unbeaufsichtigten Gemeindelandes übersteigt, kommt es langsam, aber sicher zur Überweidung. Jeder „rationale Viehhalter", so erläutert Garrett Hardin (1968, 1244), „kommt zu dem Schluß, daß es das einzig Vernünftige für ihn ist, seiner Herde ein weiteres Tier hinzuzufügen. Und noch eines, und noch eines .... Und zu diesem Schluß kommt jeder einzelne der rationalen Herdenbesitzer, die sich eine Allmende teilen". Am Ende zerstört die Verfolgung des Eigeninteresses die unkontrollierte Weide, und die Viehhalter stehen schlechter da als nötig. Die Parabel von der „Tragödie der Allmende", in der es darum geht, wie rationales Eigeninteresse zu einer suboptimalen Bereitstellung oder Bewahrung kollektiver Güter fUhrt, ist im Zusammenhang mit ökonomischen Phänomenen schon unzählige Male erzählt worden. 53 Wale werden gejagt, Hummer gefangen, Bisons gewildert, Bäume gefällt und Wasser umgeleitet, nur weil der billige und ungeregelte Zugang zu diesen Ressourcen für ökonomische Akteure einen Anreiz bietet, sie auszubeuten, bis ihr Grenznutzen ihren Grenzkosten entspricht, d. h. bis es nur noch wenig oder gar nichts mehr auszubeuten gibt. Einige ziehen aus der Parabel den Schluß, daß der Gemeingutcharakter für die Tragödie verantwortlich ist und empfehlen Privatisierung; andere halten den ungeregelten Zugang für die Ursache und empfehlen die öffentliche Verwaltung von Gemeinschaftsgütern.54 Wie auch immer ihre politischen Ratschläge aussehen: die meisten Ökonomen halten die restlose Ausbeutung 53 Reine öffentliche Guter — wie der Sieg eines bestimmten Kandidaten, saubere Luft oder die Landesverteidigung — haben die beiden folgenden Merkmale: Sie verursachen keine Rivalität, insofern als „ihr fortgesetzter Konsum durch ein Individuum die für andere verfügbare Menge nicht schmälert" (Samuelson 1954, 387), und von ihrem Konsum kann niemand ausgeschlossen werden, denn ,,[w]enn sie irgend jemandem zur Verfügung stehen, müssen sie für jedermann verfügbar sein". (Olson 1968, 13). Es gibt freilich Abstufungen von öffentlichen Gütern. Zwar hat jeder das Recht, einen Nationalpark zu betreten, aber der Zugang ist auf diejenigen beschränkt, die eine Benutzergebühr entrichten. Die Benutzung einer Autobahnbrücke mag zwar prinzipiell keine Rivalität erzeugen, aber es können sich sehr wohl Staus bilden. Diese Feinheiten sollen uns hier aber nicht weiter interessieren, da wir uns auf politische Ziele konzentrieren wollen, die durch kollektives Handeln auf einer breiten Basis verfolgt werden und der Definition von reinen öffentlichen Gütern mehr oder minder entsprechen. 54 Wiederum andere lehnen die Implikationen der Parabel ab und behaupten, daß die Gemeindewiese durch informelle Regulierung bewahrt werden kann. Siehe Hechter 1987 und die Diskussion in Ostrom u. a. 1992.

92

4. Das Paradox der Wahlbeteiligung

nicht-regulierter gemeinsamer Ressourcen angesichts des Profitmotivs für unvermeidbar. Mit dem Wechsel vom Markt zur Politik stellt sich das Problem der öffentlichen Güter häufig anders dar: In der Politik geht es weniger um die Entnahme von Ressourcen aus einem gemeinsamen Topf als vielmehr um die Leistung von Beiträgen zu einem gemeinsamen Fonds. 55 Cheung (1983) beschreibt eine entsprechende Parabel, in der ein Trupp chinesischer Tagelöhner mit schierer Muskelkraft Lastkähne den Jangtse hinaufschleppen. Obwohl die Arbeiter nach der Anzahl der Boote bezahlt werden, die am Ziel ankommen, reicht dieses Anreizsystem nicht aus, um sie dazu zu bewegen, ihre Arbeit auch zu tun. Die Anstrengungen jedes einzelnen haben nur sehr geringe Auswirkungen auf die Fortbewegung des Kahns, und der Erfolg der gemeinsamen Anstrengung ist ein kollektives Gut, auf das jeder Arbeiter unabhängig von seinem Beitrag ein Anrecht hat. Solange sie der Verfolgung ihres Eigeninteresses überlassen sind, rührt sich der Kahn nicht von der Stelle, und die Arbeiter erhalten folglich auch keinen Lohn. Bewegung kommt erst dann in die Sache, wenn die Arbeiter selbst beschließen, einen Aufseher einzustellen, der sie antreibt. Aus der Lastkahn-Parabel folgt zum einen, daß Akteure oder Institutionen durchaus etwas tun können, um die Anreize so zu verteilen, daß das Problem des kollektiven Handelns gelöst wird. So wurde ζ. B. argumentiert, daß der Staat möglicherweise als Lösung für ein Problem kollektiven Handelns entstanden ist, bei dem zwar jeder einzelne ein Interesse an der wirksamen Geltung von Regeln, aber niemand einen Anreiz hatte, seine Handlungsfreiheit einseitig aufzugeben (Nozick 1974). Ähnlich wurde argumentiert, daß die Führungspositionen im Kongreß im Hinblick darauf eingerichtet und strukturiert wurden, die gemeinsamen Interessen aller Parteimitglieder am Gesetzgebungserfolg ihrer Partei in Übereinstimmung zu bringen mit den individuellen Anreizen jedes einzelnen, die Opfer zu vermeiden, die für die Durchsetzung von Gesetzgebungsvorhaben erforderlich sind (Cox und McCubbins 1993). Aus der Parabel folgt auch, daß kollektive Anstrengungen auf freiwilliger Basis zum Scheitern verurteilt sind, wenn die beteiligten Akteure nach ihrem Eigeninteresse verfahren und es keine Institutionen gibt, die das Anreizsystem entsprechend verändern. Es sei darauf hingewiesen, daß der Parabel im wesentlichen eine „dicke" Theorie rationalen Verhaltens zugrunde liegt, nach der die Arbeiter den Lohn einstreichen, zugleich aber physische Anstrengungen vermeiden wollen; das sind zwar plausible, womöglich aber falsche Motivationsannahmen (vgl. Lane 1991). Des weiteren beruht die Geschichte auf der Annahme, daß die Entscheidung der Arbeiter, sich in die Seile zu legen, von der Motivationskraft handfester positiver und negativer Anreize abhängt und nicht etwa von Normen wie „seinen Teil beitragen", Jedes bißchen zählt" oder „Drückeberger kommen zu nichts". Es ist die Peitsche, die die Arbeiter in Bewegung versetzt, und nicht die Predigt über persönliche Verantwortung. Diese Vorstellung vom Zusammenbruch freiwilliger kollektiver 55

Diese Situationen werden häufig als soziale Dilemmata vom Typ Nehmen und Geben (take-some und give-some) bezeichnet (Dawes 1991).

Soziale Dilemmata

93

Unternehmungen bildet die Grundlage einer ganzen Reihe von politikwissenschaftlichen Anwendungen, die von der geringen Massenbasis der Interessengruppen bis hin zur weitverbreiteten Unwissenheit über politische Angelegenheiten reichen. Wie wir in Kap. 4 gesehen haben, gehört auch das Nichtwählen zu dieser großen Klasse von Problemen kollektiven Handelns, aber man scheint wohl allgemein der Ansicht zu sein, daß Rational-Choice-Modelle erfolgreicher sind, wenn es um die Erklärung von kollektiven Bemühungen geht, die nichts mit Wahlbeteiligung zu tun haben (Olson 1968, 163; Aldrich 1993, 265). Russell Hardin (1982, 11) etwa behauptet: „Die Logik kollektiven Handelns ... liefert sichtlich eine schlechte Erklärung des Wahlverhaltens, da ihr zufolge so gut wie niemand freiwillig ζ. B. an bundesweiten Wahlen in den USA teilnehmen dürfte. Sie hilft uns zwar verstehen, warum die Hälfte der amerikanischen Wahlberechtigten der Wahl fernbleibt, aber über die andere Hälfte hat sie uns wenig zu sagen. Mit der Vorhersage hingegen, daß das freiwillige Engagement in vielen Bereichen, wie etwa in der heutigen Umweltbewegung, vernachlässigbar gering ist, ist die Logik kollektiven Handelns fraglos erfolgreich." In diesem Kapitel hinterfragen wir den Erfolg der Rational-Choice-Theorie bei der Erklärung freiwilligen politischen Handelns jenseits der Wahlbeteiligung. Wir konzentrieren uns dabei vorwiegend auf die empirischen Untersuchungen, die zur Stützung von Mancur Olsons Hypothesen über die Bedingungen herangezogen wurden, unter denen Individuen einen Beitrag zu kollektiven politischen Anliegen und insbesondere zu Interessengruppen und sozialen Bewegungen leisten. Nach einem Überblick über nicht-experimentelle und experimentelle Daten über das Verhalten von Menschen angesichts sozialer Dilemmata folgen einige Anmerkungen zum empirischen Status von Downs' Hypothese von der,.rationalen Unwissenheit", nach der Bürger keinen Anreiz haben, mehr also nur minimale Ressourcen in den Erwerb von Informationen über öffentliche Angelegenheiten zu investieren. Unser Literaturüberblick zeigt, daß die Qualität der angewandten Rational-Choice-Forschung keineswegs zunimmt, wenn man vom Problem der Wahlbeteiligung zu kollektivem Handeln im allgemeinen übergeht, und daß es auch den aus der Rational-ChoiceTheorie abgeleiteten Hypothesen in der empirischen Überprüfung nicht bedeutend besser ergeht. Der Hauptunterschied zwischen der Rational-Choice-Literatur zur Wahlbeteiligung einerseits und zum kollektiven Handeln andererseits besteht nach unserer Ansicht darin, daß letztere auf einer geringeren Anzahl von systematischen empirischen Untersuchungen beruht.

Soziale Dilemmata Ein soziales Dilemma besteht im wesentlichen darin, daß individuelles Gewinnstreben zu einem suboptimalen kollektiven Ergebnis führt. Viele politische Phänomene - von der Befolgung nur nachlässig durchgesetzter Gesetze bis zu einer Gesetzge-

94

4. Das Paradox der Wahlbeteiligung

bung, die freigiebig staatliche Wohltaten verteilt, - sind als soziale Dilemmata beschrieben worden. Meistens geht es aber um kollektive Massenaktionen: Briefe an Abgeordnete schreiben, Wahlkampfspenden entrichten, als Streikposten fungieren, an politischen Versammlungen teilnehmen und ähnliche Aktivitäten im Dienste eines sozialen Anliegens. Nach Olson (1968) hat der Beitrag jedes einzelnen Individuums zu einer solchen gemeinsamen Anstrengung in der Regel nur einen unbedeutenden Einfluß auf die Wahrscheinlichkeit, daß die Gruppe ihre Ziele erreicht. Die Chance, daß eine einzelne Person etwas daran ändert, daß in einer Schule die gerichtlich angeordnete Rassentrennung aufgehoben wird, indem sie stundenlang in einer öden Protestversammlung sitzt, ist ungefähr so groß wie die einer einzelnen Stimme, den Wahlausgang zu entscheiden. Und wenn es durch eine Protestaktion tatsächlich gelingt, die Politik zu verändern, dann kann ein Individuum die Früchte dieses kollektiven Handelns auch dann genießen, wenn es nichts zu ihrer Bereitstellung beigetragen hat. Das Entscheidungsproblem stellt sich also ganz ähnlich dar wie im Fall der Wahlbeteiligung in Gleichung 4.1. Unter den genannten Umständen ist eine Mitwirkung an den Anstrengungen der Gruppe nur dann rational, wenn die selektiven Anreize zur Beteiligung die erwarteten Kosten übersteigen. Viele Formen kollektiven Handelns - einschließlich der Wahlbeteiligung - weisen die allgemeinen Merkmale eines Gefangenendilemmas auf (Hardin 1971). 56 Seinen Namen erhielt dieses Spiel von der folgenden Situation: „Zwei Verdächtige werden verhaftet und in getrennte Zellen gesperrt. Der Staatsanwalt ist sicher, daß die beiden ein bestimmtes Verbrechen begangen haben, hat aber nicht genug Beweise ftlr eine Verurteilung vor Gericht. Er macht also den beiden Gefangenen klar, daB jeder von ihnen jeweils zwei Alternativen hat: das Verbrechen, von dem die Polizei sicher ist, daB sie es begangen haben, zu gestehen oder es nicht zu gestehen. Wenn beide nicht gestehen, kündigt der Staatsanwalt an, dann werde er sie mit einer minderschweren falschen Anklage - etwa wegen leichten Diebstahls oder unerlaubten Waffenbesitzes - vor Gericht bringen, und sie werden beide eine geringfügige Strafe erhalten. Wenn beide gestehen, werden sie verurteilt, aber er werde für ein Strafmaß unterhalb der Höchststrafe plädieren. Wenn allerdings der eine gesteht und der andere nicht, dann wird man gegenüber dem Geständigen Nachsicht walten lassen, weil er ja als Kronzeuge auftritt, während der andere mit der Höchststrafe zu rechnen hat.... Jeder Gefangene hat nun das Problem, entscheiden zu mtlssen, ob er gestehen soll oder nicht." (Luce und Raiffa 1957,95)

Tabelle 5.1 stellt die formale Struktur des Spiels dar. Der erste Wert in jedem Feld entspricht der Auszahlung an den Gefangenen 1, der zweite der an den Gefangenen 2. Jeder Spieler hat zwei Optionen: mit dem anderen Gefangenen zu kooperieren und zu schweigen oder auf die Seite des Staatsanwalts zu defektieren und zu gestehen. Wenn keiner von ihnen gesteht, erhalten sie beide geringe Strafen (a,, a^). Wenn Es sei darauf hingewiesen, daB Probleme des kollektiven Handelns nicht nur aus Gefangenendilemma-Situationen entstehen können. Sie resultieren auch aus Situationen, die einem „Versicherungs"- oder einem „Chicken"-Spiel entsprechen: In einem Versicherungsspiel ist Defektion keine dominante Strategie, da die Spieler sich hier besser stellen, wenn sie kooperieren, sofem ihre Mitspieler das auch tun. In einem Chicken-Spiel stellt sich jeder Spieler besser, wenn er das Gegenteil der Strategie seines Gegners spielt. Genau genommen treten Probleme des kollektiven Handelns immer dann auf, wenn rationale Maximierer ein kollektives Ergebnis herbeifuhren, das dem status quo ante Pareto-unterlegen ist (Taylor 1987, 19). Wir konzentrieren uns auf das Gefangenendilemma, da es den Ausgangspunkt fllr viele Untersuchungen von kollektivem Handeln bildet.

Soziale Dilemmata

95

jedoch Gefangener 1 gesteht und Gefangener 2 nicht, dann geht Gefangener 1 frei aus (c,) und Gefangener 2 erhält die sogenannte „Dummkopf'-Auszahlung (b2). Wenn alle beide gestehen, sind die entsprechenden Auszahlungen (d,, d,). Die entscheidenden Annahmen bezüglich der Auszahlungen besagen, daß ck > a l (das Ausnützen der Dummheit des anderen bringt einem Gefangenen mehr ein, als wenn keiner der beiden den Mund aufmacht) und c^ > bk (wird die eigene Kooperationsbereitschaft ausgenützt, so erhält man ein schlechteres Ergebnis, als wenn beide einander hintergehen). Aus diesen Annahmen folgt, daß es - egal was der andere Gefangene tut - immer rational ist zu gestehen. In der Sprache der Spieltheorie heißt das, daß die Defektion hier eine „dominante Strategie" ist. Wenn man überdies annimmt, daß a k > (^(die geringfügigen Strafen bei beidseitigem Schweigen werden den moderaten Strafen bei beidseitigem Gestehen vorgezogen), dann führt rationales Verhalten zu einem Pareto-inferioren Ergebnis: beide gestehen, obwohl es für beide besser wäre, wenn sie beide schweigen würden. 57

Tabelle 5.1: Struktur eines Gefangenendilemmas Gefangener 2 kooperiert (gesteht nicht) kooperiert (gesteht nicht)

(a,, a,)

defektiert (gesteht)

(c,, b2)

defektiert (gesteht) (b„ Cj)

Gefangener 1

(d„d,)

Erläuterung a^ Verurteilung ftlr minderschweres Vergehen bk: Verurteilung, Höchststrafe ct: Freilassung d^ Verurteilung, moderate Strafe Grundannahmen des Gefangenendilemmas'. c, wird a, vorgezogen, und dj wird bk vorgezogen Zusatzannahme hinsichtlich Implikation für soziale Wohlfahrt: a l wird dk vorgezogen

Die Analogie zum kollektiven Handeln hängt von der Annahme ab, daß keine einzelne Person mit ihrem Beitrag entscheidenden Einfluß auf das kollektive Ergebnis nehmen kann. Angenommen nun, wir haben nicht zwei, sondern η Spieler, die entscheiden müssen, ob sie sich an einer gemeinsamen Aktion beteiligen. Man stelle

Hardin (1971) weist auf eine interessante Eigenschaft des Gefangenendilemmas hin: Die beidseitige Kooperation ist ein „Condorcet-Gewinner", d. h. dieses Ergebnis würde mindestens ebenso viele Stimmen (von den Spielern) erhalten wie jedes der drei anderen Altemativenpaare, die man ihm gegenüberstellen kann.

96

4. Das Paradox der Wahlbeteiligung

sich ζ. B. ein Spiel vor, in dem hundert Personen vor folgende Entscheidung gestellt werden: Sie haben die Wahl, sich an einem gemeinsamen Topf entweder nicht oder mit zehn Dollar für eine Gemeinschaftsinvestition zu beteiligen, die jeder der hundert Personen eine Dividende von einem Dollar einbringt, ob sie nun einen Beitrag geleistet hat oder nicht. (Angenommen sei außerdem, daß kein Spieler verbindliche Übereinkünfte abschließen, physische Drohungen aussprechen oder andere Seitenzahlungen vereinbaren kann.) Die im vorangegangenen Absatz geschilderte Beziehung zwischen den Auszahlungen liegt dann auch hier vor: Unabhängig davon, wie sich die anderen entscheiden, stellt sich jede Person am besten, wenn sie nicht zur gemeinsamen Sache beiträgt. Wenn schon die anderen ihren Beitrag leisten, dann wäre es dumm, sich die eigenen Partizipationskosten nicht zu „sparen"; und wenn sie sich nicht beteiligen, dann wäre es dumm, die Kosten des kollektiven Handelns alleine zu schultern. Das Endergebnis ist dasselbe: die gemeinsame Anstrengung für eine Sache, die allen wichtig ist, kommt nicht zustande, obwohl jedem potentiellen Teilnehmer ein kooperatives Ergebnis lieber wäre. Man beachte jedoch, daß nicht jedes Scheitern von Gruppenaktionen darauf zurückzuführen ist, daß sich die Betroffenen aufgrund eines sozialen Dilemmas um ihren Beitrag drücken. Daß Millionen von Menschen keine Mitgliedsbeiträge an den Ku-Klux-Klan entrichten, liegt nicht daran, daß sie Trittbrettfahrer sind, sondern daß sie diese Organisation und ihre Ziele ablehnen. Ähnlich mag der Mitgliederschwund bei Organisationen wie „Earth First!", „Tierbefreiungsfront", „Eagle Forum" oder „Operation Rescue", die mit ihren Zielen potentiell viele Sympathisanten ansprechen, auf Gründe zurückgehen, die nichts mit Trittbrettfahren zu tun haben - etwa, weil ihre Maßnahmen zu radikal, ihre Führer zu käuflich oder ihre Organisationsstrukturen zu chaotisch sind. Anders ausgedrückt beruht ein echtes soziales Dilemma nicht darauf, daß man eine Interessengruppe oder ihre Methoden verurteilt, sondern auf strategischem Verhalten auf der Grundlage der Einsicht, daß man ein von einer Gruppe bereitgestelltes Kollektivgut konsumieren kann, ohne zu seiner Bereitstellung beigetragen zu haben. Die üblichen Rational-Choice-Modelle, die weder strategische Fehler noch einen besonderen Nutzen daraus, daß man „das Richtige tut", mit einkalkulieren, sagen voraus, daß niemand eine kooperative Strategie wählen wird, wenn ein soziales Dilemma vorliegt. Durch die Einführung von Seitenzahlungen, die dazu führen, daß die Defektion keine dominante Strategie mehr ist, können derartige Gleichgewichtsprognosen allerdings verändert werden. Gäbe es ζ. B. eine dritte Partei, die Defektionen feststellt und bestraft, dann würden die mit dem Spiel verbundenen Auszahlungen möglicherweise nicht mehr dem für ein soziales Dilemma charakteristischen Muster entsprechen. Umgekehrt können Seitenzahlungen auch in Form positiver Anreize auftreten, etwa wenn Interessengruppen Zeitschriftenabonnements als Gegenleistung für die Zahlung von Mitgliedsbeiträgen versprechen. Die Auszahlung für Defektion verliert auch dann ihren Reiz, wenn eine Person unter sozialem Druck steht, so daß sie meint, kooperieren zu müssen, um ihren guten Ruf zu wahren. Und schließlich können auch Schuldgefühle oder altruistische Anwandlungen ein n-Personen-Gefangenendilemma in ein anderes Spiel verwandeln, das vielleicht auch ein

Soziale Dilemmata

97

anderes Gleichgewicht hat. Taylor (1987, 22) nennt solche Veränderungen des Spiels „externe Lösungen", da sie das soziale Dilemma durch die Modifizierung der Präferenzen oder des Erwartungsnutzens der Spieler auflösen. Eine andere Möglichkeit, das Trittbrettfahrer-Problem zu überwinden, besteht darin, die Situation so umzustrukturieren, daß die Mitwirkung eines jeden Individuums entscheidende Bedeutung erhält. So bezeichnet etwa Chong (1991) die Boykotte öffentlicher Verkehrsmittel, in denen Rassentrennung praktiziert wurde, durch die Bürgerrechtsbewegung als „Alles-oder-Nichts"-Formen kollektiven Handelns, bei denen eine einzige Defektion zum Scheitern des gesamten kollektiven Unternehmens führt (s. auch Crenson 1987). Viele Rational-Choice-Modelle kollektiven Handels konzentrieren sich auf diese Formen von Quasi-Dilemmata, bei denen Defektion keine dominante Strategie ist, da unter besonderen Umständen die Kooperation jedes einzelnen Akteurs für die Bereitstellung des öffentlichen Gutes entscheidend ist (Marwell und Ames 1980; Hampton 1987; Sandler 1992). Trittbrettfahren kann in solchen Situationen dennoch auftreten, aber wir wollen uns mit diesen Sonderfällen, in denen es letztlich um das Vorliegen einer „kritischen Masse" geht, nicht weiter beschäftigen, da sie nur wenig zu tun haben mit Wahlkampfspenden für Präsidentschaftskandidaten, der breitgefächerten Mitgliedschaft in Interessengruppen, der Teilnahme an öffentlichen Versammlungen, mit Bürgerrechtskundgebungen und anderen Arten von kollektivem Handeln, denen bisher das Hauptinteresse der Forschung galt. 58 Rational-Choice-Modellen zufolge dürften echte soziale Dilemmata durch die folgenden drei Faktoren nicht ausgeräumt werden können: interpersonelle Kommunikation, Veränderungen bei den erwarteten kollektiven Vorteilen und die Erwartung einer endlichen Anzahl von Wiederholungen des Spiels in der Zukunft. Individuen mögen anderen ein soziales Dilemma erläutern, egoistisches Verhalten anprangern und andere zur Kooperation auffordern. Solange die Kommunikation jedoch keine Seitenzahlungen (Drohungen oder Versprechungen) beinhaltet oder andere Veränderungen in der Auszahlungsmatrix der Spieler verursacht (was etwa der Fall wäre, wenn Altruismus durch Kommunikation erzeugt werden könnte), hat ein rationaler Akteur immer noch einen überwältigenden Anreiz zur Defektion. Um ein soziales Dilemma zu beseitigen, genügt es nicht, Gruppengespräche zu führen; ohne verbindliche Verpflichtungen kann Kommunikation sogar Mißtrauen erregen, da womöglich vermutet wird, daß Versprechen dazu dienen, andere zur Kooperation zu verleiten, um dann selbst zu defektieren. Weiterhin geht man davon aus, daß auch zusätzliche kollektive Anreize für Kooperation unwirksam sind. So sollten ζ. B. Veränderungen in der Brisanz eines öf-

Die Mitwirkung an derartigen kollektiven Unternehmungen könnte unter hinreichend phantasievollen Umständen für die Bereitstellung eines öffentlichen Gutes ausschlaggebend sein, und streng genommen könnten solche Probleme kollektiven Handelns als Quasi-Dilemmata bezeichnet werden. Ordnet man jedoch die Formen kollektiven Handelns entlang eines Kontinuums, das von echten Dilemmata bis zu Quasi-Dilemmata reicht, bei denen der Beitrag jeder einzelnen Person entscheidend ist, dann wird klar, daß sich die uns interessierenden Arten kollektiven Handelns in unmittelbarer Nähe des ersten Pols befinden. Das ist übrigens auch die Meinung von Olson (1968).

98

4. Das Paradox der Wahlbeteiligung

fentlichen Problems wie der Luftverschmutzung keinen Einfluß auf die Wahrscheinlichkeit haben, daß man Spenden an eine Umweltlobby entrichtet. Diese neue und kontraintuitive Erkenntnis beruht auf der Tatsache, daß man ungeachtet des eigenen Beitrags von den kollektiven Vorteilen profitiert, die durch die Bemühungen einer Lobby erzielt werden, so daß sich das Trittbrettfahren immer lohnt - ob die Luftqualität nun einfach nur schlecht oder richtiggehend grauenhaft ist. Damit hängt auch zusammen, daß selektive Maßnahmen zur Entmutigung von Defektion unwirksam sind, wenn sie dezentral durchgeführt werden. Wenn Kooperation etwa mittels sozialer Normen erzeugt und deren Verletzung durch einzelne Personen geahndet werden soll, die allerdings eigene Ressourcen einsetzen müßten, um Defekteure zur Rede zu stellen, dann wird die Bestrafung von Defektion selbst zu einem Problem kollektiven Handelns. Und obwohl immer dann, wenn die Spieler an zukünftigen Auszahlungen interessiert sind und wenn sie erwarten, daß sich ein Sozialdilemma-Spiel wiederholt, ohne zu wissen, wie oft das der Fall sein wird, Kooperation ein Gleichgewichtsergebnis darstellt - nach dem sogenannten folk theorem bildet unter solchen Bedingungen sogar so gut wie jedes Ergebnis ein Gleichgewicht (Fudenberg und Maskin 1986) - , ist Wiederholung kein Garant für kooperatives Verhalten, solange die Teilnehmer davon ausgehen, eine fixe Anzahl von Runden zu spielen. In einem Zwei-PersonenDilemma-Spiel über zehn Runden ζ. B. scheint es auf den ersten Blick für beide Spieler von Vorteil zu sein, auf kurzfristige Gewinne zu verzichten und sich auf Kooperation einzulassen. In der zehnten Runde jedoch ist die dominante Strategie für beide Spieler die Defektion. Da beide Spieler sich dessen bewußt sind, geht jeder davon aus, daß der andere im zehnten Durchgang defektiert, und schließt daraus, daß auch schon in der neunten Runde Defektion die dominante Strategie ist. Im Zuge dieser „Rückwärtsinduktion" kommen die Spieler schließlich zu der Einsicht, daß in jeder Spielrunde Defektion die dominante Strategie ist. Rational-Choice-Theorien weisen also, zusammengefaßt, darauf hin, daß Probleme kollektiven Handelns durch Kommunikation, Problembewußtmachung, Vertrauen in kollektiv bereitgestellte Seitenzahlungen oder Spielwiederholungen über eine bekannte Anzahl von Runden nicht gelöst werden können. Wir wollen jetzt sehen, inwieweit diese Erkenntnisse den empirischen Beobachtungen entsprechen. Daten zu kollektivem Handeln Das von Olson in seiner Logik kollektiven Handelns (1968) vorgetragene klassische Rational-Choice-Argument zum Engagement in Interessengruppen besagt, daß Mitglieder großer Gruppen sich vor den Belastungen, die mit der Bereitstellung eines Kollektivguts verbunden sind, drücken, sofern sie nicht gezwungen oder durch selektive Anreize motiviert werden, ihr Scherflein beizutragen. Schließlich leiste jedes einzelne Individuum durch seine Mitwirkung mit großer Wahrscheinlichkeit nur einen unbedeutenden Beitrag zur Verwirklichung des gemeinsamen Ziels. Zudem „würde [jeder] es vorziehen, die anderen die gesamten Kosten tragen zu lassen, und man würde in der Regel jeden erreichten Vorteil mitgenießen, gleichgültig, ob man

Soziale Dilemmata

99

einen Teil der Kosten getragen hat oder nicht" (20). Was Menschen dazu motiviert, sich einer gemeinsamen Sache anzuschließen und sie zu unterstützen, sind, so Olson, die selektiven Anreize, die mit der Beteiligung einhergehen. In ihrer Struktur ähnelt diese Hypothese Uber die Mitwirkung in Interessengruppen der von Downs über die Wahlbeteiligung; sie ist nur allgemeiner formuliert und soll Jogischerweise" für „alle Arten von Lobbies" gelten, ob sie nun „soziale, politische, religiöse oder philanthropische Ziele" verfolgen (Olson 1968, 157).59 Daher ist es nicht verwunderlich, daß man in der begleitenden empirischen Literatur auf ganz ähnliche Probleme trifft wie die, die wir im letzten Kapitel behandelt haben. Das Argument, daß selektive Anreize die wichtigsten Katalysatoren für kollektives Handeln sind, führt übrigens zu der überraschenden Schlußfolgerung, daß es für das Engagement in einer Interessengruppe im Grunde nebensächlich ist, welches Kollektivziel sie verfolgt. Eine christliche Fundamentalistin auf einem Spaziergang durch einen Park, in dem gerade gleich zwei Demonstrationen auf einmal stattfinden - eine für und eine gegen Abtreibung - , könnte sich demnach problemlos den Abtreibungsbefürwortern anschließen, falls die dort gereichten Erfrischungen nur hinreichend verlockend sind, da die Chance minimal ist, durch die eigene Teilnahme an der einen oder der anderen Demonstration das gewünschte politische Ergebnis zu beeinflussen, und sie keinerlei Anreiz hat, die Opportunitätskosten eines guten Imbiß zugunsten einer politischen Entscheidung gegen die Abtreibung zu opfern, von der sie ohnehin, völlig unabhängig von ihrem Engagement in der Anti-Abtreibungsbewegung, profitieren würde. 60 In Anbetracht des kontraintuitiven Szenarios, das die Rational-Choice-Theorie hier zu entwerfen scheint, liegt die Vermutung nahe, daß die eine oder andere Variante dieser Theorie, sofern sie sich empirisch bewährt, unsere üblichen Vorstellungen vom Verhalten von Interessengruppen möglicherweise in neue Bahnen lenken kann. Viele der empirischen Untersuchungen, die sich mit Olsons Theorie beschäftigen, sind jedoch leider nur von begrenztem diagnostischen Wert, da es ihre Autoren versäumen, genau zu überprüfen, ob die formalen Bedingungen für ein soziales Dilemma in der von ihnen untersuchten Situation tatsächlich vorliegen. Es mag plausibel klingen, daß „der Durchschnittsbürger im allgemeinen nicht bereit sein wird, der An anderer Stelle in der Logik kollektiven Handelns revidiert Olson diese Position und argumentiert, daß die Theorie nicht für Angelegenheiten zutreffe, die von Anfang an zum Scheitern verurteilt sind, und für die sich Leute engagieren, „die durch geringe Rationalität ... gekennzeichnet sind" (1968, 158 f.). Olson geht nicht weiter darauf ein, wie man solche Leute erkennen kann; und da seiner Ansicht nach alle erfolgreichen Bewegungen zum Scheitern verurteilt sind, die keine selektiven Anreize bieten, die groß genug sind, um die Kosten der Partizipation zu Uberwiegen, ist nicht klar, wie man eine von vornherein verlorene Sache von einer Aktion unterscheiden kann, die „nur" langfristig dem Untergang geweiht ist. Dazu Olson (1968, 131, Anm. 2): „Eine Organisation ... kann in bestimmten Fällen fähig sein, ihre Mitgliedschaft und politische Macht auch dann zu behalten, wenn ihre Führung einen Teil der politischen oder wirtschaftlichen Macht der Organisation für andere Ziele abzweigt als jene, die von der Mitgliedschaft gewünscht werden, da die Mitglieder der Organisation auch dann einen Anreiz haben, ihre Mitgliedschaft aufrecht zu erhalten, wenn sie mit der Politik der Organisation nicht einverstanden sind. Dies mag erklären, warum viele Lobbies eine Haltung einnehmen, mit der ihre Mitglieder nicht einverstanden sein können ...."

100

4. Das Paradox der Wahlbeteiligung

von ihm bevorzugten Partei ein spürbares Opfer zu bringen, denn durch den Sieg seiner Partei wird ja ein Kollektivgut bereitgestellt" (Olson 1968, 162), aber Trittbrettfahren ist bei weitem nicht die einzige Erklärung für diese Art von Inaktivität. In Untersuchungen zur öffentlichen Meinung wurde ζ. B. häufig darauf hingewiesen worden, daß ein Großteil der amerikanischen Öffentlichkeit Politik für unappetitlich und politische Debatten für uninteressant hält (Campbell u. a. 1960; Neumann 1986). Daß solche Personen sich nicht an Politik beteiligen, liegt weniger daran, daß sie sich um ihren Beitrag drücken wollen, sondern ist vielmehr Ausdruck von Gleichgültigkeit und Desinteresse oder eine Frage des Prinzips. Ferner wurde darauf hingewiesen, daß Amerikaner dazu neigen, für Probleme, von denen sie selbst betroffen sind, nicht-politische Lösungen ins Auge zu fassen (Brody und Sniderman 1977; Hochschild 1981), daß sie Lobbyisten oft mißtrauen (Lipset und Schneider 1983) und daß sie davor zurückschrecken, kollektiven Protest und andere Formen politischer Druckausübung zu befürworten (oder sich gar daran zu beteiligen; Olsen 1968). Altemativhypothesen wie diese werden von Olson, Hardin und anderen, die die Vorhersagekraft von Theorien preisen, die sich allein auf die DrückebergerVermutung stützen, häufig ignoriert. Wir wollen nicht bestreiten, daß Olsons Hypothese zum kollektiven Handeln für bestimmte wirtschaftliche Kontexte durchaus plausibel ist. Von einer breiten Basis gestützte Konsumentenkartelle oder erfolgreiche Gewerkschaften, die keine selektiven Anreize bieten, sind verständlicherweise rar gesät, und die Trittbrettfahrer-Erklärung scheint hier überzeugend. Doch wenn es um politische Partizipation geht, verlangen auch andere Erklärungsmodelle eine ernsthaftere Berücksichtigung, als ihnen etwa in Olsons Werk in der Regel zuteil wird. 61 In der Logik kollektiven Handelns (163 f.) bezeichnet Olson „unorganisierte Gruppen" wie landwirtschaftliche Wanderarbeiter, Steuerzahler und Konsumenten als die „stärksten" Stützen seiner Theorie (was, in Anbetracht der weiteren Entwicklung, einer gewissen Ironie nicht entbehrt). Doch lassen sich die Schwierigkeiten, auf die die Wanderarbeiter bei dem Versuch stießen, sich politisch und ökonomisch zu organisieren, gewiß besser mittels Faktoren erklären, die mit Trittbrettfahren gar nichts zu tun haben, wie die aktive Gegenwehr der Landbesitzer (Jenkins und Perrow 1977, 251 f.; Tootle und Green 1989). Was Steuerzahler und Konsumenten betrifft, so geht aus Olsons kurzer Darstellung nicht klar hervor, an welche Formen der politischen Organisation er gedacht hat; aber selbst dann, wenn sie die Möglichkeit hätten, ihre vermeintlichen Interessen zu verfolgen, indem sie ihren Präferenzen in Plebisziten Ausdruck verliehen, wären die Mitglieder dieser Gruppen wohl kaum einer Ansicht darüber, was ihre Interessen sind und wie sie verfolgt werden sollten (DeCanio 1979; Smith und Bloom 1986). Es ist also keineswegs klar, inwieweit uns diese unorganisierten

Andere Erklärungen spielen in Olsons Arbeit auch deshalb keine größere Rolle, weil abweichenden Fällen wenig Beachtung geschenkt wird. Wie Barry (1978, 29) bemerkt, neigt Olson dazu, „sich die Fälle herauszugreifen, die seine These stützen, anstatt eine Stichprobe aus der Gesamtheit der Organisationen eines bestimmten Typs innerhalb bestimmter raum-zeitlicher Beschränkungen zu ziehen."

Soziale Dilemmata

101

Gruppen etwas über das Existenz einer Trittbrettfahrer-Mentalität sagen oder vielmehr über die Prävalenz von Apathie, Ambivalenz oder Abneigung gegen Politik. Da zwischen potentiellen und tatsächlichen Partizipanten nur vereinzelte und unsystematische Vergleiche angestellt werden, können Olson - wie auch seine Kritiker - ihre theoretischen Vorbedingungen auf die Daten projizieren. Als Widerlegung von Olsons These legten Tillock und Morrison 1979 ihre Fallstudie über „Zero Population Growth" vor, eine Gruppe, die neue Mitglieder gewinnt, ohne nennenswerte selektive Anreize zu bieten. In seiner Erwiderung interpretiert Olson (1979, 149) dieses Ergebnis als „dramatische" Bestätigung seiner These, da zwar Umfragen zufolge „zig Millionen Menschen der Ansicht sind, daß das Bevölkerungswachstum verringert werden müsse", die Organisation selbst aber nur eine „winzige" Mitgliedschaft von zwölftausend Personen hat. Nun gehört wahrscheinlich in gewissem Sinne fast jeder zu einer latenten Gruppe von Menschen mit einem gemeinsamen Interesse an einer stabilen Weltbevölkerung. Trotz vager Bezüge zu Umfragedaten ist das aber doch etwas ganz anderes als zu behaupten, daß Millionen von Menschen in dieser Frage hinreichend stark engagiert sind, daß sie bedeutende Ressourcen in die Verminderung der Geburtenrate investieren würden, wenn da nicht das Trittbrettfahrerproblem wäre. Und daraus folgt auch nicht, daß diejenigen, denen das Problem am Herzen liegt, der Ansicht sind, daß politische Maßnahmen getroffen werden können oder sollten, um die Geburtenrate zu senken. Und erst recht folgt daraus nicht, daß die Leute gerade „Zero Population Growth" für besonders geeignet halten, die Senkung der Geburtenrate zu bewirken. Streicht man aus Olsons Kalkül die Unbekümmerten, die Vorsichtigen und die Skeptiker, ist keineswegs klar, wieviele be wußte Trittbrettfahrer dann noch übrigbleiben.62 Obwohl das Verhältnis zwischen tatsächlichen und potentiellen Partizipanten nur einen groben Maßstab zur Beurteilung von Olsons Theorie bildet, scheint es genau das zu sein, was das Scheitern bei der Erklärung der Wahlbeteiligung vom vermeintlichen Erfolg bei der Erklärung von kollektivem Handeln unterscheidet. Um die Dinge noch verwirrender zu machen, könnte man bestreiten, daß das Partizipationsverhältnis das angemessene Beurteilungskriterium ist. Wie im Fall der Wahlbeteiligung kann selbst ein sehr geringes Ausmaß kollektiver Aktionen doch mit einer anomal großen Anzahl von Teilnehmern einhergehen, denn die punktuelle Vorhersage aufgrund von Olsons Modell geht schließlich von einer Beteiligungsrate gleich Null aus. Mitchell (1979) meint jedoch, daß etwa 100 000 der rund eine Million Mitglieder von UmWeltorganisationen ihnen aus Gründen beigetreten sind, die sich nicht plausibel auf selektive Anreize zurückführen lassen. Eine vergleichbare, wenn nicht 62 In Walshs und Warlands Untersuchung der Mitwirkung in Interessengruppen nach dem Unfall im Kernkraftwerk Three Mile Island, einer der besten Forschungsanstrengungen in diesem Bereich, tritt diese Unbestimmtheit klar zu Tage (Walsh und Warland 1983). Die Autoren bezeichnen 87 Prozent der Kraftwerksgegner als „objektive Trittbrettfahrer", da sie zwar Three Mile Island ablehnten, aber weder Zeit noch Geld in die örtliche Anti-Kernkraft-Organisation investierten. Ihre Umfragedaten (774) belegen jedoch, daß 26 Prozent dieser angeblichen Trittbrettfahrer nie von der Organisation gehört hatten; weitere 8 Prozent gaben an, nicht zur Beteiligung eingeladen worden zu sein; 4 Prozent hielten das Kernkraftproblem nicht für schwerwiegend; und 9 Prozent lehnten es ab, sich irgendeiner Gruppe anzuschließen.

102

4. Das Paradox der Wahlbeteiligung

sogar noch größere Anzahl von Individuen entrichten Spenden in bundesweiten Wahlkämpfen (Sorau 1988, 44-47) oder legen große Entfernungen zurück, um an Demonstrationen in Washington teilzunehmen (Walsh und Warland 1983). Verteidiger von Rational-Choice-Modellen gehen mit der Höhe dieser Zahlen ganz unterschiedlich um. Manche behaupten, daß es sich vielleicht um einen harten Kern von irrationalen Aktivisten handelt, der bereit ist, für einen kollektiven Zweck Opfer zu bringen (Olson 1968; Hardin 1979; Oberschall 1980; Chong 1991, 160162). In anderen Fällen wird das Problem umgangen und die Aufmerksamkeit auf einen anderen Maßstab gelenkt, nämlich auf das Verhältnis zwischen potentieller Zustimmung und im Verhalten zum Ausdruck gebrachter Zustimmung. 63 Hardin (1982, 11) etwa argumentiert: „Was hat es also mit dem scheinbaren Widerspruch zu dieser Logik auf sich, den der Sierra Club und andere UmWeltorganisationen zu verkörpern scheinen? Die Antwort... lautet, daß die Umweltschützer erbärmlich wenig für ihr Anliegen tun, wenn man bedenkt, wie ungeheuer wichtig es für sie ist, Erfolg zu haben, und in Anbetracht der wiederholten Umfrageergebnisse, die vom großen Interesse eines großen Prozentsatzes von Amerikanern an diesem Thema zeugen. Umweltschützer geben für ihr angeblich so großes Anliegen jährlich weniger aus als 25 000 Raucher, die zwei Päckchen Zigaretten pro Tag konsumieren, für ihre Zigaretten. Diese Summe ist lächerlich, und man mag es kaum glauben; aber nach einer strikt rationalen Analyse ist das Ganze völlig verständlich. Und man könnte noch peinlichere Statistiken bemühen, die dokumentieren, wie wenig Amerikaner für solche ehrenwerten Anliegen wie Bürgerrechte, die aktuelle Frauenbewegung, Waffenkontrolle (im Gegensatz zur Anti-Kontrollbewegung) usw. aufgewendet haben."

Angesichts der Skepsis, die Ökonomen häufig gegenüber dem verbalen - im Gegensatz zum verhaltensmäßigen - Ausdruck von Präferenzen hegen, ist das eine recht sonderbare Verteidigungsstrategie. Woher wissen wir ζ. B., daß Umweltschutz oder Bürgerrechte in den Augen des Durchschnittsbürgers „ehrenwerte Anliegen" sind? Wenn es um private Güter geht, lehren uns die Ökonomen in der Regel zu untersuchen, was die Leute tatsächlich eintauschen, um solche wertgeschätzten Unternehmungen voranzubringen. Dieser Ansatz ist für Nichtmarktgüter unbrauchbar. Die herkömmlichen Instrumente der Meinungsumfrage (auf die Olson und Hardin zurückgreifen) beanspruchen nicht, die „Vorbehaltspreise" der Befragten zu erfassen, also den Preis, bei dem eine Person zwischen zwei Zuständen indifferent ist: dem status quo mit und dem status quo ohne das betreffende öffentliche Gut. Deshalb ist es schwer, per Umfragen genau zu ermitteln, wie sehr eine Person ein bestimmtes öffentliches Gut schätzt - vor allem, weil Meinungen zur Rassen- oder Umweltproblematik für ihre Empfindlichkeit gegenüber der genauen Frageformulierung und dem Umfragekontext bekannt sind. Als Methode zur Bewertung von Nichtmarktgütern sind in den letzten Jahren Umfragen entwickelt worden, die so angelegt sind, daß die Probanden nach ihren Vorbehaltspreisen gefragt werden (contingent valuation surveys, Mitchell und Carson 1989). Theoretisch sind diese Umfragen besser geeignet, das Ausmaß des Trittbrettfahrens zu ermitteln; in der Praxis weisen sie jedoch eine Reihe von Problemen auf, darunter vor allem das der externen ValiDiese Variante wird gelegentlich die „schwache" Trittbrettfahrer-Hypothese genannt (Marwell und Ames 1979).

Soziale Dilemmata

103

dität, da von den Befragten nicht verlangt wird, für die imaginäre Bereitstellung eines öffentlichen Gutes tatsächlich zu zahlen. 64 Empirisch ist es daher keineswegs bewiesen, daß Menschen Ressourcen für Angelegenheiten, die ihnen wichtig sind, zurückhalten in der Hoffnung, daß andere für die Kosten aufkommen. Im Zusammenhang mit sozialen Bewegungen oder Interessengruppen wird der Vergleich zwischen tatsächlichem Verhalten und potentieller Beitragsbereitschaft noch unklarer. Ob es einer Lobby gelingen wird, auf politische Entscheidungen einzuwirken, ist ebenso unsicher wie die Verbindung zwischen einer Entscheidung und den Folgen ihrer Umsetzung. Daher muß der Wert, den ein Individuum einem öffentlichen Gut zuschreibt, um die Wahrscheinlichkeit diskontiert werden, mit der es durch einen bestimmten Handlungsablauf erzeugt wird. Ein begeisterter Befürworter des Umweltschutzes mag vielleicht bereit sein, 500 Mark zu spenden, damit ganz konkret an der Küste Alaskas Seevögel vor der Ölpest gerettet werden können, ist aber nicht willens, einer Organisation, die sich für dieselbe Sache in Washington einsetzen will, mehr als ein paar Pfennige zu überlassen. Die Behauptung Hardins und anderer, daß öffentliche Güter in zu geringen Mengen bereitgestellt werden, lenkt unsere Aufmerksamkeit auf ein offenkundiges Manko in Trittbrettfahrer-Studien: Es fehlen Kontrollgruppen, in denen das jeweilige Gut direkt durch individuelles Handeln bereitgestellt wird, so daß die Versuchung zum Trittbrettfahren wegfällt. Die Autoren, die die vermeintlichen Konsequenzen des Problems kollektiven Handelns aufzeigen, legen ihre Untersuchungen nur selten so an, daß der zur Debatte stehende Kausalmechanismus - nämlich Wunsch und Gelegenheit, etwas umsonst zu erhalten - sichtbar wird. Im Hinblick auf die von Hardin beschriebenen Umwelt- und Bürgerrechtsbelange könnte man argumentieren, daß selbst dann, wenn es kein Trittbrettfahrerproblem gibt, nur relativ selten gehandelt wird (etwa, indem man seinen Gästen erklärt, daß man nicht bereit ist, in den eigenen vier Wänden rassistische Witze zu dulden, oder indem man ungiftige, aber dafür teurere Pestizide auf dem Rasen versprüht, auf dem die eigenen Kinder spielen). Was politisches Handeln im allgemeinen anbelangt, so ist bemerkenswert, daß die Häufigkeit, mit der Amerikaner wegen persönlicher Probleme an Regierungsvertreter herantreten, nicht größer ist als die durchschnittliche Häufigkeit des Engagements in Interessengruppen (Verba und Nie, 1972).

Vergleichende Zustandsanalysen Olson ist sich der Bedeutung von Kontrollgruppen durchaus bewußt; in den empirischen Teilen der Logik analysiert er zwei Vergleichsmengen: große Gruppen versus kleine Gruppen sowie Gruppen, die selektive Anreize bieten, versus solche, die das nicht tun. Die methodologischen Probleme bei Vergleichen der ersten Art wurden Für einen Überblick Uber die Einwände gegen die abhängige Bewertung von Gütern vgl. Mitchell und Carson 1989, 128; Fischhoff 1991; Kahneman und Ritov 1994. Angesichts der Unzahl von „framing"-Effekten, von denen man inzwischen weiß, daß sie die Bereitschaft einer Person verändern, fllr öffentliche Güter zu zahlen, bezweifeln Kahneman und seine Kollegen, daß man vernünftigerweise davon ausgehen kann, daß Personen kontextunabhängige Werte für Umweltguter besitzen.

104

4. Das Paradox der Wahlbeteiligung

anderswo bereits hinlänglich erörtert (Hardin 1982, Isaac, Walker und Thomas 1984; Taylor 1987; Marwell und Oliver 1993). Und da es uns hier um Massenpartizipation geht, wollen wir - wie schon andere vor uns - nur kurz darauf hinweisen, daß außer der Bedeutung für das kollektive Ergebnis und der Wahrscheinlichkeit, der entscheidende Akteur zu sein, auch noch viele andere Faktoren mit der Gruppengröße variieren. Für unsere Zwecke interessanter ist das zweite Untersuchungsprojekt, bei dem es darum geht herauszufinden, ob die Höhe der selektiven Anreize die Höhe der Mitgliedschaft beeinflußt. 65 Fallstudien über Trends bei der Gesamtmitgliedschaft in Interessengruppen, die die Belange von Landwirtschaft, Handel und Arbeitnehmern vertreten (Olson 1968, 139 ff., 150 ff.), sind insofern aufschlußreich, als sie zu bestätigen scheinen, daß selektive Anreize die Mitwirkung in Interessengruppen beeinflussen; sie unterwerfen die Theorie jedoch keiner besonders strengen Überprüfung. Die Nullhypothese, daß selektive Anreize wirkungslos sind, ist sicher nicht plausibel. Kaum jemand würde bestreiten, daß ceteris paribus Vergünstigungen bei Versicherungen (wie sie das Farm Bureau anbietet), verbilligte Jagdhütten (National Rifle Association) oder kostenlose vegetarische Mahlzeiten (Hare Krishnas) die Attraktivität der Gruppenmitgliedschaft in den Augen potentieller Partizipanten erhöhen. Die Aussagekraft solcher Überprüfungen ist auch deshalb begrenzt, weil anzunehmen ist, daß selektive Anreize wahrscheinlich auch dann neue Mitglieder zu einer Gruppe locken, wenn kein soziales Dilemma vorliegt. Selbstverständlich erscheinen mehr Menschen bei Versammlungen von Buchclubs oder Computernutzergruppen, wenn dort Kaviar und Champagner serviert wird, obwohl die Entscheidung, einer solchen Gruppe beizutreten, kein soziales Dilemma darstellt. Es ist weniger die Vorhersage, daß selektive Vorteile eine Rolle spielen, als die Behauptung, daß kollektive Anreize keine Rolle spielen, die eine echte Überprüfung der Theorie ermöglicht. Entsprechende Arbeiten, die Gruppenmitgliedschaft auf Aggregatebene untersuchen, widersprechen Olsons Prognosen. Hansen untersuchte die Mitgliederstatistiken der National Association of Home Builders, der American Farm Bureau Federation sowie der League of Women Voters aus mehreren Jahrzehnten und stellte fest, daß die Mitgliederzahlen mit den kollektiven Vorteilen zunahmen und daß solche „politischen Vorteile die größte Rolle spielen, wenn Gruppen bedroht sind" (1985, 93). Imig (1992) fand ein ähnliches Muster bei seiner Untersuchung der Taktiken, die Gruppen anwenden, die die Interessen der Mittellosen vertreten, um nach dem Abbau staatlicher Subventionen neue Finanzquellen aufzutun; am erfolgreichsten war es, sich einen Namen zu machen als eine Gruppe, die auf Mißstände aufmerksam macht und die Regierung kritisiert.

65 Diese Art der vergleichenden Zustandsanalyse ist zweifellos ein Fortschritt gegenüber der Überprüfung der Theorie anhand der absoluten Höhe des beobachteten kollektiven Handelns. Der Grenzen einer solchen Analyse sollte man sich dennoch bewußt sein. Wie wir in Kapitel 4 im Zusammenhang mit der Beteiligung an Wahlen gezeigt haben, bedeutet die Tatsache, daB Anreize tendenziellen EinfluB haben, nicht unbedingt, daß das Verhältnis von Vorteilen zu Kosten für jeden Akteur größer als eins ist. Preiselastisches Verhalten ist nicht unbedingt rationales Verhalten.

Soziale Dilemmata

105

Olsons Vorhersagen bewähren sich auch dann nicht, wenn statt der Tendenzen im Aggregat die Entscheidungsprozesse von Individuen analysiert werden. Die von Marsh 1976 durchgeführten Interviews mit potentiellen und tatsächlichen Mitgliedern der Confederation of British Industry belegen, daß vor allem für größere Firmen selektive Anreize nur einen von mehreren Einflußfaktoren bei der Entscheidung bilden, zahlendes Mitglied des Verbandes zu werden. Häufig äußerten die Entscheidungsträger die „irrationale" Ansicht, sie seien der CBI beigetreten, weil diese ein Gegengewicht zur Gewerkschaftsbewegung bilde (264). Zu ähnlichen Ergebnissen kommt auch Hedges' Untersuchung von Personen, die den Präsidentschaftswahlkampf von 1972 finanziell unterstützten (1984); er fand heraus, daß ein Gefühl von Bürgerverantwortung sowie der Wunsch, auf die Regierungspolitik Einfluß zu nehmen, zu den am häufigsten genannten Gründen für politisches Engagement gehörten. Auch andere Studien (einen Überblick gibt Knoke 1990) widersprechen in ähnlicher Weise Olsons Vermutung, daß selektive Anreize von Bedeutung sind, während kollektive Vorteile keine Rolle spielen. Zur Verteidigung der Rational-Choice-Theorie könnte man anfuhren, daß Untersuchungen auf Individualebene häufig unter den Mängeln leiden, die wir in Kapitel 3 als gängige methodologische Defekte bezeichnet haben. Zu Recht kann man skeptisch sein gegenüber Umfragen, in denen die Befragten die Gründe nennen sollen, aus denen sie einer Organisation beigetreten sind, besonders dann, wenn die Entscheidung schon lange zurückliegt. Nicht weniger problematisch sind, so Olson (1970), Umfragen, die die Motive für den Beitritt zu einer Interessengruppe ermitteln wollen und in ihrer Stichprobe nur Mitglieder berücksichtigen (ζ. B. Mitchell 1979; Tillock und Morrison 1979; Moe 1980; Godwin und Mitchell 1984; Hedges 1984). Diese Kritik macht jedoch nicht jede Untersuchung auf Individualebene unbrauchbar. Walsh und Warland (1983) stellten fest, daß die Entscheidung, nach einem Reaktorunfall politisch aktiv zu werden, davon beeinflußt war, welche Bedeutung potentielle Aktivisten dem gemeinsamen Anliegen - in Abhängigkeit etwa von der Ideologie und ähnlichen Faktoren - beimaßen. Auch eine ganze Reihe von Studien, die sich gar nicht als Überprüfungen von Olsons Hypothese verstehen, bestätigen die Rolle kollektiver Anreize. In ihrer Untersuchung des Engagements von weißen Bürgern in Boston und Louisville Mitte der siebziger Jahre gegen den Transport von Schülern in andere Stadtviertel zugunsten einer größeren rassischen Ausgewogenheit der Schülerschaft, stellten Green und Cowden fest, daß die Eltern von betroffenen Schülern mit signifikant höherer Wahrscheinlichkeit aktiv wurden als Nicht-Eltem, Eltern aus Stadtteilen, die von dem Beschluß nicht berührt waren, oder Bewohner angrenzender Vororte (1992). Darüber hinaus fand man heraus, daß Befragte, die sich schon vor dem betreffenden Gerichtsurteil leidenschaftlich gegen das Projekt ausgesprochen hatten, mit höherer Wahrscheinlichkeit in den Protestorganisationen mitarbeiteten. In Verbindung mit anderen Studien (für einen Überblick siehe Knoke 1988; Green und Cowden 1992), die ebenfalls zu dem Schluß gelangen, daß Personen stärker partizipieren, wenn für sie bei einem kollektiven Ergebnis mehr auf dem Spiel steht, kommen Zweifel auf an Olsons wichtigster kontraintuiti-

106

4. Das Paradox der Wahlbeteiligung

ver These, nämlich daß kollektive Anreize nicht in der Lage sind, kollektives Handeln hervorzubringen. Vage Vorhersagen und nachträglich Retouchen Selbstverständlich kann man eine Rational-Choice-Variante dadurch aufrechterhalten, daß man den Begriff des rationalen Handelns so verbiegt und streckt, daß er auch solche Ergebnisse miteinschließt. Muller und Opp (1986, 478; 1987) etwa bezeichnen ihre auf Umfragen beruhende Untersuchung über rebellisches Kollektivhandeln in New York und Hamburg als Beleg für eine Version der Rational-ChoiceTheorie. In einer Weise, die an Rikers und Ordeshooks post Äoc-Erklärung der Wahlbeteiligung (1968) erinnert, behaupten Muller und Opp, die von ihnen Befragten überschätzten die Wirkung ihres individuellen Engagements gewaltig und handelten daher in Anbetracht dieses (unbegründeten) Glaubens an die Wirksamkeit ihrer eigenen Partizipation durchaus rational.66 In einem ähnlichen Argument erläutert Mitchell (1979), wie sehr Menschen ihren Beitrag zu einer Umweltschutzorganisation überschätzen, beeilt sich aber immerhin, diesen scheinbar unbegründeten Glauben auf die Wirkung irreführender Propaganda zurückzuführen. Auf der Grundlage seiner Umfrage unter Mitgliedern von fünf Bauern- und Handelsverbänden in Minnesota formuliert Moe (1980, 205-7) diese Fehlwahrnehmungshypothese am deutlichsten: „Die Daten zu den Wahmehmungs- und Bewertungseigenschaften der Mitglieder lassen vermuten, daß es auch eine rationale Grundlage für politisch motivierte Mitgliedschaft gibt. Erstens glauben die meisten Mitglieder, daß ihr individueller Beitrag für den politischen Erfolg oder Mißerfolg ihrer Gruppe sehr wohl von Bedeutung ist. ... 60 bis 70 Prozent der Mitglieder sind der Ansicht, daß ihr Beitrag einen Einfluß auf die politischen Ergebnisse hat. Selbst wenn sie aus rein ökonomischem Eigeninteresse handeln, mögen daher viele Individuen der Ansicht sein, daß sie auch aus politischen Gründen einen Anreiz haben, sich zusammenzuschließen. Die Übereinstimmung in allen Gruppen ist interessant, denn sie läßt vermuten, daß der Glaube an die eigene Wirksamkeit unter Gruppenmitgliedern generell, quer durch das ganze Gruppensystem, weitverbreitet ist und daß das durchschnittliche Mitglied seinen Beitrag nicht als Tropfen auf den heißen Stein betrachtet."

Abgesehen davon, daß keine dieser Untersuchungen einen Zusammenhang zwischen der wahrgenommenen Wirksamkeit und dem Nutzen nachweist, den eine Person aus dem Kollektivgut zieht, wie es ein Erwartungsnutzenmodell (siehe Kapitel 4) nahe-

66

Mullers und Opps empirische Ergebnisse weisen noch andere Anomalien auf. Wie erklärt ein Rational-Choice-Modell, warum ein Individuum mit größerer Wahrscheinlichkeit partizipiert, wenn es der Erreichung des Gruppenziels einen hohen Wert beimißt? Und warum besteht eine positive Verbindung zwischen der Wahrnehmung der Wirksamkeit der Gruppe und der Neigung, ihr beizutreten? Die Antwort der Autoren (1987) ist, daß sich Individuen den Standpunkt der Gruppe zu eigen machen und das tun, was aus Sicht der Gruppe rational ist — eine Vermutung, die dem von Olson beschriebenen Problem kollektiven Handelns, nach dem Individuen an den Zielen einer Gruppe zwar stark interessiert sind, aber trotzdem beschließen, nicht eigene Ressourcen zu opfem, wenn sie ebensogut Trittbrett-fahren können, diametral entgegensteht. Obwohl sie fest darauf beharren, daß ihr Modell ein Rational-Choice-Modell ist, scheinen Muller und Opp diese Bezeichnung doch höchst unorthodox zu verwenden (s. Klosko 1987).

Soziale Dilemmata

107

legen würde, scheinen Moe, Mitchell oder Muller und Opp gar nicht auf die Idee zu kommen, daß bereits die Feststellung, daß jeder Beitrag zählt, Teil der Ideologie des politischen Aktivismus sein könnte. Man fragt sich, ob auch dann der Eindruck entstanden wäre, daß Individuen glauben, ihr Beitrag hätte einen Einfluß, wenn in den Umfragen feinere Meßtechniken angewendet worden wären; man hätte die Befragten ζ. B. (mit einer offenen Frage) auffordern können, nur zu schildern, welche Folgen es für die Organisation und ihre Arbeit wohl hätte, wenn der oder die Befragte die Gruppe verließe. Wie schon Downs (1968) lehnt es auch Olson (1968, 59 f.) ab, auf Fehlwahrnehmungen und nicht-ökonomische Anreize zur Erklärung von kollektivem Handeln zurückzugreifen, da solche Erklärungsmittel seiner Ansicht nach sowohl unnötig als auch, wenn sie nachträglich zum Einsatz kommen, unwissenschaftlich seien. Was immer man denn auch an seiner Theorie und den zu ihrer Stützung herangezogenen Daten auszusetzen haben mag: Für Olson spricht jedenfalls, daß er für eine Form der Rational-Choice-Theoriebildung steht, die nicht-triviale und überprüfbare Aussagen generiert. Nachfolgende Autoren haben jedoch weniger Zurückhaltung geübt; wie die Theoretiker der Wahlbeteiligung zeigen sie sich geneigt, den Begriff des selektiven Anreizes auszudehnen, um problematischen Daten aus dem Weg zu gehen. Beim Versuch, anomale Fälle von massenhaftem freiwilligem Kollektivhandeln zu erklären, verwies man auf den Unterhaltungswert von Protest (Tullock 1971), auf den Nutzen, im eigenen Umfeld seinen guten Ruf zu schützen (Frank, 1988; Chong 1991), oder auch auf die expressiven Vorteile durch ein Leben in Einklang mit einer Überzeugung oder der eigenen moralischen Identität (Benn 1979).67 Besonders bemerkenswert ist in diesem Zusammenhang die Feststellung von Moe (1980, 117 f.), daß die Verfolgung kollektiver Ziele an sich schon selektive Vorteile mit sich bringt: „Da zweckbezogene Anreize mit den Gruppenzielen eng verknüpft sein können, macht man leicht den Fehler, davon auszugehen, daß sie mit der Bereitstellung des Kollektivgutes einhergehen müssen und daß daher in bezug auf sie dieselben Hindernisse für die Leistung von Beiträgen entstehen wie bei der Bereitstellung von Kollektivgütern im allgemeinen. Es ist wichtig, sich klarzumachen, warum diese Annahme falsch ist. Individuen können zweckbezogene Vorteile auf zweierlei Wegen erhalten: wenn Kollektivgüter geschaffen werden und wenn zweckbezogene Vorteile die Form selektiver Anreize annehmen. ... Ein Individuum kann ζ. B. aus der Beitragshandlung selbst ein Gefühl der Befriedigung ziehen, wenn es darin einen Akt der Unterstützung von Zielen sieht, an die es glaubt. Wenn die Politik der Gruppe seine ideologischen, religiösen oder moralischen Prinzipien widerspiegelt, fühlt es sich möglicherweise dazu verpflichtet, .seinen Teil' zur Unterstützung dieser Politik beizutragen, und hält es gar für moralisch tadelnswert, sich um seinen Beitrag zu drücken. In diesem Fall ist die Quelle der zweckbezogenen Vorteile nicht die tatsächliche Bereitstellung des Kollektivguts, sondern die Unterstützung und Verfolgung lohnender Kollektivgüter."

Interpretationen dieser Art machen es schwer, zwischen Rational-Choice-Ansätzen und anderen Erklärungsansätzen zu unterscheiden. Sogar Begriffe wie Klassenbe-

Im Zusammenhang mit der Bürgerrechtsbewegung ist Chong (1991) der Ansicht, daß für Teilnehmer an kollektiven Protestaktionen, die sich unter ihren Gesinnungsgenossen einen Namen machen wollen, die Kosten einer Verhaftung tatsächlich Vorteile sein können.

108

4. Das Paradox der Wahlbeteiligung

wußtsein und Solidaritätsgefühl, auf die Fireman und Gamson bei ihrer Kritik an Olson (1988) zurückgreifen, können bequem in Moes erweitertes Rational-ChoiceModell eingepaßt werden. Indem sie die Nullhypothese in das Gewand der selektiven Anreize kleiden, haben revisionistische Modelle Olsons Theorie genau der Vorhersagen beraubt, die sie provokativ und überprüfbar machen. Diese Nachbesserungsmaßnahmen am Modell Olsons dienen dem Zweck, die Auszahlungen für politische Partizipation so zu verändern, daß die Logik eines nPersonen-Gefangenendilemmas nicht mehr gilt. Sobald ein paar irrationale Aktivisten eine soziale Bewegung in Gang gesetzt haben, entsprechen die Bedingungen des Kollektivhandelns nach Chong (1991) nicht mehr einem Gefangenendilemma, sondern einem Versicherungsspiel, bei dem Partizipation lohnender ist als Untätigkeit. 68 Noch weniger Zurückhaltung übt Oberschall (1980) bei seiner Erklärung einer NAACP-Kundgebung in Nashville, die er mit fast allem ausschmückt, was es so an nachträglichen Retouchiermöglichkeiten gibt: irrationale Aktivisten, übertriebene Wahrnehmung der eigenen Wirksamkeit und der der Kundgebung sowie niedrige Partizipationskosten. Zu welchen Vorhersagen würden die verschiedenen erweiterten Rational-ChoiceModelle wohl hinsichtlich des Verhaltens von Cheungs Arbeitern kommen? Daß die Entscheidung „schleppen oder nicht schleppen?" in Abwesenheit eines Aufsehers von ihrem moralischen Verantwortungsgefühl abhängt, von ihrer Freude an körperlicher Ertüchtigung oder von ihrer Sorge um den Ruf der Gruppe? Ob irgendeines dieser Motive ausreicht, um einen einzelnen Arbeiter davon zu überzeugen, daß es rational ist, seinen Job zu tun, läßt sich empirisch kaum feststellen. Auf der Aggregatebene kann man dieses eklektische Modell auch nicht leichter überprüfen, da es nur eine vage Vorhersage über die Höhe der Beteiligung an der kollektiven Anstrengung erlaubt. Und was die vergleichende Zustandsanalyse angeht, hat die Berücksichtigung von Moes Behauptung, daß die „Verfolgung lohnender kollektiver Güter" selbst ein selektiver Anreiz sein kann, die Konsequenz, daß das, was zuvor die Nullhypothese war - daß die Größe der auf dem Spiel stehenden kollektiven Vorteile die Wahrscheinlichkeit der individuellen Beteiligung beeinflußt -, zum prognostizierten Ergebnis eines revidierten Rational-Choice-Modells wird. Revisionistische Versionen von Olsons Theorie sind damit entweder post hoc-Erklärungen von unvorhergesehenem Verhalten (ζ. B. Tullock 1971; Chong 1991), vage Aussagen, bei denen die Rolle der Rationalität für die Erklärung nur schwer auszumachen ist (Muller und Opp 1987), oder aber für alle Eventualitäten gerüstete Theorien, die kaum irgendwelche denkbaren Beobachtungsdaten ausschließen (Moe 1980). Wenngleich man feststellen kann, daß Olsons empirische Kemaussagen durch die vorliegenden Untersuchungen Uber soziale Bewegungen nicht gestützt werden, ist die empirische Leistung späterer Rational-Choice-Ausschmückungen auch nicht leichter zu ermitteln. Insgesamt scheint man daher Muellers Beobachtung Eine andere Möglichkeit, dem Aktivismus-Problem zu Leibe zu rücken, besteht darin, Aktivisten als (optimistische) Unternehmer oder als Maximierer irgendeiner anderen Art von Nutzen darzustellen — wie ζ. B. Wohlfahrt, Status oder Einfluß. Siehe Fröhlich, Oppenheimer und Young 1971; Marwell und Oliver 1992; siehe aber auch Laver 1980.

Experimentelle Ergebnisse

109

zur Rational-Choice-Literatur über revolutionäres Kollektivhandeln verallgemeinern zu können: Der Weiterentwicklung der Rational-Choice-Theorie nach Olson ist es nicht gelungen „eine reiche Ernte überprüfbarer Implikationen einzufahren" (1989, 175).

Experimentelle Ergebnisse Man könnte nun einwenden, daß die Forschungsmethoden, mit denen kollektives Handeln in der Regel untersucht wird, - Umfragen und Zeitreihenanalysen auf Aggregatebene - zu grob sind, um die Kausalmechanismen beim Handeln von Massen aufzuspüren. Da individuelle Partizipationsentscheidungen in so komplexen realweltlichen Kontexten wie etwa in einer Krise bei der Rassenintegration in Schulen von vielen nicht-beobachteten Faktoren beeinflußt werden, kann es durchaus sein, daß diesen Techniken die versteckten selektiven Anreize entgehen, die, würden sie beobachtet, Olsons Vorstellungen bestätigen würden. Deshalb wollen wir untersuchen, ob Laborbedingungen, unter denen solche Fremdfaktoren bewußt minimiert werden, ein anderes Licht auf die Erklärungskraft von Rational-Choice-Theorien werfen. Sicher sind Laborspiele, in denen die Probanden entscheiden müssen, ob sie Geld für einen kollektiven Zweck spenden oder lieber für sich selbst behalten, nicht über jede methodologische Kritik erhaben. Für einige Autoren sind solche Experimente „an den Haaren herbeigezogen" (Walsh und Warland 1983, 765); andere bezweifeln, ob die Probanden (in der Regel Studenten) das n-Personen-Spiel, an dem sie teilnehmen, überhaupt verstehen, wenn sie sich zwischen Kooperation und der Versuchung entscheiden müssen, einen Geldbetrag zu erwirtschaften, der 25 Dollar selten übersteigt (Hardin 1982, 30). Ein weiterer häufig geäußerter Einwand gibt zu bedenken, daß Probanden unter Laborbedingungen möglicherweise ungewöhnlich kooperativ sind, weil sie beim Leiter des Experiments oder bei ihren Mitspielern einen guten Eindruck hinterlassen wollen (Isaac u. a. 1984, Weiss 1991).69 Aus diesen Gründen sollte man der im Labor beobachteten absoluten Kooperationshöhe keine zu große Bedeutung beimessen, da diese Statistik wahrscheinlich wenig über das Verhalten von Personen in der Realität aussagt. Eine vorsichtigere, eher vertretbare Interpretation der Laborergebnisse konzentriert sich daher auf Verhaltensunterschiede bei unterschiedlichen Untersuchungsanlagen innerhalb eines Experiments,

Anzumerken ist, daß bei den meisten Experimenten, in denen das betreffende Spiel nur einmal gespielt wird, die Teilnehmer einander vorher nicht kennen; außerdem wird den Spielern versichert, daß ihre Spielzüge geheim gehalten werden und ihre Bezahlung diskret erfolgen wird (s. Dawes u. a. 1986,1175).

110

4. Das Paradox der Wahlbeteiligung

da man dabei davon ausgehen kann, daß die Verzerrungen durch die Laborumgebung konstant bleiben. 70 Im Gegensatz zu der geringen Ausbeute an empirischer Literatur zur Mitgliedschaft in Interessengruppen und zu anderen Partizipationsformen als der Teilnahme an Wahlen gibt es eine Fülle von experimentellen Untersuchungen zu sozialen Dilemmata. Und anders als auf Umfragen beruhende Untersuchungen, die meist nur einen indirekten und bruchstückhaften Bezug zu theoretischen Aussagen haben, sind viele der Laborexperimente darauf angelegt, eine präzise abgegrenzte theoretische Frage zu beantworten. Solche Experimente lassen sich in zwei Kategorien unterteilen: Experimente, mit denen versucht wird, Rational-Choice-Hypothesen zu falsifizieren, indem man prüft, ob vermeintlich wirkungslose Variablen wie die interpersonelle Kommunikation in einem einmaligen Sozialdilemmaspiel nicht doch die Bereitschaft beeinflussen, sich für ein kollektives Anliegen einzusetzen; und Experimente, mit denen überprüft werden soll, ob Variablen, von denen erwartet wird, daß sie auf die Partizipation einwirken, dies auch tatsächlich tun.

Mit der Rational-Choice-Theorie unvereinbare Effekte Aus der Sicht der Spieltheorie sollte Kommunikation zwischen Spielern, die keine verbindlichen Übereinkünfte eingehen und einander nicht drohen können, in Sozialdilemma-Situationen keinen Einfluß auf das Kooperationsverhalten haben. Unabhängig davon, ob andere zu kooperieren versprechen, ist Defektion die dominante Strategie, so daß Spieler, die ihren finanziellen Gewinn maximieren wollen, immer defektieren sollten. In dem weiter oben beschriebenen Spiel, in dem einhundert Spieler mit einem Beitrag von je zehn Dollar für jeden eine Dividende von einem Dollar sichern könnten, ist die dominante Strategie, nichts zu geben; Beteuerungen des Gegenteils könnten mit Recht als Täuschungsversuch ausgelegt werden. Tatsächlich ist es aber so, daß Experimente, bei denen die Probanden miteinander kommunizieren dürfen, ein weitaus höheres Kooperationsniveau erzeugen als Untersuchungsanlagen, bei denen Kommunikation untersagt ist (Linder 1981). So stellten Dawes, McTavish und Shaklee (1977) fest, daß etwa 70 Prozent der Teilnehmer an einmaligen Acht-Personen-Dilemma-Spielen defektierten, wenn Kommunikation verboten war, aber nur 28 Prozent, wenn Kommunikation erlaubt war. Nun könnte man sagen, daß sich der Kommunikationseffekt durch „rationalen Altruismus" erklären läßt, weil Kommunikation freundschaftliche Gefühle und damit auch den Wunsch erzeugt, seinen Bekannten zu helfen (Elster 1986b). 71 Besonders interessant an diesem Kommunikationseffekt ist jedoch, daß er nur dann auftritt, wenn die kollektiven Vorteile der Gruppe zukommen, in der die Diskussion 70

Wir werden auf diese Probleme der internen und externen Validität in Kap. 6 zurückkommen, wenn wir uns mit Experimenten zu Verhandlungen im Gesetzgebungsprozeß beschäftigen. 71 Palfrey und Rosenthal (1988, 326) stellen diese Form des Altruismus als eine steigende Funktion des Gesamtnutzens dar, den die anderen aus dem von einem selbst geleisteten Beitrag ziehen, während die Höhe des Nutzens, den man aus dem Akt der Beitragsleistung als solchem zieht, konstant ist.

Experimentelle Ergebnisse

111

stattfindet (Schwartz-Shea und Simmons 1990).72 In einer interessanten Versuchsreihe teilten Dawes u. a. (1988) vierzehn Probanden in zwei Gruppen zu je sieben Mitgliedern ein. Die Probanden erhielten je einen 6-Dollar-Coupon, den sie entweder behalten oder für die Gruppe spenden konnten. Jede Spende erzeugte eine Dividende von zwölf Dollar, die je nach Untersuchungsanlage entweder auf sechs Spieler der anderen Gruppe oder auf die anderen sechs Spieler der eigenen Gruppe verteilt werden sollten. Wenn Unterhaltungen verboten waren, spendete ein Drittel der Probanden in den gemeinsamen Topf - unabhängig davon, welcher Gruppe er zukommen sollte. Bei der Gruppe, deren Spenden den Spielern der anderen Gruppe zugute kommen sollten, änderte sich daran auch nichts, wenn Kommunikation erlaubt war. Wenn das Geld aber in der eigenen Gruppe blieb, kletterte das Kooperationsniveau auf 69 Prozent. Damit niemand auf die Idee käme, daß diese Beobachtungen lediglich den Prozeß widerspiegeln, bei dem Menschen einander kennenlernen, Sympathie füreinander entwickeln und dann für die neu gewonnenen Freunde spenden, wiesen Dawes u. a. (1977) nach, daß Gruppengespräche, die nichts mit dem Zuteilungsproblem zu tun haben, keine Zunahme des Kooperationsniveaus erzeugen. Daß Individuen, die miteinander kommunizieren dürfen, trotz des Anreizes zur Defektion mit anderen aus ihrer Gruppe kooperieren, ist eine Sorte von Anomalie. Eine andere besteht darin, daß sich Spieler, obwohl es in einem Sozialdilemmaspiel eine dominante Strategie gibt und daher die Handlungen jeder einzelnen Person von den Entscheidungen der anderen eigentlich nicht beeinflußt werden dürften, sehr wohl vom Verhalten ihrer Mitspieler und der Beschaffenheit des Kollektivgutes beeindrucken lassen. Wenn „Verbündete", die sich unter die Probanden mischten, Kooperation oder Defektion vorführten, dann wirkten sich diese „Normen" auf nachfolgende Runden eines (endlich oft) wiederholten Gefangenendilemma-Spiels aus, an denen dann nur Probanden teilnahmen (Bettenhausen und Murningham 1991). Schroeder u. a. (1983), Samuelson u. a. (1986) sowie Fleishman (1988) stellten fest, daß Probanden in einem Allmende-Dilemma ihr Verhalten an das der anderen angleichen und die Situation dann verstärkt zum eigenen Vorteil ausnutzen, wenn sie erfahren, daß andere das auch getan haben. Eine Ausnahme zu diesem Muster bildet die Situation, in der die Probanden zu einer fest definierten Gruppe gehören; in diesem Fall führt die Gruppenidentität in der Regel dazu, daß mit zunehmender Erschöpfung der gemeinsamen Ressourcen die Kooperation zunimmt (Brewer und Kramer 1986; s. auch Kramer und Brewer 1984 und 1986 für weitere Varianten des Experiments). Wenn es in einem sozialen Dilemma um den Beitrag zu einer gemeinsamen Sache geht (anstatt um die Entnahme von Ressourcen aus einem gemeinsamen Topf), ergibt sich das umgekehrte Muster: die Probanden kompensieren die (angebliche) Nicht-Kooperation anderer dadurch, daß sie ihren eigenen Beitrag 72 Diese Hypothese vom rationalen Altruismus konnte sich, abgesehen von den Kommunikationseffekten, in einer Reihe von Experimenten nicht bewähren. Van de Kragt u. a. (1988) etwa stellten fest, daß weder die Anzahl der vom Beitrag eines Individuums Begünstigten noch die Gesamthöhe des Nutzengewinns einen Einfluß auf die Beitragsbereitschaft haben. Siehe auch Goetze und Galderisi 1989.

112

4. Das Paradox der Wahlbeteiligung

erhöhen (Fleishman 1988). Dieses Phänomen wurde ζ. B. in nicht-experimentellen Untersuchungen von Nachbarschaftsaktionen (Oliver 1984) beobachtet. Insgesamt heißt das also, daß Spiele, die mathematisch ganz ähnlich sind und daher auch ähnliche Ergebnisse erwarten lassen, Kooperationsniveaus erzeugen, die je nach dem sozialem Kontext, in dem sie stattfinden, beträchtlich variieren. 73 Von der Rational-Choice-Theorie vorhergesagte Effekte Wie steht es aber nun mit den Faktoren, denen die Spieltheorie Einfluß unterstellt? Zwei miteinander zusammenhängende Argumente betreffen Seitenzahlungen und Lernen. Daß die Nettovorteile aus dem eigenen Beitrag eine Rolle spielen, ist in gewissem Sinne tautologisch, da schließlich Veränderungen in den Auszahlungen jedes Spielers ein Dilemma in ein Nichtdilemma überführen können. Die Beobachtung, daß bei echten sozialen Dilemmata etwas weniger Kooperation stattfindet als in Quasi-Dilemma-Spielen, in denen man die Möglichkeit hat, einen für die Bereitstellung eines öffentlichen Gutes entscheidenden Beitrag zu leisten (Palfrey und Rosenthal 1988) ist folglich nicht gerade atemberaubend. 74 Dasselbe gilt für Experimente (Connolly, Thorn und Heminger 1992, erstes Experiment), aus denen hervorgeht, daß Kooperation abnimmt, wenn ihre Kosten steigen. Da wohl kaum jemand bezweifeln wird, daß kooperatives Verhalten bis zu einem gewissen Grad preiselastisch ist, ist auch dieser empirische Erfolg nicht besonders beeindruckend. Interessanter sind da schon Rational-Choice-Erklärungen, die Seitenzahlungen sozusagen durch die Hintertür einführen. Gelegentlich wird argumentiert, daß die Erwartung zukünftiger Interaktionen mit denselben Spielern rationale Akteure dazu veranlaßt, mehr kooperative Strategien zu wählen - sei es, um ihren Ruf innerhalb einer langfristig angelegten Gruppe zu schützen, sei es, weil sie bei Defektion Vergeltungsmaßnahmen von anderen befürchten (Axelrod 1984). Die erste Hypothese, 73 Von weiteren Experimenten, die von Rational-Choice-Modellen ex ante nicht vorhergesagte Wirkungszusammenhänge ergaben, berichten u.a.: MacDaniel und Sistrunk, nach deren Beobachtung mehr Menschen kooperieren, wenn man ihnen sagt, daß SO Prozent der anderen Spieler nicht kooperieren, als wenn man ihnen sagt, daß 50 Prozent der anderen Spieler kooperieren (1991); Komorita und Barth, deren Erkenntnis zufolge mehr Kooperation zustande kommt, wenn jeder Spieler flir die Kooperation anderer belohnt wird, als wenn er für die Defektion anderer bestraft wird (1985); Ostrom u. a., die feststellten, daß Spieler mehr Ressourcen einsetzen, um kooperatives Verhalten bei anderen durchzusetzen, als es Erwartungsnutzenmodelle voraussagen (1992) und Yamagishi, dessen Beobachtung in dieselbe Richtung zielt, daß Spieler, die sich in einem sozialen Dilemma befinden, aber die Möglichkeit haben, Ressourcen für die Bestrafung von Defekteren einzusetzen, eher kooperieren, obwohl das Bestrafungssystem ja selbst ein soziales Dilemma darstellt (1988). 74 Palfrey und Rosenthal (1988) argumentieren, daß die Gratifikationen des Altruismus Kooperation für manche Spieler zu einem rationalen Verhalten machen kann, und nehmen daher an, daß das Ausmaß von Altruismus ein unbekannter Faktor in der Nutzenfunktion jedes Spielers ist. In Anbetracht dieses Unsicherheitsfaktors ist es möglich, daß ein Spieler so viel Kooperation von Seiten anderer Spieler erwartet, daß seine eigene Kooperation für das Gesamtergebnis entscheidend wird. In ihrer Zusammenfassung der Ergebnisse verschiedener Versuche mit unterschiedlichen Spielerzahlen und unterschiedlichen kritischen Partizipationsschwellen kommen sie zu dem Fazit, daß die Wahrscheinlichkeit der Entscheidung filr eine kooperative Strategie mit der Zunahme der erwarteten Vorteile aus dieser Strategie steigt. FUr entgegengesetzte Ergebnisse siehe weiter unten.

Experimentelle Ergebnisse

113

die von anderen Anreizen als den vom Veranstalter des Versuchs kontrollierten monetären Auszahlungen abhängt, gilt nicht fttr Spiele, die die Probanden anonym und isoliert voneinander vom Computer aus spielen. Die zweite Hypothese, die aus einer von vielen Gleichgewichtslösungen für wiederholte Zwei-Personen-Gefangenendilemma-Spiele abgeleitet ist, läßt sich nicht ohne weiteres auf n-Personen-Situationen Ubertragen, vor allem dann nicht, wenn die Spieler keinerlei Information über die Defektion oder Kooperation einzelner Spieler haben. 75 Im übrigen würde das Ergebnis des folk theorem, wonach kooperative Resultate in wiederholten Spielen Nash-Gleichgewichte sein können, nicht für Experimente gelten, in denen die Probanden im voraus erfahren, wieviele Runden gespielt werden (Isaac u. a. 1984; Selten und Stroecker 1986; Andreoni 1988). Auch wenn man gelegentlich auf die Auffassung trifft, daß wiederholtes Spielen die Kooperation fördert, sind Spieltheoretiker doch häufiger der Ansicht, daß Kooperation abnimmt, je besser die Spieler die strategische Situation, in der sie sich befinden, verstehen und die Vorteile von Defektion erkennen. Angesichts der von Isaac, McCue und Plott (1985), Kim und Walker (1984) sowie Selten und Stroecker (1986) beschriebenen Experimente scheint diese Hypothese nicht ganz unbegründet zu sein. Andere Untersuchungen hingegen zeigen Verhaltensmuster, die mit Olsons Hypothese, daß unter dem Gewicht des Trittbrettfahrerproblems Kooperation schließlich zusammenbreche, nicht vereinbar sind. Isaac u. a. (1984, 129) beobachten, daß Kooperation nur dann nachläßt, wenn Investitionen in die Gruppe nur eine geringe Rendite bringen, wie in Isaac u. a. (1985) oder Kim und Walker (1984). Wenn die Erträge der Gruppe dagegen hoch sind, geht die Kooperation mit der Wiederholung eines Sozialdilemma-Spiels nicht zurück. Noch interessanter ist Andreonis Feststellung, daß Kooperation zwar rückläufig ist, wenn SozialdilemmaSpiele wiederholt werden, daß aber ein ,.Neustart" des Spiels zu einer abrupten Zunahme der Beiträge zum Kollektivgut führt (1988). Auch die zeitweilige Unterbrechung eines wiederholten sozialen Dilemmas, während der Kommunikation stattfinden kann, führt zu einem unmittelbaren Ansteigen der Kooperation (Ostrom und Walker 1991). Wiederholtes Spiel scheint den Beteiligten also keine Lektion über die Vorteile der Defektion zu erteilen. Die Spieler scheinen vielmehr kooperieren zu wollen, aber durch unkooperatives Verhalten anderer desillusioniert zu werden (Lowenstein, Bazerman und Thompson 1989). Bevor wir unsere Diskussion über den Beitrag der Rational-Choice-Theorie zum Verständnis von kooperativem Verhalten abschließen, noch ein Wort zu Experimenten, die sich mit Quasi-Dilemmata beschäftigen, in denen die Kooperation eines Individuums für die Bereitstellung eines öffentlichen Gutes ausschlaggebend ist. In dieser Situation kann Kooperation rational sein (d. h. die erwarteten Vorteile aus der Kooperation können die Auszahlung für Defektion übersteigen), wenn jeder Spieler 75

Die wirksame Bestrafung von Defektion in einem sozialen Dilemma setzt möglicherweise voraus, daB sich die Spieler vorab zu einer „Armageddon"-Strategie verpflichten, wonach alle kooperieren, solange niemand defektiert, aber alle nur noch defektieren, sobald irgend jemand einmal defektiert. Abgesehen davon, daB es schon theoretisch zweifelhaft ist, ob eine solche Strategie auf dem Papier funktioniert, ist ein derartiges Verhalten in der Realität nur schwer vorstellbar.

114

4. Das Paradox der Wahlbeteiligung

glaubt, daß gerade sein Beitrag die kollektive Anstrengung Uber die Schwelle hebt (Rapoport 1985). Zur Überprüfung dieser Hypothese entwarfen Dawes u. a. (1986) ein Dilemmaspiel mit einer solchen Schwelle, bei dem fünf von sieben Spielern je fünf Dollar einzahlen mußten, um für alle Spieler einen Bonus von zehn Dollar zu sichern. Kommunikation zwischen den Spielern war nicht erlaubt. Zudem mußte jeder Spieler in einem Fragebogen angeben, wie hoch er die Wahrscheinlichkeit einschätzte, daß sein Beitrag unzureichend, ausschlaggebend oder überflüssig war. Nicht nur 25 der 26 Defektoren setzten den Erwartungsweit der Defektion höher an als den der Kooperation, sondern auch sieben der neun Kooperateure (1192). Wenngleich also der Glaube an die entscheidende Bedeutung des eigenen Beitrags die Kooperation marginal steigern mag (s. aber Marwell und Ames 1980; Kerr 1989; Messick und Rütte 1992), ist er offensichtlich nicht Voraussetzung für kooperatives Verhalten.

Auf der Suche nach einer solideren Basis Die experimentell gewonnenen Daten über soziale Dilemmata sind keineswegs unangreifbar. Man kann darüber streiten, ob die besonderen Laborbedingungen die realen Entscheidungssituationen abbilden, in denen Menschen stehen, wenn sie von politischen Interessengruppen um Geld oder um ihre Zeit gebeten werden. Zur Verteidigung solcher Experimente kann man anführen, daß es gerade die Spende kleiner Geldsummen ist, um die Millionen von Pechvögeln angegangen werden, deren Telefonnummern oder Adressen in die Hände von Interessengruppen, Amtsträgern oder politischen Parteien gelangen. Andererseits ist angesichts der Tatsache, daß bei Experimenten die Zusammenkünfte potentieller Spender durch Dritte herbeigeführt werden, die verfügbaren Optionen stark reglementiert sind, das kollektive Unterfangen keinen ideologischen Gehalt hat und Verhandlungen meist innerhalb demographisch homogener Gruppen stattfinden, die externe Validität von Laborversuchen ungewiß. Aus genau diesen Gründen mögen Rational-Choice-Theoretiker die Schlußfolgerungen aus solchen experimentellen Untersuchungen ablehnen; dann aber geht die Last des empirischen Beweises auf sie selbst über, und zwar vor allem auf diejenigen, die meinen, daß die Rational-Choice-Theorie universell anwendbar sein sollte. „Eine gute Theorie sollte sich in jeder Umgebung bewähren", meint Ordeshook (1986, 434), und folglich „müssen wir sowohl negative als auch positive [unter Laborbedingungen gewonnene] Ergebnisse ernst nehmen". Nur darüber zu spekulieren, wie sich die Muster strategischen Verhaltens mit den Bedingungen verändern, unter denen ein Sozialdilemma-Spiel stattfindet, ist etwas ganz anderes, als alternative Experimente durchzuführen, die frühere Ergebnisse widerlegen oder erklären, warum eine Theorie, die sich im Labor schlecht bewährt hat, dennoch in der Realität funktionieren könnte.

Auf der Suche nach einer solideren Basis

115

Ein methodologischer Ansatz, der unter Beibehaltung der Vorteile des Experimentierens die externe Validität der Laboruntersuchungen verbessern könnte, ist das Feldexperiment. Ein neueres Beispiel für diese Art von Untersuchungsanlage ist Kaplowitz' und Fischers Studie Uber die Reaktionen auf schriftliche Spendenaufrufe für ein landesweites Referendum über ein Atomwaffenmoratorium (1985). Einer Stichprobe von Personen, die entsprechende Petitionen unterschrieben oder in Umlauf gebracht hatten, schickten sie je einen von vier Spendenaufrufen, deren Inhalt nach dem Zufallsprinzip variierte. In einigen der Anschreiben wurde besonders betont, daß vom Genuß dieses öffentlichen Gutes niemand ausgeschlossen werden kann, wenn es erst einmal bereitgestellt ist, und/oder daß jeder einzelne Beitrag für den kollektiven Erfolg wichtig bzw. im Gegenteil unbedeutend sei. Obwohl dieses spezielle Experiment keine eindeutigen Ergebnisse hervorgebracht hat, verdient das Forschungsdesign, in Anbetracht seiner Unaufdringlichkeit und Flexibilität bei künftigen Untersuchungen über Spenden, Mitgliedschaft und Aktivismus berücksichtigt zu werden. Seit Harold Gosnells klassischem Feldexperiment von 1927 über Wahlpropaganda und Wahlbeteiligung haben sich die Erforscher von Interessengruppen und sozialen Bewegungen kaum für randomisierte Untersuchungsanlagen interessiert. Selbst so elementaren Qualitätsanforderungen wie der Einbeziehung von Kontrollgruppen wurde von den Wissenschaftlern, die Rational-Choice-Hypothesen zu überprüfen versuchten, nur geringe Beachtung geschenkt. Ein Aufsatz nach dem anderen arbeitet die potentiellen Zutaten eines sozialen Dilemmas in einer gegebenen Situation heraus, von der Nachbarschaftsbeteiligung an Programmen zur Armutsbekämpfung (O'Brien 1974) über Maßnahmen von Gemeinden zur Beseitigung von Giftmüll (Harvard Law Review 1991) bis zur Ermordung unliebsamer Diktatoren (Olson 1991). Anhand dieser Darstellungen wird dann erklärt, warum kollektives Handeln in den beschriebenen Situationen nicht funktioniert, ohne andere hinreichende Erklärungen in Betracht zu ziehen. Das herausragendste - weil in der politikwissenschaftlichen Rational-Choice-Literatur offenbar allgegenwärtige - Beispiel für Argumentationen auf der Grundlage einer einzelnen hinreichenden Erklärung ist die Hypothese von der „rationalen Unwissenheit". Diese Hypothese, die als eine der größten Errungenschaften der Rational-Choice-Theorie (Tullock 1962, 337; 1967; 1975; 1979) und als Downs' „einflußreichster Beitrag" (Noll 1989,51) gepriesen wird, besagt, daß ein „Entscheidungsträger ... solange Informationen [beschafft], bis der Grenzertrag den ihm entstehenden Grenzkosten gleich ist" (Downs 1968, 214). 76 In vielen Situationen, in denen die Wahrscheinlichkeit gering ist, daß ein einzelner Bürger die Beschaffenheit oder Bereitstellung eines öffentlichen Gutes beeinflussen kann, überwiegen die Grenzkosten der Informationsbeschaffung in der Regel ihre Vorteile. Für manche Man beachte, daß diese Behauptung im Gegensatz zu dem steht, was gelegentlich als Merkmal rationaler Entscheidungsfindung gilt, wenn Rationalität einzig und allein im Hinblick auf die Effizienz der Zielverfolgung (ohne Rücksicht auf die potentiell idiosynkratischen oder schlecht fundierten Überzeugungen der Akteure) beurteilt wird. Verba und Nie (1972) sowie Converse (1975) ζ. Β. verbinden Rationalität nicht mit einem niedrigen, sondern mit einem hohen Informationsniveau.

116

4. Das Paradox der Wahlbeteiligung

Autoren ist diese Hypothese so selbstverständlich, daß sie in den Rang einer Prämisse erhoben wird (Weingast und Marshall 1988, 136). Ganz unterschiedliche Phänomene sind mit rationaler Unwissenheit erklärt worden: daß unliebsame gewählte Amtsträger nicht bestraft werden (Olson 1990), daß Wähler über die Gegenkandidaten ihrer Abgeordneten im Repräsentantenhaus so gut wie nichts wissen (Aldrich 1993, 262), daß die Grundprinzipien der Ökonomie der breiten Öffentlichkeit unbekannt sind (McKenzie 1976) und daß sich die öffentliche Meinung angeblich beliebig formen läßt.77 Noll (1989,52) etwa behauptet: „Politiker können aus zentralen Streitfragen Vorteile ziehen, indem sie sich den Wählern als Quelle kostenloser Informationen Uber ein wichtiges aktuelles Thema anbieten. Ein Beispiel ist die Stagflation Anfang und Mitte der siebziger Jahren; kostenlos informiert wurde darüber, daß reglementierte Industrieen ineffizient sind. Tatsächlich wurde häufiger geklagt, daß .Übertriebene Regulierung' die Wirtschaftsleistung untergrabe. Rational unwissende Wähler, die wegen der makroökonomischen Situation besorgt waren, mußten auf diese Information damit reagieren, daß sie sich für die Deregulierung der Wirtschaft aussprachen, obwohl eine auf vollständiger Information beruhende Analyse auch zu dem Schluß hätte kommen können, daß die Regulierung der Wirtschaft nur einen geringen Einfluß auf die gesamtwirtschaftliche Leistung hatte."

Gelegentlich beschäftigen sich Rational-Choice-Theoretiker auch mit der Frage, aus welchen Gründen sich rationale Bürger doch darum bemühen könnten, einschlägige Informationen zu sammeln. Sie bringen dann Faktoren ins Spiel wie etwa die intrinsische Freude, die Fans daran haben, Daten und Fakten über ihren Lieblingssport und ihre Lieblingsmannschaften zu erfahren (Ordeshook 1986, 187; Fiorina 1990). Keine der uns bekannten Untersuchungen unternimmt jedoch den Versuch, empirisch zu belegen, daß politische Unwissenheit durch das Problem kollektiven Handelns verursacht wird. 78 Statt dessen besteht die empirische Grundlage für die Behauptung, daß Rationalität zu Ignoranz führt, einzig und allein in der Beobachtung, daß politische Unwissenheit weitverbreitet ist. Schön und gut, aber im Vergleich womit? Weitverbreitete Ignoranz wird auch in solchen Bereichen beklagt, in denen es kein Problem kollektiven Handelns gibt. Viele Menschen verlieren ihr Geld dadurch, daß sie auf medizinische Pseudowissenschaft, falsche Gewinnversprechungen beim Glücksspiel oder unseriöse Börsenspekulationen hereinfallen, weil sie sozusagen „numerische Analphabeten" sind (Paulos 1988). „Kultureller Analphabetismus" ist trotz zahlreicher 77

McKenzie behauptet in einem Aufsatz, den Tullock (1979) unerklärlicherweise lobt, die Theorie der rationalen Ignoranz würde durch die Tatsache gestutzt, daß Studenten, die sich gezwungenermaßen mit Ökonomie beschäftigen, das im Seminar Gelernte später wieder vergessen. 78 Einer Überprüfung nahe kommt Popkin (1991), wenn er feststellt, daß mehr Menschen die Höhe ihres Cholesterinspiegels kennen als die Namen ihrer gewählten Repräsentanten (24) und daß „der Prozentsatz von Erwachsenen, der in einer gegebenen Woche die Verbraucherinformation auf Nahrungsmittelpackungen liest, größer ist als die Anzahl deijenigen, die den Namen ihres Kongreßabgeordneten kennen!" (239). Wenn der Wissensstand nicht daran gemessen wird, ob man sich an den Namen eines Abgeordneten erinnert, sondern ob man ihn wiedererkennt, ist die erste Behauptung möglicherweise falsch. Außerdem ist zu vermuten, daß der Umfang des wöchenüichen Konsums von politischen Nachrichten im Vergleich mit dem des Lesens von Nahrungsmitteletiketten eher gut abschneidet.

Auf der Suche nach einer solideren Basis

117

kostengünstiger Möglichkeiten, das eigene Leben durch das Erlernen von Ausdrükken wie a capella,

Akklimatisation

u n d Es ist nicht alles Gold, was glänzt zu berei-

chern, allgegenwärtig (Hirsch 1987, 152 f.). Ähnlich düster bewertet wurden auch schon die Kenntnisse des breiten Publikums über Themen wie Bluthochdruck, Sicherheit im Haushalt oder die rechtlichen und bürokratischen Hindernisse bei der Beantragung von Sozialhilfe. Vergleicht man den allgemeinen Wissensstand über Kollektivgüter mit dem über Angelegenheiten von persönlichem Belang, so ist der Zusammenhang zwischen Ignoranz und dem instrumentellen Wert von Wissen keineswegs offensichtlich. 79 Die Literatur zur rationalen Unwissenheit zeugt von dem nachlässigen Empirizismus, der Rational-Choice-Theoretiker davon überzeugt zu haben scheint, daß ihre Sicht des kollektiven Handelns echte Erkenntnis vermittelt. Die gängige RationalChoice-Erklärung kollektiven Handelns stützt sich noch immer hauptsächlich auf das Faktum, das auch Olsons Theorie zugrunde liegt, nämlich das Ausmaß, in dem Menschen Geld, Zeit, Information oder Arbeit in politische Angelegenheiten investieren. Sucht man jenseits des absoluten Niveaus kollektiver Aktivitäten nach anspruchsvolleren empirischen Tests, so stellt man fest, daß die empirische Basis für die landläufigen Rational-Choice-Behauptungen, die aus Olsons Arbeit abgeleitet wurden, eher dünn ist, weil entweder die relevanten Überprüfungen gar nicht erst vorgenommen wurden oder aber die wenigen verfügbaren Daten eher Probleme als Erkenntnisse der Rational-Choice-Theorien aufdecken. Das gilt vor allem für die interessante Folgerung, daß kollektive Vorteile kein Anreiz für Massenaktionen sind. Wäre da nicht die absolute Höhe der politischen Partizipation - die, sofern sie positiv ist, für Varianten der Theorie, die Altruismus ausschließen, nach wie vor eine Anomalie darstellt - , würden Rational-Choice-Erkenntnisse über kollektives Handeln nicht höher bewertet als die entsprechenden Erklärungen der Wahlbeteiligung. Denn in keinem der beiden Fälle ist nachgewiesen worden, daß der Anreiz zum Trittbrettfahren der Kausalmechanismus ist, der massenhaftes Handeln verhindert. Was die Rational-Choice-Modelle anbelangt, die über Olsons Theorie hinausgehen, indem sie den Bereich der Vorteile ausdehnen, die zu den selektiven Anreizen zählen, beanstanden wir nicht etwa, daß die Daten mit der Theorie kollidieren, sondern im Gegenteil, daß solche Erklärungen tautologisch sind bzw. lediglich im nachhinein empirische Regelmäßigkeiten erklären, die schon frühere Generationen von Wissenschaftlern, die nicht im Rahmen des Rational-ChoiceAnsatzes arbeiteten, entdeckt haben. Faktoren, von denen festgestellt wurde, daß sie sich auf die Beteiligung an kollektiven Unternehmungen auswirken, werden jetzt

Kritisieren läßt sich auch die damit verwandte Hypothese, daß „Wähler Informationswege abkürzen und sich kostensparender Mittel bedienen, wenn sie Uber Parteien, Kandidaten und politische Fragen nachdenken" (Popkin 1993, 34). Erstens ist die Nullhypothese, daß Wähler ceteris paribus an kostspieliger Information interessiert sind, unglaubwürdig. Zweitens ist nicht klar, warum rationale Wähler bereit sein sollten, überhaupt irgendwelche Kosten freiwillig auf sich zu nehmen, „um die Grenzen ihres Wissens zu Uberwinden" (18 f.), wenn doch die Qualität des Wahlergebnisses ein öffentliches Gut ist.

118

4. Das Paradox der Wahlbeteiligung

einfach in der Sprache der Anreize beschrieben, so daß die Vorhersagen aus Olsons Theorie ihre Präzision verlieren. Ironischerweise führt die Verwässerung von Olsons empirischen Prognosen dazu, daß Nicht-Partizipation - einst als erfolgreiche Vorhersage seiner Theorie bejubelt - aus dem revisionistischen Modell nicht mehr eindeutig folgt. Für künftige Untersuchungen kollektiven Handelns empfehlen wir zweierlei. Erstens sollte die Ziehung der Stichproben von Beobachtungen mit weitaus größerer Sorgfalt erfolgen. Die Literatur wird von Fallstudien über bestehende soziale Bewegungen beherrscht, die sich häufig nur auf die Präferenzen und Ansichten der Mitglieder dieser Gruppen konzentrieren. Diese Art der Stichprobenwahl führt oft zu einseitigen Schlußfolgerungen (Achen 1986). Besser wäre es, Partizipationsentscheidungen dadurch zu untersuchen, daß man Stichproben von Entscheidungssituationen zieht, die sich im Hinblick auf solche unabhängigen Variablen wie kollektive Vorteile, selektive Anreize und vorherrschende soziale Normen unterscheiden. Entwurf und Durchführung solcher Untersuchungen ist sicher eine mühsame Arbeit. Andererseits kann man sich nur schwer vorstellen, wie Fortschritt erzielt werden soll, ohne einen scharfen Schlußstrich zu ziehen unter Stichproben, die nach Gesichtspunkten der Bequemlichkeit gewählt werden, und unter spekulative Rekonstruktionen vom Lehnstuhl aus, wie sie bis zum heutigen Tag in diesem Bereich die Norm sind. Die andere Empfehlung wiederholt eine Überlegung, die wir bereits in Kapitel 4 angesprochen haben: Es ist wichtig, Rational-Choice-Erklärungen von anderen Erklärungsansätzen weiterhin analytisch abzugrenzen. Olsons Theorie des kollektiven Handelns hat sicherlich das Potential, bestimmte Verhaltensweisen zu erklären; es ist falsch, die Theorie auszuweiten, um vermeintliche Anomalien mit einzuschließen, anstatt eine empirisch überprüfbare Liste der Bedingungen zu erarbeiten, unter denen Olsons Logik tatsächlich gilt. Es lassen sich eine ganze Reihe von Linien vorstellen, entlang deren diese Grenzziehung (oder Abstufung) verlaufen könnte, vor allem im Hinblick auf die sozialen Zusammenhänge, unter denen Partizipation zu einer aktiv in Betracht gezogenen Option wird. Mit wem und unter welchen Umständen ist der Entscheidungsträger zu partizipieren aufgefordert? 80 In welchem Ausmaß werden Entscheidungsträger durch die Situation ermutigt, sich nach dem Verhalten anderer zu richten? Gehen die Opportunitätskosten, die den Entscheidungsträger erwarten, aus der Situation deutlich hervor? Man könnte sicher noch viel weiter gehen und interpersonelle Unterschiede im strategischen Denken oder in den Einstellungen zum kooperativen politischen Handeln einbeziehen. Irgendwann gelangt man dann an einen Punkt, an dem man sich fragen muß, ob der Grenznutzen, den das entsprechend angereicherte theoretische Gefüge einbringt, den damit verbundenen Verlust an Sparsamkeit noch überwiegt. Unter Berücksichtigung dieser 80 Man könnte ζ. B. erwarten, daß ein Zusammenhang besteht zwischen den kollektiven Vorteilen, die jemand erhält, und seiner Bewertung der selektiven Anreize, die die Gruppe anbietet. Andernfalls wäre nicht nachzuvollziehen, warum nicht private Anbieter die Preise für selektive Vorteile (ζ. B. Versicherungsschutz) unterbieten können, die von Interessengruppen in die Höhe getrieben werden, um Einnahmen ftlr Gruppenaktivitäten bereitzustellen (Hardin 1982, 33 f.).

Auf der Suche nach einer solideren Basis

119

Grenzen kann eine solche Veränderung des Forschungsschwerpunktes jedoch nicht nur das Studium von Gruppen und sozialen Bewegungen voranbringen, sondern auch unser Verständnis davon erweitern, wann und wo in der Massenpolitik strategische Überlegungen wahrscheinlich eine wichtige Rolle spielen.

120

6. Gesetzgebung und Abstimmungsparadox

6. Gesetzgebung und Abstimmungsparadox

Daß sich die Rational-Choice-Theorie so schwer damit tut, Wahlbeteiligung und kollektives Handeln zu erklären, liegt zum großen Teil daran, daß nicht ganz klar ist, welche Rolle der Rationalitätsbegriff bei der Erklärung des betreffenden Verhaltens spielt. Wählen zu gehen ist irrational, wenn man beabsichtigt, damit das Wahlergebnis zu beeinflussen, aber es ist durchaus rational, wenn man sein pflichtbewußtes Gewissen beschwichtigen will. Und die Kooperation in Sozialdilemmaspielen ist irrational, wenn man monetäre Auszahlungen maximieren und dominante Strategien wählen will, aber völlig rational, wenn man soziale Mißbilligung vermeiden möchte. Im Grunde genommen sind die Aussagen der Rational-Choice-Theorie zu diesen Formen politischer Partizipation nichts anderes als eine Menge „dicker" Annahmen über die Arten von Befriedigung, die Menschen aus ihren Handlungen ziehen. Dagegen sind die meisten räumlichen Modelle gesetzgeberischer Entscheidungen im wesentlichen „dünne" Theorien; ihre theoretischen Hauptaussagen folgen aus der geometrischen Anordnung der Präferenzen der Abstimmenden und nicht aus den Zielen, die die Gesetzgeber jeweils verfolgen. Anstoß fllr einen Großteil dieser Literatur ist die Faszination, die von dem Potential für Ungleichgewichte im Gesetzgebungsprozeß ausgeht. Wenn politische Alternativen auf zwei oder mehr Dimensionen gleichzeitig bewertet werden (ζ. B. Waffen versus Butter), kann fast immer eine Mehrheit dazu gebracht werden, den status quo durch einen Alternativvorschlag zu ersetzen, der dann selbst wieder durch eine neue Mehrheitskoalition gefährdet werden kann, und so weiter. Wie die Präferenzen der Gesetzgeber auch verteilt sind: Die Mehrheitsregel ist fast immer instabil in dem Sinne, daß einmal getroffene politische Entscheidungen durch eine andere Mehrheitskoalition gekippt werden können. Demzufolge kann man theoretisch eine Folge von Abstimmungen konstruieren, bei der die zuerst getroffene Entscheidung nach und nach durch Entscheidungen für jede andere zur Wahl stehende Maßnahme abgelöst wird, die dann wiederum der ursprünglichen Entscheidung weichen, und immer so weiter - ein Phänomen, das unter der Bezeichnung „zyklische Mehrheiten" bekannt geworden ist (Arrow 1951; Plott 1967; McKelvey 1976; Bell 1978; Schofield 1978, 1983; Cohen 1979; Rubenstein 1979). Es handelt sich hierbei genau um jenes Abstimmungsparadox, das Mueller (1989) in seinem Literaturüberblick als das wohl größte intellektuelle Problem beim Studium von Public Choice bezeichnet hat. Dieses Kapitel wird mit einer Illustration und einer Zusammenfassung der wichtigsten Merkmale des Abstimmungsparadoxons in gesetzgebenden Gremien beginnen. Im ersten Abschnitt wollen wir kurz einige Beispiele dafür vorstellen, wie die kooperative Spieltheorie zur Modellierung von Gesetzgebungsverhalten benutzt wurde, um Leser, die mit räumlichen Modellen nicht vertraut sind, Uber einige grundlegende Begriffe sowie die wichtigsten theoretischen Einsichten zu informieren. Im zweiten Abschnitt geben wir dann einen Überblick über die nicht-experi-

Instabilität, zyklische Mehrheiten und die Manipulation der Tagesordnung

121

mentelle Literatur zu zyklischen Mehrheiten und Instabilität. Die Probleme, die auftreten, wenn nur bestätigende Fälle herangezogen, die Daten zugunsten der Theorie interpretiert und alternative Erklärungsansätze nicht berücksichtigt werden, treten hier deutlich zutage. Im dritten Abschnitt untersuchen wir Laborexperimente, die anders als die Untersuchungen zum kollektiven Handeln - vor allem von Befürwortern der Rational-Choice-Theorie durchgeführt wurden. Die Qualität der empirischen Überprüfung ist hier zwar höher, aber ernste methodologische Probleme gibt es noch immer. Dazu gehört vor allem die Fragwürdigkeit von Tests, bei denen analytische Sätze (Theoreme) empirisch überprüft werden. Wir beenden das Kapitel mit einer Erörterung verschiedener Herausforderungen, die diese methodologischen Probleme für die nicht-kooperative Spieltheorie - die allmählich an die Stelle der kooperativen rückt - darstellen.

Instabilität, zyklische Mehrheiten und die Manipulation der Tagesordnung Stellen Sie sich vor, sie wären Politikwissenschaftler und Mitglied eines Universitätsausschusses, der mit der Aufgabe betraut ist, die Bezüge der Professoren festzulegen. Das Gremium hat fünf Mitglieder und entscheidet mit einfacher Mehrheit. 81 Nach den geltenden Regeln hat jedoch der Ausschußvorsitzende einige besondere Befugnisse: Nur er kann Veränderungsvorschläge einbringen, die eine Mehrheit der Mitglieder dann beschließen kann. Zudem kann er jederzeit die Vertagung der Ausschußsitzung beschließen; in diesem Fall tritt dann jeweils der letzte angenommene Antrag in Kraft. Wurde überhaupt keine Entscheidung getroffen, gelten die früheren Beschlüsse des Gremiums weiter. Um das Beispiel ein wenig plastischer zu machen, nehmen wir an, daß die Universitätspräsidentin den Ausschuß aufgefordert hat, zwei Entscheidungen zu treffen. Die erste betrifft die Neufestlegung der Bezüge für Professoren der Politikwissenschaft, die sich derzeit auf magere 70 000 Dollar im Jahr belaufen. Mitglieder des Ausschusses sind ein Astronom (Prof. A), eine Dermatologin (Prof. D) und ein Elektrotechniker (Prof. E), die alle nicht besonders daran interessiert sind, die Lage der Kollegen aus der Politikwissenschaft zu verbessern. Prof. Α und Prof. D halten sogar 55 000 Dollar für das angemessenste Jahresgehalt für Politologen, womit sie noch unter dem status quo liegen. Der mitfühlendste von den dreien, der Elektrotechniker, zieht den status quo jeder Alternative vor. Sie selbst (Prof. B) hingegen halten Bezüge von 95 000 Dollar für wünschenswert. Bleibt also nur noch der Vorsitzende (Prof. C), der, wie sich herausstellt, für noch größere Anhebungen ist als Sie selbst. Seit Jahren schon ist er mit der UniversiDer Einfachheit halber nehme man an, daß Enthaltungen nicht erlaubt sind, so daß mindestens drei Stimmen benötigt werden, um eine Mehrheit zu schaffen.

122

6. Gesetzgebung und Abstimmungsparadox

tätspräsidentin im Zwist über die Höhe der Bezüge für das wissenschaftliche Personal; während die Präsidentin die Kosten möglichst niedrig halten will, plädiert der Vorsitzende für deutlich höhere Gehälter, um renommiertere Kollegen für die Universität zu gewinnen. Der Einfachheit halber sei angenommen, daß bei der Entscheidungsfindung andere Überlegungen, Seitenzahlungen, Drohungen der Präsidentin und ähnliches keine Rolle spielen. Darüber hinaus wollen wir annehmen, daß, wie in Abbildung 6.1 dargestellt, jedes Mitglied nicht nur eine bestimmte Alternative allen anderen vorzieht und damit einen sogenannten „Idealpunkt" hat, sondern auch Vorschläge zunehmend unattraktiv findet, je weiter sie von diesem Idealpunkt entfernt sind. 82 Insbesondere sei angenommen, daß sie gegenüber Vorschlägen, die - ausgedrückt in Dollar - von ihrem jeweiligen Idealpunkt gleich weit entfernt liegen, indifferent sind. (Leser, deren eigene Erfahrungen mit universitären Gremien von dieser Annahme abweichen, mögen ihren Realitätssinn für die Zwecke des Beispiels einen Augenblick hintanstellen.) Prof. Α und Prof. D ziehen also einen Gehaltsvorschlag von 60 000 Dollar einem von 65 000 Dollar vor, während sie zwischen 40 000 Dollar und 70 000 Dollar, dem status quo, keine Präferenz haben. 83 Und schließlich wollen wir annehmen, daß alle Ausschußmitglieder immer für die von ihnen jeweils am meisten präferierte Alternative stimmen, daß sie also bei der Entscheidungsfindung „aufrichtig" sind. 84 Der Vorsitzende eröffnet nun die Sitzung und schlägt vor, die Bezüge der Professoren der Politikwissenschaft von 70 000 auf 80 000 Dollar anzuheben. Dieser Vorschlag wird mit den Stimmen von A, D und Ε abgelehnt. Der Vorsitzende zieht sich nun mit Ihnen und dem Elektrotechniker zur Beratung in eine stille Ecke zurück. Sie und der Vorsitzende versuchen, den Elektrotechniker für einen Kompromißvorschlag in Höhe von 75 000 Dollar zu gewinnen, aber er läßt nicht mit sich handeln. Er bekräftigt noch einmal, daß ihm nichts lieber sein könnte als der status quo, und erinnert außerdem daran, daß jeder Versuch, die Bezüge aufzustocken, automatisch auf Ablehnung bei den Professoren Α und D stoßen werde. Es sieht also so aus, als seien weitere Verhandlungen sinnlos. Prof. E's Stärke beruht auf seiner Position als sogenannter „Medianwähler" unter den fünf Ausschußmitgliedern, wenn man sie entsprechend ihrer Präferenzen entlang einer einzigen Entscheidungsdimension (nämlich der Frage, um wieviel das Einkommen der Politikwissenschaftler gesenkt

82 Durch diese Bedingung wird die „Eingipfligkeit" gewährleistet, also die Annahme, daß eine Nutzenfunktion ein einziges Maximum hat und daß Vorschläge, die entlang einer Entscheidungsdimension angeordnet sind, stetig an Wert verlieren, je weiter sie sich rechts oder links von der Position befinden, die die betreffende Person am meisten bevorzugt. 83 Wir nehmen also, anders ausgedrückt, an, daß die Präferenzen der Ausschußmitglieder durch kreisförmige Indifferenzkurven beschrieben werden. Um unser Beispiel nicht unnötig zu verkomplizieren, behalten wir diese Annahme bei, wenn wir uns im folgenden mit Präferenzen auf zwei Dimensionen beschäftigen, nämlich denen der Bezüge von Politikwissenschaftlern und von Elektrotechnikern. 84 Weiter unten werden wir uns mit den Implikationen und der Haltbarkeit dieser Annahme beschäftigen.

Instabilität, zyklische Mehrheiten und die Manipulation der Tagesordnung

123

oder erhöht werden sollte) anordnet. 85 Unabhängig davon, ob der Vorsitzende vorschlägt, die Gehälter zu erhöhen oder zu senken, kann Prof. Ε immer die von ihm am meisten bevorzugte Entscheidung erwirken, indem er mit den jeweils anderen beiden Ausschußmitgliedern, die durch die Veränderung des status quo einen Verlust erleiden würden, eine Mehrheitskoalition bildet (Black 1958). 86 A D

E

55

70

Β

C

95

100

Bezüge in 1 000 Dollar

Abb. 6.1: Präferenzen der Ausschußmitglieder hinsichtlich der Bezüge für Politikwissenschaftler

Um in die Koalition zwischen den Professoren A, D und Ε einen Keil zu treiben, stellt der Vorsitzende das Problem der Bezüge für die Politikwissenschaft zunächst einmal zurück und wendet sich der zweiten Aufgabe des Gremiums zu, nämlich der Fesdegung der Gehälter für die Assistenzprofessoren im Fach Elektrotechnik. Das gefällt Ihnen gar nicht, denn jetzt kommt eine Meinungsverschiedenheit zwischen Ihnen und dem Vorsitzenden auf den Tisch: Sie würden nämlich gerne das Einkommen der Elektrotechniker von gegenwärtig 80 000 auf 55 000 Dollar senken, während der Vorsitzende es auf 100 000 Dollar anheben möchte. Die anderen drei Ausschußmitglieder liegen mit ihren Gehaltsvorstellungen zwischen Ihnen und dem Vorsitzenden. Die zweidimensionale Darstellung der Präferenzenverteilung im Ausschuß, bei der die Bezüge der Politikwissenschaftler auf der horizontalen und die der Elektrotechniker auf der vertikalen Achse abgebildet werden, zeigt, daß die Professoren A, D und Ε eine plausible Koalition bilden (Abb. 6.2). Als der Vorsitzende vorschlägt, die Bezüge der Elektrotechniker zu erhöhen, erweist sich Prof. E, dessen Idealpunkt (80 000 Dollar) die Medianposition des Ausschusses darstellt, erneut als unüberwindliches Hindernis für Veränderungen. Das ist durchaus erfreulich für Sie, da Sie ja auf Prof. E's Seite stehen, wenn es darum geht, die Gehälter der Elektrotechniker im Zaum zu halten. Es sieht so aus, als würde sich am status quo in absehbarer Zukunft nichts ändern. Doch nun beschließt der Vorsitzende, eine neue Taktik zu versuchen: Er schlägt eine Paketlösung vor, die eine Erhöhung der Bezüge sowohl der Politikwissenschaftler als auch der Elektrotechniker um jeweils 10 000 Dollar umfaßt. Prof. Ε ist natürlich dagegen; und mit Hilfe der Stimmen von Α und D erreicht er die Ablehnung auch dieses Vorschlags. An diesem Punkt schließlich weist Prof. Ε den Vorsitzenden darauf hin, daß der status quo85

Bei einem Gremium mit einer ungeraden Anzahl von Ν Abstimmenden und bei Zählung von links auf einem eindimensionalen Entscheidungskontinuum ist der K-te Abstimmende der Medianwähler,

mitK=^. 8

*> Man beachte im übrigen, daß das Modell davon ausgeht, daß mit dem Wechsel von einer Koalition zu einer anderen keine Transaktionskosten verbunden sind; ebensowenig entstehen den Spielern Kosten oder Vorteile durch den Zusammenschluß mit bestimmten Koalitionspartnern.

124

6. Gesetzgebung und Abstimmungsparadox

Punkt einen „Kern", d. h. ein Mehrheitsregel-Gleichgewicht bildet, da keine Mehrheitskoalition aufrichtig abstimmender Ausschußmitglieder einen Anreiz hat, einen Alternativvorschlag zu unterstützen, der mit Prof. E's Idealpunkt unvereinbar ist.87 Weitere Vorschläge des Vorsitzenden sind folglich sinnlos, und die Sitzung wird geschlossen.

Ä

Vorgeschlagene Gehälter für Professoren der Politikwissenschaft (in 1 000 Dollar) Abb. 6.2: Präferenzenkonstellation des Ausschusses für Dozentenbezüge

Wenig später wird Prof. Ε emeritiert. Damit wird auch sein Sitz im Ausschuß vakant. Das gibt der Präsidentin Gelegenheit, ihren Einfluß zugunsten einer noch stärkeren Deckelung der Bezüge geltend zu machen: Sie ernennt einen anderen Elektrotechniker (Prof. E'), der noch geiziger ist, wenn es um die Bezahlung von Politikwissenschaftlern geht. Anläßlich der nächsten Ausschußsitzung befürchten Sie das Schlimmste, da Prof. E' - wie schon sein Vorgänger - auf beiden Gehaltsdimensionen die Medianposition hält (siehe Abb. 6.3). Wenn also der Vorsitzende Vor87

FUr eine Erläuterung der Bezeichnung „Kern" und ähnlicher Begriffe s. Ordeshook 1986. Zagare (1984, 76) charakterisiert die Menge der Vorschläge, die den Kern bilden, wie folgt: „Kein Individuum und keine Gruppe hat zugleich die Möglichkeit und den Anreiz, ein soziales Arrangement zu verändern, wenn die gegebene Situation im Kern liegt." Streng genommen, handelt es sich beim Kern um eine Menge, die auch dann „existiert", wenn sie leer ist. Wir werden uns jedoch der mehr umgangssprachlichen Verwendung des Ausdrucks anschließen und sagen, daß es keinen Kern gibt, wenn die Kernmenge leer ist. Da in unserem Fall die Änderungsmöglichkeiten durch das Vorschlagsrecht des Vorsitzenden beschränkt sind, besteht der Kem hier aus den Ergebnissen auf dem Geradenabschnitt, der die Idealpunkte von Ε und C miteinander verbindet.

Instabilität, zyklische Mehrheiten und die Manipulation der Tagesordnung

125

schläge macht, die jeweils nur eines der beiden Probleme aufgreifen (d. h. entweder die Änderung der Bezüge der Politikwissenschaftler oder die der Elektrotechniker), nicht aber beide zusammen, dann stellt der Idealpunkt von Prof. E' den allseitigen Median dar, was auch als der „stabile Punkt" bezeichnet wird.

(Vorsitzender) .C A \



E' (status quo)

\ \

D

Β

50

60

70

80

90

100

110

Vorgeschlagene Gehälter für Professoren der Politikwissenschaft (in 1 000 Dollar) Abb. 6.3: Präferenzenkonstellation nach Ablösung von Ε durch E'

Was Sie aber nicht wissen ist, daß der Vorsitzende seit seiner Niederlage gegen Prof. Ε seine Kenntnisse der räumlichen Abstimmungstheorie aufgefrischt hat. Anstatt die beiden Gehaltsfragen einzeln zu erörtern und so beim Idealpunkt von E' zu landen (Kramer 1972),88 macht der Vorsitzende nun einen Uberraschenden Änderungsvorschlag, den die Kollegen A, D und E' jedoch durchaus begrüßen: Er schlägt vor, die Bezüge der Politikwissenschaftler zu senken und gleichzeitig die Bezüge der Elektrotechniker in vergleichsweise etwas geringerem Umfang anzuheben (siehe Abb. 6 . 4 ) . Z u Ihrer Bestürzung wird der Vorschlag angenommen, und es sieht schon so aus, als habe sich der Vorsitzende dem neuen Präferenzengleichgewicht gebeugt und den Kostendämpfungsplänen der Präsidentin zur Durchsetzung verhol-

88

Da wir angenommen haben, daB die Indifferenzkurven kreisförmig sind (so daß eine Änderung der Bezüge um eine Mark die gleiche Nutzenveränderung verursacht, unabhängig davon, ob es um das Einkommen von Politikwissenschaftlern oder Elektrotechnikern geht), wäre selbst bei raffinierten Abstimmungsstrategien das Ergebnis der stabile Punkt. Wir gehen zwar davon aus, daß alle immer aufrichtig abstimmen, lassen es aber zu, daß die Person, die die Alternativen festlegt, Veränderungsvorschläge einbringt, die ihren eigenen Interessen zuwiderlaufen.

126

6. Gesetzgebung und Abstimmungsparadox

fen. Da bewegt sich der Vorsitzende aber unerwarteterweise wieder ein Stück auf Sie zu, indem er eine weitere Anhebung für beide Fächer (von Punkt 1 nach 2) vorschlägt, die Sie zusammen mit den Stimmen von Prof. Α und dem Vorsitzenden beschließen. Aber es wird noch besser, denn der Vorsitzende schlägt nun vor, die Bezüge der Elektrotechniker zu kürzen und zugleich die der Politologen zu erhöhen (von Punkt 2 nach 3) - ein Antrag, dem Sie, Prof. D und der Vorsitzende selbst zur Annahme verhelfen. Ihre freudige Erregung läßt jedoch nach, als diesem Vorschlag ein weiterer folgt, der die bisher steilste Gehaltserhöhung für Elektrotechniker bei gleichzeitiger Kürzung der Bezüge für Sie und Ihre Kollegen (auf Punkt 4) vorsieht und der mit den Stimmen von A, E' und dem Vorsitzenden angenommen wird. Das Blatt wendet sich aber schnell wieder zu Ihren Gunsten, als der fünfte Vorschlag mit Unterstützung des Vorsitzenden und Prof. D's verabschiedet wird. Wie Abbildung 6.4 zeigt, führt der Kampf zwischen den beiden Koalitionen {B, C, D} und {A, C, E'} zu immer drastischeren Entscheidungsumschwüngen, so daß beim achten Vorschlag die Elektrotechniker bei über 115 000 Dollar liegen und beim neunten Vorschlag auch die Bezüge der Politologen endlich sechsstellig sind! Erst der zehnte Vorschlag deckt auf, worauf der Vorsitzende aus ist: Gegenüber Vorschlag 9 gewinnt der Idealpunkt des Vorsitzenden die Unterstützung von Α und E'. Trotz der Bemühungen der Präsidentin, den Ausschuß mit Gesinnungsgenossen zu besetzen, ist die zuletzt getroffene Entscheidung alles andere als kostendämpfend. Als die Sitzung schließt, stehen Sie schlechter da als zuvor, denn die Bezüge der Politikwissenschaftler wurden zwar deutlich angehoben, aber eben auch die der Elektrotechniker.

Vorgeschlagene Gehälter für Professoren der Politikwissenschaft (in 1 000 Dollar)

Abb. 6.4 Manipulation der Alternativen und Höhe der Bezüge

Instabilität, zyklische Mehrheiten und die Manipulation der Tagesordnung

127

Betrachtet man die Vorgänge im Ausschuß noch einmal im einzelnen, so wird deutlich, wie der Vorsitzende diesen vollständigen Entscheidungsumschwung bewerkstelligt hat. In Tab. 6.1 wird die in Abb. 6.4 dargestellte Abfolge der Vorschläge auf verschiedenen Kreisbahnen in eine verständlichere Menge geordneter Rangfolgen übersetzt. Der status quo sowie die zehn Veränderungsvorschläge sind entsprechend ihres Stellenwertes auf den Präferenzlisten der einzelnen Ausschußmitglieder angeordnet. Je weiter oben ein Vorschlag auf einer Liste steht, desto mehr wird er von dem betreffenden Ausschußmitglied bevorzugt. Eine Untersuchung der Präferenzordnungen zeigt, daß es unter den elf Entscheidungsoptionen keinen CondorcetGewinner gibt, d. h. keine Option, die in einer paarweisen Abstimmung alle anderen besiegen würde. 90 Folglich gewinnt der erste Vorschlag gegenüber dem status quo mit Hilfe der Koalition von {A, D, E'}. Bei der nächsten Abstimmung ersetzen {A, B, C} dieses Ergebnis durch Vorschlag 2. Dieser wiederum verliert gegen den dritten Vorschlag, der die Unterstützung der Koalition {B, C, D} hat. Von diesem Punkt an setzen die Koalitionen {A, C, E'} und {B, C, D} abwechselnd die Vorschläge 4 bis 10 durch. Tabelle 6.1: Präferenzordnungen der Ausschußmitglieder bezüglich der Vorschläge

Prof. A

Prof. Β

2

9

1

7

4

5

9

3

2

3

8

2

4 3

status quo 6

Prof. C 10 status quo

status quo

Prof. D 1 status quo

Prof. E' 1 status quo

7

5

8

10

6

4

6

3

2

5

7

5

6

8

9

7

5

1

10

4

4 3

7

6

2

8

10

9

8

1

10

9

Dieses Ergebnis ist vor allem deshalb bemerkenswert, weil sich Vorschlag 10 gegenüber keinem anderen Vorschlag hätte durchsetzen können als gegenüber Vorschlag 9. Schließlich waren bis auf den Vorsitzenden alle Ausschußmitglieder mit dem ursprünglichen Zustand zufriedener als mit der Entscheidung, auf die man sich am Ende geeinigt hat. Warum also haben sie sich auf jene Abfolge von Schritten eingelassen, die im zehnten Vorschlag gipfelte? Im nachhinein betrachtet scheint ein derart „kurzsichtiges" oder „naives" Verhalten den Interessen der AusschußmitglieBevor Ε durch E' ersetzt wurde, war dagegen der status quo ein Condorcet-Gewinner.

128

6. Gesetzgebung und Abstimmungsparadox

der ganz offensichtlich zuwiderzulaufen und damit irrational zu sein. 91 Man erinnere sich jedoch daran, wie sich die Abfolge der Ereignisse aus der Sicht von Prof. Β darstellte. Dieser hatte nicht klar erkennen können, wohin die Folge von Vorschlägen führen würde, und war schließlich nach den ersten beiden Runden auch immer wieder mit einem unwiderstehlichen Anreiz konfrontiert worden, gegen den jeweils bestehenden status quo zu stimmen. Möglicherweise hätte ein vorausschauender Prof. Α den Plan des Vorsitzenden erraten und sich dem Schritt von Punkt 1 nach Punkt 2 widersetzen können. Andererseits schien der Vorsitzende nicht gerade rational zu handeln, als er den ersten Vorschlag einbrachte, anstatt die Sitzung zu schließen und den ursprünglichen Zustand aufrechtzuerhalten. Das mag Prof. A dazu veranlaßt haben, sich auf den zweiten Vorschlag einzulassen (der für C schlechter ist als die Ausgangssituation) in der Hoffnung, daß der merkwürdige Vorsitzende vielleicht einen noch attraktiveren Vorschlag macht. 92 Prof. Α mag auch gedacht haben: „Warum soll ich potentielle Gewinne durch den Schritt von Punkt 1 zu Punkt 2 opfern, nur um die Kollegen D und E' glücklich zu machen, wo ich doch gar nicht genau weiß, ob und, wenn ja, welche anderen Vorschläge noch auf den Tisch kommen?" Im nachhinein erscheint es offensichtlich, welche langfristigen Kosten für A, D und E' entstehen, weil sie nicht am ersten Vorschlag festgehalten haben, aber die Aussicht eines Defektierenden auf kurzfristige Gewinne gefährdet die Koalition.93 Das Beispiel verdeutlicht eine Reihe von Aspekten räumlicher Abstimmungsmodelle, bei denen eine ungerade Anzahl von Entscheidungsträgern mit einfacher Mehrheit Beschlüsse fassen und Seitenzahlungen nicht zugelassen sind. Erstens veranschaulicht es die Macht des Inhabers der Medianposition, wenn Entscheidungen nur auf einer Dimension getroffen werden und die Entscheidungsträger eingipflige Präferenzordnungen haben. Solange keine Seitenzahlungen entrichtet werden können, liegt der Idealpunkt des Medianwählers im Kern. Wenn dieser Punkt vorgeschlagen wird, kann er bei paarweisen Abstimmungen durch keinen Gegenvorschlag 91

Nach Auffassung von Ordeshook (1992) müssen sich Rational-Choice-Theoretiker keine Meinung darüber bilden, ob aufrichtiges oder raffiniertes Stimmverhalten zu erwarten ist. Siehe auch die Ausführungen von Denzau, Riker und Shepsle (1985), wonach es durchaus sein kann, daß Gesetzgeber in einem repräsentativen Gremium aufrichtig abstimmen, weil sie bei namentlicher Abstimmung raffinierte Strategien gegenüber ihren Wählern rechtfertigen müßten, diese aber schwerlich erklären könnten. Siehe auch Krehbiels und Rivers' Analyse der Informationsanforderungen an raffinierte Abstimmungsstrategien (1990). 92 Für ein ähnliches Problem strategischen Abwägens angesichts scheinbar irrationaler Spielzüge des Gegners siehe Ordeshooks Auslegung des Rosenthalschen Tausendfüßer-Spiels (1992). 93 Wie Herzberg und Wilson (1988), Wilson und Pearson (1987) sowie Cohen, Levine und Plott (1978) in ihren Experimenten (siehe unten) festgestellt haben, stimmen die Spieler sogar dann meistens aufrichtig ab, wenn die Vorteile einer strategischen Stimmabgabe klarer auf der Hand liegen als in unserem Beispiel. Eckel und Holt (1989) etwa fanden heraus, daß Probanden, die mehrere Entscheidungen hintereinander zu treffen hatten, die gleiche Abfolge von Alternativen mindestens dreimal abarbeiten mußten, bevor sie eine strategische Stimmabgabe wagten. Herzbergs und Wilsons Überblick Uber die quasi-experimentelle Literatur läßt vermuten, daß auch in tatsächlichen Gesetzgebungsorganen strategisches Abstimmen eher selten ist und sich auf solche Situationen beschränkt, bei denen die Altemativenfolge ziemlich einfach und im voraus bekannt ist. Ausführlicher beschäftigen sich mit dieser These Krehbiel und Rivers (1990).

Instabilität, zyklische Mehrheiten und die Manipulation der Tagesordnung

129

zu Fall gebracht werden. Eindimensionale Modelle können jedoch viele (wenn nicht sogar die meisten) politischen Situationen nicht angemessen beschreiben. Bei Umverteilungsfragen zum Beispiel kann es ebensoviele Dimensionen wie finanzielle Gewinner und Verlierer geben (Ordeshook 1992). Wenn sich ein Thema Uber mehrere Dimensionen erstreckt, über diese aber nacheinander, eine nach der anderen, aufrichtig abgestimmt wird, dann behauptet sich auf jeder Dimension der Idealpunkt des Abstimmenden in der Medianposition, d. h. der parlamentarische Stabilitätspunkt. Dieses Ergebnis, welches voraussetzt, daß dem politischen Stimmenschacher und dem strategischen Verhalten von Parlamentariern, die versuchen, ihren Nutzen auf vielen Dimensionen zu maximieren, Grenzen gesetzt sind, wird in Theorien über „strukturell verursachte" Gleichgewichte, mit denen wir uns weiter unten beschäftigen, noch eine wichtige Rolle spielen. Ein Mehrheitsregel-Gleichgewicht kann dann vorliegen, wenn mehr als ein Thema gleichzeitig erörtert wird, wie etwa in Abbildung 6.2. Wenn ein Entscheidungsgremium ziemlich viele oder eine ungerade Anzahl von Mitgliedern hat (Enelow und Hinich 1983), setzt ein nicht-leerer Kern allerdings voraus, daß zwischen den Idealpunkten der Entscheidungsträger eine ganz besondere Form von Symmetrie besteht (Plott 1967). Man beachte, daß sich in Abbildung 6.2 die Position von Prof. Ε genau auf der Schnittstelle der Geradenabschnitte befand, die die Idealpunkte von C und D sowie von Α und Β verbanden. Eine solche Konstellation führt zwar zu einem Gleichgewicht, kommt aber nur selten vor und ist fragil. McKelvey (1976) hat nachgewiesen, daß theoretisch bei „der kleinsten Abweichung von den Bedingungen für einen Condorcet-Punkt (ζ. B. wenn sich der Idealpunkt eines der Abstimmenden ein klein wenig verschiebt)" der gesamte Entscheidungsraum Teil einer Zyklenmenge wird. Mit dem Ausscheiden von Prof. Ε wurde es nicht nur möglich, vom vorherigen status quo in Abbildung 6.4 zum Idealpunkt des Vorsitzenden zu gelangen: ebenso hätte auch jeder andere Zielpunkt erreicht werden können. Umgekehrt könnte ein Ausschuß von einem solchen Ergebnis auch immer wieder zu seinem Ausgangspunkt zurück-„rotieren". Daß eine Präferenzenkonstellation keinen Kern hat, heißt, daß man stets eine Mehrheitskoalition bilden kann, die den status quo außer Kraft setzt. Da es nur dann einen Kern oder einen Condorcet-Gewinner geben kann, wenn eine bestimmte Präferenzenkonstellation vorliegt, wird die Mehrheitsregel im allgemeinen als „von Natur aus instabil" betrachtet (Schofield 1983). Und da man ein instabiles Gremium von einem gegebenen Punkt aus zu jedem anderen lotsen kann, folgt daraus überdies, daß jemand, der wie Prof. C die Abstimmungsreihenfolge geschickt zu manipulieren weiß, im Prinzip in der Lage, jedes potentielle Ergebnis herbeizuführen. Natürlich ist die Manipulation für einen Vorsitzenden einfacher, wenn er davon ausgehen kann, daß die anderen Mitglieder des Gremiums aufrichtig abstimmen; aber selbst raffiniertes Abstimmen (d. h. unaufrichtiges Abstimmen zum Schutz der eigenen Interessen gegen unerwünschte Auswirkungen späterer Entscheidungen) kann eine erfolgreiche Manipulation der Tagesordnung wohl nicht völlig verhindern (Banks 1984). Selbst wenn keine Manipulation vorliegt, sind durch Mehrheitsentscheid herbeigeführte Ergebnisse nach dieser Vorstellung willkürlich, da sie ledig-

130

6. Gesetzgebung und Abstimmungsparadox

lieh die jeweiligen Umstände widerspiegeln, unter denen eine Mehrheitskoalition zufällig eine andere aushebeln konnte. Diese Sichtweise des Verhaltens in Ausschüssen ist nicht nur deshalb interessant, weil sie die der einfachen Mehrheitsregel innewohnende Unbestimmtheit und Manipulierbarkeit offenlegt und damit eine große Herausforderung für die Demokratietheorie darstellt (Riker 1982),94 sondern auch, weil damit Vorhersagen möglich sind, die unserer intuitiven Vorstellung von politischer Macht zuwiderlaufen. In unserem Beispiel etwa befand sich die Präsidentin in einer besseren Position, bevor sie das Mehrheitsregel-Gleichgewicht zerstörte, indem sie ein neues, ihr gleichgesinntes Mitglied in den Ausschuß berief, obwohl keines der anderen Mitglieder seine Präferenzen oder die seiner Stimmabgabe zugrunde liegenden strategischen Kalküle veränderte. Durch diese Sichtweise des Verhaltens in Entscheidungsgremien erhält die Analyse von Ausschußentscheidungen zweifellos neue und potentiell wichtige Impulse. Damit wird die Frage zu einer empirischen: Inwiefern bereichert diese Art der Analyse von Ausschüssen unser Verständnis des Gesetzgebungsverhaltens, wenn wir von der Theorie und illustrierenden Beispielen zu empirischen Anwendungen übergehen?

Zyklische Mehrheiten: Theorie und Realität Die Einsicht in die inhärente Instabilität der Mehrheitsregel hat zwei ganz unterschiedliche Forschungsprogramme hervorgebracht. Die Vertreter des ersten, angeführt von William Riker, wollen zeigen, daß die Instabilität der Mehrheitsregel allgegenwärtig ist und ernsthafte Probleme aufwirft. Wie Dobra (1983, 242) und andere, für die die Symptome zyklischer Mehrheiten in „endlosen Abstimmungen und Manipulationen" bestehen, schließt auch Riker (1982, 188) aus den analytischen Ergebnissen McKelveys (1976) und Schofields (1978), daß „große Schwankungen in politischen Entscheidungen möglich und zu erwarten sind" und daß die Ergebnisse, die bei ständig wechselnden Mehrheiten am Ende herauskommen, lediglich davon abhängen, „wie clevere, gewiefte Personen den Prozeß zu ihrem Vorteil zum Stillstand bringen" (1986, 146). Für Riker ist Instabilität weitaus mehr als nur eine theoretische Möglichkeit (1982, 190 f.): „Ein Gleichgewicht in Vorlieben und Werten ist in der Theorie so selten, daß es quasi nicht existiert. Und das gilt meines Erachtens auch ftlr die Praxis. Aber Individuen in einer Gesellschaft sind keine GeschmacksbUndel auf zwei Beinen. Sie respektieren auch - und werden eingeschränkt durch Institutionen, die dazu dienen sollen, Ordnung in der Gesellschaft zu schaffen. Es ist der Triumph der Beschränkungen über individuelle Werte, der die von uns beobachtete Stabilität hervorbringt. Dabei

Miller (1983, 738) bietet eine Zusammenfassung davon, wie Rational-Choice-Theoretiker diese allgemeinen Instabilitätsergebnisse interpretieren; am meisten verbreitet ist die Ansicht, daß die Mehrheitsregel willkürlich und in sich widersprüchlich ist.

Zyklische Mehrheiten: Theorie und Realität

131

läßt sich aber die Existenz von Vorlieben und Werten nicht verleugnen; sie sind es, die die beobachtete Instabilität verursachen.... Niemand würde bestreiten, daß es in der Realität hier und da Stabilität gibt. Manchmal ist diese Stabilität mehr Schein als Sein, denn es gibt Zyklen mit sehr ähnlichen Alternativen und mit Bewegungen außerhalb eines Gleichgewichtspfads von einem Ergebnis zum nächsten in so kleinen Schritten, daß das politische Leben stabil erscheint, obwohl es das gar nicht ist. Manchmal jedoch ist Stabilität auch real und wird durch Institutionen erreicht, die nicht das Produkt von Präferenzen oder Werten sind. Wenn wir nur Werte berücksichtigen, dann allerdings scheint die Mehrheitsregel von Natur aus zu Ungleichgewichten zu fuhren. Alles ist möglich - vom Wandel in kleinen Schritten bis zur Revolution."

Die Hypothese von der inhärenten Instabilität der Mehrheitsregel ist also, anders ausgedrückt, mit jedem beliebigen Muster empirischer Daten über politische Entscheidungen vereinbar: mit Stabilität ebenso wie mit langsamen oder radikalen Veränderungen.95 Es ist folglich nicht klar, durch welche Art von Beobachtungen die Vorhersagen dieses Modells überprüft werden könnten, da ja die Vorhersage lautet: „Alles ist möglich". Stabile Entscheidungen oder Koalitionen scheinen die Hypothese, daß die Mehrheitsregel Instabilität erzeugt, zu widerlegen; aber Riker warnt davor, sich durch solche Befunde irreführen zu lassen. Daß keine Entscheidungsveränderungen beobachtet wurden, könne auch auf Ungenauigkeiten beim Messen zurückzuführen sein, wie etwa im Falle „winziger" Veränderungen. Es könne sich aber auch um einen vernachlässigbaren Fall von momentaner Stabilität handeln, die durch institutionelle Einschränkungen oder clevere Manipulation der Abstimmungsreihenfolge erzeugt wurde. Auf lange Sicht, so Riker, werde die latente Instabilität der regierenden Koalition von politischen Akteuren ausgenutzt, die aus einer neuen siegreichen Koalition Vorteile ziehen können, so daß es zu erheblichen politischen Veränderungen kommen werde. Wenn zwischen einer sich formierenden Mehrheit und ihren Zielen institutionelle Beschränkungen stehen, könne es sogar passieren, daß die institutionellen Verfahren selbst außer Kraft gesetzt oder beseitigt werden (Riker 1980). Der Nachweis, daß legislative Präferenzen typischerweise zyklischer Natur sind, ist zu einem zentralen Anliegen der angewandten Rational-Choice-Forschung geworden. Riker (1965, 1982, 1986) und Blydenburgh (1971) waren die VorTeiter bei der Ermittlung historischer Fälle, in denen zyklische Präferenzen und die Möglichkeit zu Manipulationen vorlagen. Ihre Erkenntnisse werden zwar außerhalb von Rational-Choice-Kreisen selten zitiert, dafür aber um so häufiger in Lehrbüchern zur Spieltheorie und Konstruktion räumlicher Modelle, so daß sie unter RationalChoice-Theoretikem wohlbekannt sind. Selten wurden diese historischen Fallstu95

Ordeshooks (1986, 352) Einschätzung ist nicht ganz so uneindeutig: Er argumentiert, daß zwar auch dann, wenn es keinen Kern gibt, das Ergebnis nicht völlig unvorhersehbar ist, daß aber dennoch „grundlegende Instabilitäten existieren". Andere Lehrbuchmeinungen dazu, wie etwa Zagare (1984, 78), gehen sogar noch weiter: „Die Existenz oder Nichtexistenz eines Kerns ist wohl das wichtigste Merkmal eines n-Personen-Spiels. Spiele mit Kem ... entwickeln sich mit hoher Wahrscheinlichkeit auf vorhersehbare und festgelegte Weise, wenn erst einmal (und falls) eine Zurechnung im Kem erreicht wird. Spiele ohne Kern hingegen ... sind mit hoher Wahrscheinlichkeit ständigen Schwankungen unterworfen, da eine unzufriedene Koalition nach der anderen versucht, die bestehende Ordnung umzuwerfen."

132

6. Gesetzgebung und Abstimmungsparadox

dien jedoch einer eingehenden Überprüfung unterzogen. Wenn jemand, wie Riker, aufgrund einiger „spektakulärer" Beispiele behauptet, daß zyklische Präferenzen weitverbreitet sind, kommen sofort methodologische Bedenken auf hinsichtlich der Ziehung der Stichproben und der Extrapolation aus kleinen Fallzahlen. Diese Vorbehalte werden aber von anderen fragwürdigen Aspekten dieser historischen Erzählungen sozusagen noch in den Schatten gestellt; das gilt vor allem für ihre Mißachtung konkurrierender Erklärungen und ihre Neigung, der Theorie „nach dem Mund zu reden", also bestätigende Daten aus der Theorie zu projizieren. 96 Man betrachte eines von Rikers Lieblingsbeispielen dafür, wie cleveres parlamentarisches Taktieren aus zyklischen Präferenzen Vorteile schlagen kann. Er selbst (1965, 1982, 1986) und andere, von seinen Ausführungen angeregte Kollegen (Ordeshook 1986; Strom 1990) haben mehrfach auf die Geschichte der Gesetzgebungsaktivitäten verwiesen, die schließlich im 17. Zusatz zur Verfassung der Vereinigten Staaten gipfelten, in dem die Direktwahl der Senatoren verankert ist. Rikers Darstellung zufolge ging es bei dieser Frage ursprünglich um diskrete Entscheidungsalternativen auf einer einzigen Dimension (Befürwortung oder Ablehnung des Verfassungszusatzes), bezüglich derer die für einen Beschluß erforderliche Zweidrittelmehrheit vorgelegen habe. Ein geschickter konservativer Taktiker habe jedoch die Gesetzesinitiative im Jahre 1902 zu Fall gebracht, indem er im entsprechenden Senatsausschuß einen Ergänzungsvorschlag eingebracht habe, der den Bund zur Beaufsichtigung der Wahlen in den Einzelstaaten autorisierte. Als das Ganze neun Jahre später vor das Plenum kam, wurde die Ergänzung mit den Stimmen der Republikaner beschlossen; damit wurden aber die Abgeordneten der Südstaaten vor den Kopf gestoßen, die zwar die Direktwahl befürworteten, sich aber aufgrund ihrer Ablehnung einer Ausweitung der Bundeskompetenzen gezwungen sahen, die notwendigen Stimmen beizusteuern, um den ergänzten Zusatzartikel zu Fall zu bringen. Diese Abfolge von Ereignissen wird von Riker als ein Beleg für zyklische Mehrheiten interpretiert: der ergänzte Vorschlag (a) wurde von einer Mehrheit gegenüber dem nicht-ergänzten Vorschlag (b) bevorzugt, den wiederum eine Mehrheit dem status quo (c) vorzog; und doch behauptete sich der status quo gegenüber dem ergänzten Vorschlag (a). Dieser Schachzug, so Riker, verzögerte die Verabschiedung des 17. Verfassungszusatzes um ein Jahrzehnt. Ob es sich nun um den bewußten Versuch handelt, seine These so schlüssig wie möglich zu belegen, oder um eine unbeabsichtigt einseitige Auswahl der historischen Ereignisse - Riker läßt jedenfalls bei seiner Rekonstruktion eine Reihe von Die Art und Weise, wie man auf zyklische Präferenzen schließt, öffnet derartigen Projektionen wohl selbst Tür und Tor. Wie Weisberg und Niemi (1972, 205) bemerkt haben, ist es „in den meisten Situationen unmöglich festzustellen, ob das Paradox tatsächlich vorgelegen hat.... In legislativen Abstimmungen gibt es im allgemeinen keine vollständige Information Uber die verfügbaren Entscheidungsaltemativen. Wenn etwa ein Parlament dafür stimmt, eine Gesetzesvorlage zu ergänzen, und die ergänzte Vorlage dann abgelehnt wird, bemüht sich das Parlament nicht mehr darum festzustellen, ob die Vorlage vielleicht ohne den Zusatz angenommen worden wäre. Für einige wenige historische Fälle wurde das Ergebnis einer Abstimmung, die gar nicht stattgefunden hat, aus gegebenen Daten abgeleitet (Riker 1958, 1965), aber wir verfügen selten Uber genug Informationen, um eine solche Abstimmung zuverlässig rekonstruieren zu können."

Zyklische Mehrheiten: Theorie und Realität

133

Fakten aus, die mit seiner Darstellung nicht in Einklang zu bringen sind. Ab 1902 hatte sich nämlich der Ausschuß für Privilegien und Wahlen durchgehend geweigert, irgendeine Version des Gesetzentwurfes zu den Direktwahlen im Plenum einzubringen. Anträge, dem Ausschuß diese Angelegenheit zu entziehen, wurden 1902 vom Plenum abgewiesen, und Bemühungen, den Entwurf dem wohlwollenderen Justizausschuß zu übertragen, scheiterten 1908. Aufgrunddessen scheint es plausibler, den langen Aufschub der Verzögerungstaktik ablehnender Mehrheiten im Ausschuß und im Parlament zuzuschreiben als irgendwelchen Manipulationen einer Clique von Republikanern aus dem Nordosten. Lagen aber vielleicht zyklische Mehrheiten vor, als es im Februar 1911 endlich zur Abstimmung kam? Nun, diesbezüglich verstrickt sich Rikers Geschichte in Widersprüche. Entscheidend für seine Erklärung, wie es zur Annahme des um die Bundesaufsicht ergänzten Zusatzartikels kam, ist die Annahme (1986, 15), daß „es kein Republikaner wünschen oder wagen würde, für eine Maßnahme zu stimmen, die sich gegen die Interessen der Schwarzen richtet - und der Antrag, die DePew-Ergänzung [sie] zu streichen, würde natürlich als gegen deren Interessen gerichtet betrachtet". Gleichzeitig geht Riker aber davon aus (1986, 16), daß alle Senatoren, die für den ergänzten Vorschlag stimmten (α gegen c), auch für die nicht-ergänzte, die Rechte der Einzelstaaten betonende Fassung gestimmt hätten (b gegen c). Angesichts der Erklärungen, die im Senat von Republikanern abgegeben wurden, die eine Maßnahme, welche die Rechte der Staaten aufrecht erhielt, nicht für akzeptabel hielten, dürfte die letzte Annahme jedoch falsch sein (Haynes 1938, 111). Das wird noch dadurch untermauert, daß, wie Beobachter seinerzeit behaupteten, einige republikanische Senatoren nur deshalb für den abschließenden Gesetzesentwurf stimmten, weil sie wußten, daß er sowieso nicht die erforderliche Stimmenmehrheit erhalten würde (Easterling 1975, 500). Kurzum, der Entwurf scheiterte an fünf fehlenden Stimmen (Haynes 1938, 112).97 Angesichts der Debatten im Plenum und der namentlichen Abstimmungen in den Jahren 1902, 1908 und 1911 ist es unwahrscheinlich, daß der Vorschlag zu den Direktwahlen in der für die Einzelstaaten günstigeren Version die Stimmen hinreichend vieler Südstaatler erhalten hätte, um den Verlust der Unterstützung seitens der Nordstaatler wettzumachen. Ob man nun Rikers Geschichten über diese und andere vermeintliche Fälle zyklischer Mehrheiten Glauben schenken mag oder nicht: mit dem Grundtenor seiner Argumentation kann man durchaus einverstanden sein, nämlich daß der Wille der Riker (1965, 1982, 1986) meinte, die Verabschiedung des Entwurfes sei an drei fehlenden Stimmen gescheitert, was teilweise daran liegt, daß alle seine Berechnungen des Abstimmungsergebnisses vom Februar 1911 falsch sind. Auch einige der anderen von ihm angeführten Fakten entsprechen nicht ganz den Tatsachen, wie etwa seine Behauptung, daß die Koalition der Siidstaatenopposition von John Sharp Williams aus Mississippi geführt worden sei (1986, 16): der gehörte zu dieser Zeit dem Senat gar nicht an. Auch Rikers Nachwort irrt: „Im Juni 1911 verfügten die Demokraten Uber eine klare Mehrheit und lehnten den Sutherland-Zusatz ab, so daß der Verfassungszusatz verabschiedet werden konnte. Damit war der Zirkel durchbrochen, aber er hatte mehr als zehn Jahre bestanden." (1982, 287) Tatsächlich hatten die Demokraten erst mit Beginn der Sitzungsperiode im März 1913 im Senat die Mehrheit. Der Sutherland-Zusatz wurde im Juni gar nicht zur Abstimmung gestellt; und sein Nachfolger, der Bristow-Zusatz, wurde überdies verabschiedet.

134

6. Gesetzgebung und Abstimmungsparadox

Mehrheit ab und an mit Hilfe parlamentarischer „Tricks" blockiert oder gar außer Kraft gesetzt wird. Wenngleich räumliche Modelle oft zu genau diesem Ergebnis kommen, ist diese These jedoch keineswegs neu oder eine Entdeckung, die die Rational-Choice-Theorie für sich verbuchen könnte. Schon lange bevor RationalChoice-Modelle der Gesetzgebung entwickelt wurden, haben scharfsinnige Beobachter des Kongresses (ζ. B. Gross 1953, 218 ff., 356) unsere Aufmerksamkeit auf Mauscheleien hinter den Kulissen und andere Wege, die parlamentarische Arbeit zu beeinträchtigen, gelenkt, wie etwa auf die Taktik, Gesetzentwürfe mit Hilfe „behindernder" oder „defensiver" Ergänzungen zu Fall zu bringen. Zwischen traditionellen Untersuchungen dieser Art und den Rational-Choice-Interpretationen gibt es kleine, aber wichtige Unterschiede. Verglichen mit traditionellen Rekonstruktionen messen Rikers Erklärungen - wie so viele Rational-Choice-Modelle, die sich auf die strategischen Anreize der Akteure konzentrieren und nicht auf deren unterschiedliche kognitive Fähigkeiten, die Möglichkeiten, die sich ihnen bieten, auch zu erkennen und zu nutzen - strategischen Husarenstücken eine ungeheuer große Bedeutung zu, während sie Kurzsichtigkeit und Fehler dagegen so gut wie gar nicht berücksichtigen. Für Beobachter, die der Rational-Choice-Theoriebildung skeptisch gegenüberstehen, geht es weniger um die Frage, ob Politiker clever sind, als vielmehr darum, ob die Rekonstruktion der Ereignisse auf einer ausgewogenen Darstellung beruht. Gegen Riker und seine Wiedergabe der Entstehungsgeschichte des 17. Verfassungszusatzes läßt sich einwenden, daß er durch den Nachdruck, den er auf die strategischen Winkelzüge rationaler Akteure bei der Verfolgung ihrer Ziele legt, die entscheidende Bedeutung von Fehlkalkulationen und strategischer Kurzsichtigkeit unterschätzt oder sogar völlig außer acht läßt. Es war nämlich gar nicht Depew (oder Lodge oder Haie), der im Februar 1911 die Ergänzung des Gesetzentwurfs zur Direktwahl der Senatoren um den Aspekt der Bundesaufsicht vorschlug, sondern Sutherland, und Sutherland gehörte zu denjenigen, die den Verfassungszusatz tatsächlich befürworteten. Wenn wir uns in einem späteren Abschnitt dieses Kapitels mit experimentellen Studien zum Gesetzgebungsverhalten beschäftigen, werden wir auf die theoretischen Komplikationen zurückkommen, die bei räumlichen Modellen auftreten, wenn die strategischen Begabungen der Entscheidungsträger ungleich verteilt sind. Hinsichtlich der empirischen Grundlagen des Abstimmungsparadoxons haben wir nicht nur unsere Zweifel an der Rekonstruktion, sondern schon an der Auswahl der herangezogenen historischen Fälle. Wenn Stichproben dadurch zustande kommen, daß besonders plastische Beispiele für zyklische Mehrheiten aus der Geschichte des Kongresses ausgewählt werden, dann ist damit ein grundlegendes Ableitungsproblem verbunden. Nicht einmal ein eher wohlwollender Leser könnte nachvollziehen, mit welcher Begründung Riker (1982, 195) ζ. B. behaupten konnte, daß es sich im Fall des 17. Verfassungszusatzes nicht um ein „vereinzeltes Beispiel von Manipulation, sondern um einen typischen Fall der Entscheidungsweise in einer Demokratie" handelte. Selbst wenn man Rikers unorthodoxe Darstellungen akzeptiert, so haben er und seine Kollegen doch allenfalls eine Handvoll historischer Fälle zusammengetragen. Und diese Fälle wurden keineswegs zufällig ausgewählt, sondern schon im

Zyklische Mehrheiten: Theorie und Realität

135

Hinblick darauf, ob sie das Abstimmungsparadox bestätigen. Der Theorie zuwiderlaufende Fälle, wie etwa der strategisch schlecht formulierte Smith-Zusatz zum Gesetz über die Bürgerrechte von 1964 (Mezey 1992), werden nicht erwähnt. Einen derart sorglosen Umgang mit den Stichproben zeigt auch der Überblick Uber 38 Jahre Kongreßgeschichte von Riker und Weingast (1988). Drei Fälle von zyklischen Mehrheiten bzw. Agenda-Manipulation werden verzeichnet und in Verbindung mit einem weiteren, in einer früheren Arbeit zitierten Fall als „Beleg" dafür angeführt, „daß die durch die Mehrheitsregel gegebene Beschränkung gesetzgeberische Entscheidungen nicht zu einem eindeutigen Ergebnis führt". Aus welcher Grundgesamtheit wurden aber diese Fälle ausgewählt? Und kamen sie so zustande, daß sie eine einigermaßen repräsentative Stichprobe der Entscheidungen des Kongresses darstellen? Das Problem der Häufigkeit zyklischer Mehrheiten überschattet jedoch die weitaus wichtigere kausale Frage, ob die Existenz oder Nicht-Existenz eines Mehrheitsregel-Gleichgewichts beobachtbare Unterschiede bei den politischen Ergebnissen verursacht. Um das Problem aus diesem Blickwinkel anzugehen, empfiehlt sich eine quasi-experimentelle Untersuchungsanlage, bei der das Vorliegen oder Nichtvorliegen eines Kerns die unabhängige und der Grad der Stabilität politischer Entscheidungen die abhängige Variable bildet. 98 Man könnte etwa überprüfen, ob bei konstanten Präferenzen eine exogene Veränderung der institutionellen Gegebenheiten (wie die Anhebung der Mehrheit, die zur Verabschiedung eines Antrages erforderlich ist), von der man annimmt, daß sie einen Kern erzeugt, zu größerer Entscheidungsstabilität führt." Sollte sich herausstellen, daß ungeachtet der theoretisch prognostizierten Veränderung der institutionellen Gegebenheiten oder der Präferenzenkonstellationen - eine Nullhypothese, auf die wir im nächsten Abschnitt noch zurückkommen werden - das Ausmaß an Instabilität in etwa gleich bleibt, dann wären wir gezwungen, den empirischen Wert der zahlreichen Studien in Frage zu stellen, die sich mit der Existenz und dem Umfang legislativer Gleichgewichte beschäfti-

Wir sprechen bei einer solchen vergleichenden Untersuchungsanlage lieber nicht von einer vergleichenden Analyse statischer Zustände, da man bei letzterer nicht fragen würde, wie sich die Lage eines Gleichgewichts unter unterschiedlichen Bedingungen verändert, sondern wie sich die Existenz oder Nichtexistenz eines Gleichgewichts auf die Entscheidungsergebnisse auswirkt. Bei der Formulierung dieser Hypothese muß man darauf achten, keine Tautologie zu behaupten. Wenn ein einziges stabiles Gleichgewicht existiert, dann hat per definitionem keine Koalition zugleich einen Anreiz und die Gelegenheit, davon abzuweichen. Wenn es sich des weiteren bei der Rationalitätsannahme um ein Verhaltenspostulat und nicht um eine empirische Vermutung handeln soll, dann garantiert ein solches Gleichgewicht ex hypothesi die Stabilität politischer Entscheidungen; jedes Abweichen vom Gleichgewicht würde bedeuten, daß man die Faktoren, die vermeintlich das Gleichgewicht hervorbringen, falsch eingeschätzt hat. Um eine solche Hypothese sinnvoll überprüfen zu können, muß sie sich auf die Auswirkungen veränderter institutioneller Gegebenheiten und nicht auf die Existenz oder Nichtexistenz eines Gleichgewichts konzentrieren. Die Auswirkungen des letzteren lassen sich analytisch ableiten; bei ersterem geht es jedoch um empirische Vermutungen über die Übereinstimmung zwischen institutionellen Regeln und individuellen Anreizen. 100 w i r konzentrieren uns hier auf institutionelle Variablen, die sich auf die Lage oder Existenz des Kerns auswirken können. Wie wir in unserem einleitenden Beispiel gezeigt haben, ist die Präferenzenkonstellation selbst insofern eine unabhängige Variable, als sie die Existenz und Lage des Kerns

136

6. Gesetzgebung und Abstimmungsparadox

Bei unserer Sichtung der empirischen Literatur in diesem Bereich fanden wir nur wenige vergleichende Analysen von Institutionen und politischer Stabilität. Die vorhandenen Arbeiten sind eher oberflächlich und unsystematisch. Riker (1992) etwa argumentiert, daß in Großbritannien, wo politische Entscheidungen inzwischen de facto von einer Kammer nach einem der Mehrheitsregel ähnlichen Verfahren getroffen werden, seit 1945 zweimal massive Kurswechsel in der Wirtschaftspolitik nämlich zuerst die Verstaatlichung und dann wieder die Privatisierung zentraler Wirtschaftssektoren zu verzeichnen gewesen seien - , während in den USA mit seinem funktionierenden Zweikammernsystem Veränderungen dieser Größenordnung zwar durchgesetzt, aber dann nicht wieder aufgehoben worden seien. Er erklärt diesen vermeintlichen Unterschied damit, daß Parlamente, die aus nur einer Kammer bestehen, für zyklische Mehrheiten vergleichsweise anfälliger seien. Dabei ignoriert er ganz einfach erhebliche gegenläufige Entwicklungen in der Gesetzgebung, die seit dem Zweiten Weltkrieg in den USA stattgefunden haben (wie etwa diejenigen, die mit den verschiedenen Ergänzungen des Wagner Act verbunden sind, oder die Verabschiedung und anschließende Zurücknahme der katastrophalen Gesetzgebung zur Krankenversicherung in den Jahren 1988 und 1989), sowie umfassende Bereiche der Sozialgesetzgebung, die in Großbritannien nicht wieder rückgängig gemacht wurden (wie etwa die Schaffung des National Health Service). Riker gibt weder an, nach welchen Kriterien seine Fallbeispiele ausgewählt wurden, noch erklärt er, wie Beobachtungen (über das Eintreten bzw. Ausbleiben von Aufhebungen in seinen beiden Fällen), die seiner These offensichtlich zuwiderlaufen, mit seinem Institutionenvergleich vereinbar sind. Diese Art eines lässigen Empirizismus trägt den komplexen Ableitungsproblemen bei vergleichenden Untersuchungen nicht einmal im Ansatz Rechnung. Denn selbst wenn man zwei Institutionen auswählen würde, die im Hinblick auf das Parteiensystem und die politische Kultur größere Übereinstimmungen aufweisen (etwa ein historischer Vergleich des Einkammersystems im parteipolitisch nicht polarisierten Nebraska mit dem Zweikammernsystem im parteipolitisch nicht polarisierten Minnesota), könnte politische Instabilität doch durch eine Menge anderer Wirkungsfaktoren verursacht werden als denen, die der einfachen Mehrheitsregel entspringen. Die lange, aber sicher noch unvollständige Liste solcher Faktoren enthält etwa: Präferenzenveränderungen auf Seiten der Abgeordneten im Laufe einer Sitzungsperiode, Veränderungen in der Zusammensetzung (und damit in den Präferenzen) des Parlaments zwischen zwei Sitzungsperioden, die Möglichkeit von Seitenzahlungen oder Stimmentausch sowie sich ändernde Ansichten über die Auswirkungen vorgeschlagener Maßnahmen. Man mag der Rational-Choice-Theorie zugute halten, daß sie eine Ursache von politischen Umschwüngen entdeckt hat, die nichts mit der Veränderung von Vorlieben oder Überzeugungen zu tun hat; mit der Behauptung einer bestimmt. Rational-Choice-Theoretiker greifen bei ihren empirischen Vorhersagen nur ungem auf Präferenzenkonstellationen zurück, weil die zur Erzeugung eines Kern notwendigen Bedingungen als äußerst anspruchsvoll angenommen werden. Riker etwa weist darauf hin, daß Ungleichgewichte in Vorlieben endemisch seien und sogar dann aufträten, wenn die Präferenzen eindimensional zu sein scheinen (1982, 1993).

Post Aoc-Erklärungen von Stabilität

137

solchen Hypothese ist aber noch lange nicht der Nachweis geführt, daß die der Mehrheitsregel inhärente Instabilität beobachtete Entscheidungsveränderungen hervorruft, ohne Ansehen anderer Faktoren. Zusammenfassend läßt sich also sagen, daß die der Mehrheitsregel inhärente Instabilität ein Thema ist, in dem sich das Ungleichgewicht zwischen Theorie und empirischer Forschung widerspiegelt. Die Hypothese, daß Präferenzen in Gesetzgebungsorganen häufig zyklischer Natur sind, sowie die ergänzenden Annahmen zur Agenda-Manipulation und zur politischen Instabilität sind potentiell interessant; der Status dieser theoretischen Einsichten als empirische Aussagen ist jedoch nach wie vor unklar. Eine bescheidenere Version der Hypothese, nämlich daß Instabilität und Manipulation bei einfacher Mehrheitsregel vorkommen können, würde wohl kaum jemand bestreiten wollen. Es ist die ehrgeizigere und auch interessantere Vermutung, daß Veränderungen der institutionellen Struktur Auswirkungen auf den Grad der beobachtbaren Stabilität und der Macht derer haben, die über die politische Tagesordnung bestimmen, welche eine genaue Untersuchung des Zusammenhangs zwischen verschiedenen institutionellen Strukturen und ihrem Entscheidungsoutput erforderlich macht. Letzteres wurde empirisch bislang noch nicht ernsthaft in Angriff genommen. Gewiß haben Rational-Choice-Theoretiker mit ihren eingehenden Untersuchungen von Verfahren wie etwa den Regeln für die Veränderung von Gesetzesvorlagen im Kongreß (vgl. Ordeshook und Schwartz 1987) die Analyse institutioneller Strukturen erheblich vorangebracht. Der Wert solcher detaillierten Erläuterungen der formalen Eigenschaften von Institutionen kann aber nur dann voll und ganz zur Geltung kommen, wenn sie durch empirische Untersuchungen ergänzt werden, die den kausalen Einfluß institutioneller Strukturen auf gesetzgeberisches Verhalten untersuchen.

Post /zooErklärungen von Stabilität Wie bereits erwähnt, gibt es zwei Forschungsrichtungen, die sich mit der Instabilität legislativer Entscheidungen beschäftigen. Das von Riker vertretene Programm versucht den Beweis zu erbringen, daß Instabilität nicht nur theoretisch möglich, sondern tatsächlich allgegenwärtig ist. 101 Die Vertreter des anderen Forschungsprogramms dagegen sind der Ansicht, daß Instabilität praktisch nur eine theoretische Möglichkeit ist und in der Realität selten vorkommt. Die Annahme, die dieser Sichtweise zugrunde liegt, wird von Tullock wie folgt formuliert (1981, 189): „Sofern nicht äußerst unwahrscheinliche Bedingungen vorliegen, müßte man erwarten,

101 Nach Ordeshooks Überzeugung (1992, 276) trägt beispielsweise die Tatsache, daß Umverteilungsspiele häufig keinen Kem aufweisen, „zur Erklärung sehr vieler Dinge" bei, darunter etwa die Tendenz zur Bildung übergroßer Koalitionen, weil risikoscheue Entscheidungsträger befürchten, andernfalls bei zyklischen Mehrheiten den kürzeren zu ziehen.

138

6. Gesetzgebung und Abstimmungsparadox

daß sich Mehrheiten endlos im Kreise drehen. Das gilt vor allem dann, wenn Stimmentausch praktiziert wird, was ja tatsächlich meist der Fall ist. Wenn wir uns aber die Realität ansehen, stellen wir fest, daß nicht nur kein endloses Rotieren von Mehrheiten vorliegt, sondern daß Gesetze auch in einem vernünftigen Tempo verabschiedet werden und dann für sehr lange Zeit unverändert bestehen bleiben. Theorie und Praxis scheinen folglich nicht nur keine Berührungspunkte zu haben, sondern sogar in scharfem Konflikt zu stehen." Für Tullock zeugt dieser Konflikt nicht etwa davon, daß räumliche Modelle legislativen Verhaltens auf falschen Annahmen über die Neigungen und strategischen Fähigkeiten von Entscheidungsträgern beruhen, sondern daß neue theoretische Modelle entwickelt werden sollten, um Stabilität mit Hilfe bislang unberücksichtigter Aspekte der strategischen Situation zu erklären. Zwischen den Rational-Choice-Anhängern herrscht also eine interessante Arbeitsteilung. Während Riker Fälle sucht, die das Vorliegen von Instabilität bestätigen, gehen andere, wie etwa Tullock, davon aus, daß Instabilität selten ist, und suchen nach post /ioc-Erklärungen für Stabilität. Bevor wir die Vielzahl von Vorschlägen erörtern, die Rational-Choice-Theoretiker zur Erklärung von Stabilität vorgebracht haben, sei kurz darauf hingewiesen, daß Tullocks Synopse von legislativem Verhalten „im richtigen Leben" auf keinem feststellbaren systematischen Querschnitt von Entscheidungen, Zeiträumen oder Gesetzgebungsorganen beruht. Auch ist unklar, was Tullock mit den Schlüsselbegriffen „unverändert" und „sehr lange Zeit" meint oder wie sich diese sehr verallgemeinerte Beschreibung demokratischer Entscheidungsfindung in Einklang bringen läßt mit Veränderungen im Verteidigungshaushalt, in der Gesundheits- und Einwanderungspolitik oder der Ordnungspolitik, wie sie seit dem Zweiten Weltkrieg zu beobachten waren. Besonderes Kopfzerbrechen bereiten in diesem Zusammenhang kurzfristige politische Maßnahmen, wie etwa Nixons Lohn- und Preiskontrollen, die ganz unabhängig von Veränderungen in der öffentlichen Meinung kommen und gehen (Page und Shapiro 1983, 180). Was die Behauptung anbelangt, daß Gesetze „in einem vernünftigen Tempo verabschiedet werden", so mag diese Verallgemeinerung auf manche Materien zutreffen, aber wohl kaum auf Streitfragen wie die Reform der Wahlkampffinanzierung, die jahrzehntelang träge vor sich hin dümpeln. Selbst wenn einem Parlament für eine ganz konkrete Aufgabe eine Frist gesetzt wird (wie etwa in den USA bei der Wahl von Senatoren durch die Parlamente der Einzelstaaten vor 1913), kommt es gelegentlich zur Blockade und Paralyse. Anstatt ein vielfältigeres Bild gesetzgeberischer Entscheidungen zu zeichnen und ein empirisches Forschungsprogramm zur Untersuchung der Frage vorzuschlagen, warum manche legislativen Konstellationen stabiler sind als andere, initiierte Tullock ein Forschungsprojekt mit dem Ziel, hinreichende Bedingungen für die Erzeugung eines Gleichgewichts im gesetzgeberischen Umfeld auszumachen. Seine Erklärung (1967, 1981) konzentriert sich dabei vor allem auf die stabilitätserzeugenden Auswirkungen des Stimmenschachers und der Koalitionsbildung. Aber auf Tullocks Frage „Warum so viel Stabilität?" wurde auch eine ganze Palette weiterer hinreichender Erklärungen vorgeschlagen. Demzufolge werden Gleichgewichte erzeugt durch Informationskosten sowie durch legislative Spezialisierung, wie sie

Post toc-Erklärungen von Stabilität

139

durch ein System ständiger Ausschüsse entsteht (Hoenack 1983), durch die Steuerung des parlamentarischen Verhaltens seitens der Parteiführung (Kiewiet und McCubbins 1991) oder durch Transaktionskosten bei der Organisation von Koalitionen (Cox und McCubbins 1993). Stabilität wurde auf eine Reihe von besonderen Präferenzenkonstellationen - von weithin geteilten Präferenzen (Kramer 1973) über eingipflige Präferenzen (Niemi 1983) bis zu quasi-konkaven Präferenzenverteilungen - in Verbindung mit der Notwendigkeit, de facto Supermajoritäten zu bilden (Caplin und Nalebuff 1988), zurückgeführt. Als Ursachen von Stabilität wurden des weiteren genannt: bestimmte institutionelle Gegebenheiten, wie etwa eindimensionale Zuständigkeitsbereiche von Ausschüssen sowie Beschränkungen für Veränderungen von Gesetzes vorlagen (Shepsle 1979; Shepsle und Weingast 1981), rückwärtsgerichtete anstatt vorwärtsgerichtete Änderungsverfahren (Shepsle und Weingast 1984; Wilson 1986) oder das Zweikammernsystem und das exekutive Veto (Hammond und Miller 1987). Auch Phänomene wie raffiniertes Abstimmen (Enelow und Koehler 1980; Shepsle und Weingast 1984; siehe aber Ordeshook und Schwartz 1987), Ungewißheit (Shepsle 1972a), Haushaltsvorgaben (McCubbins und Schwartz 1984) oder die Erwartung, daß ähnliche Themen auch in Zukunft wieder zur Debatte stehen werden (Bernholz 1978; Coleman 1986), sind schon als hinreichende Bedingungen für Stabilität angeführt worden. Dieser Liste lassen sich noch Theorien über das Ausbleiben zyklischer Mehrheiten hinzufügen, die sich speziell auf Entscheidungsorgane mit vielen Abgeordneten beziehen; als Ursachen genannt werden da zum Beispiel rechnerische Problem (Bartholdi, Tovey und Trick 1987) oder die politische Unmöglichkeit (Tullock 1981), Entscheidungen in nennenswertem Umfang zu manipulieren, indem man das Potential zyklischer Mehrheiten ausnutzt. Und schließlich ist da noch das Argument, daß für die Vermeidung zyklischer Mehrheiten die „Metapräferenzen" von Entscheidungsträgern verantwortlich sind, die oft in einem normativen Umfeld agieren, in dem es nicht opportun ist, „das Boot zum Schaukeln zu bringen" (Grofman und Uhlaner 1985). Jede dieser Behauptungen liefert eine Erklärung dafür, wie es trotz der theoretischen Möglichkeit, daß unter der einfachen Mehrheitsregel zyklische Mehrheiten auftreten, in realen Entscheidungsgremien zu einem Gleichgewicht (bzw. zu einer Menge eng beieinander liegender Gleichgewichte) kommen kann. Vom Standpunkt der Theoriebildung stellen diese analytischen Untersuchungen der Bedingungen, unter denen verschiedene Merkmale der Situation in Entscheidungsgremien zu Gleichgewichten führen, eine Reihe von Fortschritten dar. Und soweit es um die Erklärung des Verhaltens von Parlamenten auf Landes- und Bundesebene geht, haben Modelle, die Ausschüsse und ähnliche Institutionen berücksichtigen, die Realitätsnähe der räumlichen Modellen des Gesetzgebungsprozesses vergrößert. Doch trotz ihrer zunehmenden Komplexität sind auch die differenzierteren räumlichen Modelle noch weit davon entfernt, der Wirklichkeit zu entsprechen, und ihre Verknüpfung mit empirischen Untersuchungen läßt nach wie vor zu wünschen übrig. Die gängige Praxis scheint zu sein, die Einführung neuer formaler Annahmen mit Hilfe von Einzelbeispielen zu begründen, ohne jede begleitende empiri-

140

6. Gesetzgebung und Abstimmungsparadox

sehe Untersuchung zur Erforschung der Wirkungsweise der Mechanismen, von denen jeweils angenommen wird, daß sie zu Stabilität führen. Selbst Aufsätze, die ausdrücklich darauf abzielen, die kooperative Spieltheorie auf Institutionen der USA anzuwenden, zeugen von der ungeklärten Beziehung zwischen Theorieentwicklung und empirischer Auswertung. In zwei Aufsätzen zum „Kem der Verfassung" (Hammond und Miller 1987) und über „Ausschüsse und der Kern der Verfassung" (Miller und Hammond 1990) argumentieren Thomas Hammond und Gary Miller, daß die Kombination von Zweikammernsystem, Präsidenten-Veto und interner Organisation der Legislative einen Kem und somit politische Stabilität erzeugen könne. Unter Berufung auf die Annahme, daß Anträge auf einen zweidimensionalen Politikraum beschränkt sind, daß die Mitglieder der Legislative zirkuläre Indifferenzkurven haben und daß Ausschüsse eindimensionale Zuständigkeitsbereiche sowie die alleinige Entscheidungsbefugnis darüber besitzen, welche Gesetzentwürfe auf der jeweiligen Dimension dem Plenum vorgelegt werden, kommen die Autoren zu folgendem Ergebnis: ,,[J]e weniger repräsentativ die Mitglieder eines Ausschusses für ihre Kammer als Ganze sind, desto größer sind die entstehenden Kerne. Und je mehr sich die Exekutive von den beiden Kammern sowie Senat und Repräsentantenhaus voneinander unterscheiden, desto größer sind die entstehenden Kerne" (1990, 224). Je größer aber der Kern, desto umfassender ist der Bereich politischer Entscheidungen, der von wechselnden Mehrheiten nicht berührt werden kann. Das bedeutet auch, daß der status quo, wenn er im Kern liegt, für Veränderungen infolge von Bewegungen in der ideologischen Zusammensetzung der Legislative weniger anfällig ist. Diese Hypothesen sind vielversprechend, hängen aber entscheidend von Merkmalen des Kerns ab. Und die Autoren bemühen sich erst gar nicht darum, die Größe oder Existenz des Kerns zu ermitteln - noch geben sie irgendwelche Hinweise, wie das zu bewerkstelligen wäre. Weder untersuchen sie empirisch, wie sehr sich die Präferenzen von Repräsentanten und Senatoren überschneiden oder die der Exekutive und der Legislative voneinander abweichen, noch unternehmen sie den Versuch, die geteilte oder vereinheitlichte Parteikontolle mit den Entscheidungsergebnissen in Verbindung zu setzen (s. Mayhew 1991). Sie versuchen auch nicht, den Leser von der empirischen Fundierung ihres Ausschußmodells zu überzeugen, das die verschiedenen Möglichkeiten der Mehrheiten im Plenum oder der Führung der Mehrheitspartei zur Umgehung oder Überstimmung widerspenstiger Ausschüsse überhaupt nicht berücksichtigt (s. unten). Dennoch behaupten sie, ihr Modell könne erklären, warum „es einer außerordentlich starken Verlagerung von Akteurspräferenzen - in der Größenordnung der Veränderungen im Kongreß während der ersten Regierungsjahre Franklin D. Roosevelts oder infolge der Kongreßwahlen von 1964 - bedürfen mag, um den Kern so zu verschieben, daß der alte status quo herausfällt" (1990, 226). Die Autoren stellen damit Rikers Beschreibung der fortwährend veränderlichen politischen Landschaft auf den Kopf und formulieren Tullocks Frage, „Warum so viel Stabilität?" um in „Warum ändern sich die Dinge überhaupt jemals?" (226).

Post Aoc-Erklärungen von Stabilität

141

Die rege Diskussion über den Begriff des strukturell verursachten Gleichgewichts (Shepsle 1979, 1986, Shepsle und Weingast 1981) ist ein weiteres Beispiel für Arbeiten, die realistisch sein wollen, sich aber nicht auf empirische Untersuchungen stützen. Als Reaktion auf die „spartanische Qualität der Sozialwahltheorie und die Unangemessenheit der Verschönerungsmaßnahmen, mit der räumliche Abstimmungsmodelle sie aufzupolieren versuchen" (Shepsle 1986, 167) stellen Shepsle und Weingast (1981) ein Modell vor, in dessen Mittelpunkt ein System von Ausschüssen steht, von denen jeder das Monopol Uber einen eindimensionalen Zuständigkeitsbereich hat. Innerhalb eines Ausschusses behauptet sich der Idealpunkt des Median Wählers; und wenn ein Ausschuß seine Entwürfe dem Plenum vorlegt, geht das Modell davon aus, daß Änderungen entweder verboten oder einer Relevanzbedingung unterworfen sind, die Veränderungen jeweils nur auf einer Dimension erlaubt. 102 Im Laufe der Jahre hat dieses Modell in Rational-Choice-Kreisen viel Beifall gefunden; es wird lobend hervorgehoben, daß seine Annahmen den tatsächlichen Gegebenheiten im Kongreß doch sehr „nahekommen" (McCubbins und Schwartz 1985, 56) oder doch zumindest mit der Struktur des Repräsentantenhauses „nicht unvereinbar" sind (Aldrich 1989, 225, s. auch Weingast und Marshall 1988). Worauf dieses Lob beruht, ist jedoch nicht klar. Selbst Ausschüsse, die mit einem eng umrissenen Politikfeld betraut sind, wie etwa der Ausschuß für Energie und Rohstoffe, haben keinen im technischen Sinne eindimensionalen Zuständigkeitsbereich, ganz zu schweigen von solchen wie dem Ausschuß für Auswärtige Beziehungen oder dem Bewilligungsausschuß. Auch trifft es nicht zu, daß Kongreßausschüsse über ihren Zuständigkeitsbereich ein Monopol haben. Wenn ein Entwurf erst einmal dem Plenum vorliegt, ist zwar „in fast allen gesetzgebenden Körperschaften der unmittelbar inhaltliche Bezug zur Vorlage (germaneness) die vorherrschende formale Praxis zur Kontrolle von Änderungsanträgen" (Shepsle 1986, 158), aber von der prominenten Ausnahme des Senats einmal abgesehen ist es doch so, daß zulässige Ergänzungen (oder Alternativentwürfe) mehr als nur eine Entscheidungsdimension betreffen dürfen und dies auch tun. Noch komplizierter werden die Dinge durch Bestimmungen, die es dem Plenum ermöglichen, einem starrköpfigen Ausschuß einen Gesetzesentwurf zu entziehen oder ihn an einen wohlwollenderen Ausschuß zu überweisen. 103 Die offensichtliche Realitätsferne dieser Darstellung der Ausschußstruktur bildet eine Art Sicherheitsnetz. Wird das Modell von den Fakten nicht bestätigt, kann sein 102 Außerdem wird angenommen, daß Entscheidungsträger voneinander unabhängige Präferenzen (zirkuläre Indifferenzkurven) und damit auch keinen Anreiz haben, vorgeschlagene Veränderungen auf einer Dimension gegen erwünschte Veränderungen auf einer anderen Dimension einzutauschen. Für eine aufschlußreiche Erörterung und Kritik des Modells strukturell verursachter Gleichgewichte s. Krehbiel 1988. 103 Shepsles (1986, 143) zähneknirschendes Eingeständnis, daß sein Modell „die Dinge insofern Uberzeichnet, als die meisten Legislativen außerordentlichen Mehrheiten auch weiterhin die Befugnis einräumen, 'die Tore aufzustemmen', ζ. B. durch den Antrag, [einem Ausschuß einen Entwurf] zu entziehen", gibt dem Erforscher des Kongresses doch unweigerlich das Rätsel auf, was wohl prinzipiell an einer Mehrheit von 50% der Mitglieder „außerordentlich" sein mag.

142

6. Gesetzgebung und Abstimmungsparadox

Scheitern auf die „stilisierten" Annahmen geschoben werden; bis dahin kann es jedoch dafür gelobt werden, daß es die beobachtete politische Stabilität vorhersagt. Anstatt das Modell zu differenzieren, so daß es der offenkundigen Komplexität der Verfahren im Kongreß gerecht wird, oder es in seiner jetzigen Form anhand von instrumenteilen Kriterien zu überprüfen (indem man es auf andere Phänomene anwendet als die, zu deren Vorhersage es maßgeschneidert wurde), neigen RationalChoice-Theoretiker dazu, über die formalen Zusammenhänge des Modells strukturell verursachter Gleichgewichte nachzugrübeln und Uber den Schwierigkeiten zu brüten, die infolge strategischen Abstimmungsverhaltens (Denzau und Mackay 1981) oder „dicker Indifferenzbereiche" in den Nutzenfunktionen der Akteure (Dion 1992) auftreten. 104 Vielleicht werden diese Überlegungen eines Tages zur Formulierung überprüfbarer Aussagen und zu einem empirischen Forschungsprogramm führen. Zum gegenwärtigen Zeitpunkt hingegen ist unklar, was das Modell strukturell verursachter Gleichgewichte zum empirischen Studium des Kongresses beigetragen hat. Welche Art von empirischer Untersuchung schwebt uns vor? Jede Hypothesenprüfung erfordert zumindest eine Kontrollgruppe sowie eine gewisse Varianz in dem Mechanismus, von dem angenommen wird, daß er die Neigung zur Veränderung politischer Entscheidungen beeinflußt. Dem Argument der strukturell verursachten Gleichgewichte zufolge müßten Veränderungen in der Struktur der Zuständigkeitsbereiche von Ausschüssen sowie in den parlamentarischen Verfahren zur Änderung von Gesetzentwürfen mit unterschiedlichen Graden in der Stabilität politischer Entscheidungen korrelieren. 105 Aufgrund des Zusammenhangs zwischen der Dimensionalität der Präferenzen hinsichtlich eines Gesetzentwurfes und der Existenz eines Kerns (Schofield u. a. 1988) ist zu vermuten, daß multidimensionale Vorschläge, wie etwa Gesetze, die Verteilungsfragen betreffen, für zyklische Mehrheiten anfälliger sind als Streitfragen von eher eindimensionalem Charakter. Colemans (1986) Superspiel-Argument läßt vermuten, daß ceteris paribus Programme, die von nur kurzfristig eingesetzten oder kurz vor Neuwahlen stehenden Entscheidungsgremien oder Parlamenten verabschiedet wurden, instabiler sind als solche von Organen, deren Mitglieder erwarten, auch in Zukunft miteinander zu tun zu haben. Mit dem Vergleich verschiedener Legislativen oder der Untersuchung der Auswirkungen von Veränderungen der institutionellen Struktur geht zugegebenermaßen die ganze Flut jener praktischen Probleme einher, die die angewandte Politikwissenschaft zu einem so schwierigen Unterfangen machen. Man braucht dazu eine operationale Definition von Stabilität, die Möglichkeit der Unterscheidung zwischen Entscheidungsände104 Dion (1992) hebt vor allem hervor, wie bestimmte Verfahrensweisen und informelle Normen, wie ζ. B. de facto bestehende Mehrheitserfordemisse, politische Spezialisierungsmuster und Reziprozitätserwartungen, die Behauptungen früherer Modelle strukturell verursachter Gleichgewichte untermauern. 105 Shepsle (1986) macht zwei weitere Vorhersagen. Erstens sei zu erwarten, daß ein Ausschuß umso weniger geneigt sein wird, dem Plenum einen Gesetzentwurf vorzulegen, je mehr seine Medianposition von der des Plenums abweicht. Zweitens sei zu erwarten, daß der Standpunkt eines Ausschusses durch personelle Veränderungen nicht betroffen werde, solange sich die Position des ausschlaggebenden Mitglieds nicht verändert.

Post /ioc-Erkläningen von Stabilität

143

rungen, die durch ein Ungleichgewicht, und solchen, die durch Präferenzveränderungen hervorgerufen wurden, sowie einen Blick für natürliche Experimente, in denen sich die institutionellen Gegebenheiten und dadurch auch der strategische Kontext wandeln. Solange solche Untersuchungen jedoch nicht vorliegen, bleibt die Frage nach dem Erklärungswert der analytischen Aussagen, die aus räumlichen Modellen abgeleitet wurden, offen. Aber nicht nur vergleichende Analysen der eben beschriebenen Art sind selten; überhaupt wurde die Hypothesenüberprüfung bisher ziemlich stark vernachlässigt. Das wenige Vorhandene (Dobra und Tullock 1981; Dobra 1983; Chamberlin, Cohen und Doombs 1984) ist kaum mehr als eine Feststellung der Häufigkeit von zyklischen Mehrheiten in einem bunten Mischmasch von Wahlen und Abstimmungen in - meist universitären - Ausschüssen, die dann mit der Häufigkeit von nicht-zyklischen Mehrheiten verglichen wird. Dobra etwa fand bei nur vier von zweiunddreißig Entscheidungen Belege für zyklische Mehrheiten, obwohl kein Kern vorlag, und schließt aus diesen 87 Prozent, daß Theorien, die nicht von zyklischen Mehrheiten ausgehen, richtig sind. Dieser Prozentsatz scheint aber genauso gut mit den weiter oben zitierten Überlegungen Rikers vereinbar zu sein (vgl. dazu auch Bowen 1972; Niemi und Weisberg 1972). Ohne eine sinnvolle Kontrollgruppe ist es jedenfalls nicht möglich, irgendwelche Schlüsse über die kausale Rolle von MehrheitsregelGleichgewichten zu ziehen.10® Und was noch schlimmer ist: Diskussionen über die gleichgewichtserzeugenden Eigenschaften von Legislativorganen wie etwa dem US-Kongreß gleiten häufig in eine Art Funktionalismus ab, bei dem Institutionen und Verfahren damit erklärt werden, daß sie zu einem Kerri führen. Politische Probleme würden oft als zweidimensional dargestellt, da eine größere Anzahl von Dimensionen das Risiko der Instabilität erhöhe (McCubbins und Schwartz 1985, 57); aufgrund der längeren Amtszeit sowie der Kollegialität im Senat sei eine gleichgewichtserzeugende Relevanzregel dort nicht erforderlich (Dion 1992, 476); und frühere Erfahrungen der Institution mit zyklischen Mehrheiten seien der Grund dafür, daß bei der Debatte des Bundeshaushaltes im Repräsentantenhaus die Möglichkeiten für Änderungsanträge eng beschränkt sind (Blydenburgh 1971). Von der fragwürdigen empirischen Grundlage solcher Argumente einmal abgesehen, ist es doch ein recht ironisches Ergebnis, daß es gute Gründe für die Annahme gibt, daß Stabilität der Art, wie sie durch Gleichgewichtsanalysen prognostiziert wird, für demokratische Institutionen dysfunktional 106 Dobra thematisiert auch die Rolle der Gruppengröße in Relation zur Anzahl der Entscheidungsdimensionen; aber diese Hypothese, die zu Beginn der Entwicklung dieser Forschungsrichtung eine größere Rolle gespielt hat, scheint inzwischen nur noch eine Hilfsannahme in den wichtigsten theoretischen Ansätzen zur Instabilität und ihrer Überwindung zu sein. Bemerkenswert ist auch, daß Dobras Operationalisierung schon einige „totsichere" Vorhersagen impliziert. Ist die Vorhersage von „endlosen" zyklischen Mehrheiten falsifiziert, wenn ein Abstimmungsverfahren zu einem Ende kommt? Dieser Ansicht scheint Dobra zu sein, wenn er behauptet, daß bei den von ihm untersuchten Entscheidungen Kompromisse eine Lösung des Problems zyklischer Mehrheiten darstellten. Bezeichnend filr Dobras eigentumliche Technik der Stichprobenziehung ist die Tatsache, daß sich in seiner Sammlung kein Fall findet, in dem ein Universitätsgremium in einer Pattsituation oder in Untätigkeit verharrte.

144

6. Gesetzgebung und Abstimmungsparadox

ist. Wie Miller festgestellt hat (1983), hängt systemische Stabilität nämlich gerade davon ab, daß politische Entscheidungen zu einem gewissen Grad im Ungleichgewicht sind, weil nur so unterlegene Koalitionen den Anreiz haben, sich auch weiterhin an der Gesetzgebungsarbeit zu beteiligen, in der Hoffnung, eines Tages selbst die siegreiche Koalition zu bilden. Es gibt mindestens drei Möglichkeiten, die methodologische Qualität von Rational-Choice-Anwendungen zu verbessern. Erstens sollten die Theoretiker darauf verzichten, post Aoc-Erklärungen über den Grad legislativer (In-)Stabilität mit Hilfe einer einzelnen stilisierten Tatsache zu produzieren. Es ist höchst unwahrscheinlich, daß sich irgendeine monokausale Erklärung politischer Stabilität auf Dauer und in unterschiedlichen Entscheidungskontexten bewähren wird. Die Auseinandersetzung mit der Frage, warum Entscheidungsveränderungen in so unterschiedlichem Ausmaß stattfinden, lenkt die Aufmerksamkeit auf fruchtbarere Problemstellungen, die mit der Frage zusammenhängen, warum Instabilität unter bestimmten Umständen auftritt und unter anderen nicht. Die Abkopplung der Rational-Choice-Theorien von stilisierten Fakten hätte auch den Vorteil, daß dadurch den Theoretikern der Anreiz genommen wäre, aus einer vielfältigen Menge möglicher Annahmen genau die herauszusieben, die ein legislatives Gleichgewicht implizieren. Es ist kein Zufall, daß der Realismus, den Shepsle (1979) in das Studium von Entscheidungsgremien eingeführt hat, in Ausschüssen mit einem eindimensionalen und exklusiven Zuständigkeitsbereich besteht; die Wahl dieser doch recht wirklichkeitsfremden Menge von Prämissen beruht offenbar auf dem Wunsch, die Schlußfolgerung ziehen zu können, daß Ausschüsse Gleichgewichte herbeiführen. Zweitens sollten diejenigen, die ein bestimmtes Modell des Gesetzgebungsverfahrens vertreten, gleichzeitig auch überprüfbare Hypothesen vorlegen und die Typen von Gesetzgebungsorganen beschreiben, auf die ihr Modell zutrifft. Was die vorhandenen Kongreß-Modelle anbelangt, so ist zwar der Vorschlag von Shepsle und Weingast vielleicht ein Fortschritt gegenüber räumlichen Modellen, die keinerlei institutionelle Struktur voraussetzen (vgl. jedoch McKelvey und Ordeshook 1984a); es ist jedoch unklar, wie sich die Unterscheidung zwischen der einfachen Mehrheitsregel und den von Shepsle und Weingast postulierten institutionellen Arrangements in ein Forschungsprogramm umsetzen läßt, das Wissenschaftler, die sich mit dem Kongreß beschäftigen, verfolgen könnten. Wenn es die von Shepsle und Weingast postulierten stilisierten Institutionen so im Kongreß nie gegeben hat, ist dann die Theorie dennoch in der Lage, dessen legislative Entscheidungen zu erklären? Und falls ja: Ist die Theorie dann überhaupt sinnvoll widerlegbar, wenn sie doch immer als eine bloß „stilisierte" Darstellung der Institutionen des Kongresses verteidigt werden kann? Wenn Rational-Choice-Modelle das Verständnis der Gesetzgebungspolitik in den USA bereichem sollen, dann sollte ihr empirischer Status weniger mysteriös sein, als das im Moment der Fall ist.

Experimentelle Belege

145

Experimentelle Belege Im letzten Abschnitt haben wir festgestellt, daß die empirischen Untersuchungen, die die Implikationen von Ungleichgewichten unter der Mehrheitsregel überprüfen sollen, unzureichend sind. Der Fairneß halber sei jedoch darauf hingewiesen, daß die geringe Anzahl korrekt durchgeführter Untersuchungen Uber Gesetzgebungsorgane möglicherweise auf die Einsicht zurückzuführen ist, daß nicht-experimentellen Studien enge natürliche Grenzen gesetzt sind (Cook und Campbell 1979; Achen 1986), oder auch auf die praktischen Probleme, die sich ergeben, wenn Wissenschaftler versuchen, die Präferenzen von Entscheidungsträgern zu messen oder natürliche Experimentalsituationen ausfindig zu machen, in denen institutionelle Veränderungen mehr oder wenig exogen verursacht werden. Diese und andere methodologische Bedenken haben viele Wissenschaftler, die mit Rational-Choice-Modellen arbeiten, dazu veranlaßt, auf Laborexperimente zurückzugreifen, um ihre Hypothesen empirisch zu testen. Einige vertreten sogar die Ansicht, daß sich RationalChoice-Theorien in diesem Bereich wohl überhaupt nur mit Hilfe von Experimenten testen lassen (vgl. Plott 1979; Palfrey 1991). Experimente haben gegenüber quasi-experimentellen Untersuchungen mindestens drei Vorzüge. Unter Laborbedingungen ist der Forscher erstens in der Lage, durch ein System induzierter monetärer Anreize die ordinalen Präferenzen der Akteure zu kontrollieren (Smith 1976). Zweitens kann er die den Entscheidungsträgern verfügbaren Informationen steuern. Und drittens hat er im Labor die Möglichkeit, exogene Veränderungen der institutionellen Struktur zu untersuchen, im Rahmen derer die Entscheidungsfindung stattfindet. Zusammengefaßt ist es dem Forscher mit der experimentellen Methode möglich, die Komplexität der Entscheidungssituation so zu vereinfachen, daß er seine Aufmerksamkeit auf ganz bestimmte Einflußfaktoren, wie das Verfahren zur Änderung von Gesetzentwürfen, die Kontrolle über die Reihenfolge der Abstimmungen oder die Größe der erforderlichen Mehrheit, konzentrieren kann. Daß Hypothesen im Labor ganz gezielt getestet werden können, hat jedoch seinen Preis. Naheliegend ist die Kritik (Chamberlin 1979; vgl. aber die Gegenargumente in Fiorina und Plott 1978, 592 f.; Plott und Smith 1979), daß sich reale Gesetzgebungssituationen in vielerlei Hinsicht von der improvisierten Versammlung experimenteller Probanden unterscheiden. Bei der Simulation des Gesetzgebungsprozesses im Labor gibt es weder Gründungsprinzipien noch Konventionen, weder aus früheren Prozessen hervorgegangene Fraktionen noch die Erwartung künftiger Interaktion. Sie sind auf kein anderes Ziel angelegt als auf die Erzeugung monetärer Belohnungen für die Teilnehmer. Es ist daher kaum verwunderlich, daß Beobachter von Gesetzgebungsprozessen der Auffassung sind, daß der sterilen institutionellen Umgebung experimenteller Entscheidungsgremien viele der interessanteren Aspekte parlamentarischer Institutionen fehlen. Diese Art der Kritik an der experimentellen Literatur ist jedoch nicht ganz fair. Erklärtes Ziel der Forschung auf diesem Gebiet ist weniger die Simulation der Funk-

146

6. Gesetzgebung und Abstimmungsparadox

tionsweise bestimmter Institutionen, als vielmehr die Überprüfung theoretischer Verhaltensaussagen in Spielen, die der Interaktion in tatsächlichen Gesetzgebungssituationen strukturell ähneln. Die meisten Forscher in diesem Bereich geben folglich den zweifelhaften „Realismus" ihrer Experimente bereitwillig zu (McKelvey und Ordeshook 1980, 156; McKelvey und Ordeshook 1990b, 311 f.; s. aber Fiorina und Plott 1978, 576). Gewiß würden experimentelle Studien Uber die Funktionsweise echter politischer Institutionen sehr viel mehr aussagen, wenn sie versuchen würden, die Komplexität realer Gesetzgebungsorgane besser abzubilden. Dennoch gilt hier wie auch für die Experimente über soziale Dilemmata, die im letzten Kapitel behandelt wurden, daß die externe Validität dieser Experimente nicht so eindeutig mangelhaft ist, daß man diese Untersuchungen kurzerhand zu den Akten legen sollte. Wenngleich wir durchaus Zweifel an der externen Validität mancher Experimente zum legislativen Verhalten hegen, soll dieser Aspekt nicht den Hauptgegenstand unserer Kritik bilden. Die experimentelle Literatur zum legislativen Abstimmungsverhalten enthält einige der kreativsten und anregendsten empirischen Arbeiten, die aus der Rational-Choice-Theorie hervorgegangen sind, und eine Radikalkritik würde den potentiellen Beiträgen, die diese Forschungsrichtung leisten kann, nicht gerecht. Unsere methodologischen Bedenken bezüglich der von Rational-Choice-Hypothesen angeregten Gesetzgebungsexperimente betreffen vielmehr die grundlegend unklare Beziehung zwischen der Theorie und den experimentellen Ergebnissen. Wie wir in unserem Überblick über die Experimente zum Abstimmungsparadox zeigen, mangelt es vielen experimentellen Untersuchungen an einer genau definierten Nullhypothese und an klaren statistischen Standards für die Interpretation der Daten. Dort, wo diese Standards einigermaßen klar sind, finden sich häufig abweichende Daten, die manchmal aber keinerlei sichtbare Auswirkungen auf das Vertrauen des Experimentators in die Gültigkeit des theoretischen Ansatzes zu haben scheinen. In einer Weise, die stark an die Reaktionen von Rational-Choice-Vertretern auf Anomalien bei quasi-experimentellen Daten erinnert, haben Wissenschaftler wie Plott und Smith (1979) die Überzeugung geäußert, daß Ergebnisse, die wie gravierende Mißerfolge aussehen, tatsächlich lediglich kleinere Irritationen sind, und daß eine ganze Reihe von Faktoren, die Rational-Choice-Vorhersagen aus dem Gleis zu bringen scheinen, wie universalistische Normen (s. Weingast 1979; Miller und Oppenheimer 1982), in Rational-Choice-Verhaltensmodelle inkorporiert werden könnten. Andere widerstehen der Versuchung, die Unterscheidung zwischen Rationalwahlund anderen Hypothesen aufzuweichen, indem sie letztere den ersteren einverleiben, und hoffen statt dessen, daß bislang unentdeckte Lösungstheorien die Anomalien ausräumen werden (McKelvey und Ordeshook 1981; Herzberg und Wilson 1991). Und wieder andere machen, wie Salant und Goodstein (1990) feststellen, alle möglichen Verrenkungen, um zu zeigen, daß abweichende Daten tatsächlich gar nicht abweichen (Berl u. a. 1976; Fiorina und Plott 1978). In allen diesen Fällen ist unklar, welche Art von Daten, wenn sie beobachtet würden, diejenigen, die die getesteten theoretischen Annahmen für richtig halten, dazu veranlassen würde, ihre Überzeugungen aufzugeben.

Experimentelle Belege

147

Zu ihren Gunsten sei gesagt, daß Wissenschaftler, die auf diesem Gebiet experimentell forschen, ihre Ergebnisse im allgemeinen so detailliert darlegen, daß die Leser ihre eigenen Schlüsse ziehen können. Nach unserer Einschätzung bewähren sich die konkret aufgestellten Rational-Choice-Hypothesen eher schlecht, obwohl räumliche Modelle des Verhaltens in Ausschüssen gelegentlich geradezu als Paradebeispiel für erfolgreiche Rational-Choice-Anwendungen angeführt (Lalman u. a. 1993) und experimentell gewonnene Daten dafür gepriesen werden, daß sie „Zuversicht [verbreiten], daß die große Anzahl theoretischer Untersuchungen zu räumlichen Modellen von Gremien und Abstimmungsprozessen nicht ohne soliden empirischen Gehalt ist" (McKelvey und Ordeshook 1990a, 140). So zeigen Laboruntersuchungen immer wieder, wie die mathematische Darstellung von Abstimmungsspielen an der Unfähigkeit der Akteure scheitert, optimale Strategien zu verfolgen. Ein Experiment nach dem anderen macht deutlich, daß Akteure bei legislativen Aufgaben, bei denen der Weg zur Erreichung des eigenen Vorteils nicht völlig offensichtlich ist, suboptimale Entscheidungen treffen und damit Vorhersagen zuwiderhandeln, die allein auf der Analyse der Auszahlungen beruhen. 107 Hinzu kommt, daß Rational-ChoiceVorhersagen selbst in der kontrollierten Laborumgebung regelmäßig über solch unvorhergesehene Faktoren stolpern wie die ungleich verteilte strategische Geschicklichkeit der Akteure, die Einhaltung von Geboten der Fairneß oder die Indifferenz bei Alternativen von etwa gleichem Wert. Auch wenn Rational-Choice-Theorien beanspruchen, die Auswirkungen exogener Veränderungen in der institutionellen Umgebung zu erklären und vorherzusagen, zeigen folglich die im Experiment gewonnenen Daten, daß diese Effekte in hohem Maße von der strategischen Begabung der Akteure abhängen. Und diese theoretischen Vorhersagen wären, wie wir behaupten, noch problematischer, wenn im Labor eine größere Annäherung an die tatsächlichen Bedingungen legislativer Entscheidungsfindung hergestellt würde, unter denen die Rechenaufgaben und sozialpsychologischen Kräfte zweifellos noch größer sind. Zusammengefaßt betrifft unsere Kritik der experimentellen Gesetzgebungsforschung auf der Grundlage der Rational wähl drei Punkte. Auch wenn sie weniger vage als die quasi-experimentelle Forschung ist, haben die Experimentatoren immer noch genug Gelegenheit, dank der Unbestimmtheit ihrer Nullhypothesen abweichende Daten zu umschiffen. Zweitens wurden bisher keine großen Anstrengungen unternommen, die sozialpsychologischen Faktoren zu untersuchen, die sich auf den Erfolg der Rationalwahl bei der Vorhersage von Ergebnissen auswirken könnten. Drittens treten auch in der eher sterilen politischen Umgebung experimenteller Abstimmungen häufig Anomalien auf, und zwar vor allem dann, wenn die Probanden ihre Natürlich kann man sich immer auf den Standpunkt zurückziehen, daß Rational-Choice-Modelle das Verhalten von Akteuren in Abhängigkeit von deren Verständnis ihrer strategischen Situation darstellen. Damit werden diese Theorien aber zugleich weniger interessant und weniger leicht empirisch überprüfbar. Abgesehen davon ist aus der Sicht der experimentellen Literatur ganz offensichtlich die Wahrnehmung der strategischen Situation die Zufallsvariable, die zu unterschiedlichen Ergebnissen in den Experimenten führt. Wenn man also sagt, daß der Rational-Choice-Ansatz sowohl Vorhersagen umfaßt, die auf einer objektiven Analyse der Spielstruktur beruhen, als auch die subjektiven Interpretationen der Akteure, dann läuft das darauf hinaus, daß der Rational-Choice-Ansatz alle möglichen experimentellen Ergebnisse vorhersagt.

148

6. Gesetzgebung und Abstimmungsparadox

unterschiedlichen strategischen Fähigkeiten zeigen können. Die Kombination der beiden letzten Punkte läßt vermuten, daß die existierenden Rational-Choice-Modelle immer dann zu scheitern drohen, wenn ihre Vorhersagen von dem abweichen, was man intuitiv vermuten würde. Wenn wir der experimentellen Forschung auch weniger kritisch gegenüberstehen als der quasi-experimentellen, ist unser Urteil dennoch dasselbe: Die empirischen Erfolge der angewandten Forschung zu Gesetzgebungsprozessen auf der Grundlage von Rational-Choice-Modellen sind bisher dürftig.

Das Experiment: Ein Überblick zur Methode Seit Mitte der 70er Jahre wurde in einer Reihe von Untersuchungen ein Typ von Abstimmungsspielen mit nichtübertragbarem Nutzen untersucht, der angeblich „das Wesen des grundlegenden Abstimmungsprozesses in Ausschüssen nach der Mehrheitsregel [erfaßt]" (Fiorina und Plott 1978, 576). 108 Ein Forschungszweig untersucht, ausgehend vom Abstimmungsparadox, wie die Präferenzenkonstellation der Entscheidungsträger das Ergebnis beeinflußt. In solchen Spielen werden die institutionellen Regeln konstant gehalten und die Präferenzen der Spieler experimentell manipuliert. Ein anderer Forschungszweig beschäftigt sich mit den Auswirkungen verschiedener institutioneller Strukturen - wie der Unzulässigkeit von Änderungsanträgen oder der Festlegung einer verbindlichen Tagesordnung - auf legislative Entscheidungen. Hier werden also die Präferenzen der Gesetzgeber konstant gehalten, und die institutionelle Struktur wird verändert. Bevor wir einen Überblick über diese beiden Forschungsrichtungen geben, wollen wir kurz beschreiben, wie solche Ausschußspiele vor sich gehen. Die Probanden vor allem Studenten des Grund- und Hauptstudiums - werden mit monetären Auszahlungen als Folge verschiedener legislativer Ergebnisse konfrontiert. Gewöhnlich handelt es sich dabei um kleinere Beträge oder Bargeldlotterien; manchmal winken aber auch ansehnlichere Summen (d. h. mehr als 25 Dollar). Aus offenkundigen praktischen Gründen geht es allerdings nie auch nur annähernd um Beträge, die nach tatsächlichen politischen Maßstäben nennenswert sind. 109 Beim Gesetzgebungsspiel selbst geht es darum, über Vorschläge abzustimmen, die Punkten auf einem zweidimensionalen Gitterschema bzw. dem Erfolg oder Scheitern eines oder mehrerer Gesetzentwürfe entsprechen. Die Spiele enden in der

Di e Spieler dürfen dabei keine Seitenzahlungen, sei es in Form von finanziellen Tauschgeschäften oder von physischer Drohung, vornehmen. Für einen Überblick über Spiele, die Übertragungen zulassen, siehe Michener und Yuen 1982. 109 Dem Beispiel jüngster Forschung im Bereich der experimentellen Ökonomik folgend werden solche Untersuchungen demnächst vielleicht in China durchgeführt, wo angesichts der Höhe der verfügbaren Einkommen 25 Dollar kein Pappenstiel sind. Im übrigen scheinen - zumindest für die Studierenden, die Kormendi und Plott (1982) als Probanden einsetzten - Noten die gleiche Motivationskraft zu besitzen wie monetäre Anreize.

Das Experiment: Ein Überblick zur Methode

149

Regel, wenn eine Mehrheitsentscheidung erreicht wird; allerdings kann bei manchen Spielen das Gremium die Entscheidung noch einmal revidieren, nachdem ein Ergebnis mehrheitlich zustandekam. 110 Hinsichtlich der möglichen Kommunikation zwischen den Spielern gibt es unterschiedliche Regeln. Manchmal dürfen sie direkt miteinander verhandeln; in anderen Fällen werden die Teilnehmer voneinander isoliert. Generell gilt aber, daß die Spieler die genaue Höhe ihrer Auszahlungen einander nicht mitteilen dürfen, um Seitenzahlungen zu verhindern. Nicht immer, aber häufig kennen die Spieler die Idealpunkte oder Präferenzordnungen der anderen. Vor Beginn des eigentlichen Experiments müssen die Probanden einige Fragen beantworten, um sicherzustellen, daß sie die Regeln und Ziele des Spiels verstehen. Es fällt auf, daß sozialpsychologische Manipulationen in diesen Experimenten nicht vorkommen. Präferenzenkonstellationen, die Höhe der Auszahlungen, Gruppengröße und institutionelle Struktur werden im experimentellen Design zuweilen berücksichtigt, nicht aber die Rolle von sozialen Normen, ideologischem Engagement, Gruppenzugehörigkeitsgefühl u. ä. Wenn die Probanden im Experiment miteinander sprechen dürfen, steht es ihnen natürlich frei, nach Belieben normativ oder ideologisch an ihre Mitspieler zu appellieren. Da aber die „Gesetzentwürfe", Uber die sie abstimmen, abgesehen von der monetären Belohnung inhaltsleer sind, ist nicht klar, wie die üblichen Elemente einer ideologischen Diskussion - historische Präzedenzfälle, Naturrecht, Grundprinzipien usw. - wirkungsvoll ins Feld geführt werden könnten. 111 Analog dazu dürfen die Probanden zwar Koalitionen eingehen, aber sie begegnen einander als Fremde ohne Gruppenidentifikation, Loyalitäten oder Vorurteile. 112 Daß solche Alternativhypothesen nicht berücksichtigt werden, heißt zwar nicht unbedingt, daß die experimentell gewonnenen Ergebnisse ungültig sind; aber es erschwert Bemühungen, die Erklärungskraft von Spieltheorien im Vergleich zu anderen Verhaltenshypothesen zu beurteilen oder Hypothesen zu testen, die von Rational-Choice-Theorien nicht antizipiert werden oder ihnen widersprechen. 110

Meistens gibt es für die Spiele keine feste zeitliche Beschränkung. Die Festlegung eines solchen Zeitlimits in einer Untersuchung (Wilson 1986, 405) scheint von manchen Forschern als ein Fehler in der Untersuchungsanlage betrachtet zu werden. Salant und Goodstein (1990) hingegen argumentieren dafür, die Probanden (unabhängig davon, wie lange sie benötigen, um ihre Gesetzgebungsaufgabe zu erfüllen) eine bestimmte Zeit lang festzuhalten, weil „Gesetzgeber", die gehen dürfen, wenn sie sich früh vertagen, einen Anreiz erhalten, eine Strategie des satisficing zu wählen, um sich dann wieder ihrem normalen Leben widmen zu können. Die Verpflichtung der Probanden auf einen bestimmten Zeitraum hat in ihren Untersuchungen allerdings keinen erkennbaren Effekt gezeitigt. 111 Margolis (1982) weist darauf hin, daB nicht einmal klar ist, ob die Teilnehmer überhaupt in der Lage sind, aufgrund ihrer Kenntnis der monetären Auszahlungen kohärent zu argumentieren. Um Seitenzahlungen zu verhindern, erhalten die Spieler so gut wie nie genaue kardinale Informationen Uber die Auszahlungen der anderen. Daher wissen sie (von absichtlichen Falschinformationen ganz abgesehen) nur selten, welche Entscheidung die kollektive Auszahlung aller Teilnehmer maximieren würde. 112 In jüngeren legislativen Abstimmungsexperimenten, bei denen die Teilnehmer gar nicht persönlich aufeinandertreffen, sondern nur über ein Computerterminal Jnteragieren", ist die soziale Umgebung sogar noch mehr des Kontaktes und der EinfluBnahme zwischen den Probanden entkleidet. Zwar ermöglicht diese Untersuchungsanlage eine größere Kontrolle Uber die experimentelle Situation, aber sie untergräbt noch mehr die Ähnlichkeit zwischen dem Labor und tatsächlichen Gesetzgebungssituationen.

150

6. Gesetzgebung und Abstimmungsparadox

Was wir also haben, ist eine Datenmenge, die Auskunft darüber gibt, inwieweit die mathematischen Eigenschaften eines Spiels das Ergebnis beeinflussen, wobei eine ganze Reihe von sozialen Einflußfaktoren konstant gehalten werden, von denen man weiß, daß sie sich auf das Verhalten in Gruppensituationen auswirken. Experimentelle Manipulationen konzentrieren sich auf die Präferenzen der Probanden, ihre Information über die Präferenzen der anderen, ihre Kommunikationsmöglichkeiten und die Regeln der Institutionen, innerhalb derer sie verhandeln. Der entscheidende nichtkontrollierte Faktor in diesen Experimenten ist das strategische Talent der Spieler, d. h. ihre Fähigkeit, eine Strategie zu entdecken, die ihre erwarteten Gewinne maximieren würde. Im wesentlichen testen diese Experimente also Vorhersagen, die auf einer formalen Analyse der Spielstruktur beruhen, anhand von Ergebnissen, die von sichtlich raffgierigen, aber strategisch fehlbaren Spielern erzeugt werden.

Die Bewertung der Daten Ziel spieltheoretischer und verwandter entscheidungstheoretischer Modelle ist es, das Ergebnis von Gesetzgebungsspielen aufgrund der mathematischen Beschreibung der Spielstruktur - d. h. seiner Regeln sowie der Präferenzkonstellation der Akteure (McKelvey und Ordeshook 1982, 120 f.) - vorherzusagen. Äquivalente formale Beschreibungen sollten demnach ähnliche empirische Ergebnisse, divergierende Beschreibungen unterschiedliche empirische Ergebnisse erzeugen. Je weniger eine solche Übereinstimmung zwischen Beschreibung und Ergebnis vorliegt, desto fragwürdiger sind die theoretischen Modelle. Die Beurteilung der empirischen Angemessenheit der Spieltheorie wird dadurch erschwert, daß es vor allem bei Spielen ohne Kern zur Prognose des Ergebnisses eines gegebenen Spieltyps viele unterschiedliche spieltheoretische Ansätze gibt. Da die verschiedenen „Lösungskonzepte" mehr mathematische Abstraktion als Verhaltenstheorie sind, beschäftigt sich ein Teilbereich der experimentellen Literatur mit der Frage der empirischen Angemessenheit dieser unterschiedlichen Lösungsvorschläge, und zwar vorwiegend auf der Grundlage einer instrumentellen Sicht von Theorie. Das Verfahren gleicht dem einer Stichwahl, in der ein Kandidat dazu auserkoren wird, in einem allgemeineren Theorienwettstreit die spieltheoretische Partei zu vertreten. Eine Zeitlang schien die von McKelvey, Ordeshook und Winer (1978) vorgeschlagene kompetitive Lösung der offenkundige Theoriekandidat zu sein; sie prognostiziert den Kern, wenn es ihn gibt, und von bestimmten Mindestkoalitionen erzielte Verhandlungsergebnisse, wenn kein Kern existiert. Gemessen am instrumentellen Maßstab der Prognosegenauigkeit (McKelvey u. a. 1978, McKelvey und Ordeshook 1979 und 1980; Ordeshook 1986, Kap. 9; s. aber Miller und Oppenheimer 1982) und vielleicht sogar auch am realitätsorientierten Maßstab der Übereinstimmung mit tatsächlichen Verhandlungsabläufen (McKelvey und Ordeshook 1980, 1984a; s. aber Fiorina und Plott 1978) scheint die kompetitive Lösung als

Die Bewertung der Daten

151

Modell des Gesetzgebungsverhaltens in Spielen mit Mehrheitsregel und nichtübertragbarem Nutzen ihrer Konkurrenz überlegen zu sein. Deshalb werden wir uns bei unserer Erörterung der empirischen Aussagekraft spieltheoretischer Erklärungen legislativen Verhaltens vor allem an der kompetitiven Lösung orientieren. Da aber in den letzten Jahren alternative Lösungskonzepte größere Bedeutung erlangt haben, werden wir uns auch mit einigen anderen Kandidaten beschäftigen. Ein zweites und schwerwiegenderes Problem bei der Interpretation experimenteller Ergebnismuster beruht darauf, daß viele Untersuchungen - vor allem aus der Anfangszeit dieses Forschungszweiges - keine unabhängige Variable enthalten; sie dienen lediglich der Veranschaulichung spieltheoretischer Aussagen. In diesen Fällen ist nicht zu erkennen, gegen welche Nullhypothese die Rational-Choice-Aussagen getestet werden. Viele Experimente testen Hypothesen der Form „Unter den offenkundig in unserer Laborsituation geschaffenen Bedingungen prognostiziert unser Theorem das/die Gleichgewichtsergebnis(se) Θ", indem sie den Prozentsatz der Versuche berechnen, in denen θ auftritt. Oberflächlich betrachtet scheint das ziemlich vernünftig zu sein. Es ist jedoch daran zu erinnern, daß die formalen Ergebnisse der Rational-Choice-Theorie analytische Wahrheiten und nicht empirische Vermutungen sind. Man betrachte etwa die vielzitierte Literatur über die erfolgreiche Vorhersage legislativer Ergebnisse durch den Kern. Existenz und Lage eines Mehrheitsregel-Gleichgewichts sind selbstverständlich mathematische Fakten, die sich aus der Anlage des Experiments ergeben. Aus einer erfolgreichen Vorhersage durch den Kern kann man schließen, daß es möglich ist, empirische Beispiele für das mathematische Ergebnis zu finden, ebenso wie man eine arithmetische Behauptung verdeutlichen kann, indem man Äpfel zählt. Wenn die Präferenzen erfolgreich erzeugt wurden (so daß keine außerexperimentellen Präferenzen vorliegen) 113 , kann die Prognose durch den Kern nur dann fehlschlagen, wenn einem oder mehreren der Spieler ein Fehler unterläuft. Aber wem sollten wir bei einer erfolgreichen Prognose durch den Kern applaudieren: dem geschickten Experimentator, dem es zu verdanken ist, daß die Probanden die gewünschten Präferenzen haben, oder den Probanden, die so lange verhandelt haben, bis das Ergebnis für jeden optimal war? Umgekehrt können wir, wenn die Vorhersage durch den Kern scheitert, entweder die Validität der Präferenzerzeugung oder den strategischen Scharfsinn der Akteure bezweifeln, nicht aber die Wahrheit des Theorems, auf dem die Vorhersage fußt. Die empirischen Ergebnisse sagen letztlich nichts über die Wahrheit des theoretischen Ergebnisses aus. Sie sagen uns bestenfalls, ob die Annahmen, auf denen das Ergebnis beruht, im Labor annäherungsweise erfüllt werden können. Aber selbst dann ist unklar, wie die Daten zu interpretieren sind. Was ist daraus zu schließen, wenn θ in 60 Prozent der Fälle vorliegt? Oder in 90 Prozent? Oder in 113

Wenn Spieler Präferenzen hinsichtlich der Konstellation des kollektiven Ergebnisses haben (nicht-egoistische Motive, um die Terminologie von Fiorina und Plott [1978] zu verwenden), ist die interne Validität des Experiments in Frage gestellt (McKelvey und Ordeshook 1980). Man kann das Problem aber auch anders interpretieren, indem man sagt, daß die theoretische Ableitung falsche Annahmen Uber die von den Akteuren benutzten Entscheidungsregeln macht. Es könnte sein, daB die Spieler nicht ihren eigenen Nutzen, sondern den der Gruppe als Ganzes maximieren.

152

6. Gesetzgebung und Abstimmungsparadox

99 Prozent? Darauf gibt es keine eindeutige Antwort, weil es bei dieser Art von Experiment keine explizite Kontrollgruppe gibt, mit der man das Ergebnis vergleichen könnte. Ein strenger Test ist folglich nur dann möglich, wenn die Nullhypothese lautet, daß θ immer vorliegt; und diese These wäre bei jeder Erfolgsquote von weniger als 100 Prozent widerlegt. Diese Art deterministischer allgemeiner Gesetze ist aber offenbar nicht das, was die Wissenschaftler, die auf diesem Gebiet forschen, im Sinn haben. Sie scheinen vielmehr davon auszugehen, daß ihre theoretischen Vorhersagen probabilistischer Natur sind, haben aber nur eine vage Vorstellung davon, was eine erfolgreiche Vorhersagequote sein könnte. Wie wir sehen werden, gibt es diesbezüglich zwischen den Autoren ganz beträchtliche Unterschiede. Wenngleich diese Form der empirischen Überprüfung manchmal als Experiment bezeichnet wird, würde man sie doch besser als Demonstration unter Laborbedingungen charakterisieren (Boring 1954; Campbell und Stanley 1963). Ein echtes Experiment untersucht die Auswirkungen von einer oder mehreren kontrollierten Veränderungen der unabhängigen Variablen auf die Häufigkeit, mit der θ eintritt. Eine Demonstration hingegen zeigt, daß θ vorliegen kann, oder liefert Daten, die mit der Aussage, daß θ immer vorliegt, (nicht) übereinstimmen. Die Feststellung, daß es sich bei vielen Rational-Choice-Experimenten eigentlich um Demonstrationen handelt, heißt nicht, daß sie damit für wertlos erklärt werden, sondern weist vielmehr darauf hin, daß sich die so erzeugten Daten nur schwer interpretieren lassen. 114 Denn ohne eine experimentelle Kontrollgruppe treten dieselben Probleme wie bei quasi-experimentellen Schlußfolgerungen auf: Die Auswirkungen rationalen Handelns lassen sich nicht ohne weiteres von denen anderer intervenierender Faktoren unterscheiden. Es ist leicht nachvollziehbar, wie spieltheoretische Untersuchungen gelegentlich zu Labordemonstrationen geraten können. Im Gegensatz zu Modellen von Gruppenverhalten, mit denen Unterschiede zwischen beobachteten Ergebnissen erklärt werden sollen, geht es bei Rational-Choice-Modellen, wie weiter oben schon festgestellt, darum, bestimmte Gleichgewichtspunkte zu lokalisieren, auf die die legislative Entscheidungsfindung zulaufen wird. 115 Daher wollen Rational-Choice-Theoretiker natürlich herausfinden, ob die vorhergesagten Gleichgewichtspunkte tatsächlich existieren. Das Problem bei diesem Forschungsziel besteht darin, daß seine Verfolgung leicht zu einer Übung im Berechnen von Vorhersagequoten und im Aufspüren von Möglichkeiten gerät, jede theoretische Vermutung für erfolgreich zu erklären. Untersuchungen Uber das Verhalten in Ausschüssen bei Vorliegen eines Mehrheitsregel-Gleichgewichts verdeutlichen das Problem. Wie hoch muß der Anteil der Versuche sein, bei denen der Kern eine erfolgreiche Prognose liefert, damit er als geeignetes Prognoseinstrument betrachtet werden kann? Fiorina und 114 Einige der berühmten „entscheidenden Experimente" in der Physik haben auch keine explizite Kontrollgruppe; aber hier besagt die zu testende Hypothese tatsächlich, daß θ immer eintritt. Wie bereits gesagt, sind aus Rational-Choice-Modellen abgeleitete Hypothesen nicht von dieser Form. 1 ^ Auch wenn manche Modelle dieser Art stochastischer Natur sind (siehe Hoffman und Packel 1982), machen die meisten punktuelle Vorhersagen.

Die Bewertung der Daten

153

Plott (1978, 583 f.) berichten, daß von zwanzig Versuchen, bei denen den Probanden „hohe Auszahlungen" geboten wurden, in drei Fällen ein Ergebnis im Kern erzielt wurde; trotzdem kommen sie zu dem Schluß, daß der Kern ein aussagekräftiger Vorhersagemaßstab ist, weil das Ergebnis in vierzehn der zwanzig Versuche näher am Kem lag als an jedem anderen Punkt, der von den von ihnen angeführten alternativen Ansätzen vorhergesagt wurde. 116 Daß „der Kem beträchtliche Stützung erfährt", schließen McKelvey und Ordeshook (1984a, 189) aus zwei Experimenten, in denen der Kem in vier von neunzehn Fällen getroffen wurde. Auch Herzberg und Wilson (1991) empfehlen den Kern als „hinreichend gutes Vorhersageinstrument", obwohl er nur in zwei von vier Versuchen erreicht wurde. Und für Eavey und Miller (1984a, 721 f.) ist der Condorcet-Gewinner ein starker Prädiktor, und das, obwohl sich in ihren eigenen eindimensionalen Abstimmungsexperimenten der Idealpunkt des Medianwählers nur in fünf von acht Versuchen durchsetzte. Diese Unklarheit der Interpretation läßt sich durch den Rückgriff auf konventionelle statistische Hypothesentests keineswegs ausräumen. In den umfassenden Experimenten, von denen Berl u. a. (1976, 467) berichten, in denen es um die Abstimmung über vorgeschlagene Punkte auf einem zweidimensionalen Raster ging, wurde der Kern nur in drei von siebzehn Versuchen getroffen; und drei der Versuche führten zu Ergebnissen, die nach Ansicht der Autoren „weit" vom Kern entfernt lagen (was „nah" oder „weit" auf einem offenen Punkteraster bedeutet, wurde nicht im voraus spezifiziert). Dennoch kommen die Autoren zu dem Schluß, daß ihre Ergebnisse die empirische Anwendbarkeit des Kems stützen, weil - und hier wird die übliche statistische Logik der Hypothesenüberprüfung auf den Kopf gestellt - sie die Hypothese nicht widerlegen können, daß das beobachtete durchschnittliche Ergebnis des Experiments durch die Lage des Kerns erzeugt wurde. Die gleiche statistische Argumentation findet sich auch in Enderbys Untersuchung strukturell erzeugter Gleichgewichte bei themenweisen Abstimmungen (1993). „Wenn Kommunikation verboten ist und über jedes Thema einzeln abgestimmt wird", dann, so berichtet Enderby, „unterscheidet sich das Durchschnittsergebnis eines experimentellen Spiels nicht signifikant von der theoretischen Vorhersage eines stabilen Punktes im themenweisen Median", obwohl gerade mal vier der zwanzig Gremien das prognostizierte Ergebnis verabschiedeten (233). Um zu erkennen, daß man auf diese Weise die Vorhersagegenauigkeit einer Theorie nicht angemessen beurteilen kann, stelle man sich vor, daß sich keines der experimentellen Ergebnisse auch nur annähernd in 116 Die Verwendung eines vergleichenden Maßstabs zur Beurteilung von Hypothesen wirft eine wichtige Frage hinsichtlich der Beziehung zwischen Forschungsdesign und Analyse auf. Im Grunde genommen wandelt diese Analysemethode Experimente in Quasi-Experimente um, da im Rahmen eines einzelnen experimentellen Versuchs keine Veränderungen stattfinden. Daher hängt die daraus zu ziehende Schlußfolgerung völlig von der externen Validität der Anordnung des Experiments ab. Ein bemerkenswertes Beispiel für diese Form der Analyse findet sich in Laing und Olmstead (1978) sowie Laing und Slotznick (1987, 1991). Obwohl diese Experimente insgesamt gesehen auf ein Experiment Uber die Auswirkungen der Mindestgröße einer Mehrheit auf die Gesetzgebungsergebnisse hinauslaufen, halten sich die Autoren statt dessen mit dem Vergleich alternativer Prognosen innerhalb der einzelnen Experimente auf.

154

6. Gesetzgebung und Abstimmungsparadox

der Nähe des Kerns befindet, ihre mittlere Position jedoch genau im Gleichgewicht liegt. Ein solches Resultat, so attraktiv es nach den Kriterien herkömmlicher Hypothesentests auch sein mag, liefe der Vorhersage des spieltheoretischen Modells völlig zuwider. Was bedeutet also die Feststellung, daß ein Gleichgewicht Ergebnisse erzeugt, die sich nicht im Gleichgewicht befinden? Abgesehen von diesen Interpretationsschwierigkeiten ist es ganz offensichtlich unmöglich, zu einer allgemeinen Schlußfolgerung über den Erfolg des Kerns zu gelangen, da seine Erfolgsrate je nach Präferenzenkonstellation und Gesetzgebungsaufgabe stark schwankt. McKelvey und Ordeshook stellten ζ. B. fest, daß in bestimmten Stimmentausch-Experimenten die Erfolgsrate des Kems 50 Prozent und weniger beträgt (1980, 1981, 1982), während sie in anderen Fällen auf mehr als 90 Prozent ansteigt (1982, 127). Ähnliche Schwankungen finden sich auch in den von Plott 1991, Fiorina und Plott 1978 und Hoffman und Plott 1983 berichteten Experimenten. In einer Untersuchung verzeichneten Isaac und Plott (1978) Erfolgsquoten von 33 bis 100 Prozent, je nach der Struktur des Dreipersonenspiels, das sie untersuchten. Aus diesen Gründen sind wir nicht ganz so überzeugt von dem, wofür diese experimentelle Literatur am häufigsten gepriesen wird, nämlich die Erfolgsquote des Kems (s. Mueller 1989). Eine genauere Überprüfung der Daten muß sich auf die Bedingungen konzentrieren, unter denen der Kern tatsächlich erfolgreiche Vorhersagen liefert.

Unter welchen Bedingungen behauptet sich der Kern? Angesichts der unbeständigen Leistung des Mehrheitsregel-Gleichgewichts in legislativen Abstimmungsspielen liegt es nahe, Faktoren zu suchen, die Ausschüsse davon abhalten, Entscheidungen im Kern zu treffen. Eine Gruppe von Hypothesen beschäftigt sich mit der internen Validität von experimentellen Versuchen, Präferenzen über Gesetzgebungsergebnisse herbeizuführen. Streng genommen wird der Kern durch die Rangordnung der Auszahlungen und nicht durch ihre Höhe festgelegt. Wenn jedoch die Auszahlungen klein sind, kann die experimentell erzeugte Rangordnung durch außerexperimentelle Präferenzen der unterschiedlichsten Art ausgehebelt werden. Diese Hypothese wurde zwar bislang nicht umfassend getestet, aber es gibt Grund zu der Annahme, daß die Intensität der Motivationen der Spieler von Bedeutung ist. Fiorina und Plott (1978) argumentieren, daß sich die Höhe der Auszahlungen, die den Spielern angeboten werden, auf den Erfolg der Vorhersage von Laborergebnissen durch den Kern auswirkt. Salant und Goodstein (1990) führen manche Mißerfolge darauf zurück, daß die Spieler zwischen Auszahlungen im Kern und nahe des Kerns indifferent sind; diese Interpretation wird durch die intuitiv überzeugenden, aber statistisch nicht eindeutigen Daten von McKelvey und Ordeshook (1981) bestätigt.

Unter welchen Bedingungen behauptet sich der Kem?

155

Selbst wenn es zuverlässig sein sollte, läßt sich ein solches Ergebnismuster doch ganz unterschiedlich interpretieren.117 Da wir gewöhnlich davon ausgehen, daß für reale Gesetzgeber bei Abstimmungsergebnissen beträchtliche Nutzenauszahlungen auf dem Spiel stehen, sprechen diese Ergebnisse für die externe Validität der räumlichen Modelle. Aber ohne eine α priori- Vorstellung davon, was für die beteiligten Akteure eine hinreichend große Auszahlung ist, können Rational-Choice-Theorien allein anhand der formalen Struktur eines Spiels nichts darüber sagen, wann ihre theoretischen Gleichgewichte eine taugliche Prognose bilden. Ähnlich ist die Lage, wenn die Deliberation in kleinen Gruppen durch Faimeßüberlegungen beeinflußt wird. Nach den Erkenntnissen von McKelvey und Ordeshook ist Fairneß ein außergewöhnlich potenter Faktor in kleinen Gremien mit nur drei statt fünf Mitgliedern; ihrer Ansicht nach treten dann „Faimeßüberlegungen auf und verzerren die Präferenzen, die der Experimentator herzustellen versucht, wodurch Anwendung und Test der Theorie über das betreffende abstrakte Spiel ungültig werden" (1980, 179; s. auch McKelvey 1991). Nach Eavey und Miller spielt die Wahrnehmung der Fairneß des Ergebnisses auch in Spielen mit mehr als drei Teilnehmern eine wichtige Rolle (Eavey 1991; Eavey und Miller 1984b); entsprechende Daten aus anderen Studien sind allerdings nicht eindeutig (Laing und Olmstead 1978, McKelvey, Ordeshook und Winer 1978). Und wiederum gilt: Selbst wenn dieses vage Ergebnismuster eindeutig darauf hinweisen würde, daß Fairneß von Belang ist, ließe sich diese Erkenntnis ganz unterschiedlich interpretieren. Einerseits kann man nämlich Fairneß einfach als ein experimentelles Ärgernis ansehen, das es Experimentatoren unmöglich macht, die in ihren Modellen angenommenen Präferenzen herbeizuführen (Plott 1979; McKelvey und Ordeshook 1980). Andererseits kann man aber auch die Meinung vertreten, daß Fairneßnormen im Widerspruch zu der Nutzenmaximierungsannahme stehen, die der Rationalwahltheorie zugrunde liegt. 118 Die Experimente von Miller und Oppenheimer (1982) lassen vermuten, daß Fairneßnormen durch große Auszahlungen außer Kraft gesetzt werden können. Das wirft aber nur wieder die Frage auf, der wir bereits in früheren Kapiteln begegnet sind, nämlich ob die Rational-Choice-Theorie im voraus festlegt, wann Auszahlungen hinreichend groß sind.

Fragen nach Motivation, Gruppengröße und außerexperimentellen Belohnungen sind interessant, die empirischen Erkenntnisse dazu aber bisher nicht eindeutig. Es gibt allerdings eine Variable, die einen entscheidenden Einfluß auf die Erfolgsquote des Kerns zu haben scheint, und das ist die kognitive Komplexität der strategischen Aufgabe, vor der die Gesetzgeber jeweils stehen. In einer wichtigen und aufrichtigen Kritik ihrer eigenen Arbeit unterscheiden McKelvey und Ordeshook (1981) zwi117 Eavey (1991, 1994) widerspricht der Behauptung, daß Ergebnisse außerhalb des Kerns dadurch erklärt werden können, daß Spieler innerhalb bestimmter Grenzen zwischen den Auszahlungen indifferent sind. Sie legt Daten vor, die die Vermutung stützen, daß experimentelle Gremien regelmäßig Entscheidungen treffen, die außerhalb der von Salant und Goodstein postulierten „Auswahlmenge" liegen, wenn die Menge der verfügbaren Alternativen so ist, daß die Spieler eine Wahl treffen können, die für jeden einen Vorteil verspricht. 118 Und drittens kann man Normen als endogenes Produkt rationaler Kalküle auffassen (Weingast 1979; Panning 1982; Sinclair 1986).

156

6. Gesetzgebung und Abstimmungsparadox

sehen „Stimmenschacher" (log-rolling) und der Auswahl einer einzigen Option aus einer gegebenen Liste von Alternativen. Im ersten Fall sind die Spieler aufgefordert, mehrere anstehende Gesetzgebungsentscheidungen in einer einzigen Sitzung zu erledigen; im zweiten Fall wählen sie aus der Liste verfügbarer Optionen eine Alternative aus. Die beiden Spiele können so angelegt werden, daß sie äquivalente Auszahlungsmuster anbieten; die verschiedenen Permutationen der legislativen Endzustände, die aus dem „Stimmenschacher"-Spiel hervorgehen können, bilden die Liste der geordneten Ergebnisse in dem Spiel mit gegebenen Alternativen. Hinsichtlich der Anreizstruktur gibt es zwischen diesen beiden kooperativen Spielen also keinen Unterschied. 119 Wie McKelvey und Ordeshook (1983,713) feststellen, gibt es daher „aus der Sicht der kooperativen Spieltheorie keinen Grund, warum die beiden Untersuchungsanlagen zu unterschiedlichen Ergebnissen führen sollten". Dennoch ist wegen der Häufigkeit eines kurzsichtigen Stimmentauschs die Wahrscheinlichkeit, daß das Ergebnis im Kern liegt, bei „Stimmenschacher"-Spielen weitaus geringer als bei Spielen mit „endlichen Alternativen". Solch strategische Kurzsichtigkeit untergräbt nicht nur spieltheoretische Erklärungen, die davon ausgehen, daß Individuen optimale Strategien verfolgen; sie stellt auch die externe Validität von so gut wie allen Experimenten in Frage, in denen sich der Kern gut bewähren konnte. Es scheint doch etwas weit hergeholt anzunehmen, daß sich Gesetzgeber so verhalten, als beurteilten sie eine gegebene Liste von Endzuständen. Andererseits ist der Stimmentausch allem Anschein nach das sine qua non legislativer Politik. Die Bedeutung der strategischen Komplexität zeigt sich nicht nur in experimentellen Tests der oben beschriebenen Art, sondern auch in Anekdoten Uber die unterschiedliche strategische Begabung der einzelnen Laborgesetzgeber. Herzberg und Wilson (1991) beschreiben einen Ausschuß, in dem eines der Mitglieder ein Ergebnis gewitzt vom Kern wegbugsierte, indem es erst einen Mehrheitszyklus herbeiführte und dann durch Filibuster weitere Abstimmungen verhinderte. Isaac und Plott (1978, 304) berichten von einer Spielerin, die ihre Mitspieler mit leeren Drohungen überrumpelte und dadurch eine radikale Abweichung vom Kem herbeiführte. Miller und Oppenheimer (1982) beobachteten eine Spielerin, die eine unverhältnismäßig hohe Auszahlung dadurch erhielt, daß sie ihre Nutzenfunktion falsch darstellte, um eine Einigung auf ein faires Ergebnis zu verhindern. Weniger spektakulär, aber nicht weniger aufschlußreich ist der Fall eines mißlungenen Experiments, bei dem ein erfahrener Spieler, der versehentlich in eine Anfängergruppe gesteckt wurde, ein kleines Vermögen kassierte, indem er seine ahnungslosen Kollegen Uber die Spielregeln in die Irre führte (McKelvey und Ordeshook 1980, 170). Andere Anekdoten erzählen von Experimenten, in denen Ultimaten nicht konsequent durchgesetzt (Eavey und Miller 1984a, 724 f.) oder Großmäuler wegen ihrer Selbstüberschätzung beschummelt wurden (Eckel und Holt 1989, 767). Anscheinend kann die Asymmetrie 119 Die strategischen Mechanismen der beiden Spiele können sich aber unterscheiden, da in Stimmenschacher-Spielen die Teilnehmer verbindliche Übereinkünfte treffen können. In Anbetracht des Verbots von Seitenzahlungen ist allerdings nicht klar, warum Spieler einen Anreiz haben sollten, sich verbindlich auf ein Ergebnis festzulegen, das außerhalb des Kerns liegt. Es bleibt abzuwarten, ob nicht-kooperative Theorien (s. u.) den hier beobachteten Unterschied klären helfen.

Unter welchen Bedingungen behauptet sich der Kern?

157

beim spielerischen Talent der Probanden selbst dann zu Ergebnissen führen, die sich nicht mit Rational-Choice-Vorhersagen decken, wenn alle Spieler ihr Bestes geben, um ihre Auszahlungen zu maximieren. 120 Daß sich ausgerechnet die strategische Begabung als Bedrohung für die Vorhersagegenauigkeit der Spieltheorie erweisen soll, ist eine ziemliche Ironie. Dieser Zusammenhang ist vor allem deshalb interessant, weil in verschiedenen Untersuchungen gezeigt werden konnte, daß die Erfolgsquote des Kerns mit der „Erfahrung" von Spielern, die an früheren Ausschußabstimmungsspielen teilgenommen haben, nicht zunimmt. 121 Nach Einschätzung von McKelvey und Ordeshook (1981, 713) gelingt es „alten Hasen" insgesamt nicht besser als unerfahrenen Spielern, Ergebnisse im Kem zu erreichen, was zum Teil daran läge, daß erfahrene Spieler, die schon an einer oder zwei Gesetzgebungssitzungen teilgenommen haben, mit zyklischen Mehrheiten rechneten und sich daher vertagten, bevor der Kern erreicht sei! Selbst wenn die Auszahlungen so manipuliert werden, daß bei einem Stimmenschacher-Spiel bestimmte Tauschgeschäfte, die vom Kern wegführen, uninteressant werden (710), führen andere kurzsichtige Tauschaktionen am Ende zu Ergebnissen außerhalb des Kerns. Zusammenfassend kann man also sagen, daß im Gegensatz zur Höhe der Auszahlungen, bei der ja große Beträge die Spieler zu ermutigen scheinen, den theoretischen Erwartungen zu entsprechen, die durchschnittliche Erfahrenheit der Spieler keine große Rolle zu spielen scheint. Dieses experimentelle Ergebnismuster läßt sich im übrigen auch nicht dadurch umgehen, daß man auf die langjährige politische Erfahrung realer Gesetzgeber verweist. Selbst wenn man feststellen würde, daß bei gewählten Amtsträgem im Aggregat ein geringeres Maß an strategischer Kurzsichtigkeit herrscht, bliebe doch das Problem der Unterschiede in der strategischen Begabung der individuellen Gesetzgeber. Diese Lücke in der empirischen Anwendbarkeit der Rational-Choice-Theorie lädt zu interessanten Spekulationen über ihre Folgen ein. Die meisten etablierten politischen Institutionen werden von Amtsträgern bevölkert, die sich hinsichtlich ihrer politischen Erfahrung und Begabung stark unterscheiden. So kennen etwa manche 12 ® Spieltheoretiker selbst haben gelegentlich den Verdacht geäußert, daß die Auswirkungen der unterschiedlichen strategischen Argumentationsfähigkeit außerhalb des Labors sogar noch gravierender sein mögen. Wie McKelvey und Ordeshook schon zu Beginn der Entwicklung dieser Forschungsrichtung feststellten (1980, 178 f.): „Bisher wurden der Kern und Κ [die kompetitive Lösung] vor allem im Kontext räumlicher Spiele getestet, die ja keinen Anreiz bieten, die möglichen Ergebnisse in ihre Bestandteile zu zerlegen, bzw. die eine solche Zerlegung nicht zulassen.... Diesen Kontexten scheint es zu sehr an strategischer Komplexität zu fehlen, als daß sie die Kräfte enthüllen könnten, die vielleicht in echten, nicht-experimentellen Institutionen wie Gesetzgebungsorganen am Werk sind und die andere Ergebnisse herbeifuhren als die, die von einem Lösungskonzept vorhergesagt werden, das auf mathematisch abstrakten Darstellungen dieser Institutionen beruht." 121 Daten und theoretische Überzeugungen stehen hier in einem interessanten Spannungsverhältnis. Nach Ansicht von Isaac und Plott (1978, 310) würden erfahrene Probanden ihre Ergebnisse noch gefestigt haben. Sie schließen sich damit der Behauptung von Berl u. a. (1976, 473) an, daß .Ausreißer verschwinden würden, wenn die Probanden ein besseres Verständnis von den Eigenschaften ihrer Indifferenzkurven hätten". Diese Annahme wird jedoch durch keines der Experimente gestutzt, in denen die Spielererfahrung als Variable berücksichtigt wurde. Interessanterweise behaupten Berl u. a., daß bei gewiefteren Spielern Fehlprognosen abnehmen würden, während sie gleichzeitig verkünden, daß Spieler zum Kern gelangen können, ohne dessen Eigenschaften zu verstehen (475).

158

6. Gesetzgebung und Abstimmungsparadox

Abgeordneten die Geschäftsordnung des Repräsentantenhauses offenbar in- und auswendig, während andere schon froh und zufrieden sind, wenn sie anläßlich einer Abstimmung den Weg zum Plenarsaal finden. Die Ergänzung von Rational-ChoiceModellen dahingehend, daß sie die Präferenzen der Akteure, die Spielregeln und die unterschiedlichen strategischen Fähigkeiten der Spieler berücksichtigen, würde ein ohnehin schon komplexes analytisches System noch sehr viel komplizierter machen. Im Bemühen, die analytische Handhabbarkeit der Modelle zu erhalten, lehnen daher manche Theoretiker entsprechende Modifikationen ausdrücklich ab (Strom 1990). Auf empirischer Seite käme mit der Berücksichtigung der individuell unterschiedlichen strategischen Fähigkeiten zu der Menge von Schwierigkeiten, mit denen sich der anwendungsorientierte Forscher auseinandersetzen muß, noch ein weiteres Meßproblem hinzu. Aus theoretischer Sicht lenkt das Thema der strategischen Begabung den Blick auf eine umfassendere Menge von Fragen hinsichtlich der strategischen Innovation in komplexen institutionellen Entscheidungszusammenhängen. Theoretisch gibt es ein parlamentarisches Regelwerk, das die strategischen Möglichkeiten der Mitglieder des Repräsentantenhauses begrenzt. Praktisch sind jedoch nur einige dieser Regeln in Kraft und verbindlich, während andere keine Wirkung haben, in Vergessenheit geraten sind oder ignoriert werden (Strom 1990). Darüber hinaus sind die Grenzen zwischen de jure- und de facto-Regeln fließend, so daß von Zeit zu Zeit obskure Vorschriften aus der Mottenkiste gezogen werden (wie ζ. B. die Kompetenz des Lenkungsausschusses, anderen Ausschüssen Gesetzentwürfe zu entziehen [Matsunga und Chen 1976]). Versuche, die formale Struktur einer Institution in ein Spiel zu übersetzen, bei dem die Spieler festgelegte strategische Optionen haben, kranken leicht daran, daß sie nicht berücksichtigen, wie flexibel diese Optionen gehandhabt werden können und daß die Fähigkeiten der Gesetzgeber, daraus Vorteile zu schlagen, asymmetrisch verteilt sind. Spieltheoretische Darstellungen von Gesetzgebungsorganen stehen folglich vor einem Problem: Wie modelliert man Institutionen, in denen Gesetzgeber bestehende Regeln mißachten oder wiederentdecken oder auch - wenn die Vorschriften eine Aufhebung von Regeln zulassen - neue erfinden können?

Spiele ohne Kern Zwar sind experimentelle Versuche, die Bedingungen ausfindig zu machen, unter denen die Mehrheitsregel Ergebnisse im Kern erzeugt, zwar durchaus von theoretischem Interesse, aber beim zufälligen Aufeinandertreffen beliebiger Präferenzen zu multidimensionalen Alternativen kann es durchaus vorkommen, daß es gar keinen Kern gibt. Den analytischen Ergebnissen zufolge existiert in Gesetzgebungsorganen, die nach der einfachen Mehrheitsregel entscheiden, vor allem dann, wenn sie viele Mitglieder haben, nur selten ein Kern (Plott 1967; Schofield 1983). Folglich haben Spieltheoretiker versucht, Lösungskonzepte zu erarbeiten, die Vorhersa-

Spiele ohne Kern

159

gen für Spiele ohne Kern ermöglichen. Wie bereits erwähnt, hat die kompetitive Lösung (die mit κ bezeichnet wird), welche die Bildung bestimmter siegreicher Mindestkoalitionen vorhersagt, die ihren ausschlaggebenden Mitgliedern maximale Auszahlungen bieten, einige empirische Erfolge erzielt, indem sie relativ wenige der möglichen Endzustände vorhersagt und dennoch die überwiegenden Mehrheit der letztendlich auftretenden Ergebnisse trifft (McKelvey und Ordeshook 1979, 1980). Aber es gibt auch Ergebnisse, die mit der kompetitiven Lösung nicht übereinstimmen. Wenn Spieler risikoscheu sind, wenn zwischen einem bestimmten Ergebnis außerhalb von κ und den entsprechenden Ergebnissen von κ nur geringe Unterschiede bestehen (McKelvey und Ordeshook 1983) oder wenn Spieler aus Fairneßgründen nach einem „universalistischeren" Ergebnis suchen, dann wählen sie manchmal auch Ergebnisse außerhalb von κ (Eavey 1991). Vor allem dann, wenn sie ihre Präferenzordnungen gegenseitig kennen, halten die Spieler die kompetitive Lösung für moralisch willkürlich und ziehen ihr Alternativen vor, die sich ebenfalls auszahlen, aber fairer sind (Miller und Oppenheimer 1982). Bereits in einer der ersten Veröffentlichungen über Abstimmungsexperimente mit nichtübertragbarem Nutzen wurde festgestellt, daß dieses „Problem" des Fair Play weitverbreitet ist (Kaiisch u. a. 1954, 326 f.; s. auch Laing und Olmstead 1978). Mehrere der führenden Lösungskonzepte (wie ζ. B. die kompetitive Lösung, der Copeland-Gewinner oder die uncovered set) haben die erfreuliche analytische Eigenschaft, den Kern vorherzusagen, wenn es ihn denn gibt. Das heißt aber auch, daß jedes dieser Lösungskonzepte mit den Problemen des Kerns behaftet ist. Wenn wir davon ausgehen, daß Mehrheitsregel-Gleichgewichte nur selten vorkommen, ist diese Unzulänglichkeit unter dem Gesichtspunkt der externen Validität nicht besonders tragisch. Sie wirft jedoch eine Reihe schwieriger theoretischer Fragen auf. Es könnte durchaus sein, daß der Erfolg der kompetitiven Lösung ebenso wie der des Kems davon abhängt, wie die Alternativen den Spielern präsentiert werden, und daß die strategische Komplexität des Stimmentauschs oder bestimmter Spiele mit endlichen Alternativen (McKelvey und Ordeshook 1983) die Vorhersagegenauigkeit von κ erheblich beeinträchtigt.122 Etwa seit Mitte der achtziger Jahre hat das Interesse an der kompetitiven Lösung nachgelassen; statt dessen erfreut sich die „unüberdeckte Menge" (uncovered set) zunehmender Beliebtheit (Miller 1980; Shepsle und Weingast 1984; McKelvey 1986). Eine Alternative Y überdeckt X, wenn Y von einer Mehrheit gegenüber X vorgezogen wird und alle Vorschläge Z, die Y zu Fall bringen, auch X schlagen. Die unüberdeckte Menge ist dann wie folgt definiert: „Man betrachte eine Alternative W im Problemraum X. ... In der Regel wird es eine Menge von Alternativen geben, die W nicht überdeckt. Die Menge dieser Alternativen kann als die von W unüberdeckte Menge UC(W) bezeichnet werden. Man betrachte nun eine andere Alternative Y und die Menge UC(Y) von Alternativen, die nicht von Y überdeckt werden. Nach dieser 122 McKelvey und Ordeshook (1980, 178) vermuten, daß Κ manchmal besser abschneidet als der Kern (obwohl der Kern eine Teilmenge von Κ ist), wenn es keinen Kern gibt, weil K-Ergebnisse eher dem natürlichen Gang von Verhandlungen entsprechen; was allerdings mit einer natürlichen Abfolge von Vorschlägen gemeint ist, geht aus der gegenwärtigen Theoriediskussion nicht klar hervor.

160

6. Gesetzgebung und Abstimmungsparadox

Vorgehensweise läßt sich für jede Alternative im Problemraum die unüberdeckte Menge definieren. Anschließend betrachte man die Schnittmenge all dieser Mengen, die alle Alternativen enthält, die durch keine andere Alternative im betreffenden Problemraum überdeckt werden. Diese Menge ist die unüberdeckte Menge UC(X) des gesamten Problemraums" (Strom 1990,114). Wenn gewiefte Entscheidungsträger bei der Abstimmung über Gesetzentwürfe Änderungsmöglichkeiten haben und die Abhandlung der Tagesordnung vorwärtsgerichtet ist, d. h. getroffene Entscheidungen nicht noch einmal überdacht werden können, dann steht zu erwarten, daß die Ergebnisse innerhalb der unüberdeckten Menge liegen (Shepsle und Weingast 1984). 123 Position und Größe der unüberdeckten Menge hängen von der Form der Indifferenzkurven der Gesetzgeber, von der Dimensionalität des Problemraums und der Verteilung der Idealpunkte in diesem Raum ab. Haben die Gesetzgeber zirkuläre Indifferenzkurven, so liegt die unüberdeckte Menge meist in der Nähe des geometrischen Mittelpunktes der Idealpunkte der Gesetzgeber. Die unüberdeckte Menge wird im allgemeinen um so größer sein, je asymmetrischer die Verteilung der Idealpunkte der Gesetzgeber ist; sie ist aber stets auf die Pareto-Menge beschränkt, die sich bei kreisförmigen Indifferenzkurven innerhalb des Vielecks befindet, das die am weitesten außerhalb liegenden Idealpunkte miteinander verbindet (Miller 1980; McKelvey 1986; Cox 1987). Daher kann die unüberdeckte Menge bei bestimmten Problemen klein und zentral gelegen und bei anderen eher weit auseinandergezogen sein. Bei Umverteilungsfragen ζ. B„ bei denen es ebensoviele Dimensionen wie Gesetzgeber geben kann, erstreckt sich die unüberdeckte Menge möglicherweise auf den gesamten Entscheidungsraum. Es ist schwer zu sagen, wie gut sich dieses Lösungskonzept in den bislang durchgeführten Experimenten bewährt hat, und zwar schon allein deshalb, weil es sogar in einfachen Fällen, in denen nur fünf Gesetzgeber mit kreisförmigen Indifferenzkurven Entscheidungen auf zwei Dimensionen bewerten, äußerst schwierig ist, den Bereich zu ermitteln, der von der unüberdeckten Menge eingenommen wird (Tovey 1993; Eavey 1994). Da die Verteilung der Idealpunkte der Gesetzgeber, die Form ihrer Indifferenzkurven sowie die Dimensionalität des Problemraums selten genau bekannt sind, lassen sich die Vorhersagen der unüberdeckten Menge besonders außerhalb des Labors nur sehr schwer überprüfen. Cox und McCubbins (1993, 130) vermuten, daß die unüberdeckte Menge „den politischen Programmen von Personen, die Führungspositionen anstreben, klare Grenzen [setzt], und zwar engere Grenzen als die der gesamten Bandbreite von Meinungen innerhalb der betreffenden Partei". Sie führen nicht weiter aus, welche diese klaren Grenzen sind und wie man sie bestimmen kann. 124 Und selbst wenn ihre Behauptung durch den Beleg von Fällen 123 Wenn Änderungen möglich sind, dann besteht für einen bedeckten Vorschlag per definitionem immer die Gefahr, zu Fall gebracht zu werden. Daher würden sich gewiefte Gesetzgeber gar nicht erst die MUhe machen, einen bedeckten Vorschlag zu verabschieden. Ordeshook (1986) sowie Ordeshook und Schwartz (1987) weisen jedoch darauf hin, daß die Änderungsverfahren im Kongress, die riickwärtsgerichtet und unzusammenhängend sind, nicht zu den prognostizierten Ergebnissen in der unüberdeckten Menge führen. 124 Kiewiet und McCubbins (1991, Kap. 3) behandeln die Frage nach der zentralen Position der Fraktionsführer im Repräsentantenhaus und im Senat, setzen dabei aber ein eindimensionales Konti-

Ist die Existenz eines Kerns von Belang?

161

zentral positionierter Fraktionsfiihrer erhärtet würde, bliebe doch zu klären, ob zentral positionierte Kandidaten aufgrund ihrer ideologischen Vorlieben attraktiver sind als andere oder ob umgekehrt Personen, deren Ambitionen und persönlicher Stil sie in die Rolle eines Kandidaten für den Fraktionsvorsitz drängen, einfach nicht zu extremen ideologischen Überzeugungen neigen. Es ist also schwer zu sagen, was außer trügerischer formaler Präzision diese empirische Behauptung durch den Bezug zur unüberdeckten Menge gewinnt.

Ist die Existenz eines Kerns von Belang? Ob es einen Kern gibt oder nicht, so das Hauptargument der Literatur zum Abstimmungsparadox, habe Auswirkungen auf die zu beobachtende Stabilität legislativer Ergebnisse. Bevor wir uns mit den Belegen für diese Behauptung beschäftigen, wollen wir zunächst darüber nachdenken, was im Rahmen solcher Laborspiele unter „Instabilität" zu verstehen ist. Während wir von Instabilität gewöhnlich im Zusammenhang mit Entscheidungen sprechen, die Uber einen längeren Zeitraum hinweg von derselben gesetzgebenden Körperschaft (und denselben Akteuren) getroffen werden, wird Instabilität im Experiment daran gemessen, in welchem Umfang unterschiedliche Gesetzgebungsorgane mit gleichen Präferenzkonstellationen unterschiedliche Entscheidungen verabschieden.125 Ein unmittelbares Problem, auf das wir bereits früher hingewiesen haben, ist dabei, daß nur ein loser operationaler Zusammenhang zwischen dem Begriff der Instabilität und dem Ausmaß der Unterschiede in den Ergebnissen besteht. Wenn sich Spieler für einen Punkt auf einem offenen zweidimensionalen Raster entscheiden müssen, läßt sich nur schwer sagen, wie groß die Unterschiede in den Ergebnissen verschiedener Gremien sein müssen, um überhaupt von „Instabilität" sprechen zu können. Das gilt selbst für Spiele mit einer endlichen Anzahl von Alternativen, bei denen die Ergebnisse für jeden Spieler ordinal angeordnet sind. Es lassen sich leicht Beispiele für Alternativenmengen vorstellen, bei denen Ergebnisse, die ordinal vergleichsweise eng beieinander liegen, dennoch inhaltlich hinreichend verschieden sind, um als signifikant unterschiedliche Ergebnisse angesehen zu werden. Da Instabilität nur vage definiert ist und damit auch nur unzulänglich gemessen werden kann, verliert diese Literatur einiges von ihrer theoretischen Bedeutung. nuum zwischen,.liberal" und „konservativ" voraus. Beschränkt man den Entscheidungsraum auf eine einzige Dimension, so sind jedoch Lösungskonzepte wie die untlberdeckte Menge überflüssig. Man könnte vermuten, daß die Entscheidungen ein und desselben Ausschusses Uber einen längeren Zeitraum ceteris paribus tendenziell weniger Varianz aufweisen als diejenigen verschiedener, vermutlich gleichartiger Ausschüsse zu ein und demselben Zeitpunkt, da Gesetzgeber im ersten Fall möglicherweise nicht ihre frühere politische Haltung revidieren oder eine gegebene Koalition mehr als einmal bilden möchten (Mueller 1989; Ordeshook 1992). Falls diese außertheoretischen Überlegungen richtig sind, dann müßten die in der Literatur präsentierten experimentellen Ergebnisse „instabiler" aussehen als die eines Uber einen längeren Zeitraum beobachteten Gesetzgebungsorgans.

162

6. Gesetzgebung und Abstimmungsparadox

Trotzdem lassen sich einige skizzenhafte Schlußfolgerungen aus dem Muster der experimentellen Ergebnisse ziehen. Am interessantesten ist sicher die Beobachtung, daß Spiele ohne Kern nicht deutlich mehr instabile Ergebnisse erzeugen als Spiele mit Kern (Fiorina und Plott 1978; Laing und Olmstead 1978); manchmal ist es sogar äußerst schwierig, zwischen den beiden Spieltypen überhaupt einen Unterschied festzustellen (Laing und Slotznick 1987, 1991). Zwar ist die Streuung der Ergebnisse bei Spielen ohne Kern in der Regel größer, aber der Unterschied ist nicht so gewaltig, wie man aufgrund der Beobachtungen McKelveys (1976) und der nachfolgenden Interpretationen (Riker 1980) annehmen könnte. Dieser Befund weicht, wie Fiorina und Plott (1978) feststellen, radikal von dem ab, was Rational-ChoiceTheoretiker als die empirischen Folgen von Sozialwahlprozessen unter der Mehrheitsregel dargestellt haben. Dieses Ergebnis gilt sogar nach wie vor als „rätselhaft" und „problematisch", obwohl, wie ein Lehrbuchautor berichtet, „die experimentellen Befunde nicht als ausreichend betrachtet wurden, um die Theorie in Frage zu stellen" (Strom 1990,74 f.) Wenn die Existenz eines Kerns keine erkennbaren Auswirkungen auf die beobachtete Instabilität experimenteller Ergebnisse hat, dann heißt dies, daß eine der wichtigsten empirischen Behauptungen, die spieltheoretischen Analysen legislativen Verhaltens zugrunde liegen - nämlich, daß das Mehrheitsregel-Gleichgewicht die legislative Stabilität beeinflußt - kaum Stützung erfährt. Rational-Choice-Theoretiker reagieren offenbar unterschiedlich auf dieses Ergebnismuster. Einige bezweifeln, daß die experimentellen Daten solide und umfangreich genug sind, um ihre theoretischen Erwartungen zu erschüttern (Strom 1990). Andere halten die Instabilitätsproblematik generell für Schnee von gestern oder für empirisch irrelevant (Krehbiel 1991). Und wieder andere schreiben die empirischen Mißerfolge den Mängeln der kooperativen Spieltheorie zu, obwohl sie zugeben, daß Versuche, das Verhalten in Ausschüssen als nicht-kooperative Spiele zu modellieren, zu keiner Verbesserung der Vorhersagegenauigkeit geführt haben (Salant und Goodstein 1990). Diejenigen Vertreter der kooperativen Spieltheorie, die das Problem weder umnoch übergehen, versuchen meist zu zeigen, daß der Befund im Grunde genau ins Schwarze trifft, indem sie argumentieren, daß ein Lösungskonzept (vielleicht eines, das seiner Entdeckung noch harrt) vorhersagt, daß sich die Ergebnisse auch dann innerhalb eines begrenzten Bereichs von Vorschlägen bewegen, wenn es keinen Kern gibt. Die Nichtexistenz eines Gleichgewichts heißt demnach nicht unbedingt, daß, wie Riker sagte, „alles möglich ist". In diesem Fall prognostiziert der CopelandGewinner einen Punkt, die kompetitive Lösung - wenn es sie gibt - eine Handvoll Punkte, und die unüberdeckte Menge oder das „Herz" gibt vor, daß sich das Ergebnis innerhalb eines zentral gelegenen Bereichs befinden wird, dessen Größe von der Symmetrie der Idealpunkte der Entscheidungsträger abhängt. Anders ausgedrückt komme also, obwohl bei der einfachen Mehrheitsregel, wenn kein Kern existiert, jedes denkbare Ergebnis möglich ist, tatsächlich nur eine kleine Menge von Vorschlägen als wahrscheinliche Ergebnisse in Betracht. Das Problem bei diesem letzten Argument ist, daß es den geringen Unterschied zwischen Konstellationen mit und ohne Kern nicht hinreichend erklären kann. Selbst

Die Auswirkungen struktureller Faktoren

163

Lösungskonzepte wie die kompetitive Lösung, nach der aus Präferenzenkonstellationen ohne Kern nicht unbedingt Chaos entstehen muß, implizieren doch unterscheidbare Grade von Stabilität. Obwohl das Lösungskonzept der unüberdeckten Menge ein größeres Netz anbietet, um die Streuung legislativer Ergebnisse einzufangen, bleibt doch das Problem der Erklärung für die Stabilität oder Instabilität von Entscheidungen bestehen. Lösungskonzepte wie die unüberdeckte Menge schränken den Bereich der Ergebnisse etwas ein, die mit einiger Wahrscheinlichkeit zu beobachten sein werden, wenn vorwärtsgerichtete Tagesordnungen und die einfache Mehrheitsregel über das Schicksal politischer Fragen entscheiden, die sich auf nur wenigen Dimensionen bewegen. Chaos im Sinne von „alles ist möglich" wird gewöhnlich ausgeschlossen. Die unüberdeckte Menge scheint jedoch nicht restriktiv genug, um erklären zu können, warum experimentelle Spiele mit und ohne Kern (einschließlich solche mit anscheinend großen unüberdeckten Mengen) nicht zu Ergebnissen führen, die sich stärker voneinander unterscheiden. Zweitens überschätzt diese Verteidigung das Ausmaß der empirischen Bewährtheit mancher Lösungskonzepte. Zumindest unterschätzt sie die Empfindlichkeit dieser Lösungskonzepte gegenüber exogenen Faktoren wie etwa dem strategischen Geschick. Und drittens läßt sich einwenden: Wenn die Existenz eines Mehrheitsregel-Gleichgewichts als ein Faktor interpretiert wird, der für die Entscheidungsstabilität nur geringe Bedeutung hat, was könnte dann noch erklären, warum Entscheidungen unterschiedlich stabil sind?

Die Auswirkungen struktureller Faktoren Vielen Überlegungen der Rational-Choice-Theorie liegt die Überzeugung zugrunde, daß „Verfahren und andere institutionelle Aspekte der Entscheidungsprozesse in Ausschüssen für das Zustandekommen der Ergebnisse von Bedeutung sein dürften" (Plott und Levine 1978, 146). Manche Autoren dieser Forschungsrichtung sind sogar der Meinung, daß die Untersuchung der Auswirkungen von Verfahren das zentrale intellektuelle Anliegen der Public-Choice-Forschung ist (Plott 1979). In den letzten Jahren ist eine rasante Zunahme von Arbeiten zu beobachten, die sich mit den Auswirkungen der Kontrolle über die Tagesordnung, offener im Unterschied zu geschlossenen Abstimmungsregeln (open und closed rules), der Übertragung von politischer Entscheidungsverantwortung an Parlamentsausschüsse und ähnlichem beschäftigen. Wie weiter oben schon gesagt, hat diese Forschungsrichtung zahlreiche wichtige analytische Arbeiten hervorgebracht; darüber hinaus verspricht sie, empirische Erkenntnisse zu liefern, die für das Verständnis und die Gestaltung von politischen Institutionen unmittelbar von Bedeutung sind. Ihre Hypothesen wurden bisher allerdings durch empirische Befunde nur zum Teil bestätigt. Bevor wir die experimentellen Ergebnisse über die Auswirkungen von Veränderungen der institutionellen Struktur näher betrachten, wollen wir überlegen, welche

164

6. Gesetzgebung und Abstimmungsparadox

Art von Befunden mit der dieser Sichtweise von Institutionen zugrunde liegenden Stoßrichtung unvereinbar wäre. Da spieltheoretische Ansätze ihre Vorhersagen über die Auswirkungen institutionellen Wandels aus Veränderungen in der mathematischen Struktur der Spielsituation ableiten, wäre es für sie fatal, wenn sich herausstellte, daß scheinbar wichtige formale Veränderungen der institutionellen Struktur geringen Einfluß oder scheinbar irrelevante Veränderungen großen Einfluß auf das Entscheidungsergebnis haben. 126 Abgesehen von der Frage nach dem Auftreten experimenteller Anomalien kann man im übrigen auch fragen, ob diese Modelle uns weiterführende Erkenntnisse über die Umstände liefern, unter denen sie wie erwartet zu funktionieren scheinen. Die Behauptung, daß die Debatte über politische Entscheidungen unter open rule (Änderungen der Gesamtvorlage sind erlaubt) zu anderen Ergebnissen führt als unter closed rule (Änderungen sind nicht erlaubt), ist schön und gut; sie wurde aber längst auch von informellen Beobachtern legislativer Politik geäußert. Etwas ganz anderes ist hingegen die Behauptung, daß die Entscheidung des Lenkungsausschusses, eine open oder closed rule vorzuschreiben, im Vergleich mit anderen Faktoren, die von spieltheoretischen Modellen nicht berücksichtigt werden - wie etwa dem strategischen Geschick, mit dem Abgeordnete ihre Ziele verfolgen - , eine besonders bedeutende Determinante des Endergebnisses ist. Es besteht kein Zweifel, daß bestimmte elementare Hypothesen über die Auswirkungen der institutionellen Struktur durch experimentelle Ergebnisse gestützt werden. Plott und Levine (1978) haben gezeigt, daß je nachdem, wie die Alternativen in einer Reihe von Abstimmungen über jeweils zwei Alternativen gepaart werden, die Endergebnisse dramatisch voneinander abweichen können. 127 Isaac und Plott (1978) wiesen nach, daß legislative Entscheidungen äußerst unterschiedlich ausfallen, je nachdem, ob ein Spieler das alleinige Recht hat, die Änderungs- oder Zusatzvorschläge der anderen Spieler anzuerkennen. Wilson (1986) hat gezeigt, daß bei vorwärtsgerichteten Abstimmungsverfahren, bei denen Uber Zusatzanträge immer sofort abgestimmt wird, so daß bei Annahme des Antrags dann der Zusatz schon zum status quo gehört, deutlich mehr Entscheidungsveränderungen stattfinden als bei rückwärtsgerichteten Abstimmungsregeln, bei denen zuerst nacheinander über alle Änderungs- und Zusatzanträge entschieden wird, bevor dann der vollständig ergänzte Gesetzentwurf dem status quo gegenübergestellt wird. 128 126 Wenn sich eine Prognose Uber den Zusammenhang zwischen institutionellem Wandel und den Entscheidungsergebnissen als falsch erweist, kann sich der Spieltheoretiker natürlich immer auf die Position zurückziehen, daß komplexere Modelle Erfolg haben werden, wo einfache scheitern, und daß sich das mit der Zeit schon erweisen werde. 127 Zu einem ähnlichen Ergebnis kommt auch Ordeshook (1986,427) im Rahmen einer Zusammenfassung verschiedener Untersuchungen, die er in Zusammenarbeit mit McKelvey durchgeführt hat: Bei einer offenen Tagesordnung wird das Ergebnis durch Κ vorhergesagt; am anderen Ende des Kontinuums, wenn also die Tagesordnung eine Reihe von Vorschlägen einander in paarweisen Abstimmungen gegenüberstellt, wird das Ergebnis durch den themenweisen Median vorhergesagt. 128 Gelegentlich wird behauptet, daß Modelle, die von vorwärtsgerichteten Tagesordnungen ausgehen, insofern falsch sind, als „sich gesetzgebende Körperschaften im allgemeinen rückwärtsgerichteter Tagesordnungsverfahren bedienen" (Strom 1990, 117). Dennoch entsprechen vorwäitsgerichtete Tagesordnungsmodelle einer wichtigen Klasse legislativer Phänomene, nämlich Gesetzgebungsvorhaben, Uber die nach geschlossener Regel in aufeinanderfolgenden Sitzungen debattiert wird.

Die Auswirkungen struktureller Faktoren

165

Subtilere Manipulationen hatten hingegen nicht die vorhergesagte Wirkung. Insbesondere treten immer dann Anomalien auf, wenn die Vorhersagen in nicht-trivialer Weise von den strategischen Fähigkeiten der Akteure abhängen. In einem aufschlußreichen Experiment räumten Isaac und Plott (1978) einem Spieler nicht nur das Recht ein, die Ergänzungsvorschläge der anderen Spieler anzuerkennen, sondern gaben ihm zudem die Möglichkeit, seinen Mitspielern einen einzigen Vorschlag zu unterbreiten, den sie nur annehmen oder ablehnen konnten. In keinem einzigen Fall der Versuchsreihe schlug der Spieler, der die Tagesordnung kontrollierte, aus seiner besonderen Macht, ein solches Ultimatum stellen zu können, Kapital. In ähnlichen Experimenten zu Spielen mit endlichen Alternativen nutzten einige der Spieler, die die Tagesordnung kontrollierten, die zyklischen Präferenzen der Ausschußmitglieder geschickt aus, während andere sich unerklärlicherweise mit deutlich suboptimalen Verhandlungsergebnissen zufrieden gaben (Eavey und Miller 1984a). 129 Die vielleicht bemerkenswertesten Spiele diese Art - bemerkenswert deshalb, weil sie in vielerlei Hinsicht dem hypothetischen Beispiel entsprechen, das wir zu Beginn dieses Kapitels vorgestellt haben - sind die von Kormendi und Plott (1982) diskutierten zweidimensionalen räumlichen Spiele. In diesen Spielen war der status quo eine Politik, die alle beteiligten Spieler äußerst unattraktiv fanden; und doch ergriff in keinem der Versuche der Spieler, der Uber die Tagesordnung bestimmen konnte, die Gelegenheit, einen Vorschlag zu unterbreiten, den die anderen Spieler nur annehmen oder ablehnen konnten und der seinem Idealpunkt entsprach. Die Ergebnisse zeugen letztlich davon, daß bei Personen, die die Tagesordnung steuern, gewaltige Unterschiede hinsichtlich ihrer Neigung und Fähigkeit bestehen, eine Entscheidung nach ihren eigenen Wünschen herbeizuführen. Die Untersuchung von Herzberg und Wilson über den Einfluß von Transaktionskosten kommt zu ähnlich ungünstigen Ergebnissen (1991). Ungeachtet der Tatsache, daß eine Art „Bußgeld" für die Annahme von Ergänzungsvorschlägen dazu dienen sollte, ein Gleichgewicht zu erzeugen, hatte das Vorliegen oder Fehlen von Transaktionskosten keine signifikante Auswirkung auf das Muster von Gesetzgebungsentscheidungen. Bei offener Tagesordnung wurde dieses Gleichgewicht sogar in keinem einzigen der elf Versuche des Experiments erreicht. Und selbst wenn die Spieler gezwungen wurden, sich mit dem Gleichgewichtsvorschlag als Teil einer vom Experimentator vorab festgelegten Tagesordnung auseinanderzusetzen, kam das vorhergesagte Ergebnis nur in vier von siebzehn Fällen zustande. Die Berechnung einer optimalen Strategie unter Berücksichtigung der Transaktionskosten Uberforderte offenbar die strategischen Fähigkeiten der Akteure. Und es ist nicht nur so, daß bestimmte strukturelle Manipulationen die vorhergesagten Ergebnisse nicht herbeiführen. Umgekehrt scheinen auch theoretisch irrelevante Variablen erhebliche Auswirkungen zu haben. Wenn ein Spieler, der zwar die Tagesordnung kontrolliert, aber selbst nicht stimmberechtigt ist, einen gleichgesinnten „Verbündeten" im Gremium hat, kommen in der Regel für ihn sehr viel günsti129 Andere Beispiele für eine suboptimale Spielweise finden sich bei Laing und Slotznick 1987, 1991.

166

6. Gesetzgebung und Abstimmungsparadox

gere Ergebnisse zustande, als wenn niemand in dem Gremium sitzt, der seine Präferenzordnung teilt, und zwar auch dann, wenn sich die Präferenzen des Medianwählers nicht ändern (Eavey und Miller 1984a, 728). Entscheidungen werden von so geringfügigen Faktoren beeinflußt wie ζ. B., ob die Gesetzgeber schon vor der eigentlichen Sitzung miteinander verhandelt haben und ob ein Ausschuß relativ informell oder nach „Roberts Ordnungsregeln" geleitet wird (Hoffman und Plott 1983). Die Schlußfolgerung, die man aus all diesen Ergebnissen ziehen kann, ist, daß der Rational-Choice-Ansatz zwar eine Methode bietet, um die Auswirkungen von exogen induzierten institutionellen Veränderungen vorherzusagen, daß aber die empirische Tragfähigkeit dieser Prognosen von Faktoren abhängt, die jenseits der Grenzen einer formalen Analyse von Institutionen und räumlich angeordneten Anreizen liegen. Analytisch betrachtet mögen zwei Gleichgewichte gleich aussehen. Die empirische Untersuchung kann jedoch ergeben, daß sie sich im Hinblick auf ihre Vorhersagegenauigkeit deutlich unterscheiden. Im allgemeinen hat es fast den Anschein, als verhalte sich der empirische Erfolg eines postulierten Gleichgewichts umgekehrt proportional zu seiner Abhängigkeit von strategischer Berechnung und rücksichtsloser Durchsetzung. Dieses Problem beruht zum Teil zweifellos darauf, daß sich manche Probanden im Experiment einfach „durchwursteln". Plott und Levine (1978) wiesen schon früh darauf hin, daß ganze dreißig Prozent ihrer „Gesetzgeber" über einer Serie von Abstimmungen keine durchgängige Entscheidungsregel anwandten. Einige Untersuchungen - vor allem die von Laing und Olmstead (1978), McKelvey und Ordeshook (1983) sowie von Eckel und Holt (1989) - haben diese Schlußfolgerung erweitert, indem sie zeigten, daß Laborgesetzgeber weder durchweg kurz- noch weitsichtig, weder eigennützig noch fair, weder „machiavellistisch" noch zurückhaltend, sondern eine durchaus gemischte Truppe sind. Solche Heterogenität streut Sand ins Getriebe eines analytischen Systems, das seine Vorhersagen über die Ergebnisse von Gruppenprozessen aus einer kleinen Menge von Axiomen über die Motive und das Verhalten von Menschen ableitet.

Zur internen und externen Validität von Experimenten Wissenschaftler, die sich mit der experimentellen Überprüfung von RationalChoice-Hypothesen befassen, geben sich recht bescheiden, wenn es um die Rechtfertigung ihrer Arbeit geht. Zum einen sind die Autoren, wie wir bereits festgestellt haben, schnell bereit, die begrenzte externe Validität ihrer Experimente einzuräumen, und das Labor als eine Art Durchleuchtungsinstrument darzustellen, in dem lediglich die Brauchbarkeit empirischer Hypothesen getestet wird (Fiorina und Plott 1978). McKelvey und Ordeshook (1984b, 92) etwa bemerken, daß ihre „Experimente [nur zeigen], daß sich unser Modell umsetzen läßt, nicht daß es tatsächliches Abstimmungsverhalten beschreibt"; auch an anderer Stelle sind sie nicht weniger

Zur internen und externen Validität von Experimenten

167

bescheiden (vgl. 1980, 156; 1990b, 311 f.). Ähnlich argumentieren Plott und Levine (1978, 156), daß Labordemonstrationen eine notwendige Bedingung für die externe Anwendung seien, und stellen fest: „Wenn wir nicht einmal in der Lage sind, Gruppenentscheidungen unter einfachen Laborbedingungen zu beeinflussen, indem wir unsere Ideen Uber den Einfluß der Tagesordnung anwenden, dann können wir nicht guten Gewissens behaupten, daß unsere Theorie im komplizierteren Fall der .realen Welt' funktioniert." Umgekehrt folgt daraus jedoch, daß die Laborsituation den Forschern die Möglichkeit gibt, unbestätigte Hypothesen zu verwerfen. In diesem Sinne ziehen Fiorina und Plott aus ihrer Untersuchung des Verhaltens in Ausschüssen (1978, 590) weitreichende Konsequenzen, indem sie pauschal feststellen: „ Z a h l r e i c h e w e ithin bekannte Modelle, die sich für die natürliche Welt intuitiv interpretieren lassen, funktionieren [im Laborversuch] nicht. Anwendungsorientierte Wissenschaftler, die Situationen untersuchen wollen, die unseren Spezifikationen entsprechen, sollten nicht auf diese Modelle zurückgreifen." Ist es nicht merkwürdig, die Realitätsferne der Laborbedingungen einzugestehen und ihnen gleichzeitig das Recht vorzubehalten, Hypothesen als für die Anwendung auf die Außenwelt unbrauchbar zu brandmarken? Könnte man nicht argumentieren, daß gerade die Merkmale, die für die externe Invalidität dieser Experimente verantwortlich sind, den Einfluß von Variablen ermöglichen, die sich im Labor als bedeutungslos erwiesen haben? Um nur ein Beispiel hierfür zu nennen, kommen wir kurz auf das Problem zurück, daß in der Spielsituation wirksame Präferenzen einzig und allein durch monetäre Auszahlungen erzeugt werden. Vielleicht würden Fairneßnormen oder das Gefühl von Gruppenloyalität, die durch den Charakter von Laborausschüssen weitgehend unterdrückt werden, eine größere Rolle spielen, wenn es bei den Verhandlungen um eine ideologisch geladene Frage ginge, der gegenüber die Spieler tiefverwurzelte Präferenzen hegen. Die experimentelle Forschung der Zukunft könnte neue Wege gehen, indem sie etwa die Präferenzen von Probanden im Hinblick auf inhaltlich bedeutsame Themen mißt (ζ. B. die Verfahren, mit denen die Klausurergebnisse eines Kurses bewertet werden), dann Spieler mit vermutlich übereinstimmenden Präferenzordnungen Gremien mit unterschiedlichen Verfahrensregeln zuteilt und ihnen erlaubt, Sachfragen zu debattieren, die mit ihren (zuvor gemessenen) ideologischen Präferenzen zusammenhängen. Zusätzlich zu oder anstelle von monetären Anreizen könnte ein nach dem Zufallsprinzip ausgewähltes Gremium dadurch belohnt werden, daß seine Entscheidung tatsächlich umgesetzt wird. Es könnte sich lohnen, auch andere Grundmerkmale von Abstimmungsexperimenten neu zu überdenken. Die Methode, mit der in der Regel die Auswirkungen unterschiedlicher institutioneller Strukturen untersucht werden, ist eine Querschnittsanordnung, wobei eine Gruppe ζ. B. nach closed rule und eine andere nach open rule verfahren muß. Dieser Ansatz ist u. a. insofern problematisch, als er die psychologischen Effekte von institutionellen Veränderungen des status quo nicht berücksichtigen kann. Die wenigen Fälle, in denen Probanden im Laufe eines Experiments mit institutionellen Veränderungen konfrontiert wurden, lassen die Vermu-

168

6. Gesetzgebung und Abstimmungsparadox

tung zu, daß zwischen der Veränderung der Struktur und der Spielweise der Individuen eine Beziehung besteht. Isaac und Plott (1978, 304) stellten ζ. B. fest, daß in Spielen, in denen einer Person zunächst die Kontrolle Uber die Tagesordnung übertragen und dann wieder entzogen wurde, Ergebnisse außerhalb des Kerns zustande kamen. Das lag daran, daß diese Person, die leicht ein Ergebnis im Kern hätte erzwingen können, „häufig verärgert oder frustriert war, weil sie die Handlungen der anderen Spieler nicht mehr kontrollieren konnte, und diese Präferenz nie zu erkennen gab". In welchem Staat gibt es keine Gruppe von verärgerten Menschen, die immer noch grollend einem verlorenen Privileg nachtrauern? Welches parlamentarische Manöver, durch das ein Verfahren geschickt manipuliert wurde, hat nicht zur Folge, daß irgendeine Minderheitsgruppierung sich über den Tisch gezogen fühlt? Das heißt aber, daß sich die gedächtnislosen formalen Modelle institutioneller Auswirkungen auf legislatives Verhalten vielleicht noch schlechter bewähren, wenn sie experimentellen Tests unterzogen werden, bei denen Framing- oder EndowmentEffekte hinzukommen (Tversky und Kahneman 1981; Kahneman und Tversky 1984). Labortests von Rational-Choice-Modellen haben sich bisher auf eine eher kleine Menge von Faktoren konzentriert, die bei der legislativen Entscheidungsfindung von Bedeutung sein könnten. Noch nicht versucht wurde jedoch ζ. B., die Robustheit spieltheoretischer Vorhersagen gegenüber sozialpsychologischen Manipulationen zu erforschen, bei denen es etwa um Konformität (Asch 1958), soziale Identität (Tajfel 1978), Stimmung (Salovey u. a. 1991) oder soziale Rollen (Biddle und Thomas 1966; Abelson 1976) geht und die aus spieltheoretischer Sicht für das Ergebnis irrelevant sein müßten. 130 Den Bibliographien der hier erörterten Untersuchungen nach zu urteilen, sind Rational-Choice-Vertreter mit dem breiteren Spektrum sozialpsychologischer Forschung weitgehend nicht vertraut oder davon zumindest wenig beeindruckt. In dieser Hinsicht hinkt die experimentelle Erforschung legislativen Verhandeins anderen Forschungszweigen, die sich mit Rational-Choice-Hypothesen beschäftigen, wie etwa den Arbeiten über soziale Dilemmata, die im vorigen Kapitel betrachtet wurden, hinterher. Man denke etwa an die Bedeutung der Gruppenidentifikation in realen Gesetzgebungsorganen, deren Mitglieder sich bekanntlich nach Partei, Ideologie, Region und Rasse zusammenschließen. Zahlreiche psychologische Untersuchungen, die in mehreren Ländern repliziert wurden, lassen vermuten, daß Menschen bereitwillig Gruppengrenzen ziehen und Außenseiter ohne weiteres zugunsten von Angehörigen der eigenen Gruppen benachteiligen - selbst wenn die Grundlage der Gruppenidentifikation etwas so Triviales ist wie ästhetische Präferenzen (Tajfel 1978). Man könnte

Selbst in der sozial sterilen Laborumgebung, in der Fremde für kurze Zeit interagieren, um dann wieder getrennte Wege zu gehen, gibt es Anzeichen dafür, daß solche Faktoren am Werk sind. McKelvey und Ordeshook (1984) berichten von einem Ergebnis außerhalb des Kems, das zustandekam, als eine Probandin wiederholt gegen ihr eigenes Interesse handelte, um zwei Mitspieler zu bestrafen, die sie unsympathisch fand. Miller und Oppenheimer (1982) stellten fest, daß Probanden, die darauf bestanden, kompetitiv zu verhandeln, für ihre Verletzung universalistischer Normen bestraft wurden, indem sie aus der siegreichen Koalition ausgeschlossen wurden.

Räumliche Theorien und ihr Verhältnis zu den Daten

169

sich ein Verhandlungsexperiment vorstellen, bei dem die Probanden vor Spielbeginn gezielt eine soziale Identität erwerben, wobei in manchen Fällen die Aufteilung in soziale Gruppen mit der Präferenzenkonstellation korreliert wird und in anderen nicht. Inwiefern würde wohl die Vorhersagegenauigkeit der spieltheoretischen Prognosen über die Bildung von Koalitionen und das Entscheidungsergebnis von dieser Art von Manipulation beeinflußt werden? Oder man betrachte die Rolle von institutionellen Normen für legislatives Verhalten. Verhandlungsexperimente unternehmen bislang keinerlei Anstrengungen, Verbündete einzusetzen, um die Spieler zu sozialisieren, obwohl das Lernen institutioneller Normen bei der Vorhersage sowohl von experimentellem Verhalten (Bandura 1977) als auch von tatsächlichem Gesetzgebungsverhalten (Matthews 1960) eine wichtige Rolle zu spielen scheint. Wie würden sich wohl Probanden in einer Verhandlungssitzung verhalten, wenn jeder von ihnen in zuvor inszenierten Ausschußsitzungen, bei denen Verbündete eingesetzt wurden, „universalistischem" anstelle von „profitgierigem" Verhalten ausgesetzt gewesen wäre? Bewähren sich spieltheoretische Vorhersagen in beiden normativen Welten gleichermaßen gut? Inwieweit unterdrücken Gesetzgeber ihre eigenen politischen Ansichten und passen sich an, um mit den anderen zurechtzukommen? Solange sich die experimentelle Forschung nicht mit den Wirkungszusammenhängen beschäftigt, die in diesen offenen Fragen nach der externen Validität angesprochen werden, läßt sich nur schwer sagen, was uns das Verhalten in experimentellen Ausschüssen über die Prozesse in legislativen Institutionen und in den Sozialsystemen, die sie verkörpern, verrät.

Räumliche Theorien und ihr Verhältnis zu den Daten Räumliche Modelle legislativen Verhaltens haben bisher Phänomene wie Überredung oder endogenen Präferenzenwandel, Gruppen- oder Parteisolidarität, die Verteidigung eines Standpunktes und verschiedene von der Führungsspitze angebotene Seitenzahlungen in der Regel ignoriert oder bagatellisiert. Darüber hinaus setzen diese Modelle im allgemeinen eine eher karge institutionelle Umgebung voraus, in der es nur wenige Verfahrensregeln gibt und Gesetzgeber keine Transaktionskosten haben, wenn sie Gesetzentwürfe einbringen oder Koalitionen organisieren. Solche Unzulänglichkeiten weisen räumliche Modelle jedoch nicht zwangsläufig auf. Man könnte sich etwa ein Modell legislativen Verhaltens vorstellen, in dem die Gesetzgeber einen Nutzenbonus erhalten, wenn sie die politische Position vertreten, die von ihrem Parteiausschuß präferiert wird (Kiewiet und McCubbins 1991, Kap. 6). Ebenso ist ein Modell denkbar, das ein komplexes Geflecht von Verfahrensnormen für die Überstellung von Gesetzentwürfen an Ausschüsse bzw. ihre Änderung und Ergänzung durch das Plenum zuläßt. Mit der gleichzeitigen Einführung von mehr als einigen wenigen Verbesserungen dieser Art könnte es zwar zugegebenermaßen sehr schwer werden, aus dem Modell noch analytische Erkenntnisse zu ziehen. Das

170

6. Gesetzgebung und Abstimmungsparadox

ändert aber nichts an der Tatsache, daß die grundlegende Natur räumlicher Modellierungen die Berücksichtigung einer zunehmend genauen Abbildung von Gesetzgebungsprozessen nicht ausschließt. 131 Der allgemeine Trend bei der räumlichen Modellierung legislativen Verhaltens geht in letzter Zeit dahin, eine größere Ähnlichkeit mit den tatsächlichen Eigenschaften von Institutionen wie dem Kongreß zu erzielen. Ausschüsse, Parteien, Transaktionskosten und eine Menge von Verfahrensregeln sind gängige Merkmale legislativer Modelle geworden. Mit dieser inhaltlichen Neuorientierung hat sich auch die Form der Rational-Choice-Modellierungen verändert. Langsam aber sicher haben Rational-Choice-Theoretiker die kooperative Spieltheorie und deren Konzentration auf die Gleichgewichtsstrategien maximierender Koalitionen anstatt maximierender Individuen hinter sich gelassen. 132 Die meisten neueren Arbeiten beruhen auf der nicht-kooperativen Spieltheorie und konzentrieren sich auf sich selbst durchsetzende Nash-Gleichgewichte. Diese Modelle betonen meist insbesondere die Rolle der Reihenfolge, in der die Akteure ziehen können, der Informationen, die ihre Züge preisgeben, ihrer Erwartungen hinsichtlich zukünftiger Interaktionen und ihrer Fähigkeit, sich gegenseitig zu sanktionieren. 133 Man kann mit einiger Sicherheit behaupten, daß die große Mehrheit von fortgeschrittenen Studierenden der Politikwissenschaft, auf deren Stundenplan heutzutage die Rational-Choice-Theorie steht, in der Tradition der nicht-kooperativen Spieltheorie ausgebildet wird. Die Rivalität zwischen der kooperativen und der nicht-kooperativen Spieltheorie ist nicht neu, und die Vorliebe für die eine oder die andere spiegelt in mancher Hinsicht unterschiedliche Einschätzungen der analytischen Handhabbarkeit verschiedener Theorieansätze wider. So stellten etwa McKelvey und Ordeshook (1982) fest:

131 Wie bereits erwähnt, wird das Problem der analytischen Handhabbarkeit noch erheblich größer, wenn man versucht, formale Modelle von Institutionen zu konstruieren, deren Verfahren die Aufhebung von Regeln vorsehen. Eine mögliche Strategie bei der Abbildung solch einer Institution in Form eines Spiels wäre der Entwurf eines neuen Spieltyps. 132 Dazu bemerkt Ordeshook (1992, 303): „Wenn wir Spieler als Koalitionen auffassen und Strategien als die Auszahlungsvektoren, die Koalitionen erlangen können, dann erscheint das Konzept des Kerns wie eine natürliche Übertragung der Idee des Nash-Gleichgewichts auf einen kooperativen Kontext. Die Übrigen Lösungskonzepte wie die V-Menge und die kompetitive Lösung weisen dagegen eine beunruhigende ad Aoc-Qualität auf, da die Hypothesen, durch die sie definiert werden, nicht aus unmittelbar ersichtlichen Rationalitätspostulaten abgeleitet sind. Wenn zudem die Verfahren zur Durchsetzung von Entscheidungen von der Art der getroffenen Übereinkünfte abhängen, dann können wir nicht sicher sein, daß diese Überlegungen universell gelten, da sie die Frage der Durchsetzung umgehen." 133 Im Anschluß an ihre Schilderung, wie die nicht-kooperative Spieltheorie auf die legislative Entscheidungsfindung bei Verteilungsfragen angewendet werden kann, meinen Baron und Ferejohn (1989, 1200), die Schwäche kooperativer Modelle sei darauf zurückzuführen, daß sie strategische Feinheiten nicht berücksichtigen: „Kooperative Modelle der Politik abstrahieren von dem Prozeß, durch den Alternativen entstehen, und nehmen an, daß sich ungehindert Koalitionen bilden werden, um Alternativen zu überstimmen, wenn eine Mehrheit der Mitglieder eine bestimmte andere verfügbare Option bevorzugt. Kooperative Theorien generieren nur schwache Vorhersagen, weil sie die Implikationen von Strukturen für die Durchführung koordinierter Maßnahmen (oder die Koalitionsbildung) in Gesetzgebungssituationen außer acht lassen."

Räumliche Theorien und ihr Verhältnis zu den Daten

171

„Nash ... war ursprünglich der Ansicht, daß es besser wäre, kooperative Spiele genau so zu modellieren, daß sie alle diese Kommunikations- und Kooperationsmöglichkeiten berücksichtigen ..., und dann diese extensive Form als ein nicht-kooperatives Spiel zu analysieren und darin nach Nash-Gleichgewichten zu suchen. ... Leider gibt es bei diesem Ansatz ein offensichtliches Problem, nämlich die extensive Spielform zu spezifizieren, wenn einigermaßen umfassende Kommunikationsmöglichkeiten zur Verfügung stehen. Vertreter der kooperativen Spieltheorie haben gehofft, diese Klippe dadurch umschiffen zu können, daß kooperative Züge nicht in die extensive Form aufgenommen, sondern die Kooperationsmöglichkeiten in der charakteristischen Funktion zusammengefaßt werden" (1982, 127). Anders ausgedrückt kann man die kooperative Spieltheorie als eine theoretische Abkürzung auffassen, als ein Sortiment formaler Modelle, das über viele strategische Feinheiten hinwegsieht und andere Gleichgewichtskonzepte als das Nash-Gleichgewicht benutzt. Man hoffte, daß sich aus einem vereinfachten analytischen Rahmen (auch wenn seine Fundierung in der individuellen Rationalität umstrittener sein mag) empirisch haltbare Vorhersagen ergeben würden. Insbesondere hoffte man, diese Prognosen erfolgreich auf eine Reihe von Gesetzgebungssituationen anwenden zu können, die aus nicht-kooperativer Sicht analytisch verschieden und vermeintlich unhandhabbar komplex sind. Der Aufstieg der nicht-kooperativen Spieltheorie hat wohl weniger mit den empirischen Unzulänglichkeiten ihrer kooperativen Cousine zu tun, als mit dem Wunsch, die Rational-Choice-Theorie ausschließlich auf das Maximierungsverhalten strategisch denkender Individuen zu gründen. Große Anstrengungen wurden unternommen, die nicht-kooperative „Mikrofundierung" für aus der kooperativen Theorie abgeleitete Ergebnisse zu erarbeiten. Aber es wird vermutet, daß viele kooperative Resultate - insbesondere solche, die eine aufrichtige Stimmabgabe voraussetzen keine oder nur eine sehr schwache Grundlage in der nicht-kooperativen Theorie haben. Nach Meinung mancher Rational-Choice-Theoretiker gehört daher ein Großteil der kooperativen Spieltheorie (und demnach auch ein Gutteil dieses Kapitels) gar nicht in den Bereich der Rational-Choice-Theorie. Die Meinungsverschiedenheiten darüber, was denn nun eigentlich eine RationalChoice-Theorie im Unterschied zu einer Sozialwahl- oder einer räumlichen Theorie ausmacht, bringen uns in eine vertrackte Lage. Die Literatur über die Instabilität der Mehrheitsregel wird allerorten zitiert, und ihr Thema wird auch in neueren Arbeiten, die auf nicht-kooperativen Ansätzen beruhen, nach wie vor aufgenommen (Kiewiet und McCubbins 1991; Cox und McCubbins 1993). Hätten wir uns mit dieser Literatur nicht eingehend auseinandergesetzt, hätten wir uns sicher dem Vorwurf ausgesetzt, einen der wichtigsten Anwendungsbereiche übersehen zu haben. Da wir uns nun aber mit der Instabilitätsliteratur ausführlich befaßt haben, könnte man uns umgekehrt vorhalten, daß wir Anwendungen diskutiert haben, die gar nicht wirklich auf der Rational-Choice-Theorie beruhen. Allerdings ist darauf hinzuweisen, daß mit diesem letzten Argument ein Großteil der empirischen Arbeiten hinfällig würde, die zeigen, wie Rational-Choice-Theorien unser Verständnis von politischer Entscheidungsstabilität bereichern, so daß herzlich wenig Material zu diskutieren übrig

172

6. Gesetzgebung und Abstimmungsparadox

bliebe. Im Bemühen um eine umfassende Darstellung werden wir uns den nicht-kooperativen Theorien legislativen Verhaltens nochmals in Kapitel 8 zuwenden, wo wir drei neuere Untersuchungen Uber den Kongreß und das Ausschußwesen behandeln. Einstweilen stellen wir fest, daß sich zwar verschiedene Modelle der nichtkooperativen Spieltheorie ansatzweise mit legislativer Stabilität und den Auswirkungen von Verfahrensregeln auf Entscheidungsergebnisse beschäftigen (Epple und Riordan 1987; Baron und Ferejohn 1989), daß aber noch keine entsprechenden empirischen Tests durchgeführt wurden. In dem Maße, in dem nicht-kooperative Spieltheorien legislativen Verhaltens einen Entwicklungsstand erreichen, der Hypothesentests möglich macht, wird auch diese allmählich entstehende empirische Forschung in der Lage sein, einige der methodologischen Mängel früherer Arbeiten zu überwinden. Die methodologischen Bedenken, die wir in diesem Kapitel vorgetragen haben, kreisen vor allem um die Frage, was es denn eigentlich bedeutet, eine analytische Aussage empirisch zu testen. Wie Page (1978, 18) feststellt, gehen Rational-Choice-Theoretiker die empirische Anwendung ihrer Hypothesen offenbar auf zwei ganz unterschiedlichen Wegen an: „Manchmal legen sie sich auf eine ausgewählte Menge von Annahmen fest und lassen zu, daß die Theorie mit ihrer Vorhersagekraft steht oder fällt. In anderen Fällen betrachten sie dagegen manche ihrer Annahmen offenbar als Randbedingungen oder empirische Parameter und beschränken damit die Geltung der Theorie auf solche Fälle, in denen diese Annahmen zutreffen." Bei der ersten Vorgehensweise wird dem Unterschied zwischen analytischer Vermutung und empirischem Ergebnis Rechnung getragen und die Hypothese der Falsifikation ausgesetzt. Die zweite hingegen erzeugt eine Tautologie insofern, als festgelegt wird, daß eine Vorhersage dann gilt, wenn die Voraussetzungen des Modells gelten. Wenn aber die Voraussetzungen des Modells erfüllt sind, dann folgt die Vorhersage logisch zwingend aus ihnen. Eine falsche Vorhersage kann dann nur bedeuten, daß die Übereinstimmung zwischen der analytischen Hypothese und ihrer Anwendung an irgendeiner Stelle nicht mehr gegeben ist. Die Rational-Choice-Theorie kann nur dann gehaltvolle empirische Untersuchungen hervorbringen, wenn sich die theoretischen Begriffe des Modells von den empirischen Umständen unterscheiden, auf die das Modell angewendet wird, und trotzdem eine Vorhersage gemacht wird. Die Anwendung eines spieltheoretischen Modells, das keine Normen berücksichtigt, führt zu potentiell interessanten Vorhersagen, da nicht sicher ist, inwieweit die Annahmen des Modells mit der empirischen Anwendung übereinstimmen. Wenn dann aber die empirischen Fakten der Vorhersage nicht entsprechen und daraufhin behauptet wird, daß Nutzen, den jemand aus fairem Verhalten zieht, ein experimenteller Fehler ist, wird das Modell zugleich weniger interessant und weniger anfällig für empirische Falsifizierung. Praktisch läßt sich nur schwer bestimmen, wo auf einer Skala von „überprüfbar" bis „tautologisch" räumliche Modelle der Gesetzgebungspolitik angesiedelt sind. Oft genug endet eine zunächst kühne überprüfbare Hypothese als zaghafte Tautologie, nachdem sie auf abweichende Daten gestoßen ist. Shepsle und Weingast (1987a) etwa behaupteten ursprünglich, die Macht von Ausschüssen beruhe darauf,

Räumliche Theorien und ihr Verhältnis zu den Daten

173

daß sie im Vermittlungsausschuß ein ex post-Veto durchsetzen könnten: ,J)as ex post-Veto ... reicht aus, um der Kompetenz eines Ausschusses, Gesetzentwürfe zurückzuhalten oder einzubringen, Wirksamkeit zu verleihen, obwohl die Wirksamkeit dieser Kompetenzen für die meisten Beobachter lediglich ein Produkt informeller Vereinbarungen auf Gegenseitigkeit zu sein scheint" (89). Als sie jedoch mit dem Einwand konfrontiert wurden, daß nur ein Teil der Gesetzentwürfe dem Vermittlungsausschuß überwiesen wird und daß zudem dem Plenum und den Fraktionssprechern verschiedene Mittel zur Verfügung stehen, um unbotmäßige Vermittler an die Zügel zu nehmen oder gar das gesamte Vermittlungsverfahren zu umgehen (Krehbiel 1987), zogen sich Shepsle und Weingast auf die Position zurück, daß sie bei ihren Überlegungen zwar an den US-Kongreß „gedacht" hätten, ihre Argumentation aber „stilisiert" und eine „theoretische Übung" sei (937). 134 Unser Einwand richtet sich hier nicht gegen stilisierte Erklärungsmodelle. Wir wissen einfach nicht, ob man empirisch ergiebige Vorhersagen aus Modellen institutioneller Prozesse ableiten kann, die etwa darüber hinwegsehen, daß Gesetzgeber Regeln außer Kraft setzen können. Wir haben noch nicht einmal prinzipielle Einwände gegen Vereinfachungen, die Gesetzgebungsorgane und Verwaltungsapparate wie uniforme Akteure behandeln (Banks 1989) oder Gesetzgebungsorgane mit gerade mal drei Mitgliedern besetzen (Epple und Riordan 1987). Uns geht es vielmehr um die Frage, ob die auf diesem Wege generierten Hypothesen anhand von Daten zu testen sind. Solange zwischen sparsamen Vermutungen und analytischen Randbedingungen nur unzureichend unterschieden wird, lautet die Antwort in praktischer Hinsicht „nein". Sobald Schwierigkeiten auftauchen, können solche Modelle immer durch die Behauptung gerettet werden, daß die Daten auf eine ungültige Anwendung des Modells schließen lassen. Wenn die Daten einer Vorhersage nicht entsprechen, macht folglich das Modell die Daten dafür verantwortlich, anstatt umgekehrt. 135 Überblicksarbeiten über die Rational-Choice-Literatur zur Gesetzgebungspolitik enden üblicherweise mit dem Aufruf, empirisch tätig zu werden (Krehbiel 1988; Strom 1990; Rieselbach 1992). Unsere Ausführungen bilden davon keine Ausnahme. Indem wir aber darauf aufmerksam gemacht haben, wie rar überzeugende empirische Anwendungen gesät sind, hoffen wir auch, Politikwissenschaftler zu ermutigen, über die besonderen Probleme nachzudenken, die bei der empirischen 134 Zudem behaupten Shepsle und Weingast (1987b, 941) nun, daß „sich das Ausschußsystem unseres Modells empirisch an das Ausschußsystem des Repräsentantenhauses in den fünfziger und sechziger Jahren anlehnt", worauf in ihrem ursprünglichen Aufsatz (1987a) aber nicht hingewiesen worden war. Dieses Problem tritt nur selten auf, wenn Rational-Choice-Modelle speziell dazu entwickelt werden, um konkrete legislative Erscheinungen zu erklären (wie etwa die Entscheidungsfindung im USKongreß). Zwar können praktische Hindernisse die überzeugende Überprüfung einer gegebenen Hypothese erschweren; ist aber ein Modell erst einmal auf ein bestimmtes Explanandum festgelegt, kann sich der Forscher nicht so einfach auf die Position zurückziehen, daß sein Modell irgendein Phänomen erklärt, auch wenn es mit den Daten aus dem Kongreß nicht vereinbar ist. Deshalb halten wir auch mehr von Rational-Choice-Modellen, die von einem konkreten Anwendungsgegenstand ausgehen und auf ihn zugeschnitten sind (ζ. B. Kiewiet und McCubbins 1992, Krehbiel 1991 sowie Cox und McCubbins 1993), als von den unzähligen Rational-Choice-Studien, die sich sozusagen nur im Abspann mit der Frage beschäftigen, worauf man sie denn anwenden könnte.

174

6. Gesetzgebung und Abstimmungsparadox

Überprüfung deduktiver Systeme auftreten. Zu jeder möglichen Theorie des Gesetzgebungsverfahrens kann man folgende Fragen stellen: Worin besteht die Übereinstimmung zwischen den theoretischen Variablen einer analytischen Aussage und der Welt der Politik? Wie könnte man diese Variablen messen? Für welche Arten von Institutionen soll das Modell gelten? Welche Beobachtungsdaten würden unser Vertrauen in die Erklärungskraft des Modells erschüttern? Und schließlich: Wenn das Modell den Daten nicht entspricht, sollte es dann über Bord geworfen werden? Und wenn nicht: Wie könnte man das Modell modifizieren, ohne ihm die Fähigkeit zu nehmen, nicht-triviale überprüfbare Hypothesen zu generieren?

7. Räumliche Theorien des politischen Wettbewerbs

175

7. Räumliche Theorien des politischen Wettbewerbs

In einer Hinsicht stimmen fast alle Politikwissenschaftler, die sich mit dem politischen Wettbewerb in den USA beschäftigen, der Rational-Choice-Theorie zu: Daß Politiker Strategien verfolgen, deren Zweck es ist, ihre Chancen zu vergrößern, ein Wahlamt zu gewinnen oder zu behalten, gehört zum politikwissenschaftlichen Allgemeingut. Es überrascht niemanden, daß diejenigen Senatoren, die sich 1990 zur Wiederwahl stellen mußten, mit deutlich geringerer Wahrscheinlichkeit für die „Lest-es-von-meinen-Lippen"-Steuererhöhung jenes Jahres stimmten als Senatoren, die nicht mit einem Denkzetteln von Seiten der Wähler rechnen mußten (Jacobson 1993). Auch verwundert es kaum, daß viele gewählte Amtsträger einen Großteil ihrer Zeit der im Grunde ziemlich unangenehmen Aufgabe widmen, Gelder für ihren nächsten Wahlkampf einzuwerben (Green und Krasno 1988). Und kaum einem Beobachter ist entgangen, wie Präsidenten von Roosevelt bis Eisenhower ihre Themen und Taktiken auf die öffentliche Meinung abstimmten (Dallek 1979; Greenstein 1982) oder wie Präsidentschaftskandidaten ihre politischen Botschaften strategisch verändern, um einen größeren Wählerkreis anzusprechen (Polsby und Wildavsky 1991). Eine Fülle solcher Erkenntnisse über den „Wahlkonnex" (Key 1965; Mayher 1974) zwischen öffentlicher Meinung und Politikerverhalten sind ganz unabhängig von Rational-Choice-Überlegungen seit langem bekannt. Die meisten Wissenschaftler, die politisches Massenverhalten erforschen, stimmen zudem irgendeiner Variante der Rational-Choice-These zu, daß sich Wähler ceteris paribus eher zu einem Kandidaten hingezogen fühlen, von dem sie glauben, daß er einer bestimmten Idealmenge von Eigenschaften mehr entspricht als alle anderen Anwärter, wobei sich die Idealvorstellung ebenso gut an der ideologischen Position wie am persönlichen Stil oder der Gruppenzugehörigkeit orientieren kann. Nur wenige Politologen würden bestreiten, daß Barry Goldwater, George McGovern, Walter Mondale, Jesse Jackson, Pat Robertson oder Michael Dukakis die Gunst der Mehrheit deswegen nicht gewinnen konnten, weil ihre Programme oder ihre Persönlichkeit dem Wählergeschmack irgendwie nicht entsprachen. Und was die allgemeine These anbelangt, daß gewählte Amtsträger den Unmut der Wähler heraufbeschwören, wenn sie deren Moralvorstellungen nicht zu entsprechen scheinen, weht zweifelsohne über dem ganzen Fach das Banner der RationalChoice-Theorie. Aber ebenso wie man nicht schon dadurch zum Marxisten wird, daß man an die Existenz grundlegender Konflikte zwischen den ökonomischen Klassen glaubt, oder zum Freudianer, nur weil man der Ansicht ist, daß Menschen unbewußte Motive haben, wird man ob der bloßen Überzeugung, daß gewählte Amtsträger strategisch handeln, um ihre Popularität beim Wähler zu steigern, allenfalls in einem ganz schwachen Sinne zum Rational-Choice-Theoretiker. Im Unterschied zu den nicht

176

7. Räumliche Theorien des politischen Wettbewerbs

sehr formalen theoretischen Verallgemeinerungen über das strategische Verhalten von Politikern, wie sie traditionell die politische Wettbewerbsforschung dominiert haben, ist es das Ziel von Rational-Choice-Theoretikern, die Existenz und die Lage von Gleichgewichten auf der Grundlage einer Reihe von Axiomen Uber die Ziele der Akteure, die ihnen zur Verfügung stehenden Informationen sowie die Beschränkungen ihrer strategischen Alternativen zu ermitteln. Anders ausgedrückt verspricht die Rational-Choice-Theorie die Möglichkeit, aus den komplexen Zusammenhängen des politischen Wettbewerbs die wesentlichen Merkmale eines Spiels herauszudestillieren, das man anschließend heranziehen kann, um das Verhalten von Kandidaten vorherzusagen - vorausgesetzt, diese spielen das Spiel in gewisser Hinsicht optimal. Es stellt sich also die Frage, ob die Metapher des Spiels und die damit gewonnenen theoretischen Ergebnisse im Hinblick auf Gleichgewichtsstrategien zu neuen und empirisch erhärteten Erkenntnissen über den politischen Wettbewerb führen. Ohne bestreiten zu wollen, daß es äußerst hilfreich sein kann, einen analytischen Rahmen zu haben, der sich auf die strategischen Dimensionen des politischen Wettbewerbs konzentriert, finden wir kaum Anhaltspunkte dafür, daß die RationalChoice-Theorie einen Beitrag zur empirischen Erforschung von Wahlkämpfen, Kandidatenstrategien usw. geleistet hat. Theorie und Empirie haben sich nur selten und sporadisch wechselseitig inspiriert. Wie ein Rational-Choice-Theoretiker 1983 feststellte, widmet sich ,,[f]ast die gesamte Literatur ... der wichtigen und grundlegenden Frage nach der Existenz oder Nicht-Existenz von Gleichgewichten. ... Deshalb hat die Forschung über formale Modelle so gut wie keinen empirischen Gehalt" (Wittman 1983, 142). Seitdem hat sich nur wenig geändert. In den Jahren nach der Veröffentlichung von Pages Choices and Echoes in Presidential Elections (1978), Aldrichs Before the Convention (1980) sowie Enelows und Hinichs Spatial Theory of Voting (1984), die zu den wenigen systematischen empirischen Untersuchungen der Leistungsfähigkeit räumlicher Wahlkampftheorien zählen, hat sich der Ausstoß an nicht-experimentellen Untersuchungen auf diesem Gebiet allenfalls noch verlangsamt. Typisch für Arbeiten aus jüngerer Zeit ist Peter Coughlins Probabilistic Voting Theory (1992), die auf 252 Seiten an genau vier Stellen beiläufig auf tatsächliche politische Ereignisse und nur einmal auf einen Wahlkampf eingeht. Mehr als drei Jahrzehnte, nachdem Downs räumliche Modelle in die Politikwissenschaft einführte, gibt es schlicht und einfach noch immer kaum angewandte Forschung zu Wahlen in den USA, die wir hier evaluieren könnten. Dieser Mangel an empirischen Studien paßt überhaupt nicht zu dem großen Interesse, das Rational-Choice-Theoretiker dem politischen Wettbewerb zwischen Kandidaten entgegenbringen. Die Liste von Veröffentlichungen auf diesem Gebiet ist lang und wird rasch länger. Der Stand der empirischen Forschung läßt sich auch nicht darauf zurückführen, daß es innerhalb der Theorie zu Fluktuationen in den geistigen Strömungen gekommen ist. Anders als bei der Entwicklung der RationalChoice-Theorie zum Gesetzgebungsverhalten, die sich von der kooperativen auf die nicht-kooperative Spieltheorie verlagert hat, ist die Analyse des Zwei-ParteienWettbewerbs seit jeher vorwiegend nicht-kooperativer Art. Trotzdem hat der Kon-

7. Räumliche Theorien des politischen Wettbewerbs

177

kurrenzkampf zwischen Kandidaten um politische Ämter, der doch ein Thema zu sein scheint, bei dem die Rational-Choice-Theorie einmal zeigen könnte, was sie zur empirischen Erforschung der amerikanischen Politik zu leisten vermag, bisher nur wenig angewandte Forschung hervorgebracht. Es ist uns nicht ganz klar, warum dieses Ungleichgewicht zwischen Theorie und Empirie besteht; wir haben aber den Eindruck, daß die Untersuchung von Wahlkämpfen für viele Rational-Choice-Theoretiker vor allem eine Modellierungsiibung ist. Bisweilen scheint es, als sei die Forschung von der Frage geleitet, welche Folgen es für ein gegebenes Modell hat, wenn man eine seiner Annahmen verändert. Solche Untersuchungen des Modellrahmens können natürlich durch empirisch begründete Zweifel an seinen Vorhersagen motiviert sein. Es wäre unfair zu behaupten, daß Theoretikern, auch wenn sie sich vor allem für die analytischen Feinheiten der Modellierung des politischen Wettbewerbs interessieren, empirische Fakten gleichgültig sind; es wäre ihnen sicher sehr recht, wenn ihre Modelle zu Vorhersagen führten, die der Realität entsprechen. Das Testen von Hypothesen ist aber nicht ihr Hauptanliegen; empirische Daten spielen für sie vor allem als „stilisierte Tatsachen" eine Rolle, die bei der Auswahl bestimmter theoretischer Annahmen als Kriterien dienen. Demgemäß entwickelt sich die Forschung zum Wettbewerb zwischen Kandidaten mehr oder weniger nach folgendem Muster: Eine Theorie wird aufgestellt, und um ihren Vorhersagen eine gewisse Glaubwürdigkeit zu verleihen, wird - einigermaßen unsystematisch und ad hoc - auf bestätigende Daten verwiesen. Als nächstes wird eine stilisierte Tatsache ins Spiel gebracht, die die Gültigkeit einer früheren Prognose in Frage stellt. Das löst eine Flut von theoretischen post /loc-Bemühungen aus, die zeigen wollen, daß es sich bei der vermeintlichen Anomalie um ein Phänomen handelt, das sich durchaus aus rationalem Handeln erklären läßt. Dieser Prozeß wiederholt sich dann für weitere stilisierte Tatsachen, allerdings jeweils in leicht abgeänderter Form, da die Modelle zwischendurch stets auf den neuesten technischen Stand der Spieltheorie gebracht werden. Zuweilen werden sogar genau solche stilisierten Tatsachen rehabilitiert, die zuvor als unrealistisch abgetan worden waren. Eine der stilisierten Tatsachen, die Rational-Choice-Theoretiker besonders fasziniert zu haben scheint, ist die Vorstellung, daß politischer Wettbewerb Bewegungen in Richtung der politischen Mitte hervorruft. „Es ist häufig beobachtet worden, daß das Zentrum der Wählermeinung einen großen Einfluß auf das Wahlergebnis ausübt", schreiben Enelow und Hinich (1984a, 462). „Wir sind der Ansicht, daß eine Theorie der Wahlen erklären muß, was wir beobachten. Das Zentrum der Wählermeinung ist in demokratischen Wahlen von großer Bedeutung", und das Modell, das Enelow und Hinich vorschlagen, „lieferte] einen Teil der Erklärung dafür". 136

Anschließend heißt es: „Multidimensionale Skalierungsanalysen haben wiederholt gezeigt, daß die Kandidaten der großen Parteien in demokratischen Wahlen dazu neigen, sich um das Zentrum der Wählermeinung zu drängen. Diese Ergebnisse lassen sich theoretisch stützen. Man kann eine allgemeine theoretische Erklärung daftlr erarbeiten, warum das Zentrum im demokratischen Wettbewerb so große Anziehungskraft hat. Wenn man das tut, dann macht man genau das, was das selbstverständliche Ziel einer Theorie der Wahlen sein sollte: man erklärt das, was tatsächlich geschieht" (477).

178

7. Räumliche Theorien des politischen Wettbewerbs

Auch wenn Modelle, die eine Konzentration auf die politische Mitte prognostizieren, ab und zu als „offenbar richtig" (Calvert 1985, 87) gelobt werden, zeigen sich in den letzten Jahren viele Rational-Choice-Theoretiker zunehmend von dem Ausmaß beeindruckt, in dem Kandidaten Positionen einnehmen, die nicht in der Mitte liegen. „Woran liegt es, daß es zwischen politischen Parteien dauerhafte und vorhersagbare Unterschiede zu geben scheint?", fragen Chappell und Keech (1986, 881) in der Einleitung zu ihrem Aufsatz zum politischen Wettbewerb in Wahlen. Der vielleicht beste Beleg dafür, daß man sich in Sachen Stilisierung neu orientiert, ist ein Aufsatz von Enelow, Endersby und Munger (1993, 127), in dem die Autoren behaupten, ihr Modell erkläre, „was in tatsächlichen Wahlkämpfen häufig zu beobachten ist, nämlich, daß die Kandidaten unterschiedliche Standpunkte zu den Sachfragen einnehmen", weil es in der Regel vorhersage, daß die Kandidaten verschiedene Gleichgewichtsprogramme wählen. 137 Wie unsystematisch hier Daten benutzt werden, um diese Theorien zu inspirieren oder in Frage zu stellen, zeigt sich bei näherer Betrachtung der stilisierten Tatsachen, die diese Modelle angeblich erklären. Manche Rational-Choice-Modelle prognostizieren, wie schon gesagt, daß sich konkurrierende Kandidaten im Gleichgewicht demselben Wahlkampfprogramm annähern. Andere Modelle sagen voraus, daß ein Gleichgewicht dann erreicht wird, wenn die Kandidaten unterschiedliche Programme wählen. Und wieder andere besagen, daß es im Wahlkampf überhaupt kein Gleichgewicht gibt, weil die Kandidaten einmal erreichte Mehrheitskoalitionen ständig wieder kippen. Selbst wenn wir diese Modelle operationalisieren könnten (so daß wir wußten, wie wir Fälle von Gleichgewichten bei Annäherung, Gleichgewichten bei Divergenz oder ohne Gleichgewicht erkennen können), scheint es unwahrscheinlich, daß eine einzige Vorhersage der großen Bandbreite historischer Ereignisse gerecht werden könnte. Schon allein bei Präsidentschaftswahlkämpfen kann man argumentieren, daß es Fälle von Abweichung (Goldwater-Johnson, Reagan-Mondale), Fälle von Annäherung (Ford-Carter, Nixon-Kennedy) und auch Beispiele dafür gibt, daß Kandidaten nach neuen Themendimensionen suchten, um eine Mehrheitskoalition des Gegenkandidaten zu erschüttern (Bush-Dukakis, Hoover-Smith). Wie Pages sorgfältig belegter Darstellung (1978) zu entnehmen ist, können selbst innerhalb eines einzigen Wahlkampfes die Kandidaten manchmal divergieren, dann wieder konvergieren oder auch schwanken, je nachdem, um welche Sachfrage es gerade geht. Zu unseren allgemeinen Vorbehalten gegen theoretische Verbesserungsmaßnahmen post hoc kommen folglich konkrete Bedenken hinsichtlich der stilisierten Tatsachen hinzu, die diese Literatur anregen. Wir beginnen, wie auch zuvor schon, mit einigen erläuternden Bemerkungen über die Modellierungsbemühungen auf diesem Gebiet. Unser Ausgangspunkt ist das gewöhnlich mit Downs (1968) in Verbindung gebrachte rudimentäre Modell des Zwei-Kandidaten-Wettbewerbs, wonach Politiker versuchen, Stimmen zu ergattern, 137 Natürlich ist nichts gegen die Absicht einzuwenden, das, was man beobachtet, zu erklären. Aber das Aufgebot an Fakten, das hier zu erklären versucht wird, geht selten Uber eine grobe Darstellung von Angleichung oder Unterscheidung zwischen Kandidaten hinaus. Für eine umfassendere Liste von stilisierten Fakten, die zu erklären sind, siehe Grofman 1993c, 180 f.

Ein rudimentäres räumliches Wahlkampfmodell

179

indem sie sich den politischen Vorlieben der Wähler anpassen. Im Anschluß daran betrachten wir die Weiterentwicklung dieses Modells und zeigen, wie sich seine Vorhersagen zum strategischen Gleichgewicht ändern, wenn bestimmte Schlüsselannahmen verändert werden. Die Beobachtung, daß zahlreiche Varianten des räumlichen Modells einander überlappende Prognosen erzeugen, führt uns zur Betrachtung der Probleme, die bei dem Versuch entstehen, zwischen konkurrierenden Modellen empirisch zu unterscheiden. Zu unseren Einwänden gegen die Theoriebildung post hoc treten Bedenken angesichts der großen und wachsenden Anzahl von nicht beobachtbaren Begriffen, die in räumlichen Modellen des politischen Wettbewerbs Verwendung finden. Die praktischen Hindernisse bei der Messung von Kandidatenüberzeugungen oder -motiven schränken unserer Ansicht nach die Bandbreite möglicher Forschungsdesigns, mit denen räumliche Modelle beurteilt werden könnten, erheblich ein. Wenngleich wir einige Vorteile gegenüber Untersuchungsanlagen benennen, die dem Muster der vergleichenden Analyse statischer Zustände entsprechen, bleiben wir doch skeptisch hinsichtlich der Plausibilität von Behauptungen über Gleichgewichtsstrategien für strategische Situationen, die so komplex und vielschichtig sind wie der Wettbewerb zwischen politischen Kandidaten. Wir halten es daher für erforderlich, empirische Untersuchungen auf der Grundlage von räumlichen Modelle so anzulegen, daß sie die Möglichkeit berücksichtigen, daß sich das Verhalten der Kandidaten auf andere Ursachen zurückführen läßt als auf optimales strategisches Spiel.

Ein rudimentäres räumliches Wahlkampfmodell Man betrachte einen Wahlkampf zwischen zwei identischen Kandidaten, die antreten, so viele Stimmen wie möglich für sich zu gewinnen. 138 Die Mittel, mit denen die Kandidaten auf Stimmenfang gehen, sind ihre jeweiligen Programme, die an einem beliebigen Punkt auf einer einzigen ideologischen Dimension angesiedelt sein können. Das Modell geht also nicht davon aus, daß Kandidaten oder Parteien gewählt werden wollen, um ihre politischen Vorstellungen durchsetzen zu können, sondern daß Parteien Programme auswählen, um Ämter zu gewinnen (Downs 1968, 27 f.). 138 Das von uns vorgestellte Modell wird häufig Anthony Downs (1968) zugeschrieben; tatsächlich unterscheidet es sich aber in relevanter Hinsicht von dem von ihm beschriebenen vollständigen Modell, in dem er Unsicherheit, Wahlenthaltung, Einschränkungen der Kandidatenmobilität, mehrdeutige Programme usw. berücksichtigt. Zudem konzentriert sich Downs' Modell auf das Verhalten von Parteien, während wir uns mit Kandidaten beschäftigen, da sie eher als einheitliche Akteure betrachtet werden können (siehe Davis u. a. 1970; Budge und Farlie 1977). Und schließlich geht es in diesem Kapitel nur um den Wettbewerb zwischen zwei Kandidaten, weil räumliche Modelle des Konkurrenzkampfes zwischen mehreren Kandidaten, wie sie in der Diskussion von Downs eine wichtige Rolle spielen, begrifflich weitaus komplexer sind und nur selten auf die US-amerikanische Politik angewendet werden.

180

7. Räumliche Theorien des politischen Wettbewerbs

Weiter wird angenommen, daß die Kandidaten von den Wählern nur anhand ihrer Position auf einer einzigen Bewertungsdimension beurteilt werden. Eine weitere Annahme ist, daß der Nutzen eines Programms für einen Wähler mit der Entfernung zwischen dem Programm und dem Idealpunkt dieses Wählers stetig sinkt. Dadurch ist sichergestellt, daß die Wähler eingipflige Präferenzen haben. Jeder einzelne Wähler maximiert seinen Nutzen also dadurch, daß er seine Stimme für den Kandidaten abgibt, dessen Programm seinem Idealpunkt am nächsten liegt. 139 Von den Kandidaten wird angenommen, daß sie sowohl wissen, wer wählen wird, als auch, wie sich die Wähler bei jeder möglichen paarweisen Kombination von Programmen entscheiden werden. 140 Die strategische Aufgabe der Kandidaten besteht nun darin, diese Information zu nutzen, um ein optimales Programm zu wählen. Das analytische Ergebnis, das aus dieser Beschreibung des Wettbewerbs zwischen zwei Kandidaten folgt, entspricht dem von legislativen Verhandlungen entlang eines eindimensionalen Kontinuums: beide Kandidaten wählen Programme, die dem Idealpunkt des Medianwählers auf dem ideologischen Kontinuum entsprechen. Die Position des Medianwählers ist ein Nash-Gleichgewicht, da sich kein Kandidat einseitig besserstellen kann, indem er von dieser Strategie abweicht und eine andere Vorgehensweise wählt. Um zu einem intuitiven Verständnis dieses Ergebnisses zu gelangen, stelle man sich eine Wahl vor, in der nur ein Thema für die Wähler von Belang ist, nämlich die Höhe eines Schutzzolls, die von den einzelnen Kandidaten befürwortet wird. Dieser eindimensionale Wettbewerb wird in Abbildung 7.1 dargestellt. Der Einfachheit halber nehmen wir an, daß das Elektorat nur aus drei Wählern {1, 2, 3} besteht. Ihre Idealpunkte werden nun auf dem Kontinuum abgetragen, das die unterschiedliche Höhe des Schutzzolles abbildet. Die Wahlregel ist einfach: der Kandidat, dessen Programm dem Standpunkt eines Wählers am nächsten liegt, erhält dessen Stimme. Nun stelle man sich vor, daß die beiden Kandidaten - nennen wir sie L und R - zwischen acht verschiedenen Wahlkampfprogrammen wählen können. Programm A verspricht einen sehr niedrigen Schutzzoll, während Programm Η fur eine deutliche Erhöhung eintritt. 141 Anhand dieser vereinfachten Darstellung der strategischen Alternativen und Wählerpräferenzen können wir nun die Abbildung in eine Aufstellung der geordneten Präferenzen jedes einzelnen Wählers umwandeln, wie sie im unteren Teil von Abbildung 7.1 zu sehen ist. Wenn beide Kandidaten ihre Strategien gleichzeitig wählen, sollten sie sich offensichtlich für Programm D entscheiden, das Strategisches Verhalten von Wählern kann ins Spiel kommen, wenn es mehr als zwei Kandidaten gibt (Shepsle und Cohen 1990); das gilt auch fUr allgemeine Gleichgewichtsmodelle, in denen Wahlbeteiligung und Kandidatenprogramme strategisch zusammenhängen (Ledyard 1984). Diese Komplikationen lassen wir hier außer acht. 140 Nicht auseinandersetzen wollen wir uns mit der Frage, warum Wähler in einem großen Elektorat ihre Entscheidung aufgrund von inhaltlichen Präferenzen fällen würden, wo sie doch gar nicht ernsthaft annehmen können, daß ihre Stimme ausschlaggebend sein wird. Siehe dazu Brennan und Buchanan 1984. 141 Man beachte, daß erst die Verteilung der Wähler definiert, was unter einer „extremen" Position zu verstehen ist. Wir hätten das gleiche Beispiel auch mit drei Wählern konstruieren können, die alle - wenn auch in unterschiedlichem Maße - an einem hohen Schutzzoll interessiert sind.

Ein rudimentäres räumliches Wahlkampfmodell

181

dem Idealpunkt des Medianwählers, nämlich Wähler 2, entspricht. Programm D schlägt jedes andere Programm, das zur Wahl steht; wenn Kandidat R die Option D wählt, Kandidat L aber ζ. B. C, dann gewinnt R die Wahl mit Hilfe der Koalition der Wähler 2 und 3. Der Idealpunkt des Median Wählers ist ein Nash-Gleichgewicht, denn wenn sich beide Kandidaten im Median befinden, kann keiner von ihnen mehr Stimmen sammeln, indem er sich auf eine andere Position begibt. 142 Das Ergebnis läßt sich problemlos für Situationen mit vielen Wählern verallgemeinern. Dieser analytische Befund ist sogar unter Wissenschaftlern, die ansonsten in der Rational-Choice-Forschung wenig bewandert sind, recht bekannt, was an den normativen Implikationen des Medianwählerergebnisses für Theorien der Repräsentation liegen mag. Eine derart stilisierte Darstellung des Wahlkampfes macht allerdings eine Reihe von Annahmen, die sich auf US-amerikanische Wahlen nicht ohne weiteres übertragen lassen. Das Modell setzt etwa voraus, daß sich die Wahlkampfpolitik nur auf eine Problemdimension konzentriert, daß die Kandidaten ein klares Programm vorstellen (Shepsle 1972b), daß sie sichere Kenntnis von den Reaktionen der Wähler auf die von ihnen vorgetragenen Standpunkte haben, daß sie bereit sind, ihre eigenen Überzeugungen zu opfern, um ein Amt zu ergattern, daß sie in der Lage sind, für die Zwecke eines anstehenden Wahlkampfs ihren bislang vertretenen ideologischen Standpunkt zu verändern, daß keine weiteren Kandidaten in das Rennen einsteigen oder damit glaubhaft drohen können, daß die Kandidaten keine Seitenzahlungen an ihre Geldgeber oder ihre Parteigenossen (oder an den Gegenkandidaten!) entrichten, usw. Umgekehrt wird von den Wählern angenommen, daß sie die beiden Kandidaten ausschließlich aufgrund ihrer eindimensionalen Wahlprogramme beurteilen (Stokes 1963) und völlig außer acht lassen, daß es keine Gewähr gibt, daß ein Kandidat, wenn er erst einmal im Amt ist, auch das tun wird, was er versprochen hat (Ferejohn 1993). Wie wir sehen werden, sind viele dieser Annahmen für die Existenz und die Lage von Wahlgleichgewichten wesentlich sind.

Ordeshook (1992, 104 f.) faßt das Medianwähler-Theorem in seiner Anwendung auf politische Wahlkämpfe folgendermaßen zusammen: „Für Wahlkämpfe zwischen zwei Kandidaten, in denen nur ein Problem zur Debatte steht, gilt: Wenn beide Kandidaten die Verteilung der Bürgerpräferenzen zu diesem Problem kennen, wenn die Strategie jedes Kandidaten darin besteht, dazu Stellung zu beziehen, wenn die Bürger die Strategien der Kandidaten kennen, wenn alle Bürger in dieser Sache eingipflige Präferenzen haben und die Kandidatenstrategien zu dem Thema keinerlei Beschränkung unterliegen, dann werden sich beide Kandidaten der Medianpräferenz des Elektorats annähern." Man beachte aber, daß, wenn die Natur des Gleichgewichts zwei Kandidaten tatsächlich dazu veranlaßt, identische Standpunkte zu vertreten, eine sogenannte reine Wahlkampftheorie (Ledyard 1984), die davon ausgeht, daß sich Wähler nur an der Wahl beteiligen, um die ideologischen Früchte ernten zu können, die der Sieg des von ihnen bevorzugten Kandidaten versprechen würde, eine Wahlbeteiligung nahe Null vorhersagt. Demzufolge haben rationale Wähler zwei Gründe, am Wahltag zu Hause zu bleiben: Sie können, wie schon gesagt, nicht hoffen, das Wahlergebnis zu beeinflussen; aber selbst wenn sie das könnten, wäre es ihnen gleichgültig, wer gewinnt, da die Kandidaten ja ununterscheidbare Programme vertreten.

182

7. Räumliche Theorien des politischen Wettbewerbs

Alternativen Α

Β

1

C

D* Ε

F

G

Η

2 3 Idealpunkte der Wähler

* Deterministisches Wahlgleichgewicht (Median)

höchste Präferenz

Präferenzordnung der Wähler Wähler 1 Wähler 2 W Wähler 3 A D Ε Β Ε D C C F D F G Ε G C F Β Η G Η Β Η A A

Abb. 7.1: Darstellung des Medianwählerergebnisses

Innerhalb der Rational-Choice-Theorie wird dem Medianwählerergebnis unterschiedliche Bedeutung beigemessen. Manche Wissenschaftler sind der Ansicht, daß das Theorem eine „stark zentralisierende Tendenz bei einfachen Wahlen mit zwei Kandidaten und Mehrheitsregel" (Ordeshook 1992, 105) vermuten lasse. Andere gehen weiter und behaupten, daß diese zentralisierende Tendenz eine empirisch zutreffende Darstellung des Zwei-Parteien-Wettbewerbs ist. Schon in einer Arbeit von 1929 stellte Harold Hotelling fest (54 f.): „So weitverbreitet ist diese Neigung [von Konkurrenten, konvergierende Strategien zu wählen], daß sie in ganz unterschiedlichen Bereichen kompetitiven Handelns zu beobachten ist, selbst außerhalb des sogenannten Wirtschaftslebens. In der Politik gibt es dafUr eindrucksvolle Beispiele. Der Kampf um die Wählerstimmen zwischen Republikanern und Demokraten fuhrt nicht etwa dazu, daß Themen klar voneinander abgegrenzt und gegensätzliche Positionen vertreten werden, zwischen denen sich die Wähler dann entscheiden können. Statt dessen versucht jede Partei, ihr Programm dem der anderen weitestmöglich anzugleichen. Jede radikale Abweichung würde die betreffende Partei viele Stimmen kosten, selbst wenn sie damit einigen Wählern, die ohnehin für sie stimmen würden, bessere Gründe für ihre Entscheidung lieferte. Jeder Kandidat bewegt sich auf .Samtpfoten', äußert sich nur vage zu Fragen, weigert sich in irgendeiner Auseinandersetzung einen klaren Standpunkt zu vertreten, aus Angst, Stimmen zu verlieren. Sofern es Uberhaupt echte Unterschiede gibt, verschwinden sie nach und nach, selbst dann, wenn die Themen nicht an Bedeutung verloren haben. Die Demokraten, die Schutzzölle früher ablehnten, bewegen sich schrittweise auf eine Position zu, die der der Republikaner nicht ganz, aber fast entspricht. Dabei müssen sie nicht befürchten, die Stimmen der Freihandelsfanatiker zu verlieren, denn die werden die Demokraten dennoch den Republikanern vorziehen; aber durch ihre Befürwortung eines auch künftig hohen Zolls sichern sie sich zugleich das Geld und die Stimmen von Gruppen, die mehr in der Mitte liegen."

Wie man sowohl aus dem Ton als auch aus dem Inhalt von Hotellings Bemerkungen schließen kann, haben sich zahllose Autoren des Medianwählerergebnisses bedient,

Ein rudimentäres räumliches Wahlkampfmodell

183

um den feigen und lediglich nominellen Charakter des US-amerikanischen Parteienwettbewerbs anzuprangern. 143 Aber auch wenn das räumliche Modell, das zum Medianwählerergebnis führt, das bekannteste räumliche Modell seiner Art in der Politikwissenschaft ist, teilen nicht alle Rational-Choice-Theoretiker Hotellings hohe Meinung von seiner Realitätsnähe. Autoren, die aus räumlichen Modellen eine realistische Darstellung des Wahlkampfes herauslesen wollen, halten viele Annahmen des Basismodells für unannehmbar. Dementsprechend haben sich auch viele Rational-Choice-Theoretiker von diesem Modell entfernt und bieten statt dessen Theorien an, die eine oder mehrere seiner Schlüsselannahmen abschwächen. Die theoretische Weiterentwicklung gilt vor allem drei Bereichen, nämlich der Ausdehnung des Problemraums auf viele Dimensionen, dem Übergang von deterministischen zu probabilistischen Modellen des Wählerverhaltens und der Berücksichtigung von anderen Kandidatenzielen als dem bloßen Wahlsieg. Diese Entwicklungen werden wir nun zunächst nacheinander vorstellen, um dann einige weitere vermischte Theorien zu betrachten, die entwickelt wurden, um zu erklären, warum Kandidaten häufig voneinander abweichende Wahlprogramme vertreten.

Multidimensionalität

Daß sich der Wahlkampf nur um eine einzelne Problemdimension dreht, ist eine Annahme, die Rational-Choice-Theoretikem schon seit langem Kopfschmerzen bereitet. Anstatt anzunehmen, daß sich Zölle lediglich in ihrer Höhe unterscheiden, kann man sie zum Beispiel als „partikularistische" Politiken betrachten, die eine ganze Reihe unterschiedlicher Interessen auf ganz verschiedene Weise begünstigen oder benachteiligen. Und das gleiche gilt für so gut wie jede Thematik, die verschiedene Teilaspekte umfaßt. Das eindimensionale räumliche Modell hingegen nimmt an, daß Kandidaten im Wahlkampf keine Probleme ansprechen können, die quer zu anderen Themen stehen, und das scheint nicht besonders plausibel zu sein. Erweitert man jedoch das Modell, um mehr als eine Entscheidungsdimension berücksichtigen zu können, so führt das zu Konsequenzen ähnlich dem Problem der zyklischen Mehrheiten, das im letzten Kapitel geschildert wurde. Wenn die Verteilung der Idealpunkte der Wähler nicht sehr starken Symmetriebedingungen genügt, gibt es kein Gleichgewicht. Ein Kandidat kann auf ein gegebenes Programm seines Gegners stets ein überlegenes Programm wählen, das eine Mehrheit der Stimmen auf sich vereinigt. Umgekehrt gibt es für jedes Programm, das er selbst wählt, wieder ein besseres Programm, mit dem der Gegenkandidat aufwarten kann. Betrachten wir ein einfaches Beispiel, in dem das Problem der Zölle in zwei Dimensionen zerlegt wird, nämlich in Zölle auf Agrarprodukte und Zölle auf Fertigwaren (Abb. 7.2). Die Idealpunkte der Wähler {1, 2, 3} sind auf diesen zweidimensioAndererseits finden manche das Medianwählerergebnis auch ermutigend, da ihrer Ansicht nach die Aufgabe demokratischer Institutionen gerade darin besteht, die Präferenzen des typischen Wählers zu übermitteln, als den man den Medianwähler durchaus ansehen kann (siehe ζ. B. McKelvey und Ordeshook 1986).

184

7. Räumliche Theorien des politischen Wettbewerbs

nalen Raum verteilt. Im Verhältnis zu den anderen Wählern bevorzugt Wähler 1 jeweils niedrige und Wähler 3 jeweils hohe Zölle. Wähler 2 plädiert für relativ hohe Zölle für Agrarprodukte und eher niedrige Zölle für Fertigwaren. Der Anschaulichkeit halber haben wir die beiden Achsen des Koordinatenraumes willkürlich skaliert und sind davon ausgegangen, daß Wähler kreisförmige Indifferenzkurven haben, so daß jeder seine Stimme dem Kandidaten gibt, dessen Programm seinem Idealpunkt am nächsten kommt. Diese Konstellation von Idealpunkten führt nicht zu einem Nash-Gleichgewicht. Wenn Kandidat R Programm Α wählt, kann Kandidat L mit Programm Β eine Mehrheit erzielen. Als Reaktion darauf kann Kandidat R das Programm C anbieten und die Mehrheit zurückerobern. Es zeigt sich, daß jedes der für die Kandidaten zur Wahl stehenden Programme besiegt werden kann.

1 0

0.5

1.0

Γ

I

1.5 1.5

2.0 2.0

2.5

Zölle für Agrarprodukte

Quadrierte Entfernungen zwischen den Idealpunkten der Wähler und den Programmen: Wählerl Programm Programm Programm Programm

A Β C D

Wähler 2

Wähler 3

1.00

1.00

1.28

0.50

0.50

3.06

2.29

0.17

1.45

1.16

0.52

1.36

Abb. 7.2: Kandidaten-Ungleichgewicht auf zwei Dimensionen

Deshalb steht aber noch lange nicht zu erwarten, daß die Programme rationaler Kandidaten überall im multidimensionalen Problemraum angesiedelt sein können. Wenn die Kandidaten ihre Programme gleichzeitig vorstellen, hat keiner von ihnen einen Anreiz, ein Programm zu wählen, das einem anderen im folgenden Sinne un-

Ein rudimentäres räumliches Wahlkampfmodell

185

terlegen ist: Man betrachte etwa die Nachteile, die mit der Wahl eines Programmes einhergehen, das dem Punkt C entspricht. Dieser Standpunkt mag zwar gut genug sein, um Β zu schlagen; aber es gibt eine andere, leicht westlich von C gelegene Position C \ die nicht nur C überlegen ist, sondern auch jedem Programm, das C schlägt. Es gibt also keinen Grund, C zu wählen, wenn man auch C' wählen kann.

Abb. 7.3\ Darstellung der unüberdeckten Menge

Wie man sich aus Kapitel 6 erinnern mag, bezeichnet man Punkte wie C als „überdeckt", während die „unüberdeckte Menge" all jene Punkte enthält, die von keiner anderen Alternative überdeckt werden. Man kann nun argumentieren, daß Kandidaten, die nur das Ziel verfolgen, ihre Chancen auf ein Amt zu maximieren, sicher keinen Grund haben, ein überdecktes Programm zu wählen. Inwieweit schränkt aber die unüberdeckte Menge die Bandbreite der zu erwartenden Kandidatenstandpunkte ein? Am Beispiel unserer drei Wähler zeigt sich, daß die unüberdeckte Menge (der schraffierte Bereich in Abbildung 7.3) eine ziemlich diffuse Menge von Punkten enthält. (Die einzigen gewagten Vorhersagen betreffen Punkte wie C, die - wie auch A - nahe am Rand der unüberdeckten Menge liegen. Die unüberdeckte Menge schließt C aus der Menge der zu erwartenden Programme aus, während sie Α zu den plausiblen Alternativen zählt.) In Fällen, die komplexer sind als unser hypothetisches Beispiel, können Form und Größe der unüberdeckten Menge ganz verschieden sein. Wenn die Idealpunkte der Wähler nahezu symmetrisch auf den Problemraum verteilt sind, nimmt die unüberdeckte Menge einen eher kleinen, zentral gelegenen Raum ein (McKelvey 1986, Cox 1987). Im allgemeinen ist es jedoch schwer, den

186

7. Räumliche Theorien des politischen Wettbewerbs

Standort der unliberdeckten Menge empirisch festzustellen, vor allem, wenn viele Wähler die Kandidaten auf vielen Dimensionen beurteilen (Tovey 1993). 144 Wenn die unüberdeckte Menge groß ist, dann kann ein Ungleichgewicht innerhalb der unüberdeckten Menge zu großen Programmschwankungen und instabilen Mehrheitskoalitionen führe. Um das Spektrum der Vorhersagen durch die unüberdeckte Menge einzugrenzen, gibt es folgende Möglichkeit: Man stelle sich vor, zwei Kandidaten treten in mehreren Wahlen gegeneinander an. Des weiteren nehme man an, daß die Kandidaten vollständiges Wissen Uber die Präferenzen der Wähler besitzen und ihre Programme gleichzeitig und nur einmal während eines Wahlkampfes vorstellen. In einer solchen Situation könnte man annehmen, daß die Kandidaten eine gemischte Strategie spielen oder Punkte innerhalb der unüberdeckten Menge nach dem Zufallsprinzip auswählen. 145 Da die Ermittlung der Lage dieser Menge „überaus schwierig ist - so schwierig, daß man das ,als ob'-Prinzip kaum mehr glaubhaft vertreten kann" (McKelvey und Ordeshook 1976, 1181), lernen die Kandidaten vermutlich durch Versuch und Irrtum, Programme auszuwählen, die sich in der Nähe des Meinungszentrums und damit so gut wie sicher innerhalb der unüberdeckten Menge befinden. Wenn also mehrere Wahlen hintereinander stattfinden, ist gelbst dann, wenn die Idealpunkte nicht symmetrisch verteilt sind, zu erwarten, daß erfolgreiche Kandidaten zu jedem, wahlkampfrelevanten Thema an oder in der Nähe der Medianpräferenz des Elektorats anzutreffen sind" (McKelvey und Ordeshook 1976,1182). 146 Nur selten werden diese analytischen Ergebnisse auf systematische Weise empirisch überprüft. Vermutungen, die auf Downs (1968) zurückgehen, besagen, daß ein multidimensionaler Wahlkampf für Amtsinhaber sogar dann ein Nachteil ist, wenn die Präferenzen der Wählerschaft stabil sind: Amtsinhaber, die sich zur Wiederwahl stellen, sind gezwungen, die Programme ihrer Amtszeit beizubehalten; gibt es kein Wählergleichgewicht, dann können Herausforderer sich diese Inflexibilität zunutze machen und ein Gegenprogramm entwerfen, das eine neue Mehrheitskoalition schafft. In diesem Zusammenhang ist auch zu vermuten, daß Amtsinhaber in einem Wahljahr Verteilungsproblemen aus dem Weg gehen, da deren multidimensionale Beschaffenheit eine Gefahr für die Mehrheitskoalition des Amtsinhabers bedeutet (Ordeshook 1992). Aber weder die Multidimensionalität von Wahlkämpfen im allgemeinen noch die Bedeutung von Verteilungsproblemen im besonderen wurden

144 Schließlich ist es schon gar nicht so einfach, überhaupt die Dimensionen zu ermitteln, auf denen ein Wahlkampf stattfindet, und das ist ein sogar noch grundlegenderes empirisches Problem. 145 Die technische Bezeichnung für den Bereich, den McKelvey und Ordeshook erörtern, ist „zulässige Menge"; ihre Definition ähnelt der der unüberdeckten Menge. Noch ausdrücklicher bezieht sich Kramer (1977) auf aufeinanderfolgende Wahlen, um die Vorhersagen des multidimensionalen räumlichen Modells einzuengen. Wenn man annimmt, daß Stimmen maximiert werden, vollständige Information vorliegt und der Amtsinhaber nicht in der Lage ist, sein Programm zu ändern, dann bewegen sich die vertretenen politischen Programme auf die „Minimax"-Menge zu, die diejenigen Programme umfasst, die das Maximum der möglichen Anzahl von Gegenstimmen minimieren. Zu den Eigentümlichkeiten dieses Modells zählt, daß der Amtsinhaber jede Wahl verliert.

Ein rudimentäres räumliches Wahlkampfmodell

187

bislang mit der Wahlkampftaktik oder den Wahlerfolgen von Amtsinhabern in einen empirischen Zusammenhang gebracht. Hinsichtlich des wiederholten Wettbewerbs derselben Kandidaten gegeneinander stellt sich die Frage, wie schnell sich Kandidaten tatsächlich dem Meinungszentrum annähern. Auch diesem Thema wurde nur wenig empirische Aufmerksamkeit gewidmet. Ausnahmen bilden die Bemerkungen von Campbell u. a. über das „Rückspiel" zwischen Stevenson und Eisenhower (1960) sowie Pages Diskussion der Frage, wie sich die politischen Standpunkte von McGovern und Goldwater im Zeitverlauf gewandelt haben (1978). Man würde erwarten, daß es eine Art trade-off gibt zwischen der Anzahl von Wählern, die durch eine Veränderung der Kandidatenposition zur Mitte hin gewonnen, und der Anzahl deijenigen, die von solch offensichtlichem Wankelmut vergrault werden. Leider haben gerade die Untersuchungen, die am unmittelbarsten mit dem Phänomen des wiederholten Aufeinandertreffens derselben Kandidaten befaßt sind - nämlich Laborexperimente, in denen Probanden in einer Abfolge von Scheinwahlen gegeneinander antreten - , sich ausschließlich auf die Vorteile konzentriert, die mit einer Positionsverlagerung in Richtung der Meinungsmitte einhergehen. In den Experimenten von Collier u. a. (1987), McKelvey und Ordeshook (1982,1984 b), Plott (1991) und Williams (1991) wurden die Kandidaten finanziell belohnt, wenn sie eine Wahl gewannen. Die experimentelle Wählerschaft setzte sich aus tatsächlichen Probanden oder Scheinspielern zusammen, deren Auszahlungen mit der Entfernung zwischen ihren Idealpunkten und dem „Programm" der siegreichen Kandidaten abnahmen. Jeder Kandidat entschied sich für ein Programm (je nach Design aus einem Koordinatensystem oder einer endlichen Liste von Alternativen), dann wurden die Stimmen gezählt und die Auszahlungen an Kandidaten und Wähler entrichtet. Wenn die Kandidaten über die Verteilung der Idealpunkte der Wähler informiert waren, befanden sich manche Programme zunächst weit entfernt vom erwarteten Annäherungsgleichgewicht, aber mit jeder weiteren Wahl bewegten die Kandidaten in der Regel ihre Position weiter in Richtung Mitte. Wenn die Kandidaten nur wenig über die Verteilung der Wählerpräferenzen wußten und gezwungen waren, Informationen über die Wählerschaft erst aus dem Muster ihres Wahlverhaltens abzuleiten, näherten sie sich dem Zentrum zwar langsamer an (zum Teil waren dazu ein Dutzend Wahlgänge nötig), aber dennoch lagen die Ergebnisse überwiegend im Zentrum. 147 Diese Ergebnisse sind zwar bemerkenswert, haben aber kaum Bezug zu Wahlen auf Landes- oder Bundesebene, wo Kandidaten selten mehr als einmal unter ähnlichen Bedingungen gegeneinander antreten und ihre Positionen nicht gleichzeitig bekanntgeben müssen, sich der Wettbewerb auf viele Entscheidungsdimensionen

Interessanterweise sind oft viele Durchgänge nötig, bis sich die Probanden einem Gleichgewichtspunkt nähern. Selbst in McKelvey und Ordeshooks (1982) einfachem Spiel mit endlichen Alternativen und vollständiger Information wurde die Gleichgewichtsstrategie im ersten Durchgang lediglich in 38 Prozent und nach vier Wahlgängen in nur 67 Prozent der Fälle gewählt. Man fragt sich, wie es wohl mit der Annäherung in Experimenten mit begrenzter Information ausgesehen hätte, wenn sich die Präferenzen der Wähler oder die Bedeutung der Themen von einer Wahl zur nächsten geändert hätten.

188

7. Räumliche Theorien des politischen Wettbewerbs

erstreckt und der Ruf eines Kandidaten durch Positionsveränderungen Schaden nehmen kann. Zudem unterstellen diese Experimente den Kandidaten nur ein einziges Motiv: den Wunsch, die Wahl zu gewinnen. Dieses Ziel ist jedoch lediglich eines von vielen Zielen, die Rational-Choice-Theoretiker Kandidaten zugeschrieben haben. Wenn das grundlegende räumliche Modell erweitert wird, um andere Motive zu berücksichtigen, steht das strategische Gebot „Gehe dahin, wo die Wähler sind" anderen Imperativen gegenüber - etwa „Gehe dahin, wo dein Herz ist", „Gehe dahin, wo die Gelder sind", „Gehe dahin, wo du die Wähler hinführen willst" oder „Bleib', wo du bist".

Ungewißheit Eine der wichtigsten Entwicklungen in der räumlichen Modellierung von Wahlkämpfen seit den siebziger Jahren ist der Übergang von deterministischen zu probabilistischen Modellen. Deterministischen Modellen zufolge gibt jeder Wähler seine Stimme automatisch für den Kandidaten ab, der ihm ideologisch am nächsten steht, unabhängig davon, wie gering der Unterschied zwischen den beiden konkurrierenden Programmen sein mag. Probabilistische Modelle hingegen berücksichtigen die Möglichkeit, daß Wähler Gründe haben können, einen Kandidaten mit einem relativ unattraktiven Programm zu wählen - vor allem dann, wenn es zwischen den Programmen kaum Unterschiede gibt. Wie Enelow, Endersby und Munger (1993, 125) feststellen, ist das wesentliche Merkmal probabilistischer Modelle „die Einbeziehung eines Zufallsfaktors entweder im Entscheidungskalkül des Wählers oder in der Fähigkeit des Kandidaten, das Wahlverhalten vorherzusehen. In beiden Fällen räumen probabilistische Modelle allen Wahlkampfkandidaten eine Gewinnchance ungleich Null ein und nehmen an, daß sich der Stimmenanteil jedes Kandidaten mit einer Veränderung der Strategie stetig verändert. Im Gegensatz dazu erwarten deterministische Modelle, daß für jede beliebige Kombination von Kandidatenstrategien ein Kandidat mit der Wahrscheinlichkeit von eins gewinnt, während für alle anderen Kandidaten die Chancen gleich null sind". Zugunsten der Annahme probabilistischen Wählens wurden drei wesentliche Argumente vorgebracht. Gemäß einem ziemlich frühen Modell (Hinich, Ledyard und Ordeshook 1972) können sich die Positionen der Kandidaten auf die Wahlbeteiligung dann auswirken, wenn entweder die Programme der Kandidaten so nahe beieinander liegen, daß den Wählern das Wahlergebnis gleichgültig ist, oder wenn sie sich für das Programm des Kandidaten, der ihnen ideologisch am nächsten steht, nicht so recht begeistern können. 148 Obwohl sich die Wahlbeteiligung mit den von In ihrer Untersuchung der Wahlen von 1988 kommen Erikson und Romero (1990, 1120 f.) zu dem Schluß, daß Gleichgültigkeit und Entfremdung relativ geringe Auswirkungen auf die Wahlbeteiligung haben. Andere Untersuchungen der Wahlbeteilung in Präsidentschaftswahlkämpfen kamen zu ähnlichen Ergebnissen.

Ungewißheit

189

den Kandidaten vertretenen Positionen verändert, wird sie behandelt, als sei sie stochastisch, d. h. von nicht-räumlichen Faktoren beeinflußt, über die die Kandidaten weder Kenntnis noch Kontrolle haben. Ein anderes Modell probabilistischen Wählens (Enelow und Hinich 1982, 1983a, 1984b) unterstellt den Wählern Präferenzen, die von den Wahlkampfinhalten unabhängig sind und sich auf Eigenschaften der Kandidaten beziehen (wie ihre Zugehörigkeit zu einer bestimmten ethnischen Gruppe oder ihre Erfahrung). Die Kandidaten wissen nicht mit Bestimmtheit, wie sie von den Wählern im Hinblick auf solche nicht-politischen Aspekte beurteilt werden, und überdies sind sie nicht in der Lage, auf diese Urteile Einfluß zu nehmen. In dem Maße, in dem die Wähler solche Merkmale unterschiedlich wahrnehmen und bewerten, bildet der nicht-räumliche Nutzenunterschied zwischen zwei Programmen aus der Sicht der Kandidaten folglich eine Zufallsvariable. Zwar maximieren die Wähler ihren Nutzen, aber ihre Nutzenfunktionen lassen sich nicht auf die ideologische Nähe zu den Kandidaten reduzieren. Weniger direkt an die Nutzenmaximierung gebunden ist ein weiteres Modell probabilistischen Wählens (Coughlin 1984), dem zufolge sowohl die Wahlbeteiligung als auch die Wahlentscheidung von der Ungewißheit der Wähler über den Nutzenunterschied zwischen den Kandidaten sowie von einer Reihe von Umweltfaktoren, die die Kandidaten nicht kennen, beeinträchtigt werden können. Unabhängig davon, wie die probabilistische Komponente des Wählens jeweils gerechtfertigt wird, sind die Konsequenzen jedenfalls immer dieselben: Es gibt Aspekte bei der Entscheidung der Wähler, die sich durch die Strategien der Kandidaten nicht beeinflussen lassen. Kandidaten können Stimmen gewinnen, indem sie sich den Idealpunkten der Wähler annähern, aber ein Teil dieser Wähler wird trotzdem am Ende den Gegenkandidaten unterstützen. Um zu sehen, wie probabilistisches Wählen die Kandidaten bei der Formulierung ihrer Programme beeinflussen kann, betrachte man eine Variante des eindimensionalen Falles, der in Abbildung 7.1 dargestellt wurde. Solange deterministisches Wählen vorausgesetzt war, konvergierten beide Kandidaten zu dem Programm, das der höchsten Präferenz des Medianwählers entspricht. Geht man hingegen von probabilistischem Wählen aus, ist der Median möglicherweise keine optimale Position mehr. Man nehme etwa an, daß die drei Wähler in Abbildung 7.4 Nutzenmaximierer sind, ihren Nutzen aber sowohl aus räumlichen als auch aus nicht-räumlichen Merkmalen der Kandidaten ziehen. Für zwei beliebige Kandidatenprogramme (x, y) läßt sich die Nutzenfunktion eines Wählers, dessen Idealpunkt θ ist, wie folgt ausdrükken:

υι(χ,γ)

= (θ-γ)2-(θ-χ)2

+ μι,

wobei μ, eine standardnormalverteilte Zufallsvariable ist, die alle nicht-inhaltlichen Nutzenquellen darstellt. 149

Die Normalverteilung mit einem Mittelwert von null und einer Varianz von eins wurde einfach aus Bequemlichkeitsgriinden gewählt; sie kann durch andere Parameter oder Dichtefunktionen er-

190

7. Räumliche Theorien des politischen Wettbewerbs

Wähler

1 χ.

Alternativen

2 X Α

Β

C*

0,5

1

3

D Ε

F G

Η

Gewünschte Höhe des Schutzzolls

0

1,5

2

2,5

* Probabilistisches Wahlgleichgewicht (arithmetisches Mittel) Wahrscheinlichkeit der Stimmabgabe fUr den Kandidaten auf Position C, wenn der Gegenkandidat ein anderes Programm vertritt bzw. P r [ U f x , y) > 0]: Gegenkandidat

A

Β

C

D

Ε

F

G

Η

Wähler 1 Wähler 2 Wähler 3

.169 .900 .945

.227 .742 .802

.500 .500 .500

.831 .436 .374

.894 .440 .363

.995 .536 .394

.999 .579 .421

.999 .800 .610

2.014

1.771

1.500

1.641

1.697

1.925

1.999

2.409

Erwartete Stimmabgabe für den Kandidaten mit Programme

Abb. 7.4: Darstellung des Gleichgewichts bei probabilistischem Wählen W i e schon zuvor nehme man der Einfachheit halber an, daß die beiden Kandidaten zwischen acht Wahlkampfprogrammen wählen können, w i e in Abbildung 7.4 dargestellt. Im unteren Teil der Abbildung sind die Wahrscheinlichkeiten aufgelistet, mit denen jeder Wähler seine Stimme für den Kandidaten abgibt, der sich auf Punkt C befindet, wenn der Gegenkandidat jeweils eine der anderen Positionen einnimmt. W i e man sieht, hat der Konkurrent dann die größten Gewinnchancen, wenn er ein Programm wählt, das auf C liegt, wobei sich C als Durchschnitt der Idealpunkte der drei Wähler erweist. Anders ausgedrückt: W e n n sich die Kandidaten für Programme entscheiden, die auf Punkt C liegen, kann keiner der beiden erwarten, mehr Stimmen zu erlangen, indem er zu einem anderen Programm wechselt. Während also deterministisches Wählen die Kandidaten z u m Medianwähler treibt, liegen bei probabili-

setzt werden. Unser Beispiel geht auch von der üblichen Annahme aus, daß der Nutzen nicht mit dem absoluten Entfemungswert, sondern mit dem Quadrat der ideologischen Entfernung abnimmt. Obwohl diese Unterscheidung zwischen quadrierten und absoluten Verlustfunktionen harmlos zu sein scheint, kann sie sowohl für die Existenz als auch für die Lage des Gleichgewichtes entscheidend sein (Enelow und Hinich 1989). Inhaltlich bedeutet die quadrierte Verlustspezifikation, daß ein extrem konservativer Wähler auf kleine ideologische Unterschiede zwischen zwei linken Kandidaten stärker reagiert als auf entsprechende Unterschiede zwischen zwei konservativen Kandidaten. Das scheint zwar unwahrscheinlich zu sein, es ist uns aber keine Arbeit bekannt, die sich mit diesem Problem auseinandersetzt. Wir wiederholen daher die Bedenken von Page (1977), der auf das Fehlen empirischer Untersuchungen hinweist, die sich mit so grundlegenden Fragen wie der Form der Nutzenfunktionen von Wählern beschäftigen.

Ungewißheit

191

stischem Wählen die Gleichgewichte (wenn es sie überhaupt gibt) im Idealpunkt des Durchschnitts Wählers.150 Wenn wir nun von einer einzigen Bewertungsdimension zu einer Vielzahl übergehen, kann probabilistisches Wählen zu einem Gleichgewicht führen, das bei deterministischem Wählen nicht vorliegen würde. Man erinnere sich an unser früheres Beispiel von drei Wählern, die zwei Kandidaten anhand ihrer Positionen auf zwei Themendimensionen beurteilen; je näher ein Programm dem Idealpunkt eines Wählers ist, desto mehr Nutzen bringt es ihm ein. Diesmal führen wir jedoch ein stochastisches Element in das Entscheidungskalkül der einzelnen Wähler ein, so daß für Μ = 2 Themen gilt:

b:j steht dabei für die Bedeutungsgewichte, die jeder Wähler einer gegebenen politischen Sachfrage j zuschreibt. Der Einfachheit halber betrachte man den Fall, in dem die nur Einheitsvektoren, beide Themen also gleich wichtig sind. Wie Abbildung 7.5 zeigt, erreicht Programm D nun einen höheren erwarteten Stimmenanteil als jede andere Alternative (ob {A, B, C} oder jeder andere Punkt), mit der es konkurrieren könnte. Es ist ein Nash-Gleichgewicht insofern, als kein Kandidat erwarten kann, durch Wechsel zu einem anderen Programm einen höheren Stimmenanteil zu gewinnen, wenn der Gegenkandidat Programm D wählt. Allgemein gilt, daß bei probabilistischem Wählen die Existenz von Gleichgewichten nicht gewährleistet ist (Enelow und Hinich 1989; Coughlin 1992). Allerdings stellen Erikson und Romero (1990, 1107) fest: „Bei probabilistischen Modellen ist die Wahrscheinlichkeit eines globalen Gleichgewichts proportional zur Größe des Zufallsterms (random disturbance term) relativ zum Ausmaß inhaltsbezogenen Wählens. ... Da Inhalte bei Wahlentscheidungen vermutlich eine untergeordnete Rolle spielen, können wir hinsichtlich der Möglichkeit globaler Gleichgewichte in der realen Welt bei echten Wählerschaften optimistisch sein." 151

Dieses Ergebnis hängt allerdings von der Form der Nutzenfunktionen der Wähler sowie von der Bedeutung der politischen Sachfragen im Vergleich zu nicht-themenbezogenen Überlegungen ab. In Fällen, in denen die Bedeutung der politischen Überlegungen von Wähler zu Wähler verschieden ist, können sich Gleichgewichte in dem nach Bedeutung gewichteten Durchschnitt befinden. 151 Die inhaltsbezogene Beurteilung von Kandidaten hat in den letzten Jahren eine Art Comeback in der Rational-Choice-Forschung erlebt. Es wurden theoretische und experimentelle Studien durchgeführt, die sich mit der Möglichkeit befaßten, daß die Wähler Meinungsumfragen, Slogans und anderen Hilfsquellen von geringem Informationsgehalt als Stichwortgeber benutzen, um den ideologischen Standpunkt der Kandidaten auszumachen (McKelvey und Ordeshook 1990b). Es muß allerdings erst noch der Beweis erbracht werden, daß sich die Wähler tatsächlich dieser Techniken bedienen, um die Kandidaten einzuschätzen. Für eine Anwendung auf Volksabstimmungen siehe Lupia 1994.

192

7. Räumliche Theorien des politischen Wettbewerbs

•Probabilistisches Wahlgleichgewicht Wahrscheinlichkeit der Stimmabgabe flir einen Kandidaten auf Position D, wenn der Gegenkandidat Position Α, Β oder C einnimmt:

Wähler 1 Wähler 2 Wähler 3 Erwartete Stimmabgabe für Kandidat auf D

Gegner auf Α .44 .68 .47

1.59

Gegner auf Β .25 .49 .96

1.70

Gegner auf C .87 .36 .54

1.77

Abb. 7.5: Kandidatengleichgewicht bei probabilistischem Wählen

Gibt es Belege dafür, daß nicht-inhaltliche Überlegungen tatsächlich Gleichgewichte erzeugen? Zwei Analysen von Umfragedaten geben darauf eine bejahende Antwort (Erikson und Romero 1990; Enelow u. a. 1993). Erikson und Romero wollten wissen, inwiefern die Wahlpräferenz für Bush gegenüber Dukakis acht inhaltliche Präferenzmaße sowie zwei nicht-inhaltsbezogene Faktoren, nämlich die Parteiidentifikation und ein Gesamtmaß für durch offene Fragen ermittelte Bewertungen der Kandidaten, widerspiegelten. 152 Auf der Grundlage der Parameterschätzungen dieses Probit-Modtlls führten Erikson und Romero dann Simulationen Im letzteren Fall wurden die Probanden gefragt, ob es irgend etwas gebe, was sie an dem einen oder dem anderen Kandidaten mögen oder nicht mögen. Damit bleibt offen, ob diese Urteile inhaltsbezogen sind oder nicht.

Ungewißheit

193

didaten andere inhaltliche Standpunkte eingenommen hätten. Aufgrund ihrer Untersuchung verschiedener potentieller Kandidatenpositionen kommen die Autoren zu dem Schluß, daß ein Parteiprogramm, das zu jedem Thema mehr oder minder der Meinungsmitte entspricht, ein Gleichgewicht darstellt, da es einen maximalen Stimmenanteil verspricht. Ganz abgesehen von möglichen Zweifeln daran, wie die Terme dieser Wahlgleichung spezifiziert oder gemessen werden sollen, werfen solche statistischen Beweise ebenso viele Fragen auf wie sie beantworten. 153 Die genannte Studie und ähnliche Wahlmodelle (Enelow und Hinich 1982, 1984a, 1984b; Enelow u.a. 1986, 1993) setzen genau das voraus, was es zu klären gilt, nämlich, ob nicht-inhaltliche Determinanten der Stimmabgabe durch die Wahlkampfstrategie beeinflußt werden. Während die Frage, wie Kandidaten ihr öffentliches Image aufbauen und wie ihr Ansehen mit ihrem politischen Standpunkt zusammenhängt, zu den prominenten Themen der traditionellen Literatur zur Präsidentschaftspolitik gehört, findet sie in der Rational-Choice-Theoriebildung über Kandidatenstrategien kaum Beachtung. Das mag daran liegen, daß Rational-Choice-Theoretiker bemüht sind, sich von der sozialpsychologischen Betrachtungsweise von Wahlentscheidungen zu distanzieren, die langfristige Gruppenzugehörigkeitsgefühle (Cambell u. a. 1960) und die sogenannte „symbolische Politik" (Sears u. a. 1980) in den Mittelpunkt rückt. Inhaltsbezogenes Wählen wurde - vielleicht, weil es mit bewußten Kalkülen einherzugehen scheint - häufig als Antithese zum sozialpsychologischen Zugang angesehen (Converse 1975; Enelow und Hinich 1984b). Der Wunsch, das inhaltsbezogene Wählen zu verteidigen, kann aber nur ein Teil der Erklärung sein, gehen doch Rational-Choice-Modelle selbst allmählich dazu Uber, auch nicht-inhaltliche Determinanten des Wählens miteinzubeziehen. Daß es Rational-Choice-Theoretikem widerstrebt, beide Arten von Strategien auf eine Stufe zu stellen, mag auch daran liegen, daß räumliche Modelle ihre Grenzen haben, wenn man sie auf so etwas wie den Charakter von Präsidentschaftsanwärtern anwenden will. Als die ersten räumlichen Modelle entwickelt wurden, ging man davon aus, daß das Image eines Kandidaten einfach wie eine inhaltliche Dimension unter anderen behandelt werden könne (Davis u. a. 1970, 445). Inzwischen scheint jedoch klar zu sein, daß sich selbst dann, wenn man eine endliche Anzahl von Persönlichkeitsmerkmalen - wie Integrität, Intelligenz, Charisma oder Empathie - festlegen könnte, die Anziehungskraft eines Kandidaten nicht einfach daraus ergibt, daß er von jeder Charaktereigenschaft gerade so viel aufweist, wie es der Öffentlichkeit gefällt. Statt dessen geht es offenbar darum, ein „rundes" Image aufzubauen, dessen „stilistische Elemente ineinander verzahnt sind" (Fenno 1978, 125). Räumliche Modelle sind

153 Quantitative Untersuchungen, die die Auswirkungen der wahrgenommenen Entfernung zwischen Wählern und Kandidaten untersuchen, unterschätzen möglicherweise, in welchem Umfang die inhaltliche Entfernung aus Vorbehalten gegenüber der Persönlichkeit der Kandidaten resultiert (Page 1978; Markus 1982; Miller, Wattenberg und Malanchuk 1986). Andererseits kann man aber auch argumentieren, daß durch die Hinzunahme der Parteiidentirikation als Kontrollvariable die Rolle der inhaltlichen Präferenzen unterschätzt wird (Davis u. a. 1970; Franklin und Jackson 1983; siehe jedoch Green und Palmquist 1990).

194

7. Räumliche Theorien des politischen Wettbewerbs

nicht dazu geeignet, die Wechselwirkungen zwischen verschiedenen Arten von Eigenschaften zu erfassen, geschweige denn vorherzusagen, was passiert, wenn ein Kandidat sich auf Aktivitäten einläßt (wie auf einem Panzer zu fahren), die mit der Menge der Eigenschaften, die er seinem angeblichen Image nach hat, nicht übereinstimmen. 154 Andere vernachlässigte Aspekte von Wahlkampfstrategien geben Anlaß zu Zweifeln an der Schlußfolgerung, daß das Zentrum der öffentlichen Meinung den optimalen Standort für politische Programme bildet. Hinsichtlich vieler innen- und außenpolitischer Themen fragt man sich, ob Kandidaten, die sich darauf beschränken, eine zahnlose „Allen-wohl-und-keinem-weh"-Politik zu vertreten, nicht wichtige Chancen verpassen, das Wahlergebnis indirekt dadurch zu beeinflussen, daß sie sich Wahlkampfspenden, begeisterte Aktivisten und eine gute Presse sichern (Davis u. a. 1970). Hinzu kommt, daß ein Kandidat, der sich in bestimmten, für den Medianwähler bedeutsamen Fragen der Meinungsmitte anschließt, möglicherweise die Kluft offenlegt, die sich zwischen den Ansichten der Masse und denen der Elite auftut. Wer sich etwa für das Schulgebet stark macht, mag damit zwar der Mehrheit der Wähler aus dem Herzen sprechen, aber zugleich bei Höhergebildeten und Einflußreichen Unterstützung verlieren. Und schließlich kann man davon ausgehen, daß ein Kandidat, der zu jedem Thema einfach den Standpunkt des Durchschnitts Wählers einnimmt, eine Mischung von linken und konservativen Ansichten und damit ein ideologisch inkohärentes Programm produziert, das sich dann die Kritik gefallen lassen muß, sowohl widersprüchlich als auch opportunistisch zu sein. Es scheint also voreilig, mit Erikson und Romero zu erklären, „wir sollten hinsichtlich der Möglichkeit globaler Gleichgewichte optimistisch sein", oder gar zu behaupten, „das Modell des probabilistischen Wählens berücksichtigte] so gut wie alle Bedenken, die ein Kandidat hinsichtlich des möglichen Verhaltens von Wählern hegen mag" (Enelow und Hinich 1984a, 477). Für diejenigen, die sich nicht an der Suche nach optimalen Wahlkampfstrategien beteiligen, ist es alles andere als offensichtlich, daß ein Gleichgewicht existiert oder, falls dem so ist, ob es wirklich durch ein Modell beschrieben werden kann, das sich auf die Positionierung von Themen konzentriert.

Räumliche Modelle stoßen auch dann auf Grenzen, wenn sich Themen nicht als kontinuierliche metrische Dimensionen darstellen lassen (Stokes 1963; vgl. Davis u. a. 1970). Die möglichen Positionen eines Kandidaten zur gesetzlichen Einschränkung der Abtreibung mögen von Befürwortung bis Ablehnung reichen; aber die Abstufungen dazwischen enthalten mit einiger Sicherheit Ausnahmekategorien, und diese lassen sich vielleicht nicht so einfach auf einer Dimension abbilden. Das Problem läßt sich zwar in gewissem Umfang umgehen, indem man die Abtreibungsproblematik als multidimensionales Thema darstellt, aber eine weitere Erschwernis bleibt: Wenn Sachfragen im Lichte von nur vier oder fünf Standpunkten, die man dazu einnehmen könnte („endlichen Alternativen" in der Sprache der räumlichen Modellierung), wahrgenommen und diskutiert werden, dann weichen die vorhergesagten Kandidatenpositionen möglicherweise stark von den Standpunkten ab, die man erwarten würde unter der Annahme, daß die Kandidaten Positionen entlang einer kontinuierlichen Dimension wählen. Wenn die Kandidaten jeden Punkt im Raum von Abb. 7.3 wählen können, dann liegt Punkt D deutlich innerhalb der unüberdeckten Menge; wenn sie aber nur aus den Alternativen (A, B, C, D} wählen können, ist D die einzige Alternative, die überdeckt ist.

Ungewißheit

195

Überdies haben probabilistische Modelle dieser Art mit einigen hartnäckigen empirischen Problemen zu kämpfen, insofern als die Programme realer Kandidaten nicht in der Nähe der vermeintlichen Gleichgewichte zu liegen scheinen. Im Präsidentschaftswahlkampf von 1988 wurden die Kandidaten durchaus als ideologisch unterschiedlich wahrgenommen, und keiner der beiden befand sich besonders nahe am Meinungszentrum. Das gleiche gilt offenbar auch für die Wahlkämpfe von 1980 und 1984 (Enelow u. a. 1993).155 Während sich Erikson und Romero (1990) nicht weiter um diese Anomalie kümmern, bildet sie den Mittelpunkt des überarbeiteten probabilistischen Modells von Enelow u. a. (1993). Mit dem Argument, daß sich der Unterschied in den Positionen der Kandidaten dadurch erklären lasse, daß die Wähler die Effektivität, mit der die Kandidaten ihre Programme wahrscheinlich umsetzen werden, unterschiedlich wahrnehmen, diskontieren die Autoren die Einschätzung des einzelnen Wählers, inwieweit die Kandidaten jeweils den status quo verändern werden, mit einem Kompetenzgewicht, das zwischen null und eins liegt. (Die Wahrnehmung der Kandidatenkompetenz wird dabei wiederum als exogen gegebene Variable behandelt.) Es stellt sich heraus, daß die vorhergesagten Gleichgewichtspositionen meist nahe beieinander liegen und, selbst nachdem die Autoren ihr Modell ad hoc angepaßt haben, um die Auswirkungen der Amtsinhaberschaft zu berücksichtigen, einen nur schwachen Zusammenhang mit den tatsächlich von den Kandidaten vertretenen Standpunkten aufweisen. Verfolgt man die beiden Themen, die für jeden der drei Präsidentschaftswahlkämpfe untersucht wurden, nämlich Ausgaben für innenpolitische Maßnahmen und Verteidigungsausgaben, so findet man kaum einen Zusammenhang zwischen den Veränderungen der Gleichgewichtspositionen und den Veränderungen der tatsächlich eingenommenen Positionen. Erfolgreichere Versuche, probabilistische Modelle empirisch zu erhärten, sind uns nicht bekannt. Die Frage bleibt demnach offen, ob probabilistische räumliche Modelle zu einem besseren Verständnis des politischen Wettbewerbs um Wählerstimmen in den USA beigetragen haben. Aus theoretischer Sicht erscheint die zugrunde liegende Unterscheidung zwischen dem Einfluß der Wahlkampfstrategie und dem der stochastischen Variablen willkürlich. Es ist jedenfalls noch nicht gezeigt worden, daß nicht-inhaltliche Urteile der Wähler den Kandidatenstrategien entzogen sind. Und diese Zweifel an der Begründung von probabilistischen Theorien werden durch die offenkundige Diskrepanz zwischen vorhergesagten Gleichgewichten und tatsächlichen Kandidatenpositionen noch verstärkt, wobei diese Kluft um so deutlicher wird, wenn man einen anspruchsvolleren Maßstab zugrunde legt, der die Verteilung der Kandidatenpositionen im Zeitverlauf berücksichtigt.

Es ist zwar richtig, daß man vorsichtig sein sollte, wenn man Unterschiede zwischen Kandidaten anhand der Meßinstrumente der US-amerikanischen „Nationalen Wahlstudie" darstellt, da diese den Befragten siebenstufige Skalen vorgeben, von denen nur die Pole inhaltlich spezifiziert sind. Dennoch scheinen die Daten ein konsistentes Muster zu ergeben: auf einer Skala, die von weniger (1) bis mehr (7) Verteidigungsausgaben reichte, wurden die Präsidentschaftskandidaten der Demokratischen Partei von 1980 bis 1988 auf durchschnittlich 3.5, 3.2 und 3.1 und die der Republikaner auf 5.6, 5.8 und 5.4 eingeschätzt (Enelow u. a. 1993, 136).

196

7. Räumliche Theorien des politischen Wettbewerbs

Inhaltlich motivierte Kandidaten Dem räumlichen Grundmodell zufolge haben die Kandidaten nur ein Ziel, nämlich ein Programm vorzustellen, das ihre Chancen auf den Wahlsieg maximiert. Wittman (1983,1990) weist jedoch daraufhin, daß dieses eindimensionale Bild vom Politiker als einem Menschen, der ausschließlich am Wahlsieg interessiert ist, den Daten widerspricht, die belegen, daß Kandidaten auch hinsichtlich der Inhalte, die sie im Wahlkampf vertreten, Präferenzen haben. Verschiedene Varianten eines solchen inhaltlich orientierten Kandidaten wurden vorgeschlagen. Manche Autoren meinen, Kandidaten wollten außer dem Wahlsieg auch ein Mandat der Wähler für einen bestimmten politischen Standpunkt erringen (Riker und Ordeshook 1973, 353; Wittman 1983). Vielleicht müssen sie aber auch bestimmte politische Positionen vertreten, um Interessengruppen zu beschwichtigen (Calver 1985) oder um Versprechen einzulösen, die sie gemacht haben, um von ihrer jeweiligen Partei aufgestellt zu werden (Wittman 1990). Amtsanwärter schlagen möglicherweise Programme vor, die ihnen im Fall der Wiederwahl helfen, ihre Gesetzgebungsvorhaben weiterzuverfolgen (Cox 1984). Vielleicht bringt es einem Kandidaten aber auch einfach Nutzen, Inhalten Ausdruck zu verleihen, die er für gut befindet (Mitchell 1987). Für jede dieser Varianten gibt es ein etwas anderes formales Modell; aber sie alle schaffen die Voraussetzungen für einen eventuellen trade-off zwischen verschiedenen Zielsetzungen. Man könnte zum Beispiel annehmen (Calvert 1985,72), daß Kandidaten außer am Wahlsieg auch „an einem Amt interessiert sind, um eine wünschenswerte Politik betreiben zu können". 156 Wenn χ und y die Programme von zwei Kandidaten R und S sind, dann läßt sich der Erwartungsnutzen des Wahlergebnisses für den Kandidaten R folgendermaßen ausdrücken: EUK(x, y) = uJx)PK(x, y) + ujy) [1 - PJx, y)] + PR(x, y)VR uK(x) stellt dabei den Nutzen des Wahlergebnisses dar, wenn χ das erfolgreiche Programm ist, MR(y) den Nutzen, wenn y das erfolgreiche Programm ist; P„ (x, y) ist die Wahrscheinlichkeit dafür, daß Kandidat R bei gegebenen Programmen (χ, y) die Wahl gewinnt, und V„ ist der Wert, den der Gewinn eines Amtes per se für den Kandidaten R hat. Wenn die Idealpunkte der beiden Kandidaten zu jedem Thema von der Position des Medianwählers aus gesehen auf gegenüberliegenden Seiten liegen und Wählen probabilistisch ist, dann werden Kandidaten, die sowohl an Inhalten als auch am Wahlsieg interessiert sind, Programme wählen, die in dem Maß

156 wie Cox (1984) und andere feststellen, muß in der Realität zwischen dem Wahlkampfprogramm und der tatsächlichen Politik kein enger Zusammenhang bestehen. Zum Thema der Einhaltung von Versprechen sind in den letzten Jahren zahlreiche Veröffentlichungen erschienen, da RationalChoice-Theoretiker zu erklären versucht haben, warum Inhaber öffentlicher Ämter gezwungen sein könnten, ihre Wahlkampfversprechen einzulösen, und wie Wähler sich dieser Versprechen bedienen können, um zukünftige Amtshandlungen vorherzusagen.

Ungewißheit

197

voneinander abweichen, in dem ihnen Inhalte wichtiger sind als der Wahlsieg (Cox 1984, Calvert 1985, Wittman 1990). Aus diesem Modell folgt u. a., daß ein inhaltlich motivierter Kandidat gegenüber einem ausschließlich am Wahlsieg interessierten Gegner im Nachteil ist. Darüber hinaus ist zu erwarten, daß sich die Programme der Kandidaten einander angleichen, wenn der Wert des Amtes an sich steigt (etwa aufgrund einer Erhöhung der Bezüge). Des weiteren kann man folgern, daß ein inhaltlich motivierter Kandidat, der aufgrund eines exogenen Ereignisses an Popularität gewonnen hat, bereit sein wird, einen Teil dieser neugewonnenen Wählerunterstützung gegen ein Programm einzutauschen, das weiter vom Meinungszentrum entfernt und näher am eigenen Idealpunkt liegt. Jede dieser Hypothesen ist plausibel und prinzipiell auch überprüfbar. In der Praxis ist es selbstverständlich schwierig, einen empirischen Test zu entwerfen, der störende Einflüsse ausschaltet. So kann es ζ. B. sein, daß inhaltlich motivierte Kandidaten aus Gründen scheitern, die mehr mit ihrem Wahlkampfmanagement zu tun haben als mit ihrer fehlenden ideologischen Attraktivität für die Wählerschaft. Eine Zunahme der Privilegien im Amt kann dazu führen, daß ideologisch weniger festgelegte Personen kandidieren, die ansonsten nicht angetreten wären, so daß eine zunehmende Orientierung an der Mitte eher die Wirkung der Kandidatenzusammensetzung als die einer bewußten Verlagerung der Wahlkampftaktik widerspiegelt. Ebenso ist es möglich, daß Kandidaten, die durch glückliche Umstände im Aufwind sind, zunehmend extremere Standpunkte vertreten, weil sie fälschlicherweise glauben, daß sie ihre Popularität ihrer harten Linie verdanken. Und schließlich besteht bei alledem immer die lästige Möglichkeit, daß die Art der Kandidatenmotivation selbst mit Veränderungen in der Wahlkampfsituation endogen variiert. Nun haben räumliche Modellierer aber, vielleicht im Bewußtsein dieser Schwierigkeiten, ihre Vorhersagen nur selten auf die reale Wahlkampfpolitik angewandt. Wittman (1983, 146-148) ist zugute zu halten, daß er als einer von wenigen die traditionelle politikwissenschaftliche Literatur nach Belegen für den Einfluß sprunghafter Popularitätsveränderungen auf die Programme von Kandidaten untersucht hat. Leider sind seine Ergebnisse alles andere als überzeugend. 157 Am ehesten noch als Versuch zu werten, Theorie mit origineller empirischer Analyse zu verbinden, ist eine Arbeit von Londregan und Romer, in der sie die Hypothese untersuchen, daß „die ideologische Polarisierung zwischen Kandidaten, die um einen freien Sitz im

l ^ 7 Ein Mangel der von Wittman genannten Studien besteht darin, daß es sich dabei ausschließlich um Querschnittsanalysen handelt, die Vergleiche zwischen Kandidaten zu einem einzigen Zeitpunkt anstellen. Zur Untersuchung der Hypothese, daß die Aussicht, auf der Woge des Erfolges mitreiten zu können, Politiker aus der Partei des favorisierten Präsidentschaftskandidaten ermutigen dürfte, für andere Ämter kandidieren, zieht Wittman ζ. B. eine Studie heran, die für die Senatoren, die sich 1972 zur Wiederwahl stellten, die Korrelation zwischen ihrem jeweiligen Verhalten bei namentlichen Abstimmungen im Senat und der Meinung in den entsprechenden Wahlkreisen untersucht. Die Studie kommt zu dem Ergebnis, daß eine etwas höhere Korrelation für Senatoren der Demokratischen Partei als für Senatoren der Republikanischen Partei festzustellen ist - wobei man sich darüber streiten kann, was dieses statistische Ergebnis inhaltlich bedeutet (Achen 1977). Unterscheidet sich dieser Zusammenhang aber signifikant von dem Ergebnis, das man für ein Jahr wie 1974 beobachten würde, als die andere Partei im Aufwind war?

198

7. Räumliche Theorien des politischen Wettbewerbs

Kongreß konkurrieren, zunimmt, je mehr Bedeutung die Wähler der Fähigkeit beimessen, Dienstleistungen zu erbringen" (1993, 373). Anhand der Nationalen Wahlstudie (National Election Study) von 1978 analysieren die Autoren den bivariaten Zusammenhang zwischen der Bedeutung, die die Befragten Dienstleistungen für den Wahlkreis einräumen, und ihrer Wahrnehmung der ideologischen Unterschiede zwischen den beiden Kandidaten ihres Wahlkreises für das Repräsentantenhaus. Da sie aber nur zehn Wahlkreise mit freien Sitzen zur Verfügung hatten, konnten die Autoren keine statistisch zuverlässigen Ergebnisse erhalten. Abgesehen von dieser nicht sehr aussagekräftigen Untersuchung und einigen Computersimulationen von anpassungsfähigen Parteistrategien (Kollman u. a. 1992) sowie von Programmanpassungen im Vorfeld von Debatten zwischen Kandidaten (Chappell und Keech 1986) waren die Anwendungen räumlicher Modelle mit inhaltlich motivierten Kandidaten bisher auf das Labor beschränkt. 158 Und wenn Anwendungen Uberhaupt vorgeschlagen werden, dann setzen sie in der Regel genau das voraus, was sie klären sollen, nämlich ob das Modell eine korrekte Darstellung des Kandidatenverhaltens liefert. Cox (1984) etwa meint, daß man an der Reaktion eines Kandidaten auf exogene Popularitätsgewinne ablesen kann, wie stark er inhaltlich motiviert ist. Wenn er daraufhin seine Position in Richtung seines Idealpunktes verändere, dann könnten ihm inhaltliche Motive unterstellt werden, andernfalls nicht. Bemerkenswert ist, daß damit die Eigenschaften der Kandidaten anhand ihrer Positionsveränderungen gemessen werden. Kein tatsächlich beobachtetes Verhaltensmuster kann folglich diesem Modell widersprechen, solange nicht extrinsische Informationen über die Motive der Kandidaten geltend gemacht werden. Wie aber abgesehen von der Interpretation ihrer Strategien die Motive von Kandidaten gemessen werden könnten, ist eine Frage, der die Rational-Choice-Forschung bisher nicht nachgegangen ist. Zusammenfassend läßt sich feststellen, daß räumliche Wahlkampftheorien in den letzten Jahren erweitert wurden, um die Möglichkeit zu berücksichtigen, daß Kandidaten auch inhaltlich motiviert sind. Für viele ist diese Entwicklung ein gutes Zeichen dafür, daß räumliche Modelle an Realitätsnähe gewinnen. Das ist insofern richtig, als diese Modelle nun neue, motivationsbezogene Faktoren einbeziehen; aber es bleibt die Frage, ob sich ein solcher Ausbau des Grundmodells empirisch lohnt. Anwendungen zur Überprüfung der Konsequenzen inhaltlicher Motivation stecken noch in den Kinderschuhen; selbst grundlegende Probleme der Messung und Hypothesenüberprüfung wurden, wie wir festgestellt haben, bislang nicht gelöst. 158 Wenn - wie in den Experimenten, von denen Morton (1993) berichtet, - die Kandidaten nicht für den Wahlsieg, sondern je nach Entfernung zwischen ihren Idealpunkten und dem Programm des siegreichen Kandidaten bezahlt wurden, dann näherten sich ihre Programme im Laufe aufeinanderfolgender Wahlen einander an, sofern die Kandidaten Uber die Wählerpräferenzen informiert waren. Wenn die Kandidaten allerdings hinsichtlich der Wählerpräferenzen im Dunkeln tappten und überdies eigene ideologische Präferenzen zugewiesen bekamen, dann, so berichtet Morton, tendierten die Programme im Durchschnitt dazu, auch bei acht aufeinanderfolgenden Wahlen unterschiedlich zu bleiben. Allerdings divergierten die Programme unter diesen Bedingungen weniger als erwartet, was Morton als Beleg dafür interpretiert, daß die Probanden dem Wahlsieg einen eigenen Stellenwert einräumten.

Andere Verschönerungsmaßnahmen

199

Dennoch glauben viele Rational-Choice-Theoretiker, die sich mit der Motivation von Kandidaten befassen, daß ihre Modelle die unterschiedlichen Programme, die sie für das Explanandum des politischen Wettbewerbs zwischen zwei Kandidaten halten, hinreichend erklären können. Das Hauptproblem mit dieser Auffassung besteht darin, daß es viele andere hinreichende Erläuterungen gibt, die man geben könnte, um dasselbe stilisierte Phänomen erklären.

Andere Verschönerungsmaßnahmen Multidimensionaler Wettbewerb, Ungewißheit und inhaltliche Motivation sind nur einige wenige der Ansatzpunkte, die zur Überarbeitung des räumlichen Grundmodells vorgeschlagen wurden. Wie bereits erwähnt, steht die Rational-Choice-Theorie zunehmend unter dem Eindruck der wachsenden Anzahl von empirischen Untersuchungen, die belegen, daß ungeachtet des Zynismus, mit dem die Öffentlichkeit den beiden ideologisch ununterscheidbaren großen Parteien begegnen mag, zwischen den Programmen der Präsidentschaftskandidaten oft systematische Unterschiede festzustellen waren (Page 1978; Tufte 1978) und daß die Wähler diese auch wahrgenommen haben (Aldrich und McKelvey 1977; Enelow u. a. 1993). 159 Diese allgemeine Beobachtung in Sachen Kandidatenstrategien war Anlaß für erhebliche theoretische Nachbesserungsmaßnahmen mit dem Ziel, ein Modell zu formulieren, das vorhersagt, daß Kandidaten im Gleichgewicht ideologisch unterschiedliche Programme wählen. 160

Dem kann man hinzufügen, daß US-Senatoren, die aus demselben Staat kommen, aber unterschiedlichen Parteien angehören, nach ihrer Wahl durchaus unterschiedlich abstimmen (Poole und Rosenthal 1984; Grofman, Griffin und Glazer 1990) und daß sich die Parteien, sobald sie an der Macht sind, im allgemeinen auch unterschiedlicher Probleme annehmen (Hibbs 1977). Einige Rational-Choice-Theoretiker lehnen diese stilisierte Tatsache ab und ziehen es vor, davon auszugehen, daß eine Angleichung der Programme die Regel ist. Bezeichnend dafür ist eine Bemerkung von Kollman u. a., die ihre Arbeit (1992, 936) mit der Feststellung beschließen, daß „extreme Kandidaten nur selten für bundesweite Wahlen aufgestellt werden; und wenn doch, dann verlieren sie haushoch". Was die Autoren unter „extrem" oder „selten" verstehen oder welche Einsichten die Präsidentschaftswahlen bis zurück zum Jahr 1980 vermitteln, bleibt offen. Ähnliche Beschreibungen gemäßigter Präsidentschaftspolitik gibt es viele. Brams und Straffin (1982) etwa verweisen auf die Orientierung der Kandidaten an der Meinungsmitte, um zu erklären, warum es Kandidaten dritter Parteien nur selten gelingt, sich so zu positionieren, daß sie eine nennenswerte Anzahl von Stimmen erhalten. Ihrer Ansicht nach „nehmen die Kandidaten der beiden großen Parteien bei Präsidentschaftswahlen in den Vereinigten Staaten gewöhnlich Positionen ein, die ziemlich nahe beieinander liegen, von den Wahlen von 1964 und 1972 einmal abgesehen" (1983). Wiederum fragt man sich, wie nahe „ziemlich nahe" ist. Auf der Grundlage ihrer Auswertung der Daten der Nationalen Wahlstudie sind auch Enelow und Hinich (1984b, 221) der Überzeugung, daß „selbst extremistische Kandidaten wie etwa George Wallace in US-amerikanischen Wahlen relativ nahe bei der Mitte des Vorhersageraumes liegen. Kein Kandidat ist auch nur annähernd am horizontalen Rand der Wählerschaft angesiedelt." Enelows und Hinichs Ergebnisse sind allerdings mit Vorsicht zu genießen, da

200

7. Räumliche Theorien des politischen Wettbewerbs

Schon bevor voneinander abweichende Programme zur Regel in der US-amerikanischen Wahlkampfpolitik stilisiert wurden, war klar, wie das Grundmodell verändert werden könnte, um zu der Vorhersage zu gelangen, daß Kandidaten unterschiedliche Programme vertreten. Riker und Ordeshook (1973, 348 f.) etwa stellen fest: „Dennoch gibt es in vielen Fragen zwischen den Kandidaten und Parteien signifikante Unterschiede. Müssen wir daraus nun schließen, daß die hier erörterten [Angleichungs-]Ergebnisse widerlegt sind? Offenbar läßt sich die Gültigkeit der Theorie weiter vertreten, wenn wir die Tatsache, daß Kandidaten in realen Wahlkämpfen ihre Programme nicht einander angleichen, auf eine Verletzung der Modellannahmen - wie etwa unvollkommene Information oder räumliche Mobilität - zurückführen. Zur Entschuldigung könnte man aber auch vorbringen, daß sich ein Kandidat eventuell gezwungen sehen mag, Standpunkte weitab vom Durchschnitt zu vertreten, um von seiner Partei nominiert zu werden, und im Wahlkampf dann feststellt, daß er auf diese Inhalte festgelegt ist. Oder man könnte ideologische Vorurteile ins Feld führen, die die Kandidaten nicht aufzugeben bereit oder fähig ist. Und schließlich könnte man auch einfach behaupten, daß Kandidaten Fehler machen. Solche Versuche, die scheinbare Kluft zwischen Theorie und Empirie zu überbrücken, sind aber gar nicht unbedingt notwendig: Mittels der räumlichen Analyse lassen sich auch Bedingungen ausfindig machen, unter denen Kandidaten in der Tat unterschiedliche Alternativen anbieten sollten."

Dementsprechend weisen Riker und Ordeshook darauf hin, daß mit der richtigen Kombination von Annahmen über die Wahlbeteiligung, die Verteilung der Wählerpräferenzen und die Symmetrie der Nutzenfunktionen der Wähler auch „ungeschönte" räumliche Wettbewerbsmodelle zur Vorhersage unterschiedlicher Programme kommen können. Riker und Ordeshooks Liste möglicher Ursachen für voneinander abweichende Programme ist lang, aber keineswegs vollständig. So kann es durchaus sein, daß Kandidaten versuchen, zugleich Stimmen und Ressourcen für den Wahlkampf - wie Spenden oder die Unterstützung von Wahlkampfhelfern - zu maximieren, die sich ihrerseits wieder in Stimmen ummünzen lassen. Die Umwerbung von Sponsoren und Wahlkampfhelfern, die in der Regel ideologisch extremere Standpunkte einnehmen als die restliche Wählerschaft, kann dazu führen, daß sich Kandidaten den Positionen ihrer jeweiligen Gefolgschaft annähern (Riker und Ordeshook 1973, 361 f.). Eine Abkehr von der Mitte kann auch dadurch verursacht werden, daß die Kandidaten der beiden großen Parteien Konkurrenz aus den Reihen einer dritten Partei erwarten (Palfrey 1984), daß Unsicherheit herrscht, ob Ereignisse wie eine Debatte zwischen den beiden Präsidentschaftskandidaten zu einer Veränderung der öffentlichen Meinung führt (Chappell und Keech 1986; siehe auch Wittman 1990), oder daß in unterschiedlichem Maße Ungewißheit über Herausforderer und Amtsinhaber besteht (Bernhardt und Ingberman 1985). Eine Partei kann auch deshalb von der Meinungsmitte abweichen, weil sie versuchen will, die Wähler zu neuen politischen Standpunkten zu führen (Gerber und Jackson 1993). Und schließlich ist es auch möglich, daß Kandidaten extreme Standpunkte vertreten, denen bestimmte Teile der Öffentlichkeit keine Aufmerksamkeit oder nur geringen Glauben schenken. Downs

ihre Analyse u. a. zu dem Schluß kommt, daß Carter und Mondale als sozial konservativer wahrgenommen wurden als Reagan 1980 (205).

Andere Verschönerungsmaßnahmen

201

etwa meint, Kandidaten würden in ihre Programme ein paar extreme Positionen „einstreuen", um sich bei den Parteiaktivisten beliebt zu machen (1968, 131), während Enelow und Hinich (1984b, 53) am Beispiel von Hitlers Wahlkampfprogramm zu zeigen versuchen, daß Kandidaten extreme Standpunkte vertreten können, solange es die Wähler für unwahrscheinlich halten, daß die angekündigten radikalen Veränderungen tatsächlich politisch durchgesetzt werden könnten. Daß einige dieser Hypothesen nie überprüft wurden, mag zum Teil daran liegen, daß sie nicht besonders plausibel und empirisch kaum greifbar sind. Zu Palfreys These, daß die Kandidaten der beiden großen Parteien unterschiedliche Programme wählen, wenn sie erwarten, daß ein dritter Konkurrent ins Rennen kommt, stellt sich etwa folgende Frage: Gleichen die Kontrahenten in einem Wahlkampf zwischen nur zwei Kandidaten ihre Positionen zu Themen, die erst nach Ablauf der Anmeldefrist zur Teilnahme an den Wahlen aufkommen, tatsächlich einander an? Und welche extreme Kandidatenposition ließe sich nicht durch Enelows und Hinichs Hypothese über die Skepsis der Öffentlichkeit nachträglich erklären? 161 In anderen Fällen besteht die Schwierigkeit darin, zwischen den vielen konkurrierenden Erklärungen dafür, daß die Kandidaten unterschiedliche Positionen einnehmen, zu wählen. Ein Kriterium, um das Feld hinreichender Erklärungen zu bereinigen, ist das der Sparsamkeit. Diesem Ansatz scheinen Riker und Ordeshook zu folgen, die, wie man dem letzten Satz des oben genannten Zitats entnehmen kann, dafür plädieren, nach einfachen Mechanismen zu suchen, die Unterschiede zwischen den Kandidaten erzeugen können, anstatt die Theorie durch eine oder mehrere, wenn auch plausible Ergänzungen aufzublähen. Leider läßt sich das Kriterium der Sparsamkeit auf alternative räumliche Modelle, die das Grundmodell auf ganz unterschiedliche Weise ergänzen, nicht so einfach anwenden. 162 So ist zum Beispiel nicht klar, was sparsamer ist: eine Theorie, die Unterschiede auf der Grundlage von Seitenzahlungen an Interessengruppen vorhersagt, oder eine andere, die die Vorhersage von Unterschieden auf den Wettbewerb um die Nominierung zurückführt. Alternative Modelle könnten auch danach beurteilt werden, inwieweit sie reale Wahlkämpfe abbilden. Die Realitätsnähe eines Modells ist aber ebenso wie seine Sparsamkeit ein zwar reizvoller, aber auch schwer faßbarer Maßstab. Es ist leicht, „reine" Theorien des Kandidatenwettbewerbs dafür zu kritisieren (ζ. B. Ledyard 1984), daß sie der strategischen Komplexität einer bestimmten Wahlkampfsituation nicht hinreichend gerecht werden (Austen-Smith 1984). Die Suche nach Modellen, die die kompetitiven Tauschbeziehungen zwischen Kandidaten im Wahlkampf berücksichtigen, läßt jedoch eine potentiell endlose Kette theoretischer Verschönerungsmaßnahmen zu. Außerdem kann man alleine mit theoretischen Mitteln nicht

161 Zur Wahl von 1980 kommen Enelow und Hinich zu dem eher gewundenen Schluß, daß Ronald Reagan trotz seiner ideologischen Unattraktivität von den Wählern unterstutzt wurde, weil sie glaubten, daß er nicht in der Lage sein wUrde, seine politischen Vorlieben tatsächlich umzusetzen. Und Clintons beharrlichen Reformappellen wurde dann 1992 wohl ebensowenig Glauben geschenkt. 162 Solche Modelle werden manchmal als nonnested alternatives bezeichnet, da sich die Parameter einen Modells nicht als Teilmenge der Parameter eines der anderen formulieren lassen. Daher können die Standardtechniken der statistischen Hypothesenprüfung nicht direkt angewendet werden.

202

7. Räumliche Theorien des politischen Wettbewerbs

feststellen, welche Aspekte eines Wahlkampfes kausale Relevanz haben und welche getrost außer acht gelassen werden können. Ob für ein realistisches Modell von Wahlkampfstrategien eine genauere Darstellung von Faktoren wie Art und Abfolge der vorgetragenen Standpunkte, Einsatz von Wahlkampfmitteln oder Pressearbeit erforderlich ist, ist letztlich eine empirische Frage. Überdies wirft die Realitätsnähe der verschiedenen hinreichenden Erklärungen für abweichende Gleichgewichte die Frage auf, inwiefern diese Faktoren die Kandidaten jeweils dazu veranlassen, sich von der Mitte der Wählermeinung wegzubewegen. Wollte man diese Frage systematisch beantworten, begäbe man sich auf unbekanntes Territorium. Es liegen bislang keine empirischen Untersuchungen darüber vor, wie sich Veränderungen der Unsicherheitsfaktoren, der inhaltlichen Motivationen, der Kosten bei einem Standpunktwechsel, der Umstände der Nominierung oder der Seitenzahlungen von Aktivisten oder finanziellen Gönnern usw. a u s w i r k e n . So stellt sich etwa die Frage, ob mit der Zunahme von Meinungsumfragen und dem entsprechenden Rückgang der Ungewißheit auf seiten der Kandidaten die Wahlkampfpolitik eher zentristisch (oder vielleicht auch zyklisch) geworden ist oder ob bei Kandidaten mit ähnlichem ideologischen Profil diejenigen, die sich nicht erst gegen parteiinterne Konkurrenten durchsetzen mußten, einen zentristischeren Wahlkampf betreiben als solche, die sich schon während der Vorwahlen dem Wettbewerb stellen mußten. Im Idealfall würde man nicht nur nach einem statistischen Zusammenhang zwischen einer bestimmten Variablen und dem Ausmaß des Unterschiedes zwischen den Kandidaten suchen, sondern auch nach Belegen dafür, daß der angenommene Kausalmechanismus (ζ. B. die inhaltliche Motivation) für diesen Zusammenhang auch tatsächlich verantwortlich ist. Dazu bedürfte es etwa einer genauen Beobachtung der Festlegung und Umsetzung der Wahlkampfstrategie. Eine solche Verlaufsstudie könnte zeigen, ob die Wahl der vorhergesagten Wahlkampfstrategien ein bewußtes Maximierungsverhalten des Prinzipals, das Maximierungsverhalten der Agenten, deren Interessen mit denen des Kandidaten in Einklang gebracht wurden, oder das Zufallsprodukt einer sich durchwurstelnden Wahlkampforganisation widerspiegelt.

163 Gelegentlich haben Autoren Belege für eine ganz bestimmte Ursache voneinander abweichender Kandidatenpositionen präsentiert (z. B. Enelow u. a. 1993), aber diese empirischen Tests waren nicht so angelegt, daß konkurrierende Erklärungsfaktoren ausgeschlossen worden wären. Selbst die empirisch relativ aussagekräftige Untersuchung von Gerber und Jackson (1993) begnügt sich mit der Vermutung, daB die Fähigkeit von Parteien, die inhaltlichen Standpunkte von Wählern ins Wanken zu bringen, zur Formulierung unterschiedlicher Wahlkampfprogramme beitragen kann.

Was lehren uns räumliche Modelle über die Strategien von Kandidaten?

203

Was lehren uns räumliche Modelle über die Strategien von Kandidaten? Bisher hinkt die empirische Anwendung räumlicher Modelle ihrer theoretischen Erarbeitung deutlich hinterher. Theorien werden in einer Forschungsumgebung entwickelt, in der so gut wie keine systematischen Untersuchungen stattfinden, die die Kausalmechanismen (ζ. B. Unsicherheit), die in räumlichen Modellen behauptet werden, mit dem strategischen Verhalten der Kandidaten in Beziehung setzen. Dementsprechend widmen auch nur wenige der Aufsätze, die neue Möglichkeiten zur Modellierung des Kandidatenwettbewerbs vorschlagen, mehr als nur ein paar Zeilen der Frage, wie die neuen Aspekte des Modells zu operationalisieren sind oder wie das Uberarbeitete Modell von konkurrierenden Erklärungsansätzen empirisch unterschieden werden kann. So sucht man verzweifelt nach Anwendungen, und seien sie noch so punktuell, die belegen, daß es sich empirisch durchaus lohnt, den Wahlkampf mit den Augen der Rational-Choice-Theorie zu betrachten. Und die wenigen Anwendungen, die es gibt, sind häufig kurze Erzählungen, die aus einer losen Ansammlung analytischer Prinzipien eine Interpretation beobachteter Kandidatenstrategien basteln. Brams (1993) etwa stellt ein Modell des Präsidentschaftswahlkampfes vor, in dem zwei Typen von Kandidaten (Amtsinhaber und Herausforderer) zwischen zwei Typen von Strategien (riskant und sicher) wählen. Das Gleichgewicht in einer Version des Spiels läßt vermuten, daß beide Kandidaten einen Anreiz haben, riskante Strategien zu wählen, wenn der Amtsinhaber mit einem „starken" Herausforderer konfrontiert wird. Brams bezeichnet Wahlkampfstrategien dann als „riskant", wenn sie „eher unvorhersehbare Folgen" zeitigen (48). Derlei „riskante" Strategien hätten die Kandidaten der beiden großen Parteien in den Jahren 1976 und 1980 angewendet: 1976 verteidigte Ford die Begnadigung von Nixon, während Carter gegen den Beltway164 antrat; 1980 trat Reagan gegen den Beltway an, während Carter seinen Herausforderer zunächst einmal ignorierte und sich weigerte, an der ersten Debatte teilzunehmen. Diese Darstellung ist in jedem Fall fragwürdig, sowohl was die schwammige Definition von „riskant" als auch was die grobe Klassifizierung von Wahlkämpfen anbelangt. Brams hingegen ist der Ansicht, daß seine Anwendung der Spieltheorie auf die Wahlkampfpolitik vielversprechend sei. Obwohl er ohne Umschweife zugibt, daß die acht Präsidentschaftswahlkämpfe zwischen 1960 und 1988 nicht hinreichen, um das Modell einer strengen Überprüfung zu unterziehen, argumentiert er dennoch (1993, 52), daß die Fälle ,prima facie Indizien dafür [liefern], daß diese unterschiedlichen ... Spiele, wenn auch in äußerst vereinfachter Form, wohl verschiedene Wahlkampfszenarien modellieren, die tatsächlich bei Wahlen vorkommen". Andere Anwendungen räumlicher Modelle sind ebenso vage. Eine Reihe von Abhandlungen beschäftigen sich ζ. B. mit der Frage, wie sich nutzenmaximierende Kandidaten wohl die strategischen Schwächen ihrer Gegner zunutze machen kön164 Zum Beltway gehören Maryland und Washington D.C., Anm. d. Übersetzerin.

204

7. Räumliche Theorien des politischen Wettbewerbs

nen. Es wird dabei angenommen, daß - wie im Fall des eindimensionalen Wahlkampfes - ein Gleichgewicht existiert, aber einer der Kandidaten aus irgendwelchen Gründen nicht bereit oder in der Lage ist, das Gleichgewichtsprogramm zu vertreten. 165 Um uns eine solche Situation zu vergegenwärtigen, betrachten wir noch einmal den weiter oben beschriebenen Fall, in dem es um nur eine inhaltliche Dimension geht, deterministisch gewählt wird, keine Stimmenthaltungen vorkommen und die Kandidaten ihre Aussicht auf den Wahlsieg maximieren wollen. Wie Abbildung 7.1 zeigt, besteht die Gleichgewichtsstrategie für die Kandidaten darin, die vom Medianwähler bevorzugte Position einzunehmen. Wenn ein Kandidat jedoch einen Standpunkt rechts von dem am weitesten rechts angesiedelten Wähler besetzt, dann sollte sich ein stimmenmaximierender Gegner ebenfalls nach rechts bewegen, und zwar bis zu einer Position, die sich um Haaresbreite links von der Opposition befindet. Wie Tullock (1967, 52) feststellt, führt ein solcher Anpassungsprozeß dazu, daß bei konstanter Wahlbeteiligung „ein extremistischer Kandidat einen stimmenmaximierenden Gegner dazu bringen kann, seinen extremistischen Wünschen sehr weit entgegenzukommen". Träfe diese Erklärung zu, müßte man wohl von folgendem ausgehen: Wenn das ehemalige Mitglied des Ku-Klux-Klan, David Duke, im Zuge seiner Kandidatur für das Amt des Gouverneurs von Louisiana 1991 seine Pläne kundgetan hätte, daß er alle Schwarzen aus dem Süden verbannen werde, dann hätte sein Gegner aus der Situation wohl am meisten Gewinn schlagen können, wenn er nun seinerseits die Absicht verkündet hätte, nur einen Teil der Afro-Amerikaner ausweisen zu wollen. Dieser absurden Folgerung schließen sich Riker und Ordeshook (1973, 353) nicht an, sondern halten zwei Argumente dagegen: Erstens sei es möglich, daß sich die aktivistischen Unterstützer des liberaleren Kandidaten der Wahl enthalten, wenn der sich zu weit nach rechts bewegt, so daß es zu einem Nettoverlust an Wählerstimmen kommen könnte. Und zweitens sei es möglich, daß die Kandidaten ihren Wunsch nach möglichst vielen Stimmen zugunsten eines inhaltlichen Mandats zügeln. Das sei etwa der Fall gewesen bei Lyndon B. Johnson, der sich in der Hoffnung, einen Konsens für eine moderate Politik zu erzielen, Barry Goldwaters rechtem Kurs nur begrenzt angeschlossen habe (vgl. aber Kramer 1977 für die gegenteilige Behauptung). Erikson und Romero (1990) kommen zu einer ähnlichen Strategievorhersage, aber aus anderen Gründen: bei probabilistischem Wählen gewinne man durch eine Abkehr von der Mitte nur wenig zusätzliche Stimmen. Man könnte jedoch argumentieren, daß ein Kandidat, dem es sowohl um den Wahlsieg als auch um eine liberale Politik geht, unter den richtigen probabilistischen Annahmen einen Teil der zu erwartenden zusätzlichen Stimmen gegen ein für ihn persönlich befriedigenderes Programm eintauschen würde (Wittman 1983). Es 165 Mehrere räumliche Modelle gehen davon aus, daß der Amtsinhaber auf eine Menge inhaltlicher Positionen festgelegt ist, die er während seiner Amtszeit vertreten hat, und daher Gefahr läuft, einem Herausforderer zu unterliegen, dem es frei steht, eine siegreiche Gegenkoalition zu schmieden (Downs 1968; Wittman 1973; Kramer 1977; Chappell und Keech 1986). Diese Annahme kann auf Situationen verallgemeinert werden, in denen ein Kandidat zu den Wahlkampfthemen weithin bekannte Standpunkte hat und es nicht riskieren kann, auf eine andere Position umzuschwenken.

Was können räumliche Modelle zur Erforschung von Wahlen beitragen?

205

mag auch sein, daß ein solcher Kandidat einige deutlich liberale Standpunkte vertritt, um den Themen größere Aufmerksamkeit zu sichern, die besondere Schwachstellen im Programm des extremistischen Gegners bilden (vgl. Hammond und Humes 1993). Kurzum: wenn man sich damit begnügt, aus der großen Menge möglicher Prämissen Uber die Ziele oder Überzeugungen eines bestimmten Kandidatenpaars - von denen nur wenige unmittelbar überprüft werden können - einige Annahmen herauszupflücken, dann kann potentiell jede strategische Reaktion auf die Schwächen des Gegners mit den Vorhersagen eines räumlichen Modells in Einklang gebracht werden. Letztlich kann die Wahl einer Strategie ebenso gut auf Kindheitserfahrungen (George und George 1956) wie auf Gewohnheiten zurückgeführt werden, die sich der Kandidat zu Beginn seiner Karriere zugelegt hat (Barber 1977, 241 f.; Caro 1990). Was den Rational-Choice-Erzählungen fehlt, ist eine systematisch-empirische Unterfütterung, die den auf Nutzenmaximierung fußenden Interpretationen Glaubwürdigkeit verleihen würde. Bislang benennen jedoch Interpretationen, die aus räumlichen Modellen abgeleitet werden, eine ganze Reihe von Erklärungsfaktoren (wie ζ. B. die Ziele der Kandidaten oder den Grad ihrer Unsicherheit), für die keine Meßinstrumente angegeben werden. Gleichzeitig beruht die Diskussion Uber optimale Kandidatenstrategien auf einer hochgradig stilisierten und empirisch nicht belegten Darstellung der strategischen Optionen von Kandidaten. Aus diesen Gründen sind wir nicht davon überzeugt, daß räumliche Modelle größere Einsichten in die Bestimmungsfaktoren von Wahlkampfstrategien vermitteln als traditionelle Interpretationsansätze.

Was können räumliche Modelle zur Erforschung von Wahlen beitragen? Als diese Forschungssparte noch in den Kinderschuhen steckte und das einfache Modell von Downs Standard war, enthielten räumliche Modelle nur wenige kontingente Parameter und lieferten eindeutige Vorhersagen: Kandidaten trachten nach dem Wahlsieg; ihr strategisches Werkzeug sind ihre inhaltlichen Standpunkte; um zu gewinnen, müssen sie den Wählern folgen - das heißt, zentristische Programme vertreten. Man kann diese Vorhersagen bestreiten oder Zweifel anmelden, daß sie sich auf die verschiedenen Bereiche US-amerikanischer Politik anwenden lassen, aber ihre Implikationen für die empirische Untersuchung sind relativ klar. Im Laufe der Zeit kamen jedoch immer mehr Wissenschaftler zu dem Schluß, daß das Grundmodell sowohl empirisch als auch theoretisch unhaltbar ist. Infolgedessen wurden zunehmend raffiniertere räumliche Modelle entworfen, während das Grundmodell zu einem Spezialfall allgemeinerer Formulierungen wurde, in denen solche Konstrukte wie inhaltliche Motivation, Unsicherheit und Dimensionalität variieren durften. Solange diesen Variablen keine Werte zugeordnet werden, erzeu-

206

7. Räumliche Theorien des politischen Wettbewerbs

gen derart umfassende Modelle keine eindeutigen Vorhersagen. Je nachdem, welche Ziele die Akteure verfolgen, welche Informationen ihnen zur Verfügung stehen und welchen Einschränkungen ihre möglichen strategischen Optionen unterliegen, können Gleichgewichte bei konvergierenden Programmen, bei divergierenden Programmen oder Uberhaupt nicht vorkommen. 166 Die Entwicklung zunehmend allgemeinerer Modelle hat zu einem größeren Begriffsreichtum geführt. 167 Mit der Berücksichtigung von Faktoren wie dem „nicht-inhaltlichen Nutzen" wurden sogar die erheblichen Unterschiede zwischen räumlichen und traditionellen Modellen in dem Maße aufgeweicht, in dem die räumlichen Modelle erweitert wurden, um den Einwänden der traditionellen Wahlforscher Rechnung zu tragen. Während mehr und mehr kontingente Faktoren in die räumliche Modellierung einbezogen werden, stellt sich aber dem empirisch orientierten Politikwissenschaftler die Frage, wie solche Modelle die angewandte Forschung überhaupt noch anleiten sollen. Benjamin Page, einer der wenigen Autoren, die sich mit der empirischen Bewertung räumlicher Modelle beschäftigen, beklagt zum Beispiel, daß mit der zunehmenden Komplexität räumlicher Modelle „beträchtliche Verwirrung einhergeht, was genau - wenn überhaupt etwas - sie denn vorhersagen. Je nachdem, welche Annahmen man über die Wahlbeteiligung, die Form der Verteilung von Meinungen, die Art der Nutzenfunktionen der Wähler und die Ziele der Kandidaten macht, ist eine bestürzende Vielfalt kontingenter Vorhersagen möglich" (1978, 18). Seitdem haben weitere Verschönerungsmaßnahmen das von Page beklagte Durcheinander zweifellos noch vergrößert. Vielleicht ist das ein Grund dafür, warum die Kritiker räumlicher Modelle seit den siebziger Jahren immer weniger geneigt sind, sich mit ihnen empirisch auseinanderzusetzen. Kontingente Ergebnisse sind jedoch nicht unbedingt eine unerwünschte Eigenschaft theoretischer Modelle. Mitchell (1987) etwa weist darauf hin, daß man die Bandbreite des im politischen Wettbewerb beobachteten strategischen Verhaltens überhaupt nur mit einem Modell erklären kann, das kontingente Vorhersagen macht. Die Kritik gilt vielmehr Kontingenzen, die auf nicht-beobachtbaren Begriffen beruhen, für die es gar keine oder nur unbefriedigende Meßinstrumente gibt. Der Rück166 In einer Zusammenfassung der Literatur, die vor fünfundzwanzig Jahren vorlag, geben Riker und Ordeshook (1973, 307-51) einen Überblick über die Implikationen von drei verschiedenen Annahmen Uber die Form der Nutzenfunktionen, vier Annahmen über die Wahlbeteiligung, drei Annahmen über die Verteilung der Wählerpräferenzen und zwei Annahmen Uber die Motivation der Kandidaten. Dies führte zu insgesamt zweiundsiebzig Kombinationen, von denen sechsundfünfzig zu diesem Zeitpunkt bereits Gegenstand von Theoremen oder plausiblen Vermutungen waren. Dies allein ergibt schon eine große Familie räumlicher Theorien; wenn wir aber noch die Hilfsannahmen hinzufügen, die in den letzten Jahren Bedeutung gewonnen haben, dann nimmt die daraus resultierende Anzahl von Kombinationen Malthusianische Dimensionen an. 167 Das gilt allerdings nur, wenn man die Literatur im ganzen betrachtet. Ordeshook (1993, 88) bemerkt jedoch: „Niemand verfolgt ein Forschungsprogramm, das alle potentiell relevanten strategischen Interaktionen anhand eines einzigen Modells untersucht. So gibt es ζ. B. kein räumliches Wahlmodell, das die strategischen Entscheidungen von Wählern, Kandidaten, Parteiführern und Wahlkampfunterstützem berücksichtigt, von komplexen, aber realistischen Verfahrensregeln ausgeht und zugleich die Tatsache in Betracht zieht, daß nach einer Wahl eine Phase der Zusammenarbeit zwischen Legislative und Exekutive erfolgt, daraufhin wieder eine Wahl stattfindet, usw."

Was können räumliche Modelle zur Erforschung von Wahlen beitragen?

207

griff auf eine Unmenge von nicht oder nur schwer meßbaren Konstrukten - wie Risikoaversion, Diskontierung zukünftiger Ergebnisse, Ansichten über das wahrscheinliche Verhalten anderer Akteure, Nutzeneinkommen aus anderen Ergebnissen als dem Wahlsieg - hat zwei Implikationen, die entweder in einem Modell bereits explizit berücksichtigt werden oder zu seiner Rettung im Hintergrund bereitstehen. Erstens kann man davon ausgehen, daß eine Anwendung auf einen bestimmten Wahlkampf, wie bereits gesagt, hoffnungslos überbestimmt ist. Zu gegebenen Daten lassen sich jede Menge von Interpretationen finden, die einer rationalen Maximierung entsprechen; aber auch ebenso viele, die die Rolle von strategischer Kurzsichtigkeit oder Fehlentscheidungen betonen. Zweitens ist es unwahrscheinlich, daß sich räumliche Modelle des Kandidatenwettbewerbs in dem Sinne identifizieren lassen, daß man ihre Parameter statistisch schätzen kann, sofern nur Daten aus einer Stichprobe von Wahlkämpfen vorliegen. Man nehme etwa die Hypothese, daß manche Kandidaten extremere Programme vertreten als andere, weil sie in unterschiedlichem Maße inhaltlich engagiert und unsicher sind. Es wäre schon schwierig genug, nur die inhaltliche Motivation und Ungewißheit der Kandidaten zu messen; aber auch noch Meßinstrumente für möglicherweise intervenierende Faktoren wie Risikoscheu oder Seitenzahlungen von Aktivisten zu entwickeln (die im übrigen mit der inhaltlichen Motivation durchaus kovariieren können), wäre eine wahrlich gigantische Aufgabe. 168 Selbst wenn jeder die Behauptung akzeptieren würde, daß Kandidaten Gleichgewichtsstrategien verfolgen, wären Schlüsse über den Kausalzusammenhang zwischen Unterschieden in den Eigenschaften der Kandidaten und den von ihnen gewählten Strategien nach wie vor problematisch. Eine Möglichkeit zur Verringerung dieser Probleme, die durch nichtbeobachtbare Größen verursacht werden, welche von einem Kandidaten zum anderen variieren, besteht darin, daß man sich auf die Auswirkungen von Veränderungen in der strategischen Umgebung konzentriert. Wenn man etwa die Hypothese aufstellt, daß sich der Wert von politischen Ergebnissen, der ihnen relativ zu den Nutzeneinkünften, die aus dem Amt selbst gezogen werden können, beigemessen wird, darauf auswirkt, wie stark ein Kandidat unter Bedingungen der Ungewißheit von der Meinungsmitte abweicht, dann könnte man folgern, daß eine Verringerung der Dienstbezüge und anderer nicht-inhaltlicher Belohnungen einen Kandidaten dazu veranlassen müßte, sich weiter von der Mitte zu entfernen. Zur Überprüfung dieser Hypothese dürfte es aufschlußreich sein, im Rahmen einer Panelstudie zu untersuchen, wie Kandidaten ihre Strategien einem neuen Anreizsystem anpassen - vor allem dann, wenn man im Vergleich dazu beobachten kann, welche Strategien die Kandidaten einer Kontrollgruppe wählen, die im gleichen Zeitraum keinen derartigen Veränderungen ausgesetzt waren. 169 Dieses Untersuchungsdesign kann zwar nicht 168 Dem ist die weitere Komplikation hinzuzufügen, daß sich die strategische Situation für die verschiedenen Kandidaten von einem Wahlkampf zum nächsten verändern kann, und zwar auf eine Art und Weise, die sich möglicherweise nur schwer kontrollieren läßt. 169 Obwohl dieses Design den Vorteil hat, daß es bestimmte schwierige Meßprobleme umgeht, mag es dennoch wünschenswert sein, daß Forscher, die sich einer solchen Untersuchungsanlage bedienen,

208

7. Räumliche Theorien des politischen Wettbewerbs

etwaige Zweifel darüber ausräumen, ob eine bestimmte Umweltveränderung exogen erfolgte, aber es verkleinert die Menge von starken Annahmen, die man zur Stützung der empirischen Schlüsse benötigt. Die Hauptprämisse bei dieser Art von Analyse besagt, daß Präferenzen und andere nichtbeobachtbare Größen im Verlauf der Untersuchung konstant bleiben, so daß sich Veränderungen im Kandidatenverhalten tatsächlich auf Veränderungen der strategischen Umstände und nicht auf Veränderungen der Eigenschaften der Kandidaten selbst zurückführen lassen. Diese Annahme ist nicht über jeden Zweifel erhaben, aber sie ist jedenfalls plausibler als die Annahmen anderer Untersuchungsanlagen, die etwa die Programme der Kandidaten zu einem bestimmten Zeitpunkt vergleichen (Londregan und Romer 1993). Zu beachten ist jedoch, daß eine auf diese Weise überprüfte Hypothese insofern kontingent bleibt, als das Ausmaß der Verhaltensänderung infolge von Umweltveränderungen nicht spezifiziert wird. Es kann durchaus sein, daß Kandidaten auf eine Verringerung der Amtsbezüge im Durchschnitt nicht nennenswert reagieren, etwa weil ihre inhaltlichen Motivationen zentristisch oder schwach sind oder aus anderen Gründen in den Hintergrund treten. Solche Hilfshypothesen ließen sich jedoch ihrerseits überprüfen, indem man genauer untersucht, wie Veränderungen der Umwelt das Verhalten verschiedener Typen von Kandidaten beeinflussen. Mit dem gedämpften Optimismus, der jede Vision von sozialwissenschaftlicher Forschung begleiten muß, kann man erwarten, daß bei einer derartigen Untersuchung aller erdenklichen Eventualitäten Zusammenhänge zum Vorschein kommen werden, die ein empirisch fundiertes Bild der Bedingungen liefern, unter denen Kandidaten im Wahlkampf die eine oder die andere Strategie wählen. Aber so informativ diese Form der empirischen Untersuchung auch sein mag; sie setzt ein Modell nur selten der Falsifikation aus. Ein Modell behauptet lediglich, daß ein bestimmter Parameter unbekannter Größe den Zusammenhang zwischen einer unabhängigen und einer abhängigen Variable steuert; und sofern die Daten nicht einen Schätzwert mit dem falschen Vorzeichen ergeben, hat man in der Regel bestenfalls indirekte Belege, um das Modell in Frage zu stellen. Da man im allgemeinen wissen möchte, ob ein Modell die Daten erklärt, und nicht nur, wie die Parameter des Modells aussähen, wenn seine Annahmen zuträfen, muß man letztlich doch die Frage stellen, welche Verhaltensweisen ein Modell ausschließt. Räumliche Wahlkampfmodelle vernachlässigen bislang ζ. B. weitgehend die internen Spannungen, die innerhalb einer Wahlkampfmannschaft auftreten können, die traditionellen oder gewohnheitsmäßigen Praktiken, die dem Verhalten von Wahlkampfmanagern zugrunde liegen, oder die kognitiven Verzerrungen, die sich darauf auswirken, wie Kandidaten und Aktivisten Kenntnisse über die Entwicklung eines Wahlkampfs erwerben. Solche Einflüsse auf die Wahlkampfstrategie erhalten in räumlichen Modellen in der Tat ein Gewicht von Null. Wenn sich also ergibt, daß von der Struktur und personellen Ausstattung einer Wahlkampforganisation ein systematischer Einauch den Wert messen, den die Kandidaten dem Wahlsieg an sich zuschreiben, um wenigstens grob die Validität der Behauptung zu überprüfen, daß sich die beschriebene Veränderung der Umgebung auf die Einschätzungen der Kandidaten in der erwarteten Weise ausgewirkt hat.

Was können räumliche Modelle zur Erforschung von Wahlen beitragen?

209

fluß auf die Programme (oder anderen Strategien) von Kandidaten ausgeht, sind diese räumlichen Modelle in dieser Hinsicht als unangemessen zu betrachten. Zunehmende Belege dafür, daß derartige Faktoren von großer Bedeutung sind, würde die zentrale Prämisse in Frage stellen, daß Wahlkampfkontrahenten, wenn möglich, Gleichgewichtsstrategien verfolgen. Zusammenfassend ist also zu sagen, daß das Forschungsprogramm, das wir uns vorstellen, in ganz anderen Bahnen verlaufen würde als das der derzeitigen Rational-Choice-Forschung zum politischen Wettbewerb in Wahlkämpfen. Vor allen Dingen legen wir sehr viel größeren Wert auf die Verbindung von Theorieentwicklung und empirischer Forschung. Bei der Erarbeitung räumlicher Theorien muß der Frage, wie das jeweilige Modell operationalisiert und empirisch überprüft werden soll, weitaus mehr Aufmerksamkeit gewidmet werden. Dadurch wäre es nicht nur für Wissenschaftler, die nicht zum engeren Kreis der Rational-Choice-Forscher gehören, einfacher, sich an diesem Forschungsprogramm zu beteiligen (was unter anderem den Vorteil hätte, daß der Neigung, bestätigende Daten zu suchen oder gegebene Daten als bestätigend zu interpretieren, ein Riegel vorgeschoben würde); es würde auch die Geschwindigkeit verringern, mit der Theorien post hoc verändert werden, da man sich ja stets die Frage stellen müßte, was eine solche „Verschönerung" zu unserem Bestand an empirisch fundiertem Wissen über den Wettbewerb im Wahlkampf potentiell beitragen mag. Was die empirischen Anwendungen selbst betrifft, so plädieren wir dafür, Strategien von Kandidaten nicht von Fall zu Fall zu interpretieren, sondern statt dessen die Auswirkungen von exogenen Veränderungen in der strategischen Umwelt zu untersuchen. Zudem bevorzugen wir Tests, die die Grenzen räumlicher Theorien ausloten, indem sie die Auswirkungen von Variablen untersuchen, die diesen Modellen zufolge wirkungslos sind. Will man diesen Vorschlag in die Praxis umsetzen, so muß man das Spannungsverhältnis überwinden, das da herrscht zwischen der Aufstellung einer kleinen Menge von Annahmen Uber Absichten und Ansichten von Akteuren mit dem Ziel, die Hypothesen nicht-trivial und falsifizierbar zu machen, einerseits und andererseits der Einführung zunehmend spezifischer Annahmen, durch die Überprüfungen erschwert und Überraschungen unwahrscheinlich werden. Wie Downs (1968, Kap. 1) schon früh feststellte, steht und fällt der wissenschaftliche Erfolg räumlicher Modellierungen damit, daß man das richtige Gleichgewicht zwischen Überprüfbarkeit und Detailgetreue findet, indem man aus der Theorie gewisse Faktoren bewußt ausblendet, deren Berücksichtigung zwar die Rationalitätsannahme retten, aber das Modell seines empirischen Wertes berauben würde. Kurz gesagt müssen räumliche Modelle Grenzen haben, so daß eine gewisse Bandbreite von Phänomenen verbleibt, die von der Theorie nicht vorhergesagt werden. Wenngleich die meisten Beobachter US-amerikanischer Wahlen sicher gewillt sind, die eine oder andere Form der Aussage zu akzeptieren, daß Kandidaten strategisch vorgehen, um ihre Ziele zu erreichen, würden vermutlich nur wenige der Ansicht zustimmen, daß in einem Wettbewerbskontext, der so komplex und für taktische Innovationen offen ist wie die Wahlkampfpolitik, Nash-Gleichgewichte existieren. Und noch kleiner dürfte der Kreis derer sein, die erwarten, daß Kandidaten

210

7. Räumliche Theorien des politischen Wettbewerbs

Strategien wählen, die in Anbetracht ihrer Vorlieben, Ansichten und verfügbaren Optionen optimal sind. Sollen sich räumliche Modelle von einer Ansammlung vage operationalisierter und kaum belegter Vermutungen zu einem robusteren Forschungsprogramm entwickeln, dann muß bei ihrer empirischen Überprüfung die Möglichkeit vorgesehen werden, daß diese skeptischen Intuitionen richtig sein könnten.

8. Erwiderungen auf mögliche Gegenargumente

211

8. Erwiderungen auf mögliche Gegenargumente

Schon 1979 bemerkte Clifford Russell die Diskrepanz „zwischen der scheinbar guten Bewährung von Public-Choice-Theoremen, wenn sie nur oberflächlich empirisch überprüft werden, und den Schwierigkeiten, auf die man stößt, wenn größere Genauigkeit verlangt wird und eine strenge Überprüfung anhand tatsächlicher Daten erfolgt" (6). Inzwischen sind zwar fast zwanzig Jahre vergangen, in denen die Rational-Choice-Theorie erheblich an Prestige und Einfluß gewonnen hat; und doch legen die vorangegangenen vier Kapitel den Schluß nahe, daß Russells Urteil nach wie vor gilt. Unser Literaturüberblick zu Wahlbeteiligung, kollektivem Handeln, Gesetzgebungsverhalten und politischem Wettbewerb hat gezeigt, daß die RationalChoice-Theorie auf diesen Gebieten nur wenige, vereinzelte und deutlich bescheidenere empirische Beiträge geleistet hat, als man ihrem Nimbus und dem methodologischen Tamtam ihrer Anhänger zufolge erwarten würde. Zugegebenermaßen haben wir uns auf die Literatur konzentriert, die aus den bahnbrechenden Arbeiten von Arrow, Downs und Olson hervorgegangen ist. Wir haben diese Auswahl damit begründet, daß sie weithin als die bedeutendsten und herausragendsten Rational-Choice-Untersuchungen betrachtet werden. Es ist aber daran zu erinnern, daß auch andere politikwissenschaftliche Rational-Choice-Beiträge zum Gegenstand äußerst kritischer Erörterungen geworden sind. Zu den bemerkenswertesten dieser Kritiken gehören: Barrys Analyse (1984) von Arbeiten, die die ökonomische Theorie der Wirtschaftszyklen auf Wahlen anwenden, bzw. von Studien, die versuchen, mit Hilfe von Rational-Choice-Überlegungen einen Kausalzusammenhang zwischen Demokratie und Inflation herzustellen; Moes Diskussion der Rational-Choice-Beiträge zur Kontrollfunktion des Kongresses (1987); Kelmans Rezension von Rational-Choice-Fallstudien über Aufsichtsbehörden (1988); Morton und Camerons Auseinandersetzung mit formalen Theorien der Wahlkampfunterstützung (1992); Bendors Analyse von Rational-Choice-Ansätzen in der Bürokratietheorie (1988) sowie Converses Diskussion von Rational-Choice-Modellen der Wahlentscheidung (1975). Auch haben wir nichts über die empirische Leistung der Rational-Choice-Theorie in den Wirtschaftswissenschaften gesagt. Daß die Rationalwahltheorie auf Politikwissenschaftler, Juristen und Soziologen so große Anziehungskraft ausübt, liegt zum Teil an ihrem Ruf, auf ökonomischem Gebiet äußerst erfolgreich zu sein (Riker 1990, Abell 1992). Wie gut sich allerdings Hypothesen, die vom Modell des rationalen Akteurs ausgehen, in der Ökonomie bewähren, wenn sie denn empirisch überprüft werden, ist umstritten; Kritik ähnlich der unsrigen wurde von Thaler (1991), Lane (1991) und Rosenberg (1992) vorgebracht. Möglicherweise haben wir es hier mit dem merkwürdigen Phänomen zu tun, daß Rational-Choice-Theorien in jeder Disziplin mit dem Hinweis auf ihre vermeintlichen Erfolge auf anderen Gebieten

212

8. Erwiderungen auf mögliche Gegenargumente

untermauert werden, während eine umfassendere Sicht der Dinge ergeben würde, daß der Kaiser, wenn nicht völlig nackt, so doch nur spärlich bekleidet ist. Ob eine solch weitreichende Schlußfolgerung berechtigt ist, kann im Rahmen des vorliegenden Buches nicht erörtert werden. In diesem Schlußkapitel wollen wir statt dessen auf zehn mögliche Einwände eingehen, die gegen unsere Überlegungen vorgebracht werden könnten: - Wir sind naive Falsifikationisten, deren Vorstellungen von Theorieuberprüfung die Erkenntnistheorie längst aufgegeben hat. - Wir formulieren keine vergleichbare Alternative zur Rational-Choice-Theorie. - Wir sind gegen Theorie. - Wir unterschätzen, wie wichtig es für den Fortschritt der Wissenschaft ist, für eine Theorie einzutreten und sie zu verteidigen. - Unsere Erfolgskriterien sind so anspruchsvoll, daß keine politikwissenschaftliche Theorie ihnen genügt. - Wir vernachlässigen die Tatsache, daß alle Theorien die empirische Realität durch Abstraktion vereinfachen. - Wir karikieren die Rational-Choice-Theorie, indem wir sie so darstellen, als handele es sich dabei um eine einzige monokausale Theorie der Politik. - Wir lassen uns von der willkürlichen Fächeraufteilung in den Sozialwissenschaften zu sehr beeindrucken. - Wir können nicht erklären, wieso Vertreter von Rational-Choice-Modellen in der Politikwissenschaft so erfolgreich sind. - Wir lassen außer acht, daß der Rational-Choice-Ansatz noch in den Kinderschuhen steckt. Wie wir zeigen werden, sind nicht alle dieser Einwände miteinander kompatibel. Jeder verdient jedoch eine eigene Antwort.

Naiver Falsifikationismus Der erste mögliche Einwand könnte der Tatsache gelten, daß wir so großen Wert auf entscheidende empirische Überprüfungen von Rational-Choice-Hypothesen legen. In Anlehnung an die wissenschaftstheoretischen Überlegungen, die von Kuhn (1962) und Lakatos (1970) populär gemacht wurden, mag dies zu dem Vorwurf führen, wir seien „naive Falsifikationisten" und einer positivistischen Sicht der wissenschaftlichen Evolution verhaftet, die längst nicht mehr allgemein akzeptiert ist. Kritiker des naiven Falsifikationismus behaupten, so etwas wie entscheidende Tests, die eine Theorie falsifizieren könnten, gebe es gar nicht. Theorien und empirische Anomalien existierten oft lange nebeneinander, und Theorien könnten ohnehin durch „die Tatsachen" niemals endgültig falsifiziert werden. Sie würden erst

Naiver Falsifikationismus

213

dann verworfen, wenn eine andere, plausiblere Theorie vorgeschlagen wird. Im Zeitalter der Physik vor Einstein, so Lakatos' denkwürdiges Beispiel, hätte das „Fehlverhalten" eines Planeten, das Newtons Gesetz der Schwerkraft zu widerlegen schien, keinen Wissenschaftler dazu veranlaßt, dieses Gesetz aufzugeben. Vielmehr hätte der konventionelle Newtonianer die Existenz eines bislang unentdeckten Planeten vermutet, dessen Anziehungskraft dann als Ursache für die scheinbare Anomalie angenommen worden wäre. Und hätte sich dieser Planet nicht ausfindig machen lassen, dann wäre behauptet worden, daß er durch eine kosmische Staubwolke verdeckt wird oder daß die Meßinstrumente nichts taugen oder etwas ähnliches. Die Moral dieser Geschichte, die Lakatos mit zahlreichen Beispielen aus der Wissenschaftsgeschichte untermauert, ist, daß Wissenschaftler in aller Regel große Anstrengungen unternehmen, um etablierte Theorien angesichts empirischer Anomalien zu retten, solange keine andere Theorie zur Verfügung steht. Entscheidende falsifizierende Experimente werden nur selten durchgeführt, und wenn doch, dann werden sie häufig erst viel später als solche erkannt. Bevor wir direkt auf diesen Vorwurf eingehen, sei auf zweierlei hingewiesen. Erstens ist ein Großteil der Literatur, die wir hier behandelt haben, ausdrücklich der empirischen Überprüfung von Rational-Choice-Hypothesen verpflichtet. Es wäre nicht gerade redlich, zuerst Tests durchzuführen, dann aber die Ergebnisse, falls sie falsifizierend sind, unter Berufung auf Lakatos als irrelevant für die Beurteilung der Wahrheit der Theorie unter den Tisch fallen zu lassen. 170 Zweitens werden die allermeisten Rational-Choice-Untersuchungen von Wissenschaftlern betrieben, die davon Uberzeugt sind, daß in der Wissenschaft echter Fortschritt möglich ist; und als solche können sie sich fundamentaleren Versionen der Kritik am Falsifikationismus nicht ohne weiteres anschließen. Wie Lakatos (1970, 177-80) und viele andere argumentiert haben, ist zum Beispiel nach Kuhns Auffassung kumulativer wissenschaftlicher Fortschritt unmöglich, da es keine objektiven Kriterien gebe, um zu beurteilen, ob ein Paradigma einem anderen überlegen ist. Wer uns eines naiven Falsifikationismus beschuldigt, kann also selbst allenfalls einen Standpunkt ä la Lakatos einnehmen, der für einen „raffinierten methodologischen Falsifikationismus" plädiert. Und auf diese Sichtweise werden wir uns im folgenden beziehen. Wir haben gegen Lakatos' Vorstellung nichts einzuwenden; aber wir glauben auch nicht, daß sie unsere Kritik an der empirischen Überprüfung der RationalChoice-Theorie untergräbt. Zunächst einmal sei darauf hingewiesen, daß die Beispiele, die Lakatos für den Fortbestand von Theorien angesichts von Anomalien anführt, alle aus höchst erfolgreichen naturwissenschaftlichen Anwendungen stammen. 171 In der Physik haben Newtons Gesetze vor der Einsteinschen Revolution

170 Zugegebenermaßen sind nicht alle empirischen Anwendungen der Rational-Choice-Theorie als empirische Überprüfungen zu verstehen. Sowohl Ferejohn (1991) als auch Moe (1989) benutzen empirische Beispiele zur Illustration bei der Entwicklung von Hypothesen, bezeichnen diese Vorgehensweise aber nicht als Überprüfung. 171 Das trifft auf Kuhn (1962) ebenfalls zu, da er die Sozialwissenschaften aus seiner Darstellung der Struktur wissenschaftlicher Revolutionen ausblendet, weil in ihnen noch keine Paradigmen etabliert seien.

214

8. Erwiderungen auf mögliche Gegenargumente

sehr viel erklärt. Es ist nicht schwer zu verstehen, warum Wissenschaftler bei einer solchen Theorie versuchen, Anomalien durch Hilfshypothesen, ceteris paribusKlauseln und Meßfehler zu erklären: die Kosten der Aufgabe einer dermaßen erfolgreichen Theorie wegen ein paar Anomalien wären ungeheuer hoch. RationalChoice-Theoretiker neigen gelegentlich dazu, ihre eigene Arbeit ähnlich zu sehen. Beispielsweise heißt es bei Strom (1990, 11) zur Beurteilung räumlicher Modelle des Gesetzgebungsverhaltens: „Die vorliegende Theorie versucht, die allgemeine oder Hauptrichtung des Gesetzgebungsverhaltens zu beschreiben, und ist bereit, zugunsten des Fortschritts zunächst einmal solche Faktoren außer acht zu lassen, die eine Abweichung von der Grundtendenz verursachen. Was damit gemeint ist, mag ein Beispiel aus einem anderen Bereich verdeutlichen: ein Physiker soll vorhersagen, wo ein bestimmtes Blatt landen wird, das vom Baum fällt. Aufgrund der Theorie der Schwerkraft weiß er, daß das Blatt im allgemeinen nach unten fallen wird (die Grundtendenz), und zwar wahrscheinlich nicht weit von dem Baum entfernt, an dem es gewachsen ist. Da er aber nicht genau weiß, woher und wie stark der Wind weht, kann der Physiker nicht genau vorhersagen, wo ein gegebenes Blatt landen wird. In ähnlicher Weise haben sich Theoretiker, die sich mit der räumlichen Modellierung legislativer Entscheidungsfindung durch rationale Akteure befassen, dazu entschlossen, Windböen außer acht zu lassen und sich vornehmlich auf die Hauptrichtung des Gesetzgebungsverhaltens zu konzentrieren, die durch die Präferenzen der Gesetzgeber und die irrtumsfreien Strategien determiniert wird, die diese wählen, um die Durchsetzung ihrer Präferenzen zu maximieren."

Dabei wird jedoch stillschweigend vorausgesetzt, daß es den Vertretern von Rational-Choice-Modellen tatsächlich gelungen ist, „Grundtendenzen" der Politik zu ermitteln, die mit der Theorie der Schwerkraft in der Physik vergleichbar sind. In den letzten vier Kapiteln haben wir zu zeigen versucht, daß die Rational-ChoiceTheorie in der Politikwissenschaft keine vergleichbare Erfolgsbilanz vorlegen kann. Verweise auf eine Analogie zu erfolgreichen Theorien in der Physik sind folglich irreführend. Wie wir gezeigt haben, liegen selbst in den Bereichen, in denen die Rational-Choice-Theorie in dem Ruf steht, besonders erklärungsstark zu sein - politischer Wettbewerb im Wahlkampf, kollektives Handeln und Gesetzgebungspolitik - , kaum empirische Ergebnisse vor, auf die sich die Erfolgsmeldungen von Lalman, Oppenheimer und Swistak (1993), Kavka (1991) und anderen stützen könnten. Daher klingt es eher hohl, wenn Abell darauf besteht, daß Rational-Choice-Modellen in Anbetracht ihrer zahlreichen, nicht näher spezifizierten ,.Leistungen", die „kaum der Erwähnung bedürfen" (1992, 203 f.), trotz ihrer Mißerfolge ein „paradigmatisches Privileg" eingeräumt werden sollte. Aber ganz abgesehen davon, ob Rational-Choice-Modelle nun erwiesenermaßen erfolgreich sind oder nicht, entbindet auch der raffinierte methodologische Falsifikationismus nicht von der Notwendigkeit, vorgeschlagene Theorien empirisch zu überprüfen. Er liefert vielmehr ein Kriterium zur Beurteilung von Hypothesen, das sich von Poppers naivem Falsifikationismus (1959, 1963) unterscheidet. Während für den naiven Falsifikationisten jede Theorie als wissenschaftlich angesehen werden kann, die sich als experimentell falsifizierbar interpretieren läßt, ist für den raffinierten Falsifikationisten eine Theorie nur dann annehmbar, wenn sie „einen bewährten empirischen Gehaltsüberschuß über ihren Vorgänger (oder Rivalen) besitzt, d. h., wenn sie zur Entdeckung von neuen Tatsachen führt" (Lakatos 1982, 31). Für

Naiver Falsifikationismus

215

den raffinierten Falsifikationisten ,Jkann kein Experiment, kein Experimentalbericht, kein Beobachtungssatz und keine wohlbestätigte falsifizierende Hypothese niederer Stufe für sich allein zu einer Falsifikation fuhren. Es gibt keine Falsifikation vor dem Auftauchen einer besseren Theorie" (Lakatos 1982, 34). Rational-Choice-Befürworter, die sich auf diesen Standpunkt berufen, um sich mit den Mängeln ihrer Theorie zu arrangieren, neigen fälschlicherweise dazu, ihn nur auf ihre Kritiker anzuwenden. Er gilt aber entweder immer oder gar nicht. Falls er gilt, dann muß nach seinen Bedingungen gezeigt werden, daß Rational-ChoiceModelle ihren Vorgängern oder Rivalen überlegen sind. Damit liegt die Beweislast bei den Vertreten von Rational-Choice-Theorien: sie müssen belegen, daß ihre Theorien gegenüber ihren Vorläufern oder Konkurrenten tatsächlich einen „bewährten empirischen Gehaltsüberschuß" besitzen. Wie die vorangegangenen Kapitel gezeigt haben, wird diese Bedingung nur selten erfüllt. Lakatos weist darauf hin, daß es keinen wissenschaftlichen Grund gibt, eine vorgeschlagene neue Theorie bereits bestehenden Theorien vorzuziehen, wenn sie nicht sowohl das erklären kann, was bereits erklärt wurde, als auch neue Fakten. Ohne diese Bedingung könnten wir zwischen degenerierten Forschungsprogrammen, in denen versucht wird, eine schlechte Theorie mittels endloser ad Aoc-Modifikationen zu retten, und progressiven Forschungsprogrammen, durch die die empirische Erkenntnis zunimmt, nicht unterscheiden.172 „Ein raffinierter Falsifikationist informiert sich über eine Theorie, indem er vor allem lernt, welche neuen Tatsachen sie antizipiert hat: [...] die einzig relevante Evidenz [ist] die von der Theorie antizipierte, und Erfahrungscharakter (wissenschaftlicher Charakter) und theoretischer Fortschritt sind untrennbar miteinander verbunden" (Lakatos 1982, 37). Wenn Rational-Choice-Modelle mit Hilfe von Lakatos verteidigt werden sollen, können sich ihre Anhänger nicht einfach darauf beschränken, bekannte Tatsachen in der von ihnen bevorzugten theoretischen Terminologie zu wiederholen. Und genauso wenig können sie sich legitimerweise darauf beschränken, die Theorie zu retten, indem sie Widersprüche und Anomalien unter den Teppich kehren; vielmehr müssen sie sich der Herausforderung stellen und für konkrete Fälle zeigen, daß Rational-Choice-Theorien mehr erklären als bestehende oder konkurrierende Theorien. In der Regel werden Rational-Choice-Anhänger jedoch keiner dieser beiden Aufgaben gerecht. Statt dessen verteidigen sie ihre bevorzugten hinreichenden Erklärungen bekannter Tatsachen, ohne andere plausible Erklärungen oder innovative Vorhersagen zu berücksichtigen.173 172 „Wenn wir zur Lösung eines Widerspruchs zwischen einer früheren Theorie und einem Gegenbeispiel eine neue Theorie so vorschlagen, daß sie eine gehaltvermindernde (linguistische) Umdeutung, nicht aber eine gehaltvermehrende (wissenschaftliche) Erklärung bietet, dann wird der Widerspruch bloß semantisch und nicht wissenschaftlich gelöst. Eine gegebene Tatsache ist wissenschaftlich erklärt nur dann, wenn auch eine neue Tatsache mit ihr zusammen erklärt wird." (Lakatos 1982, 33 f.). 173 Folgt man Lakatos' Kriterien, dann kann es passieren, daß Arbeiten, die ansonsten als empirisch solide gelten könnten, fragwürdig werden. Das gilt ζ. B. für Lupias Untersuchung der Frage, wie kalifornische Wähler mit begrenzten Informationen über die verschiedenen Klauseln in einer Vielzahl von Gesetzentwürfen zur Kraftfahrzeugversicherung Hinweise aus dem politischen Umfeld, wie

216

8. Erwiderungen auf mögliche Gegenargumente

Keine Alternative Eine zweite mögliche Reaktion auf unsere Kritik am Rational-Choice-Ansatz ist die Frage nach der Alternative. Wie Elster (1986b, 27) scharfsinnig bemerkt hat, „kann man nicht etwas durch nichts verdrängen". „Wir haben wenigstens eine Theorie", so lautet dieses Argument, „was dagegen habt ihr anzubieten?". Man muß sich nicht unbedingt auf Lakatos berufen, um diesen Standpunkt zu vertreten; aber die beiden Argumente verstärken einander. Lakatos' Meinung, daß eine Theorie nicht durch eine entscheidende Anomalie und noch nicht einmal durch eine systematische Menge von Anomalien, sondern nur durch eine andere Theorie verdrängt werden kann, stützt die Ansicht, daß es an den Rational-Choice-Skeptikem ist, mit etwas Besserem aufzuwarten. Zunächst aber ein Aspekt vorab: Wie wir in Kapitel 3 festgestellt haben, werden Rational-Choice-Theorien manchmal so allgemein formuliert, daß sie jede mögliche Alternativhypothese vereinnahmen. In dieser Hinsicht erinnert der Rational-ChoiceAnsatz an Jeremy Bentham, der meinte, seine Version des Utilitarismus solle als axiomatisch anerkannt werden, da jede andere denkbare Quelle menschlicher Motivation in seinen Begriffen beschrieben werden könne (1960,124 f.). Wenn eine empirische Theorie, gleich welchen Inhalts, derart vage formuliert ist, können ihre Befürworter nicht den Skeptiker dafür verantwortlich machen, daß er keine Alternative vorlegt. Bei unserer Untersuchung verschiedener Rational-Choice-Studien haben wir jedoch eine ganze Reihe von Alternativhypothesen - normative, kulturelle, psychologische und institutionelle - für verschiedene politische Phänomene genannt. Der Vorwurf, daß wir keine Gegenvorschläge anbieten, muß daher so interpretiert werden, daß wir keine Theorie von vergleichbarer Allgemeinheit oder Reichweite haben. Das wirft die Frage auf, ob man Uberhaupt vernünftigerweise davon ausgehen kann, daß es möglich ist, eine einzige allgemeine Theorie zu entwickeln, die die vielen ganz unterschiedlichen Phänomene erklärt, die Rational-Choice-Theoretiker dem Bereich des Politischen zuordnen. Gerade wenn so unterschiedliche Erscheinungen wie spontanes kollektives Handeln, Koalitionsbildung in Gesetzgebungsorganen, die Aktivitäten von Interessengruppen und der politische Wahlkampf unter „Politik" gefaßt werden, muß man wohl ein großer Optimist sein, um anzunehmen, daß eine einheitliche deduktive Theorie, wie sie McKelvey und Riezman (1992, 951) vorschwebt, sie alle erklären kann. Die Suche nach einer allgemeinen Theorie der Politik gleicht vermutlich der nach einer allgemeinen Theorie der Löcher: wahrscheinlich ist die Hoffnung auf eine solche Theorie, die nur darauf wartet, entdeckt zu werden, schlichtweg Illusion. etwa die Befürwortung von Interessengruppen, verarbeiteten (1994). Lupia behauptet, daß sein Rational-Choice-Modell der Informationsnutzung durch diese Untersuchung gestutzt wird, macht sich aber nicht die Mtthe, zwischen den Vorhersagen seines Modells und denen der Bezugsgruppentheorie zu unterscheiden, die seit Jahrzehnten filr sozialpsychologische Interpretationen des Wahlverhaltens herangezogen wird.

Wir sind gegen Theorie

217

Dieses Argument kann in zweierlei Hinsicht mißverstanden werden. Erstens sagen wir nicht, daß politisches Verhalten keinen Gesetzmäßigkeiten unterliegt; dies zu behaupten hieße, das wissenschaftliche Studium der Politik für unmöglich zu erklären. 174 Die Annahme, daß politisches Verhalten gewissen Gesetzen folgt, impliziert jedoch keineswegs, daß überall die gleichen Gesetzmäßigkeiten am Werk sein müssen. Manche Arten von politischem Verhalten mögen grundlegend instrumenteller Natur sein, andere hingegen sind vielleicht grundlegend expressiv, gewohnheitsmäßig oder altruistisch. Und wenn dem so ist, dann kann man wohl kaum mit gutem Grund erwarten, daß unterschiedliche politische Phänomene den gleichen Kausalzusammenhängen unterliegen. Roemer (1979b) räumt genau dies ein, wenn er Rational-Choice-Theoretiker auffordert, die Suche nach instrumentellen Erklärungen für kollektive Handlungen wie Demonstrationen oder Krawalle aufzugeben, die wohl häufig einfach Ausdruck von aufgestautem Zorn ohne jeden instrumenteilen Zweck sind. Dieses Eingeständnis führt nicht notwendigerweise zu der Meinung, daß solche Phänomene damit der wissenschaftlichen Untersuchung entzogen sind, sondern lediglich zu der Ansicht, daß sie Kausalmechanismen unterliegen, die sich von denen, die instrumentelles Verhalten steuern, qualitativ unterscheiden. Zweitens bestreiten wir auch nicht, daß theoretische Allgemeinheit ceteris paribus wünschenswert ist. Was wir hinterfragen, ist vielmehr, ob der hohe Grad an Allgemeinheit, den wir konstatiert haben, den Kausalzusammenhängen der beobachteten politischen Phänomene gerecht wird oder ob er auf Kosten der Realitätsnähe geht. Bei der Suche nach einer einzigen Menge von Gesetzen, die ein breites Spektrum politischer Phänomene erklärt, sollte man sich nicht gegenüber der Möglichkeit verschließen, daß manche, aber eben nicht alle Dimensionen der Politik durch die betreffenden gesetzmäßigen Verallgemeinerungen erklärt werden können. Wir haben in diesem Buch immer wieder darauf hingewiesen, daß empirische Untersuchungen so angelegt werden sollten, daß sie uns auf diese Möglichkeit aufmerksam machen. Sollte sich herausstellen, daß sehr allgemeine Gesetze mit den Daten unvereinbar sind, dann liegt das vielleicht gar nicht so sehr an der Dürftigkeit der Theorie als vielmehr an der widerspenstigen Komplexität der politischen Welt.

Wir sind gegen Theorie Aus den Empfehlungen von Achen und Snidal (1989), Bueno de Mesquita (1985), Riker (1990) und anderen geht klar hervor, daß viele Rational-Choice-Theoretiker der Ansicht sind, prognostizierende Hypothesen sollten aus allgemeinen Gesetzen Es ist natürlich möglich, daß sich eines Tages herausstellt, daß politisches Verhalten insgesamt oder zumindest teilweise keinen Gesetzmäßigkeiten unterliegt. In diesem Fall sind alle Theorien zum Scheitern verurteilt. Das hat die Politik mit allen anderen Phänomenen gemein, die von Wissenschaftlern untersucht werden. Wir gehen hier zwar von der Annahme aus, daß gleichförmige Kausalzusammenhänge vorliegen, aber wir können uns damit natürlich irren.

218

8. Erwiderungen auf mögliche Gegenargumente

abgeleitet werden, die durch Theoreme validiert sind. Rational-Choice-Theoretiker, die diesen Standpunkt einnehmen, werden auf unsere Kritik vielleicht mit dem Vorwurf reagieren, wir seien gegen Theorie. Riker etwa besteht darauf, daß gültige theoretische Erklärungen aus Gleichgewichtsmodellen abgeleitet werden müssen. Bloße „Verhaltensgesetze", so sein Argument, „stellen einfach nur fest, daß Organismen, die einer bestimmten Behandlung ausgesetzt werden, sich auf eine bestimmte Art und Weise verhalten". Daher handele es sich bei der Verhaltenstheorie der Parteiidentifikation oder der allgemeinen Aussage, daß Vielparteiensysteme mit der Instabilität der Regierung einhergehen, nicht um echte Erklärungen, weil sie „nicht in eine Form gebracht werden können, die Interaktionen zwischen Akteuren berücksichtigt, die zu einem Gleichgewicht führen". Solche behavioristischen oder soziologischen Gesetze „mögen gut belegt sein, sogar hinreichend gut, um angemessene Vorhersagen zu liefern und sozialtechnologische Anwendungen zu rechtfertigen; solange wir aber den riesigen sozialen Mechanismus nicht interpretieren können, der für unseren derzeitigen Wissensstand viel zu komplex ist, können sie nicht in eine Gleichgewichtstheorie eingebettet werden. Und deshalb taugen behavioristische und soziologische Gesetze zur Prognose, nicht aber zur Erklärung" (Riker 1990,176). Nach dieser Auffassung beruhen behavioristische und soziologische Gesetze auf Mutmaßungen, Rational-Choice-Erklärungen in der Politikwissenschaft dagegen nicht. Das ist für Riker deshalb so, weil alle Erklärungen in den Sozialwissenschaften letztlich auf Annahmen über Präferenzen und Intentionen beruhen, so daß Theorien, die diese zum Ausgangspunkt nehmen, mit dem beginnen, was der Fall sein muß. Daher hält Riker den Skinnerschen Behaviorismus für falsch, der die Identifikation eines Individuums mit Partei Α mit der Hypothese erklärt, daß sich die Tatsache, daß dieses Individuum Partei Α den verfügbaren Alternativen vorzieht, darauf zurückführen läßt, daß seine Billigung von Partei Α „verstärkt" wurde. „Aber wie läßt sich Verstärkung erklären?", fragt Riker. Dafür braucht man seiner Ansicht nach „irgendwelche Axiome über Präferenzen und folglich Uber Intentionen". Da nur die Rational-Choice-Theorie Gleichgewichtsmodelle auf der Grundlage individueller Präferenzen entwickele, könne nur sie die notwendigen und hinreichenden Bedingungen zur Erklärung politischer Phänomene liefern. Das Argument, das Riker gegen den Skinnerianer ins Feld führt, kann aber ebenso gut gegen den Rational-Choice-Theoretiker vorgebracht werden, der sich auf das Primat von Intentionen und Präferenzen beruft. Was determiniert sie? Vielleicht werden sie durch chemische Reaktionen im Gehim produziert, vielleicht aber auch durch Kultur oder institutionelle Ordnung. Die Überzeugung, daß Intentionen und Entscheidungen die Bausteine sind, aus denen Erklärungen menschlichen Verhaltens konstruiert werden sollten, beruht auf nichts anderem als der Vermutung, daß sie tatsächlich die grundlegenden Determinanten sind. Eine subtilere Version der Behauptung, daß nur Rational-Choice-Theoretiker eine Theorie haben, die diese Bezeichnung verdient, vertreten Becker (1986b) und Elster (1986). Sie berufen sich dabei auf den systematischen Charakter von RationalChoice-Erklärungen. Der Unterschied zwischen der Rational-Choice-Theorie und

Wir sind gegen Theorie

219

anderen Theorien tritt, so Becker, vor allem dann zutage, wenn Rational-ChoiceErklärungen zu scheitern scheinen und andere Erklärungsversuche ad hoc und „unnütz" eingeführt werden: „Die ökonomische Literatur ist voll von Beispielen fllr Präferenzänderungen, die kurzerhand ad hoc eingefühlt werden, um rätselhaftes Verhalten zu erklären. DaB sich Präferenzen - für verschiedene Gitter und Dienstleistungen, politische Kandidaten oder die Größe der eigenen Familien - ändern, wird auf den Bildungsstand zurückgeführt anstatt auf das Realeinkommen oder die relativen Kosten unterschiedlicher Entscheidungen. Geschäftsleute sprechen von der sozialen Verantwortung der Unternehmen, weil ihre Einstellungen angeblich durch die öffentliche Diskussion Uber dieses Thema beeinflußt sind, und nicht etwa, weil solches Gerede notwendig ist, um angesichts der öffentlichen Zustimmung zu staatlichen Interventionen ihre Profite zu maximieren.... Mit einer Erfindungsgabe, die bewundernswert wäre, wenn sie einem besseren Zweck diente, wird von so gut wie jedem vorstellbaren Verhalten behauptet, es sei geprägt von Ignoranz und Irrationalität, von Werten und ihrem häufig unerklärlichen Wandel, von Sitten und Gebräuchen, von der irgendwie erreichten Orientierung an sozialen Normen, oder vom Ich und vom Es." (Becker 1986, 117)

Ähnliche Vorstellungen findet man bei Elster. Zwar räumt er ein, daß „es zweifellos Fälle gibt, in denen der Rückgriff auf Normen Erklärungen ermöglicht, wo die Rationalwahl scheitert". Solche Rückgriffe seien aber in der Regel ad hoc und ex post facto, und es gebe keine „gut bewährte Theorie, die die Bedingungen und Grenzen ausweist, unter bzw. in denen Normen die Rationalität übertrumpfen". Ebenso weist Elster Herbert Simons Behauptung zurück, daß die Annahme von satisficing Verhalten oft zu besseren Vorhersagen führt als die Annahme von Maximierungsverhalten, da diese Vermutung ebenfalls im wesentlichen ad hoc sei. „Die Theorie gibt keine Antwort auf die entscheidende Frage, warum Menschen sich mit einem ganz bestimmten Anspruchs- oder Zufriedenheitsniveau begnügen ... Diese Schwellenwerte müssen einfach als gegeben angenommen werden, was heißt, daß die Theorie kaum mehr bietet als eine .dicke Beschreibung'" (Elster 1986b, 24-26). Die Argumentation von Becker und Elster hat nur einen Haken: Man kann nicht gerade behaupten, daß Rational-Choice-Erklärungen gegenüber ad hoc- und post ftoc-Überlegungen immun sind. Die Häufigkeit, mit der Rational-Choice-Theoretiker Anomalien durch Herumbasteln an der Bedeutung von Rationalität weginterpretiert, zur Umgehung problematischer Daten willkürlich den Anwendungsbereich der Theorie eingeschränkt, Tests, die nur bestätigende Fakten berücksichtigen, konstruiert oder konkurrierende Erklärungen außer Acht gelassen haben, straft die Behauptung Lügen, daß Rational-Choice-Erklärungen empirischer Phänomene frei von munteren Erfindungen sind. Wir haben in diesem Buch immer wieder gezeigt, daß Rational-Choice-Theoretiker einen großen Teil ihrer Kreativität dem Nachweis widmen, daß sich so gut wie jedes vorstellbare Verhalten als rational und so gut wie jedes vorstellbare politische Phänomen als Ergebnis individueller Maximierungsakte erweisen läßt. Daß die Rational-Choice-Hypothesen, die in der Regel zur Anwendung kommen, ad hoc sind, ist denen, die sich nicht mit der Anwendung, sondern mit der reinen Theorie beschäftigen, vielleicht gar nicht bewußt. Wenn dem so ist, lehrt uns das etwas über die negativen Auswirkungen der geistigen Arbeitsteilung zwischen den Entwicklern und den Anwendern von Theorien, nicht aber über die vermeindichen Verdienste

220

8. Erwiderungen auf mögliche Gegenargumente

der Rational-Choice-Theorie. Die Theoriebildung ist zwar eine notwendige Voraussetzung für die Durchführung empirischer Analysen, aber sie ist, wie Arrow (1951, 21) schon vor langer Zeit warnte, „nicht Zweck, sondern Mittel". Gelegentlich versuchen Rational-Choice-Theoretiker zu zeigen, daß ihr Ansatz aufgrund seiner deduktiv-analytischen Natur der einzig wissenschaftliche ist. Empirische Regelmäßigkeit sei niemals „ein Beweis für Gültigkeit", so Riker, weil sie „nicht den Grund für die Regelmäßigkeit offenbart" (1990, 176). In diesem Sinne warnt auch Bueno de Mesquita (1985, 129) davor, „uns von scheinbaren empirischen Erfolgen zu dem Glauben verleiten zu lassen, daß wissenschaftliche Erkenntnis ohne eine abstrakte, strenge logische Beweisführung erzielt werden kann". Auch Achen und Snidal (1989, 168) sind der Überzeugung, daß empirische Verallgemeinerungen, so verdienstvoll sie auch sein mögen, „kein Ersatz für theoretische Überlegungen sind; empirische Gesetze dürfen nicht mit theoretischen Propositionen verwechselt werden". Diesen Theoretikern ist zuzustimmen, sofern sie sagen wollen, daß man die Gültigkeit einer Erklärung nicht beweisen kann, indem man zeigt, daß eine empirische Regelmäßigkeit vorliegt. Die Beobachtung einer empirischen Regelmäßigkeit, selbst wenn sich daraus zutreffende Vorhersagen ableiten lassen, ergibt noch keine Erklärung. Es kann sein, daß man korrekte Prognosen erhält, ohne erklären zu können, warum die beobachtete Regelmäßigkeit auftritt (das ist ζ. B. der Fall, wenn ein an Schizophrenie leidender Patient durch die Einnahme psychotroper Medikamente von seinen Wahnvorstellungen befreit wird; Pharmakologen wissen, daß das Medikament wirkt, und können seine therapeutischen Folgen vorhersagen; sie wissen aber nicht, warum es wirkt). Im Besitz einer Erklärung ist man erst dann, wenn man genau und korrekt angeben kann, welcher Kausalmechanismus bei der Erzeugung der relevanten Regelmäßigkeit am Werk ist. Rational-Choice-Theoretiker bestreiten das nicht. Allzu oft vergessen sie jedoch, daß es sich bei all diesen vermeintlichen Beschreibungen um Vermutungen handelt, die niemals verifiziert werden können. Theoreme lassen sich beweisen, Theorien nicht. Von einer Theorie können wir bestenfalls wissen, daß sie nicht im Sinne Poppers falsifiziert oder im Sinne Lakatos' abgelöst wurde. Damit eine Erklärung als vorläufig richtig akzeptiert wird, ist es weder notwendig noch hinreichend, daß sie aus einem Theorem abgeleitet wurde. Die Behauptung, wir seien gegen Theorie, weil die empirischen Hypothesen, die wir als Alternativen vorgeschlagen haben, nicht aus Gesetzen folgen, die auf Theoremen beruhen, erweist sich also bei näherer Betrachtung mehr als rhetorisch, denn als wirklich zugkräftig. Selbst wenn Rational-Choice-Theoretiker ihrer eigenen methodologischen Rhetorik gerecht würden, wären ihre Theorien dennoch nicht mehr als empirische Vermutungen, die davon abhängen, inwieweit die daraus abgeleiteten einzelnen Hypothesen den vorliegenden Daten entsprechen. Wenn wir uns ansehen, wie empirische Rational-Choice-Theorie tatsächlich betrieben wird, stellen wir fest, daß bei der Hypothesenbildung ad hoc-Vermutungen in der Regel eine nicht unerhebliche Rolle spielen. Wie wir in Kapitel 2 festgestellt haben, ist das unwichtig, wenn man einen instrumentalistischen Standpunkt im Sinne Friedmans vertritt; aber das gilt dann auch für den Vorwurf, wir seien gegen Theorie. Anderer-

Der wissenschaftliche Wert der Parteinahme für eine Theorie

221

seits haben wir gezeigt, daß aus der Sicht des nomologischen Modells die verschiedenen Kunstgriffe, die Rational-Choice-Theoretiker anwenden, um brauchbare empirische Hypothesen zu entwickeln, nicht weniger suspekt sind als all das, was sie legitimerweise anderen vorwerfen können. Zwischen den Extremen der nomologischen Theorie und des Friedmanschen Instrumentalismus liegt das vom gesunden Menschenverstand geleitete Unternehmen der Entwicklung theoretischer Verallgemeinerungen mittlerer Reichweite. Dabei geht es um theoretische Überlegungen über die Bedingungen, unter denen bestimmte Arten von Erklärungen anderen vermutlich überlegen sind, sowie über die Beziehungen zwischen verschiedenen Arten von Variablen in multikausalen Erklärungen. Rational-Choice-Theoretiker, die der Meinung anhängen, daß Wissenschaft in der Deduktion von Hypothesen aus gut begründeten allgemeinen Gesetzen besteht, haben auf diese Art der Theoriebildung häufig mit Verachtung herabgesehen. Solange es aber keine empirisch bewährten allgemeinen Gesetze für politische Phänomene gibt, ist die Entwicklung von Verallgemeinerungen mittlerer Reichweite vielleicht die einzige Form der Theoriebildung, die sich als haltbar erweist.

Der wissenschaftliche Wert der Parteinahme für eine Theorie Eine vierte mögliche Reaktion ist der Vorwurf, daß wir die Bedeutung engagierter Parteinahme für den wissenschaftlichen Fortschritt unterschätzen. Autoren wie Mitroff (1972) haben die Ansicht geäußert, daß erfolgreiche Wissenschaftler meist nicht Wahrheitssuche vom Standpunkt neutraler Unvoreingenommenheit betreiben. Vielmehr würden sie zu Anhängern bestimmter Überzeugungen, die sie dann verteidigten. Demnach bedienen sich Wissenschaftler aller Fachrichtungen regelmäßig vieler der Praktiken, die wir als grundlegende Defekte angeprangert haben. Sie suchen nach bestätigenden Daten, die sie dann so vorstellen, daß ihre Lieblingshypothesen im bestmöglichen Licht erscheinen, und wählen mit Absicht - wenn überhaupt - schwache Nullhypothesen (Armstong 1979, 423 f.). Aus dieser Perspektive ist wissenschaftlicher Fortschritt ein Nebenprodukt des Konkurrenzkampfes auf dem freien Markt der Ideen und nicht etwa das Ergebnis unvoreingenommener Hypothesenüberprilfungen durch einzelne Wissenschaftler. Ich stelle meine Theorie so positiv wie möglich dar und du die deine, und die Forschergemeinschaft ist das Preisgericht, das entscheidet, wer gewinnt. Zwar scheint die Darstellung der wissenschaftlichen Evolution als eine Sache der engagierten Parteinahme ein anderes Licht auf die vorangegangenen Ausführungen zu werfen, aber es verbirgt sich weniger dahinter, als es zunächst den Anschein hat. Zunächst einmal ist zu unterscheiden zwischen den Vorteilen, die die Konkurrenz zwischen Wissenschaftlern zweifellos mit sich bringt, und der Behauptung, daß dieser Konkurrenzkampf am besten dadurch ausgetragen wird, daß jeder seine Theorie so laut wie möglich anpreist. Wenn Wissenschaftler Daten manipulieren, um ihre

222

8. Erwiderungen auf mögliche Gegenargumente

Argumente besser aussehen zu lassen, ist ihr Anspruch auf Objektivität dahin, und ihr engagiertes Eintreten verliert seine Wirkung. Umgekehrt wächst ihre wissenschaftliche Glaubwürdigkeit, wenn sie sich mit anderen Erklärungsmöglichkeiten und den für ihre Argumentation problematischen Fällen offen auseinandersetzen. Man hat nur dann Erfolg gegenüber der Konkurrenz, wenn man seine Sache überzeugender vertritt als die Gegenseite; das setzt aber voraus, daß man die eigenen Hypothesen einer strengen Überprüfung unterzieht und den Nachweis erbringt, daß sie die Bewährungsprobe überstehen und glaubwürdigen Alternativen überlegen sind. Der Konkurrenzkampf kann also von Vorteil sein, und die Schwäche, die Wissenschaftler für die von ihnen vertretenen Hypothesen entwickeln, mag sie zu größerer Kreativität beflügeln, aber das läßt keineswegs den Schluß zu, daß eine systematische Überprüfung der vorgeschlagenen Hypothesen überflüssig ist.

Übertrieben hohe Maßstäbe Fünftens könnte man uns vorwerfen, daß wir unsere Meßlatte viel zu hoch hängen, und zwar nicht im Sinne des oben erörterten naiven Falsifikationismus, sondern in pragmatischer Hinsicht, insofern als keine der gängigen politikwissenschaftlichen Theorien unseren Gütekriterien gerecht wird. Was ist also gewonnen, wenn wir zeigen, daß Rational-Choice-Theorien an Kriterien scheitern, nach denen auch jede andere Theorie der Politik versagt? Einem Teil dieses Arguments stimmen wir ohne weiteres zu. Es ist wahr, daß Theorien, die in Umfang und Reichweite mit der Rational-Choice-Theorie vergleichbar sind, sich in den Sozialwissenschaften nur selten und in der Politikwissenschaft nie bewährt haben. Unterzöge man Theorien wie den Marxismus oder den Strukturfunktionalismus, die Eliten- oder die Systemtheorie einer ähnlich strengen Überprüfung, wie wir es in diesem Buch mit Rational-Choice-Modellen getan haben, dann würde sich zweifellos herausstellen, daß sie ebenso kritikanfällig sind wie die Rational-Choice-Theorie. Das allein heißt aber noch nicht, daß unsere Maßstäbe zu anspruchsvoll sind. Ebensogut könnte es bedeuten, daß diese Theorien einen unrealistisch großen Geltungsbereich beanspruchen. Wenn Theorien, die darauf ausgelegt sind, sämtliche politischen Verhaltensweisen und Institutionen zu erklären, eine nach der anderen scheitern, dann sind wohl eher Zweifel daran angebracht, ob es überhaupt sinnvoll ist, derartige Theorien vorzuschlagen, als an der Definition von Erfolg und Mißerfolg. Nach unseren obigen Ausführungen über die Unterschiedlichkeit politischer Phänomene dürfte es kaum eine Überraschung sein, daß genau dies unser Standpunkt ist. Betrachtet man die Dinge in einem bescheideneren Maßstab, so zeigt sich, daß im wissenschaftlichen Studium der Politik durchaus Fortschritte zu verzeichnen sind. Das gilt sogar für Untersuchungen, die in der Rational-Choice-Tradition stehen. Von Fiorina (1994) etwa stammt die gut überprüfte Vorhersage, daß die Anzahl von Ab-

Übertrieben hohe Maßstäbe

223

geordneten der Demokratischen Partei mit der Erhöhung der Bezüge und der Verlängerung der Legislaturperioden im Zuge der,.Professionalisierung" der Gesetzgebungsorgane in den US-Bundesstaaten zunimmt. Vor der Professionalisierung, so sein Argument, rekrutierten sich die Demokraten aus Berufsgruppen, in denen man sich eine schlecht bezahlte Teilzeittätigkeit als Abgeordneter kaum leisten konnte. Der Hypothese, daß veränderte berufliche Anreize zu einer Verlagerung des Parteiengleichgewichts führten, wurden konkurrierende Hypothesen gegenübergestellt wie die Vermutung, daß sich Linke um so mehr für eine Tätigkeit in der Regierung interessieren, je mehr diese ausgibt; die Daten sprechen für Fiorinas Interpretation. Fiorinas Hypothese ist zwar nicht eben kontraintuitiv: um die Vorherrschaft der wohlhabenden Schichten im Unterhaus zu brechen, wurde schon im 19. Jahrhundert für eine Entlohnung der Abgeordneten argumentiert. Doch kann er nicht nur zeigen, daß die Logik von Beschäftigungsanreizen in den Parlamenten der Einzelstaaten tatsächlich eine Rolle spielt, sondern auch, daß sie zur Erklärung eines anderen Phänomens beiträgt, das die Wissenschaft beschäftigt hat, nämlich das der geteilten Regierung. Ein weiteres Beispiel für solide empirische Arbeit ist Aldrichs Untersuchung der Dynamik von Kandidatenstrategien in Präsidentschaftsvorwahlen (1980). Seine Analyse der strategischen Optionen, die sich den Konkurrenten Gerald Ford und Ronald Reagan in den Vorwahlen von 1976 boten, führt zu einigen aufschlußreichen Vorhersagen, wie Kandidaten ihren Wahlkampf führen. Aldrich argumentiert beispielsweise, daß Kandidaten dazu neigen, sich vor allem in solchen Staaten dem Wettbewerb zu stellen, in denen sie glauben, von vornherein auf große Zustimmung zu stoßen; das Risiko, die Aufmerksamkeit der Medien und die Erwartungen der Öffentlichkeit auf eine Kandidatur zu lenken, die am Ende scheitert, wird als zu hoch eingeschätzt, obwohl diese Strategie bedeutet, auf ein paar Delegierte zu verzichten, die man andernfalls vielleicht gewinnen könnte. Zusammen mit anderen Beobachtungen über die strategischen Implikationen der Regeln, nach denen in den verschiedenen Staaten Delegierte gewählt werden, überprüft Aldrich diese Analyse dann anhand einer detaillierten Schilderung, wie sich die Kandidaten im Wahlkampf tatsächlich verhielten. Der Erkenntnisgewinn aus dieser Untersuchung besteht darin, daß sie eine informative Erklärung dafür bietet, warum Vorwahlkämpfe so ablaufen, wie sie es tun, wenn zwei ebenbürtige Kandidaten gegeneinander antreten; und dies ist eine Analyse, die sich aus Überlegungen Uber die strategischen Kalküle rationaler Akteure ergibt. Auch Aldrichs Theorie gibt nicht vor, kontraintuitiv zu sein, aber in Verbindung mit seiner dichten empirischen Arbeit trägt sie zu unserem Verständnis von Wahlkampfstrategien bei und legt den Grundstein für weitere Untersuchungen über die Folgen von Veränderungen des Wahlgesetzes. Solche Ergebnisse bringen die Produktion von Wissen Uber Politik voran, auch wenn sie die ehrgeizigeren Ansprüche, mit denen gelegentlich für die RationalChoice-Theorie geworben wird, nicht erfüllen. Daß es solche lobenswerten empirischen Untersuchungen gibt, ist ein Beleg dafür, daß wir keine neuen und unerfüllbar hohen Ansprüche an die Politikwissenschaft stellen. Übrigens beruht keine dieser empirischen Untersuchungen auf Theoremen, die betreffenden Hypothesen werden

224

8. Erwiderungen auf mögliche Gegenargumente

nicht offenkundig aus allgemeinen Gesetzen abgeleitet, und es wird auch keine Behauptung darüber aufgestellt, ob sie sich auf andere politische oder strategische Situationen verallgemeinern lassen. Sie ähneln also, kurz gesagt, konventionellen Formen sozialwissenschaftlicher Forschung.

Alle Theorien vereinfachen durch Abstraktion Sechstens könnte jemand gegen unsere Kritik das gängige Rational-Choice-Argument vorbringen, daß alle Erklärungen auf vereinfachenden Abstraktionen beruhen, die die Realität verzerren. Wenn also Kritiker von Rational-Choice-Theoretikern, wie etwa George und Smoke (1974, 503), beanstanden, daß die Realität „Komplexitäten" aufweist, die von Rational-Choice-Modelle „in vielerlei Hinsicht nicht berücksichtigt werden", so sei das nicht gerade eine Enthüllung. Diesbezüglich stimmen wir den Anhängern des Rational-Ansatzes teilweise zu. Unsere Kritik richtete sich nirgendwo gegen die Verwendung vereinfachender Annahmen als solche oder gegen die abstrakte Natur der Rational-Choice-Theorie.175 Rational-Choice-Theoretiker gehen allerdings zu weit, wenn sie „postulieren, daß der Allgemeinheit und Sparsamkeit von Theorien Vorrang gegenüber ihrer Genauigkeit eingeräumt werden soll" und daß „der Bereich der Phänomene, die durch eine Theorie erklärt werden können, um so größer ist, je allgemeiner sie ist" (Przeworski und Teune 1970,17,21; siehe auch Olson 1968,58). Wenn eine abstrakte Theorie Erklärungskraft hat, dann nicht bloß deshalb, weil sie abstrakt ist, sondern weil durch die Abstraktion das Wesen des betreffenden Kausalzusammenhangs erfaßt wird. Wir haben Zweifel daran angemeldet, daß ein theoretischer Ansatz, der von höchst unterschiedlichen Bereichen der Politik in gleicher Weise abstrahiert, erfolgreich sein kann, und wir haben argumentiert, daß selbst in den Bereichen, in denen Rational-Choice-Theorien angeblich am erfolgreichsten sind, ihre Überlegenheit bislang nicht überzeugend belegt ist. Keines dieser Argumente läuft jedoch auf eine Ablehnung der heuristischen Verwendung vereinfachender Annahmen hinaus. Das Problem besteht darin, eine Erklärung mit genau den Faktoren zu füttern, die für die Explananda kausal verantwortlich sind; die Frage ist also nicht, ob überhaupt von den komplexen Zusammenhängen der Alltagspolitik abstrahiert werden sollte, sondern ob angemessen abstrahiert wurde. Wie wir in den Kapiteln 6 und 7 mehrfach bemerkt haben, sind Rational-Choice-Modelle, die realistischer sind als andere, deshalb nicht unbedingt besser; es kann durchaus sein, daß zusätzliche realistische Annahmen für die empirische Leistung eines Modells gar D e r Status vereinfachender Annahmen differiert je nach wissenschaftsphilosophischem Standpunkt. Aus der Sicht des in Kapitel 2 behandelten Friedmanschen Instrumentalismus haben vereinfachende Annahmen keinerlei Konsequenzen, während aus nomologischer Sicht zu erwarten ist, daß mit der Weiterentwicklung einer Theorie auch die Annahmen, auf denen sie beruht, in Richtung auf größere Realitätsnähe modifiziert werden.

Es gibt nicht die eine Rational-Choice-Theorie

225

keine Rolle spielen. Wenn ein Auto nicht fährt, weil es keinen Motor hat, wird das Problem nicht dadurch gelöst, daß man Seitenspiegel anbringt, auch wenn es die vorher ebenfalls nicht hatte und funktionierende Autos in der Regel über Seitenspiegel verfügen. Ein Erklärungsmodell wird durch zusätzliche realistische Annahmen nur dann verbessert, wenn diese Annahmen kausal relevant sind, um das zu untersuchende Problem zu verstehen. Ohne empirische Überprüfung ist es allerdings schlichtweg unmöglich festzustellen, welche Annahmen eines Erklärungsmodells kausal maßgeblich sind.

Es gibt nicht die eine Rational-Choice-Theorie Siebtens könnte man uns vorwerfen, daß wir eine Karikatur der Rational-ChoiceTheorie zeichnen, indem wir sie als eine einzige Theorie darstellen, die beansprucht, alles zu erklären - was de facto nicht zutrifft. In der Praxis sind nur wenige der Rational-Choice-Theoretiker, die sich ernsthaft mit empirischen Fragen beschäftigen, reine Universalisten. Sie scheinen vielmehr einen (oder eine Kombination) der nicht gänzlich universalistischen Standpunkte zu vertreten, die wir in Kapitel 2 vorgestellt haben: den segmentierten Universalismus, den partiellen Universalismus oder die Auffassung des Rationalwahlansatzes als Theorienfamilie. Anhänger des segmentierten Universalismus räumen ein, daß die Rational-Choice-Theorie nur in bestimmten Politikbereichen erfolgreich ist. Partielle Universalisten sind der Ansicht, daß sie einige, aber nicht alle Verhaltensweisen in allen Bereichen erklären kann; sie lassen dabei offen, was genau durch die strategische Maximierung bestimmter Interessen erklärt wird. Anhänger der Überzeugung, daß es sich um eine Theorienfamilie handelt, gehen davon aus, daß es keine einheitliche RationalChoice-Theorie gibt und daß unterschiedliche Rational-Choice-Theorien auf konkurrierenden Annahmen beruhen und ziemlich unterschiedliche Vorhersagen generieren. Bevor wir die jeweiligen Verdienste dieser abgestuften Universalismen erörtern, sei darauf hingewiesen, daß man mit der Befürwortung einer dieser Varianten die Übliche Strategie unterläuft, den Rationalwahlansatz mit Verweis auf die Unzulänglichkeit der Alternativen zu verteidigen, da bislang niemand eine andere allgemeine Theorie der Politik vorgelegt habe. Man kann nicht beides haben: Rational-ChoiceTheoretiker sägen an dem Ast, auf dem sie sitzen, wenn sie einerseits behaupten, ihrem Ansatz sei der Vorzug zu geben, weil es keine andere allgemeine Theorie der Politik gibt, die besser begründet sei, und sie andererseits eine Version des segmentierten oder partiellen Universalismus oder des Theorienfamilien-Standpunkts vertreten. Die drei in Sachen Universalismus nicht ganz so ehrgeizigen Varianten der Rational-Choice-Theorie mögen durchaus vielversprechend sein, und wir haben nicht die Absicht, eine von ihnen zu diskreditieren. Es sei lediglich darauf hinge-

226

8. Erwiderungen auf mögliche Gegenargumente

wiesen, daß es die Aufgabe derer ist, die eine dieser Varianten vertreten, sie genau darzulegen und zu testen, und nicht die des Skeptikers zu zeigen, daß sie unhaltbar ist. Die Ausarbeitung jedes dieser Standpunkte würde eine beträchtliche Umlenkung von Energien erfordern: weg vom Beweis von Theoremen darüber, was Rationalität erklären kann, und hin zur Auseinandersetzung mit den komplexen empirischen Problemen, die weniger simplistische Ansätze unausweichlich aufwerfen. Wenn der segmentierte Universalismus vom Vorwurf willkürlicher Bereichseinschränkungen entlastet und als Ansatz der Zukunft etabliert werden soll, dann wären seine Befürworter gut beraten, mit der systematischen Untersuchung der Bedingungen zu beginnen, unter denen Rational-Choice-Theorien mehr oder weniger Erklärungskraft haben. Daraus würden sich empirisch überprüfbare Hypothesen darüber ergeben, in welchen Politikbereichen man erwarten kann, daß Rational-ChoiceTheorien Erfolge zeitigen, und warum. In Kapitel 2 haben wir darauf hingewiesen, daß Elster (1986), Brennan und Buchanan (1984), Maoz (1990), Satz und Ferejohn (1993) sowie Aldrich (1993) dazu bereits einige knappe Vermutungen angestellt haben, aber dabei ist es bislang auch weitgehend geblieben. Damit sich aber der segmentierte Universalismus in irgendeiner Form durchsetzen kann, bedarf es eines Modells, das erklärt, warum Rational-Choice-Hypothesen unter bestimmten Umständen erfolgreicher sein dürften als unter anderen. Und was noch wichtiger ist: ein solches Modell muß empirisch getestet werden. Satz und Ferejohn (1993,14 f.) etwa äußern die theoretische Vermutung, daß die Rational-Choice-Theorie am ehesten in den vergleichsweise seltenen Situationen Erfolg haben dürfte, in denen die Wahlmöglichkeiten äußerst beschränkt sind, so daß es ζ. B. eher das Verhalten von Parteien als das von Wählern erklären kann. Wenngleich dies eine ziemlich einleuchtende Hypothese ist, zeigt unser Literaturüberblick in den Kapiteln 4 und 7, daß es sich dabei nach wie vor um eine ungetestete Vermutung handelt. Wenn dagegen der partielle Universalismus die Forschung der Zukunft anleiten soll, dann ergeben sich andere Fragen und Möglichkeiten. Hier geht es darum, ein überprüfbares Modell der Bedingungen zu entwerfen, unter denen politisches Verhalten und seine Folgen durch strategische Anreize beeinflußt werden. Man könnte etwa argumentieren, daß instrumentelle, normative und affektive Überlegungen um die begrenzte Aufmerksamkeit eines Entscheidungsträgers konkurrieren und daß die relative Bedeutung jedes dieser Faktoren davon abhängt, wie der Akteur die Entscheidungssituation interpretiert und unter welchen Bedingungen er seine Wahl treffen muß (Green 1992). Die empirische Aufgabe bestünde dann darin, die kognitiven und sozialpsychologischen Faktoren zu ermitteln, die dafür verantwortlich sind, inwieweit Akteure einem Impuls, einer Gewohnheit oder dem Vorbild anderer folgen, wenn sie ein politisches Ziel aufgeben, das ihnen wichtig ist. Die Konstruktion und strenge Überprüfung eines partiell-universalistischen Modells ist zweifellos ein gewaltiges Projekt, aber es scheint uns sinnvoller, Zeit in ein solches Forschungsprogramm zu investieren, als Theoreme Uber optimales strategisches Verhalten zu beweisen, die am Ende nur einen kleinen Ausschnitt politischen Verhaltens erklären können.

Die Tyrannei disziplinarer Lagermentalität

227

Wenn schließlich die Auffassung des Rationalwahlansatzes als Theorienfamilie zum künftigen Leitbild werden soll, dann muß noch sehr viel mehr zur Beantwortung der Fragen getan werden, in welcher Beziehung die einzelnen Familienmitglieder zueinander stehen, was sie überhaupt zu einer Familie macht, was zu tun ist, wenn die Familie inkompatible Mitglieder enthält, und wie mit unterschiedlichen Auffassungen davon, was eine „rationale Wahl" ist, umzugehen ist. Es genügt ζ. B. nicht, wenn Ferejohn und Fiorina (1993, 1) über ihr minima,c regrei-Modell sagen: „Wir haben gezeigt, daß man das Downssche Modell ablehnen kann, ohne gleich der Rational-Choice-Theorie zu entsagen. Andere Rational-Choice-Modelle mit empirischem Gehalt - darunter minimax regret - waren vorhanden." Es ist nicht die Aufgabe des Skeptikers zu zeigen, daß es keine Interpretation von Rationalität gibt, die das zu untersuchende Phänomen erklären könnte. Vielmehr liegt die Last des Beweises bei demjenigen, der eine bestimmte Interpretation befürwortet; er muß zeigen, warum sein Ansatz konkurrierenden Interpretationen von Rationalität für die Erklärung des betreffenden Phänomens überlegen ist, welche anderen Phänomene er im Gegensatz zu konkurrierenden Interpretationen erklärt (oder ausschließt) und warum er Erklärungen überlegen ist, in denen Rationalität gar nicht vorkommt. Gemäß einer noch schwächeren Version der Vorstellung von der Theorienfamilie ist die Rational-Choice-Theorie gar keine Theorie, sondern vielmehr ein „Ansatz", eine „Methodologie" oder ein „Paradigma", und kann daher gar nicht getestet werden. Nimmt man dieses Argument ernst, dann stellt sich jedoch die Frage, warum man gerade den Rational-Choice-Ansatz wählen sollte. Die Antwort darauf muß wohl auf die Vorhersagekraft der Hypothesen verweisen, die dieser Ansatz hervorbringt. Unsere Durchsicht der Rational-Choice-Literatur führt allerdings zu dem Schluß, daß die Erfolge in dieser Hinsicht bisher äußerst begrenzt sind. Da im übrigen im Zuge der Rational-Choice-Theoriebildung nur zu leicht Hypothesen generiert werden, die zusammengenommen sowohl X als auch Nicht-X vorhersagen, kann ein Außenstehender nur schwer einschätzen, inwiefern es ein Verdienst des Ansatzes ist, wenn eine Vorhersage sich bestätigt. Man kann es daher dem Skeptiker nicht verübeln, wenn er eine beunruhigende Ähnlichkeit zwischen dem Rational-ChoiceParadigma und dem psychoanalytischen Paradigma feststellt (siehe Crews 1993).

Die Tyrannei disziplinarer Lagermentalität Rational-Choice-Anhänger könnten achtens unser Argument aufgreifen, daß die Methoden, die sich in der Ökonomie bewährt haben mögen, für das Studium der Politik nicht unbedingt angemessen sind. Dagegen könnten sie einwenden, daß die Aufspaltung der Sozialwissenschaften in verschiedene akademische Fächer zur Verzerrung unserer Wahrnehmung der sozialen Realität geführt hat. Auch wenn die intellektuelle Arbeitsteilung sicher ihre Vorteile habe, müsse man doch zugeben, daß Sozialwissenschaftler Phänomene untersuchen, die sich nicht scharf voneinander

228

8. Erwiderungen auf mögliche Gegenargumente

abgrenzen lassen. Aufgrund unserer fachspezifischen Ausbildung und Anbindung neigten wir dazu, die Welt auf unterschiedliche und begrifflich oft willkürliche Weise zu zerlegen. Wie die Begründer der politischen Ökonomie im 18. Jahrhundert vertreten auch heutige Rational-Choice-Theoretiker einen einheitlichen Zugang zur sozialen Realität. Welche intellektuellen Gründe haben wir, uns dem zu verschließen? Die Antwort lautet: keine. Wir behaupten gar nicht, daß die Politikwissenschaft hinsichtlich ihres Gegenstands oder ihrer Methode unbedingt einzigartig ist. Wir haben also nichts gegen die Einführung von Ansätzen oder Hypothesen aus anderen Disziplinen. Und wir behaupten auch nicht, daß zumindest innerhalb der Politikwissenschaft nur eine Art der Erklärung sachgemäß ist. Wir haben allerdings den Eindruck, daß Rational-Choice-Theorie oft eher methoden- als problemgeleitet entwikkelt wird und daß ihre Mängel zum Teil genau darauf zurückgeführt werden können. Problemgeleitet ist empirische Forschung dann, wenn die Theoriebildung darauf ausgelegt ist, tatsächlich auftretende Probleme zu lösen. Sie ist dagegen methodengeleitet, wenn zunächst eine Theorie ohne Ansehen der damit zu erklärenden Phänomene entwickelt wird und der Theoretiker erst dann nach Phänomenen sucht, auf die die betreffende Theorie angewendet werden kann. Daß Rational-Choice-Theoretiker Fachgrenzen überschreiten, kritisieren wir nicht. Wir haben auch nicht von vornherein etwas gegen die Hypothese einzuwenden, daß das komplexe Gefüge politischen Handelns und politischer Institutionen möglicherweise mit Hilfe einer Theorie des rationalen Akteurs erklärt werden kann, die zu einem ganz anderen Zweck, nämlich zur Erklärung der Entstehung von Marktpreisen entwickelt wurde. Wir bemängeln vielmehr, daß ein Gutteil der angewandten Rational-Choice-Forschung methodengeleitet ist und daß methodengeleitete Forschung zu den typischen Fehlern führt, die wir in Kapitel 3 erläutert und in den Kapiteln 4 bis 7 nachgewiesen haben. Wir haben den Eindruck, daß Forscher, die mit einer Methode bewaffnet nach Anwendungen Ausschau halten, allzu oft fündig werden. Wie Abraham Kaplan (1964, 28) einmal bemerkt hat: Wenn das einzige Werkzeug, das man besitzt, ein Hammer ist, dann sieht plötzlich alles andere wie ein Nagel aus.

Die Überlegenheit der Rational-Choice-Theorie Ein neunter Einwand, der unsere Aufmerksamkeit verdient, ist das argumentum ad hominem, wonach die Rational-Choice-Theorie wohl kaum ein solches Ansehen in der Politikwissenschaft genießen würde, wenn sie so wenig geleistet hätte, wie wir behaupten. Die prominente Stellung der Rational-Choice-Forschung und ihrer Vertreter läßt sich in der Tat kaum leugnen: Es gibt kaum eine Tagung, eine führende Fachzeitschrift oder ein großes politikwissenschaftliches Institut, wo sie nicht maßgeblich vertreten sind. Wie ist das möglich, wenn wir Recht haben und Rational-

Die Überlegenheit der Rational-Choice-Theorie

229

Choice-Theorien so gut wie nichts zur empirischen Erforschung der Politik beigetragen haben? Falls unsere Beurteilung der Rational-Choice-Forschung zutrifft, so wäre es nicht das erste Mal, daß eine Theorie, die zunächst breite Anerkennung genoß, sich später als falsch oder überbewertet erweist. Beispiele dafür sind etwa Aristoteles' Physik, die Auffassung, daß die Erde eine Scheibe oder daß sie der Mittelpunkt des Universums ist, oder Lamarcks Vererbungslehre. Dessen ungeachtet verlangt der große Einfluß von Rational-Choice-Modellen auf die Politikwissenschaft nach einer Erklärung. Dafür lassen sich eine ganze Reihe möglicher Ursachen anführen, vom Glaube, daß es keine Alternativen gibt, über ideologische Erklärungen, die den Rationalwahlansatz mit einer bestimmten Politik in Verbindung bringen, bis hin zu institutionellen Erklärungen, die damit zu tun haben, daß Mittel vor allem für solche politikwissenschaftliche Forschung bereitgestellt werden, die Außenstehenden besonders streng und exakt zu sein scheint. Solche Faktoren spielen zweifelsohne eine Rolle. Aufgrund unserer Lektüre der Rational-Choice-Literatur glauben wir aber, daß es noch einen anderen, intellektuellen Grund gibt. Entgegen der Behauptung von Riker und anderen, daß der Rationalwahlansatz in der Politikwissenschaft so erfolgreich ist, weil die Disziplin ein Theoriedefizit aufweist, feiert er vielmehr dort die größten Erfolge, wo es ein Datendefizit gibt. In Teilbereichen wie der Forschung zum politischen Massenverhalten oder zur öffentlichen Meinung, in denen eine große Menge von Daten zusammengetragen wurde, konnten Rational-Choice-Theorien widerlegt oder zumindest in ihre Schranken verwiesen werden. 176 Wie wir in den Kapiteln 4 und 5 gezeigt haben, spiegelt die Tatsache, daß die Wahlbeteiligung inzwischen allgemein als ein für die Rational-Choice-Theorie ungewöhnlich widerspenstiger Fall von kollektivem Handeln betrachtet wird, eigentlich nur die größere empirische Aufmerksamkeit wider, die der Wahlbeteiligung zuteil geworden ist. Umgekehrt können sich Untersuchungen über den Kongreß der Vereinigten Staaten zwar nur auf wenige Daten über die Ansichten, Motive und strategischen Optionen der Volksvertreter stützen, aber es gibt dazu Rational-Choice-Interpretationen wie Sand am Meer. Das scheint auch für das Studium der internationalen Beziehungen zu gelten, wo die Präferenzen und strategischen Überlegungen der politischen Entscheidungsträger selbst im nachhinein nur schwer auszumachen sind (siehe Zagare 1979; Thakur 1982), wo es aber eine Unmenge von Rational-Choice-Modellen gibt. Sollte unsere Vermutung richtig sein, dann wäre vernünftigerweise zu erwarten, daß die Rational-Choice-Theorie zumindest in ihrer gegenwärtigen Form mit der Zunahme unseres empirischen Wissens über Politik an Einfluß verlieren wird.

Zwar gibt es Untersuchungen, die von sich selbst behaupten, Rational-Choice-Theorien zu bestätigen; aber das wird von Rational-Choice-Forschem selbst häufig bestritten. Vergleiche etwa die Behauptungen von Abramson u. a. (1992) oder Enelow und Hinich (1984b) mit der entsprechenden Kritik von Ferejohn und Fiorina (1993) sowie Brennan und Buchanan (1984).

230

8. Erwiderungen auf mögliche Gegenargumente

Zu hohe Erwartungen an eine junge Theorie Und schließlich könnte man uns vielleicht vorwerfen - auch wenn dieser Einwand mit dem zuletzt genannten Argument nicht ganz vereinbar ist - , wir nähmen nicht genug Rücksicht darauf, daß Rational-Choice-Theorien der Politik noch in den Kinderschuhen stecken. Zwar hätten Denker wir Hobbes, Grotius, Condorcet und andere schon vor langem politische Zusammenhänge aus der Warte des rationalen Akteurs beschrieben, aber ihre Überlegungen seien eher anekdotenhaft und impressionistisch gewesen. Systematische Versuche, die Logik der rationalen Wahl auf die Politik anzuwenden, lägen erst seit den vierziger Jahren vor, und erst seit den siebziger Jahren gäbe es eine nennenswerte Anzahl von Wissenschaftlern, die diesen Ansatz benutzten. Viele unserer Kritikpunkte seien berechtigt, so dieser Einwand weiter, aber das sollte nach nur vier Jahrzehnten der Forschung nicht überraschen. Wenn man bedenke, wie viele Jahrhunderte die inzwischen ausgereiften Theorien in der Physik benötigt haben, um sich zu entwickeln, und welche elementaren Fehler in ihren Anfangsjahren gemacht wurden, dann sollten die Probleme, die wir dargestellt haben, nicht als unbehebbare, grundlegende Defekte, sondern lediglich als Wachstumsschmerzen begriffen werden. Wer diese Position vertritt, gibt damit zu, daß das Hauptargument dieses Buch zutrifft, nämlich daß nur wenig von dem, was zugunsten der Rational-Choice-Theorie behauptet wird, empirisch gestützt ist. Im übrigen ist dieses Argument völlig mit unserer Überzeugung vereinbar, daß die Rational-Choice-Theorie als solche nicht prinzipiell zum Scheitern verurteilt ist, sondern durchaus das Potential hat, in Zukunft wissenschaftlichen Fortschritt zu zeitigen. Wie allerdings diese Zukunft aussehen soll, darüber sind wir mit unseren Kritikern nicht einer Meinung. Das Argument, daß die Rational-Choice-Theorie noch in den Kinderschuhen steckt, scheint nämlich auf der Vorstellung zu beruhen, daß ihre Mängel im Laufe der Zeit von selbst verschwinden werden. Wir dagegen sind angesichts der gravierenden methodologischen Probleme, die bislang hartnäckig fortbestehen, nicht ganz so zuversichtlich, daß mit einer solchen Selbstreinigung zu rechnen ist. Unserer Ansicht nach muß sich der Forschungsstil grundlegend ändern. Das heißt vor allem, daß der empirischen Untersuchung erheblich größere Bedeutung eingeräumt werden muß. Wie wir in den Kapiteln 5 und 7 anhand der Literatur zum kollektiven Handeln und zur Wahlkampfführung gezeigt haben, ist das Verhältnis zwischen der Entwicklung und der Anwendung bzw. Überprüfung von Theorien zum Teil äußerst einseitig. Man hat zuweilen den Eindruck, als wollten Rational-ChoiceTheoretiker die in ihren Augen banale Tätigkeit, Theorien anzuwenden und zu testen, nicht weiter benannten „anderen" überlassen - die jedoch nur selten in Erscheinung treten - , um sich selbst den intellektuellen Herausforderungen hehrer Theorieentwicklung zu stellen. Aber keine schlagkräftige Armee besteht ausschließlich aus Generälen, und selbst wenn die Theoretiker tatsächlich davon ausgehen könnten, daß andere die empirische Arbeit erledigen, bleibt fraglich, ob eine solche Arbeitsteilung wünschenswert ist. Schließlich ist anzunehmen, daß man mit dem Gegen-

Zu hohe Erwartungen an eine junge Theorie

231

stand der empirischen Beobachtung umfassend vertraut sein muß, um innovative Theorieentwicklung betreiben zu können. Die gute Nachricht ist, daß die Qualität der empirischen Anwendungen steigt. Da gibt es ζ. B. drei neuere Bücher, die Rational-Choice-Theorien auf das Ausschußsystem im US-Kongreß anwenden. Es handelt sich um The Logic of Delegation (Kiewiet und McCubbins 1991), Legislative Leviathan (Cox und McCubbins 1993) und Information and Legislative Organization (Krehbiel 1991). Jede dieser Arbeiten enthält eine Reihe innovativer empirischer Untersuchungen, in denen interessante, kontraintuitive Hypothesen plausiblen Alternativen gegenübergestellt werden. Verglichen mit den Studien, mit denen wir uns in den vorangegangenen vier Kapiteln befaßt haben, zeichnen sich diese Arbeiten vor allem dadurch aus, daß ihre Autoren über den Untersuchungsgegenstand gründlich informiert sind und eine klare Verbindung zwischen der Theorie und ihrer Anwendung auf die Empirie herstellen. Wir hoffen mit denjenigen, die unsere Verurteilung der Rational-Choice-Forschung für voreilig halten, daß Arbeiten wie diese ein Zeichen dafür sind, daß der Bedeutung strenger empirischer Überprüfungen zunehmend Rechnung getragen wird. Aber auch die drei genannten Untersuchungen zur Gesetzgebungspolitik veranlassen uns nicht dazu, von unserer allgemeinen Überzeugung abzugehen, daß die Entwicklung von Rational-Choice-Theorien nur wenig empirisch belegtes Wissen hervorgebracht hat. Auch wenn sie deutlich besser sind als frühere Rational-ChoiceAnwendungen, sind ihre empirischen Schlußfolgerungen mehr oder weniger problematisch. Da diese hochgelobten Werke jedoch vielleicht so etwas wie Modellcharakter für eine neue Welle der Rational-Choice-Forschung haben können, scheint es uns der Mühe wert, unsere Probleme mit diesen empirischen Untersuchungen genauer darzulegen. Die These von The Logic of Delegation beruht auf einer Analogie zwischen der Vorgehensweise von Unternehmen bei der Strukturierung organisatorischer Anreize, um ihre Produktivität zu maximieren, und der Vorgehensweise von Fraktionen bei der Strukturierung des Ausschußsystems, um erwünschte politische Ergebnisse hervorzubringen. Im Gegensatz zu Autoren, die die Autonomie der Ausschüsse und die Schwäche der Parteien herausstellen, behaupten Kiewiet und McCubbins, diese Autonomie sei mehr Schein als Sein: Bei der Besetzung der Ausschüsse versuchten die Parteien, ihre Präferenzen mit denen der ausschlaggebenden Mitglieder in jedem Ausschuß in Einklang zu bringen (Kapitel 4 und 5). Daß sogar die Abgeordneten selbst den Eindruck haben, die Ausschüsse seien autonom (60), zeuge nur von dem Erfolg, mit dem die Prinzipale (die Fraktionen) ihre Interessen mit denen ihrer Agenten (den Ausschußmitgliedern) harmonisiert hätten. 177 ' 7 7 Diese Ausführungen zum Verhältnis zwischen Parteien und Ausschüssen werfen zugleich eine wichtige begriffliche Frage auf: Was ist damit gemeint, daß eine Fraktion, d. h. ein Kollektiv, als Prinzipal fungiert? Im allgemeinen behandeln Kiewiet und McCubbins jede Fraktion, als sei sie ein einheitlicher Akteur, desses Präferenzen die des Medianwählers widerspiegeln. Diese Darstellung beruht jedoch auf der zweifelhaften Annahme, da8 Gesetzgebungspolitik entlang nur einer Dimension stattfindet. Zudem wird implizit angenommen, daß Ausschußmitglieder, Parteien und ihre jeweiligen Vorsitzenden keinerlei Seitenzahlungen austauschen. Des weiteren stellt sich die Frage, nach welchem Maßstab die Rationalität der Handlungen des einheitlichen Prinzipals beurteilt werden soll.

232

8. Erwiderungen auf mögliche Gegenargumente

Kiewiet und McCubbins geht es vor allem darum, inwieweit Fraktionen Ausschüsse nach strategischen Gesichtspunkten besetzen und ob sich Ausschußmitglieder so verhalten, wie es die Prinzipal-Agenten-Theorie vorhersagt. Sie untersuchen diese Fragen am Beispiel des Bewilligungsausschusses des Repräsentantenhauses und argumentieren gegen eine Hypothese, die sie Fenno (1966) zuschreiben, wonach der Bewilligungsausschuß als „Wächter über die Staatskasse", d. h. als ein Agent des Repräsentantenhauses insgesamt fungiert. 178 Anhand der Daten über namentliche Abstimmungen der Mitglieder des Repräsentantenhauses von 1947 bis 1984 versuchen Kiewiet und McCubbins zu zeigen, daß die Parteivertretungen im Bewilligungsausschuß von jeher ihre jeweiligen Fraktionen tendenziell abgebildet haben. Zu ihrer „Beunruhigung" müssen sie aber feststellen, daß es im Gegensatz zu ihren ursprünglichen Erwartungen zwischen den demokratischen und den republikanischen Mitgliedern des Bewilligungsausschusses und ihren jeweiligen Fraktionen beträchtliche Unterschiede gibt (101). Bis zur Mitte der siebziger Jahre waren die Ausschußmitglieder beider Parteien in der Tendenz überdurchschnittlich konservativ; danach näherte sich der demokratische Ausschußmedian dem Fraktionsmedian an, während der republikanische Ausschußmedian überdurchschnittlich liberal wurde. Dieser Rückschlag veranlaßte Kiewiet und McCubbins dazu, ihre ursprüngliche Frage „Sind die Parteivertretungen repräsentativ für ihre jeweiligen Fraktionen?" umzuformulieren. Die geänderte Frage ,3esetzen die Fraktionen freie Sitze so, daß ihre Ausschußvertretung repräsentativer wird?" scheint von den Daten eher mit ,Ja' beantwortet zu werden als ihre Vorgän-

Geht dieses Modell davon aus, daß die Parteien die Übereinstimmung der AusschuBentscheidungen mit den Parteiwünschen maximieren, und, wenn ja, unter welchen Bedingungen? Sollen wir ζ. B. erwarten, daß die jeweilige Mehrheitsfraktion versuchen wird, in wichtigen Ausschüssen ein ideologisches Gleichgewicht herzustellen, indem sie sich einer integrierten Strategie bedient, die vorsieht, ideologisch passende Neuernennungen vorzunehmen? Oder daB sie, wenn nötig, versucht, die Ausschußgröße oder das Verhältnis der Sitze der Parteivertretungen zu verändern oder auch widerborstige Ausschußmitglieder zu entfernen? Indirekt nehmen sich Kiewiet und McCubbins dieser Frage an, wenn sie darauf hinweisen, daß die Parteien davon absehen müssen, „Generalangriffe auf das Recht derzeitiger Mitglieder, weiterhin dem Ausschuß anzugehören" (107) zu fahren oder die Ausschußgrößen und Delegiertenverhältnisse zu verändern, da es sich bei diesen Gegebenheiten um „Gleichgewichte in anderen Spielen" handele (247). Welcher Art diese anderen Spiele sind, wird jedoch nicht erläutert. Nebenbei bemerkt sind Kiewiet und McCubbins keineswegs die einzigen, die behaupten, daß Gesetzgebungssysteme Gleichgewichte darstellen. In ihrem „Plädoyer für eine größere Würdigung der Gleichgewichtsanalyse" äußem ζ. B. Shepsle und Weingast (1987b, 943) die Überzeugung, daß es sich bei einer „ausgereiften Institution" wie dem Kongreß um „eine Organisation im Gleichgewicht" handelt. 178 Außerdem untersuchen die Autoren, ob der Ausschuß seine Mitglieder dahingehend „resozialisiert" hat, daß sie sich mit den Zielen einer verantwortungsbewußten Ausgabenpolitik idenüfizieren. Mit Hilfe einer multivariaten Analyse versuchen sie zu zeigen, daß die Mitglieder des Bewilligungsausschusses infolge ihrer Berührung mit den Ausschußnormen nicht konservativer wurden. Leider verliert die Analyse dadurch etwas von ihrer Überzeugungskraft, daß nur namentliche Abstimmungen im Plenum und nicht das Verhalten im Ausschuß selbst als abhängige Variable dienen. Ein weiteres, aber vielleicht kleineres Problem besteht darin, daß Sozialisierung durch die Dauer der Mitgliedschaft im Ausschuß (in Jahren) gemessen wird. Damit werden die besonders starken Sozialisierungskräfte, die in den eisten Jahren wirken, nicht hinreichend hervorgehoben.

Zu hohe Erwartungen an eine junge Theorie

233

gerin, aber nach wie vor gibt es wichtige Anomalien. 179 Selbst dann, wenn sie die Mehrheit hatte, ernannte die Fraktion der Republikanischen Partei durchgehend Mitglieder, die die ideologische Diskrepanz zwischen dem Median der Ausschußvertretung und dem der Fraktion nicht korrigierten (109). Und bei den Demokraten geschah die Verschiebung in Richtung auf die Ernennung liberalerer Kandidaten so allmählich, daß sich die Autoren mit der Frage auseinandersetzen müssen, warum die Partei „nicht entschiedener gegen die konservative Schlagseite" in ihrer Ausschußvertretung „vorgegangen ist" (118). 180 Es gibt viel Lobenswertes an dieser Untersuchung der Umwege, die Parteien nehmen, um die Entscheidungen von Ausschüssen zu beeinflussen, aber die entscheidenden theoretischen Vermutungen sind eher vage und werden durch die Daten nicht hinreichend gestützt. Wenngleich nicht auszuschließen ist, daß sich die Hypothesen besser bewährt hätten, wäre es den Autoren möglich gewesen, das Verhalten in den Ausschüssen selbst und nicht namentliche Abstimmungen im Plenum zu untersuchen, kann es dennoch sein, daß die empirischen Rückschläge auf Unklarheiten im zugrunde liegenden räumlichen Modell beruhen. Merkwürdig ist vor allem die Annahme, daß Fraktionen danach trachten, ihre Mediane mit denen ihrer jeweiligen Ausschußvertretungen in Einklang zu bringen. In der Regel stehen die Ausschußmitglieder der Republikaner (die in der Minderheit sind) rechts von den meisten ihrer demokratischen Kollegen (die die Mehrheit bilden), so daß sich der Ausschußmedian rechts vom demokratischen Fraktionsmedian befindet. Wenn der Medianwähler der Mehrheitsfraktion im Ausschuß seinen Willen durchsetzen soll, müssen bei der Besetzung überdurchschnittlich viele liberale Demokraten berücksichtigt werden (vgl. Cox und McCubbins 1993, 202). Nach dieser Logik müßten die Parteien ein komplexes Spiel betreiben, in dem ζ. B. die Demokraten ihre liberaleren Mitglieder für die wichtigsten Ausschüsse reservieren und konservativere in den Ausschuß für Handelsmarine und Fischerei verbannen. Darauf mag man erwidern, daß die interne Politik der Parteien die Wahl einer solchen Strategie verhindert; aber parteiinterne Dispute sind genau das, was in diesem Modell nicht berücksichtigt wird. Legislative Leviathan (Cox und McCubbins 1993) ist der Versuch, das von Kiewiet und McCubbins (1991) vorgelegte Prinzipal-Agenten-Modell weiterzuentwickeln. Die Autoren behandeln eine ganze Reihe von Strategien der Mehrheits-

Kiewiet und McCubbins (195 f.) haben ihre Analyse für den Haushaltsausschuß, der nach festen Regeln besetzt wird, repliziert, mußten aber entgegen ihren Erwartungen feststellen, daß er die Fraktionen noch weniger widerspiegelt als der Bewilligungsausschuß. 180 Ihre Antwort darauf lautet: ,,[S]ofern diejenigen, die die Ausschußbesetzungen vornehmen, nicht genau vorhersehen können, wie sich die ideologische Zusammensetzung ihrer Fraktion während der kommenden Legislaturperioden verändern wird, laufen aggressivere Strategien, die über eine partielle Anpassung hinausgehen, Gefahr der Übersteuerung, und zwar zunächst in die eine und dann in die andere Richtung" (123). Kiewiet und McCubbins scheinen nicht zu bemerken, daß sie dem Medianwähler der Fraktion damit eine Risikoscheu ganz besonderer Art unterstellen. Demnach argumentiert dieser Abgeordnete nämlich folgendermaßen: „Ich möchte nicht, daß sich meine politischen Ansichten später einmal gegen die andersgearteten Interessen eines eventuellen neuen Medianwählers der Fraktion im Ausschuß durchsetzen."

234

8. Erwiderungen auf mögliche Gegenargumente

partei zur Strukturierung von Anreizen, um Entscheidungen des Repräsentantenhauses zu kontrollieren. Dazu gehören ζ. B. die Befugnis des Sprechers, den Terminplan festzulegen (Kap. 9), sowie verschiedene Möglichkeiten der Mehrheitspartei, die Struktur und Ressourcen von Ausschüssen zu verändern (Kap. 10). Aus empirischer Sicht am interessantesten ist allerdings ihre zusätzliche Hypothese, daß Versetzungen von einem Ausschuß in einen anderen - vor allem in die sogenannten Kontrollausschüsse (Bewilligungs-, Regel- und Steuerausschuß) - als Belohnung für Parteiloyalität gewährt werden. Cox und McCubbins verfolgen die Laufbahn aller Abgeordneten zwischen der achtzigsten und der hundertsten Legislaturperiode, die dem Kongreß nicht zum ersten Mal angehören, und führen eine Reihe von ProbitRegressionsanalysen durch, in denen nach Region, Seniorität und Anzahl freier Sitze kontrolliert wird, um anhand der Parteiloyalität Transfererfolge vorherzusag e n 181 Obwohl die Autoren mit dem Resultat ihrer Untersuchung zufrieden zu sein scheinen, wird ihre Hypothese, daß Abgeordnete, „die bei namentlichen Abstimmungen Loyalität gegenüber der Parteiführung demonstrieren, mit besseren Ausschußsitzen belohnt werden" (182), durch die Ergebnisse offenbar nur in sehr bescheidenem Ausmaß gestützt. Nach der Schätzung von Cox und McCubbins (Tabelle 29, Spalte 2, 173) beträgt die Erwartungswahrscheinlichkeit, daß ein Demokrat - nach der Kongreßreform - auf einen von 20 freien Sitzen in einem Kontrollausschuß versetzt wird, 18%, wenn seine Loyalität beim fünfzigsten Zentil seiner Partei liegt. Wenn sich die Parteiloyalität desselben Demokraten zum 95. Zentil verschiebt, erhöhen sich seine Transferchancen auf nur 26%. Ein Anreiz dieser Größenordnung dürfte kaum ausreichen, um „dafür zu sorgen, daß Ausschüsse und ihre Mitglieder sich stärker an der Parteiführung und den Parteizielen orientieren" (1982). 182 Es mag sein, daß die schwachen Zusammenhänge auf bestimmte ökonometrische Probleme zurückzuführen sind, deren Behebung zu Ergebnissen führen würde, die eher ' 8 ' Parteiloyalität wird hierbei definiert als „die relative Häufigkeit, mit der ein Abgeordneter in der vorangegangenen Legislaturperiode mit seinem Parteivorsitzenden und Fraktionsführer und gegen den Parteivorsitzenden und FraktionsfUhrer der gegnerischen Partei gestimmt hat" (170). Deshalb werden Abgeordnete, die während der vorhergehenden Periode dem Kongreß noch nicht angehörten, in der Analyse nicht berücksichtigt. 182 Andere Analysen schneiden auch nicht besser ab. Bei Beschränkung der Analyse auf solche Legislaturperioden, für die Daten Uber schriftliche Versetzungsgesuche vorliegen, stellen Cox und McCubbins fest, daß es seit der Reform keine Rolle spielt, ob ein Abgeordneter loyal ist oder nicht, um zwischen solchen, deren Antrag abgelehnt wurde, und solchen, die weder einen Antrag gestellt noch ein Angebot erhalten hatten, zu unterscheiden. Loyalität ist auch kein Kriterium, um zwischen letzteren und solchen Repräsentanten zu unterscheiden, denen die gewünschte Versetzung gewährt wurde (Tabelle 23, S. 182). Auch die Untersuchung des Verhältnisses zwischen der Besetzung von Ausschüssen mit Neulingen und den Loyalitätsergebnissen während ihrer ersten Legislaturperiode führt zu keinem eindeutigen Befund. Cox und McCubbins (185) meinen, daß „der Zusammenhang klar" sei, und kommen zu dem Schluß, daß „der Loyalitätsgrad während der ersten Amtszeit für die meisten Kategorien von Neulingen und von Ausschüssen positiv mit einer höheren Wahrscheinlichkeit korreliert, einen beantragten Ausschußsitz zu erhalten". Im Gegensatz zur Kernaussage der Prinzipal-Agenten-These bestand jedoch kein statistisch signifikanter Zusammenhang zwischen der Loyalität eines Abgeordneten und seiner Versetzung in einen der Kontroll- oder anderen „wichtigen" Ausschüsse (Tabelle 24, 184).

Zu hohe Erwartungen an eine junge Theorie

235

dafür sprechen, daß die Mehrheitsfraktion das Verhalten ihrer Agenten strukturiert; aber im Moment ist die Datenlage alles andere als überzeugend. 183 In Information and Legislative Organization (1991) interpretiert Krehbiel das Ausschußsystem nicht als Agenten der Parteien, sondern als Mittel des Repräsentantenhauses, um Informationen über die Folgen politischer Maßnahmen zu bekommen. Um Ausschußmitglieder dafür zu belohnen, daß sie die notwendigen Ressourcen aufwenden, um Expertenwissen zu erwerben, und um sie zu ermutigen, unter Bedingungen großer Ungewißheit ihr privates Wissen weiterzugeben, werden den Ausschüssen im Plenum sogenannte „geschlossene Regeln" eingeräumt, wonach eingebrachte Gesetzentwürfe nur begrenzt oder gar nicht verändert werden dürfen. Diese Regelung ermöglicht es den Ausschüssen, Vorschläge zu unterbreiten, die das Plenum nur annehmen oder ablehnen kann. Dadurch haben Ausschußmitglieder die Möglichkeit, Bestimmungen einzubauen, die ihnen am Herzen liegen und die, wären Änderungen erlaubt, vom Plenum in Richtung auf die Medianposition verändert würden. Diese Interpretation geschlossener Regeln als ein Anreiz für die Spezialisierung von Abgeordneten unterscheidet sich von der üblichen Deutung im Sinne einer Verteilungsstrategie, wonach geschlossene Regeln dazu dienen, informelle Kompromisse innerhalb und zwischen Ausschüssen aufrechtzuerhalten (Kap. 5). Diese Argumentation wirft natürlich die empirische Frage auf, unter welchen Umständen Ausschußvorschlägen geschlossene Regeln zugestanden werden. Krehbiel versucht, diese Frage mit Hilfe einer multivariaten Analyse aller Gesetzesvorlagen der 98. und 99. Legislaturperiode zu beantworten, für die eine solche Regel im Plenum entweder beantragt oder bewilligt und akzeptiert wurde (167 f.). Unter Rückgriff auf verschiedene traditionelle und Rational-Choice-Arbeiten entwickelt Krehbiel ein statistisches Modell, nach dem die Wahrscheinlichkeit, daß eine geschlossene Regel bewilligt wird, eine Funktion mehrerer Konstrukte ist. Zu diesen gehören: distributiver Gehalt, legislative Spezialisierung, ideologischer Abstand zwischen Plenums- und Ausschußmedian, ideologische Heterogenität, Übereinstimmung beider Parteien sowie Reichweite und Dringlichkeit des Gesetzesvorschlags. Die Indikatoren für diese Konstrukte werden hauptsächlich mit Hilfe des Stichwortverzeichnisses der Online-Datenbank LEGI-SLATE gebildet. Der Indikator für distributiven Gehalt ζ. B. ist „einfach das Verhältnis der aufgeführten Einzelstaaten zur Gesamtmenge der Stichwörter plus der Anzahl der Einzelstaaten" (170). Das wichtigste Konstrukt, die legislative Spezialisierung, wird zweimal gemessen: erstens durch die Anzahl der Gesetze, die im Stichwortverzeichnis genannt werden, und zweitens anhand der durchschnittlichen Anzahl von Jahren, die die Mitglieder dem Ausschuß, der den Entwurf einbringt, angehören.

183 Qox u n ( j McCubbins (171-179) geben bereitwillig zu, daß ökonometrische Probleme auftreten, wenn zwei potentiell endogene Variablen, nämlich Versetzungsgesuche und die Anzahl freier Sitze, als Regressoren verwendet werden. Sie hätten aber vielleicht auch darauf verweisen sollen, daß möglicherweise seriell korrelierte Fehler auftreten, wenn dieselben demokratischen KongreBmitglieder in einem kumulierten Datensatz mit 4.407 Beobachtungen mehrmals vorkommen - ein Problem, das ihre Standardfehler und damit auch ihre Signifikanzniveaus verzerrt.

236

8. Erwiderungen auf mögliche Gegenargumente

Der eher grobe Zuschnitt dieser Variablen vermindert den Wert der Analyse, da eine Kombination von Zufallsfehlern, systematischen Fehlem und Meßredundanz die Ergebnisse auf unbekannte und möglicherweise entscheidende Weise verzerrt. 184 Ebenso fraglich ist es, ob Seniorität tatsächlich nur „für den Zuständigkeitsbereich spezifisches Expertenwissen" mißt (171) und nicht vielleicht eine Kombination aus Expertenwissen, politischer Gewieftheit, Ressourcen für politische Kuhhändel und informellem Einfluß. Die Schätzungen, zu denen Krehbiel mit seinem multivariaten Modell gelangt bevor er seine Analyse „verfeinert", indem er statistisch nichtsignifikante Regressoren ausmustert - , taugen nur begrenzt zur Untermauerung seiner Hypothese, daß durch die Durchsetzung geschlossener Regeln Spezialisierung belohnt wird. Um sich eine Vorstellung davon zu verschaffen, wie ungewiß es ist, ob sich der Erwerb von Expertenwissen lohnt, betrachte man zwei Gesetzentwürfe, die von einem Ausschuß vorgelegt werden, dessen Median mit dem des Plenums (gemäß ADARatings) übereinstimmt. Der erste Entwurf verweist auf drei, der zweite auf achtzehn Gesetze; ansonsten sind sie äquivalent. Wenn dem ersten mit einer Wahrscheinlichkeit von 0.1 eine geschlossene Regel zugestanden wird, dann sollte die entsprechende Wahrscheinlichkeit für den zweiten 0.24 sein (Tabelle C.l, Spalte 1, 276). Ob diese Veränderung der Wahrscheinlichkeiten hinreichend groß ist, um Mitglieder zu ermutigen, Expertenwissen zu erwerben, ist fraglich, insbesondere, da der Grenzeffekt dieses Regressors statistisch nicht von Null zu unterscheiden ist. Der Effekt von Seniorität ist zwar statistisch zuverlässiger, dafür aber, wie schon gesagt, inhaltlich schwieriger zu interpretieren. Alles in allem läßt sich nur schwer sagen, ob diese statistische Übung zur Glaubwürdigkeit von Krehbiels Behauptung beiträgt, daß es im allgemeinen um Information und nicht um distributiven Gehalt geht. Zusammengefaßt vermitteln diese drei Arbeiten zwar eine große Menge nützlicher Informationen über den Kongreß, die Parteien und die Ausschüsse, aber ihre wesentlichen Hypothesen sind empirisch nicht hinlänglich gestützt. Ein Problem ist die Schwierigkeit, zuverlässige Indikatoren für Konstrukte wie legislatives Expertenwissen oder politische Präferenzen zu finden (Rieselbach 1992). Ein anderes ist die Komplexität der Aufgabe, wenn man sich nicht-experimenteller Daten bedient, um Hypothesen zu testen, die eine Vielzahl gleichzeitig determinierter Variablen enthalten. Ob die Rational-Choice-Forschung in Zukunft eine bedeutende Rolle beim Studium der Gesetzgebungspolitik spielen wird, hängt davon ab, inwieweit es der empirischen Rational-Choice-Forschung gelingen wird, methodologische Zufällige Meßfehler bei den unabhängigen Variablen kann dazu führen, daß Regressionsschätzungen positiv oder negativ verzerrt werden. Auch systematische Fehler können hier vorliegen, da der Indikator für distributiven Gehalt eine nichtlineare Funktion der Variable „Reichweite" (Anzahl der LEGI-SLATE-Stichwörter, die zu einem Gesetzesentwurf aufgeführt werden [169]) ist und da die Anzahl der demokratischen und der republikanischen Unterstützer jeweils getrennt in die Regression eingehen. Krehbiel begründet die Validität seiner Indikatoren für distributiven Gehalt und Expertenwissen damit, daß Gesetzentwürfe, die für diese Indikatoren hohe Werte erzielen, auch auf den ersten Blick distributiv bzw. spezialisiert zu sein scheinen. Leider erhalten wir keine vergleichbaren Listen von Gesetzentwürfen, die für diese Indikatoren niedrige Werte erzielen.

Abschließende Bemerkungen

237

Schwächen dieser Art zu überwinden, die traditionelle Erforscher von Gesetzgebungspolitik so häufig in ihre Schranken gewiesen haben.

Abschließende Bemerkungen Wir haben in diesem Buch gezeigt, daß empirische Anwendungen der RationalChoice-Theorie in der Politikwissenschaft seit den sechziger Jahren unter einem Syndrom methodologischer Unzulänglichkeiten leiden. Diese Mängel sind anders geartet als die Fehler, die man ansonsten in der empirischen Sozialwissenschaft häufig vorfindet. Sie wurzeln in dem Ehrgeiz, eine universelle Theorie der Politik zu erarbeiten, und in dem Glauben, daß alles andere nicht beanspruchen kann, echte Wissenschaft zu sein. Wir bezweifeln, daß eine universelle Theorie der Politik einer systematischen empirischen Überprüfung standhalten könnte. Vielleicht wird sich einmal herausstellen, daß unsere Skepsis fehl am Platz war, aber darüber läßt sich im Moment nur spekulieren. Wir haben in dieser Arbeit jedoch gezeigt, daß es den Vertretern des Rational-Choice-Ansatzes bislang nicht gelungen ist, eine universelle Theorie zu entwickeln, die empirisch plausibel ist. Es überrascht uns daher nicht, daß Rational-Choice-Theoretiker, die sich mit empirischen Anwendungen befassen, dem reinen Universalismus häufig zugunsten subtilerer und bescheidenerer Ziele abschwören. Wir haben ebenfalls argumentiert, daß die Entscheidung, diesen Weg einzuschlagen, keine Bedrohung für die wissenschaftlichen Ambitionen von Rational-Choice-Theoretikem darstellt - ganz im Gegenteil: sie ist notwendig, wenn irgendeine Version der Rational-Choice-Theorie unser Verständnis von Politik voranbringen soll. Abschließend mag es nützlich sein, nochmals zu wiederholen, in welcher Hinsicht sich die Rational-Choice-Forschung ändern muß, um in Zukunft die Probleme überwinden zu können, die den Fortschritt dieses politikwissenschaftlichen Ansatzes behindert haben. Erstens müssen Rational-Choice-Theoretiker solchen Versuchungen widerstehen, ihre Theorien zu retten, die zu methodengeleiteter Forschung führen. Sinnvoller als die Frage „Wie könnte die Rational-Choice-Theorie X erklären?" wäre die problemgeleitete Frage „Wie läßt sich X erklären?" Das würde automatisch zu Überlegungen Uber die relative Wichtigkeit ganz verschiedener möglicher Erklärungsvariablen führen. Strategisches Kalkül ist zweifellos eine davon, aber in der Regel gibt es noch zahlreiche andere, von traditionellen Verhaltensweisen, Normen und Kulturen über die unterschiedliche Ausstattung von Menschen mit Talenten und Fähigkeiten bis hin zu den zufälligen Gegebenheiten historischer Umstände. Dem Drang, vor diesen komplexen Zusammenhängen zu flüchten, anstatt Erklärungsmodelle zu schaffen, die sie berücksichtigen, sollte nicht nachgegeben werden - auch wenn das heißt, die Reichweite der Anwendungen zu beschränken. Unsere Empfehlung zielt nicht darauf ab, die Theorie der Empirie zu opfern; wir fordern nur, daß Theoretiker

238

8. Erwiderungen auf mögliche Gegenargumente

näher an den Daten arbeiten, damit ihre theoretischen Überlegungen empirisch relevant werden können. Das Gebot, Theorie „näher an den Daten" zu betreiben, verweist auf das Spannungsverhältnis zwischen Theorienentwicklung und Theorientest, das jede empirische Wissenschaft kennzeichnet. Einerseits kann der Verzicht auf eine empirische Grundlegung dazu führen, daß irrelevante Theorien entwickelt werden und Kontroversen wie Pilze aus dem Boden schießen, die durch wenig mehr als die theoretischen Vermutungen gespeist werden, von denen sie ihren Ausgang nehmen. Andererseits läuft eine empirisch fundierte Theorieentwicklung Gefahr, zu einem post /ioc-Reparaturbetrieb zu verkommen. Mit diesem Spannungsverhältnis läßt sich nur fertig werden, wenn man sich nie mit überarbeiteten Vermutungen zufrieden gibt, die als Reaktion auf ein früheres Scheitern einer Theorie aufgestellt wurden. Theorien können selbstverständlich überarbeitet werden, wenn sie den Daten nicht entsprechen, aber eine derart modifizierte Theorie muß dann wiederum anhand neuer Daten überprüft werden usw. Rational-Choice-Theoretiker sollten sich also, kurz gesagt, der Notwendigkeit systematischer empirischer Tests parallel zur Theoriebildung bewußt werden. Zweitens sollten Rational-Choice-Theoretiker dem reinen Universalismus abschwören und auch die damit einhergehende Neigung aufgeben, konkurrierende theoretische Modelle zu ignorieren, zu absorbieren oder in Mißkredit zu bringen. Die aus Rational-Choice-Theorien abgeleiteten Hypothesen hätten einen größeren Erkenntniswert, wenn zwischen rationalem Handeln und anderen Verhaltensweisen klarer unterschieden würde, und empirische Tests wären überzeugender und informativer, wenn sie wirklich darauf ausgelegt wären, die Grenzen der Erklärangskraft des Rationalwahlansatzes zu erkunden. Eine solche Veränderung des Blickwinkel würde Rational-Choice-Theoretiker u. a. dazu ermutigen, sich genauer Uber die Bedingungen zu äußern, unter denen sie bereit wären, in Anbetracht empirischer Beobachtungen ihre Erklärungsvorschläge aufzugeben. Seitdem es die Rational-Choice-Theorie in der Politikwissenschaft gibt, hat sie zwei gegensätzlichen Impulsen nachgegeben: einem interdisziplinären Geist, der auf eine Vereinheitlichung sozialwissenschaftlicher Erklärungen aus ist, und einer parochialen Neigung, alle sozialen Phänomene aus der Sicht der MikroÖkonomie zu interpretieren. Downs (1968, 8) ζ. Β. scheute vor sozialpsychologischen Erklärungen ausdrücklich zurück - und das, obwohl der bestehende Wissensfundus ihn eigenüich genau in diese Richtung wies - , weil er befürchtete, sein Ansatz könnte dadurch an Eigenständigkeit verlieren: „Die empirischen Studien kommen fast einstimmig zu dem Schluß, daß die Anpassung im Rahmen der Primärgruppen für fast alle Individuen weitaus lebenswichtiger ist als darüber hinausgehende Erwägungen über wirtschaftliche und politische Wohlfahrt.... Trotzdem müssen wir voraussetzen, daß die Menschen in unserer Welt ihr Verhalten hauptsächlich nach solchen weiterreichenden Erwägungen ausrichten, denn sonst würde jede Analyse der Wirtschaft oder der Politik zu einem bloßen Anhängsel der Soziologie der Primärgruppen werden." Angesichts dieser Bemerkung von Downs verwundert es kaum, daß die von Rational-Choice-Theoretikern als multidisziplinär betrachtete Perspektive von ande-

Abschließende Bemerkungen

239

ren als eine Art Kolonialisierung wahrgenommen wird. Der Drang, RationalChoice-Modelle um jeden Preis und gegenüber jedem Standpunkt zu verteidigen, provoziert eine ablehnende Haltung, die allenfalls die gegenseitige Abschottung der Disziplinen verstärkt. Würde man die Sozialwissenschaft nicht als Wettkampf zwischen konkurrierenden theoretischen Ansätzen betrachten, in dem nur einer gewinnen kann, sondern als gemeinsames Unternehmen, bei dem verschiedene Erklärungen sich gegenseitig bedingen und voranbringen, dann könnte die Lagermentalität, die zu einer methodologisch defizitären Forschung führt, vielleicht in Schach gehalten werden. Es ginge dann nicht mehr um die Frage „Rational-Choice-Theorie: ja oder nein?", sondern um das viel fruchtbarere Thema: „Wie funktioniert das Zusammenspiel zwischen Rationalität und anderen Facetten der menschlichen Natur und Organisation, so daß die politischen Phänomene entstehen, die wir zu verstehen suchen?"

Literatur

241

Literatur

Abell, Peter. 1992. J s Rational Choice Theory a Rational Choice of Theory?" In: Rational Choice Theory: Advocacy and Critique, James S. Coleman und Thomas J. Fararo, Hg. Newbury Park: Sage Publications. Abelson, Robert P. 1976. „Psychological Status of the Script Concept." American Psychologist 36:715-29. Abelson, Robert P., und Ariel Levi. 1985. „Decision Making and Decision Theory." In: Handbook of Social Psychology, Gardner Lindzey und Elliot Aronson, Hg. New York: Random House. Abramson, Paul R., John A. Aldrich, Phil Paolino und David W. Rohde. 1992. „Sophisticated Voting in the 1988 Presidential Primaries." American Political Science Review 86:55-69. Achen, Christopher H. 1977. „Measuring Representation. Perils of the Correlation Coefficient." American Journal of Political Science 21:805-15. -. 1986. The Statistical Analysis of Quasi-Experiments. Berkeley: University of California Press. Achen, Christopher H., und Duncan Snidal. 1989. „Rational Deterrence Theory and Comparative Case Studies." World Politics 41:143-69. Aldrich, John A. 1976. „Some Problems in Testing Two Rational Models of Participation." American Journal of Political Science 20:713-33. -. 1980. Before the Convention: Strategies and Choices in Presidential Nomination Campaigns. Chicago: University of Chicago Press. -. 1989. „Power and Order in Congress." In: Home Style and Washington Work, Morris P. Fiorina und David W. Rohde, Hg. Ann Arbor: University of Michigan. -. 1993. Rational Choice and Turnout. American Journal of Political Science 37:246-78. Aldrich, John Α., und Richard D. McKelvey. 1977. A Method of Scaling with Applications to the 1968 and 1972 Presidential Elections. American Political Science Review 71:111-30. Alt, James E„ und Kenneth A. Shepsle. 1990. „Editor's Introduction." In: Perspectives on Positive Political Economy, James E. Alt und Kenneth A. Shepsle, Hg. Cambridge: Cambridge University Press. Andreoni, James. 1988. „Why Free Ride? Strategies and Learning in Public Goods Experiments." Journal of Public Economics 37:291-304. Armstrong, Scott. 1979. „Advocacy and Objectivity in Science." Management Science 25:423- 28. Arrow, Kenneth J. 1951. Social Choice and Individual Values. New Haven: Yale University Press. Asch, S. E. 1958. „Effects of Group Pressure Upon the Modification and Distortion of Judgment." In: Groups, Leadership, and Men, H. Guetkow, Hg. Pittsburgh: Carnegie Press. Ashenfelter, Orley, und Stanley Kelley, Jr. 1975. „Determinants of Participation in Presidential Elections."Journal of Law and Economics 18:695-733.

242

Literatur

Austen-Smith, David. 1984. „The Pure Theory of Large Two-Candidate Elections: A Comment on the Ledyard Paper." Public Choice 44: 43-47. -. 1991. „Rational Consumers and Irrational Voters: A Review Essay on Black Hole Tariffs and Endogenous Policy Theory." Economics and Politics 3:73-92. Austen-Smith, David, und William H. Riker. 1987. „Asymmetric Information and the Coherence of Legislation." American Political Science Review. 81:897-918. -. 1990. „Asymmetric Information and the Coherence of Legislation: A Correction." American Political Science Review. 84:243-45. Axelrod, Robert M. 1984. The Evolution of Cooperation. New York: Basic Books (dt. 1997. Die Evolution der Kooperation. 4. Auflage. München und Wien: Oldenbourg). Bandura, A. 1977. Social Learning Theory, Englewood Cliffs, N.J.: Prentice Hall. Banks, Jeffrey S. 1984. „Sophisticated Voting Outcomes and Agenda Control." Social Choice and Welfare 1:295-306. -. 1989. „Agency Budgets, Cost Information, and Auditing." American Journal of Political Science 33:670-99. Banks, Jeffrey, und D. Roderick Kiewiet. 1989. „Explaining Patterns of Candidate Competition in Congressional Elections." American Journal of Political Science 33:997-1015. Barber, James David. 1977. The Presidential Character: Predicting Performance in the White House, 2. Auflage. Englewood Cliffs, NJ: Prentice-Hall. Baron, David P., und John A. Ferejohn. 1989. „Bargaining in Legislatures." American Political Science Review 83:1181-1206. Barry, Brian M. 1978. Sociologists, Economists And Democracy. New York: Macmillan. -. 1984. „Does Democracy Cause Inflation? Political Ideas of Some Economists." In: The Politics of Inflation and Economic Stagnation: Theoretical Approaches and International Case Studies, Leon N. Lindberg und Charles S. Maier, Hg. Washington, D.C.: The Brookings Institution. Bartholdi, John J., Craig A. Tovey und Michael A. Trick. 1987. The Computational Difficulty of Manipulating an Election. Georgia Institute of Technology. Unveröffentlichtes Manuskript. Barzel, Yoram, und Eugene Silberberg. 1973. „Is the Act of Voting Rational?" Public Choice 16:51-58. Beck, Nathaniel. 1975. „The Paradox of Minimax Regret." American Political Science Review 69:918. Becker, Gary S. 1976. The Economic Approach to Human Behavior. Chicago: The University of Chicago Press (dt. 1982. Der ökonomische Ansatz zur Erklärung menschlichen Verhaltens. Tübingen: Mohr). -. 1986. „The Economic Approach to Human Behavior." In: Rational Choice, John Elster, Hg. New York: New York University Press. Bell, Colin E. 1978. „What Happens When Majority Rule Breaks Down? Some Probability Calculations." Public Choice 33:121-26 Bendor, Jonathan. 1988. „Review Article: Formal Models of Bureaucracy." British Journal of Political Science 18:353-95.

Literatur

243

Benn, Stanley. 1979. „The Problematic Rationality of Political Participation." In: Philosophy, Politics, and Society, Fifth Series: A Collection, Peter Laslett und James Fishkin, Hg. Oxford: Oxford University Press, 291-312. Bentham, Jeremy. 1960. A Fragment on Government and an Introduction to the Principles of Morals and Legislation. Oxford: Basil Blackwell. Bergson, Abram. 1938. „A Reformulation of Certain Aspects of Welfare Economics." Quarterly Journal of Economics 52:314-44. Berl, Janet, Richard D. McKelvey, Peter C. Ordeshook und Mark Winer. 1976. „An Experimental Test of the Core in a Simple N-Person Cooperative Nonsidepayment Game." Journal of Conflict Resolution 20:453-79. Bernhardt, M. Daniel, und Daniel E. Ingberman. 1985. „Candidate Reputations and the 'Incumbency' Effect." Journal of Public Economics 27:47-67. Bernholz, Peter. 1978. „On the Stability of Logrolling Outcomes in Stochastic Games." Public Choice 33:65-82. Bettenhausen, Kenneth L., und J. Keith Murninghan. 1991. „The Development of an Intragroup Norm and the Effects of Interpersonal and Structural Challenges." Administrative Science Quarterly 36:20-35. Biddle, B. J., und Ε. J. Thomas, Hg. 1966. Role Theory: Concepts and Research. New York: Wiley. Black, Duncan. 1958. The Theory of Committees and Elections. Cambridge: Cambridge University Press. Blydenburgh, John C. 1971. „The Closed Rule and the Paradox of Voting." Journal of Politics 33:57-71. Bollen, Kenneth A. 1989. Structural Equations with Latent Variables. New York: Wiley. Boring, Edwin G. 1954. „The Nature and History of Experimental Control." American Journal of Psychology 67:573-89. Bowen, Bruce D. 1972. „Toward an Estimate of the Frequency of Occurrence of the Paradox of Voting in U. S. Senate Roll Call Votes." In: Probability Models of Collective Decision Making, Richard G. Niemi und Herbert F. Weisberg, Hg. Columbus, Ohio: Charles Merrill. Brams, Steven J. 1980. Biblical Games: A Strategic Analysis of Stories in the Old Testament. Cambridge, MA: MIT Press. -. 1993. Theory of Moves. Cambridge: Cambridge University Press. Brams, Steven, und Philip D. Straffin, Jr. 1982. „The Entry Problem in a Political Race." In: Political Equilibrium. Peter C. Ordeshook und Kenneth A. Shepsle, Hg. Boston: Kluwer-Nijhoff. Brennan, Geoffrey, und James M. Buchanan. 1984. „Voter Choice: Evaluating Political Alternatives." American Behavioral Scientist 28:185-201. Brewer, Marilynn B., und Roderick Kramer. 1986. „Choice Behavior in Social Dilemmas: Effects of Social Identity, Group Size, and Decision Framing." Journal of Personality and Social Psychology 50:543-49. Brittan, Samuel. 1977. The Economic Consequences of Democracy. London: Temple Smith. Brody, Richard Α., und Paul Μ. Sniderman. 1977. „Life Space to Polling Place: The Relevance of Personal Concerns for Voting Behavior." British Journal of Political Science 7:337-60.

244

Literatur

Brunk, Gregory G. 1980. „The Impact of Rational Participation Models on Voting Attitudes." Public Choice 35:549-64. Buchanan, James M., und Gordon Tullock. 1962. The Calculus of Consent. Ann Arbor: The University of Michigan Press. Buchanan James M., und Richard E. Wagner. 1977. Democracy in Deficit: The Political Legacy of Lord Keynes. New York: Academic Press. Budge, Ian, und Dennis Farlie. 1977. Voting and Party Competition: A Theoretical Critique and Synthesis Applied to Survey from Ten Democracies. London und New York: Wiley. Bueno de Mesquita, Bruce. 1985. „Toward a Scientific Understanding of International Conflict: A Personal View." International Studies Quarterly 29:121-36. Bueno de Mesquita, Bruce, und David Lalman. 1992. War and Reason: Domestic and International Imperatives. New Haven: Yale University Press. Calvert, Randall L. 1985. „Robustness of Multidimensional Voting Model: Candidate Motivations, Uncertainty, and Convergence." American Journal of Political Science 29:69-95. Cameron, David R. 1988. „Distributional Coalitions and Other Sources of Economic Stagnation: On Olson's 'Rise and Decline of Nations'." International Organizations 42:561- 603. Campbell, Angus, Philip Converse, Warren Miller und Donald Stokes. 1960. The American Voter. New York: Wiley. Campbell, Angus, Gerald Gurin und Warren E. Miller. 1954. The Voter Decides. Evanston, Illinois: Row, Peterson. Campbell, Donald T., und Julian C. Stanley. 1963. Experimental and Quasi-Experimental Designs for Research. Chicago: Rand McNally. Caplin, Andrew, und Barry Nalebuff. 1988. „On 64% Majority Rule." Econometrica 56:787-814. Caro, Robert A. 1990. Means of Ascent. New York: Knopf. Chamberlain, Gary, und Michael Rothschild. 1981. „A Note on the Probability of Casting a Decisive Vote." Journal of Economic Theory 25:152-62. Chamberlin, John R. 1979. „Comments." In: Collective Decision Making: Applications from Public Choice Theory, Clifford S. Russell, Hg. Baltimore: Johns Hopkins University Press, 161-67. Chamberlin, John R., Jerry L. Cohen und Clyde H. Coombs. 1984. „Social Choice Observed: Five Presidential Elections of the American Psychological Association." Journal of Politics 46:479-502. Chappell, Henry W., und William R. Keech. 1986. „Policy Motivation and Party Difference in a Dynamic Spatial Model of Party Competition." American Political Science Review 80:881-899. Cheung, Steven N. S. 1983. „The Contractual Nature of the Firm." Journal of Law and Economics 26:1-21. Chong, Dennis. 1991. Collective Action and the Civil Rights Movement. Chicago: The University of Chicago Press. Cohen, Linda. 1979. „Cyclic Sets in Multidimensional Voting Models." Journal of Economic Theory 20:1-12.

Literatur

245

Cohen, Linda, Michael E. Levine und Charles R. Plott. 1978. „Communication and Agenda Influence: The Chocolate Pizza Design." In: Coalition Forming Behavior, Contributions to Experimental Economics, Heinz Saverman, Hg. Tübingen: Mohr. Coleman, James S. 1986. Individual Interests and Collective Action: Selected Essays. Cambridge: Cambridge University Press. Coleman, James, und Thomas J. Fararo. 1992. Rational Choice Theory: Advocacy and Critique. Newbury Park: Sage Publications. Collier, Kenneth E., Richard D. McKelvey, Peter C. Ordeshook und Kenneth C. Williams. 1987. „Retrospective Voting: An Experimental Study." Public Choice 53:101-130. Connolly, Terry, Brian K. Thorn und Alan Heminger. 1992. „Discretionary Databases as Social Dilemmas." In: Social Dilemmas: Theoretical Issues and Research Findings. William G. Liebrand, David M. Messick und Henk Α. Μ. Wilke, Hg. Oxford und New York: Pergamon Press. Converse, Philip E. 1975. „Public Opinion and Voting Behavior." In: Handbook of Political Science. Fred I. Greenstein, Hg. Reading, Massachusetts: AddisonWesley. Cook, Thomas D., und Donald T. Campbell. 1979. Quasi-Experimentation: Design & Analysis Issues for Field Settings. Boston: Houghton Mifflin. Coughlin, Peter J. 1984. „Probabilistic Voting Models." In: Encyclopedia of Statistical Sciences. S. Kotz, N. Johnson und C. Read, Hg. Band 1. New York: Wiley. -. 1990.,.Majority Rule und Election Models." Journal of Economic Surveys 3:15788. -. 1992. Probabilistic Voting Theory. Cambridge und New York: Cambridge University Press. Cox, Gary W. 1984. „An Expected-Utility Model of Electoral Competition." Quality and Quantity 18:337-49. -. 1987. „The Uncovered Set and the Core." American Journal of Political Science 31:408-22. -. 1988. „Closeness and Turnout: A Methodological Note." Journal of Politics 50:768-75. Cox, Gary, und Mathew D. McCubbins. 1993. Legislative Leviathan: Party Government in the House. Berkeley: University of California Press. Cox, Gary, und Michael C. Munger. 1989. „Closeness, Expenditures, and Turnout in the 1982 U. S. House Elections." American Political Science Review 83:217-32. Crain, W. Mark, Donald R. Leavens und Lynn Abbot. 1987. „Voting and Not Voting at the Same Time." Public Choice 53:221-29. Crenson, Mathew A. 1987. „The Private Stake in Public Goods: Overcoming the Illogic of Collective Action." Policy Sciences 20:259-76. Crews, Frederick. 1993. „The Unknown Freud." New York Review of Books Nov. 18:55-66. Cyr, A. Bruce. 1975. „The Calculus of Voting Reconsidered." Public Opinion Quarterly 39:19-38. Dahl, Robert A. 1971. Polyarchy: Participation and Opposition. New Haven: Yale University Press. Dallek, Robert. 1979. Franklin D. Roosevelt and American Foreign Policy, 19321945. New York: Oxford University Press.

246

Literatur

Davis, Otto Α., Melvin Hinich und Peter Ordeshook. 1970. „An Expository Development of a Mathematical Model of the Electoral Process." American Political Science Review 64:426-48. Dawes, Robyn M. 1991. „Social Dilemmas, Economic Self-interest, and Evolutionary Theory." In: Frontiers of Mathematical Psychology: Essays in Honor of Clyde Coombs. Donald R. Brown und J. E. Keith Smith, Hg. New York: Springer. Dawes, Robyn M., Jeanne McTavish und Harriet Shaklee. 1977. „Behavior, Communication, and Assumptions about Other People's Behavior in a Commons Dilemma Situation." Journal of Personality and Social Psychology 35:1-11. Dawes, Robyn M., John M. Orbeil und Randy T. Simmons. 1986. „Organizing Groups for Collective Action." American Political Science Review 80:1171-85. Dawes, Robyn M., Alphons J. C. van de Kragt und John Μ. Orbell. 1988. „Not Me or Thee but WE: The Importance of Group Identity in Eliciting Cooperation in Dilemma Situations: Experimental Manipulations." Acta Psychologica 68:83-97. Dawson, Paul Α., und James Ε. Zinser. 1976. „Political Finance and Participation in Congressional Elections." Annals of the American Academy of Political and Social Science 425:59-73. DeCanio, Stephen J. 1979. „Proposition 13 and the Failure of Economic Politics." National Tax Journal 32:55-65. Dennis, Jack. 1991. „Theories of Turnout: An Empirical Comparison of Alienationist and Rationalist Perspectives." In: Political Participation and American Democracy. William Crotty, Hg. New York: Greenwood Press. Denzau, Arthur T., und Robert J. Mackay. 1981. „Structure-Induced Equilibria and Perfect Foresight Expectations." American Journal of Political Science 25:762-79. Denzau, Arthur T., William H. Riker und Kenneth A. Shepsle. 1985. „Farquharson and Fenno: Sophisticated Voting and Home Style." American Political Science Review 79:1117-34. Dion, Douglas. 1992. „The Robustness of the Structure-Induced Equilibrium." American Journal of Political Science 36:462-82. Dobra, John L. 1983. „An Approach to Empirical Studies of Voting Paradoxes: An Update and Extension." Public Choice 41:241-50. Dobra, John L., und Gordon Tullock. 1981. „An Approach to Empirical Measures of Voting Paradoxes." Public Choice 36:193-95. Downs, Anthony. 1957. An Economic Theory of Democracy. New York: Harper & Row (dt. 1968. ökonomische Theorie der Demokratie. Tübingen: Mohr). Easterling, Larry J. 1975. „Senator Joseph L. Bristow and the Seventeenth Amendment." Kansas Historical Quarterly 41:488-511. Eavey, Cheryl L. 1991. „Patterns of Distribution in Spatial Games." Rationality and Society 3:450-74. -. 1994. „Preference-Based Stability: Experiments on Cooperative Solutions to Majority Rule Games." In: Social Choice and Political Economy. Norman Schofield, Hg. Boston: Kluwer-Nijhoff. Eavey, Cheryl L., und Gary J. Miller. 1984a. „Bureaucratic Agenda Control: Imposition or Bargaining?" American Political Science Review 78:719-33. -. 1984b. „Fairness in Majority Rule Games Without a Core." American Journal of Political Science 28:570-86.

Literatur

247

Eckel, Catherine, und Charles A. Holt. 1989. „Strategie Voting in Agenda-Controlled Committee Experiments." The American Economic Review 79:763-773. Eckstein, Harry. 1991. „Rationality and Frustration in Political Behavior." In: The Economic Approach to Politics. Kristen Renwick Monroe, Hg. New York: Harper Collins. Elster, Jon. Hg. 1986a. Rational Choice. New York: New York University Press. -. 1986b. „Introduction." In: Rational Choice. Jon Elster, Hg. NewYork: New York University Press. Endersby, James W. 1993. „Rules of Method and Rules of Conduct: An Experimental Study on Two Types of Procedure and Committee Behavior." Journal of Politics 55:218-36. Enelow, James. 1981. „Saving Amendments, Killer Amendments, and an Expected Utility Theory of Sophisticated Voting." Journal of Politics 43:396-413. Enelow, James, James W. Endersby und Michael C. Munger. „A Revised Probabilistic Spatial Model of Elections: Theory and Evidence." In: Information, Participation and Choice. Bernard Grofman, Hg. Ann Arbor: University of Michigan Press. Enelow, James, und Melvin J. Hinich. 1982. „Ideology, Issues, and the Spatial Theory of Elections." American Political Science Review 76:492-501. -. 1983. „On Plott's Pairwise Symmetry Condition for Majority Rule Equilibrium." Public Choice 40:317-21. -. 1984a. „Probabilistic Voting and the Importance of Centrist Ideologies in Democratic Elections." Journal of Politics 46:459-78. -. 1984b. The Spatial Theory of Voting: An Introduction. Cambridge: Cambridge University Press. -. 1989. „A General Probabilistic Spatial Theory of Elections." Public Choice 61:101-13. Enelow, James, Melvin J. Hinich und Nancy R. Mendell. 1986. „An Empirical Evaluation of Alternative Spatial Models of Elections." Journal of Politics 48:675-93. Enelow, James, und David H. Koehler. 1979. „Vote Trading in a Legislative Context: An Analysis of Cooperative and Noncooperative Strategic Voting." Public Choice 34:157-75. -. 1980. „The Amendment in Legislative Strategy: Sophisticated Voting in the U. S. Congress." Journal of Politics 42:396-413. Epple, Dennis, und Michael H. Riordan. 1987. „Cooperation and Punishment Under Repeated Majority Voting." Public Choice 55:41-73. Erikson, Robert S., und David W. Romero. 1990. „Candidate Equilibrium and the Behavioral Model of the Vote." American Political Science Review 84:1103-26. Fedderson, Timothy J. 1992. „A Voting Model Implying Duverger's Law and Positive Turnout." American Journal of Political Science 36:939-62. Feldman, Paul, und James Jondrow. 1984. „Congressional Elections and Local Federal Spending." American Journal of Political Science 28:147-63. Fenno, Richard F. 1966. The Power of the Purse: Appropriations Politics in Congress. Boston: Little, Brown. -. 1978. Home Style: House Members in Their Districts. Boston: Little, Brown.

248

Literatur

Ferejohn, John A. 1991. „Rationality and Interpretation: Parliamentary Elections in Early Stuart England." In: The Economic Approach to Politics: A Critical Reassessment of the Theory of Rational Action. Kristen Renwick Monroe, Hg. New York: Harper Collins. -. 1993. „The Spatial Model and Elections." In: Information, Participation and Choice. Bernard Grofman, Hg. Ann Arbor: University of Michigan Press. Ferejohn, John, und Morris P. Fiorina. 1974. „The Paradox of Not Voting: A Decision Theoretic Analysis." American Political Science Review 68:525-36. -. 1975. „Closeness Counts Only in Horseshoes and Dancing." American Political Science Review 69:920-25. -. 1993. „To Ρ or Not to P? Still Asking After All These Years?" Unveröffentlichtes Manuskript, Stanford University. Filer, John E., und Lawrence W. Kenny. 1980. „Voter Turnout and the Benefits of Voting." Public Choice 35:575-85. Filer, John E., Lawrence W. Kenny und Rebecca B. Morton. 1993. „Redistribution, Income and Voting." American Journal of Political Science 37:63-87. Fiorina, Morris P. 1976. „The Voting Decision: Instrumental and Expressive Aspects." Journal of Politics 38:390-413. -. 1979. „Public Choice in Practice." In: Collective Decision Making: Applications from Public Choice Theory. Clifford S. Russell, Hg. Baltimore und London: Johns Hopkins University Press. -. 1990. „Information and Rationality in Elections." In: Information and Democratic Processes. John A. Ferejohn und James H. Kuklinski, Hg. Urbana und Chicago: University of Illinois. -. 1994. „Divided Government in the American States: A By-Product of Legislative Professionalism?" American Political Science Review 88:304-16. Fiorina, Morris P., und Charles R. Plott. 1978. „Committee Decisions Under Majority Rule: An Experimental Study." American Political Science Review 72:575-98. Fiorina, Morris P., und Kenneth A. Shepsle. 1982. „Equilibrium, Disequilibrium, and the General Possibility of a Science of Politics." In: Political Equilibrium. Peter C. Ordeshook und Kenneth A. Shepsle, Hg. Den Haag: Kluwer-Nijhoff. Fireman, Bruce, und William A. Gamson. 1988. „Utilitarian Logic in the Resource Mobilization Perspective." In: The Dynamics of Social Movements. Mayer N. Zald und John D. McCarthy, Hg. Cambridge, Massachusetts: Winthrop. Fischhoff, Baruch. 1991. „Value Elicitation: Is There Anything There?" American Psychologist 46:835-47. Fishbum, Peter C. 1988. Nonlinear Preference and Utility Theory. Baltimore und London: The Johns Hopkins University Press. Fleishman, John A. 1988. „The Effects of Decision Framing and Others' Behavior on Cooperation in a Social Dilemma." Journal of Conflict Resolution 32:162-180. Foster, Carroll B. 1984. „The Performance of Rational Voter Models in Recent Presidential Elections." American Political Science Review 78:678-90. Frank, Robert H. 1988. Passions Within Reason: The Strategic Role of the Emotions. New York: W. W. Norton, (dt. 1992. Die Strategie der Emotionen. München: Oldenbourg.) Franklin, Charles H., und John E. Jackson. 1983. „The Dynamics of Party Identification." American Political Science Review 77:957-73.

Literatur

249

Fräser, John. 1972. „Why Do High Income People Participate More in Politics? The Wrong Answer." Public Choice 13:115-18. Frey, Bruno. 1971. „Why Do High Income People Participate More in Politics?" Public Choice 11:101-5. Friedman, Milton. 1953. „The Methodology of Positive Economics." In: Essays in Positive Economics. Milton Friedman, Hg. Chicago: University of Chicago Press. Fröhlich, Norman, und Joe A. Oppenheimer. 1978. Modern Political Economy. Englewood Cliffs, N. J.: Prentice Hall. Fröhlich, Norman, Joe A. Oppenheimer, Jeffrey Smith und Oran R. Young. 1978. ,A Test of Downsian Voter Rationality: 1964 Presidential Voting." American Political Science Review 72:178-97. Fröhlich, Norman, Joe A. Oppenheimer und Oran R. Young. 1971. Political Leadership and Collective Goods. Princeton, N.J.: Princeton University Press. Fudenberg, Drew, und Eric Maskin. 1986. „The Folk Theorem in Repeated Games with Discounting or with Incomplete Information." Econometrica 54:533-54. George, Alexander L., und Juliette L. George. 1956. Woodrow Wilson and Colonel House: A Personality Study. New York: J. Day. George Alexander L„ und Richard Smoke. 1974. Deterrence in American Foreign Policy: Theory and Practice. New York: Columbia University Press. Gerber, Elisabeth R., und John E. Jackson. 1993. „Endogenous Preferences and the Study of Institutions." American Political Science Review 87:639-56. Godwin, R. Kenneth, und Robert C. Mitchell. 1984. „The Implications of Direct Mail for Political Organizations." Social Science Quarterly 65:829-39. Goetze, David, und Peter Galderisi. 1989. „Explaining Collective Action with Rational Models." Public Choice 62:25-39. Gosnell, Harold F. 1927. Getting Out The Vote. Chicago: University of Chicago Press. Gould, Stephen Jay. 1992. „The Confusion Over Evolution." The New York Review of Books. 19. November, 47-55. Grafstein, Robert. 1991. „An Evidential Decision Theory of Turnout." American Journal of Political Science 35:989-1010. Gray, Virginia. 1976. „A Note on Competition on Turnout in the American States." Journal of Politics 38:153-58. Green, Donald Philip. 1992. „The Price Elasticity of Mass Preferences." American Political Science Review 86:128-48. Green, Donald Philip, und Jonathan Cowden. 1992. „Who Protests: Self-interest and White Opposition to Busing." Journal of Politics 54:471-96. Green, Donald Philip, und Jonathan S. Krasno. 1988. „Salvation for the Spendthrift Incumbent: Reestimating the Effects of Campaign Spending in House Elections." American Journal of Political Science 32:884-907. Green, Donald Philip, und Bradley L. Palmquist. 1990. „Of Artifacts and Partisan Instability." American Journal of Political Science 34:872- 902. Greenstein, Fred I. 1982. The Hidden-Hand Presidency: Eisenhower as Leader. New York: Basic Books. Grofman, Bernard. 1993a. „Is Turnout the Paradox that Ate Rational Choice Theory?" In: Information, Participation and Choice. Bernard Grofman, Hg. Ann Arbor: University of Michigan Press.

250

Literatur

-. 1993b. „On the Gentle Art of Rational Choice Bashing." In: Information, Participation and Choice. Bernard Grofman, Hg. Ann Arbor: University of Michigan Press. -. 1993c. „Toward an Institution-Rich Theory of Political Competition with a Supply Side Component." In: Information, Participation and Choice. Bernard Grofman, Hg. Ann Arbor: University of Michigan Press. Grofman, Bernard, Robert Griffin und Amihai Glazer. 1990. „Identical Geography, Different Party: A Natural Experiment on the Magnitude of Party Differences in the U. S. Senate, 1960-1984." In: Developments in Electoral Geography. R. J. Johnston, Peter Taylor und J. F. Shelley, Hg. London: Croom Helm. Grofman, Bernard, und Carole Uhlaner. 1985. „Metapreferences and the Reasons for Stability in Social Choice: Thoughts on Broadening and Clarifying the Debate." Theory and Decision 19:31-50. Gross, Bertram M. 1953. The Legislative Struggle: A Study in Social Combat. New York: McGraw-Hill. Hammond, Thomas H., und Brian D. Humes. 1993. „'What This Campaign Is All about Is ...': A Rational Choice Alternative to the Downsian Spatial Model of Elections." In: Information, Participation and Choice. Bernard Grofman, Hg. Ann Arbor: University of Michigan Press. Hammond, Thomas H„ und Gary J. Miller. 1987. „The Core of the Constitution." American Political Science Review 81:1155-74. Hampton, Jean. 1987. „Free-Rider Problems in the Production of Collective Goods." Economics and Philosophy 3:245-73. Hansen, John Mark. 1985. „The Political Economy of Group Membership." American Political Science Review 79:79-96. Hardin, Garrett. 1968. „The Tragedy of the Commons." Science 162:1243-48. Hardin, Russell. 1971. „Collective Action as an Agreeable N-Person Prisoner's Dilemma." Behavioral Science 16:472-81. -. 1979. „National Environmental Lobbies and the Apparent Illogic of Collective Action: A Comment." In: Collective Decision Making: Applications from Public Choice Theory. Clifford S. Russell, Hg. Baltimore und London: Johns Hopkins University Press. -. 1982. Collective Action. Baltimore: Johns Hopkins University Press. Harsanyi, John C. 1986. „Advances in Understanding Rational Behavior." In: Rational Choice. Jon Elster, Hg. New York: New York University Press. Hartley, Richard, und D. Marc Kilgour. 1987. „The Geometry of the Uncovered Set in the Three-Voter Spatial Model." Mathematical Social Sciences 14:175-83. Harvard Law Review. 1991. „Environmental Activism and the Collective Action Problem." 104:1705-10. Haynes, George H. 1938. The Senate of the United States. Boston: Houghton Mifflin. Hechter, Michael. 1987. Principles of Group Solidarity. Berkeley: University of California Press. Hedges, Roman B. 1984. „Reasons for Political Involvement: A Study of Contributors to the 1972 Presidential Campaign." Western Political Quarterly 37:257-71. Herzberg, Roberta, und Rick Wilson. 1988. „Results on Sophisticated Voting in an Experimental Setting." Journal of Politics 50:471-86.

Literatur

251

-. 1991. „Costly Agendas and Spatial Voting Games: Theory and Experiments on Agenda Access Costs." In: Laboratory Research in Political Economy. Thomas R. Palfrey, Hg. Ann Arbor: University of Michigan Press. Hibbs, Douglas A. Jr. 1977. „Political Parties and Macroeconomic Policy." American Political Science Review 71:1467-87. Hinich, Melvin J., John Ledyard und Peter C. Ordeshook. 1972. „Nonvoting and Existence of Equilibrium Under Majority Rule". Journal of Economic Theory 4:144-53. -. 1981. „Voting as an Act of Contribution." Public Choice 36:135-40. Hirsch, Eric Donald. 1987. Cultural Literacy: What Every American Needs to Know. Boston: Houghton Mifflin. Hochshild, Jennifer L. 1981. What's Fair? American Beliefs about Distributive Justice. Cambridge, Massachusetts: Harvard University Press. Hoenack, Stephen A. 1983. „On the Stability of Legislative Outcomes." Public Choice 41:251-60. Hoffman, Elizabeth, und Edward W. Packel. 1982. „A Stochastic Model of Committee Voting With Exogenous Costs: Theory and Experiments." Behavioral Science 27:43-56. Hoffman, Elizabeth, und Charles R. Plott. 1983. „Pre-Meeting Discussions and the Possibility of Coalition-Breaking Procedures in Majority Rule Committees." Public Choice 40:21-39. Hoffman, Elizabeth, und Matthew L. Spitzer. 1982. „The Coase Theorem: Some Experimental Tests." Journal of Law and Economics 25:73-98. -. 1985. „Entitlements, Rights, and Fairness: An Experimental Examination of Subjects' Concepts of Distributive Justice." Journal of Legal Studies 14:259-97. Hotelling, Harold. 1929. Stability in Competition. Economic Journal 39:41-57. Imig, Douglas R. 1992. „Resource Mobilization and Survival Tactics of Poverty Advocacy Groups." Western Political Quarterly 45:501-21. Isaac, R. Mark, K. F. McCue und Charles Plott. 1985. „Public Goods Provision in an Experimental Environment." Journal of Public Economics 26:51-74. Isaac, R. Mark, und Charles Plott. 1978. „Cooperative Game Models of the Influence of the Closed Rule in Three-Person Majority Rule Committees: Theory and Experiment." In: Game Theory and Political Science. Peter C. Ordeshook, Hg. New York: New York University Press. Isaac, R. Mark, James H. Walker und Susan H. Thomas. 1984. „Divergent Evidence on Free-Riding." Public Choice 43:113-49. Jackman, Robert W. 1993. „Rationality and Political Participation." American Journal of Political Science 37:279-90. Jacobson, Gary C. 1993. „Deficit-Cutting Politics and Congressional Elections." Political Science Quarterly 108:375-403. Jenkins, J. Craig, und Charles Perrow. 1977. „Insurgency of the Powerless: Farm Worker Movements (1946-1972)." American Sociological Review 42:249-68. Johnson, James D. 1991. „Rational Choice as A Reconstructive Theory." In: The Economic Approach to Politics: A Critical Reassessment of the Theory of Rational Action. Kristen Renwick Monroe, Hg. New York: Harper Collins.

252

Literatur

Kahneman, Daniel, und I. Ritov. 1994. „Determinants of Stated Willingness to Pay for Public Goods: A Study in the Headline Method." Journal of Risk and Uncertainty. 9:1-38. Kahneman, Daniel, und Amos Tversky. 1979. „Prospect Theory: An Analysis of Decision Under Risk." Econometrica 47:263-91. Kahneman, Daniel. 1984. „Choices, Values, and Frames." American Psychologist 39:341-50. Kaiisch, G„ J. W. Milnor, J. Nash und Ε. D. Nering. 1954. „Some Experimental NPerson Games." In: Decision Processes. R. M. Thrall, C. H. Coombs und R. L. Davis, Hg. New York: Wiley. Kaplan, Abrahman. 1964. The Conduct of Inquiry. San Francisco: Chandler. Kaplowitz, Stan, und Bradley Fisher. 1985. „Revealing the Logic of Free-Riding and Contributions to the Nuclear Freeze Movement." Research in Social Movements 8:47-64. Kau, James B., und Paul H. Rubin. 1976. „The Electoral College and the Rational Vote." Public Choice 27:101-07. Kavka, Gregory S. 1991. „Rational Maximizing in Economic Theories of Politics." In: The Economic Approach to Politics: A Critical Reassessment of the Theory of Rational Action. Kristen Renwick Monroe, Hg. New York: Harper Collins. Kelman, Mark. 1988. „On Democracy Bashing: A Skeptical Look at the Theoretical and 'Empirical' Practice of the Public Choice Movement." Virginia Law Review 74:199-273. Kerr, Norbert L. 1989. „Illusions of Efficacy: The Effects of Group Size on Perceived Efficacy in Social Dilemmas." Journal of Experimental Social Psychology 25:287-313. Key, V. O. Jr. 1965. Public Opinion and American Democracy. New York: Knopf. Kiewiet, Roderick D., und Matthew D. McCubbins. 1991. The Logic of Delegation. Chicago und London: University of Chicago Press. Kim, Oliver, und Mark Walker. 1984. „The Free Rider Problem: Experimental Evidence." Public Choice 43:3-24. Klosko, George. 1987. „Rebellious Collective Action Revisited." American Political Science Review 81:557-61. Knack, Stephen. 1992. „Civic Norms, Social Sanctions, and Voter Turnout." Rationality and Society 4:133-56. -. 1993a. „Political Participation and American Democracy." Public Choice 75:297300. -. 1993b. „The Voter Participation Effects of Selecting Jurors from Registration Lists." Journal of Law and Economics 36:99-114. -. 1994. „Does Rain Help the Republicans? Theory and Evidence on Turnout and the Vote". Public Choice. Knight, Jack. 1992. „Social Norms and Economic Institutions." American Political Science Review 86:1063-64. Knoke, David. 1988. „Incentives in Collective Action Organizations." American Sociological Review 53:311-30. -. 1990. Organizing for Collective Action: The Political Economies of Associations. New York: Aldine de Gruyter.

Literatur

253

Kollman, Ken, John H. Miller und Scott E. Page. 1992. „Adaptive Parties and Spatial Elections." American Political Science Review 86:929-937. Komorita, Samuel S., und Joan Μ. Barth. 1985. „Components of Reward in Social Dilemmas." Journal of Personality and Social Psychology 48:364-73. Kormendi, Roger C., und Charles R. Plott. 1982. „Committee Decisions under Alternative Procedural Rules." Journal of Economic Behaviour and Organization 3:175-95. Kramer, Gerald H. 1972. „Sophisticated Voting over Multidimensional Choice Spaces." Journal of Mathematical Sociology 2:165-80. -. 1973. „On a Class of Equilibrium Conditions for Majority Rule." Econometrica 41:285-97. -. 1977. „A Dynamical Model of Political Equilibrium." Journal of Economic Theory 12:472-82. Kramer, Roderick, und Marilynn B. Brewer. 1984. „Effects of Group Identity on Resource Use in a Simulated Commons Dilemma." Journal of Personality and Social Psychology 46:1044-57. -. 1986. „Social Group Identity and the Emergence of Cooperation in Resource Conservation Dilemmas." In: Experimental Social Dilemmas. Henk A. M. Wilke, David Messick und Christel G. Rütte, Hg. Frankfurt am Main: Peter Lang. Krehbiel, Keith. 1987. „Institutional Erosion of Committee Power." American Political Science Review 81:929-35. -. 1988. „Spatial Models of Legislative Choice." Legislative Studies Quarterly 13:259-319. -. 1991. Information and Legislative Organization. Ann Arbor: University of Michigan Press. Krehbiel, Keith, und Douglas Rivers. 1990. „Sophisticated Voting in Congress: A Reconsideration." Journal of Politics 52:548-78. Kuhn, Thomas S. 1962. The Structure of Scientific Revolutions. Chicago: University of Chicago Press, (dt. 1967. Die Struktur wissenschaftlicher Revolutionen. Frankfurt am Main: Suhrkamp). Laing, J. D., und S. Olmstead. 1978. „An Experimental and Game-Theoretic Study of Committees." In: Game Theory and Political Science. Peter C. Ordeshook, Hg. New York: New York University Press. Laing, J. D., und Benjamin Slotznick. 1987. „Viable Alternatives to the Status Quo." Journal of Conflict Resolution 31:63-85. -. 1991. „When Anyone Can Veto: A Laboratory Study of Committees Governed by Unanimous Rule." Behavioral Science 36:179-95. Lakatos, Imre. 1970. „Falsification and the Methodology of Scientific Research Programmes." In: Criticism and the Growth of Knowledge. Imre Lakatos und Alan Musgrave, Hg. Cambridge: Cambridge University Press. -. 1982. Die Methodologie der wissenschaftlichen Forschungsprogramme. John Worrall und Gregory Cunie, Hg. Braunschweig, Wiesbaden: Vieweg. Lalman, David, Joe Oppenheimer und Piotr Swistak. 1993. „Formal Rational Choice Theory: A Cumulative Science of Politics." In: Political Science: The State of the Discipline II. Ada W. Finifter, Hg. Washington, D. C.: American Political Science Association.

254

Literatur

Lane, Robert Ε. 1991. The Market Experience. New York: Cambridge University Press. Laver, Michael. 1980. „Political Solutions to the Collective Action Problem." Political Studies 28:195-209. -. 1981. The Politics of Private Desires: The Guide to the Politics of Rational Choice. New York: Penguin Books. Ledyard, John O. 1981. „The Paradox of Voting and Candidate Competition: A General Equilibrium Analysis." In: Essays in Contemporary Fields of Economics. G. Horwich und J. Quirk, Hg. West Lafayette, Indiana: Purdue University Press. -. 1984. „The Pure Theory of Large Two-Candidate Elections." Public Choice 44:741. Lindbeck, Assar. 1976. „Stabilization Policy in Open Economies with Endogenous Politicians." American Economic Review 66:1-19. Linder, D. E. 1981. „Social Trap Analogs: The Tragedy of the Commons in the Laboratory." In: Cooperation and Helping Behavior, Theories and Research. K. J. Derlage und J. Grzlak, Hg. New York: Academic Press. Lipset, Seymour Martin, und William Schneider. 1983. The Confidence Gap: Business, Labor, and Government in the Public Mind. New York: Free Press. Londregan, John, und Thomas Romer. 1993. „Polarization, Incumbency, and the Personal Vote." In: Political Economy: Institutions, Competition, and Representation. William A. Barnett, Melvin J. Hinich und Norman J. Schofield, Hg. Cambridge: Cambridge University Press. Lowenstein, Daniel H. 1982. „Campaign Spending and Ballot Propositions: Recent Experience, Public Choice Theory and the First Amendment." University of California Law Review 29:505-641. Lowenstein, George F., Max H. Bazerman und Leigh Thompson. 1989. „Social Utility and Decision Making in Interpersonal Contexts." Journal of Personality and Social Psychology 57:426-41. Lowi, Theodore J. 1992. „The State in Political Science: How We Become What We Study." American Political Science Review 86:1-8. Luce, Duncan R., und Howard Raiffa. 1957. Games and Decisions. New York: Wiley. Lupia, Arthur. 1994. „Shortcuts Versus Encyclopedias: Information and Voting Behavior in California Insurance Reform Elections." American Political Science Review 88:63-76. Maoz, Zeev. 1990. National Choices and International Processes. Cambridge: Cambridge University Press. Margolis, Howard. 1977. „Probability of aTie Election." Public Choice 31:134-37. -. 1982. Selfishness, Altruism, and Rationality: A Theory of Social Choice. Chicago: University of Chicago Press. Markus, Gregory B. 1982. „Political Attitudes During an Election Year: A Report on the 1980 NES Panel Study." American Political Science Review 76:538-60. Marsh, David. 1976. „On Joining Interest Groups: An Empirical Consideration of the Work of Mancur Olson, Jr." British Journal of Political Science 6:257-71. Marwell, Gerald, und Ruth E. Ames. 1979. „Experiments on the Provision of Public Goods I: Resources, Interest, Group Size, and the Free Rider Problem." American Journal of Sociology 84:1335-60.

Literatur

255

-. 1980. „Experiments on the Provision of Public Goods II: Provision Points, Stakes, Experience, and the Free Rider Problem." American Journal of Sociology 85:92637. Marwell, Gerald, und Pamela Oliver. 1993. The Critical Mass in Collective Action: A Micro-Social Theory. Cambridge and New York: Cambridge University Press. Matsunga, Spark M., and Ping Chen. 1976. Rulemakers of the House. Urbana: University of Illinois Press. Matthews, Donald R. 1960. U. S. Senators and Their World. New York: Vintage. Mayhew, David R. 1974. Congress: The Electoral Connection. New Haven: Yale University Press. -. 1991. Divided We Govern. New Haven: Yale University Press. McCubbins, Mathew D. 1991. „Government on Lay-Away: Federal Spending and Deficit Under Divided Party Control." In: The Politics of Divided Government. Gary W. Cox und Samuel Kemell, Hg. Boulder: Westview Press. McCubbins, Mathew D., und Thomas Schwartz. 1984. „Congressional Oversight Overlooked: Police Patrols versus Fire Alarms." American Journal of Political Science 28:165-79. -. 1985. „The Politics of Flatland." Public Choice 46:45-60. McDaniel, William C., und Frances Sistrunck. 1991. „Management Dilemmas and Decisions." Journal of Conflict Resolution 35:21-42. McKelvey, Richard D. 1976. „Intransitivities in Multidimensional Voting Models and Some Implications for Agenda Control." Journal of Economic Theory 12:472-82. -. 1986. „Covering, Dominance, and Institution Free Properties of Social Choice." American Journal of Political Science 30:283-315. -. 1991. „An Experimental Test of a Stochastic Game Model of Committee Bargaining." In: Laboratory Research in Political Economy. Thomas R. Palfrey, Hg. Ann Arbor: University of Michigan Press. McKelvey, Richard D., und Peter C. Ordeshook. 1976. „Symmetric Spatial Games Without Majority Rule Equilibria." American Political Science Review 70:117284. -. 1979. „An Experimental Test of Several Theories of Committee Decision-Making under Majority Rule." In: Applied Game Theory. S. Brams, A. Schotter und G. Schwodiauer, Hg. Wtirzburg: Physica. -. 1980. „Vote Trading: An Experimental Study." Public Choice 35:151-84. -. 1981. „Experiments on the Core: Some Disconcerting Results for Majority Rule Voting Games." Journal of Conflict Resolution 25:709-24. -. 1982. „An Experimental Test of Solution Theories for Cooperative Games in Normal Form." In: Political Equilibrium. Peter C. Ordeshook und Kenneth A. Shepsle, Hg. Den Haag: Kluwer-Nijhoff. -. 1983. „Some Experimental Results That Fail to Support the Competitive Solution." Public Choice 40:281-91. -. 1984a. „An Experimental Study of the Effects of Procedural Rules on Committee Behavior." Journal of Politics 46: 182-205. -. 1984b. „Rational Expectations in Elections: Some Experimental Results Based on a Multidimensional Model." Public Choice 44:61-102.

256

Literatur

-. 1986. „Sequential Elections with Limited Information: A Formal Analysis." Social Choice and Welfare 3:199-211. -. 1987. „Elections with Limited Information: A Multidimensional Model." Mathematical Social Sciences 14:77-99. -. 1990a. „A Decade of Experimental Research on Spatial Models of Elections and Committees." In: Advances in the Spatial Theory of Voting. James M. Enelow und Melvin J. Hinich, Hg. Cambridge: Cambridge University Press. -. 1990b. „Information and Elections: Retrospective Voting and Rational Expectations." In: Information and Democratic Processes. John A. Ferejohn und James H. Kuklinski, Hg. Chicago: University of Illinois Press. McKelvey, Richard D„ Peter C. Ordeshook und Mark D. Winer. 1978. „The Competitive Solution for N-Person Games Without Transferable Utility, with an Application to Committee Games." American Political Science Review 72: 599615. McKelvey, Richard D., und Raymond Riezman. 1992. „Seniority in Legislatures." American Political Science Review 86:951-65. McKelvey, Richard D., und Howard Rosenthal. 1978. „Coalition Formation, Policy Distance, and The Theory of Games Without Sidepayments: An Application to the French Apparentement System." In: Game Theory and Political Science. Peter C. Ordeshook, Hg. New York: New York University Press. McKenzie, Richard. 1976. „Politics, Learning, and Public Goods Literacy." Frontiers of Economics. Blacksburg, Virginia: Center for the Study of Public Choice. Meehl, Paul E. 1977. „The Selfish Citizen Paradox and the Throw Away Vote Argument." American Journal of Political Science 71:11-30. Meitzer, Allan H., und Scott F. Richard. 1978. „Why Government Grows (and Grows) in a Democracy." Public Interest 52:111-18. -. 1981. „A Rational Theory of the Size of Government." Journal of Political Economy. 89:914-27. Messick, David, und Christel G. Rütte. 1992. „The Provision of Public Goods by Experts: The Gronigen Study." In: Social Dilemmas: Theoretical Issues and Research Findings. Wim Liebrand, David Messick und Henk Wilke, Hg. New York und Oxford: Pergamon Press. Mezey, Susan Gluck. 1992. In Pursuit of Equality: Women, Public Policy, and the Federal Courts. New York: St. Martin's Press. Michelson, Melissa R. 1994. The Effect of Presidential Approval on Presidential Power. Ph. D. Dissertation, Yale University. Michener, H. Andrew, and Kenneth Yuen. 1982. „A Competitive Test of the Cores Solution in Side-Payment Games." Behavioral Science 27:57-68. Miller, Arthur H., Martin P. Wattenberg und Oksana Malanchuk. 1986. „Schematic Assessments of Presidential Candidates." American Political Science Review 80:521-40. Miller, Gary J., und Thomas H. Hammond. 1990. „Committees and the Core of the Constitution." Public Choice 66:201-27. Miller, Gary J., und Joe A. Oppenheimer. 1982. „Universalism in Experimental Committees." American Political Science Review 76:561-74. Miller, Nicholas R. 1980. „A New Solution Set for Tournaments and Majority Voting." American Journal of Political Science 21:769-803.

Literatur

257

-. 1983. „Pluralism and Social Choice." American Political Science Review 77:73447. Miller, Richard. 1987. Fact and Method. Princeton, N.J.: Princeton University Press. Mitchell, D. W. 1987. „Candidate Behavior under Mixed Motives." Social Choice and Welfare 4:153-60. Mitchell, Robert C. 1979. „National Environmental Lobbies and the Apparent IIlogic of Collective Action." In: Collective Decision-Making. C. Russell, Hg. Baltimore: Johns Hopkins University Press. Mitchell, Robert C., und R. T. Carson. 1989. Using Surveys to Value Public Goods: The Contingent Valuation Method. Washington D.C.: Resources for the Future. Mitroff, Ian. 1972. „The Myth of Objectivity or Why Science Needs a New Psychology of Science." Management Science 18:B613-B618. Moe, Terry M. 1979. „On the Scientific Status of Rational Choice Theory." American Journal of Political Science 23:215-43. -. 1980. The Organization of Interests: Incentives and the Internal Dynamics of Political Interest Groups. Chicago: University of Chicago Press. -. 1987. „An Assessment of the Positive Theory of Congressional Dominance." Legislative Studies Quarterly 12:475-520. -. 1989. „The Politics of Bureaucratic Structure." In: Can the Government Govern? John Chubb und Paul Peterson, Hg. Washington, D.C.: Brookings Institution. Monroe, Kristen R. 1991. „The Theory of Rational Action: What Is It? How Useful is It for Political Science?" In: Political Science: Looking to the Future. William Crotty, Hg. Evanston, Illinois: Northwestern University Press. Morton, Rebecca B. 1991. „Groups in Rational Turnout Models." American Journal of Political Science 35:758-76. -. 1993. „Incomplete Information and Ideological Explanations of Platform Divergence." American Political Science Review 87:382-92. Morton, Rebecca B., und Charles Cameron. 1992. „Elections and the Theory of Campaign Contributions: A Survey and Critical Analysis." Economics and Politics 4:79-108. Mosca, Gaetano. 1939. The Ruling Class. New York: McGraw-Hill. Mueller, Dennis C. 1979. „Public Choice in Practice: A Comment." In: Collective Decision Making: Applications from Public Choice Theory. Clifford S. Russell, Hg. Baltimore und London: Johns Hopkins University. -. 1989. Public Choice II. Cambridge: Cambridge University Press. Müller, Edward, und Karl-Dieter Opp. 1986. „Rational Choice and Rebellious Collective Action." American Political Science Review 80:471-87. -. 1987. „Controversy: Rebellious Collective Action Revisited." American Political Science Review 81:561-64. Myerson, Roger B. 1991. Game Theory: Analysis of Conflict. Cambridge, Massachusetts: Harvard University Press. Nagler, Jonathan. 1991. „ The Effect of Registration Laws and Education on U. S. Voter Turnout." American Political Science Review 85:1393-1406. Nash, John F., Jr. 1950. „The Bargaining Problem." Econometrica 18:155-62. Neuman, Russell W. 1986. The Paradox of Mass Politics: Knowledge and Opinion in the American Electorate. Cambridge, Massachusetts: Harvard University Press.

258

Literatur

Niemi, Richard G. 1976. „Costs of Voting and Nonvoting." Public Choice 27:11519. -. 1983. „Why So Much Stability?: Another Opinion." Public Choice 41:261-70. Niemi, Richard G.,und Herbert F. Weisberg, Hg. 1972. Probability Models of Collective Decision Making. Columbus, Ohio: Charles Merrill. Noll, Roger G. 1989. „The Economic Theory of Regulation after a Decade of Deregulation: A Comment." In: Brookings Papers on Economic Activity: Microeconomics. Martin Neil Baily und Clifford Winston, Hg. Washington D.C.: Brookings Institution. Noll, Roger G„ und Barry R. Weingast. 1991. „Rational Actor Theory, Social Norms, and Policy Implementation: Applications to Administrative Processes and Bureaucratic Culture." In: The Economic Approach to Politics: A Critical Reassessment of the Theory of Rational Action. Kristen Renwick Monroe, Hg. New York: Harper Collins. Nordhaus, William D. 1975. „The Political Business Cycle. Review of Economic Studies 42:169-90. Nozick, Robert. 1974. Anarchy, State, and Utopia. New York: Basic Books (dt. 1976. Anarchie, Staat und Utopie. München: Moderne Verlags Gesellschaft). Oberschall, Anthony. 1980. „Loosely Structured Collective Conflict: A Theory and an Application." In: Research in Social Movements, Conflicts, and Change. Louis Kriesberg, Hg. Greenwich, Connecticut: JAI Press. O'Brien, David. 1974. „The Public Goods Dilemma and the 'Apathy' of the Poor Toward Neighborhood Organization." Social Service Review 48:229-244. Oliver, Pam. 1984. „'If You Don't Do It, Nobody Else Will': Active and Token Contributors to Local Collective Action." American Sociological Review 49:601-10. Olsen, Marvin E. 1968. „Perceived Legitimacy of Social Protest Actions." Social Problems 15:297-310. Olson, Mancur, Jr. 1965, 1971. The Logic of Collective Action. Cambridge: Harvard University Press, (dt. 1968. Die Logik des kollektiven Handelns. Tübingen: Mohr). -. 1979. „Group Size and Contributions to Collective Action: A Response." Research in Social Movements, Conflicts and Change 2:149-50. -. 1982. The Rise and Decline of Nations: Economic Growth, Stagflation, and Social Rigidities. New Haven: Yale University Press (dt. 1985. Aufstieg und Niedergang von Nationen: Ökonomisches Wachstum, Stagflation und soziale Starrheit. Tübingen: Mohr). -. 1990. „Is Britain the Wave of the Future? How Ideas Affect Societies." In: The Rise and Decline of the Nation State. Michael Mann, Hg. Cambridge, Massachusetts: Blackwell. -. 1991. „Can We Still Get Rid of Saddam?" Washington Post May 26,1991:D2. Ordeshook, Peter C. 1982. „Political Disequilibrium and Scientific Inquiry." In: Political Equilibrium. Peter C. Ordeshook und Kenneth A. Shepsle, Hg. Boston: Kluwer- Nijhoff. -. 1986. Game Theory and Political Science, Cambridge: Cambridge University Press. -. 1992. A Political Theory Primer. New York: Routledge.

Literatur

259

-. 1993. „The Development of Contemporary Political Theory." In: Political Economy: Institutions, Competition, and Representation. William A. Bamett, Melvin J. Hinich und Norman J. Schofield, Hg. Cambridge: Cambridge University Press. Ordeshook, Peter C., und Thomas Schwartz. 1987. „Agendas and The Control of Political Outcomes." American Political Science Review 81:179-199. Ordeshook, Peter C., und Kenneth A. Shepsle, Hg. 1982. Political Equilibrium. Boston: Kluwer-Nijhoff. Ostrom, Elinor, und James Walker. 1991. „Communication in a Commons: Cooperation without External Enforcement." In: Laboratory Research in Political Economy. Thomas R. Palfrey, Hg. Ann Arbor: The University of Michigan Press. Ostrom, Elinor, James Walker und Roy Gardner. 1992. „Covenants With and Without a Sword: Self-Governance is Possible." American Political Science Review 86:404-17. Ostrosky, Anthony L. 1984. „The Electoral College and Voter Participation Rates: A Comment." Public Choice 43:99-100. Owen, Guillermo, und Bernard Grofman. 1984. „To Vote or Not to Vote: The Paradox of Nonvoting." Public Choice 42:311-25. Page, Benjamin I. 1977. „Elections and Social Choice: the State of Evidence." American Journal of Political Science 21:639-68. -. 1978. Choice and Echoes in Presidential Elections. Chicago: University of Chicago Press. Page, Benjamin I., und Robert Y. Shapiro. 1983. „Effects of Public Opinion on Policy." American Political Science Review 77:175-90. Palfrey, Thomas R. 1984. „Spatial Equilibrium with Entry." Review of Economic Studies 51:139-156. -, 1991. „Introduction." In: Laboratory Research in Political Economy. Thomas R. Palfrey, Hg. Ann Arbor: University of Michigan Press. Palfrey, Thomas R„ und Howard Rosenthal. 1983. „A Strategic Calculus of Voting." Public Choice 41:7-53. -. 1985. „Voter Participation and Strategic Uncertainty." American Political Science Review 79:62-78. -. 1988. ,JPrivate Incentives in Social Dilemmas." Journal of Public Economics 35:309-32. Palmquist, Bradley L. 1993. Ecological Inferences, Aggregate Data Analysis of U. S. Elections, and the Socialist Party of America. Ph. D. Dissertation, University of California at Berkeley. Panning, William H. 1982. „Rational Choice and Congressional Norms." Western Political Quarterly 35:193-203. Parsons, Talcott, und Robert F. Bales. 1955. Family. Glencoe, Illinois: The Free Press. Patterson, Samuel C., und Greg A. Caldeira. 1983. „Getting Out the Vote: Participation in Gubernatorial Elections." American Political Science Review 77:675-89. Paulos, John Allen. 1988. Innumeracy: Mathematical Illiteracy and Its Consequences. New York: Hill and Wang. Peltzman, Sam. 1980. „The Growth of Government." Journal of Law and Economics 23:209- 88.

260

Literatur

Plott, Charles R. 1967. „A Notion of Equilibrium and Its Possibility under Majority Rule." American Economic Review 57:787-806. -. 1979. „The Application of Laboratory Experimental Methods to Public Choice." In: Collective Decision Making: Applications from Public Choice Theory. Clifford S. Russell, Hg. Baltimore: Johns Hopkins University Press. Plott, Charles R„ und Michael E. Levine. 1978. „A Model of Agenda Influence on Committee Decisions." American Economic Review 68:146-160. -. 1991. „A Comparative Analysis of Direct Democracy, Two-Candidate Elections, and Three-Candidate Elections in an Experimental Environment." In: Laboratory Research in Political Economy. Thomas R. Palfrey, Hg. Ann Arbor: The University of Michigan Press. Plott, Charles R., und Vernon L. Smith. 1979. „Further Comments." In: Collective Decision Making: Applications from Public Choice Theory. Clifford S. Russell, Hg. Baltimore: Johns Hopkins University Press. Polsby, Nelson W., und Aaron Wildavsky. 1991. Presidential Elections: Contemporary Strategies of American Electoral Politics, 8. Auflage. New York: Free Press. Poole, Keith T., und Howard Rosenthal. 1984. „The Polarization of American Politics." Journal of Politics 46:1061-79. Popkin, Samuel L. 1991. The Reasoning Voter. Chicago: University of Chicago Press. -. 1993. „Information Shortcuts and the Reasoning Voter." In: Information, Participation and Choice. Bernard Grofman, Hg. Ann Arbor: University of Michigan Press. Popper, Karl. 1959. The Logic of Scientific Discovery. New York: Lisher (dt. 1935. Die Logik der Forschung. Wien: Julius Springer). -. 1963. Conjectures and Refutations: The Growth of Scientific Knowledge. London: Routledge and Kegan Paul (dt. 1994 und 1997. Vermutungen und Widerlegungen: Das Wachstum wissenschaftlicher Erkenntnis. 2 Teilbände. Tübingen: Mohr). Posner, Richard A. 1972. „A Theory of Negligence." Journal of Legal Studies 1:2996. -. 1979. „Some Uses and Abuses of Economics in Law." University of Chicago Law Review. 46:281-306. -. 1980. „The Ethical and Political Basis of the Efficiency Norm in Common Law Adjudication." Hofstra Law Review 8:487-551. -. 1985. „An Economic Theory of the Criminal Law." Columbia Law Review 85:1193-1231. Presser, Stanley, und Michael Traugott. 1992. „Little White Lies and Social Science Models: Correlated Response Errors in a Panel Study of Voting." Public Opinion Quarterly 56:77-86. Przeworski, Adam. 1991. Democracy and the Market. Cambridge: Cambridge University Press. Przeworski, Adam, und Henry Teune. 1970. Logic of Comparative Social Inquiry: Comparative Studies in Behavioral Science. New York: Wiley-Interscience. Quattrone, George Α., und Amos Tversky. 1988. „Contrasting Rational and Psychological Analyses of Political Choice." American Political Science Review 82:71936.

Literatur

261

Ragsdale, Lyn, und Timothy E. Cook. 1987. „Representatives' Actions and Challengers' Reactions: Limits to Candidate Connections in the House." American Journal of Political Science 31:45-81. Rapoport, Anatol. 1985. „Provision of Public Goods and the Minimal Contributing Set Experimental Paradigm." American Political Science Review 79:148-55. Rieselbach, Leroy N. 1992. „Purposive Politicians Meet the Institutional Congress: A Review Essay." Legislative Studies Quarterly 17:95- 111. Riker, William H. 1958. „The Paradox of Voting and Congressional Rules for Voting on Amendments." American Political Science Review 52:349-66. -. 1965. „Arrow's Theory and Some Examples of the Paradox of Voting." In: Mathematical Applications in Political Science, Volume 1. John M. Claunch, Hg. Dallas: Southern Methodist University Press. -. 1980. „Implications from the Disequilibrium of Majority Rule for the Study of Institutions." American Political Science Review 74:432-47. -. 1982. Liberalism against Populism. San Francisco: Freeman. -. 1986. The Art of Political Manipulation. New Haven: Yale University Press. -. 1990. „Political Science and Rational Choice." In: Perspectives on Positive Political Economy. James E. Alt und Kenneth A. Shepsle, Hg. Cambridge: Cambridge University Press. -. 1992. „The Justification of Bicameralism." International Political Science Review 13:101-16. Riker, William, und Peter C. Ordeshook. 1968. „A Theory of the Calculus of Voting." American Political Science Review 62:25-42. -. 1973. Introduction to Positive Political Theory. Englewood Cliffs, N. J.: Prentice Hall. Riker, William, und Barry Weingast. 1988. „Constitutional Regulation of Legislative Choice: The Political Consequences of Judicial Deference to Legislatures." Virginia Law Review 74:373-401. Robinson, W. S. 1950. „Ecological Correlations and the Behavior of Individuals." American Sociological Review 15:351-517. Roemer, John E. 1979a. „Continuing Controversy on the Falling Rate of Profit: Fixed Capital and Other Issues." Cambridge Journal of Economics 3:379-98. -. 1979b. „Mass Action Is Not Individually Rational: Reply." Journal of Economic Issues 13:763-67. Rosenberg, Alexander. 1992. Economics: Mathematical Politics or Science of Diminishing Returns? Chicago: University of Chicago Press. Rosenstone, Steven J., und Raymond E. Wolfinger. 1978. „The Effect of Registration Laws on Voter Turnout." American Political Science Review 72:22-45. Roth, Alvin E. 1988. „Laboratory Experimentation in Economics: a Methodological Overview." Economical Journal 98:974. Rothschild, K.W. 1946. „The Meaning of Rationality." Review of Economic Studies 14:50-52. Rubenstein, Ariel. 1979. „A Note About the 'Nowhere Denseness' of Societies Having an Equilibrium Under Majority Rule." Econometrica 47:511-514. Russell, Clifford S. 1979. „Applications of Public Choice Theory: An Introduction." In: Collective Decision Making: Applications from Public Choice Theory. Clifford S. Russell, Hg. Baltimore: The Johns Hopkins University Press.

262

Literatur

Russell, Keith. 1972. „Why Do High Income People Participate More in Politics? A Response." Public Choice 13:113-14. Russett, Bruce. 1994. „Processes of Dyadic Choice for War and Peace." World Politics. Salant, Stephen W., und Eban Goodstein. 1990. „Predicting Committee Behavior in Majority Rule Voting Experiments." The Rand Journal of Economics 21:293-313. Salovey, Peter, John D. Mayer und David L. Rosenhan. 1991. „Mood and Helping: Mood as a Motivator of Helping and Helping as a Regulator of Mood." Review of Personality and Social Psychology 12:215-37. Samuelson, Charles D., David Messick, Henk A. M. Wilke, Christel G. Rütte. 1986. „Individual Restraint and Structural Change as Solutions to Social Dilemmas. In: Experimental Social Dilemmas. Henk A. M. Wilke, David M. Messick und Christel G. Rütte, Hg. Frankfurt am Main: Peter Lang. Samuelson, Paul A. 1954. „The Pure Theory of Public Expenditure." Review of Economics and Statistics 36:387-90. Sanders, Elizabeth. 1980. „On the Costs, Utilities and Simple Joys of Voting." Journal of Politics 42:854-63. Sandler, Todd. 1992. Collective Action: Theory and Applications. Ann Arbor: University of Michigan Press. Satz, Debra, und John Ferejohn. 1993. Rational Choice and Social Theory. Manuskript. Standford University. Schlozman, Kay Lehman, und Sidney Verba. 1979. Injury to Insult: Unemployment, Class, and Political Responses. Cambridge, Massachusetts: Harvard University Press. Schofield, Norman. 1978. „Instability of Simple Dynamic Games." Review of Economic Studies 45:575-94. -. 1983. „General Instability of Majority Rule." Review of Economic Studies 50:695-705. Schofield, Norman, Bernard Grofman und Scott L. Feld. 1988. „The Core and the Stability of Group Choice in Spatial Voting Games." American Political Science Review 82:195-212. Schram, Arthur J. H. C. 1991. Voter Behavior in Economic Perspective. Berlin und New York: Springer. Schroeder, David Α., Thomas D. Jensen, Andrew J. Reed, Debra K. Sullivan, und Michael Schwab. 1983. „The Actions of Others as Determinants of Behavior in Social Trap Situations." Journal of Experimental Social Psychology 19:522-39. Schumpeter, Joseph A. 1942. Capitalism, Socialism and Democracy. New York: Harper & Row. (dt. 1953, 1993. Kapitalismus, Sozialismus und Demokratie. Tübingen, Basel: Francke) Schwartz, Thomas. 1987. „Your Vote Counts on Account of the Way It is Counted." Public Choice 54:101-21. Schwartz-Shea, Peregrine, und Randy T. Simmons. 1990. „The Layered Prisoners' Dilemma: Ingroup versus Macro-Efficiency." Public Choice 65:61-83. Sears, David O. Richard R. Law, Tom R. Tyler und Harris M. Allen Jr. 1980. „Selfinterest vs. Symbolic Politics in Policy Attitudes and Presidential Voting." American Political Science Review 74:670-84.

Literatur

263

Selten, Reinhard, und Rolf Stroecker. 1986. „End Behavior in Sequences of Finite Prisoner's Dilemma Supergames." Journal of Economic Behavior and Organization 7:47-70. Settle, Russell F., und Burton A. Abrams. 1976. „The Determinants of Voter Participation: A More General Model." Public Choice 27:81-89. Shapiro, Ian. 1993. „Democratic Innovation: South Africa in Comparative Context." World Politics 46:121-50. Shepsle, Kenneth A. 1972a. „The Paradox of Voting and Uncertainty." In: Probability Models of Collective Decision Making. Richard G. Niemi und Herbert F. Weisberg, Hg. Columbus, Ohio: Charles Merrill. -. 1972b. „The Strategy of Ambiguity: Uncertainty and Electoral Competition." American Political Science Review 66:555-68. -. 1979. „Institutional Arrangements and Equilibrium in Multidimensional Voting Models." American Journal of Political Science 23:27-59. -. 1986. „The Positive Theory of Legislative Institutions: An Enrichment of Social Choice and Spatial Models." Public Choice 50:135-78. Shepsle, Kenneth Α., und Ronald Ν. Cohen. 1990. „Multiparty Competition, Entry, and Entry Deterrence in Spatial Models of Elections." In: Advances in the Spatial Theory of Voting. James Enelow und Melvin Hinich, Hg. Cambridge: Cambridge University Press. Shepsle, Kenneth Α., und Barry R. Weingast. 1981. „Structure-Induced Equilibrium and Legislative Choice." Public Choice 37:503-19. -. 1984. „Unconverted Sets and Sophisticated Voting Outcomes with Implications for Agenda Institutions." American Journal of Political Science 28:49-74. -. 1987a. „The Institutional Foundations of Committee Power." American Political Science Review 81:86-108. -. 1987b. „Reflections on Committee Power." American Political Science Review 81:935-45. Silberman, Jonathan, und Garey Durden. 1975. „The Rational Behavior Theory of Voter Participation: The Evidence from Congressional Elections." Public Choice 23:503-19. Simon, Herbert A. 1955. „A Behavioral Model of Rational Choice." Quarterly Journal of Economics 69:99-118. -. 1956. „Rational Choice and the Structure of the Environment." Psychological Review 63:129-138. -. 1993. „The State of American Political Science: Professor Lowi's View of Our Discipline." PS: Political Science and Politics 26:49-51. Sinclair, Barbara. 1986. „The Transformation of the U. S. Senate". In: Home Style and Washington Work. Morris P. Fiorina und David W. Rohde, Hg. Ann Arbor: University of Michigan Press. Smith, Darlene Branningan, und Paul N. Bloom. 1986. „Is Consumerism Dead or Alive? Some Empirical Evidence." In: The Future of Consumerism. Paul N. Bloom und Ruth B. Smith, Hg. Lexington, Massachusetts: Lexington Books. Smith, Jeffrey W. 1975. „A Clear Test of Rational Voting." Public Choice 23:55-68. Smith, Vernon. 1976. „Experimental Economics: Induced Value Theory." American Economic Review 66:274-79.

264

Literatur

Snyder, James Μ., Jr. 1990. „Campaign Contributions as Investments: The U. S. House of Representatives, 1980-1986." Journal of Political Economy 98:11951227. Sorauf, Frank J. 1988. Money in American Elections. Glenview, Illinois: Scott, Foresman. Spiller, Pablo T., und Matthew L. Spitzer. .Judicial Choice of Legal Doctrines." Journal of Law, Economics, and Organization 8,1:8-44. Stevens, Stephen V. 1975. „The Paradox of Not Voting: Comment." American Political Science Review 69:914-15. Stigler, George. 1972. „ E c o n o m i c Competition and Political Competition." Public Choice 13:91-106. -. 1975. „Determinants of Participation in Presidential Elections: Comment." Journal of Law and Economics 18:743-44 Stigler, George, und Gary S. Becker. 1977. „De Gustibus Non Est Disputandum." American Economic Review 67:76-90. Stokes, Donald. 1963. „Spatial Models of Party Competition." American Political Science Review 57:368-77. Strom, Gerald S. 1975. „On the Apparent Paradox of Participation: A New Proposal." The American Political Science Review 69:908-13. -. 1990. The Logic of Lawmaking: A Spatial Theory Approach. Baltimore und London: Johns Hopkins University Press. Swenson, Peter. 1991a. „Bringing Capital Back In, or Social Democracy Reconsidered." World Politics 43:513-44. -. 1991b. „Labor and the Limits of the Welfare State." Comparative Politics 23:37999. Tajfel, Henri, Hg. 1978. Differentiation Between Social Groups: Studies on the Social Psychology of Intergroup Relations. London: Academic Press. Taylor, Michael. 1987. The Possibility of Cooperation. Cambridge: Cambridge University Press. Teixeira, Roy A. 1987. Why Americans Don't Vote: Turnout Decline in the United States, 1960-1984. New York: Greenwood Press. Thakur, Ramesh C. 1982. „Tacit Deception Reexamined: The Geneva Conference of 1954." International Studies Quarterly 26:127-39. Thaler, Richard H. 1991. Quasi-Rational Economics. New York: Russell Sage. Thompson, Fred. 1982. „Closeness Counts in Horseshoes and Dancing ... and Elections." Public Choice 38:305-16. Tideman, T. Nicolaus. 1985. „Remorse, Elation, and the Paradox of Voting." Public Choice 46:103-6. Tillock, Harriet, und Denton E. Morrison. 1979. „Group Size and Contribution to Collective Action: A Test of Mancur Olson's Theory on Zero Population Growth, Inc." Research in Social Movements, Conflict, and Change 2:131-58. Tollison, Richard D., und Thomas D. Willett. 1973. „Some Simple Economics of Voting and Not Voting." Public Choice 16:59-71. Tootle, Deborah M., und Sara Green. 1989. „The Effect of Ethnic Identity on Support for Farm Worker Unions." Rural Sociology 54:83-91. Tovey, Craig A. 1993. „Some Foundations for Empirical Study in the Euclidean Spatial Model of Social Choice." In: Political Economy: Institutions, Competi-

Literatur

26S

tion, and Representation. William A. Bamett, Melvin J. Hinich und Norman J. Schofield, Hg. Cambridge: Cambridge University Press. Traugott, Michael Wolfe. 1974. An Economic Model of Voting Behavior. Ph. D. Dissertation, University of Michigan. Tufte, Edward R. 1978. Political Control of the Economy. Princeton, N. J.: Princeton University Press. Tullock, Gordon. 1962. „Theoretical Forerunners." In: The Calculus of Consent. James M. Buchanan und Gordon Tullock, Hg. Ann Arbor: University of Michigan Press. -. 1967. „The General Irrelevance of the General Impossibility Theorem." In: Toward a Mathematics of Politics. Gordon Tullock, Hg. Ann Arbor: University of Michigan Press. -.1971. „The Paradox of Revolution." Public Choice 11:89-99. -. 1975. „The Paradox of Not Voting for Oneself." American Political Science Review 69:919. -. 1976. The Vote Motive. London: Institute for Economic Affairs. -. 1979. „Public Choice in Practice." In: Collective Decision Making: Applications from Public Choice Theory. Clifford S. Russell, Hg. Baltimore und London: Johns Hopkins University Press. -. 1981. „Why So Much Stability?" Public Choice 37:189-202. Tversky, Amos, und Daniel Kahneman. 1981. „The Framing of Decisions and the Psychology of Choice." Science 211:453-58. -. 1986. „Rational Choice and the Framing of Decisions." Journal of Business 59:S251-78. Uhlaner, Carole J. 1989. „Rational Turnout: The Neglected Role of Groups." American Journal of Political Science 33:390-422. United States Commission on Civil Rights. 1965. Voting in Mississippi. Washington, D.C.: U. S. Commission on Civil Rights. United States Commission on Civil Rights. 1968. Political Participation: A Study of Political Participation by Negroes. Washington, D. C.: U. S. Commission on Civil Rights. Van de Kragt, Alphons J.C., Robyn M. Dawes und John M. Orbell. 1988. „Are People Who Cooperate 'Rational Altruists'?" Public Choice 56:233-47. Van Parijs, Philippe. 1980. „The Falling-Rate-of-Profit Theory of Crisis: A Rational Reconstruction by Way of Obituary." The Review of Radical Political Economics 12:1-16. Verba, Sidney, und Norman Nie. 1972. Participation in America. New York: Harper & Row. Von Neumann, John, und Oskar Morgenstern. 1947. Theory of Games and Economic Behavior, 2. Auflage. Princeton: Princeton University Press. Walsh, Edward J., und Rex H. Warland. 1983. „Social Movement Involvement in the Wake of a Nuclear Accident: Activists and Free Riders in the TMI Area." American Sociological Review 48:764-80. Weingast, Barry. 1979. „A Rational Choice Perspective on Congressional Norms." American Journal of Political Science 23:245-62. -. 1984. „The Congressional-Bureaucratic System: A Principal-Agent Perspective (With Applications to the SEC)." Public Choice 44:147-91.

266

Literatur

-. 1989. „Floor Behavior in the U. S. Congress: Committee Power Under the Open Rule." American Political Science Review 83:795-815. Weingast, Barry, und William Marshall. 1988. „The Industrial Organization of Congress." Journal of Political Economy 96:132-63 Weisberg, Herbert F., und Richard G. Niemi. 1972. „Probability Calculations for Cyclical Majorities in Congressional Voting." In: Probability Models of Collective Decision-Making. Richard G. Niemi und Herbert F. Weisbert, Hg. Columbus, Ohio: Charles Merill. Weiss, Richard M. 1991. „Alternative Social Science Perspective on 'Social Dilemma' Laboratory Research." In: Social Norms and Economic Institutions. Kenneth Koford und Jeffrey Miller, Hg. Ann Arbor: University of Michigan. Williams, Kenneth C. 1991. „Candidate Convergence and Information Costs in Spatial Elections: An Experimental Analysis." In: Laboratory Research in Political Economy. Thomas R. Palfrey, Hg. Ann Arbor: University of Michigan Press. Wilson, Rick K. 1986. „Forward and Backward Agenda Procedures: Committee Experiments on Structurally-Induced Equilibriums." Journal of Politics 48:390409. Wilson, Rick K., und Roberta Herzberg. 1987. „Negative Decision Powers and Institutional Equilibrium: Experiments on Blocking Coalitions." Western Political Quarterly 40:593-609. Wilson, Rick K., und Anne Pearson. 1987. „Evidence of Sophisticated Voting in a Committee Setting: Theory and Experiments." Quality and Quantity 21:255-73. Wittgenstein, Ludwig. 1963. Philosophical Investigations. Oxford: Basil Blackwell (dt. 1960. Philosophische Untersuchungen. Schriften, Band I, Frankfurt am Main: Suhrkamp). Wittman, Donald. 1973. „Parties as Utility Maximizers." American Political Science Review. 67:490-98. -. 1975. „Determinants of Participation in Presidential Elections: A Comment." Journal of Law and Economics 18:735-41. -. 1983. „Candidate Motivation: A Synthesis of Alternative Theories." American Political Science Review 77:142-57. -. 1990. „Spatial Strategies When Candidates Have Policy Preferences." In: Advances in the Spatial Theory of Voting. James M. Enelow und Melvin Hinich, Hg. New York: Cambridge University Press. Wolfinger, Raymond E. 1993. „The Rational Citizen Faces Election Day or What Rational Choice Theorists Don't Tell You About American Elections." In: Elections at Home and Abroad: Essays in Honor of Warren E. Miller. M. Kent Jennings und Thomas E. Mann, Hg. Ann Arbor: University of Michigan Press. Wolfinger, Raymond E., und Stephen J. Rosenstone. 1980. Who Votes? New Haven: Yale University Press. Yamagashi, Yoshio. 1988. „Seriousness of Social Dilemmas and the Provision of a Sanctioning System." Social Psychology Quarterly 51:32-42. Zagare, Frank C. 1979. „The Geneva Conference of 1954: A Case of Tacit Deception." International Studies Quarterly 23:390-411. -. 1984. Game Theory: Concepts and Applications. Beverly Hills: Sage Publications.

Index

267

Index

Abell, Peter, 13; 211; 214 Abelson, Robert P., 9; 33; 168 Abstimmungsparadox, 120 ff. Abstraktionen, 224 Achen, Christopher H„ 17; 36; 44; 118; 145; 198; 219; 221

Buchanan, James Μ. II; 14; 27; 40; 61; 62; 79; 226; 230 Bueno de Mesquita, Bruce 27; 36; 44; 217; 220 Bürgerpflicht 14; 42; 67 f.; 71; 74; 76; 78; 85 ff.

Aldrich, John Α., 40; 62; 69; 70; 71; 74 ff.; 81; 82; 85; 87; 93; 116; 141; 176; 199; 223 Amtsinhaber, 48; 56; 85; 186 f.; 195; 200; 203

Calvert, Randall, L., 52; 178; 196; 197 Cameron, David, R„ 9; 50 Campbell, Angus, 75; 81; 85; 86; 100; 187

Anciennität, 14; 47; 48; 58

Campbell, Donald, 145; 152

Aristoteles, 229

Carter, Mames Earl, 178; 200; 203

Arrow, Kenneth, 7; 18; 20; 25; 26; 29; 32;

Chamberlain, Gary, 64

35; 42; 120; 211; 220

Chappell, Henry W„ 178; 198; 200; 204

Ashenfelter, Orley, 83

Cheung, Steven N. S., 92; 108

Ausschüsse, 120 ff.; 231 ff.

Chong, Dennis, 97; 102; 107; 108

Axelrod, Robert, 112

Coleman, James, 16; 139 Collier, Kenneth E., 187

Bales, Robert, 19

Condorcet, Marquis de, 18; 230

Banks, Jeffrey, 52; 56; 129; 173

Condorcet-Gewinner, 37; 95; 126; 129; 153

Barry, Brian, M„ 51; 66; 100; 175; 204; 211

Confederation of British Industry, 105

Barzel, Yoram, 78; 81; 83

connectedness, 25

Beck, Nathaniel, 64; 71

contingent valuation survey, 102

Becker, Gary S„ 28; 41; 42; 218; 219

Converse, Philip E., 115; 193

Bendor, Jonathan, 211

Coughlin, Peter, 42; 189; 191

Bentham, Jeremy, 29; 216

Cowden, Jonathan, 82; 105

Bentley, Arthur, 19; 27

Cox, Gary, 14; 60; 80 f.; 92; 139; 160 f.;

Bereichseinschränkung, willkürliche, 58 ff.;

171; 174; 185; 197 f.; 231; 233 f.

74

Crenson, Mathew Α., 97

Bergson, Abram, 18

Cyr, A. Bruce, 70; 82

Berl, Janet, 146; 153; 157 Bewilligungsausschuß (Appropriations Committee), 141; 232

Daten, 56 ff.; 65 ff.; 98ff.; 130 ff.; 150 ff.; 169 ff.;

Blydenburgh, John, 131; 143

Dawes, Robyn M„ 9; 92; 100; 111; 114

Brams, Steven J„ 9; 57; 199; 203

Depew, Chauncey Mitchell, 133 f.

Brennan, Geoffrey, 40; 60; 62; 79; 180; 226;

Dobra, John L., 130; 143

230 Brunk, Gregory G„ 70; 83; 87

Downs, Anthony, 7; 17; 18 f.; 27; 30 f.; 32; 48; 49; 54; 62 ff.; 93; 99; 100; 107; 115; 176; 178 f.; 186; 200 f.; 205; 208; 211; 227; 238

268

Index

Durden, Garey 78; 81; 83

Goodstein, Eban, 146; 149; 155; 162

Eavey, Cheryl L., 153-166 passim

Gosnell, Harold, 80; 86; 115

Eckel, Catherine, 128; 157; 166

Grafstein, Robert, 71; 87

Eigeninteresse, 29; 42; 91; 92; 106

Green, Donald Philip, 39; 82; 88; 100; 105;

Elster, Jon, 16; 26; 27; 31 ff.; 35; 38; 40; 41; 110; 216; 218; 219; 226 Endersby, James W„ 178; 188 Enelow, James, 28; 129; 139; 176; 177; 178; 188- 210 passim; 229 Erikson, Robert S„ 9; 188; 191; 192; 194;

175; 221 Grofman, Bernard, 24; 55; 62; 65; 76; 81; 139; 178;199 Grotius, Hugo, 230 Gruppentheorie, 19; 27 Gurin, Gerald 85; 86

195; 204 Erwartungsnutzen, 26; 28; 71; 79; 80; 81; 82; 84; 85; 97; 106; 196

Hammond, Thomas, 139; 140; 205 Hansen, John Mark, 82; 104

Evolutionstheorie, 34 f.

Hardin, Garrett, 91

experimentelle Forschung, 50; 109 ff.; 145

Hardin, Russell, 62; 93 ff.; 100; 102; 103;

ff.; interne und externe Validität, 167 ff.

109;118 Harsanyi, John C., 37; 42

Faimeß, 147; 155; 156; 159; 166; 167; 172

Hedges, Roman B., 14; 105

Fararo, Thomas J., 16

Herzberg, Roberta, 128; 146; 153; 156; 165

Fenno, Richard F., 193; 232

Hinich, Melvin J„ 69; 71; 129; 176; 177;

Ferejohn, John, 9; 21; 29; 31; 33 ff.; 38 f.;

188; 189; 191; 193; 194; 199; 201; 230

40; 41; 44; 60; 62; 79; 82; 172; 181; 226;

Hobbes, Thomas, 13; 29; 229

227;230

Hoffman, Elizabeth, 53; 153; 154; 166

Filer, John E„ 62; 80; 83; 85; 87

Holt, Charles Α., 128; 157; 166

Fiorina, Morris P., 9; 15; 40; 41;51; 53; 60;

Homogenitätsannahme, 28

71; 79; 82; 89; 116; 145; 146; 148; 151;

Hoover, Herbert, 57; 178

152; 162; 166; 167; 222; 223; 227; 229

Hotelling, Harold, 11; 182 f.

Fireman, Bruce, 108 Fishburn, Peter C„ 26

Imig, Douglas R., 104

Fisher, Bradley, 115

Individuum als relevanter Maximierer, 26 ff.

folk theorem, 38; 98; 113

Information, unvollkommene, 30 f.; 200

Formalismus, 21

instrumentelle Sichtweise, 43 ff.; 74; 150;

Fräser, John, 84

220

Frey, Bruno, 84

Interessengruppen, 91 ff.

Friedman, Milton, 43 ff.; 74; 220; 221

Isaac, R. Mark, 104; 109; 113; 154; 156; 157;

Fröhlich, Norman, 65; 78; 82 f.; 87

164; 165; 168

Galderisi, Peter, 28; 111

Jackman, Robert W., 24

Gamson, William Α., 108

Jackson, Jesse, 175; 193; 201; 202

Gefangenendilemma, 94 f.; 96; 108; 111; 113

Johnson, James D., 44

Gerichtsurteile und Wohlstandsmaximierung,

Johnson, Lyndon B., 178; 204

30 Gleichgewicht, 35 ff.

Kahneman, Daniel, 9; 33; 103; 168

Goetze, David, 28; 111

Kalifornien 64; 79

Index

Kaplan, Abraham, 227 Kaplowitz, Stan, 115

Medianwähler, 18; 122 ff.; 180 f.; 189; 190; 194; 196; 204; 233

Kavka, Gregory S., 13; 55; 213

Meehl, Paul, 63; 66

Keech, William R„ 178; 198; 200

methodologische Defekte, 46 ff.

Kelley, Stanley, Jr., 83

methodologischer Individualismus, 26 ff.

Kelman, Mark, 252

Miller, Gary J„ 139; 140; 153; 155; 157;

Kennedy, John Fitzgerald, 178 Kern, 37; 124; 128 ff; 135; 140 ff.;154 ff.; 159 ff.; 161 ff. Kiewiet, Roderick D„ 56; 139; 161; 169; 170; 172; 174; 231 ff.

165 Miller, Nicholas R., 144 Miller, Richard, 43 f. Miller, Warren, E„ 85 f. minimax regret, 41; 42; 71; 82; 227

Kim, Oliver, 113

Mitchell, D. W„ 196; 206

Knack, Stephen, 62; 64; 68; 84 ff.

Mitchell, Robert C„ 101-106 passim

kollektives Handeln 27; 46; 58; 91 ff.; 214; 216 kompetitive Lösung ( Κ ) , 151 ; 160; 163

Mitroff, Ian, 222 Moe, Terry M„ 14; 43; 44; 59; 105-108 passim; 211; 213

Konsistenz, 25 f., 32; 35

Monroe, Kristen, 13; 18; 20; 41

Kormendi, Roger C., 149; 165

Morgenstern, Oskar, 26

Krehbiel, Keith, 9; 15; 31; 44; 58; 128; 141; 172; 173; 231; 235 f.; 237 Kuhn, Thomas S„ 212; 213

269

Morrison, Denton E„ 101; 105 Morton, Rebecca B., 62; 73; 75; 198; 211 Mosca, Gaetano, 19 Mueller, Dennis C„ 8; 19; 20; 22; 47; 50;

Laing, J. D„ 153; 155; 159; 162; 165; 166

108; 120; 154;161

Lakatos, Imre, 212 ff.

Muller, Edward, 106; 107; 108

Lalman, David, 15; 20; 27; 147; 214

Munger, Michael C„ 80; 178; 188

Lane, Robert E„ 9; 70; 92; 211 Latham, Earl, 19; 27

naiver Falsifikationismus, 212 ff.

Levi, Ariel, 33

Nash, John F., 37; 171

Levine, Michael E„ 128; 164; 166; 167

Nash-Gleichgewicht, 37; 53; 113; 170; 171;

Londregan, John, 197; 208 Lowi, Theodore J., 12; 41 Luce, Ducan R., 8; 26; 37; 94

180; 181; 184; 191; 209 Niemi, Richard G„ 66; 67; 69; 70; 84; 85; 132; 139; 143 Noll, Roger G„ 35; 44; 115

Maoz, Zeev, 27; 39; 226

Nozick, Robert, 92

Margolis, Howard, 64; 68; 149

Nullhypothese, 51; 63; 76; 104; 106; 117;

Marsh, David, 105 McCubbins, Mathew D., 14; 57; 60; 139; 141; 143; 160; 169; 171; 174; 231 ff.

135; 146; 147; 151; 152; 221 Nutzenmaximierung, 24 f.; 49; 71; 88; 155; 189; 205

McCue, K.F., 113 McGovern, George, 175; 187

Oberschall, Anthony, 102; 108

McKelvey, Richard D„ 14; 15; 33; 48; 50;

Olmstead, S„ 153; 155; 159; 162; 166

58; 120; 129; 144; 146; 147; 150-175

Olsen, Marvin, 100

passim·, 185; 186; 187; 191; 199; 216

Olson, Mancur, 7; 18; 19; 20; 25; 26; 27; 28;

McTavish, Jeanne, 110

42; 54; 55; 57; 69; 91 ff.; 211; 224

270

Index

Opp, Karl-Dieter, 106; 108 Oppenheimer, Joe, 15; 20; 65; 108; 146; 150; 155; 156; 159; 168; 214 Ordeshook, Peter, 8; 11; 15; 20; 21; 27; 30;

200; 201; 204; 206; 211; 217; 218; 220; 229 Rivers, Douglas, 31; 58; 128 Robertson, Pat, 175

33; 36; 37; 38; 42; 47; 50; 65; 66; 67; 70;

Roemer, John E., 54; 217

75; 76; 78; 81; 82; 83; 85; 86; 114; 116;

Romer, Thomas, 198; 208

120-174 passim·, 181; 182; 186; 187; 188;

Romero, David W„ 188; 191; 192; 194; 195;

191; 196; 200; 201; 204; 206

204 Roosevelt, Franklin D., 140; 175

Page, Benjamin I., 138; 172; 176; 178; 187; 190; 193; 200; 206 Palfrey, Thomas R„ 69; 73; 74; 76; 82; 110; 112; 145; 200; 201

Rosenberg, Alexander, 211 Rosenthal, Howard, 15; 70; 73; 74; 76; 82; 110; 112;128;199 Rothschild, K. W., 25; 64; 244

Parsons, Talcott, 19

Rousseau, Jean-Jacques, 14

Plott, Charles R„ 51; 65; 76; 113; 120; 128;

RUckwärtsinduktion, 98

129; 145; 146-168/>as«m; 187

Russell, Clifford 50; 84; 93; 211

Politik und Ökonomie, 11 Popper, Karl R„ 214; 220

Salant, Stephen W„ 146; 149; 154; 155; 162

Posner, Richard Α., 33; 59; 60; 214; 220

Samuelson, Charles D„ 91; 111

post Aoc-Theoriebildung, 46 ff.; 65 ff.; 134

satisficing, 25; 41; 42; 149; 219

ff.; 179; 209; 220 Präferenzordnung, 25 ff. Prinzipal-Agenten-Modell, 202; 231 ff.; 234

Satz, Debra, 9; 31; 33; 34; 35; 39; 40; 60; 61; 62; 201; 226 Schofield, Norman, 9; 120; 129; 142; 157 Schroeder, David Α., I l l

Rational-Choice-Erklärungen, 31 ff.; ,,alsob", 34; 186; deduktiv-nomologische und instrumentelle, 43 ff.; intentionale, 31 f.; internalistische und extemalistische, 33 f.; 42; post hoc, 47 f.; 65 ff.; 134ff.; Vergleich mit anderen Erklärungen, 49 ff. Rational-Choice-Theorie, 24 ff.; und methodologische Defekte, 16 f., 46 ff. Rationalität, 11; 24 ff.; dünne Theorie (thin-

Schumpeter, Joseph Α., 11; 39; 49 Schwartz, Thomas, 14; 41; 62-90 passim; 110; 137; 139; 141; 143; 160 Seitenzahlungen, 69; 70; 87; 96; 97; 98; 112; 122; 128; 136; 137; 148; 149; 156; 169; 181; 201; 202; 207; 231 selektive Anreize, 55; 67; 69; 83 f.; 91 ff. Selten, Reinhard, 113; 132 Seniorität, 48; 58; 234; 236; 237

rational account), 29 ff., 40 f.; 120; dicke

Shaklee, Harriet, 110

Theorie (thick-rational account), 29 ff.; 40

Shepsle, Kenneth Ε., 11; 28; 36; 47; 53; 58;

f.; 92; 120 räumliche Modelle, 15; 40; 120 ff; 175 ff.;

128; 139; 141; 142; 144; 159; 160; 172; 173; 180; 181; 232

rent-seeking, 22; 30

Silberberg, Eugene, 78; 81; 83

Retroduktion, 47; 48

Silberman, Jonathan, 78; 81; 83

Riezman, Raymond, 14; 48; 58; 216

Simon, Herbert, 12; 25; 33; 41

Riker, William H„ 8; 13; 14; 22; 25; 27; 28;

Smith, Jeffrey W. 69

29; 36; 37; 38; 40; 41; 42; 49; 57; 58; 65;

Smith, Vernon L., 146

66; 67; 70; 75; 76; 78; 81; 82; 83; 85; 86;

Smoke, Richard, 224

106; 128; 130-140 passim; 143; 162; 196;

Snidal, Duncan, 17; 36; 217; 220

Index

Soziale Dilemmata, 93 ff. Spieltheorie, 8; 15; 37; 53; 73 f.; 95; 110;

271

uniiberdeckte Menge (uncovered set) 160; 161; 163; 185; 186

112; 120; 121; 131; 132; 140; 149; 150;

Unwissenheit, rationale, 68

156; 157; 162; 170 ff.; 203

US-Kongreß, 47; 48; 56; 57; 58; 92; 135;

Spitzer, Matthew L., 52; 53; 251

137; 140 ff.; 170; 172; 173; 198; 229; 231;

Stabilität 20; 30; 131; 135; 136; 137 ff.; 161;

234; 236;237

162; 163; 172 Stigler, George, 28; 42; 72; 76; 79

US-Repräsentantenhaus, 48; 58; 59; 116; 140; 143; 161;198

Stroecker, Rolf, 113

US-Senat, 48; 133; 140; 143; 161; 197

Strom, Gerald S„ 28; 52; 71; 75; 132; 158;

US-Verfassung, 34; 132; 140

160; 162; 165; 174; 214 Sutherland, George, 133; 134

Versicherungsspiel, 94; 108

Swistak, Piotr, 15; 20; 214

von Neumann, John, 26 Vorhersagen, 52 ff.; 56 ff.; 106 ff.; Punkt-

Taylor, Michael, 94; 96; 104

und Marginalvorhersagen, 54 ff.; 76 ff.

Tests, Entwicklung von, 51 ff. Thaler, Richard H„ 211

Wahlbeteiligung, 62 ff.

Tillock, Harriet, 55; 101; 105

Wahlkampf, 175 ff.

Tragödie der Allmende, 91; 111

Walker, Mark, 113

Transitivität, 25 f.; 43

Walsh, Edward J„ 101; 102; 105; 109

Trittbrettfahren, 91 ff.

Warland, Rex H„ 101; 102; 105; 109

Truman, David, 19; 27

Weingast, BatTy, 14; 22; 35; 44; 57; 58; 116;

Tullock, Gordon, 11; 14; 27; 62; 65; 66; 71; 107; 108; 115; 116; 137; 138; 139; 143; 204

135; 139; 141; 144; 146; 155; 159; 160; 172;173;232 Williams, Kenneth C„ 13; 130;

Tversky, Arnos, 33; 71; 168

Wilson, Rick, 128; 139; 146; 149; 153; 156;

Uhlaner, Carole, 62; 65; 68; 75; 139

Winer, Mark D„ 150; 155

uncovered set (untlberdeckte Menge), 60;

Wittgenstein, Ludwig, 41

164; 165

159; 160 ff.; 185 f. Universalismus, 31; 35 ff.; 41; 43; partieller, 38 f.; 88; 225; 226; segmentierter, 39 f., 225; 226; Familie von Theorien, 41; 88;

Wittman, Donald, 50; 79; 82; 85; 176; 196; 197; 200; 204; 206 Wolfinger, Raymond E„ 64; 82; 83; 84; 85; 89

225; 227 Unterdeterminierung, 54

zyklische Mehrheiten 22; 23; 29; 120 ff.