Wirtschaftssoziologie. II Wirtschaftssoziologie II: Anwendungen 9783486717679

Das zunehmende Interesse an ökonomischen Fragestellungen in der Soziologie hat zu einer Fülle empirischer Arbeiten auf d

210 114 8MB

German Pages [295] Year 2012

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Wirtschaftssoziologie. II Wirtschaftssoziologie II: Anwendungen
 9783486717679

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Wirtschaftssoziologie II Anwendungen

herausgegeben von

Norman Braun Marc Keuschnigg Tobias Wolbring LMU München

Oldenbourg Verlag München

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2012 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0 www.oldenbourg-verlag.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Lektorat: Christiane Engel-Haas, M.A. Herstellung: Constanze Müller Titelbild: thinkstockphotos.de Einbandgestaltung: hauser lacour Gesamtherstellung: Grafik & Druck GmbH, München Dieses Papier ist alterungsbeständig nach DIN/ISO 9706. ISBN 978-3-486-71269-8 eISBN 978-3-486-71767-9

Inhaltsverzeichnis Vorwort

I

Beziehungen im Wirtschaftsleben

vii

1

1

Sozialkapital, Vertrauen und Kooperation Norman Braun

2

Netzwerke im Arbeitsmarkt Patrick Riordan und Fabian Kratz

25

3

Status, Positionswettbewerbe und Signale Tobias Wolbring

47

II Institutionen und Wirtschaft

3

71

4

Online-Transaktionen und Auktionen Roger Berger und Julia Zimmermann

73

5

Wirtschaft und Religion Eva Negele

89

6

Märkte und Prognosen Jochen Groß

111

III Konsumentenverhalten

127

7

Konsum, Kaufverhalten und Konformität Norman Braun und Marc Keuschnigg

129

8

Sucht, Gewohnheit und Tradition Roger Berger und Thomas Wimmer

153

9

Stars und ihre Entstehung Marc Keuschnigg

173

vi

IV Wohlstand und Ungleichheit

Inhaltsverzeichnis

193

10 Nationale und internationale Einkommensverteilung Marc Keuschnigg und Jochen Groß

195

11 Körpermerkmale und Lohnbildung Christiane Bozoyan und Tobias Wolbring

227

12 Einkommen und Lebenszufriedenheit Marc Keuschnigg, Eva Negele und Tobias Wolbring

255

Sachregister

283

Autorenverzeichnis

287

Vorwort Der Aufschwung der Wirtschaftssoziologie während der letzten Jahrzehnte rechtfertigt ein Lehrbuch, das sich insbesondere durch eine quantitative Ausrichtung in Theorie und Empirie auszeichnet. Während der erste Band unserer zweibändigen Übersichtsarbeit relevante Grundzüge der Wirtschaftssoziologie in insgesamt vier Teilen („Ideengeschichtliche Hintergründe“, „Begriffliche und methodologische Grundlagen“, „Sozioökonomischer Wandel und soziale Einbettung“, „Formale Theorieansätze und Modelle“) vermittelt, präsentiert der zweite Band insgesamt zwölf Anwendungen, welche u.a. die Fruchtbarkeit der gewählten Orientierung belegen. Obwohl es sich bei den Themen und Untersuchungen des zweiten Bandes um eine Auswahl handelt, sind sie so weit gefächert, dass sie sich vier breiten Bereichen zuordnen lassen: „Beziehungen im Wirtschaftsleben“, „Institutionen und Wirtschaft“, „Konsumentenverhalten“, „Wohlstand und Ungleichheit“. Jeder der vier Themenbereiche umfasst dabei drei eigenständige Beiträge. Im ersten Teil „Beziehungen im Wirtschaftsleben“ arbeitet Norman Braun anhand theoretischer Überlegungen und empirischer Befunde die Bedeutung von Sozialkapital für die Vergabe von Vertrauen in wirtschaftlichen Transaktionen heraus. Dabei werden auch die Entstehungsbedingungen von menschlicher Kooperation beleuchtet. Daran anschließend setzen sich Patrick Riordan und Fabian Kratz mit den Wirkungen starker und schwacher persönlicher Beziehungen bei der Stellensuche auseinander, wobei sie auf Daten aus dem Bayerischen Absolventenpanel zurückgreifen. Tobias Wolbring thematisiert Merkmale, Ursachen und Folgen von sozialem Status im Wirtschaftsleben und stellt entsprechende theoretische Modelle vor. Betont werden die Signalwirkung und die Selbstverstärkung relativer Positionen in gesellschaftlichen Hierarchien. Der zweite Teil „Institutionen und Wirtschaft“ wird durch den Beitrag von Roger Berger und Julia Zimmermann eröffnet. Ihr Aufsatz fasst den theoretischen und empirischen Erkenntnisstand zu sequenziellen Tauschhandlungen unter Anonymität zusammen. Neben einer Darstellung verschiedener Auktionsformen werden Mechanismen der Reputationsbildung erörtert. Eva Negele arbeitet die Bedeutung von Religion im Wirtschaftsleben heraus, präsentiert theoretische Erklärungen zur Religiosität und stellt dazu empirische Einsichten für Deutschland vor, die sie auf der Grundlage des Sozio-oekonomischen Panels gewonnen hat. Die Institution des Marktes und seine Funktion der Informationsaggregation diskutiert Jochen Groß im Zusammenhang mit Wahlvorhersagen. Dabei nutzt er Daten einer eigens aufgesetzten Wahlbörse zur Bundestagswahl 2009. Der dritte Teil behandelt „Konsumentenverhalten“ und beginnt mit einer Vorstellung dazugehöriger Konzepte und Einsichten der Wirtschaftssoziologie durch Norman Braun und Marc Keuschnigg. Erweiterungen um Gewohnheitsbildung und deren Modellierung werden von Roger Berger und Thomas Wimmer präsentiert und anhand von Daten zum Rauchverhalten in Deutschland illustriert. Überlegungen zu Konformität und Gewohnheitskonsum überprüft Marc Keuschnigg mit prozessproduzierten Daten aus dem deutschen Buchmarkt. Dabei geht er der Frage nach der Entstehung von Bestsellern nach. Im vierten Teil „Wohlstand und Ungleichheit“ werden zunächst Einkommensunterschiede in inner- und zwischenstaatlicher Perspektive behandelt. Marc Keuschnigg und

viii

Vorwort

Jochen Groß liefern dabei Erklärungen zur Entstehung rechtsschiefer Einkommensverteilungen und zeichnen die Diskussion über die Entwicklung globaler Ungleichheit nach. Christiane Bozoyan und Tobias Wolbring sind gleichermaßen an Fragen der Lohnbildung interessiert, wobei Benachteiligungen aufgrund von Körpergröße, Körpergewicht und physischer Attraktivität auf Grundlage des Sozio-oekonomischen Panels untersucht werden. Dieselbe Datenquelle nutzen Marc Keuschnigg, Eva Negele und Tobias Wolbring schließlich zur Analyse von Wohlstandseffekten auf die Lebenszufriedenheit. Dabei wird aufgezeigt, dass neben monetären Größen auch immaterielle Faktoren als Nutzenargumente fungieren. Insgesamt verdeutlichen die Beiträge, dass Wirtschaftssoziologie eine Erfahrungswissenschaft ist, die sich keineswegs in theoretisch-spekulativen Betrachtungen und philosophisch geprägten Diskursen erschöpft. Wie der erste Band des Lehrbuchs ist auch der vorliegende Band aus Veranstaltungen zur Wirtschaftssoziologie hervorgegangen, die wir während der letzten Jahre an der Ludwig-Maximilians-Universität München gehalten haben. Wir danken daher allen Studierenden, welche sich mit verschiedenen Versionen der Buchmanuskripte befasst haben und uns Anregungen zu deren Verbesserung zukommen ließen. Konstruktive Kritik erhielten wir dankenswerterweise auch von Roger Berger, Christiane Bozoyan, Jochen Groß, Eva Negele, Patrick Riordan, Thomas Wimmer und Julia Zimmermann, die nicht nur als Autoren dieses Bandes aktiv waren, sondern ebenso als Gutachter vorliegender Texte. Gutachterliche Tätigkeiten übernahmen in dankenswerter Weise auch Johannes Bauer und Christian Ganser. Dank schulden wir nicht zuletzt Angela Fabry, die uns bei der Endkorrektur und der Erstellung vieler Grafiken half, und Christiane Engel-Haas für das Lektorat. Abschließend möchten wir noch auf die Homepage hinweisen, die das Lehrbuch begleitet (http://www.ls4.soziologie.uni-muenchen.de/ws-lehrbuch/index.html). Sie präsentiert ergänzende Informationen (wie z.B. Übersichten über die zeitliche Entwicklung sozioökonomischer Gegebenheiten), deren Berücksichtigung den Umfang der Druckversion gesprengt hätte. Neben unseren Adressen werden dort auch Fehler und ihre Korrekturen aufgelistet, sobald sie uns bekannt geworden sind. Verbesserungsvorschläge sind daher willkommen, auch wenn sie die Fehleranfälligkeit unserer Herausgeberschaft belegen. München, im Frühling 2012 Norman Braun, Marc Keuschnigg und Tobias Wolbring

Teil I Beziehungen im Wirtschaftsleben

1 Sozialkapital, Vertrauen und Kooperation Norman Braun Im Geschäftsleben schlagen sich Kooperationen u.a. in Transaktionen und Transfers nieder. Aus wirtschaftssoziologischer Sicht spielt Vertrauen eine Rolle, wenn wirtschaftliche Aktivitäten für Geschäftspartner nicht völlig überschaubar sind. Beispielsweise kann eine mündliche Vereinbarung getroffen oder eine Vorabzahlung verlangt und geleistet worden sein, sodass eine Ungewissheit eines Partners über die Erfüllung des gegebenen Versprechens (d.h. die Reziprozität der Handlung des Anderen) gegeben ist. Aufgrund der Häufigkeit solcher Situationen ist es sinnvoll, sich eingehend mit Vertrauen zu beschäftigen. Aus einer allgemeineren Perspektive handelt es sich dabei um einen Spezialfall der Kooperationsthematik, die als Problem der sozialen Ordnung in der Soziologie fundamentale Bedeutung erlangt hat. In diesem Zusammenhang ist überdies die Einbindung der beteiligten Akteure in soziale Netzwerke und daher auch das Konzept „Sozialkapital“ wichtig. Vor der Besprechung einschlägiger theoretischer Vermutungen und empirischer Befunde zu Vertrauenssituationen und der allgemeineren Kooperationsthematik sind Vertrauensbeziehungen und Sozialkapital daher näher zu charakterisieren. Nach der Besprechung von Vertrauensbeziehungen (Abschnitt 1.1) wird auf soziale Netzwerke und Sozialkapital eingegangen (Abschnitt 1.2). Besprochen wird danach die quantitativ orientierte theoretische und empirische Literatur zu Vertrauensbeziehungen (Abschnitt 1.3). Ausgehend vom Dilemma-Charakter einer Vertrauenssituation wird danach verallgemeinernd auf Fragen der Kooperationsentstehung eingegangen: Erst wird erläutert, wie sich die Möglichkeit der Wahl von Netzwerkpartnern auf die Kooperationsbereitschaft in experimentellen DilemmaSituationen ausgewirkt hat (Abschnitt 1.4); abschließend werden allgemeine Ergebnisse der Kooperationsforschung vorgestellt und erörtert, die in unterschiedlichen Disziplinen während der letzten Jahrzehnte erzielt werden konnten und u.a. für die Wirtschaftssoziologie große Relevanz besitzen (Abschnitt 1.5).

1.1 Merkmale von Vertrauensbeziehungen Nach Ansicht klassischer Soziologen (z.B. Durkheim 1933; Weber 1921 [1976]) ist das Wirtschaftsleben stets durch unvollständige Verträge gekennzeichnet, sodass Vertrauen für die Analyse des Wirtschaftsgeschehens besonders wichtig ist. Vertrauen spielt im Wirtschaftsleben u.a. auch deshalb eine bedeutende Rolle, weil das oftmals Lenin zugeschriebene Diktum „Vertrauen ist gut, Kontrolle ist besser“ schon aus Kostengründen (Kontrolle ist teuer!) und Organisationsgründen (wer kontrolliert die Kontrolleure?) nur begrenzt und zumindest teilweise nur mit zweifelhaftem Erfolg (Überwachung und Bürokratie) umgesetzt werden kann.

4

1 Sozialkapital, Vertrauen und Kooperation

Vertrauensbeziehungen sind zumeist dyadischer Art. Sie sind stets durch eine zeitliche Asymmetrie der etwaigen Handlungen von Interaktionspartnern gekennzeichnet – charakteristischerweise umfassen sie eine Vorleistung eines Partners und ein mehr oder weniger explizites Versprechen des anderen Partners, diese Vorleistung adäquat zu erwidern. Ein Beispiel bezieht sich auf die Mitteilung höchst privater Information nach einem vorherigen Schweigeversprechen des Interaktionspartners. Weitere Illustrationen ergeben sich im Zusammenhang mit der Aufrechterhaltung von Geschäftspartnerschaften im Sinne vorheriger Vereinbarungen und der Erfüllung von Zahlungsversprechen, die am Finanzmarkt gehandelt werden (z.B. Anleihen, Kreditausfallversicherungen). Weitere einschlägige Vertrauenssituationen sind: • Verleihen von Geld oder Sachgegenständen • Kauf von älteren Gütern (z.B. Gebrauchtwagen) • Zeitverzögerte Bezahlung von Waren und Diensten (z.B. Taxifahrten) • Übernahme von Bürgschaften im Geschäftsleben • Beschaffenheit von Vertrauensgütern (z.B. Anlageberatung) • Geschäfte auf illegalen Märkten (z.B. Drogenhandel) Eine andere Illustrationsmöglichkeit bieten Online-Transaktionen (siehe hierzu Kapitel 4). Eine weitere wichtige Klasse von Beispielen bilden Prinzipal-Agenten-Probleme. Sie stellen sich u.a. bei Beziehungen im Arbeitsmarkt, sofern keine leistungsabhängige Bezahlung erfolgt (arbeitet z.B. der Angestellte eifrig, obwohl er mit einem festen Gehalt durch den Arbeitgeber entlohnt wird?). Bevor derartige Fragen beantwortet werden können, sind allerdings netzwerktheoretische Überlegungen einzuführen, denn Vertrauensbeziehungen finden nicht im luftleeren Raum statt. Sie reflektieren vielmehr Netzwerkverflechtungen der potenziellen Geschäftspartner.

1.2 Soziale Netzwerke und Sozialkapital Viele Befunde der sozialen Netzwerkanalyse (z.B. Wasserman und Faust 1994) spiegeln eine allgemeine Verhaltenstendenz wider: Akteure versuchen, jeweils Mitglieder von solchen Netzwerken zu werden oder zu bleiben, die ihnen bei der Realisierung ihrer Präferenzen nützen. Umgekehrt werden sie diejenigen Beziehungen abbrechen oder vermeiden, die ihnen bisher geschadet haben oder bei der Präferenzrealisierung hinderlich sind. Sofern also bisherige wirtschaftliche Transaktionen überwiegend zur gegenseitigen Zufriedenheit abgelaufen sind, dürften sich relativ stabile Handelsbeziehungen zwischen bestimmten Käufern und Verkäufern herausgebildet haben. Gleichzeitig müssten solche Geschäftsbeziehungen nicht mehr bestehen, die sich im Zeitablauf zumindest für einen Tauschpartner als unbefriedigend erwiesen haben. Soziale Netzwerke werden damit die individuellen Tauschmöglichkeiten und somit auch das Marktgeschehen wesentlich prägen. Sie können sich in faktischen Zugriffsbarrieren zwischen potenziellen Geschäftspartnern niederschlagen, welche bestimmte Tauschkontakte von vornherein verhindern, andere jedoch fördern. Unterstellt man rationales Entscheidungsverhalten aller Netzwerkmitglieder sowie freiwilligen Tausch, dann müssten die stattfindenden Transaktionen die Situation jedes Akteurs

1.2 Soziale Netzwerke und Sozialkapital

5

(relativ zum Anfangsszenario) verbessern und dadurch die bestehende Netzwerkstruktur verfestigen. Ein derartig stabilisiertes Netzwerk bietet die Möglichkeit, den eigenen Handlungsspielraum (und damit auch Nutzen) durch private Güter und Leistungen (wie z.B. Vermittlungstätigkeiten zwischen unverbundenen Akteuren) zu vergrößern, die von Mitgliedern des eigenen Netzwerks erbracht werden. Der Zugriff eines Akteurs auf solche Ressourcen dürfte dabei wesentlich von der Einschätzung seiner interaktionsspezifischen Eigenschaften seitens der Netzwerkpartner abhängen. Beispielsweise können bisherige zufriedenstellende Tauschkontakte dazu führen, dass ein Händler einen bestimmten Weiterverkäufer als zuverlässig einschätzt und sich daher auf ein Kommissionsgeschäft einlässt. Aufgrund seiner vermeintlichen Vertrauenswürdigkeit erhält der Weiterverkäufer somit die nachgefragte Gütermenge allein gegen die Angabe eines Zahlungstermins, wodurch sich seine Opportunitäten erweitern und (bei entsprechenden Handlungen) auch sein Wohlergehen verbessert. Er kann durch diese einseitige Vorleistung nämlich seine eigenen Kunden sofort versorgen, dadurch seinen temporären finanziellen Engpass überwinden und eventuell sogar einen Zusatzgewinn erzielen. Im Zusammenhang mit nutzenverändernden Effekten, die sich aufgrund der vorhandenen Einbettung in soziale Netzwerke prinzipiell realisieren lassen, wird in der Soziologie oftmals der Begriff des Sozialkapitals gebraucht (z.B. Burt 2005; Jungbauer-Gans und Gross 2007; Lin 2001; Lin, Cook und Burt 2001). Dabei existieren verschiedene Auslegungen dieses Konzeptes, das auch in Nachbardisziplinen verwendet und diskutiert wird (z.B. Becker 1996; Bowles und Gintis 2002; Dasgupta und Serageldin 2000; Durlauf 2002; Fukujama 1995; Sobel 2002).1 Eine allgemeine Interpretation des Sozialkapital-Konzeptes bietet Coleman (1990: 300ff). Nach seiner Auffassung entsteht Sozialkapital jeweils durch Änderungen von Beziehungen, die ihrerseits handlungsfördernd wirken. Schafft beispielsweise ein Drogenhändler eine bestimmte Organisationsstruktur zur Verteilung illegaler Substanzen und reduziert diese Struktur die Bestrafungsrisiken der beteiligten Personen, so wäre damit Sozialkapital im Sinne Colemans erzeugt. Danach kann man diese Kapitalform (im Gegensatz zu physischem Kapital (u.a. Gebäude, Maschinen) und Humankapital (v.a. Wissen)) schwerlich einzelnen Akteuren zuschreiben – Sozialkapital liegt vielmehr in den Akteurbeziehungen. Es reflektiert die jeweilige soziale Organisations- und Normstruktur gleichermassen und weist u.a. deswegen die Merkmale eines öffentlichen Gutes (d.h. Nicht-Ausschlussfähigkeit vom und Nicht-Rivalität im Gebrauch) auf. Diekmann (1993: 31) deutet Sozialkapital als Obligationen zwischen den Mitgliedern einer sozialen Gruppe. Für die empirische Analyse schlägt er konsequenterweise vor, die Verfügbarkeit und die Intensität solcher Verpflichtungen mithilfe von Konzepten der sozialen Netzwerkanalyse zu präzisieren. Diese Vorgehensweise würde eine relative Messung des Sozialkapitals der einzelnen Akteure erlauben. Voraussetzung hierfür wäre allerdings die Kenntnis der gesamten Beziehungsstruktur des jeweiligen sozialen Systems (soziozentrische Netzwerkanalyse). Diekmanns Vorschlag dürfte daher nur bei genau abgrenzbaren Gruppen anwendbar sein, die zudem einer Totalerhebung zugänglich sind. 1 Franzen

und Pointner (2007) systematisieren die Literatur anhand einer Dreiteilung. Danach wird Sozialkapital als (1) netzwerkbasierte Ressource des einzelnen Akteurs verstanden, als (2) generalisiertes Vertrauen aufgefasst oder als (3) Konzeptualisierung für Normen und Werte einer größeren Gemeinschaft verwendet. Franzen und Pointner plädieren dafür, den Begriff des Sozialkapitals im Sinne von (1) zu deuten.

6

1 Sozialkapital, Vertrauen und Kooperation

Andere Autoren weichen von dieser Deutung ab, weil sie Sozialkapital eher als eine Mikro-Variable betrachten. Beispielsweise bezeichnet Sozialkapital für Bourdieu und Wacquant (1992: 119) „...the sum of resources, actual or virtual, that accrue to an individual or a group by virtue of possessing a durable network of more or less institutionalized relationships of mutual acquaintance and recognition.“ Demnach umfasst das Sozialkapital einer Person oder Gruppe die Summe der in derselben Einheit (z.B. Geld) bewerteten Güter und Leistungen, die aufgrund der Netzwerkeinbindung effektiv oder fiktiv extrahiert werden können. Noch konkreter ist die Konzeptualisierung von Sozialkapital, die Weesie, Verbeek und Flap (1991: 625) in ihrer ökonomischen Theorie sozialer Netzwerke verwenden. Sie definieren Ressourcen jeweils als tauschbare Zeiteinheiten (z.B. für soziale Unterstützung) und interpretieren Sozialkapital als „...the right to control the resources of related actors in the network at hand“, um danach den Tausch von Kontrolle über Zeiteinheiten zu modellieren. Einge gleichfalls tauschtheoretische Deutung von Sozialkapital ergibt sich durch folgende Umschreibung: Ein Individuum mit gegebenen Ressourcen und Präferenzen besitzt Sozialkapital in dem Ausmaß, in dem es gegenseitig erkannte und prinzipiell dauerhafte Beziehungen zu Personen unterhält, welche über potenziell weitergebbare Ressourcen (z.B. private Güter, Informationen, Kontakte, Zeiteinheiten) verfügen, eine ihm zumindest annähernd bekannte positive Einschätzung seiner Zuverlässigkeit als Tauschpartner (z.B. aufgrund früherer Geschäftserfahrungen) besitzen und zu Entscheidungen über Ressourcentransfers zu ihm bereit sind. Aus dieser Perspektive stellt Sozialkapital auf die durch soziale Beziehungen generierte Struktur von Opportunitäten ab. Sozialkapital ist danach eine Mikro-Variable, die den Zugriff einer betrachteten Person zu möglichen Transaktionspartnern aus dem eigenen Netzwerk erfasst. Die angegebene Definition von Sozialkapital bezieht sich insbesondere auf die bekannten Einschätzungen der Vertrauenswürdigkeit eines Akteurs durch mögliche Tauschpartner aus dem eigenen Beziehungsnetz. Klarerweise kann man die Definition auf unterschiedliche Weise erweitern. Beispielsweise könnte man auch langfristige Beziehungen mit solchen Personen berücksichtigen, die bestimmte soziale Verpflichtungen und Obligationen gegenüber dem Akteur haben (z.B. aufgrund von naher Verwandtschaft oder früheren Gefälligkeiten) oder sich an bestimmte etablierte Normen und Organisationsregeln halten (z.B. Reziprozitätsnorm, Verschwiegenheitsgebot). Auch wenn derartige Verfeinerungen hier unterbleiben, kommt folgenden Aspekten der Konzeptualisierung von Sozialkapital Bedeutung zu: • Wesentlich für das Sozialkapital eines Akteurs sind Verbindungen zu Personen, welche die angegebenen Bedingungen erfüllen. Letztere stellen insbesondere sicher, dass potenziell nutzenstiftende Transaktionen mit Akteuren aus dem eigenen Beziehungsnetzwerk existieren; dabei kann es sich um Tauschvorgänge mit zeitlicher Asymmetrie zwischen Leistung und Gegenleistung handeln. Weil Individuen bekanntlich versuchen, jeweils Mitglieder von solchen Netzwerken zu werden oder zu bleiben, die ihnen bei der Realisierung ihrer Präferenzen helfen, dürften die genannten Merkmale langfristig für die meisten Akteure gegeben sein. • Sozialkapital hat nichts mit gegenseitigem Wohlwollen zu tun. Nach der obigen Konzeptualisierung existiert es vielmehr unabhängig davon, ob Akteure eigennützige oder nicht-egoistische Handlungsorientierungen aufweisen. Kennzeichnend für Beziehungen mit Sozialkapital sind aus der Sicht eines bestimmten Akteurs allerdings ihm

1.2 Soziale Netzwerke und Sozialkapital

7

weitgehend bekannte Einschätzungen seiner Vertrauenswürdigkeit durch Netzwerkmitglieder. Man kann daher einfache empirische Indikatoren für das Sozialkapital eines Akteurs festlegen.2 • Zudem hängt das Sozialkapital eines Akteurs nicht davon ab, ob und inwieweit tatsächlich Ressourcen sofort ausgetauscht oder zunächst einseitig übertragen werden. In der obigen Deutung stellt der Begriff des Sozialkapitals lediglich auf ein Potenzial ab, das keineswegs realisiert werden muss.3 Letzteres ist sinnvoll, wenn man bedenkt, dass bei Tauschbeziehungen mindestens zwei Akteure involviert sind, deren Entscheidungen die jeweiligen Transfers bestimmen. Will man nun Austauschvorgänge erklären, so kann man nicht einerseits die Präsenz von Sozialkapital unterstellen und andererseits dieses Kapital im Sinne faktischer Ressourcentransfers interpretieren – man würde dadurch annehmen, was zu beweisen ist. Das letztgenannte Problem lässt sich vermeiden, wenn man Sozialkapital als den individuellen Zugriff auf potenzielle Tauschpartner aus dem persönlichen Beziehungsgeflecht deutet. Sozialkapital existiert danach bereits, falls man zumindest einen Netzwerkpartner hat, welcher die spezifizierten Kriterien erfüllt. Unabhängig von wirklichen Tauschvorgängen ist das Sozialkapital umso höher, je größer die Zahl der möglichen Tauschpartner oder Ressourcengeber aus dem eigenen Beziehungssystem ist. Aus individueller Sicht dürfte die Verfügbarkeit von Sozialkapital bedeuten, dass man Netzwerkpartner zu Ressourcentransfers zu bewegen versucht, also zunächst nicht auf fremde Akteure angewiesen ist. Finden tatsächliche Transfers im Gefolge von Ressourcennachfragen durch Personen mit Sozialkapital statt, so wird sich dadurch eventuell der individuelle Handlungsspielraum und damit auch der eigene Nutzen vergrößern. Insbesondere ist zu vermuten, dass Sozialkapital bestimmte, ansonsten schwerlich realisierbare Transaktionen (wie z.B. Kommissionsgeschäfte) fördert und/oder mit generell günstigeren Geschäftsbedingungen einhergeht. Daneben können faktische Leistungen (wie etwa Vermittlungstätigkeiten) zu einer dauerhaften Erweiterung des eigenen Kontaktnetzwerkes führen. Prinzipiell kann die Realisierung von Sozialkapital somit weiteres Sozialkapital generieren. Ein kontinuierlicher Akkumulationsprozess des Sozialkapitals wird dennoch nicht einsetzen: • Sozialkapital unterliegt einem Verschleiß (z.B. Coleman 1990), der in einem bestehenden Netzwerk nur durch die Fortführung etablierter Beziehungen ausgeglichen und überwunden werden kann. Verändert sich nun das Netzwerk etwa im Gefolge von tatsächlichen Verbindungsleistungen der „alten“ Bekannten und vernachlässigt 2 Betrachtet

man Drogengeschäfte, so kann man mit Braun et al. (2001) beispielsweise wie folgt argumentieren: Weil kein rationaler Drogenverkäufer seine Handy- bzw. Telefonnummer und/oder Adresse an von ihm als unzuverlässig klassifizierte Personen weitergeben wird, dürfte das Sozialkapital eines potenziellen Käufers dadurch messbar sein, von wievielen Dealern er die Rufnummer und/oder Adresse kennt. 3 Obwohl dies selten thematisiert wird, gilt eine ähnliche Aussage auch für den Standardfall der Humankapitaltheorie. Nach Becker (1964) steigern vermehrte Bildungsinvestitionen das allgemeine Humankapital einer Person, wodurch sich ihr möglicher Output pro Zeiteinheit und ihr Verdienstpotenzial erhöhen. Damit ist aber noch nichts über die faktische Wirkung des gestiegenen Kapitalstocks ausgesagt: Eine Realisierung des zusätzlichen Verdienstpotenzials setzt nämlich u.a. voraus, dass die betrachtete Person eine Arbeitsstelle gefunden hat, wo sie entsprechend ihrer Grenzproduktivität entlohnt wird. Weitere Akteure (z.B. Firmen) müssen also erst Entscheidungen treffen, damit sich die potenzielle Wirkung von Humankapital faktisch niederschlagen kann. Ersichtlich wird hierdurch auch die häufig bestehende Komplementarität zwischen Humankapital und Sozialkapital (Coleman 1988).

8

1 Sozialkapital, Vertrauen und Kooperation man die anfänglichen Kontakte zugunsten der „neuen“ Beziehungen, so wird sich das Sozialkapital aus diesen ursprünglichen Partnerschaften im Zeitablauf immer weiter vermindern. Dominiert diese Kapitalreduktion die durch Investitionen in zusätzliche Beziehungen geschaffene Kapitalerhöhung, so sinkt der gesamte Sozialkapitalstock. • Eine Person kann ihr etabliertes Netzwerk entweder durch den Einsatz privater Ressourcen (z.B. eigenständige Kontaktaufnahmen unter Einsatz von Zeit und Geld, falls die jeweiligen Adressaten dies zulassen) oder durch die Verwendung ihres realisierten Sozialkapitals (z.B. Nutzung der Verbindungen „alter“ Bekannter zum Aufbau „neuer“ Kontakte) erweitern. Weil die Aktivierung von Sozialkapital aber durch die Entscheidungen der bisherigen Interaktionspartner bestimmt wird, kann die langfristige Entwicklung des Sozialkapitals wesentlich von anderen Akteuren abhängen. • Aufgrund beschränkter eigener Ressourcen wird sich ein Individuum jeweils nur um ein begrenztes Netzwerk kümmern können. Daneben ist jeder Akteur selbst ein Produzent von Sozialkapital für seine Netzwerkmitglieder, sodass sein Handlungsspielraum bezüglich der Aufnahme von zusätzlichen Kontakten automatisch beengt wird.

Auch wenn das Sozialkapital damit generell begrenzt sein dürfte, müssten erfolgreiche Geschäfte jeweils förderlich für das beziehungsspezifische Sozialkapital sein. Solche Transaktionen kann man nämlich als Realisierungen von Sozialkapital ansehen, die ihrerseits die Wahrscheinlichkeit weiterer Tauschhandlungen der involvierten Akteure erhöhen. Plausiblerweise steigern erfolgreiche Tauschbeziehungen in der Gegenwart die gegenseitigen Zuverlässigkeitsschätzungen der Akteure, wodurch ihr beziehungsspezifisches Sozialkapital wächst und zukünftige Transaktionen gefördert werden. Finden tatsächliche Transfers statt, so kann sich dadurch jeweils der individuelle Handlungsspielraum und damit auch der eigene Nutzen vergrößern. Dabei können durch Sozialkapital geförderte Transaktionen sozial schädliche Folgen haben. Beispiele sind Schwarzarbeit, Insider-Trading an der Börse, Korruption und Geldwäsche. Weil Sozialkapital in der angebotenen Deutung nur auf ein Potenzial für Transaktionen im eigenen Netzwerk abstellt, ist allerdings zu erklären, unter welchen zusätzlichen Bedingungen tatsächliche Geschäfte stattfinden werden. Hierfür wurden Modellierungen (z.B. Lahno 1995; Raub 1992; Voss 1996) vorgeschlagen, deren Folgerungen teilweise auch empirisch geprüft wurden.

1.3 Vertrauensmodelle und empirische Evidenz Geklärt wird zunächst, ob ein eigeninteressierter Akteur einem anderen Akteur vertraut. Danach ist zu fragen, unter welchen Bedingungen ein solcher Vertrauensvorschuss gerechtfertigt wird. Nach den theoretischen Erörterungen werden einschlägige empirische Befunde präsentiert.

1.3.1 Colemans Modell der Vertrauensvergabe Coleman (1982, 1990) hat ein nutzentheoretisches Modell für die Vergabe von Vertrauen entwickelt. Danach kann ein rationaler Akteur (der potenzielle Treugeber oder Vertrauende) eine einseitige Vorleistung zugunsten eines anderen Akteurs (der potenzielle Treuhänder oder die potentielle Vertrauensperson) erbringen oder nicht. Zum Zeitpunkt der binären

1.3 Vertrauensmodelle und empirische Evidenz

9

Entscheidung ist aber unsicher, ob der Treuhänder den durch die Vertrauenssetzung geschaffenen Verpflichtungen (z.B. Rückgabe geliehenen Geldes inklusive Zins) nachkommen wird. Vorausgesetzt wird zudem, dass die Akteure durch Sozialkapital verknüpft sind. Zielsetzung des Modells ist die Deduktion empirisch prüfbarer Hypothesen zu den Determinanten der Vertrauensvergabe. Es empfiehlt sich eine schrittweise Besprechung der Annahmen, Folgerungen und Schwächen des Modells. Nach Coleman beruht die Entscheidung des möglichen Treugebers auf einem Vergleich von Erwartungswerten, wobei die folgenden exogen gegebenen Größen verwendet werden: • Hat der Treugeber Vertrauen gesetzt und der Treuhänder dieses Vertrauen gerechtfertigt, so erhält der Treugeber den Gewinn G > 0 (Gain). • Hat der Treugeber Vertrauen gesetzt und der Treuhänder dieses Vertrauen nicht gerechtfertigt, so entsteht für den Treugeber der Verlust −L < 0 (Loss). • Der Treugeber hat eine Einschätzung der Vertrauenswürdigkeit des Treuhänders, die in der Wahrscheinlichkeit 0 < p < 1 zum Ausdruck kommt. • Der Status Quo des möglichen Treugebers (keine Vertrauensvergabe) ist der Nullpunkt, so dass G und L als Geldwerte interpretiert werden können. Das Kalkül des Treugebers für die Vertrauensvergabe lautet (Vergleich des Erwartungswertes bei Vertrauensvergabe mit dem Status Quo (keine Vertrauensvergabe)): pG − (1 − p)L > 0 . Daher muss für seine Vertrauensvergabe gelten: p>

L =: p∗ , G+L

wobei p∗ den kritischen Wert von p bezeichnet, der für die Vertrauensvergabe überschritten werden muss. Daraus ergeben sich weitere empirisch prüfbare Vorhersagen: • Der kritische Wert der Vertrauenswürdigkeit p∗ steigt mit abnehmender Rate bei Zunahme des möglichen Verlusts L. • Der kritische Wert der Vertrauenswürdigkeit p∗ fällt mit zunehmenden Gewinn G so, dass die negative Steigung mit wachsendem G abnimmt. Hintergrund dieser Aussagen sind die (partiellen) Ableitungen des kritischen Wertes (siehe Braun und Gautschi 2011, Abschnitt 5.4 zu Details). Daneben kann man das Modell erweitern. Beispielsweise ist zu vermuten, dass G und L in der Realität oft voneinander abhängen – beispielsweise reflektieren die Zinsen bei Kreditgeschäften die Leihsummen. Angenommen wird deshalb, dass der Ertrag einer Vertrauensvergabe eine steigende Potenzfunktion des potenziellen Verlustbetrags ist: Formal wird nun also G = α · L β mit den positiven Parametern α und β vorausgesetzt, wobei L und p weiterhin exogene Modellgrößen sind. Daher ist der kritische Wert für die Vertrauensvergabe jetzt nur mehr eine Funktion des Verlusts: L L p∗ = = , G(L) + L α · Lβ + L

10

1 Sozialkapital, Vertrauen und Kooperation

woraus die folgende Ableitung des kritischen Werts für die Vertrauensvergabe nach dem eventuellen Verlust resultiert: dp∗ (1 − β) · α · L β = . dL (α · L β + L)2 Nach einer leichten Umformung ergibt sich ein Resultat, das sich auf die Zusammenhänge zwischen der Veränderung des kritischen Werts für die Vertrauensvergabe nach einer kleinen Änderung des dabei möglichen Verlusts und der Abhängigkeit des dadurch erreichbaren Ertrags vom eventuellen Verlustbetrag bezieht: dp∗ dL

>


1.

Damit die Vertrauensvergabe nach einer Erhöhung des riskierten Einsatzes wahrscheinlicher wird, also der kritische Wert p∗ für den Vertrauensvorschuss sinkt und wegen p > p∗ dann auch eher die Vorleistung erfolgt, muss der mögliche Gewinn durch gerechtfertigtes Vertrauen prozentual stärker steigen als der potenzielle Verlust durch den Bruch des Vertrauens.4 Diese empirisch prüfbare Folgerung korrespondiert mit Alltagserfahrungen – bei einem höheren riskanten Einsatz hat oftmals auch der versprochene Gewinn überproportional zu steigen, damit das Geschäft überhaupt zustande kommt. Letzteres konnte u.a. bei der Verzinsung von neuen Kreditaufnahmen durch besonders verschuldete Länder im Rahmen der Euro-Krise in den Jahren 2010 und 2011 mehrfach beobachtet werden. Auf den ersten Blick scheint das Modell und seine geringfügige Erweiterung wesentliche Elemente einer Entscheidung für oder gegen die Vertrauensgewährung zu berücksichtigen. Dennoch gibt es verschiedene Schwächen und einige offene Fragen bezüglich der Modellierung: • Der erwartete Nutzen der Vertrauensvergabe ist linear in G und −L, d.h. es wird Risiko-Neutralität unterstellt. • Die Quantifizierbarkeit von G und L ist keineswegs immer möglich (z.B. Mitteilung privater Dinge an Vertrauensperson). • Es gibt keinerlei Begründung für p, die vom Treugeber geschätzte Vertrauenswürdigkeit des Treuhänders (siehe hierzu aber Braun und Gautschi 2011: 139-144). • Gewinn und Verlust werden gleich behandelt, obwohl dies aus empirischer Sicht nicht so zu sein scheint (z.B. Kahneman und Tversky 1979, 1984).5 • Wie kann man zwischen Freunden, Bekannten und Fremden differenzieren? Oder: Kann man am Wert von p erkennen, ob jemand ein Freund, ein Bekannter oder ein Fremder ist? 4 Auf

der rechten Seite der Bedingung steht eine Elastizität, die im betrachteten Sonderfall (Ertrag als Potenzfunktion des Verlusts) dem Parameter β entspricht. Generell steigt (oder sinkt) demnach der kritische Wert der Vertrauensvergabe, wenn und nur wenn die Verlust-Elastizität des Gewinns durch die Vertrauensvergabe an der betrachteten Stelle kleiner (oder größer) als Eins ist. Grob gesprochen bedeutet dies, dass bei einer einprozentigen Steigerung des Verlustbetrags nur ein höherprozentiges Wachstum der Ertragssumme die Bereitschaft zur Vertrauensvergabe vergrößert. 5 Ein verlorener Betrag scheint im Entscheidungskalkül etwas mehr als doppelt so gewichtig zu sein wie derselbe Betrag als Ertrag.

1.3 Vertrauensmodelle und empirische Evidenz

11

Die wohl wichtigste Kritik ist jedoch, dass durch das Modell die spätere Entscheidung des Treuhänders nicht betrachtet wird, d.h. die strategische Interdependenz der Akteure bleibt ausgeblendet. Für die Erfassung dieser Interdependenz hat man ein spieltheoretisches Modell zu formulieren.

1.3.2 Vertrauensspiel und einige Erweiterungen Eine grundlegendes strategisches Modell ist das von Dasgupta (1988) und Kreps (1990) vorgeschlagene Vertrauensspiel (Trust Game). Es handelt sich dabei um ein einzelnes nichtkooperatives Spiel zwischen zwei rationalen Egoisten (Spieler 1 oder Treugeber, Spieler 2 oder Treuhänder) mit vollständiger Information im Sinne gemeinsamen Wissens, in dem Spieler 1 den ersten Zug hat. Betrachtet wird also eine einmalige Interaktionssituation, die durch sequenzielle Verhaltensentscheidungen, die Unmöglichkeit bindender Verträge, die Kenntnis der extensiven Form des Spiels und beiderseitiges Wissen über diese Informationsgrundlage gekennzeichnet ist (Abbildung 1.1). Abbildung 1.1: Vertrauensspiel mit vollständiger Information

G

R

−L

T

0

0

Vertrauen erwidern 2 Vertrauen gewähren

Vertrauen missbrauchen

1 Vertrauen verweigern

Annahmen: −L < 0 < G; 0 < R < T .

Zunächst wählt Spieler 1 zwischen den reinen Strategien der Gewährung oder der Verweigerung von Vertrauen. Die Interaktion endet, falls Spieler 1 misstraut und keine Leistung (z.B. Entrichtung des Kaufpreises) erbringt. Entscheidet er sich jedoch für die Vertrauensvergabe und damit die einseitige Leistung, so hat Spieler 2 im zweiten Zug die Wahl zwischen der Rechtfertigung (z.B. Abgabe eines Gutes mit guter Qualität) oder der Enttäuschung des Vertrauens (z.B. Abgabe eines Gutes mit schlechter Qualität). Die Ordnungen der Auszahlungen (kardinale Nutzenniveaus) sind −L < 0 < G für den Treugeber und 0 < R < T für den Treuhänder. Der Treuhänder präferiert also den Vertrauensbruch gegenüber der Rechtfertigung des Vertrauens (T > R). Der Treugeber weiß, dass die zu-

12

1 Sozialkapital, Vertrauen und Kooperation

künftige Handlung des Treuhänders bestimmt, ob seine Vertrauensvergabe für ihn zu einem Ertrag (Gain) G > 0 oder zu einem Verlust (Loss) −L < 0 führt. Seine Entscheidung wird vom voraussichtlichen Verhalten des Treuhänders abhängen. Weil die Versuchung (Temptation) T die Belohnung (Reward) R dominiert, wird Spieler 2 immer defektieren. Aus defensiven Gründen wird ein rationaler Treugeber mit vollständiger Information daher keinesfalls kooperieren. Dies gilt, obwohl Spieler 1 an sich eine Präferenz für die Vertrauenssetzung besitzt und auch Spieler 2 von einer Vertrauensbeziehung profitieren würde. Das Vertrauensspiel hat mithin ein eindeutiges (teilspielperfektes) Gleichgewicht (Nash 1951; Selten 1965), das ineffizient (im Sinne von Pareto) ist (siehe auch Kapitel 9 im ersten Band des Buches): Spieler 1 verweigert Vertrauen, weil Spieler 2 Vertrauen enttäuschen würde. Nach der spieltheoretischen Vorhersage für das einfache Vertrauensspiel dürften somit nirgendwo Vertrauensbeziehungen existieren. Da aber in der Realität eine Vielzahl von derartigen Beziehungen beobachtet werden können, ist eine Anreicherung oder Modifikation des offensichtlich realitätsfernen spieltheoretischen Modells erforderlich. Es gibt verschiedene Mechanismen, die Kooperation (also gerechtfertigte Vertrauenssetzung) durch Erweiterungen des ursprünglichen Modells erklären. Weil deren formale Hintergründe bereits von Braun und Gautschi (2011: Kap. 9) erläutert werden, kann hier die Angabe von derartigen Details unterbleiben und eine weitgehende verbale Erörterung erfolgen.

A. Unvollständige Information Eine erste Erklärung für gegenseitige Kooperation ergibt sich durch die Einführung unvollständiger Information (Dasgupta 1988). In diesem Fall weiß Spieler 1 nicht genau, ob Spieler 2 den Vertrauensbruch gegenüber der Vertrauensrechtfertigung präferiert. Im einfachsten Szenario besitzt er lediglich eine exogen vorgegebene Wahrscheinlichkeit v dafür, dass Spieler 2 vertrauenswürdig sein wird, die letzterem bekannt ist. Diese Wahrscheinlichkeit der Vertrauenswürdigkeit kann man als Schätzung des potenziellen Treugebers auffassen, die z.B. seine persönlichen Erfahrungen in früheren Vertrauenssituationen oder die Kennzeichen und Signale des möglichen Treuhänders reflektiert. Besteht eine längerfristige Beziehung zwischen den Akteuren, so müsste der Treuhänder über den (vom Treugeber verwendeten) Schätzwert seiner Zuverlässigkeit hinreichend informiert sein. Es müsste also Sozialkapital im Sinne der obigen Definition vorliegen. Man kann nun nach den Implikationen der Einführung unvollständiger Informationen in das Vertrauensspiel fragen. Im einfachsten Szenario wird die extensive Form des einfachen Vertrauensspiels durch einen Anfangszug der „Natur“ erweitert, wonach der Treuhänder zurecht als entweder zuverlässig oder unzuverlässig klassifizierbar ist und dies auch allgemein bekannt ist (z.B. Voss 1996). Genauer gesagt wird er mit der Wahrscheinlichkeit π als vertrauenswürdig kategorisiert und diese Einschätzung korrespondiert mit seinen Handlungen. Insgesamt erweitert diese Kategorisierung das Spiel etwas, weil für den Treuhänder zusätzliche Auszahlungen bei Vertrauensrechtfertigung und Vertrauensmissbrauch verfügbar werden. Unter sonst analogen Bedingungen wird danach eine Vertrauenssetzung (als Komponente eines teilspielperfekten Gleichgewichts) erfolgen, falls πG + (1 − π)(−L) > 0 erfüllt ist, da ja der Nullpunkt annahmegemäß das Nutzenniveau des Referenzszenarios der Vertrauensverweigerung festlegt. In dem betrachteten Szenario wird eine erfolgreiche Vertrauensbeziehung daher für eine hinreichend große und korrekte Zuverlässigkeitseinschätzung

1.3 Vertrauensmodelle und empirische Evidenz

13

von Spieler 2 durch Spieler 1 stattfinden. Generell ergibt sich ein (teilspielperfektes) Gleichgewicht der gerechtfertigten Vertrauenssetzung für π>

0 − (−L) L = =: π ∗ . G − (−L) G+L

Hierbei ist π ∗ , der kritische Wert für die Wahrscheinlichkeit der Vertrauenswürdigkeit, ein Quotient von Auszahlungsdifferenzen des potenziellen Treugebers. Sein Zähler repräsentiert die Kosten des Treugebers bei ungerechtfertigter Vertrauensvergabe, während sein Nenner den Kooperationsgewinn bei zuverlässigem Verhalten des Treuhänders ausdrückt. Interpretiert man π ∗ mit Snijders (1996: 95) als das Risiko der Vertrauensvergabe, so fordert die Gleichgewichtsbedingung, dass die Wahrscheinlichkeit der Vertrauenswürdigkeit des Treuhänders das situationsspezifische Risiko des Treugebers dominiert. Dieses Resultat entspricht der Bedingung, die von Coleman (1990) im Rahmen der nutzentheoretischen Analyse der Vertrauensvergabe spezifiziert wurde (dies gilt für p = π). Vor diesem Hintergrund stellt sich die Frage nach den Bestimmungsgründen der Vertrauenswürdigkeit des potenziellen Treuhänders durch den eventuellen Treugeber. Bekanntlich kann sie dessen persönliche Erfahrungen in früheren Vertrauenssituationen mit dem möglichen Treuhänder oder die Kennzeichen und Signale dieses Akteurs reflektieren (für eine informative Fallstudie siehe Gambetta und Hamill 2005). Im Wirtschaftsleben existieren jedoch auch Institutionen, die bei der Bestimmung der Vertrauenswürdigkeit behilflich sind: Informationen über die bisherige Bonität von Personen stellen spezielle Auskunfteien (z.B. Schufa) bereit und ordinale Einschätzungen der Kreditwürdigkeit von z.B. Unternehmen und Staaten erfolgen durch „Rating-Agenturen“ auf der Grundlage von verfügbarem Datenmaterial. Sofern derartige Einstufungen der vermutlichen Zuverlässigkeit weithin bekannt sind, bestimmen sie im Sinne des Sozialkapital-Konzepts die Möglichkeiten oder Opportunitäten von Akteuren. B. Wiederholte Interaktionen Eine weitere Argumentationslinie stellt auf die zeitliche Einbindung von Interaktionen zwischen Akteuren ab. Sie beruht auf der Logik der Folk Theoreme für iterierte nichtkooperative Spiele (z.B. Osborne und Rubinstein 1994): Wird das einfache Vertrauensspiel unbestimmt häufig (d.h. unendlich oft) wiederholt und entspricht die Auszahlung jedes Akteurs im iterierten Spiel jeweils der Summe seiner diskontierten Auszahlungen in dessen einzelnen Runden, so existieren für hinreichend große Diskontparameter (teilspielperfekte) Gleichgewichte in bedingten Strategien für das wiederholte Vertrauensspiel derart, dass in jeder Runde zurecht Vertrauen gewährt wird. Die bedingten Gleichgewichtsstrategien im iterierten Spiel können z.B. vorschreiben, in jeder Runde Vertrauen zu gewähren (zu rechtfertigen), solange zuvor beiderseitige Kooperation realisiert werden konnte, andernfalls jedoch dauerhaft Vertrauen zu verweigern (zu enttäuschen). Für die Herleitung von Kooperation durch unendlich häufige Iteration wird üblicherweise unterstellt, dass • jeder Akteur zukünftige Auszahlungen P∞ t−1 exponentiell diskontiert (der Payoff für das wiederholte Spiel ist ui = · uit , wobei δ den Diskontierungsfaktor zur t=1 δ Erfassung der Zukunftsorientierung bezeichnet und uit das Nutzenniveau (also das erzielte Ergebnis) von Akteur i in der t-Runde des iterierten Spiels ist) und

14

1 Sozialkapital, Vertrauen und Kooperation • dabei eine vorgegebene Superspielstrategie (also die Regel zur Strategiewahl in einzelnen Runden des iterierten Spiels wie etwa „Grim“ („Ewige Vergeltung“)) beibehält.

Unter diesen Voraussetzungen kann man untersuchen, ob Kooperation zwischen Egoisten dann entsteht, wenn die Logik des einfachen Vertrauensspiels mit vollständiger Information mit einer (kleinen) Wahrscheinlichkeit immer wieder auftritt. Als Resultat dieser Modellierung ergibt sich, dass dauerhafte Vertrauensrechtfertigung ein Gleichgewicht des iterierten Vertrauensspiels ist, wenn δ ≥ 1 − (R/T ). Die im (für die Akteure gleichen) Diskontparameter δ repräsentierte Zukunftsorientierung muss also hinreichend groß sein, um stabile Kooperation durch plantreu handelnde Akteure zu bewirken. Dies ist ein Folk Theorem für Vertrauenssituationen. Das Theorem besagt in Worten, dass Vertrauensbeziehungen zwischen rationalen Egoisten dann erfolgen, wenn die (durch den jeweiligen Diskontfaktor) ausgedrückte Zukunftsorientierung und damit das Interesse an künftigen Interaktionen hinreichend stark ist. Die Bedingung für stabile Kooperation wird dabei weniger restriktiv, wenn man mit Raub und Weesie (1990) unterstellt, dass Informationen über unkooperatives Verhalten aufgrund der Netzwerkeinbindung der Akteure auch an Dritte gelangen. C. Glaubwürdige Festlegungen Es gibt Mechanismen, die unabhängig von der zeitlichen Einbindung der Interaktion und der gegenseitigen Vertrauenseinschätzung kooperationsfördernd wirken können. Verschiedene Autoren (Raub und Keren 1994; Weesie und Raub 1996) analysieren erweiterte Vertrauensspiele, in denen Spieler 2 (noch vor der Entscheidung von Spieler 1) Sicherheiten hinterlegen kann, um sich glaubwürdig auf Kooperation zu verpflichten. Betrachtet wird ein Vertrauensspiel mit einseitiger Pfandvergabe (z.B. Stellung von Geiseln im Mittelalter, Kaution bei Wohnungsanmietung, Garantie auf tragende Teile bei Gebrauchtwagenkauf). Aus der Perspektive des Treuhänders besitzt die Sicherheit dabei den Wert W und ihre Hinterlegung verursacht Transaktionskosten V (z.B. Opportunitätskosten). Vertraut Spieler 1 aufgrund der Vorleistung Spieler 2, so kann er das Pfand einbehalten, wenn Spieler 2 sein Vertrauen enttäuscht. Bei erfolgreicher Kooperation erhält Spieler 2 dagegen das Pfand zurück. Das durch eine einseitige Pfandabgabe erweiterte Vertrauensspiel besitzt ein (teilspielperfektes) Gleichgewicht derart, dass der Spieler 2 seine vertrauensfördernde Vorleistung erbringt, Spieler 1 Vertrauen gewährt und Spieler 2 dieses Vertrauen honoriert, wenn gilt: W ≥ T − R. Für eine erfolgreiche Vertrauensbeziehung muss demnach der Wert des Pfandes (W ) die Kooperationskosten des Treuhänders (T −R) zumindest schwach dominieren. Ist das Pfand für den Treuhänder hinreichend wertvoll, so wirkt seine Stellung als glaubwürdige Verpflichtung, welche die eigentliche Transaktion durch die Lösung des Kooperationsproblems im isolierten Vertrauensspiel ermöglicht. Einmalige Tauschbeziehungen sind oft unrealistisch. Es ist deshalb sinnvoll, die zeitliche Eingebundenheit von Tauschsituationen nicht völlig auszublenden. Raub (1992) kombiniert deshalb die Pfänderlogik mit der Argumentationslinie der Interaktionswiederholung.

1.3 Vertrauensmodelle und empirische Evidenz

15

Danach kann eine Mischung aus wiederholten Interaktionen und glaubwürdigen Verpflichtungen für gegenseitige Kooperation selbst dann hinreichen, wenn keiner der beiden Mechanismen alleine ausreicht (also die einzelnen Gleichgewichtsbedingungen verletzt sind).

1.3.3 Experimentelle und empirische Befunde Man kann die verschiedenen theoretischen Hypothesen mit Daten abgleichen. Experimentelle Befunde zum Vertrauensspiel wurden von Snijders (1997) vorgelegt. Sie zeigen, dass insbesondere die bereits von Coleman herausgearbeitete Bedingung für die Vertrauensvergabe eine brauchbare Hypothese bei der Analyse von Vertrauenssituationen darstellt. Dies ist interessant, weil diese Bedingung auch bei der Analyse des Vertrauensspiels mit unvollständiger Information resultiert. Empirische Befunde zur Bedeutung von Sozialkapital und den einzelnen Kooperationsmechanismen im Vertrauensspiel (unvollständige Information, unbestimmt häufige Iteration, Pfandlösung) wurden von Braun et al. (2001) in einer Drogenmarktstudie vorgelegt. Dabei zeigte sich u.a., dass eine Kooperationssicherung durch glaubwürdige Verpflichtungen (d.h. Pfänder) im Drogenschwarzmarkt nur sehr selten erfolgt. Eine plausible Erklärung dieses Befundes ist, dass die bestehende Vernetzung der Tauschpartner im Drogenmarkt schon so stark ist, dass sich die vergleichsweise teure Stellung von Pfändern erübrigt – Kooperation auf der Grundlage der voraussichtlichen Zukunft der Interaktionsbeziehung (unbestimmte Iteration) und/oder der durch die Interaktionsgeschichte geprägten Einschätzung der Vertrauenswürdigkeit (unvollständige Information) ist kostengünstiger als Kooperation durch glaubwürdige Verpflichtungen (Pfandgewährung). Die Stärke der bestehenden Vernetzung in Drogenmärkten zeigt sich nach den Ergebnissen von Braun et al. auch daran, dass Geschäfte mit einer zeitlichen Asymmetrie zwischen Angebots- und Nachfrageleistung durch enge Verbindungen zwischen den Tauschpartnern gekennzeichnet sind. Solche Tauschhandlungen finden insbesondere dann statt, wenn der Nachfrager Hilfsdienste für den Anbieter (z.B. Schmierestehen, Vermitteln) erbringt und von diesem offenbar als vertrauenswürdig eingeschätzt wird (Kenntnis der Handynummer oder Adresse des Anbieters). Daneben geht eine bessere Ausstattung mit Sozialkapital (d.h. gute Verbindungen in der Szene) offenbar mit faktisch günstigeren Geschäftsbedingungen einher. Realisiertes Sozialkapital vergrößert Handlungsspielräume im Drogenmarkt, erschwert aber die Arbeit der Ermittlungsbehörden. Wie die ausführlicheren Überblicke von Buskens und Raub (2002, 2004) dokumentieren, liegen zudem Befragungsresultate über legale Transaktionen vor, welche die diskutierten Einflüsse der sozialen Einbettung bei der Lösung von Vertrauensproblemen im regulären Wirtschaftsleben nachweisen. Zusätzlich zur Dyade Treugeber-Treuhänder erscheint danach auch das Netzwerk der sozialen Beziehungen von Treuhänder und Treugeber mit dritten Parteien wesentlich. Dies gilt insbesondere, wenn man sich für die Bestimmungsgründe der geschätzten Vertrauenswürdigkeit des möglichen Treuhänders aus der Sicht des potenziellen Treugebers interessiert. Danach sind es nämlich nicht nur die eigenen Informationen des Treugebers über das frühere Verhalten des Treuhänders, welche beim Treugeber Lerneffekte über die Vertrauenswürdigkeit des Treuhänders, also dessen Neigung zur Honorierung von Vertrauen, bewirken. Vielmehr kann der Treugeber über sein Beziehungsnetzwerk auch Informationen von dritten Parteien erhalten, welche die einschlägige Vergangenheit des Treuhänders betreffen und im Rahmen von Lernvorgängen jeweils dessen geschätzte Vertrauenswürdigkeit verändern. Die geschätzte Vertrauenswürdigkeit des Treuhänders und

16

1 Sozialkapital, Vertrauen und Kooperation

damit die Neigung des potenziellen Treugebers zur Vertrauensgewährung steigen bei positiven Informationen dann z.B. mit der Dichte des Netzwerkes der Beziehungen, die der Treugeber mit anderen Treugebern des Treuhänders hat (Buskens 2002). Das Wohlverhalten des Treuhänders in Vertrauensbeziehungen kann dementsprechend die Entstehung und Stabilisierung weiterer profitabler Beziehungen mit anderen Akteuren fördern, sofern eine hinreichende Vernetzung gewährleistet ist. Neben den dahinter stehenden Lerneffekten können Möglichkeiten der Kontrolle für den Treugeber bestehen. Derartige Kontrolleffekte ergeben sich insbesondere dann, wenn der Treuhänder im Hinblick auf künftige Tauschsituationen zumindest teilweise vom Verhalten des Treugebers abhängt. Um Fehlverhalten des Treuhänders zu verhindern, kann der Treugeber z.B. mit der Verweigerung zukünftiger Vorleistungen drohen. Zudem kann ein Treugeber jeweils Informationen über etwaige Vertrauensbrüche eines Treuhänders an Netzwerkpartner weitergeben. Dadurch wird sich dessen Ruf oder Reputation als zuverlässiger Partner verschlechtern. Zudem werden sich die Neigungen potenzieller Treugeber für weitere Vertrauensbeziehungen mit diesem Treuhänder vermindern. Durch Netzwerkverbindungen ergeben sich also Möglichkeiten der Sanktionierung durch dritte Parteien, die wesentlich mit Reputation und deren Wirkungen zu tun haben. Weit über die Vertrauensthematik hinaus, können Kooperationsprobleme u.a. durch direkte und indirekte Reputationseffekte lösbar werden. Ähnliches ist bezüglich der Wahl von Netzwerkpartnern zu vermuten.

1.4 Netzwerkpartnerwahl und Kooperation Um generell zu klären, wie eigeninteressierte vernünftige Akteure zu der für einen Tauschvorgang konstitutierenden selbsttragenden Kooperation gelangen, werden im Rahmen der Rational-Choice-Forschung jeweils soziale Dilemma-Situationen untersucht. Soziale Dilemmata, wie das bereits besprochene Vertrauensspiel, das berühmte Gefangenendilemma, das Kollektivgut-Dilemma oder das Allmendeproblem (z.B. Hardin 1968; Hardin 1982, 1997; Olson 1965), sind durch sozial ineffiziente Gleichgewichtslösungen gekennzeichnet (siehe hierzu Kapitel 9 im ersten Band des Buches). In der einfachsten Variante dieser Spiele haben die rein egoistisch motivierten Akteure jeweils zwischen den gegensätzlichen Verhaltensoptionen der Kooperation und Defektion (d.h. Trittbrettfahrer-Verhalten) zu wählen. Defektion ist dabei stets individuell vorteilhaft, obwohl die Spieler allesamt von gegenseitiger Kooperation profitieren würden. Auf sich allein gestellt haben Akteure jeweils unzureichende Anreize zur Kooperation, da sie sonst durch die defektierenden Partner ausgebeutet werden können. Wie bereits bei der Besprechung der Vertrauensproblematik deutlich wurde, sind unter bestimmten Voraussetzungen allerdings auch dann kooperative Lösungen sozialer Dilemmata möglich. Solche Lösungen beruhen aber in der Regel auf dem Spiel nicht innewohnenden Mechanismen wie etwa der unendlichen Wiederholung des konstituierenden Basisspiels (d.h. der Annahme einer unbestimmt häufigen Iteration der ursprünglichen Situation), der Einführung eines übergeordneten Spiels zur Bestrafung abweichenden Verhaltens durch die Partner im Dilemma-Spiel (z.B. Boyd und Richerson 1992; Fehr und Gächter 2000, 2002) oder der Berücksichtigung der Einbettung in exogen vorgegebene Netzwerkstrukturen (z.B. Buskens und Raub 2004; Raub und Weesie 1990).

1.4 Netzwerkpartnerwahl und Kooperation

17

Die Analysen solcher Mechanismen vernachlässigen jedoch einen in der Realität wichtigen Punkt: Akteure in sozialen Dilemma-Situationen sind keineswegs immer an die exogen vorgegebene Netzwerkstruktur (im Kleinsten eine Dyade) gebunden, sondern dürfen ihre Tauschpartner oftmals frei wählen. Sie können somit vorhandene Netzwerkverbindungen lösen und neue Verbindungen aufbauen. Anders gesagt: Akteure wählen ihre Tauschpartner und sie werden eventuell von anderen Akteuren gewählt. Diese gegenseitige Bestimmmung der Tauschpartner dürfte der Trittbrettfahrer-Problematik sozialer Dilemmata durch den Ausschluss von defektierenden Partner aus dem Netzwerk erfolgreich entgegenwirken. Wenn also z.B. das Gefangenendilemma nicht in Netzwerkstrukturen gespielt wird, welche (durch den Forscher) exogen bestimmt und unveränderbar sind, sondern die Tauschpartner in einem ersten Schritt frei gewählt werden können, so ist eine erhöhte Wahrscheinlichkeit der Kooperation zu erwarten. Orbell und Dawes (1993) präsentieren experimentelle Resultate, welche diese Vermutung stützen. Ausgangspunkt ihrer Überlegungen ist die Annahme, dass Akteure mit einer kooperativen Einstellung geneigter sind als Trittbrettfahrer, sich auf Interaktionen mit anderen Akteuren einzulassen. Wenn diese Behauptung zutrifft, haben kooperative Akteure konsequenterweise eine erhöhte Wahrscheinlichkeit, in sozialen Dilemmata auf weitere kooperative Akteure zu treffen. Orbell und Dawes überprüften ihre Behauptungen in einer einfachen experimentellen Anordnung, in der sie 18 Kontroll- und 18 Versuchsgruppen (Treatmentgruppen) zu je sechs Teilnehmer bildeten. In den Kontrollgruppen spielte jeder der sechs Versuchspersonen je ein Gefangenendilemma gegen die anderen fünf Personen. In den Treatmentgruppen konnte jede Versuchsperson zuerst wählen, mit welchen der fünf potenziellen Partnern sie je ein Gefangenendilemma spielen wollte. Die durchschnittlichen Gewinne der Individuen in den Gruppen mit Treatment fielen signifikant höher aus als die durchschnittlichen individuellen Gewinne in den Kontrollgruppen. Darüber hinaus war das Gewinnverhältnis zwischen kooperativ und defektiv eingestellten Versuchspersonen in der Treatmentgruppe deutlich besser als in der Kontrollgruppe. Kooperative Individuen haben danach also einen doppelten Vorteil, sofern sie ihre Interaktionspartner frei wählen können. Nach den experimentellen Befunden hängt der wohlfahrtssteigernde Effekt der freien Partnerwahl jedoch von einer kritischen Masse kooperativ eingestellter Individuen ab: Die Wahrscheinlichkeit des Zusammentreffens mit einem ebenfalls kooperativ eingestellten Partner sinkt mit einem fallenden Anteil kooperativer Individuen in der Menge potenzieller Tauschpartner. Zu ähnlichen Ergebnissen kamen auch Hauk und Nagel (2001) in Experimenten zu einem endlich wiederholten Gefangenendilemma, das über zehn Runden gespielt wurde. Hauk und Nagel ließen dieses wiederholte Gefangenendilemma unter drei verschiedenen Bedingungen in Gruppen zu je sieben Versuchspersonen spielen. Die erste Gruppe hatte keine freie Partnerwahl und jedes Individuum war gezwungen, das wiederholte Gefangenendilemma mit einer zufällig zugewiesenen Versuchsperson zu spielen. In der zweiten Gruppe konnte jeder Versuchsteilnehmer wählen, ob er mit seinem zufällig zugewiesenen Partner spielen wollte. Das wiederholte Gefangenendilemma wurde in jeder Dyade gespielt, welche durch die unilaterale Wahl eines Partners zustande kam. In der dritten Gruppe wurde das wiederholte Gefangenendilemma lediglich in den Dyaden gespielt, welche durch eine gegenseitige Wahl der Partner zustande kamen. Eine echte Ausstiegsmöglichkeit im Sinne des Nichtspielens des Gefangenendilemmas war somit nur in der dritten Gruppe vorhanden. Nach jeder Runde (d.h. zehn Gefangenendilemmata in einer Dyade) wurden die potenziellen Dyaden neu gebildet, bis schließlich jede Versuchsperson mit jeder anderen Versuchsperson einmal zusammengebracht worden war.

18

1 Sozialkapital, Vertrauen und Kooperation

Die Experimente von Hauk und Nagel hatten mehrere interessante Resultate. Die durchschnittlichen Kooperationsraten (d.h. der Anteil kooperativ spielender Individuuen unter den jeweiligen Versuchsteilnehmern) in der ersten und zweiten Gruppe unterschieden sich nicht, waren jedoch höher als in der dritten Gruppe. Dies weist auf einen gewissen Vorteil einer erzwungenen Interaktion hin, neigen die Dyaden doch über die Dauer von zehn Runden zu erhöhter Kooperation. Betrachtet man jedoch lediglich den Anteil kooperativ spielender Individuen unter allen Versuchspersonen, die das wiederholte Gefangenendilemma auch wirklich spielten, so ergeben sich in der zweiten und dritten Gruppe deutlich höhere Kooperationsraten als in der ersten Gruppe. Zudem kann man für die Versuchspersonen in der dritten Gruppe keinen Zerfall der Kooperationsraten über die Dauer des Experiments nachweisen. Dies dürfte damit zusammenhängen, dass Versuchspersonen mit einer Tendenz zur Defektion in der zweiten und dritten Gruppe über die Dauer des Experiments hinweg eher die Ausstiegsoption (d.h. nicht spielen) wählten als kooperative Versuchspersonen. Die Resultate von Hauk und Nagel decken sich mit den Resultaten von Orbell und Dawes (1993). Es zeigt sich insbesondere, dass eine Exit-Option (vgl. Hirschman 1970) gegenüber der Vergeltung (also Defektion als Antwort auf Defektion) favorisiert wird. Der Ausstieg muss also möglich sein, um permanent defektierende Akteure ausschließen zu können. Die Wahl der Exit-Option sollte aber nicht zu einfach sein, um die Kooperationsraten dennoch hoch zu halten. Wie Orbell und Dawes (1993) zeigen, muss die Wahrscheinlichkeit eines kooperativen Akteurs auf einen anderen kooperativen Akteur zu treffen, hinreichend hoch sein, damit hohe Kooperationsraten auch wirklich möglich werden. Bietet man potenziell kooperativen Akteuren dagegen nur eine einfache Exit-Option an, vermag auch eine freie Partnerwahl ein soziales Dilemma nicht oder nur bedingt zu lösen. Die Wahl spezifischer Interaktionspartner kann somit die in der Realität beobachtbaren Kooperationsraten prinzipiell erklären.6 Die Wahl eines Interaktionspartners ist in der Regel jedoch mit gewissen Kosten verbunden. Ob diese Kosten der Partnerwahl die Kooperationsraten beeinflussen, haben Coricelli, Fehr und Fellner (2004) untersucht. Sie wählten hierfür einen zu Orbell und Dawes (1993) vergleichbaren experimentellen Ansatz der unilateralen und bilateralen Partnerwahl und verglichen die Resultate der beiden Treatmentgruppen zu zwei Kontrollgruppen, in denen die Partnerschaften zufällig ausgelost wurden. Alle Dyaden spielten ein endlich wiederholtes Kollektivgutspiel, in dem in jeder Runde maximal 25 Einheiten investiert werden könnten. Investitionen lohnten sich jedoch nur, wenn diese von beiden Spielern vorgenommen wurden. Die Wahl defektierender Interaktionspartner war also mit Kosten verbunden. Wie in den besprochenen Experimenten fanden auch Coricelli, Fehr und Fellner höhere Kooperationsraten in den Treatmentgruppen. Dabei unterschieden sich die Beiträge, welche kooperative Individuen für die Bereitstellung des öffentlichen Gutes leisten, nicht signifikant zwischen den vier experimentellen Gruppen. Es resultierte aber ein stabileres Kooperationsverhalten über die fünf Runden des Dilemma-Spiels in den Treatmentgruppen. Die Entstehung und Stabilisierung von Kooperation bei freier Partnerwahl scheint somit ein robustes Resultat zu sein, findet sich der Effekt doch in allen drei betrachteten Studien. Die Experimente von Coricelli, Fehr und Fellner zeigten zusätzlich, dass potenziell kooperative Individuuen auch bereit sind, mehr in die Partnerwahl zu investieren (d.h. höhere 6 Eine

freie Partnerwahl kann jedoch nicht der einzige Grund sein, wieso in Experimenten und der Wirklichkeit relativ hohe Kooperationsraten in Dilemma-Situationen zu beobachten sind. Vermutlich wird Kooperation durch Akteure gelernt, wenn sie wiederholten Interaktionen ausgesetzt sind.

1.4 Netzwerkpartnerwahl und Kooperation

19

Gebote für die präferierten Interaktionspartner abzugeben) als eher defektiv eingestellte Versuchspersonen. Die Vermeidung defektierender Partner bleibt mithin auch unter Kosten attraktiv. Individuen sind offenbar gewillt, beträchtliche Kosten auf sich zu nehmen, um die Wahrscheinlichkeit einer exogenen Zuteilung zu einem beliebigen Spielpartner zu minimieren.7 Einen Schritt weiter in der Untersuchung der Partnerwahl und Kooperation geht Ule (2008). Sein Ausgangspunkt ist ein dem N –Personen-Gefangenendilemma ähnliches Spiel, bei dem die Spielstruktur durch die endogenisierten Netzwerkverbindungen zwischen den Spielern bestimmt wird. Jeder Akteur hat zwei Entscheidungen zu treffen. In einem ersten Schritt wählt jeder Akteur seine Partner. Dabei kommt eine Verbindung zwischen zwei Akteuren nur bei gegenseitiger Wahl zustande. Im zweiten Schritt spielen die verbundenen Akteure je ein Gefangenendilemma. In den Spielen ist jeder Akteur jedoch darauf beschränkt, in allen seinen Spielen entweder zu kooperieren oder zu defektieren. Der Nutzen eines Akteurs entspricht der Summe der in den Dyaden erspielten Auszahlungen. Im Gegensatz zu einem endlich wiederholten N -Personen-Gefangenendilemma ist Kooperation in diesem Spiel ein mögliches teilspielperfektes Gleichgewicht. Ule (2008: Kap. 5) überprüft die spieltheoretischen Vorhersagen mit Experimenten. In der Kontrollgruppe spielen sechs Versuchspersonen in einem kompletten, exogen vorgegebenen Netzwerk mit jedem Partner ein Gefangenendilemma über 60 Runden. In den zwei Treatmentgruppen findet in jeder Runde des wiederholten Gefangenendilemmas zuerst eine Endogenisierung der Netzwerkstruktur statt, bevor das Gefangenendilemma gespielt wird. In der Treatmentgruppe mit beschränkter Partnerwahl können höchstens zwei Netzwerkpartner gewählt werden, während in der Treatmentgruppe mit unbeschränkter Partnerwahl jede potenzielle Netzwerkverbindung etabliert werden kann. Zweifellos bildet Ules experimentelle Versuchsanordnung einige Aspekte der Wirklichkeit ab. Wie alltägliche Erfahrungen zeigen, darf man erwarten, dass sich die Kooperationsraten in den Treatmentgruppen durch den Ausschluss der am wenigsten kooperativen Individuen auf einem hohen Niveau halten. Dies sollte somit auch zu höheren individuellen Auszahlungen in den Treatmentgruppen führen. Die Experimente bestätigen diese Vermutungen. Die Kontrollgruppe zeigt einen Zerfall der Kooperationsraten über die 60 Runden hinweg. Die Treatmentgruppen offenbaren dagegen stabile oder sogar ansteigende Kooperationsraten auf sehr hohem Niveau. Interessant ist, dass sich unter der beschränkten Partnerwahl zwei fast vollständig getrennte Teilnetzwerke etablieren. In dem einen Teilnetz wird durchwegs kooperiert, während in dem anderen Teilnetz Kooperation selten ist. Dies ist jedoch dann nicht mehr erstaunlich, wenn man den zugrundeliegenden Mechanismus betrachtet. Es zeigt sich nämlich eine Tendenz, dass kooperierende Partner in der nächsten Runde wieder gewählt, defektierende Partner jedoch ausgeschlossen werden. Letztere verbinden sich in der Not miteinander. Diese Segmentierung zeigt sich deutlicher, wenn die Partnerwahl beschränkt wird. Die freie Partnerwahl hat zudem einen Einfluss auf die Auszahlungen. Im Gegensatz zur Kontrollgruppe findet man in den Treatmentgruppen eine positive Korrelation zwischen individueller Kooperation und erspielter Auszahlung. 7 Dieser

Eindruck verstärkt sich, wenn man Ergebnisse zur Rolle von Signalen für die Kooperationsentstehung zur Kenntnis nimmt. Beispielsweise hat sich in einer Feldstudie zu Taxifahrten in Belfast und New York City gezeigt, dass Taxifahrer u.a. askriptive Merkmale möglicher Fahrgäste (wie z.B. Alter, Ethnie, Geschlecht und Kleidung) als Indikatoren für deren potenzielle Vertrauenswürdigkeit heranziehen, wenn sie über ihre etwaige Mitnahme entscheiden.

20

1 Sozialkapital, Vertrauen und Kooperation

Die Experimente von Ule verdeutlichen daneben, dass kooperierende Akteure in Dilemma-Situationen keineswegs zwingend ausgenützt werden können. Die Bedingung für die effiziente Lösung solcher Situationen ist, dass kooperativen Akteuren die Möglichkeit geboten wird, sich gegenseitig für Interaktionen zu wählen und defektierende Partner auszuschließen. Genau dieser Mechanismus scheint auch für die hohen Kooperationsraten in realen Situationen verantwortlich zu sein. Das Zustandekommen von stabilen Kooperationen ohne externen Erzwingungsstab wird damit auf einfache Weise erklärt. Die Resultate korrespondieren mit Ergebnissen, die von Kooperationsforschern aus verschiedenen Disziplinen (z.B. Biologie, Politologie, Mathematik) in den letzten Jahrzehnten erzielt wurden.

1.5 Einsichten zur Kooperationsentstehung Weil Kooperation in verschiedenen Wissenschaften eine Rolle spielt, steht ihre Entstehung im Mittelpunkt von interdisziplinären Forschungsbemühungen. Nach einem Übersichtsartikel von Nowak (2006) ist ein Ausgangspunkt dieser Forschungen die Idee, dass Kooperation in einem evolutionären Prozess entsteht und vor dem Hintergrund der Theorie der evolutionären Spiele analysierbar ist. Die evolutionäre Spieltheorie (z.B. Maynard-Smith 1982) unterstellt kein Bewusstsein strategischer Interdependenz (siehe Diekmann 2009 für eine eingängige Lehrbuchdarstellung). Weil sie damit kein Spezialfall der Rational-ChoiceTheorie für strategische Entscheidungssituationen ist, kann sie beispielsweise für eine tiefere Begründung und theoretische Validierung von Ergebnissen verwendet werden, die sich u.a. aufgrund von strategischen Rational-Choice-Analysen ergeben. Unter Berücksichtigung Variation, Imitation und Selektion modelliert die evolutionäre Spieltheorie den langfristigen Reproduktionserfolg von Strategien, die mit bestimmten Arten von Akteuren aus einer Population verbunden sind. In der evolutionär orientierten Kooperationsforschung wird von einer symmetrischen Situation mit zwei Arten von Akteuren ausgegangen: Ein „Kooperator“ bezahlt Kosten (costs) c, damit ein anderer Akteur einen Nutzen (benefit) b erhält; ein „Defektor“ bezahlt nichts und kümmert sich nicht um das Wohlergehen von Anderen. Kosten und Nutzen werden dabei im Sinne der Evolutionslogik in „Fitness“-Einheiten (jeweils reproduktiver genetischer oder kultureller Erfolg (im Sinne von Nachahmern)) gemessen. Ein Kooperator verzichtet also auf einen Teil seines eigenen reproduktiven Erfolges zugunsten eines anderen Akteurs, während ein Defektor nichts dergleichen tut. In jeder Population mit beiden Akteurtypen besitzen die Defekteure deshalb eine höhere durchschnittliche Fitness als die Kooperateure. Letztere werden daher im Wettbewerb nicht bestehen und im Zeitablauf verschwinden, sofern dies nicht durch gegenläufige Mechanismen verhindert wird. Um nun solche Mechanismen zu identifizieren, eignen sich insbesondere Computersimulationen, in denen das evolutionäre Geschehen über tausende von Generationen im Zeitraffer unter Ausblendung von Störgrößen abgebildet und beobachtet werden kann. Die Durchführung von Simulationsstudien wird im Allgemeinen durch formale Modellierungen ergänzt. Nach den Analysen erweisen sich bei Erfüllung bestimmter Bedingungegn v.a. fünf Mechanismen für die Ausbreitung von dauerhafter Kooperation in Populationen als günstig: Verwandtschaftsselektion: Aus evolutionärer Sicht stellt biologische Verwandtschaft zweifellos eine wichtige Basis für etwaige Kooperationen dar. Erfasst man die Wahrscheinlichkeit eines gemeinsamen Genes durch den Verwandtschaftskoeffizient (coeffi-

1.5 Einsichten zur Kooperationsentstehung

21

cient of relatedness) r, dann wird nach Hamiltons (1964) Regel kooperatives Verhalten stattfinden, wenn r > c/b erfüllt ist. Der Verwandtschaftsgrad muss also das KostenNutzen-Verhältnis der Kooperation übersteigen, damit sich Kooperation aufgrund von Verwandtschaftselektion durchsetzen kann.8 Direkte Reziprozität: Nicht alle Kooperateure sind miteinander verwandt. Auch deshalb entwickelte u.a. Trivers (1971) eine Kooperationserklärung, deren Schwerpunkt auf der Wahrscheinlichkeit w für eine Wiederholung der Interaktionssituation zwischen denselben beiden Akteuren liegt. Die Entstehung von Kooperation aufgrund von direkter Reziprozität erfordert w > c/b. Übersteigt also die Wahrscheinlichkeit der nächsten gleichartigen Interaktionssituation das Kosten-Nutzen-Verhältnis kooperativen Verhaltens, so kann direkte Reziprozität die Etablierung langfristiger Kooperation erklären.9 Indirekte Reziprozität: Es gibt freilich nicht immer die Möglichkeit der direkten Erwiderung des Verhaltens eines bestimmten Akteurs. Nowak und Siegmund (1998, 2005) konnten zeigen, dass Kooperation auch durch indirekte Beziehungen entstehen und sich entsprechend ausbreiten kann. Der dahinter stehende Mechanismus beruht auf der Vorstellung, dass kooperative Handlungen die eigene Reputation und damit die Chance für den eigenen Kooperationserhalt erhöhen. Indirekte Reziprozität kann allerdings nur dann Kooperation fördern, wenn q > c/b gilt. Die Wahrscheinlichkeit q der Reputationskenntnis des jeweils anderen Akteurs muss also das Nutzen-KostenVerhältnis des uneigennützigen Handelns dominieren, damit sich Kooperation durch indirekte Reziprozität etablieren kann. Netzwerk-Reziprozität: Akteure interagieren typischerweise auf eine durch Netzwerkstrukturen vorgezeichnete Weise. Ohtsuki et al. (2006) verwenden die evolutionäre Graphentheorie um die Rolle von sozialen Netzwerken für die Kooperationsentstehung zu untersuchen. Sie zeigen, dass eine überraschend einfache Regel bestimmt, ob Netzwerk-Reziprozität kooperationsförderend wirkt oder nicht. Bezeichnet man mit k die durchschnittliche Zahl von Netzwerkkontakten (Nachbarn) pro Akteur, dann wird Kooperation durch Netzwerk-Reziprozität für 1/k > c/b entstehen. Besteht also bei einem gegebenen Kosten-Nutzen-Verhältnis uneigennützigen Verhaltens eine starke Vernetzung (hohes k), dann ist die Entstehung von Kooperation durch Netzwerk-Reziprozität kaum möglich; unterhalten die Akteure unter sonst gleichen Bedingungen im Durchschnitt aber relativ wenige Netzwerkkontakte (niederiges k), so erscheint Kooperation durch Netzwerk-Reziprozität wahrscheinlicher.10 8 Der

Wert von r ist 1/2 bei zwei Geschwistern, aber 1/8 bei zwei Vettern. Verwandtschaft garantiert also keineswegs immer Kooperationsentstehung. 9 Klarerweise bestehen hier enge Verbindungen zur Logik der iterierten strategischen Spiele und der einschlägigen Folk Theoreme (z.B. Osborne und Rubinstein 1994). Damit verknüpft sind ComputerTurniere, in denen Handlungsmaximen für einzelne Runden in iterierten Spielen im Wettbewerb um die höchste Auszahlung stehen. Wie Axelrod (1984) sowie Nowak und Siegmund (1992, 1993) zeigen, sind „Tit-for-Tat“ („Wie Du mir, so ich Dir“) und insbesondere „Win-Stay, Lose-Shift“ („Behalte nur bei, was sich bewährt hat“) beispielsweise in iterierten Gefangenendilemma-Situationen sehr erfolgreich. 10 Man kann dieses Resultat als Folge der im Wettbewerb stehenden Netzwerkkontakte deuten: Sind viele Alternativen vorhanden, dann haben Defektionen gegenüber einzelnen Nachbarn eher geringe langfristige Auswirkungen.

22

1 Sozialkapital, Vertrauen und Kooperation

Gruppenselektion: Es sind im Übrigen nicht nur einzelne Akteure, die einer evolutionären Auswahl unterliegen. Vielmehr kann man annehmen, dass auch Gruppen Selektionsprozessen unterworfen sind – Gruppen von Kooperateuren können erfolgreicher sein als Gruppen von Defekteuren. Traulsen und Nowak (2006) modellieren diese Überlegung. Sie erhalten eine bemerkenswert einfache Aussage, wonach Gruppenselektion die Entstehung der Kooperation dann fördert, wenn m/(m + n) > c/b erfüllt ist. Dabei bezeichnet m die Anzahl der Gruppen und n die maximale Gruppengröße. Die Bedingung für die Evolution von Kooperation durch Gruppenselektion impliziert, dass bei gegebenem Kosten-Nutzen-Verhältnis uneigennützigen Handelns eine größere Zahl von Gruppen und eine kleinere maximale Gruppengröße jeweils die Vermeidung von Defektionen erleichtert. Die Erfüllung der formalen Bedingungen gewährleistet jeweils, dass Kooperation sich in einer Umgebung mit beiden Akteurstypen durchsetzt und verfestigt. Kooperation kann sich demnach unter einfachen Voraussetzungen etablieren. Weil die verschiedenen Mechanismen in der Realität gleichzeitig wirken und sich in ihren Folgen gegenseitig verstärken können, verwundert es nicht, dass eine Vielzahl von Kooperationen in Wirtschaft und Gesellschaft beobachtbar sind.

Literatur Axelrod, R. (1984) The Evolution of Cooperation. New York: Basic Books. Becker, G.S. (1964) Human Capital. New York: Columbia University Press. Becker, G.S. (1996) Accounting for Tastes. Cambridge: Harvard University Press. Bourdieu, P. und L. Wacquant (1992) An Invitation to Reflexive Sociology. Chicago: University of Chicago Press. Bowles, S. und H. Gintis (2002) „Social Capital and Community Governance.“ Economic Journal 112: F419-F436. Boyd, R. und P.J. Richerson (1992) „Punishment Allows the Evolution of Cooperation (or Anything Else) in Sizable Groups.“ Ethology and Sociobiology 13: 171-195. Braun, N. und T. Gautschi (2011) Rational-Choice-Theorie. Weinheim und München: Juventa. Braun, N., B. Nydegger Lory, R. Berger und C. Zahner (2001) Illegale Märkte für Heroin und Kokain. Bern: Haupt. Burt, R.S. (2005) Brokerage and Closure: An Introduction to Social Capital. Oxford: Oxford University Press. Buskens, V. (2002) Social Networks and Trust. Dordrecht: Kluwer Academic Publishers. Buskens, V. und W. Raub (2002) „Embedded Trust: Control and Learning.“ Advances in Group Processes 19: 167-202. Buskens, V. und W. Raub (2004) „Soziale Mechanismen rationalen Vertrauens.“ S. 183-216 in: A. Diekmann und T. Voss (Hg.) Rational-Choice-Theorie in den Sozialwissenschaften. München: Oldenbourg. Coleman, J.S. (1982) „Systems of Trust: A Rough Theoretical Framework.“ Angewandte Sozialforschung 10: 277-299. Coleman, J.S. (1988) „Social Capital in the Creation of Human Capital.“ American Journal of Sociology 94: S94-S120. Coleman, J.S. (1990) Foundations of Social Theory. Cambridge: The Belknap Press of Harvard University Press. Coricelli, G., D. Fehr und G. Fellner (2004) „Partner Selection in Public Goods Experiments.“ Journal of Conflict Resolution 48: 356-378.

Literatur

23

Dasgupta, P. (1988) „Trust as a Commodity.“ S. 49-72 in: D. Gambetta (Hg.) Trust: Making and Breaking Cooperative Relations. Oxford: Oxford University Press. Dasgupta, P. und I. Serageldin (Hg.) (2000) Social Capital: A Multifaceted Perspective. Washington: World Bank. Diekmann, A. (1993) „Sozialkapital und das Kooperationsproblem in sozialen Dilemmata.“ Analyse und Kritik 15: 22-35. Diekmann, A. (2009) Spieltheorie: Einführung, Beispiele, Experimente. Reinbek: Rowohlt. Durkheim, E. (1933) The Division of Labor in Society. New York: Free Press. Durlauf, S.N. (2002) „On the Empirics of Social Capital.“ Economic Journal 112: F459-F479. Fehr, E. und S. Gächter (2000) „Cooperation and Punishment in Public Goods Experiments.“ American Economic Review 90: 980-994. Fehr, E. und S. Gächter (2002) „Altruistic Punishment in Humans.“ Nature 415: 137-140. Fukujama, F. (1995) Trust: The Social Virtues and the Creation of Prosperity. New York: Free Press. Franzen, A. und S. Pointner (2007) „Sozialkapital: Konzeptualisierungen und Messungen.“ S. 66-90 in: A. Franzen und M. Freitag (Hg.) Sozialkapital. Grundlagen und Anwendungen, Sonderheft 47 der Kölner Zeitschrift für Soziologie und Sozialpsychologie. Gambetta, D. und H. Hamill (2005) Streetwise: How Taxi Drivers Establish Their Customers’ Trustworthiness. New York: Russell Sage Foundation. Hamilton, W.D. (1964) „The Genetical Evolution of Social Behavior I and II.“ Journal of Theoretical Biology 7: 1-16, 17-52. Hardin, G. (1968) „The Tragedy of the Commons.“ Science 162: 1243-1248. Hardin, R. (1982) Collective Action. Baltimore: Johns Hopkins University Press. Hauk, E. und R. Nagel (2001) „Choice of Partners in Multiple Two-Person Prisoner’s Dilemma Games. An Experimental Study.“ Journal of Conflict Resolution 45: 770-793. Hirschman, A.O. (1970) Exit, Voice, and Loyality. Responses to Decline in Firms, Organizations, and States. Cambridge: Harvard University Press. Jungbauer-Gans, M. und C. Gross (2007) „Verteilung des sozialen Kapitals. Eine makrosoziologische Analyse des European Social Survey 2002 und 2004.“ S. 211-240 in: A. Franzen und M. Freitag (Hg.) Sozialkapital. Grundlagen und Anwendungen, Sonderheft 47 der Kölner Zeitschrift für Soziologie und Sozialpsychologie. Kahneman, D. und A. Tversky (1979) „Prospect Theory: An Analysis of Decisions under Risk.“ Econometrica 47: 313-327. Kahneman, D. und A. Tversky (1984) „Choices, Values, and Frames.“ American Psychologist 39: 341-350. Kreps, D.M. (1990) „Corporate Culture and Economic Theory.“ S. 90-143 in: J.E. Alt und K.A. Shepsle (Hg.) Perspectives on Positive Political Economy. Cambridge: Cambridge University Press. Lahno, B. (1995) Versprechen. Überlegungen zu einer künstlichen Tugend. München: Oldenbourg. Lin, N. (2001) Social Capital: A Theory of Social Structure and Action. Cambridge: Cambridge University Press. Lin, N., K. Cook und R.S. Burt (Hg.) (2001) Social Capital: Theory and Research. New York: de Gruyter. Maynard Smith, J. (1982) Evolution and the Theory of Games. Cambridge: Cambridge University Press. Nash, J.F. (1951) „Noncooperative Games.“ Annals of Mathematics 54: 289-295. Nowak, M.A. (2006) „Five Rules for the Evolution of Cooperation.“ Science 314: 1560-1563. Nowak, M.A. und K. Sigmund (1992) „Tit for Tat in Heterogeneous Populations.“ Nature 355: 250-253. Nowak, M.A. und K. Sigmund (1993) „A Strategy of Win-Stay, Lose-Shift That Outperforms Tit-for-Tat in the Prisoner’s Dilemma Game.“ Nature 364: 56-58.

24

1 Sozialkapital, Vertrauen und Kooperation

Nowak, M.A. und K. Sigmund (1998) „Evolution of Indirect Reciprocity by Image Scoring.“ Nature 393: 573-577. Nowak, M.A. und K. Sigmund (2005) „Evolution of Indirect Reciprocity.“ Nature 437: 12911298. Ohtsuki, H., C. Hauert, E. Lieberman und M.A. Nowak (2006) „A Simple Rule for the Evolution of Cooperation on Graphs and Social Networks.“ Nature 441: 502-505. Olson, M. (1965) The Logic of Collective Action. Public Goods and the Theory of Groups. Cambridge, MA: Harvard University Press. Orbell, J.M. und R.M. Dawes (1993) „Social Welfare, Cooperators’ Advantage, and the Option of Not Playing the Game.“ American Sociological Review 58: 787-800. Osborne, M.J. und A. Rubinstein (1994) A Course in Game Theory. Cambridge: MIT Press. Putnam, R.D. (2000) Bowling Alone: The Collapse and Revival of American Community. New York: Simon and Schuster. Raub, W. (1992) „Eine Notiz zur Stabilisierung von Vertrauen durch eine Mischung von wiederholten Interaktionen und glaubwürdigen Festlegungen.“ Analyse und Kritik 14: 187-194. Raub, W. und G. Keren (1994) „Hostages as a Commitment Device.“ Journal of Economic Behavior and Organization 21: 43-67. Raub, W. und J. Weesie (1990) „Reputation and Efficiency in Social Interactions: An Example of Network Effects.“ American Journal of Sociology 96: 626-654. Selten, R. (1965) „Spieltheoretische Behandlung eines Oligopolmodells mit Nachfrageträgheit.“ Zeitschrift für die gesamte Staatswissenschaft 121: 301-324 und 667-689. Snijders, C. (1996) Trust and Commitments. Amsterdam: Thesis Publishers. Sobel, J. (2002) „Can We Trust Social Capital?“ Journal of Economic Literature 40: 139-154. Traulsen, A. und M.A. Nowak (2006) „Evolution of Cooperation by Multi-Level Selection.“ Proceedings of the National Academy of Sciences 103: 10952-10955. Trivers, R.L. (1971) „The Evolution of Reciprocal Altruism.“ Quarterly Review of Biology 46: 35-57. Ule, A. (2008) Partner Choice and Cooperation in Networks: Theory and Experimental Evidence. Berlin: Springer. Voss, T. (1998) „Vertrauen in modernen Gesellschaften: Eine spieltheoretische Analyse.“ S. 91130 in: R. Metze, K. Mühler und K.-D. Opp (Hg.) Der Transformationsprozess. Leipzig: Leipziger Universitätsverlag. Wasserman, S. und K. Faust (1994) Social Network Analysis: Methods and Applications. Cambridge: Cambridge University Press. Weber, M. (1921) [1976] Wirtschaft und Gesellschaft (5. Aufl.). Tübingen: Mohr. Weesie, J. und W. Raub (1996) „Private Ordering: Comparative Institutional Analysis of Hostage Games.“ Journal of Mathematical Sociology 21: 201-240. Weesie, J., A. Verbeek und H. Flap (1991) „An Economic Theory of Social Networks.“ S. 623-662 in: H. Esser und K. Troitzsch (Hg.) Modellierung sozialer Prozesse: Neuere Ansätze und Überlegungen zur soziologischen Theoriebildung. Bonn: Informationszentrum Sozialwissenschaften.

2 Netzwerke im Arbeitsmarkt Patrick Riordan und Fabian Kratz Die Arbeitsstelle eines Individuums sagt viel über diese Person aus und beeinflusst deren Leben umfassend. Einkommen und Arbeitszeiten zählen zu den zentralen Größen, die das Leben strukturieren und beschränken. Der soziale Status einer Person hängt mit dem gewählten Beruf zusammen und die Chancen junger Menschen werden wesentlich von der ökonomischen Situation ihrer Eltern geprägt. Die Berufswahl und, schon vorher, die Wahl der Ausbildung sind Entscheidungen mit äußerst langfristigen Folgen. Insofern verwundert es nicht, dass Fragen, die mit dem Suchen und Finden von Arbeit, der Auswahl einer passenden Stelle usw. zusammenhängen, allgemein von Interesse sind. Wie finden auf dem Arbeitsmarkt Arbeitsuchende (Anbieter) und Arbeitgeber (Nachfrager) zusammen? Welche Arten der Jobsuche gibt es und welche führen zum Erfolg? Welche Rolle spielen die vielbeschworenen „Beziehungen“? Solche Fragen sollen in diesem Kapitel beantwortet werden. Der Arbeitsmarkt ist ein zentrales Thema wirtschaftssoziologischer Forschung (vgl. auch Kapitel 11 in diesem Band). Es geht dabei beispielsweise um die Wirkung verschiedener Individualmerkmale (wie Geschlecht oder Humankapital) auf die Erfolgschancen auf dem Arbeitsmarkt (gemessen etwa am Einkommen, der Suchdauer oder der Arbeitszufriedenheit). Gerade Soziologen interessieren sich aber immer auch für den Einfluss des sozialen Kontextes auf die Entscheidungen von Individuen. Ein zentraler Aspekt des sozialen Umfelds von Akteuren sind die Netzwerke, in die sie eingebunden sind. Antworten Personen auf die Frage, wie sie zu ihrer derzeitigen Arbeitsstelle gekommen sind, mit „Beziehungen“ oder „Vitamin B“, so spielen sie darauf an, dass sich ihre Chancen, diese Stelle zu erhalten, durch ihre persönlichen Beziehungen vergrößert haben. Entweder hätten sie anders nicht von der Stelle erfahren – wenn sie nicht öffentlich ausgeschrieben wurde – oder die Einstellungschancen verbesserten sich durch die Empfehlung eines Bekannten. Hintergrund solcher Aussagen ist das auf dem Arbeitsmarkt herrschende Informationsdefizit: Relevante Merkmale der Anbieter und Nachfrager sind für die jeweils andere Marktseite nicht ohne weiteres ersichtlich. Ein Arbeitgeber kann die Produktivität von Bewerbern im Rahmen eines Bewerbungsprozesses oft nicht ausreichend genau bewerten, und genauso fällt es Arbeitssuchenden schwer einzuschätzen, ob eine angebotene Stelle zu den eigenen Fähigkeiten und Vorstellungen passt. Um dieses Informationsproblem abzumildern, können sich die Markteilnehmer der sozialen Netzwerke bedienen, in die sie eingebunden sind. Dass im Arbeitsmarkt auf Netzwerke zurückgegriffen wird, wird im Folgenden deutlich werden. Die wirtschaftssoziologische Forschung hat sich vor allem auch damit beschäftigt, genau zu beschreiben, wie Individuen ihre Netzwerke nutzen und in welcher Weise das die Ergebnisse von Aushandlungsprozessen am Arbeitsmarkt beeinflusst. Die Analyse solcher sozialen Netzwerke stellt mithin eine Möglichkeit dar, die beiden Ebenen „Kontext“

26

2 Netzwerke im Arbeitsmarkt

und „Individuum“ zu verknüpfen.1 Verbreitet ist die Vorstellung vom sozialen Netzwerk als Ressource. Man spricht dann von Sozialkapital, einem Konzept, das im Verlauf des Textes erläutert wird und auf das in den vorgestellten theoretischen Konzepten mehr oder weniger offensichtlich rekurriert wird (siehe auch Kapitel 1 in diesem Band). Dieser Beitrag befasst sich mit sozialen Netzwerken und dem Arbeitsmarkt, also mit der Frage, ob und wie sich unterschiedliche Beziehungen auf die Chancen am Arbeitsmarkt auswirken. In diesem Beitrag werden zunächst verschiedene theoretische Argumentationen dargestellt und analytisch verglichen (Abschnitt 2.1). Breite Rezeption haben die Arbeiten von Mark Granovetter (1973, 1983, 1995) erfahren. Seine berühmte These von der Stärke schwacher Bindungen wird referiert (Abschnitt 2.1.1), um im Anschluss auf die sich an Granovetter anschließenden Argumente von Ronald Burt (1992, 2001) einzugehen (Abschnitt 2.1.2). Einen alternativen Ansatz verfolgt James Coleman (1988, 1990), dessen Sichtweise auf Sozialkapital danach (Abschnitt 2.1.3) erläutert wird. Schließlich wird auf die theoretische Bedeutung des Phänomens Homophilie eingegangen (Abschnitt 2.1.4). Diese unterschiedlichen theoretischen Konzepte provozierten eine Vielzahl empirischer Studien, von denen zentrale Befunde erörtert werden (Abschnitt 2.2). Darauf aufbauend werden Effekte der Suche über Kontakte auf das Einstiegseinkommen anhand von Daten des Bayerischen Absolventenpanels (BAP) analysiert. Dabei wird erstens untersucht, ob bei der Vermittlung einer Erwerbsstelle starke oder schwache Beziehungen einen Einkommensvorteil mit sich bringen. Zweitens sollen methodische Probleme, die bei einer empirischen Überprüfung dieser Netzwerk-Hypothesen bestehen, illustriert werden (Abschnitt 2.3). Der Beitrag schließt mit einer Zusammenfassung methodischer Probleme, die bei der Untersuchung des Einflusses von Beziehungen auf Arbeitsmarktergebnisse auftreten und die referierten widersprüchlichen empirischen Befunde zumindest teilweise erklären (Abschnitt 2.4) sowie einem Fazit (Abschnitt 2.5).

2.1 Theoretische Überlegungen Die Akteure im Arbeitsmarkt sehen sich mit einem „massiven Informationsproblem“ (Voss 2007: 325) konfrontiert. Für einen Arbeitgeber ist nicht von vornherein ersichtlich, welcher Bewerber sich am besten eignet. Gleichfalls ist es für einen Arbeitssuchenden unklar, welches Jobangebot seinen Vorstellungen am ehesten entspricht. Beide Marktseiten sehen sich so vor dem Problem, Kosten der Informationsbeschaffung tragen zu müssen. Die Arbeitssuchenden2 können dabei auf verschiedene Suchmethoden zurückgreifen: Sie können die Stellenanzeigen in Zeitungen oder im Internet studieren, sie können sich auf eigene Initiative bewerben und sie können versuchen, sich von verschiedenen Stellen, z.B. von Arbeitsämtern, einen Arbeitsplatz vermitteln zu lassen. Diese Formen der Suche werden häufig als „formell“ bezeichnet. Daneben besteht die Möglichkeit, sich im Familien-, Freundes- und Bekanntenkreis nach Informationen über freie Stellen umzuhören. Diese Suche über die sozialen Kontakte wird als „informelle Suche“ bezeichnet. Die Akteure nutzen in diesem Fall ihr Sozialkapital bei der Informationsbeschaffung. 1 Für

Grundlagen zu Netzwerk- und Graphentheorie siehe Abschnitt 7.2 im ersten Band und z.B. Freeman (1978), Wasserman und Faust (1994) und Stegbauer und Häußling (2010). 2 Wir beschränken die Diskussion in diesem Beitrag auf die Arbeitssuchenden, also die Angebotsseite des Arbeitsmarkts. Das soll nicht darüber hinwegtäuschen, dass auch die Nachfrageseite mehrere Möglichkeiten zur Lösung ihres Informationsproblems hat und dass auch hier soziale Kontakte eine Rolle spielen können (vgl. Marsden 2001).

2.1 Theoretische Überlegungen

27

Hinter dem Begriff Sozialkapital steckt die Idee, dass die sozialen Beziehungen eines Akteurs in verschiedensten Situationen nützlich sein können. Franzen und Pointer (2007) unterscheiden sowohl analytisch als auch empirisch drei Dimensionen von Sozialkapital. Dieser Unterscheidung folgend kann Sozialkapital erstens die Ressourcen bezeichnen, auf die ein Akteur über seine Netzwerkkontakte potenziell zugreifen kann. Zweitens kann Sozialkapital das Ausmaß generalisierten Vertauens (Vertrauen in Personen und Institutionen) bezeichnen. Schließlich wird der Sozialkapitalbegriff auch verwendet, um auf die Geltung von Normen und Werten wie Fairness oder Reziprozität hinzuweisen. In diesem Beitrag soll Sozialkapital im ersten Sinn – als netzwerkbasierte Ressourcen – begriffen werden.3 Soziale Kontakte können gewissermaßen einen Profit abwerfen, weshalb es sich lohnen kann, Zeit, Unterstützung, Geschenke usw. in sie zu investieren. Eine solche Rendite aus sozialem Kapital lässt sich im Arbeitsmarkt unter anderem aus folgenden Gründen realisieren (Voss 2007): Erstens kann die Suche über soziale Beziehungen die Kosten der Suche senken. Zweitens ist es möglich, dass das Ergebnis der Jobsuche bei gleichem Aufwand besser ist als bei der Suche über andere Kanäle. Drittens ist denkbar, dass durch soziale Kontakte auch Informationen über potentiell interessante Stellen an den Akteur herangetragen werden, auch wenn dieser gar nicht aktiv gesucht hat. Es kommt dabei sowohl auf die Qualität als auch auf die Quantität der Kontakte an, auf die ein Akteur zurückgreifen kann. Die Frage, wodurch sich ein qualitativ hochwertiger Kontakt auszeichnet, ist ein zentrales Thema nachstehender Überlegungen. Die Rendite, die im Arbeitsmarkt bei der Jobsuche über Kontakte entstehen kann, kann sich in verschiedenen Merkmalen des so gefundenen Arbeitsplatzes niederschlagen. So kann man etwa ein höheres Einkommen, eine kürzere Suchdauer oder eine höhere Adäquatheit der durch Aktivierung des Netzwerks gefundenen Stelle postulieren. Bei der Diskussion bisheriger Forschungsergebnisse (Abschnitt 2.2) wird deutlich werden, dass es wichtig sein kann, diese Arbeitsplatzmerkmale zu differenzieren. Die Effekte auf all diese Merkmale lassen sich jedoch auf die genannten Informationsvorteile (geringere Suchkosten oder besseres Ergebnis bei gleichen Kosten) zurückführen. Im Folgenden werden theoretische Argumente nachgezeichnet, die auf Sozialkapitalüberlegungen im Zusammenhang mit dem Arbeitsmarkt beruhen. Mark Granovetter (1973, vgl. auch 1995) hat die Erforschung der Wirkung von Netzwerken im Arbeitsmarkt angeregt. An seine Überlegungen schließt sich eine lebhafte theoretische Debatte an, die bei Lin (1999) und Voss (2007) detailliert zusammengefasst wird. Aufgrund ihrer Prominenz werden im Folgenden lediglich zwei Beiträge herausgegriffen: Ronald Burt (1992, 2001) differenziert die Argumentation Granovetters, wobei er als wesentliches Merkmal von Kontakten die Position im Netzwerk anstelle der Bindungsstärke betont. Der These von der Stärke schwacher Bindungen stehen die Gedanken James Colemans (1988, 1990) entgegen, wonach es gerade die starken Bindungen eines Akteurs sind, die ihm Vorteile – auch im Arbeitsmarkt – verschaffen können. Schließlich wird auf den Aspekt der Homophilie – der Neigung, Personen als Kontakte zu bevorzugen, die einem selbst hinsichtlich verschiedener Merkmale ähnlich sind – in Netzwerken eingegangen.

3 Theoretische

Überlegungen und empirische Befunde, die auf das Konzept Sozialkapital zurückgreifen, werden durchaus kontrovers diskutiert. Da diese Debatte hier nicht nachvollzogen werden kann, verweisen wir auf Kapitel 1 in diesem Band sowie auf Lin (2001), Franzen und Freitag (2007) und Mouw (2006).

28

2 Netzwerke im Arbeitsmarkt

2.1.1 Die Stärke schwacher Bindungen Am Anfang von The Strength of Weak Ties (Granovetter 1973: 1360) wird folgendes Problem soziologischer Theorien identifiziert: „A fundamental weakness of current sociological theory is that it does not relate micro-level interactions to macro-level patterns in any convincing way“ (siehe auch Abschnitt 7.4.2 im ersten Band und Granovetter 1985). Die Analyse der sozialen Beziehungen kann hier einen wichtigen Beitrag leisten. Genauer will Granovetter mit der Analyse der Stärke von persönlichen Beziehungen zur Erklärung von Makrophänomenen wie Informationsdiffusion und sozialer Mobilität beitragen. Ein erster Schritt dieser Analyse ist die Untersuchung des Einflusses der Bindungsstärke bei der Arbeitssuche. Die Bindungsstärke kann dabei durch die aufgewendete Zeit, die emotionale Intensität, die Intimität der Beziehung sowie durch reziproke Handlungen der so verbundenen Personen operationalisiert werden. Vorläufig erfasst Granovetter (1973) die Bindungsstärke in lediglich drei Kategorien – keine, schwache und starke Beziehung. Zusätzlich nimmt Granovetter an, dass Beziehungen hinsichtlich ihrer Stärke symmetrisch sind, d. h. wenn A eine starke Beziehung zu B hat, gilt dies auch für die Beziehung von B zu A. Weiterhin nimmt Granovetter an, dass sich Freundeskreise von zwei durch eine starke Beziehung verbundenen Akteuren überlappen. Der Grund hierfür ist im Prinzip der „verbotenen Triade“ zu sehen (Abbildung 2.1). Abbildung 2.1: Graphische Darstellung verschiedener Triaden

In einer solchen Triade unterhält A starke Bindungen sowohl zu B als auch zu C, während B und C keine Bindung zueinander haben.4 Granovetter sieht eine solche Konstellation aus Gründen der Zeitallokation und der Homophilie5 als extrem unwahrscheinlich an. Schließlich ist der Unterhalt einer starken Bindung zeitaufwändig, was ein gegenseitiges Kennenlernen von As guten Freunden B und C wahrscheinlich macht, da A mit beiden viel Zeit verbringen will. Außerdem ist es naheliegend, dass sowohl A und B als auch A und C bestimmte Eigenschaften teilen, wodurch die Wahrscheinlichkeit für eine gewisse Ähnlichkeit von B und C erhöht wird. B und C sollten so wenigstens eine schwache Beziehung miteinander eingehen und somit die kürzeste Verbindung zwischen ihren jeweiligen Netzwerken herstellen. Die starke Bindung zu A ist dann nicht der kürzeste Pfad zwischen dem Netzwerk von B und C und somit auch keine Brückenverbindung. Netzwerktheoretisch 4 Er

bezieht sich dabei theoretisch auf die sozialpsychologische Balancetheorie von Heider (1958; vgl. Voss 2007: 330). 5 Siehe Abschnitt 2.1.4 dieses Kapitels und Abschnitt 7.2 im ersten Band.

2.1 Theoretische Überlegungen

29

sind Brücken Verbindungen, ohne die bestimmte Bereiche von Netzwerken isoliert wären. Diese Positionen in der sozialen Struktur sind zur Diffusion von Informationen zwischen Gruppen von zentraler Bedeutung. Folgt man Granovetters Argumentation und trifft die Annahme der verbotenen Triade zu, dann sind Brücken stets schwache Bindungen. Denn wäre die Verbindung zwischen zwei Gruppen eine starke, müssten sich die Gruppen gegenseitig weit mehr durchdringen, als dies bei einer Brücke der Fall ist. Granovetter räumt jedoch ein, dass nicht jede schwache Bindung eine Brücke sei: „Weak ties [...] are certainly not automatically bridges. What is important, rather, is that all bridges are weak ties“ (Granovetter 1973: 1364).6 Aus der höheren Wahrscheinlichkeit von schwachen Bindungen, die Brückeneigenschaft aufzuweisen, resultiert ihre fast schon sprichwörtliche Stärke. Nur durch diese Art von Bindung gelangen Informationen von einem eng verbundenen Netzwerk in ein Anderes. Im Anwendungsfall bedeutet dies: Diejenigen Kontakte, zu denen A starke Bindungen unterhält, werden selten über Informationen verfügen, die A nicht schon kennt. Sind A und D jedoch durch eine schwache Beziehung miteinander verbunden, kann D möglicherweise Informationen bereitstellen, die A noch nicht zur Verfügung standen.7 Die auf den ersten Blick plausible Intuition, dass Informationen innerhalb von Gruppen schneller und stärker zirkulieren als zwischen Gruppen – und dadurch innerhalb der Gruppen schneller redundant werden – ist eine Erkenntnis langjähriger soziologischer und sozialpsychologischer Forschung (z.B. Burt 2001: 34). In der Anwendung dieser These auf den Arbeitsmarkt bedeutet dies, dass Kontakte, zu denen schwache Bindungen bestehen, bei der Jobsuche eher relevante und neue Informationen geben können als Kontakte, zu denen starke Bindungen unterhalten werden.

2.1.2 Strukturelle Löcher statt „weak ties“ Burt beginnt mit einer Gemeinsamkeit diverser Netzwerktheorien, wonach besser vernetzte Personen höhere Gewinne erzielen (2001: 32). Disput herrscht allerdings darüber, was genau „besser vernetzt“ bedeutet. Granovetter würde sagen, eine gute Vernetzung lässt sich an einer hohen Anzahl von „weak ties“ erkennen – eine Einschätzung, der Burt widerspricht. Metaphorisch kann man den Unterschied zwischen Granovetter und Burt folgendermaßen beschreiben: Granovetter befasst sich in erster Linie mit der Beschaffenheit der Brücke, während sich Burt darauf konzentriert, was überbrückt wird – in seinen Worten „structural holes“. Solche strukturellen Löcher treten auf, wenn zwei Akteure keine direkte oder indirekte Verbindung miteinander haben. Da bekanntermaßen Informationsflüsse zwischen Gruppen häufig hochgradig relevant sind, geht Burt (1992) davon aus, dass Akteure, die Positionen an diesen Löchern besetzen, davon profitieren können. Auf den ersten Blick scheinen „weak ties“ und „structural holes“ sehr ähnliche Konzepte zu sein. Bei beiden handelt es sich um Positionen in den dünn besiedelten Regionen von Netzwerken, die viel Sozialkapital freisetzen können. Doch Burt führt zwei Argumente für eine Differenzierung an. Erstens sei der Grund für die Vorteile einer Verbindung nicht deren Schwäche, sondern das Loch, das 6 Friedkin

(1980) hat einige der netzwerktheoretischen Annahmen Granovetters empirisch untersucht und festgestellt, dass starke Bindungen tatsächlich eher zu „triadic closure“ (ebd.: 417) führen, was die Wahrscheinlichkeit, Brücken zu sein, für „weak ties“ erhöht. 7 Von zwei Kontakten ist einer redundant, wenn er, verglichen mit dem anderen Kontakt, keine neuen Informationsvorteile bringt.

30

2 Netzwerke im Arbeitsmarkt

durch sie überbrückt wird. Er sieht keinen Grund für eine starke Korrelation zwischen der Stärke einer Verbindung und den Informationsvorteilen, die eine Bindung möglicherweise bedeuten. Zweitens verliere man mit dem Konzept der „weak ties“ einen wichtigen Aspekt solcher Positionen aus dem Blick: Die Kontrolle über Informationsflüsse der Inhaber entsprechender Positionen (ebd.: 27ff.). Individuen, deren Netzwerk viele strukturelle Löcher überbrückt, sind „...the individuals who know about, have hand in, and exercise control over more rewarding opportunities“ (Burt 2001: 36).8 Burts Konzept unterscheidet sich von dem Granovetters folglich durch die Betonung der Brückenfunktion einer Bindung und der Vernachlässigung ihrer Stärke. Nach Burt können auch starke Bindungen strukturelle Löcher überbrücken – ein Umstand, den Granovetter mit Verweis auf die verbotene Triade ausschließt (Granovetter 1973: 1364). Burt konstatiert weiter, dass eine Vielzahl der „weak ties“ in einem Netzwerk redundant und damit keine Brücken seien (Burt 2001). „Structural holes“ sind nur Lücken zwischen nicht-redundanten Kontakten (Burt 1992: 47). Diese Einschränkung klingt schon vorher bei Granovetter (1983: 229) an: „Weak ties are asserted to be important because their likelihood of being bridges is greater than (and that of strong ties less than) would be expected from their numbers alone. This does not preclude the possibility that most weak ties have no such function.“ Burts wichtiger Verdienst besteht ungeachtet dessen darin, den Schwerpunkt der Analyse auf den Aspekt struktureller Löcher und damit auf die Möglichkeiten der Informationskontrolle gelenkt zu haben.

2.1.3 Starke Bindungen und Vertrauen Rein intuitiv kann man Granovetters Idee folgende alternative Argumentation entgegenhalten: Ganz gleich, ob schwache Bindungen eher den Zugang zu neuen Informationen herstellen oder nicht, wichtiger ist in jedem Fall, dass die entsprechende Person auch bereit und motiviert ist, dem Suchenden zu helfen. Genau diese Bereitschaft und Motivation zu helfen bringen starke Bindungen in höherem Maße mit sich als „weak ties“. Diese konträre Interpretation der Bindungsstärke wurde von Coleman (1988, 1990) theoretisch expliziert und empirisch – wenn auch nicht auf Basis von Arbeitsmarktdaten – untersucht.9 Während es bei Granovetter darum geht, welche Arten von Beziehung einem Akteur helfen, seine eigenen Ziele zu erreichen, nimmt Coleman eher eine Makroperspektive ein. Er geht zwar von rationalen Akteuren aus, analysiert deren Netzwerke aber vor allem hinsichtlich ihrer Auswirkungen auf der Makroebene. So identifiziert er drei positive Konsequenzen von Sozialkapital: Gegenseitige Verpflichtungen und Vertrauen, Informationsflüsse sowie effektive Sanktionen (Coleman 1988: 102ff.; vgl. auch Kapitel 7 im ersten Band).10 Sozialkapital ist dabei nicht die Eigenschaft eines Akteurs – es steckt vielmehr in den Beziehungen zwischen den Akteuren und stellt somit ein Kollektivmerkmal dar. Coleman stellt fest, dass diese drei Arten von Sozialkapital zum Funktionieren von Kollektiven beitragen, weil sie Transaktionen erlauben, die ohne das in den Strukturen steckende Sozialkapital 8 Brückenpositionen

sind also sehr attraktive Positionen in Netzwerken. Man kann Akteure, die solche Positionen innehaben auch als „broker“, also Makler oder Vermittler, bezeichnen. Stovel und Shaw (2012) geben einen fundierten Überblick zur Relevanz von „brokerage“. Ungeachtet der Vorteile solcher Maklerpositionen an „structural holes“, demonstrieren Buskens und van de Rijt (2008), dass diese Vorteile verschwinden, wenn alle Akteure nach diesen attraktiven Positionen streben. 9 Auf Colemans theoretische Überlegungen wird in Kapitel 1 dieses Bandes genauer eingegangen. 10 Einen guten Überblick über aktuelle theoretische Kontroversen und empirische Befunde aus verschiedenen Blickwinkeln liefern die Aufsätze im Sammelband von Franzen und Freitag (2007).

2.1 Theoretische Überlegungen

31

nicht möglich oder zu riskant wären. In vielen Fällen kommen bestimmte Handlungsweisen eben nur dann in Frage, wenn die Handelnden den Anderen vertrauen können oder sich bei Abweichungen auf effektive Sanktionen verlassen können. Folgt man dieser Sichtweise, steckt Sozialkapital gerade in den starken Beziehungen geschlossener Netzwerke, weil vor allem hier gegenseitige Verpflichtungen und Vertrauen, aber auch Reputation entstehen können. Solche Netze starker Bindungen zeichnen sich durch eine weitgehende Schließung („network closure“) gegenüber anderen Netzen aus. Voss (2007: 326f.) zeigt im Zusammenhang mit der Rolle des Vertrauens auf, wieso Belegschaftsempfehlungen zu guten „matches“ im Arbeitsmarkt führen können. Da eine Empfehlung ein Stück weit dem Empfehlenden zugeschrieben werden kann, fällt es leichter, Personen zu empfehlen, die man kennt und von denen man annimmt, dass sie die an sie gestellten Erwartungen nicht enttäuschen – kurz: Personen, denen man vertraut (zum Vertrauen im Wirtschaftsleben vgl. Kapitel 1 in diesem Band). Vertrauen kann sich durch zeitliche Einbettung – die beiden Akteure teilen einen gemeinsamen „Schatten der Vergangenheit“ und/oder einen gemeinsamen „Schatten der Zukunft“ (Axelrod 2000) – oder die Einbettung in ein gemeinsames Netzwerk ergeben. Wenn ein langer Schatten der Vergangenheit besteht und bereits zahlreiche reziproke Handlungen zwischen den Akteuren stattgefunden haben, kann eine Jobvermittlung aufgrund von Reziprozitätsnormen erfolgen. Darüberhinaus können Informationen zu einer Arbeitsstelle auch weitergegeben werden, um einem Freund, von dem man annimmt, dass er das in ihn gesetzte Vertrauen nicht enttäuschen wird, einen Gefallen zu tun. Wenn hingegen ein Akteur einem Anderen zu einer Anstellung verhilft und die beiden „nur“ durch eine schwache Beziehung verbunden sind, riskiert der Empfehlende, dass schlechte Leistungen des Rekrutierten, die er wegen der schwachen Beziehung nicht richtig einschätzen konnte, zum Teil auf ihn zurückfallen werden. Gerade bei der Suche nach hochqualifizierten Bewerbern entstehen Arbeitgebern sowohl durch den Rekrutierungsprozess („screening“, vgl. Stiglitz 1975) als auch durch Fehlbesetzungen von Stellen enorme Kosten. Deshalb wird die Vermittlung eines guten Bewerbers die Reputation des Empfehlenden steigern und die Empfehlung eines schlechten Akteurs mit negativen Reputationseffekten für den Empfehlenden einhergehen. Dieses Risiko wird der Empfehlende insbesondere bei einer schwachen Beziehung ohne gegenseitige Verpflichtungen nur eingehen, wenn er davon überzeugt ist, dass derjenige, dem eine Empfehlung ausgesprochen werden soll, die Fähigkeit und Motivation besitzt, den Job gut zu erledigen. Diese Argumentation lässt darauf schließen, dass vor allem Akteure einen Job durch schwache Beziehungen bekommen, deren Leistungssignale oder Kompetenzen dem Vermittelnden das Gefühl geben, dass eine Empfehlung positiv auf ihn selbst zurückfallen wird (vgl. Spence 1973). Colemans eigene Beispiele beziehen sich unter anderem auf spezielle Märkte (Diamantenhandel, der Basar in Kairo); seine empirische Untersuchung befasst sich mit dem Schulabbruch in amerikanischen Nachbarschaften11 (Coleman 1988: 111ff.). Doch Colemans Konzept hat einen breiteren theoretischen Anspruch. Wenn man unterstellt, dass Sozialkapital auch zu besseren Arbeitsmarktergebnissen führen kann, so kann man aus Colemans Sichtweise durchaus ableiten, dass enge Bindungen auch für individuelle Arbeitsmarktergebnisse hilfreich sein können. Neben einer höheren Motivation zu helfen, ermöglichen 11 Ziel

dieser Studie war es herauszufinden, inwiefern Sozialkapital beim Erwerb von Humankapital eine Rolle spielt.

32

2 Netzwerke im Arbeitsmarkt

die engen Kontakte vielleicht auch, sich durch das Verschaffen von Jobinformationen für einen früheren Gefallen zu revanchieren, also ausstehenden Verpflichtungen zu entsprechen. Man kann also Granovetters These von der Stärke schwacher Bindungen mit Colemans Überlegungen zur Stärke starker Bindungen kontrastieren. Burt (1992) schlägt mit seinem Konzept der „structural holes“ zwar in eine ähnliche Kerbe wie Granovetter, nimmt jedoch einige wichtige und hilfreiche Differenzierungen vor und versucht später, seine eigene und Colemans Sichtweise für die empirische Arbeit zu integrieren (Burt 2001). Mit eigenen Daten und dem Verweis auf eine Reihe anderer Studien – allerdings nicht im Arbeitsmarktbereich – kommt Burt zu folgendem Schluss: Zwar seien die beiden Mechanismen von Schließung und Überbrückung theoretisch zu differenzieren, empirisch würden sie sich allerdings nicht ausschließen. Vielmehr seien Brücken über „structural holes“ wichtig, um zusätzliche Informationen zu generieren, während starke Bindungen innerhalb des Netzwerks durch effektive Normen und Vertrauen tatsächlich Transaktionskosten senken. Schließlich ist es häufig die einfachste und schnellste Variante, Freunde zu fragen, ob sie Informationen zu freien Stellen haben.

2.1.4 Homophilie in sozialen Netzwerken Bisher wurden theoretische Ansätze beschrieben, die einen kausalen Effekt von Netzwerkeigenschaften (oder Eigenschaften eines Kontaktes) auf bestimmte Erfolgsindikatoren eines Akteurs annehmen. Ein wesentliches Problem dieser Ansätze liegt darin, dass Personen sich ihre Kontakte nicht zufällig aussuchen: Homophilie – also die Neigung von Menschen, sich bevorzugt mit Personen zu umgeben, mit denen sie Gemeinsamkeiten haben – ist ein in vielen Studien und Kontexten dokumentiertes Phänomen (siehe Abschnitt 7.2.3 im ersten Band; McPherson, Smith-Lovin und Cook 2001 sowie Wolf 1996). Burt beschreibt dies unter der Berücksichtigung der Folgen für die Netzwerke von Akteuren: „Wealthy people develop ties with other wealthy people. Educated people develop ties with one another. Young people develop ties with one another. There are reasons for this. Socially similar people, even in the pursuit of independent interests, spend time in the same places. Relationships emerge. Socially similar people have more shared interests. Relationships are maintained. Further, we are sufficiently egocentric to find people with similar tastes attractive“ (1992: 12). Mit dieser Argumentation hängt ein zentrales Problem der Untersuchung von Netzwerken im Arbeitsmarkt zusammen, auf das Mouw (2003, 2006) aufmerksam gemacht hat. Er stellt fest, dass eine Reihe von Studien eine Korrelation zwischen Indikatoren des Arbeitsmarkterfolgs (z.B. Einkommen oder Prestige) eines betrachteten Akteurs und denen seiner Kontakte finden. Diese Korrelation wird häufig als Sozialkapitaleffekt interpretiert, auch wenn die Kausalität dieser Aussage nicht geprüft wird. Um methodisch zwischen homophiliebedingten Selektionseffekten und ursächlich auf soziale Beziehungen rückführbaren Kausaleffekten unterscheiden zu können, müssen verschiedene Bedingungen erfüllt sein: Die Netzwerkeigenschaften (z.B. Status der Kontakte) eines Akteurs müssen zeitlich vor der entsprechenden Zielvariable (hier Berufserfolg) gemessen werden. Nur wenn die Ursache der Wirkung zeitlich vorgelagert ist und eine Korrelation zwischen Netzwerkeigenschaften und Berufserfolg auch nach Kontrolle von beobachteter und unbeobachteter Heterogenität

2.1 Theoretische Überlegungen

33

bestehen bleibt, kann auf einen Kausaleffekt, der ursächlich auf Unterschiede in der Sozialkapitalausstattung zurückzuführen ist, geschlossen werden. Es werden also Längsschnittdaten benötigt. Mit Querschnittsdaten kann hingegen nicht empirisch zwischen Selektionsund Kausaleffekten unterschieden werden. Hier helfen folglich nur theoretische Überlegungen. In dem hier betrachteten Fall werden sowohl Kausaleffekte als auch Selektionseffekte von theoretischen Überlegungen gestützt. Für die Erklärung, warum beruflich erfolgreiche Personen Freunde haben, die diese Eigenschaft teilen, sollten Selektionseffekte also eine wesentliche Rolle spielen. Soziale Homophilie kann weiterhin auch zur Reproduktion sozialer Ungleichheiten beitragen: Akteure mit hohem Status haben eher Kontakte zu Individuen mit ebenfalls hohem Status in ihrem Netzwerk als Personen mit vergleichsweise niedrigem Status. Dementsprechend haben Erstere auch Zugang zu ganz anderen Informationen, die im Arbeitsmarkt von Vorteil sein können. So lässt sich die Hypothese aufstellen, dass Hochqualifizierte mit hoher sozialer Herkunft bei der Jobsuche eher auf ein Netzwerk an Kontakten zurückgreifen können, die ihnen dabei helfen, eine Stelle zu finden. Die in den voranstehenden Abschnitten dargestellten theoretischen Positionen von Granovetter, Burt und Coleman sowie die Ausführungen zu Selektion und Homophilie lassen sich zu folgenden Hypothesen verdichten: (1) Granovetter-Hypothese: Die Vermittlung einer Arbeitsstelle über schwache Bindungen führt zu besonders guten Arbeitsplatzmerkmalen (in unserer Anwendung zu einem höheren Einkommen) für den Rekrutierten. (2) Burt-Hypothese: Bei der Vermittlung einer Arbeitsstelle kommt es nicht auf die Stärke der Bindung an, sondern darauf, ob die Bindung eine Brücke darstellt oder nicht. (3) Coleman-Hypothese: Die Vermittlung einer Arbeitsstelle über starke Bindungen führt zu besonders guten Arbeitsplatzmerkmalen (in unserer Anwendung zu einem höheren Einkommen) für den Rekrutierten. (4) Selektions- bzw. Vertrauens-Hypothese: Bei der Vermittlung einer Stelle über schwache Bindungen wird der Arbeitssuchende eher über gute Leistungssignale sowie Fähigkeiten und Motivation verfügen müssen als bei starken Bindungen, weil sonst nicht geholfen werden würde. (5) Homophilie-Hypothese: Eine hohe soziale Herkunft begünstigt die Vermittlung von Erwerbsstellen über soziale Kontakte. Bevor ein eigener empirischer Test dieser Hypothesen auf der Basis von Daten über bayerische Hochschulabsolventen präsentiert wird, wird eine Auswahl empirischer Studien referiert, die sich mit Effekten der Arbeitssuche über Kontakte auf Arbeitsmarkterträge befassen.

34

2 Netzwerke im Arbeitsmarkt

2.2 Würdigung des Forschungsstands Bei der Betrachtung des Forschungsstandes sind zwei Unterscheidungen wichtig: Zum einen muss darauf geachtet werden, welcher Art der postulierte Effekt der Suche über Kontakte ist, d.h. ob es um Kontakte im Allgemeinen geht, oder ob nach Bindungsstärke, Position im Netzwerk oder Funktion des Kontakts differenziert wird. Zweitens ist die jeweils betrachtete abhängige Variable von Bedeutung. Manche Studien beschäftigen sich mit dem bloßen Finden eines Arbeitsplatzes, andere mit Merkmalen des beruflichen Erfolgs wie der Suchdauer, dem Einkommen, der fachlichen Passung oder dem Prestige. Es kann vorweggenommen werden, dass diese beiden Unterscheidungen deshalb so wichtig sind, weil sich die Vermittlung über Netzwerke unterschiedlich auf die verschiedenen Arbeitsmarktmerkmale auswirken kann. Es kann als gesichert gelten, dass die informelle Suche über persönliche Kontakte einen starken Effekt auf das Finden eines Arbeitsplatzes hat (vgl. Voss 2007: 329). Damit ist noch keine Aussage darüber gemacht, ob sich der so gefundene Arbeitsplatz in relevanten Merkmalen von anders gefundenen Arbeitsplätzen unterscheidet. In Granovetters Studie Getting a Job schwankt der Anteil derer, die ihren Job über persönliche Beziehungen – noch nicht beschränkt auf schwache Bindungen – erhalten haben, je nach betrachteter Zielgruppe zwischen 44% und 65% (Granovetter 1995: 19). In seiner Zusammenfassung des Forschungsstands kommt Voss (2007) zu dem Schluss, dass ähnliche, meist etwas geringere Werte in Bevölkerungsumfragen gefunden werden. Laut Granovetters Studie werden persönliche Kontakte aber nicht nur häufig eingesetzt, sie wirken sich auch positiv auf Arbeitsmarktergebnisse wie Einkommen oder Zufriedenheit aus: Wer seinen Job über persönliche Beziehungen fand, verdient mehr und ist mit der Arbeit zufriedener als jemand, der sich auf formellem Weg beworben hat. Allerdings entspringt Granovetters Schlussfolgerung bivariaten Analysen von Querschnittsdaten, die auf einer kleinen und selektiven Stichprobe beruhen. Deshalb kann auf Grundlage dieser empirischen Ergebnisse nicht auf eine kausale Beziehung zwischen der Verwendung von Netzwerkkontakten und Arbeitsmarktergebnissen geschlossen werden. Die Frage nach der Kausalität hat insbesondere Mouw (2003) vertieft. Er leitet aus einem theoretischen Modell folgenden Kausalitätstest ab, um ihn an vier Datensätzen anzuwenden: Nimmt man an, dass die Verwendung von Kontakten bei der Jobsuche Vorteile bringt, dann werden Suchende mit hoher Sozialkapitalausstattung häufig darauf zurückgreifen; denn wenn sie über mehr soziales Kapital verfügen, müssten sie auch mehr und/oder bessere Angebote erhalten, aus denen sie wählen können. Mouw kommt zu dem Ergebnis, dass die berichteten Beziehungen zwischen Sozialkapital und Variablen wie Einkommen, Berufsstatus oder Dauer der Arbeitslosigkeit nicht kausal sind. Er unterstellt, dass es sich um einen gemischten Effekt aus der Tendenz zur Homophilie und nicht beobachteter Produktivität der Akteure mit hohem Sozialkapital – man denke beispielsweise an eine potenziell höhere soziale Kompetenz von Personen mit einem großen Freundeskreis – handelt. Personen, die ein großes Netzwerk haben und zudem auch viele schwache Bindungen unterhalten, bringen möglicherweise schwer messbare Kompetenzen mit, die in vielen Arbeitsbereichen wichtig sind. Trotz seiner eigenen Ergebnisse, sei es allerdings „...naive to argue that contacts do not matter“ (Mouw 2003: 891). Er hält es durchaus für möglich, dass sich seine Befunde in weiteren Studien, die eine aufwändigere Messung von Netzwerkvariablen vornehmen, als verfrüht herausstellen.

2.2 Würdigung des Forschungsstands

35

Einen Hinweis auf die Richtigkeit von Mouws Vermutung liefert eine Studie von Franzen und Hangartner (2005) anhand von schweizerischen Absolventendaten. Der Effekt der Jobsuche über das persönliche Netzwerk auf das Einkommen ist hier leicht negativ. Allerdings sind die Suchkosten geringer und die Art der Suche wirkt sich auf die Adäquatheit der Arbeit aus: Wer über sein Netzwerk sucht, verrichtet eine Arbeit, die seiner Ausbildung in höherem Maße entspricht. In einer neueren Studie, die sich hinsichtlich methodischer Aspekte von der Studie von Franzen und Hangartner (2005) unterscheidet, konnte dieser Effekt allerdings nicht repliziert werden. Weiss und Klein (2011) betonen die Unterschiedlichkeit der Kontakte hinsichtlich ihrer fachlichen und akademischen Passung. So legen sie etwa dar, dass es wichtig ist, nach der Funktion der Kontaktperson zu differenzieren, z.B. Hochschullehrer, Eltern, Kontakte aus Praktika usw. In ihrer Studie zeigen sie, dass die Effekte verschiedener Kontaktarten auf Arbeitsmarktergebnisse wie Einkommen, fachliche Passung und Überqualifizierung teilweise sogar gegenläufig sind und sich so überlagern, wenn die notwendige Differenzierung nicht vorgenommen wird. Neben diesen Arbeiten, die sich mit der Suche über persönliche Kontakte verglichen mit formellen Bewerbungsprozessen beschäftigen, hat Granovetters These der Stärke schwacher Verbindungen eine Fülle an Folgestudien nach sich gezogen, die explizit und systematisch die Stärke schwacher Bindungen hinterfragen. Lin, Vaughn und Ensel (1981) kommen zu dem Ergebnis, dass sich die Nutzung schwacher Bindungen auf den Status des Berufs auswirkt. Allerdings ist dieser Effekt indirekt und wird vom Status der Kontaktperson – einem Maß für die Zusammensetzung des Netzwerks – bestimmt. Es liegt nahe zu konstatieren, dass nicht alle Arbeitssuchenden gleichermaßen Zugriff auf ein Netzwerk von Kontakten mit hohem Status haben, was die Suche über das persönliche Netzwerk von der sozialen Schicht der Suchenden abhängig macht (Wegener 1991). Personen mit niedrigem Status sind damit in zweifacher Weise benachteiligt: Sie haben (wegen Homophilie) kaum statushohe Kontakte und können zudem nur auf ein kleineres Netzwerk zurückgreifen.12 Dies stellt noch keinen zwingenden Widerspruch zu Granovetters These dar, sondern kann als Erweiterung um den Zwischenschritt des Status der Kontaktperson betrachtet werden. Allerdings gibt es zum „weak ties“-Argument konkrete Gegenbefunde. Bridges und Villemez (1986) finden bei Kontrolle von Drittvariablen keinen nennenswerten Einkommensunterschied zwischen Personen, die mit schwachen bzw. starken Kontakten suchten. Daraus folgern sie, dass die Stärke einer Beziehung im Arbeitsmarkt nicht die wichtigste Eigenschaft von Bindungen ist. Die weiter oben genannte Tendenz zur Homophilie zeigt sich in dieser Studie auch empirisch daran, dass Personen eher mit Personen mit ähnlichem Status und aus einem ähnlichen Wirtschaftszweig in Kontakt kommen. Wegener (1991) hat eine Studie mit deutschen Daten vorgelegt, in der ebenfalls kein signifikanter Einfluss der Bindungsstärke auf das Prestige des angetretenen Jobs festgestellt wird. Allerdings zeigt sich auch, dass Personen, die schon vor dem Wechsel einen Beruf mit hohem Status hatten, durchaus von der Verwendung von „weak ties“ profitieren können, da die Theorie von der Stärke schwacher Bindung offenbar nur in höheren sozialen Schichten gelte (ebd.: 69). Granovetters Daten enthielten nur „professional, technical and managerial workers“ (Granovetter 1995: 7), was Wegener als einen Grund dafür ansieht, dass spätere Studien mit breiteren Stichproben den Befund der Stärke schwacher Bindungen nicht replizieren konnten. 12 Hurlbert,

Beggs und Haines (2001) finden allerdings keinen schichtspezifischen Unterschied in der Verwendung von schwachen Bindungen bei der Jobsuche. Das schließt die genannten Unterschiede nicht aus, zeigt aber, dass auch Personen mit niedrigem Status ihr Netzwerk zur Jobsuche nutzen.

36

2 Netzwerke im Arbeitsmarkt

Nach der bisherigen Zusammenschau einiger empirischer Ergebnisse kann der Forschungsstand folgendermaßen zusammengefasst werden: Unstrittig ist, dass persönliche Beziehungen häufig bei der Arbeitsplatzsuche eingesetzt werden. Die These von der Stärke schwacher Bindungen hat empirisch überwiegend keine Bestätigung gefunden. Die Ausnahmen von dieser Beobachtung (etwa Yakubovich 2005; siehe auch Jann 2003) verdeutlichen allerdings den weiteren Forschungsbedarf zum Zusammenhang von Netzwerkvariablen und Merkmalen der gefundenen Stelle. Insbesondere muss in Frage gestellt werden, ob die Stärke der Bindung tatsächlich die relevante Größe ist oder ob es nicht vielmehr um die Position im Netzwerk geht. Generell ist die Hypothese von den strukturellen Löchern noch schwieriger zu testen als Hypothesen zur Bindungsstärke, da für erstere Informationen zur Netzwerk-Position aller Beteiligten notwendig sind. Nun sollen eigene empirische Ergebnisse zu den im Theorieteil formulierten Hypothesen präsentiert werden. Vorwegzunehmen ist, dass die Burt-These, es komme nicht auf die Stärke der Bindung an, sondern darauf, ob sie eine Brücke zu einem anderen Netzwerk darstellt, mit den herangezogenen Daten nicht getestet werden kann. Einige der Schwächen, die an bisherigen Studien kritisiert wurden, können durch unsere eigene Analyse ebenfalls nicht beseitigt werden. Diese Aspekte werden später diskutiert. Die vorgestellte empirische Untersuchung will einen Beitrag zur Erforschung der Wirkung von Netzwerken im Arbeitsmarkt leisten, aber auch methodische Probleme dieser Forschung illustrieren.

2.3 Evidenz zur Stellenfindung bayerischer Hochschulabsolventen Die genannten Hypothesen werden anhand der Daten der ersten Welle des Bayerischen Absolventen Panels (BAP) der Abschlusskohorte von 2005/06 geprüft.13 Die Grundgesamtheit bilden die Diplom- und Magisterabsolventen in all jenen Fächergruppen, die bayernweit in diesem Prüfungsjahrgang mindestens 50 Absolventen aufweisen. Zur Datengewinnung wurde eine Vollerhebung durchgeführt, bei der die Absolventen mittels eines schriftlichen Fragebogens entweder postalisch oder online befragt wurden.

2.3.1 Deskriptive Befunde In der Befragung wurde zwischen Strategien der Stellensuche unterschieden und es wurde erfragt, welche Art der Stellensuche letztendlich zum Erfolg führte. Um die am Ende der theoretischen Diskussion formulierten Hypothesen zu testen, wurden die 18 erfolgreichen Suchstrategien zunächst gruppiert. Tabelle 2.1 zeigt, dass 37,1% der Absolventen 13 Das

Bayerische Absolventenpanel (BAP) ist eine landesweite, repräsentative und langfristig angelegte Absolventenstudie für eine breite Auswahl an Studienfächern. Ziel ist es, Informationen zur Ausbildungsqualität der Hochschulen, zum Übergang der Absolventen in den Arbeitsmarkt und zur weiteren beruflichen Laufbahn zu gewinnen. Die wissenschaftliche Leitung dieses Langzeitprojekts liegt beim Bayerischen Staatsinstitut für Hochschulforschung und Hochschulplanung (IHF). Die Befragungen werden zusammen mit den bayerischen Hochschulen durchgeführt. Für das BAP werden ausgewählte Absolventenjahrgänge zu mehreren Zeitpunkten befragt: ein erstes Mal rund anderthalb Jahre nach ihrem Hochschulabschluss, ein zweites Mal nach fünf und ein drittes Mal nach neun Jahren (siehe Falk, Reimer und Hartwig 2007). Bislang sind bei drei Erhebungen die Absolventenjahrgänge 2003/04 (1. und 2. Welle) und 2005/06 (nur 1. Welle) untersucht worden. In diesem Zusammenhang danken wir Susanne Falk und Maike Reimer für ihre Unterstützung.

2.3 Evidenz zur Stellenfindung bayerischer Hochschulabsolventen

37

Tabelle 2.1: Wege zur ersten Stelle Entscheidende Suchstrategien

Anzahl

Prozent

Direktbewerbung formelle Suchstrategien schwache Beziehung starke Beziehung nicht gesucht andere Strategien

1972 361 1244 449 1159 128

37,1 6,8 23,4 8,5 21,8 2,4

Total

5313

100

Quelle: Bayerisches Absolventenpanel (BAP), 1. Welle 2005/06er Abschlusskohorte, eigene Berechnung.

ihren ersten Job durch eine direkte Bewerbung (Bewerbung auf eine Stellenanzeige oder Initiativbewerbung) beim zukünftigen Arbeitgeber erlangten. Formelle Suchstrategien (über das Arbeitsamt, Job-Portale, private Vermittlungsagenturen oder Vermittlungshilfen der Hochschule) nutzten nur 6,8% der Befragten. Fast 32% der Befragten kamen über soziale Kontakte zu ihrem ersten Job. Dabei spielen schwache Beziehungen mit 23,4% eine quantitativ wesentlich bedeutsamere Rolle als starke Beziehungen (8,5%). In Anlehnung an Granovetters oben dargestellte Definition von Bindungsstärke wurde diese zentrale Einflussgröße folgendermaßen operationalisiert: Eine Beziehung wurde als stark klassifiziert, wenn die Erwerbsstelle über Freunde, Partner oder Verwandte gefunden wurde. Dagegen wurde eine Jobfindung über eine schwache Beziehung attestiert, wenn die Jobvermittlung über Hochschullehrer, Kontakte aus Ausbildung oder Vereinstätigkeit vor dem Studium sowie Kontakte aus Jobs und Praktika während und nach dem Studium erfolgte. Knapp 22% der Befragten haben nie nach einer Stelle gesucht, weil sie entweder eine Stelle angeboten bekamen, oder eine Stelle fortsetzten, die sie bereits während des Studiums ausgeübt hatten. 2,4% der Befragten gaben schließlich an auf eine andere Art an die erste Stelle gelangt zu sein. Ein beträchtlicher Anteil der Absolventen bekam somit eine Stelle über soziale Kontakte. Einen Überblick über deskriptive Kennzahlen der im Folgenden verwendeten Variablen gibt Tabelle 2.2.

2.3.2 Hypothesenprüfung Im Weiteren steht die empirische Überprüfung der abgeleiteten Hypothesen zum Erfolg bestimmter Suchstrategien im Mittelpunkt. Hierfür wird eine OLS-Regression auf den logarithmierten Bruttostundenlohn mit dem Weg zur ersten Erwerbstätigkeit als erklärendem Faktor durchgeführt.14 Außer dem Weg der Stellensuche werden weitere wichtige Einkommensdeterminanten im Modell berücksichtigt (Tabelle 2.3). Dadurch kann der Effekt der Suchstrategie auf den Bruttostundenlohn unter Konstanthaltung der kontrollierten Einkommensdeterminanten berechnet werden.

14 Da

die Einkommensvariable stark rechtsschief verteilt ist, wird sie zum linearen Gebrauch logarithmiert verwendet.

38

2 Netzwerke im Arbeitsmarkt Tabelle 2.2 Deskriptive Statistiken der verwendeten Variablen

Log. Bruttostundenlohn nicht gesucht Stelle über Kontakte gefunden Stelle über starke Kontakte gefunden Stelle über schwache Kontakte gefunden Sozialwissenschaften Sprach- und Kulturwissenschaften Wirtschaftswissenschaften Naturwissenschaften Ingenieurswissenschaften Art des Abschlusses (1=Universität, 0=FH/HaW) Keine fachnahe Erwerbstätigkeit studentische Hilfskraft Job in Betrieb freier Mitarbeiter Anzahl Praktika Note ≥ 2,5 Note < 1,5 Note ≥ 1,5 und Note < 2 Note ≥ 2 und Note < 2,5 Anzahl Fachsemester Promotion (1=ja) Geschlecht (1=Frau) Alter Bildung Eltern homogen niedrig Bildung Eltern homogen hoch Bildung Eltern heterogen

N 4544 5313 5313 5313 5313 5932 5932 5932 5932 5932 5985 5898 5898 5898 5898 5948 5892 5892 5892 5892 5900 5985 5985 5985 5893 5893 5893

Mittelwert/Anteil 2,68 0,22 0,32 0,08 0,23 0,09 0,15 0,34 0,20 0,21 0,52 0,29 0,12 0,40 0,19 2,65 0,14 0,21 0,35 0,30 9,77 0,09 0,47 26,62 0,52 0,20 0,28

SD 0,41

2,28

1,82

2,15

Quelle: Bayerisches Absolventenpanel (BAP), 1. Welle 2005/06er Abschlusskohorte, eigene Berechnung.

Die Art, auf die eine Stelle gefunden wurde, wird über vier Dummyvariablen operationalisiert. Die Referenzkategorie bilden Absolventen, die ihre Stelle entweder über eine Direktbewerbung, formelle Suchstrategien oder andere nicht netzwerkgeleitete Strategien gefunden haben. Die Dummyvariablen „starke Beziehung“ bzw. „schwache Beziehung“ zeigen an, dass die Erwerbsstelle über soziale Kontakte mit der jeweiligen Bindungsstärke gefunden wurde. Außerdem gehen diejenigen Absolventen über eine Dummyvariable getrennt in die Analyse ein, die nicht nach einer Erwerbsstelle gesucht haben, weil sie entweder einen Job angeboten bekamen oder eine Tätigkeit fortsetzten. Es zeigen sich keine statistisch relevanten Unterschiede zwischen Absolventen, die nie nach einer Stelle gesucht haben und denjenigen, die sich direkt beim Arbeitgeber beworben haben. Wird die Erwerbsstelle über starke Beziehungen vermittelt, muss ein Lohnabschlag von ungefähr 6% in Kauf genommen werden.15 Zwischen Absolventen, die ihre erste Erwerbstätigkeit über schwache Beziehungen gefunden haben und denjenigen, die sich bei einem Arbeitgeber beworben haben, sind keine signifikanten Lohnunterschiede zu beob15 Für

geringe Effektstärken können die Koeffizienten als prozentuale Einkommensveränderung interpretiert werden, wenn die abhängige Variable logarithmiert ist. Dies gilt näherungsweise für Koeffizienten, die kleiner als 0,1 sind. Den prozentualen Effekt β% erhält man, indem die Effektstärke folgendermaßen umgerechnet wird: β% = (exp(β) − 1) · 100.

2.3 Evidenz zur Stellenfindung bayerischer Hochschulabsolventen

39

Tabelle 2.3: Determinanten des logarithmierten Stundenlohns β (Ref. Bewerbung, formelle oder andere Stellenfindung) nicht gesucht starke Beziehungen schwache Beziehungen (Ref. Sozialwissenschaften) Sprach- und Kulturwissenschaften Wirtschaftswissenschaften Naturwissenschaften Ingenieurswissenschaften Universität (Ref. keine fachnahe Erwerbstätigkeit) studentische Hilfskraft Job in Betrieb freier Mitarbeiter Anzahl an Praktika (Ref. Note ≥ 2,5) Note < 1,5 Note ≥ 1,5 und Note < 2 Note ≥ 2 und Note < 2,5 Anzahl Fachsemester (Ref. keine Promotion) Promotion (Ref. Mann) Frau Alter bei Studienabschluss (Ref. Bildung homogen niedrig) Bildung homogen hoch Bildung heterogen Konstante Beobachtungen R2 korrigiertes R2

Std.fehler

–0,002 –0,060∗∗ 0,016

(0,015) (0,021) (0,014)

0,021 0,198∗∗∗ 0,092∗∗∗ 0,204∗∗∗ –0,008

(0,027) (0,023) (0,025) (0,025) (0,015)

–0,049∗ 0,064∗∗∗ 0,008 0,002

(0,021) (0,014) (0,018) (0,003)

0,040 0,071∗∗∗ 0,051∗∗ –0,018∗∗∗

(0,022) (0,019) (0,019) (0,004)

–0,266∗∗∗

(0,022)

–0,125∗∗∗ 0,005

(0,013) (0,003)

–0,004 0,0002

(0,016) (0,013)

2,607∗∗∗

(0,089) 4232 0,176 0,172

Quelle: Bayerisches Absolventenpanel (BAP), 1. Welle 2005/06er Abschlusskohorte, eigene Berechnung. OLS-Regression auf den logarithmierten Stundenlohn. Unstandardisierte Koeffizienten, Standardfehler in Klammern. ∗∗∗ p aji ), und erwünscht sind, falls j einen stärkeren Beitrag zur Beziehung leistet als Person i (aij < aji ). Zudem hängt der Einfluss dieses Aspekts einerseits von der Stärke der Bindung aij ab, also davon wie viel i in die Beziehung investiert. Andererseits spielt die relative Gewichtung s (s ≥ 0) von Symmetrie- und Qualitätsüberlegungen eine Rolle. Unter Vernachlässigung des Aspekts sozialer Beeinflussung (3.), z.B. aufgrund der direkten Beobachtbarkeit von qj , lässt sich der Nutzen von Akteur i in einer Gruppe mit n Akteuren ausdrücken als X X ui = aij · qj − s · aij · (aij − aji ). j

j

Der Nutzen des Akteurs i setzt sich also aus verschiedenen Größen zusammen: Neben der Qualität qj der Anderen und der Verbindung aij zu ihnen spielen auch etwaige Asymmetrien der Bindungen aufgrund der Differenzen (aij − aji ) eine Rolle. Zu beachten ist dabei, dass sowohl Qualitäten q als auch Bindungen a in ihrem Wertebereich unbeschränkt sind, also auch negative Werte annehmen können. Sowohl positive als auch negative Bindungen können folglich (aufgrund des zweiten Terms) für den Akteur Schaden verursachen oder Nutzen stiften. Geht man nun von rationalen Akteuren aus, die ihren Nutzen maximieren, so ergeben sich durch partielle Ableitungen von ui nach aij für jedes j und Nullsetzen n − 1

56

3 Status, Positionswettbewerbe und Signale

Reaktionsfunktionen, welche die optimale Stärke der Bindung von i an j in Abhängigkeit der Bindung von j an i bestimmen: ∂ui = qj − 2 · s · aij + s · aji = 0. ∂aij Da in diesem Fall Qualität direkt beobachtbar ist, ergibt sich im Nash-Gleichgewicht für das optimale Ausmaß der Bindung von i an j P X (2n − 3) · qj + i qi aij = . 3·s i6=j

Für beobachtbare Qualitätsunterschiede steigt also die Stärke der Bindung von i an j mit der Qualität von i und in stärkerem Maße mit der Qualität von j. Der Einfluss dieser Qualitätsmerkmale wird jedoch durch die Bedeutung der Symmetrie von Bindungen s begrenzt – im Extremfall von s → ∞ spielen Qualitätsüberlegungen überhaupt keine Rolle. In einem nächsten Schritt soll nun soziale Beeinflussung (z.B. aufgrund unvollständiger Information über die Qualität von j) zugelassen werden. Es wird angenommen, dass sich die Qualitätseinschätzungen von j durch i mittels exogen gegebener Indikatoren Qj , der Summe der Bindungen akj anderer Akteure k zu j und einem Gewichtungsparameter ω für die relative Bedeutung dieser beiden Komponenten ergibt.4 Die geschätzte Qualität entspricht also X qij = (1 − ω) · Qj + ω · akj . k6=i,j

Nach Einsetzen dieses Terms in die Nutzenfunktion und deren Maximierung lassen sich allgemeine Modellimplikationen ableiten, die sich auch empirisch bestätigt haben (siehe für Details Gould 2002: 1156ff.): • Für hinreichend kleine Gruppengrößen n und ein Mindestmaß an sozialer Beeinflussung ω führen geringe Qualitätsunterschiede der Akteure zu überproportionalen Differenzen in der Anzahl sozialer Beziehungen. Bereits bei kleinen Qualitätsunterschieden ergeben sich große Statusdifferenzen. • Ist Qualität zudem nur schwer beobachtbar, orientieren sich alle Akteure an den Handlungen der Anderen, sodass Status selbstverstärkend wirken und eine erhebliche Konzentration der Bindungen zu verzeichnen sein sollte. • Eine erhebliche ungleiche Verteilung der Bindungen tritt jedoch nicht auf, wenn starke Präferenzen für symmetrische Beziehungen vorliegen. Das Ausmaß asymmetrischer Bindungen nimmt zudem mit der Anzahl an Akteuren n ab, da die Qualität einzelner Akteure mit zunehmender Gruppengröße an Bedeutung verliert. • Weiterhin impliziert das Modell, dass die Stärke der Bindungen eines Akteurs zu Anderen (Geselligkeit) proportional zu dem Ausmaß der Bindungen an diesen Akteur (Popularität) ist. Allerdings zeichnet sich die Verteilung der Popularität durch ein stärkeres Maß an Ungleichheit aus als die Verteilungen der Geselligkeit. 4 Für

ω = 0 handelt es sich folglich um eine Situation ohne soziale Beeinflussung. Das nun vorgestellte Modell umfasst also die zunächst behandelte Konstellation vollständiger Information als Spezialfall.

3.3 Wirkungen von sozialem Status

57

Mit dem häufig disproportionalen Verhältnis von sozialem Status und Qualität, selbstverstärkenden Status-Prozessen sowie der daraus resultierenden ungleichen Verteilung von Status sind bereits erste Wirkungsweisen benannt. Diese und weitere Status-Effekte werden nun, mit besonderem Blick auf ihre Bedeutung im Wirtschaftsleben, genauer behandelt.

3.3 Wirkungen von sozialem Status Bereits einleitend wurden die vielfältigen Wirkungsweisen von sozialem Status im Wirtschaftsleben angesprochen. Im Folgenden werden die Bedeutung von Status als Signal in Märkten aus ökonomischer und soziologischer Perspektive,5 das Verhältnis von Lohn und Status auf dem Arbeitsmarkt sowie die Möglichkeit der Verwendung von Auszeichnungen und Ehrungen als Anreizmechanismen herausgearbeitet.

3.3.1 Statussignale aus ökonomischer Perspektive Bekanntlich liegt ein zentrales Moment der Bedeutung von Status in der Unbeobachtbarkeit eigentlich interessierender Merkmale wie Leistungsfähigkeit und Vertrauenswürdigkeit einer Person oder eines Unternehmens. Status wird daher als Indikator herangezogen, um diesem Problem asymmetrischer Information zu begegnen. Ebenso wie Ampeln an Straßenkreuzungen und Schranken an Bahnübergängen den Verkehrsteilnehmern das Vorliegen oder die Abwesenheit von Gefahren signalisieren, werden auch im Wirtschaftsleben Signale verwendet, um bestehende Informationsasymmetrien zu reduzieren und die Entscheidungsfindung zu vereinfachen. Zur Modellierung entsprechender Situationen mit privater Information haben sich sogenannte Signalspiele bewährt. Diese stellen eine Teilmenge von Spielen mit vollkommener, aber asymmetrischer und unvollständiger Information dar (z.B. Braun und Gautschi 2011; Diekmann 2009; Rasmusen 2007). In Signalspielen hat zunächst der Spieler mit privater Information die Wahl, ein Signal an den uninformierten Spieler zu senden. Der informierte Spieler wählt hierzu eine bestimmte Strategie, welche dem anderen Spieler Informationen über den Typ des informierten Spielers liefert. Der andere Spieler wird entsprechend in einem zweiten Schritt seine Wahrscheinlichkeitseinschätzung über den Typ des Gegenübers anpassen und evtl. in Folge anders handeln, als er es ohne diese zusätzliche Information getan hätte. Die Signalisierung des Spielertyps ist in der Regel nur dann glaubwürdig, wenn das Aussenden des Signals für die Spieler mit Kosten verbunden ist und diese Kosten je nach Spielertyp variieren. Wählt jeder Typ des informierten Spielers aufgrund der unterschiedlichen Kosten ein anderes Signal, so resultiert ein separierendes Gleichgewicht. Wenn alle Spieler dagegen das gleiche Signal senden, so liegt ein „pooling“ Gleichgewicht vor. Für den uninformierten Spieler ist es dann nicht möglich, aus dem Vorliegen eines Signals eindeutig auf den Spielertyp zu schließen. Es besteht vielmehr die Gefahr, dass Spieler Signale dazu 5 Diese

analytische Unterscheidung zwischen ökonomischer und soziologischer Perspektive wird in Anlehnungen an Podolny und Lynn (2009: 551) getroffen, soll jedoch die erste Sichtweise nicht gegenüber der zweiten abwerten. Selbstverständlich können auch in diesem Sinne als ökonomisch zu bezeichnenden Modelle und Studien interessante soziologische Befunde hervorbringen. So liegen zahlreiche Studien zur Generierung von Vertrauen vor, die von dieser ökonomischen Perspektive ausgehen und zeigen, wie Kooperation unter Fremden zustande kommen kann (siehe Kapitel 1 in diesem Band sowie Gambetta und Hamil 2005; Przepiorka 2009).

58

3 Status, Positionswettbewerbe und Signale

nutzen, falsche Ewartungen bei ihren Mitspielern zu wecken. Der uniformierte Spieler kann in einer solchen Situation keine Rückschlüsse über den Typ des Spielers ziehen, sodass sich oft unerwünschte Marktkonsequenzen ergeben. Das wohl bekannteste Beispiel für ein Signalspiel ist George Akerlofs (1970) Modell eines Gebrauchtwagenmarkts, in dem es nur zwei Arten von Wagen, nämlich gute und schlechte Fahrzeuge mit dem Wert w1 und w2 (w1 > w2 ) gibt, der Käufer deren Qualität jedoch nicht identifizieren kann. Auf diesem „lemons market“ – der unbeabsichtigte Kauf eines schlechten Wagens wird mit dem Biss in eine saure Zitrone verglichen – wählt der Käufer mit Wahrscheinlichkeit p einen schlechten Wagen. Aufgrund dieser Unsicherheit ist er bereit, für ein Automobil höchstens (1 − p) · w1 + p · w2 zu zahlen. Seine marginale Zahlungsbereitschaft für ein qualitativ hochwertiges Fahrzeug entspricht jedoch dem Wert eines guten Wagens w1 . Im vorliegenden Fall gilt (1 − p) · w1 + p · w2 < w1 . Das Problem der Unsicherheit der Käufer wird deshalb auch zu einem Problem der Händler hochwertiger Gebrauchtwagen, da der Verkaufspreis ihrer Ware aufgrund asymmetrischer Information gedrückt wird. Sind Verkäufer nun nicht bereit, gute Fahrzeuge zu diesem Preis zu verkaufen, so kann es sogar dazu kommen, dass nur schlechte Wagen auf dem Markt angeboten werden – ein Phänomen, das unter der Bezeichnung adverse Selektion bzw. negative Auslese bekannt ist. Da rationale Käufer diese Problematik antizipieren, sind sie in der Folge nur noch bereit, maximal einen Preis w2 für die angebotene Ware zu bezahlen. Zu diesem Nash-Gleichgewicht kann es dabei selbst dann kommen, wenn die Akteure es eigentlich präferieren würden, ein hochwertiges Fahrzeug zu erwerben. Akerlof hat nun eine Lösung für dieses Problem aufgezeigt: In vielen Fällen gibt es Signale, in die nur Händler guter Wagen zu Kosten von c1 investieren werden, da folgende Ungleichung w1 − c1 > (1 − p) · w1 + p · w2 > w2 ihre Anreizstruktur treffend beschreibt. Händler schlechter Wagen mit den Signalisierungskosten c2 werden dagegen nicht in dieses Signal investieren, da die Kosten einer Investition den daraus resultierenden Nutzen übersteigen, formal also: w1 − c2 < w2 . Ein solches Gleichgewicht wird bekanntlich als Trenngleichgewicht oder separierendes Nash-Gleichgewicht bezeichnet, da die Akteure in diesem Fall in zwei Gruppen aufgespalten werden und keinen Anreiz haben, von ihrer Handlungswahl abzuweichen. Der Käufer kann in diesem idealisierten Fall folglich die Qualität eines Autos anhand des Angebots bzw. Nicht-Angebots eines Signals (z.B. Garantie, unabhängige Gutachten oder Zertifikate) erkennen. Wie Michael Spence (1974) betont, müssen dabei zwei Bedingungen erfüllt sein: Erstens muss das Signal durch den Verkäufer zumindest teilweise selbst manipulierbar bzw. beeinflussbar sein. Denn nur so kann die eine Marktseite der anderen Marktseite Informationen zur Verfügung stellen und damit die Informationsasymmetrie überwinden. Zweitens sollten die Grenzkosten des Signals negativ mit der Qualität des Akteurs korrelieren. Nur dann ist nämlich die Glaubwürdigkeit des Signals gewährleistet.6 6 Ähnliche

Argumentationsmuster finden sich auch bei anderen, zusammen mit Akerlofs Arbeiten im Jahr 2001 mit dem Nobelpreis für Wirtschaftswissenschaften prämierten Anwendungen des informationsökonomischen Ansatzes: Michael Spence (1973) und Joseph Stiglitz (1975) haben die Signalisierungsfunktion von Bildungsabschlüssen für den Arbeitgeber diskutiert und gezeigt, dass sich unter bestimmten Annahmen (z.B. divergente Bildungskosten und Löhne für produktive und weniger produktive Individuen) ebenfalls ein separierendes Gleichgewicht mit einerseits produktiven Arbeitern mit hohem Abschluss und andererseits weniger produktiven Arbeitern mit niedrigem Abschluss ergeben kann. Überdies seien die Anwendungen auf Versicherungsmärkte (Rothschild und Stiglitz 1976) erwähnt, auf denen Versicherer Beiträge für Risikogruppen und Nicht-Risikogruppen entsprechend der jeweiligen Auftrittswahrscheinlichkeit des Versicherungsfalles gestalten sollten. In diesem Fall kann das

3.3 Wirkungen von sozialem Status

59

Podolny und Lynn (2009) bezeichnen diese Sichtweise als ökonomische Herangehensweise, da sie die Bedeutung von Status und anderen Signalen für ökonomische Entscheidungen in den Mittelpunkt stellt. Dabei wird ein Matching-Prozess zwischen Nachfragern und Anbietern unterstellt, der über den Preismechanismus (im Sinne eines Wettbewerbsgleichgewichts mit markträumenden Gleichgewichtszuständen (vgl. Abschnitt 2.2 im ersten Band)) vermittelt wird. Podolny und Lynn stellen dieser Position ein soziologisches Erklärungsmodell gegenüber, das ebenso wie der vorgestellte Ansatz von Gould (2002) die Möglichkeit sozialer Eigendynamiken und sich selbstverstärkender Prozesse hervorhebt, jedoch im Gegensatz zur ökonomischen Signaltheorie die Wirkungen des Status auf die Kosten in den Vordergrund rückt.

3.3.2 Statussignale aus soziologischer Perspektive Podolny (2005) stellt die ökonomische Argumentation in seinem soziologischen Signalmodell für Märkte, um mit Marx’ Worten zu sprechen, vom Kopf auf die Füße. Während Spence (1974) annimmt, dass Indikatoren von den Akteuren zumindest teilweise manipulierbar sind und marginale Signalerwerbskosten negativ mit der Akteursqualität korrelieren, formuliert Podolny (2005: 23ff.) folgende zwei Bedingungen für ein Trenngleichgewicht: Der Indikator ist nicht für alle Akteure, die gerne hohe Qualität signalisieren würden, verfügbar, d.h. der Indikator ist ein Positionsgut, und die Produktionskosten für ein Gut gegebener Qualität sind negativ mit dem Besitz des Signals korreliert. Podolnys erste Annahme basiert dabei auf Fred Hirschs Überlegungen in seinem Buch The Social Limits of Growth (1976), in denen er zwischen materiellen und positionalen Gütern unterscheidet. Während der Wert materieller Güter von deren Knappheit und dem direkten Konsumnutzen bestimmt wird, hängt der Nutzen von Positionsgütern zusätzlich von relativen Vergleichsprozessen und sozialen Dynamiken ab (siehe dazu auch Frank 1985a, 1985b).7 Bekanntlich ist Status ein solches Positionsgut, sodass der Aufstieg eines Akteurs notwendigerweise den Abstieg mindestens eines Mitstreiters bedingt. Die Bedingung der begrenzten Verfügbarkeit eines Signals folgt daher logisch aus der relationalen Definition von Status. Die zweite von Podolnys Bedingungen bedarf demgegenüber einer ausführlicheren Begründung. Podolny unterscheidet vier Mechanismen, die zu einer Kostensenkung bei höherem Marktstatus beitragen können. Erstens verringert hoher Status die Kosten, welche aufgrund von Unsicherheiten (z.B. über die Qualität des Gutes, die Vertrauenswürdigkeit des Tauschpartners, die Vertragsdetails) bei jeder Transaktion anfallen (Coase 1937; WilProblem adverser Selektion durch das Angebot eines geschickt gewählten Menüs von Versicherungsverträgen gelöst werden. Die Versicherten werden sich aufgrund ihrer unterschiedlichen Risikoniveaus selbst in verschiedene Vertragsgruppen selektieren und dadurch ihre Zugehörigkeit zu einer gewissen Risikogruppe signalisieren. 7 Verschiedene Studien beschäftigen sich mit diesem Aspekt von Positionsgütern. Solnick, Long und Hemenway (2007) zeigen etwa, dass es kulturspezifische Unterschiede der positionalen Bedeutung von Gütern gibt. Während in den USA vor allem Attraktivität, Intelligenz und die Bildung der Kinder im Vordergrund stehen, sind es in China Einkommen, eigene Bildung und Zeit für Urlaube. In einem weiteren Beitrag berichten Solnick und Hemenway (2009) eine Angleichung des nachbarschaftlichen Konsumverhaltens, wenn Informationen darüber bereitgestellt werden. Zudem hat diese Information Einfluss auf die Lebenszufriedenheit (vgl. Kapitel 12 in diesem Buch). Heffetz (2009) prognostiziert weiterhin, dass der positionale Charakter eines Gutes mit der dazugehörigen Einkommenselastizität in Beziehung steht. Empirisch zeigt sich, dass knapp ein Drittel der Einkommenselastizität durch den Grad der Sichtbarkeit des Gutes erklärbar ist. Für weitere Evidenz siehe Heffetz und Frank (2010).

60

3 Status, Positionswettbewerbe und Signale

liamson 1975, 1985). Denn hoher Status wird in der Regel mit höherer Glaubwürdigkeit und Verlässlichkeit assoziiert. Status ist dabei zum Teil schon alleine deshalb ein valides Verlässlichkeitssignal, da Akteure mit hohem Status eine Reputation zu verlieren haben. Zweitens fallen für diese Akteure häufig auch geringere Kosten für die Bewerbung und Vermarktung ihres Produktes an. So wird der Umfang medialer Berichterstattung über Produkte durch den Status des Produzenten positiv beeinflusst. Und auch die Aufmerksamkeit potenzieller Kunden steigt mit der Statushöhe an, sodass auch Diffusionsprozesse und daran anknüpfende Matthäus-Effekte schneller vonstattengehen (siehe Kapitel 9 in diesem Buch). Drittens können sich für ein Unternehmen auch Kostenvorteile auf Finanzmärkten ergeben – etwa über die leichtere Beschaffung von Krediten mit günstigeren Konditionen sowie durch positivere Bewertungen durch Analysten und damit einhergehenden höheren Unternehmenswerten und Börsennotierungen. Nimmt man weiterhin an, dass Arbeitnehmer Status wertschätzen und für die Tätigkeit in einer reputablen Firma bereit sind, geringere Löhne zu akzeptieren, ergibt sich schließlich auch eine Senkung der Lohnkosten. Aufgrund dieser mit dem Status einhergehenden Wettbewerbsvorteile sind – ähnlich wie in Goulds (2002) Modell – sich selbst verstärkende Prozesse zu prognostizieren, die selbst bei kleinen Qualitätsunterschieden zu großen Statusdifferenzen und einer disproportionalen Verteilung von Marktmacht führen können. Denn je höher der individuelle Status ist, desto mehr wird der entsprechende Akteur im Weiteren von Anderen geachtet und bevorteilt. Erklärungsbedürftig bleibt allerdings der empirische Befund, dass Unternehmen mit hohem Status selten in Niedrigpreissegmente eindringen, obwohl sie statusniedrigere Konkurrenten aufgrund ihrer Kostenvorteile aus dem Markt verdrängen könnten. Zur Erklärung dieses empirischen Faktums charakterisiert Podolny Status durch eine weitere Eigenschaft. Demnach kann sich der Status eines Akteurs aufgrund von Assoziation auf den Status anderer Akteure übertragen (siehe hierzu auch die Überlegungen zur Eigenvektor-Logik in Kapitel 8 im ersten Band). Bewegt sich ein statushoher Akteur in Niedrigpreissegmenten oder kooperiert mit statusniedrigen Akteuren, so wird sein Status sinken. Damit sind wiederum Wettbewerbsnachteile verbunden, die eine solche Entscheidung oft nicht rational erscheinen lassen. Zudem ergeben sich aus der Übertragbarkeit von Status auf Andere (leakage), Anreize zur Homophilie und dazu, sich nach oben zu orientieren. Akteure werden also versuchen, Kontakte zu Statusniedrigen zu vermeiden und gleichzeitig Beziehungen zu Statusgleichen und Statushöheren aufzubauen. Die beschriebenen Leakage-Effekte fallen dabei umso stärker aus, je unsicherer sich die anderen Marktteilnehmer über die Qualität sind, d.h. je stärker sie auf Signale angewiesen sind. Während also bei Gould (2002) die Statuskonzentration aufgrund von Symmetrieund Reziprozitätsüberlegungen begrenzt wird, ist es bei Podolny die „ansteckende“ Eigenschaft von Status, welche eine vollkommene Dominanz eines Unternehmens aller Segmente eines speziellen Marktes unwahrscheinlich werden lässt. Denn Status erzeugt zwar einerseits neue Handlungspotenziale (z.B. aufgrund des Status-Kosten-Zusammenhangs). Andererseits sind daran auch Handlungsrestriktionen geknüpft (z.B. aufgrund der positionalen Natur von Status). Beispielsweise werden renommierte Unternehmen es nach Podolnys Modell vermeiden, in Niedrigpreissegmente einzudringen, da sie damit ihre etablierte Position aufs Spiel setzen würden. Podolny (2005) hat diese theoretischen Überlegungen anhand verschiedener Märkte (z.B. Finanzmärkte, Halbleiterhandel, Logistikbranche, Weinindustrie) einer empirischen Prüfung unterzogen und kommt zu einer positiven Bewertung des eigenen Ansatzes. So sind sowohl statusbasierte Kosten- und Preisdifferenzen als auch Status-Homophilie un-

3.3 Wirkungen von sozialem Status

61

ter den Marktteilnehmern zu beobachten. Zudem moderieren die eigene Unsicherheit des Unternehmens und die Unsicherheit anderer Marktteilnehmer diesen Zusammenhang in erwarteter positiver Richtung. So steigen bei zunehmender Unsicherheit Anderer die Unternehmensmargen. Dagegen sinkt zugleich mit zunehmender Unsicherheit der Marktanteil dieser Hochstatusfirmen, da sich deren Expansionsbereitschaft in andere niedrigpreisige Marktnischen verringert. Nichtsdestotrotz ist eine generelle Zunahme der Marktkonzentration im Zeitverlauf zu verzeichnen, der vor allem Unternehmen mit mittlerem Status zum Opfer fallen. Schließlich sind in den Studien auch sogenannte Spillover-Effekte zu beobachten, bei denen Unternehmen ihren Status in einem Bereich auf einen anderen Sektor übertragen und dort monetär verwerten können. Man kann jetzt nach der Wirkung von Status auf die Lohnbildung fragen und die Bedeutung alternativer Anreizmechanismen (wie Auszeichnungen, Preise und Ehrungen) in den Blick nehmen.

3.3.3 Status, Arbeitsmärkte und Ehrungen Häufig gehen die Höhe des beruflichen Ansehens und des Einkommens miteinander einher. So sind z.B. die Berufe des Arztes oder Richters in verschiedenen Skalen zum Berufsprestige im oberen Ansehensbereich angesiedelt und werden gleichzeitig monetär sehr gut entlohnt. Dennoch soll an dieser Stelle argumentiert werden, dass Status und Löhne zwei unterschiedliche Anreizmechanismen in Arbeitsmärkten sind, um Arbeitnehmer zu motivieren. Sie sollten daher – entgegen der ersten Intuition – in einem negativen Verhältnis zueinander stehen, also gegenseitig Substitute sein. Zudem können sie unterschiedliche Auswirkungen auf die Art der Arbeitnehmermotivation haben. Bereits angesprochen wurde die Möglichkeit, dass Arbeitnehmer für eine Beschäftigung in einer angesehenen Firma oder Institution aus Statusmotiven bereit sind, auf einen Teil ihres Lohns zu verzichten. Ebenso wurde auf die Bedeutung des Frog-Ponds-Effekts verwiesen. Demnach kann bei der Wahl des Arbeitsplatzes die Unternehmensgröße Teil des Entscheidungskalküls sein. Doch weshalb sollte auch innerhalb eines Unternehmens ein negativer Zusammenhang zwischen sozialem Status und Einkommen bestehen? Da Menschen sowohl an ihrer monetären Entlohnungen, als auch ihrer Position in einer sozialen Hierarchie interessiert sind, kann eine geringere monetäre Entlohnung vom Arbeitgeber durch andere Formen der Leistungsanerkennung kompensiert werden. So können geringe Verdienstmöglichkeiten durch einen Aufstieg in der firmeninternen Statushierarchie oder die Manifestation sozialer Anerkennung durch eine Ehrung aufgewogen werden.8 Um weitere Unterschiede monetärer und sozialer Anreize herauszuarbeiten, ist es sinnvoll, den Begriff der Arbeitsmotivation analytisch schärfer zu fassen. In der psychologischen Forschung wird diesbezüglich zwischen extrinsischer und intrinsischer Motivation (vgl. Ryan und Deci 2000) unterschieden. Während von intrinsischer Motivation dann gesprochen wird, wenn eine Handlung durchgeführt wird, obwohl keine Anreize durch Dritte dafür vorliegen, zeichnet sich extrinsische Motivation durch das Streben nach (äußerer) Belohnung und die Vermeidung von „äußerer“ Bestrafung aus. Interessant ist nun der empirische Befund, dass eine Steigerung extrinsischer Anreize unter bestimmten Bedingungen zu einer Verringerung intrinsischer Motivation führt. Dieser Zusammenhang widerspricht Annah8 Wie

u.a. Coleman (1988) und Willer (2009) zeigen, können Status und soziale Wertschätzung gerade in kleinen und gut vernetzten Gruppen als selektive Anreize fungieren und individuelle Beiträge zu kollektiven Gütern fördern.

62

3 Status, Positionswettbewerbe und Signale

men klassischer ökonomischer Theorien, wonach eine Steigerung der monetären Anreize stets zu erhöhtem Arbeitsaufwand führen sollte.9 Wie Frey (2008) ausführt, tritt der beschriebene Verdrängungs- oder Crowding-Out-Effekt intrinsischer durch extrinsische Motivation besonders dann auf, wenn äußere Anreize als kontrollierend empfunden werden, wenn bei Arbeitnehmern der Eindruck entsteht, ihre Motivation würde nicht geschätzt, und wenn ihnen kein Raum dafür gegeben wird, ihrer intrinsische Motivation in Form von selbstbestimmten Handlungen Ausdruck zu verleihen. Diese drei Bedingungen für solche „hidden costs of rewards“ liegen dabei laut Frey (2008: 42) für monetäre Entlohnungen in stärkerem Maße vor als für andere extrinsische Belohnungen. Insbesondere Lob, soziale Anerkennung und Ehrungen, welche – obwohl immateriell – ebenfalls der Klasse extrinsischer Anreize zuzurechnen sind, werden demgegenüber eher als unterstützend, denn als überwachend gedeutet. Sie hemmen daher keine intrinsischen Triebkräfte, sondern fördern diese teilweise sogar. Dies hängt mit den Unterschieden zwischen Auszeichnungen und Geld zusammen, die Frey (2010: 6ff.) anhand folgender fünf Punkte herausarbeitet: Beziehungen: Mit der Verleihung werden soziale Beziehungen geknüpft. Eine Ehrung kann beim Empfänger zu Loyalitätsverpflichtungen führen. Gefühle der Schuld und Dankbarkeit müssen bei monetärer Entlohnung nicht unbedingt auftreten. Leistungsspezifität: In der Regel werden abstrakte Errungenschaften anhand vager Kriterien ausgezeichnet, während Löhne stärker an spezifische Leistungen geknüpft sind. Öffentlichkeit: Auszeichnungen werden vor einem Publikum verliehen und über Medien veröffentlicht. Demgegenüber ist die Sichtbarkeit monetärer Entlohnungen nicht in diesem Maße gegeben. Kosten-Nutzen-Asymmetrie: Auszeichnungen sind für den Geber meist mit geringen Kosten verbunden, stiften aber häufig für den Empfänger großen Nutzen. Besteuerung: Auszeichnungen werden im Gegensatz zu Geldeinkommen nicht besteuert und fließen damit vollständig dem Empfänger zu. Anhand einer Vignettenstudie10 haben Neckermann und Frey (2008) diese These, dass Ehrungen bessere Anreizmechanismen darstellen, einer empirischen Prüfung unterzogen. Hierzu wurden Personen gefragt, wie viel sie unter variierenden (hypothetischen) Situationsumständen zu einem öffentlichen Gut beitragen würden. Im Ergebnis zeigte sich, dass sich Auszeichnungen, die mit einem monetären Gewinn verknüpft sind und die öffentlich verliehen werden, positiv auf den individuellen Beitrag zum Kollektivgut auswirken. Dagegen hat die Zahl verliehener Preise keinen Einfluss – ein Befund, welcher angesichts der 9 Dies

gilt insbesondere für die Agenturtheorie (Jensen und Meckling 1976), die sich damit beschäftigt, wie ein Prinzipal (z.B. Arbeitgeber) hinreichend monetäre Anreize für einen Agenten (z.B. Arbeitnehmer) setzen kann, damit dieser in seinem Sinne handelt (zum Prinzipal-Agenten-Problem siehe Abschnitt 5.2 im ersten Band). 10 In Vignettenstudien bzw. faktoriellen Surveys werden den Befragten hypothetische Entscheidungssituationen zur Beurteilung vorgelegt, wobei zentrale Aspekte der Situation und/oder Bewertungsobjekte systematisch variiert werden. Dadurch werden die jeweiligen Vorteile der experimentellen Methode und der Umfrageforschung miteinander verbunden, sodass auch zu sonst schwer zugänglichen Untersuchungsgegenständen Daten gesammelt werden können. Für eine detaillierte Einführung siehe Beck und Opp (2000), Jasso (2006) und Rossi und Anderson (1982). Für Versuche der Validierung dieser nicht ganz unproblematischen Messmethode siehe z.B. Auspurg, Hinz und Liebig (2009).

3.4 Status und Winner-take-all-Märkte

63

Erwartung, dass der Wert eines (Positions)Gutes von dessen Knappheit abhängen sollte, verwundert. Im Einklang mit Überlegungen zum positionalen Charakter von Status verringerte sich jedoch die Leistungsbereitschaft derjenigen Teilnehmer, welche keine Auszeichnung erhalten hatten. Obwohl Frey und Neckermann (2008) also Preise und Auszeichnungen als vernachlässigte Anreize propagieren, die zur Motivation der Arbeitnehmer verstärkt eingesetzt werden sollten, weisen sie in der hier referierten Studie auch auf deren unintendierte Effekte hin, welche sogar die intendierten Wirkungen dominieren können.11 Nach dieser ausführlichen Darstellung der vielfältigen Einflüsse von Status im Wirtschaftsleben soll abschließend mit Winner-take-all-Märkten eine besondere Art von Märkten in den Blick genommen werden. Auf diesen treten die beschriebenen Entstehungsprozesse und Wirkungsweisen von Status aufgrund der starken Marktkonzentration in besonders prägnanter Form zu Tage. Ihre Beschreibung dient daher der abschließenden Illustration der bisherigen Ausführungen.

3.4 Status und Winner-take-all-Märkte Winner-take-all-Märkte zeichnen sich nach Frank und Cook (1995: 23ff.) durch zwei Eigenschaften aus: Erstens bestimmt die relative und nicht (nur) die absolute Leistung Markterträge. Zweitens sind diese Erträge in den Händen einiger weniger Top-Performer konzentriert, sodass häufig bereits geringe Fähigkeits- oder Anstrengungsunterschiede in enormen Einkommensdifferenzen resultieren (siehe auch Kapitel 9 in diesem Band). Zwei Marktformen sind dabei zu unterscheiden, die zu solchen Resultaten führen: Massenmärkte und Deep-Pocket-Märkte. Deep-Pocket-Märkte mit starker Marktkonzentration umfassen etwa Märkte für Spitzenkünstler, spezialisierte Anwälte und Experten auf vielen anderen Gebieten. Hier ist das Angebot aufgrund limitierter Vervielfältigungsmöglichkeiten beschränkt, sodass für stark nachgefragte Produkte entsprechend hohe Preise gezahlt werden. Massenmärkte der beschriebenen Art finden sich dagegen etwa für Unterhaltungsprodukte (z.B. Bücher, Filme, Musik) und Sport. Hier kann das Angebot z.B. über reichweitenstarke Massenmedien (fast) unbeschränkt und kostengünstig erweitert werden, sodass eine große Anzahl von Konsumenten (nichtrivalisierend) mit Spitzenangeboten versorgt wird. Wie Frank und Cook (1995: 23ff.) betonen, sind verschiedene Ursachen für die Entstehung dieser Marktordnungen verantwortlich: Massenproduktion: Viele Produkte lassen sich zu geringen zusätzlichen Kosten vervielfältigen. Dabei steigen teilweise die Skalenerträge mit der Produktionsmenge, sodass in Folge Massenmärkte besonders lukrativ sind. Positive Netzwerkexternalitäten: Der Wert bestimmter Produkte hängt positiv mit der Anzahl weiterer Konsumenten zusammen (zu Netzwerkexternalitäten siehe auch Abschnitt 5.1.3 im ersten Band). So sind Kommunikationsmedien (z.B. Faxgerät, Telefon) umso nützlicher, je mehr Personen damit kontaktiert werden können. Dies betrifft weiterhin Kompatibilitätsaspekte informationstechnologischer (z.B. Video- und 11 Der

Befund erinnert dabei an Stouffers (1949) klassische Studie The American Soldier und den darin gefundenen U-förmigen Zusammenhang zwischen der Höhe der Beförderungsrate und der durchschnittlichen Arbeitszufriedenheit. Unter Rückgriff auf Überlegungen zur relativen Deprivation erklärt Raymond Boudon (1979) dieses empirische Resultat in einem spieltheoretischen Modell. Zentrale Überlegung ist dabei, dass bei einer Beförderung zwar die Zufriedenheit des Beförderten steigt, jedoch andere Personen nicht befördert werden, sodass deren Zufriedenheit sinkt.

64

3 Status, Positionswettbewerbe und Signale DVD-Formate; Computerhardware und -software) und anderer Produkte (Ersatzteile für Fahrzeuge; Schienennormen für den Bahnverkehr). Positive Netzwerkexternalitäten bestehen auch deshalb, weil Menschen sich gerne über Produkte, z.B. die Qualität aktueller Bücher, Filme und CDs austauschen.

Lock-In-Effekte und Pfadabhängigkeit: Wie Arthur (1994) hervorhebt, können zeitliche Vorsprünge in der Implementierung neuer Technologien zu Folgeinvestitionen in deren Weiterentwicklung und aufgrund von Lernkosten zu Kundenbindung an das Produkt führen. Der Markterfolg eines Produktes ist also pfadabhängig, wobei sich Vor- bzw. Nachteile im Zeitverlauf akkumulieren und sich Spätstarter bei Markteintritt mit Wettbewerbsnachteilen konfrontiert sehen. Gewicht einzelner Entscheidungsträger: In gewissen Branchen ziehen die Entscheidungen von Einzelpersonen, wie Firmenchefs und Geschäftsführern, erhebliche Folgewirkungen nach sich. Es kommt daher trotz kleiner Qualitätsunterschiede zwischen den Positionsanwärtern zu einem massiven Wettbewerb um besonders qualifiziertes Personal. Wahrnehmung, Gewöhnung und Reue: Kognitive Wahrnehmungsgrenzen verhindern eine vollständige Information über die Marktlage. Zur Vereinfachung konzentrieren sich Menschen daher auf einige wenige Produkte und Akteure. Zudem kommt es zu Gewöhnungseffekten, sodass einmal etablierte Produkte und Akteure im Zeitverlauf größere Marktanteile auf sich vereinen (vgl. Kapitel 8 in diesem Band). Überdies wollen Menschen Reue vermeiden und greifen daher zur Sicherheit auf etablierte Produkte zurück. Damit verstetigen und verstärken sich (ursprünglich möglicherweise nur geringe) Statusdifferenzen zwischen etablierten und weniger etablierten Produkten. Geschenke: Die Bedeutung von Feierlichkeiten, wie Geburtstagen und Hochzeiten, soll durch besondere Geschenke hervorgehoben werden. Zudem wollen sich Akteure durch ihre Gaben von Anderen abgrenzen. Insbesondere hochpreisige Spitzenprodukte werden daher zu diesem Zwecke erworben. Konzentration der Kaufkraft: Es besteht eine erhebliche Konzentration gesellschaftlicher Vermögenswerte bei wenigen Individuen (siehe dazu auch Kapitel 10 in diesem Band). Insbesondere in Deep-Pocket-Märkten (z.B. Kunstmarkt) wirkt sich dies auf den Zusammenhang von Produktqualität und Erträgen aus. All diese Faktoren wirken in Richtung einer beträchtlichen Marktkonzentration. Neuere Entwicklungen, wie z.B. Innovationen in der elektronischen Datenverarbeitung und Kommunikation, neuartige Produktionsmethoden sowie gesunkene Transportkosten, verstärken diesen Trend noch weiter. Verschiedene gesellschaftliche Konsequenzen resultieren aus Winner-take-all-Märkten. Aus Sicht der Nachfrageseite sind diese zunächst eindeutig positiv zu bewerten, da Konsumenten in den Genuss der besten Produkte und talentiertesten Anbieter kommen, sofern kein fehlgeleitetes Herdenverhalten auftritt (vgl. Kapitel 9 in diesem Buch). Jedoch besteht die Gefahr einer kulturellen Homogenisierung, da die Zahl der Anbieter notwendigerweise gering ist. Eine negative Konsequenz auf Anbieterseite ist die zunehmende Einkommensschere zwischen Armen und Reichen, wobei Spitzeneinkommen beträchtlicher Höhe bezahlt

3.4 Status und Winner-take-all-Märkte

65

werden. Für Individuen besteht daher ein starker Anreiz, in diese Spitzenpositionen aufzusteigen. Ein risikoneutraler Akteur sollte genau dann eine Karriere in einem Winner-takeall-Markt anstreben, wenn das Produkt aus seiner Erfolgswahrscheinlichkeit und dem zu erwartenden Einkommen die Entlohnungshöhe für die Ausübung eines „normalen“ Berufs übersteigt. Da jedoch Menschen dazu neigen, ihre eigenen Fähigkeiten und Chancen zu überschätzen (overconfidence), treten mehr Akteure in den Positionswettbewerb ein als es sozial optimal wäre (overcrowding). Der Einzelne vernachlässigt dabei, dass seine Entscheidung des Eintritts in einen Winner-take-all-Markt einen negativen externen Effekt auf die Gewinnchancen der Konkurrenten hat. Die Anreize in Winner-take-all-Märkten führen folglich zu Fehlallokationen individueller Fähigkeiten und demnach zu gesamtgesellschaftlichen Ineffizienzen. Es erscheint daher überlegenswert, Positionswettbewerbe durch staatliches Handeln zu begrenzen. Diese Schlussfolgerung liegt insbesondere dann nahe, wenn man als Handlungsmaxime wie u.a. Frank (2008) das Millsche Kriterium für gutes Regieren zugrundelegt. Danach sollte der Staat die Handlungsfreiheit keines Bürgers einschränken, solange dieser keinen Schaden für Andere verursacht. Letztere Bedingung ist jedoch auf Winner-takeall-Märkten und bei anderen Positionswettbewerben verletzt. Vor allem zwei staatliche Eingriffsmöglichkeiten werden daher in der Literatur weithin diskutiert. Einerseits besteht die Möglichkeit, durch kollektive Vereinbarungen und soziale Normen den Rüstungswettbewerb zu restringieren. So können Maximalgehälter gesetzlich festgelegt werden, die soziale Ineffizienzen eindämmen, wenn auch nicht gänzlich verschwinden lassen. Thomas Schelling (1978) berichtet einen vergleichbaren Fall aus dem Bereich des Eishockeys: Jeder Spieler kann sich in dieser Sportart (aufgrund besserer Sicht und größerem Bewegungsspielraum) einen Vorteil verschaffen, wenn er auf das Tragen eines Schutzhelmes verzichtet. Wenn nun jedoch keine Helme getragen werden, ist wiederum niemand besser gestellt. Gleichzeitig setzen sich die Spieler aber einer erhöhten gesundheitlichen Gefahr aus, sodass wiederum eine klassische Dilemmasituation vorliegt. Erst durch die Einführung einer Helmpflicht durch die Dachorganisation, also eine kollektive Entscheidung, konnte in der amerikanischen Profiliga NHL dieser ressourcenvernichtende Wettbewerb eingeschränkt und die Zahl schwerer Kopfverletzung merklich gesenkt werden. Andererseits wird vielfach vorgeschlagen (z.B. Frank und Cook 1995; Frank 2005, 2008, 2011; Konrad 1990), Prestige-Güter in Form einer erhöhten Mehrwert- oder Luxussteuer künstlich zu verteuern. Damit können negative externe Effekte internalisiert und durch den Marktpreis adäquat repräsentiert werden.12 Wie Frank (2008) ausführt, würde man dabei in einer idealisierten Welt mit vollständiger Information für jedes Gut je nach dem Ausmaß seiner positionalen Externalitäten eine Steuer erheben. Da jedoch das Wissen über diese externen Effekte sehr begrenzt ist, schlägt Frank vor, anstelle der bisherigen progressiven Einkommenssteuer eine stark progressive Mehrwertsteuer einzuführen. Dieser Vorschlag basiert auf der Überlegung, dass positionale Aspekte beim Konsum von Luxusgüter deutlich stärker ausgeprägt sind als für die Nutzung alltäglicher Gebrauchsgüter und Luxusgüter gleichzeitig erhöhte Preise aufweisen. Prestigegüter würden demnach stärker besteuert werden als normale Güter. Denkt man zudem an das Gesetz von Engel (siehe Abschnitt 4.1.3 im ersten Band), wonach mit sinkendem Einkommen der Ausgabenanteil für Lebensmittel zunimmt, wäre damit, ebenso wie mit der gängigen Besteuerung des Einkommens, eine so12 Die

Idee der Internalisierung externer Effekte durch Besteuerung geht auf den englischen Ökonomen Arthur Pigou zurück, der diese Lösung zur Verringerung von Umweltverschmutzung vorgeschlagen hat. Die Steuer wird daher auch nach ihrem Erfinder als Pigou-Steuer bezeichnet.

66

3 Status, Positionswettbewerbe und Signale

ziale Umverteilung gewährleistet. Zudem würden, laut Frank, Spar- und Investitionsanreize entstehen, die sich bekanntlich positiv auf gesamtgesellschaftliches Wachstum auswirken. Ob eine solche Besteuerung durchsetzbar wäre, erscheint nichtsdestotrotz mehr als fraglich.

3.5 Schlussbetrachtung Im vorliegenden Beitrag wurden die Charakteristika von sozialem Status herausgearbeitet und verschiedene sozialwissenschaftliche Perspektiven auf die Ursachen und Wirkungen von Status im menschlichen Miteinander und im Wirtschaftsleben vorgestellt. Dabei wurde erstens deutlich, dass die Orientierung an der eigenen relativen Position eine wesentliche Determinante menschlichen Handelns ist. Status ist schon alleine deshalb eine wirtschaftssoziologische Schlüsselkategorie. Dies hat sich auch mit Blick auf Theorien zur intrinsischen Motivation und der Wirkung von Ehrungen als Anreizmechanismus auf dem Arbeitsmarkt gezeigt. Aus einem hohen sozialen Status ergeben sich zweitens auch indirekte Vorzüge. Eine hohe gesellschaftliche Stellung ist auch deshalb erstrebenswert, weil viele Akteure die relative Position als Signal für andere positiv besetzte Eigenschaften interpretieren. Aus ökonomischer Sicht investieren Akteure daher bewusst in solche Signale, um sich monetäre Vorteile zu verschaffen. Signale helfen demnach, Informationsasymmetrien und damit Marktmängel zu beheben. Im Gegensatz dazu betont die soziologische Perspektive von Podolny und Gould die an Status geknüpften Vorteile und daraus resultierende selbstverstärkende Prozesse und verdeutlicht, dass entsprechende Matthäus-Effekte selbst bei minimalen anfänglichen Qualitätsunterschieden zu erheblichen Statusungleichheiten führen können. Beide signaltheoretischen Überlegungen stimmen dabei nicht nur mit vielfältigen ökonomischen und wirtschaftssoziologischen Erkenntnissen, sondern auch mit Befunden aus dem Tierreich überein (Zahavi 1975; Zahavi und Zahavi 1997). Einerseits liegen zahlreiche Studien zur Verbreitung kostspieliger Signale u.a. bei der Paarung (z.B. prachtvolles Pfauenrad) im Sinne der ökonomischen Signaling-Theorie vor. Andererseits zeichnet sich in zahlreichen Untersuchungen auch ab, dass Eigendynamiken und zeitliche Pfadabhängigkeit eine wesentliche Rolle bei der Herausbildung von Hierarchieverhältnissen in tierischen Gruppen zukommt. Ist aber ein solcher Positionierungsprozess vorläufig abgeschlossen, erweisen sich die resultierenden Rangordnungen als transitiv und relativ robust – das soziale System hat sich nach einer Anpassungsphase stabilisiert und einen Gleichgewichtszustand erreicht. Eine vierte wesentliche Einsicht ergab sich schließlich mit Blick auf die gesamtgesellschaftlichen Wirkungen von Statuswettbewerben. Denn aus kollektiver Sicht tätigen die einzelnen Akteure zu große Statusinvestitionen. Es kommt angesichts des Nullsummencharakters von Statuswettbewerben zu einer Vergeudung von Ressourcen, was anhand von Winner-take-all-Märkten besonders deutlich zu Tage tritt. In der Literatur werden deshalb Steuern auf Luxusgüter sowie andere gesetzliche Regelungen und Konventionen vorgeschlagen, um Rüstungswettbewerbe zu begrenzen und damit verbundene Ineffizienzen zu reduzieren. Jedoch sollte bei entsprechenden Empfehlungen nicht vergessen werden, dass Status-Wettbewerbe selbst eine gesamtgesellschaftliche Ordnungs- und Koordinationsfunktion erfüllen. Sie erzeugen Anreize zu Leistung und Innovation, richten menschliche Handlungen an einem geteilten Ziel aus und steigern dadurch die Stabilität und Vorhersagbarkeit sozialer Interaktionen.

Literatur

67

Literatur Akerlof, G.A. (1970) „The Market for ‘Lemons’: Quality Uncertainty and the Market Mechanism.“ Quarterly Journal of Economics 84: 488-500. Arthur, B.W. (1994) Increasing Returns and Path Dependence in the Economy. Ann Arbor: University of Michigan Press. Auspurg, K., T. Hinz und S. Liebig (2009) „Komplexität von Vignetten, Lerneffekte und Plausibilität im Faktoriellen Survey.“ Methoden, Daten, Analysen 3: 59-96. Beck, M. und K.-D. Opp (2001) „Der faktorielle Survey und die Messung von Normen.“ Kölner Zeitschrift für Soziologie und Sozialpsychologie 53: 283-306. Boudon, R. (1979) Widersprüche sozialen Handelns. Darmstadt und Neuwied: Luchterhand. Bourdieu, P. (1999) Die Regeln der Kunst. Genese und Struktur des literarischen Feldes. Frankfurt a.M.: Suhrkamp. Braun, N. und T. Gautschi (2011) Rational-Choice-Theorie. Weinheim: Juventa. Chase, I.D. und W.B. Lindquist (2009) „Dominance Hierarchies.“ S. 566-593 in: P. Hedström und P. Bearman (Hg.) The Oxford Handbook of Analytical Sociology. Oxford: Oxford University Press. Chase, I. D., C. Tovey, D. Spangler-Martin und M. Manfredonia (2002) „Individual Differences Versus Social Dynamics in the Formation of Animal Dominance Hierarchies.“ Proceedings of the National Academy of Sciences 99: 5744-5749. Coase, R. (1937) „The Nature of the Firm.“ Economica 16: 386-409. Coleman, J.S. (1988) „Free Riders and Zealots. The Role of Social Networks.“ Sociological Theory 6: 52-57. Davis, J.A. (1966) „The Campus as a Frog Pond: An Application of the Theory of Relative Deprivation to Career Decisions of College Man.“ American Journal of Sociology 72: 17-31. Diekmann, A. (1992) „Soziale Dilemmata: Modelle, Typisierungen und empirische Resultate.“ S. 177-205 in: H.-J. Andreß (Hg.) Theorie, Daten, Methoden. München: Oldenbourg. Diekmann, A. (2009) Spieltheorie: Einführung, Beispiele, Experimente. Reinbek: Rowohlt. Fainmesser, I., C. Fershtman und N. Gandal (2009) „A Consistent Weighted Ranking Scheme with an Application to NCAA College Football Rankings.“ Journal of Sports Economics 10: 582-600. Frank, R.H. (1985a) Choosing the Right Pond. Human Behavior and the Quest for Status. New York: Oxford University Press. Frank, R.H. (1985b) „The Demand for Unobservable and Other Nonpositional Goods.“ American Economic Review 75: 101-116. Frank, R.H. (1999) Luxury Fever. New York: The Free Press. Frank, R.H. (2005) „Are Concerns About Relative Income Relevant for Public Policy. Positional Externalities Cause Large and Preventable Welfare Losses.“ American Economic Review 95: 137-141. Frank, R.H. (2007) Falling Behind: How Rising Inequality Harms the Middle Class. Berkeley: University of California Press. Frank, R.H. (2008) „Should Public Policy Respond to Positional Externalities?“ Journal of Public Economics 92: 1777-1786. Frank, R.H. (2011) Darwin Economy. Liberty, Competition, and the Common Good. Princeton: Princeton University Press. Frank, R.H. und P. Cook (1995) The Winner-take-all Society. New York: The Free Press. Franzen, A. und J. Hartmann (2000) „Die Partnerwahl zwischen Wunsch und Wirklichkeit.“ S. 183-206 in: T. Klein (Hg.) Partnerwahl und Heiratsmuster. Opladen: Leske und Budrich. Frey, B.S. (2008) „Motivation Crowding Theory – A New Approach to Behavior.“ S. 37-54 in: Australian Government Productivity Commission (Hg.) Behavioral Economics and Public Policy. Roundtable Proceedings, Melbourne, August 8-9,2007. Frey, B.S. (2010) „Geld oder Anerkennung? Zur Ökonomik der Auszeichnungen.“ Perspektiven der Wirtschaftspolitik 11: 1-15.

68

3 Status, Positionswettbewerbe und Signale

Frey, B.S. und S. Neckermann (2008) „Awards: A View From Psychological Economics.“ Journal of Psychology 216: 198-208. Gambetta, D. und H. Hamill (2005) Streetwise: How Taxi Drivers Establish Their Customers’ Trustworthiness. New York: Russell Sage Foundation. Girtler, R. (1995) Die feinen Leute. Frankfurt am Main: Campus. Gould, R.V. (2002) „The Origins of Status Hierarchies: A Formal Theory and Empirical Test.“ American Journal of Sociology 107: 1143-1178. Groeneveld, R.A. (1990) „Ranking Teams in a League With Two Division of Teams.“ The American Statistician 44: 277-281. Heffetz, O. (2009) „A Test of Conspicuous Consumption: Visibility and Income Elasticities.“ Arbeitspapier, Cornell University. Heffetz, O. und R.H. Frank (2010) „Preferences for Status: Evidence and Economic Implications.“ S. 69-92 in: J. Benhabib, A. Bisin und M. Jackson (Hg.) Handbook of Social Economics. Vol. 1A. Amsterdam: Elsevier. Hirsch, F. (1976) The Social Limits of Growth. Cambridge: Harvard University Press. Hobbes, T. (1651 [1960]) Leviathan or the Matter, Form and Power of a Commonwealth Ecclesiastical and Civil. Oxford: Blackwell. Jasso, G. (2006) „Factorial Survey Methods for Studying Beliefs and Judgments.“ Sociological Methods and Research 34: 334-423. Jensen, M. und W. Meckling (1976) „Theory of the Firm. Managerial Behavior, Agency Costs, and Ownership Structure.“ Journal of Financial Economics 3: 305-360. Konrad, K.A. (1990) „Statuspräferenzen: soziobiologische Ursachen, Statuswettrüsten und seine Besteuerung.“ Kyklos 43: 249-272. Lynn, F.B., J. Podolny und L. Tao (2009) „A Sociological (De)Construction of the Relationship between Status and Quality.“ American Journal of Sociology 115: 755-804. Mark, N.P., L. Smith-Lovin und C.L. Ridgeway (2009) „Why Do Nominal Characteristics Acquire Status Value? A Minimal Explanation for Status Construction.“ American Journal of Sociology 115: 832-862. Maurer, S.B. (1980) „The King Chicken Theorems. A Flock of Results About Pecking Orders, Describing Possible Patterns of Dominance.“ Mathematics Magazine 53: 67-80. Merton, R.K. (1968) „The Matthew Effect in Science.“ Science 159: 56-63. Podolny, J. (2005) Status Signals. A Sociological Study of Market Competition. Princeton: Princeton University Press. Podolny, J. und F.B. Lynn (2009) „Status.“ S. 544-565 in: P. Hedstrom und P. Bearman (Hg.) The Oxford Handbook of Analytical Sociology. Oxford: Oxford University Press. Przepiorka, W. (2009) Reputation and Signals of Trustworthiness in Social Interactions. Unveröffentlichte Dissertation: ETH Zürich. Rapoport, A. (1950) „Outline to a Mathematical Theory of Peck Right.“ Biometrics 6: 330-341. Rasmusen, E. (2007) Games and Information: An Introduction to Game Theory (4. Aufl.). Malden: Blackwell. Ridgeway, C.L. und S.J. Correll (2006) „Consensus and the Creation of Status Beliefs.“ Social Forces 85: 431-453. Roberts, F.S. (1976) Discrete Mathematical Models with Applications to Social, Biological, and Environmental Problems. Englewood Cliffs: Prentice-Hall. Rossi, P.H. und A.B. Anderson (1982) „The Factorial Survey Approach: An Introduction.“ S. 15-67 in: P. H. Rossi und S. L. Nock (Hg.) Measuring Social Judgments: the Factorial Survey Approach. Thousand Oaks: Sage. Rothschild, M. und J. Stiglitz (1976) „Equilibrium in Competitive Insurance Markets.“ Quarterly Journal of Economics 90: 629-49. Ryan, R.M. und E.L. Deci (2000) „Intrinsic and Extrinsic Motivation: Classic Definitions and New Directions.“ Contemporary Educational Psychology 25: 54-67. Schelling, T.C. (1978) Micromotives and Macrobehavior. New York: Norton.

Literatur

69

Solnick, S.J. und D. Hemenway (2009) „Do Spending Comparisons Affect Spending and Satisfaction?“ Journal of Socio-Economics 38: 568-573. Solnick, S.J., H. Long und D. Hemenway (2007) „Positional Goods in the United States and China.“ Journal of Socio-Economics 36: 537-545. Spence, A.M. (1974) Market Signalling: Informational Transfer in Hiring and Related Processes. Cambridge: Harvard University Press. Spence, A.M. (1973) „Job Market Signaling.“ Quarterly Journal of Economics 87: 355-374. Stiglitz, J.E. (1975) „The Theory of ’Screening’, Education, and the Distribution of Income.“ American Economic Review 65: 283-300. Stouffer, S.A. (1949) The American Soldier. Princeton: Princeton University Press. Thomas, T. (2008) „Fragwürdige Luxussteuern: Statusstreben und demonstratives Konsumverhalten in der Geschichte des ökonomischen Denkens.“ Arbeitspapier Nr. 81, Universität der Bundeswehr Hamburg. Varian, H.R. (2004) Grundzüge der Mikroökonomik. München: Oldenbourg. Veblen, T.B. (1899) The Theory of the Leisure Class. An Economic Study of Institutions. London: George Allen & Unwin. Weiss, Y. und C. Ferstman (1998) „Social Status and Economic Performance: A Survey.“ European Economic Review 42: 801-820. Willer, R. (2009) „Groups Reward Individual Sacrifice: The Status Solution to the Collective Action Problem.“ American Sociological Review 74: 23-43. Williamson, O.E. (1975) Markets and Hierarchies. Analysis and Antitrust Implications. New York: The Free Press. Williamson, O.E. (1985) The Economic Institutions of Capitalism. Firms, Markets, Relational Contracting. New York: The Free Press. Zahavi, A. (1975) „Mate Selection: A Selection for a Handicap.“ Journal of Theoretical Biology 53: 205-214. Zahavi, A. und A. Zahavi (1997) The Handicap Principle: A Missing Piece of Darwin’s Puzzle. Oxford: Oxford University Press.

Teil II Institutionen und Wirtschaft

4 Online-Transaktionen und Auktionen Roger Berger und Julia Zimmermann Tauschhandlungen finden statt, wenn sich zwei Akteure auf Grund unterschiedlicher subjektiver Wertschätzungen für ein Gut einen Nutzen davon versprechen. Andernfalls würden die Tauschpartner auf den Tausch verzichten und die Transaktion käme nicht zu Stande. Je größer deshalb die Zahl der Marktteilnehmer (Anbieter und Nachfrager), desto größer ist die Chance, dass es zu allseitig nutzensteigernden Transaktionen kommt. Seit Adam Smith (1776; vgl. dazu auch Stigler 1951) ist weiterhin bekannt, dass das Ausmaß der Arbeitsteilung und damit die Möglichkeit von Spezialisierungserträgen bei den Anbietern durch die Größe des Marktes beschränkt werden. Zusätzliche Anbieter führen zudem zu mehr Wettbewerb. Aus dieser Sicht ist deshalb eine Erweiterung von Märkten um zusätzliche Anbieter und Nachfrager wünschenswert.1 Für klassische Märkte, auf denen sich Anbieter und Nachfrager physisch treffen (Wochenmärkte, Ladengeschäfte, Messen etc.; vgl. auch Abschnitt 5.2.2 im ersten Band), ist diese Erweiterung nur beschränkt möglich und mit hohen Kosten verbunden.2 Im Gegensatz dazu ist die Zahl der Anbieter und Nachfrager auf Onlinemärkten kaum durch Kosten beschränkt. Onlinemärkte ermöglichen deshalb prinzipiell einen weltweiten Warentausch und damit theoretisch eine sehr effiziente Koordination von Angebot und Nachfrage. Im nächsten Abschnitt wird auf die Charakteristika von Onlinemärkte eingegangen. Anschließend werden die Eigenheiten von Auktionen und ihre Auswirkungen auf Onlinemärkten beschrieben (Abschnitt 4.2). Danach werden institutionelle Maßnahmen von Online-Auktionsplattformen zur Lösung des Opportunismusproblems beim Tausch präsentiert und es wird anhand vorliegender empirischer Befunde untersucht, inwieweit sie Online-Transaktionen stabilisieren (Abschnitt 4.3).

4.1 Tausch auf Onlinemärkten Onlinemärkte sind vorteilhaft, weil sie viele Marktteilnehmer auf einfache Weise zusammenbringen. Dies ist aber auch mit spezifischen Eigenheiten bzw. Nachteilen verbunden. Die erste Eigenheit ergibt sich aus der Tatsache, dass auf Onlinemärkten gerade auch Güter getauscht werden können, die sonst kaum einen Nachfrager finden. Auf lokalen Märkten ist dies anders. Beim Bäcker, auf dem Wochenmarkt oder im Kaufhaus trifft ein weitgehend bekanntes Angebot (Brot, Obst und Gemüse, Kleidung und Haushaltsgeräte etc.) auf 1 Damit

wird üblicherweise auch die nutzensteigernde Wirkung der Globalisierung begründet (siehe auch Kapitel 10 in diesem Band). 2 Ein weiteres Problem, auf das hier nicht weiter eingegangen wird, besteht darin, dass auf Onlinemärkten zwar die Verhandlungen und der Vertragsabschluss zwischen weit entfernten Marktteilnehmern leicht möglich sind, dass aber physische Güter in jedem Fall über die geographische Distanz zwischen Verkäufer und Käufer transportiert werden müssen.

74

4 Online-Transaktionen und Auktionen

Nachfrager, die eine klare Vorstellung von diesem Angebot haben. Die Verkäufer bieten deshalb in etwa die Ware zu ungefähr den Preisen an, die die Käufer haben wollen, und umgekehrt. Dass diese Koinzidenz der Bedürfnisse tatsächlich funktioniert, ist daran ersichtlich, dass beim Bäcker und auf dem Wochenmarkt am Abend die Regale weitgehend leer sind, und dass diese im Kaufhaus regelmäßig aufgefüllt werden müssen.3 Wer dagegen einen Käufer für den alten Schirmständer der Großmutter oder die Fußballwimpelkollektion aus Kinderzeiten sucht, wird diesen in einem lokalen Markt nur selten finden. Aus diesem Grund werden auf Flohmärkten die meisten Güter nicht verkauft. Für die meisten Waren auf Flohmärkten findet sich einfach kein Interessent, oder zumindest keiner, der den verlangten Preis bezahlen will.4 Auf Flohmärkten wird diesem Problem auch dadurch begegnet, dass über den Preis gefeilscht wird. Dann kann es sein, dass ein Gut getauscht wird, bei dem sich die Zahlungsbereitschaft des Käufers und die Verkaufsbereitschaft des Verkäufers anfänglich nicht überschnitten haben. Auf Onlinemärkten ist Feilschen dagegen keine brauchbare Option. Die Kommunikation ist, verglichen mit einem persönlichen Gespräch, erschwert und insbesondere die Subtilitäten des Feilschens (Gesichtsausdrücke, Körpersprache, Rhetorik etc.) können kaum online vermittelt werden. Auf Onlinemärkten werden deswegen oft Auktionen als Preisfindungsmechanismus verwendet. Die Auktion weist z.T. andere Eigenschaften auf als der Mechanismus der Preisfindung im idealen freien Markt. Diese sind nicht weiter problematisch für die Koordination von Angebot und Nachfrage und für die Preisfindung auf Onlinemärkten. Dies gilt nicht für eine weitere Eigenschaft solcher Märkte. Onlinemärkte erfordern weit mehr Vertrauen zwischen Anbietern und Nachfragern, als dies beim ökonomischen Tausch in klassischen Märkten der Fall ist (Bolton, Katok und Ockenfels 2004; Resnick et al. 2001). Auf physisch existenten Märkten können die Käufer die Ware vor dem Kauf üblicherweise inspizieren. Käufer und Verkäufer können persönlich interagieren und der Tausch von Ware gegen Geld findet weitgehend simultan statt. Weil die Zahl der Käufer und vor allem der Verkäufer beschränkt ist, kommt es häufig zu wiederholten Transaktionen zwischen einander bekannten Marktteilnehmern. Entsprechend können die Verkäufer eine Reputation aufbauen und die Käufer lernen, wem sie trauen können. In kleineren lokalen Märkten wird ein Verkäufer eine solche Reputation selbst bei einem einmaligen Verkauf an einen unbekannten Käufer nicht gefährden, weil ein schlechter Ruf durch die soziale Einbettung des Betrogenen über Drittparteien auf ihn zurückfallen könnte. Tauschhandlungen auf Onlinemärkten weisen diese Eigenschaften nicht auf. Sie laufen zeitlich und örtlich versetzt und – wegen der großen Zahl von Marktteilnehmern – häufig einmalig ab. Solche Transaktionen bringen Kosten für beide Parteien mit sich. Die Käufer sind über das Tauschgut und seine Qualität schlechter informiert als die Verkäufer. Diesen Informationsvorteil können die Verkäufer prinzipiell ausnutzen, indem sie ein minderwertiges Tauschgut verschicken, dessen Mängel der Käufer erst entdecken kann, wenn er es bereits gekauft hat (Akerlof 1970; Ockenfels 2003). Die Käufer wiederum können auf die Bezahlung des Guts teilweise oder ganz verzichten, sobald sie es erhalten haben. Hat der Käufer das Gut schon bezahlt, kann der Verkäufer darauf verzichten, es zu verschicken. Zwar besteht prinzipiell die Möglichkeit, solche Betrugsfälle juristisch einzuklagen. Neben 3 Ein

Bäcker, dessen Regale auch am Abend noch regelmäßig voll sind, wird bald vom Markt verschwinden, wenn er sein Angebot nicht entsprechend anpasst. 4 Eine Absatzstrategie, die von professionellen Händlern verfolgt wird, besteht deshalb darin, zu reisen und auf verschiedenen Flohmärkten anzubieten.

4.2 Auktionen

75

der auch bei anderen Tauschvorgängen problematischen Formulierung von vollständigen Verträgen (vgl. z.B. Batenburg, Raub und Snijders 2000) wird die wirksame Einsetzung und Durchsetzung von Verträgen im Onlinebereich aber zusätzlich dadurch erschwert, dass hier oft Tauschpartner aufeinander treffen, die räumlich weit voneinander entfernt sind und womöglich nicht einmal einer gemeinsamen Jurisdiktion unterstehen. Selbst wenn dies nicht der Fall ist, so verbietet sich die Sanktionierung von Verträgen faktisch dennoch häufig, wenn die Beteiligten anonym auftreten (Friedman und Resnick 2001; Ockenfels 2003). Diese Opportunitätsproblematik beim Tausch im Onlinebereich kann so gelöst werden, dass der Tausch selbst wieder aus dem Onlinebereich gelöst wird. So empfiehlt die weltgrößte Kleinanzeigenplattform – craigslist.org – explizit, ausschließlich mit Partnern zu tauschen, denen man physisch begegnen kann. Dies löst zwar die Problematik, beschränkt die Tauschmöglichkeiten allerdings wieder auf die eines – virtuellen – Flohmarktes. Sollen dagegen die Tauschpotenziale von Onlinemärkten ausgeschöpft werden, muss eine andere Lösung gefunden werden. Dies ist insbesondere paradigmatisch bei OnlineAuktionen der Fall. Die Verhandlung über Auktionen bedingt, dass die Beteiligten anonym unter Pseudonymen agieren. Dies birgt die Möglichkeit, sich nach einem Betrug einen neuen Scheinnamen zuzulegen und formellen (durch die Justiz) und informellen Sanktionen (durch andere Marktteilnehmer) somit zu entgehen. Diese Betrugsanreize, die auf die sequenzielle Struktur des Transaktionsaktes, die Einmaligkeit der Tauschhandlung und sowie auf die Anonymität der Handelspartner zurückzuführen sind, können im Modell des Vertrauensspiels (siehe Abschnitt 1.3.2 in diesem Band) abgebildet werden. Aus dem Vertrauensspiel ergibt sich, dass fehlendes Vertrauen zwischen den Tauschpartnern erfolgreiche Transaktionen auf Online-Märkten potenziell unterbindet. Derjenige Transaktionsteilnehmer, der in Vorleistung tritt (der Verkäufer, der ein Gut verschickt, bzw. der Käufer, der im Voraus bezahlt) läuft Gefahr durch seinen Partner ausgebeutet zu werden (durch den Käufer, der nicht oder nicht vollständig bezahlt, bzw. durch den Verkäufer, der keine oder minderwertige Ware verschickt). Aus defensiven Gründen werden deshalb beide Marktteilnehmer davon absehen, in eine Transaktion einzutreten. Dies entspricht dem (teilspielperfekten) Nash-Gleichgewicht (siehe Abschnitt 9.2.2 im ersten Band), in dem der erste Spieler in der Sequenz das Vertrauen verweigert, weil der zweite Spieler dieses enttäuschen würde. Aus wirtschaftssoziologischer Perspektive interessiert nun erstens die Frage, welche institutionellen Maßnahmen solche Opportunismusanreize ausschalten können, um einen beidseitig nutzenstiftenden Tausch zu initiieren; zweitens, wie diese Mechanismen beschaffen sein müssen, damit sie effektiv funktionieren, und drittens, welche Rolle die Preisfindung über Auktionen dabei einnimmt. Dazu werden aus dem Vertrauensspiel ableitbare theoretische Möglichkeiten zur Transaktionsstabilisierung und ihre empirische Evidenz präsentiert.

4.2 Auktionen Nach der Darlegung der prinzipiellen Idee und des Mechanismus von Auktionen werden gängige Auktionsformen präsentiert. Danach wird auf Online-Auktionen, und dabei insbesondere auf diejenige von eBay eingegangen.

76

4 Online-Transaktionen und Auktionen

4.2.1 Idee und Mechanismus von Auktionen Das Modell des freien Marktes, auf dem sich Angebot und Nachfrage treffen, setzt voraus, dass sich genügend (eigentlich: unendlich viele) Nachfrager und Anbieter mit unterschiedlicher Zahlungs- und Verkaufsbereitschaft gegenüberstehen. Der Schnittpunkt dieser Nachfrage- und Angebotskurve ergibt dann den Marktpreis und die abgesetzte Menge des Guts. Dagegen werden für eine Auktion nur mindestens zwei Nachfrager und ein Anbieter benötigt. Die Idee einer Auktion besteht darin, das angebotene Gut demjenigen Nachfrager zuzusprechen, der dafür die höchste Wertschätzung besitzt und deshalb auch den höchsten Nutzen aus seinem Besitz zieht. Diese Wertschätzung drückt sich in seiner Zahlungsbereitschaft für das Gut aus (dem Indifferenzpreis) und diese wiederum in seinem geäußerten Gebot. Der Bieter mit dem höchsten Gebot erhält deshalb jeweils den Zuschlag. Auktionen sind damit ein effizienter Allokationsmechanismus, d.h. Auktionsgüter werden derart verteilt, dass der insgesamt resultierende Nutzen maximiert wird. Auktionen wurden und werden deshalb traditionellerweise für den Absatz von spezifischen Gütern eingesetzt, für die nur relativ wenige Nachfrager existieren. Dazu gehören z.B. Kunst in Auktionshäusern (z.B. Sotheby’s oder Christie’s), Nutztiere auf einem Jahrmarkt, Großhandel für Blumen oder andere verderbliche Waren in entsprechenden Warenhallen oder auch öffentliche Ausschreibungen (z.B. Bauaufträge) und Mobilfunklizenzen, die vom Staat versteigert werden. Für diese Käufer spielt es keine Rolle, dass eine Auktion relativ umständlich durchzuführen ist und z.B. ihre physische Anwesenheit erfordert.5 Entsprechend der Heterogenität der versteigerten Güter existieren auch verschiedene Auktionsregeln, die nun dargestellt werden (für eine ausführliche Übersicht vgl. z.B. Berz 2007).

4.2.2 Formen von Auktionen Erstens wird unterschieden, ob die Gebote öffentlich (open-cry) abgegeben werden und deshalb den anderen Bietern auch bekannt sind, oder ob die Gebote nur dem Auktionator bekannt sind, weil sie verdeckt abgegeben werden (sealed-bid). Zweitens wird unterschieden, ob der Gewinner der Auktion das höchste Gebot (first-price) oder das zweithöchste Gebot (second-price) zahlen muss. Üblicherweise lassen sich deshalb die folgenden Auktionsformen klassifizieren: Tabelle 4.1: Formen von Auktionen

Zweitpreisauktion Erstpreisauktion

offen

verdeckt

Englische Auktion Holländische Auktion

Vickrey-Auktion Verdeckte Erstpreisauktion

A. Englische Auktion In der Englischen Auktion werden die Gebote für alle Bieter hörbar abgegeben. Die Gebote können solange erhöht werden, bis kein Bieter ein weiteres Gebot abgeben will. Der Höchstbietende gewinnt das Auktionsgut und zahlt das Höchstgebot. Allerdings entspricht 5 Bei

einem Tausch zu Marktpreisen ist dies nicht notwendig. Wer sein Auto betankt, ist nicht auf eine tatsächliche Interaktion mit anderen potenziellen Käufern und Tankstellen angewiesen, um Benzin zum Marktpreis zu erstehen.

4.2 Auktionen

77

dieses Höchstgebot nicht der höchsten Wertschätzung. Vielmehr zahlt der Höchstbietende einen Preis in Höhe der zweithöchsten Wertschätzung, plus die Mindestgebotserhöhung ε. Die tatsächliche Wertschätzung des Höchstbietenden für das Auktionsgut kann aber über dem erzielten Preis liegen. Deshalb wird hier von einer Zweitpreisauktion gesprochen. Diese Auktionsform wird u.a. bei Kunstauktionen verwendet. Die dominante Strategie jedes Bieters besteht darin, sein Gebot jeweils um die Mindestgebotserhöhung zu steigern, so lange, bis er die Auktion gewonnen hat oder das Gebot erreicht hat, das genau seiner Zahlungsbereitschaft und damit seiner Wertschätzung für das Gut entspricht. Wenn er die Auktion dann nicht gewonnen hat, hört er mit dem Bieten auf. B. Holländische Auktion Bei der Holländischen Auktion laufen die Gebote automatisch und kontinuierlich von einem Höchstpreis rückwärts, z.B. auf einer Uhr. Der erste Bieter, der ein Gebot abgibt, also die Uhr stoppt, gewinnt die Auktion und zahlt den Preis, bei dem er die Auktion gestoppt hat. Die Holländische Auktion hat ihren Namen von der Versteigerung von Schnittblumen in Holland. Das automatische Rückwärtslaufen der Gebote führt dazu, dass die Dauer der Auktion begrenzt ist (im Gegensatz etwa zur Englischen Auktion). Das ist wichtig, damit verderbliche Waren möglichst schnell umgesetzt werden können. Die Holländische Auktion ist strategisch äquivalent zur Erstpreisauktion mit verdeckten Geboten, und weist keine leicht erkennbare optimale Bietstrategie auf. Der Grund liegt darin, dass bei der Holländischen Auktion nur das Gebot des einen Bieters, der die Auktion gewinnt, bekannt ist. Die Gebote der anderen Bieter werden nie bekannt, da diese nicht abgegeben werden. C. Erstpreisauktion mit verdeckten Geboten Wie der Name sagt, werden hier die Gebote verdeckt an den Auktionator abgegeben (z.B. in einem Umschlag). Jeder Bieter gibt ein Gebot ab. Der Höchstbietende gewinnt die Auktion und zahlt den Preis, den er geboten hat. Die optimale Strategie ist hier schwieriger zu finden und hängt u.a. von den eigenen Risikopräferenzen und davon ab, wie hoch die Zahlungsbereitschaft der anderen Bieter ist. Die Auktionsform findet sich – meist nicht ganz in Reinform – bei der Vergabe von Aufträgen. Zum Beispiel geben verschiedene Bauunternehmen ein Preisangebot, das die Konkurrenten nicht kennen, für ein definiertes Bauvorhaben ab. Dasjenige Unternehmen, das das Bauvorhaben zum niedrigsten Preis ausführt, gewinnt den Bauauftrag. D. Vickrey-Auktion Die Zweitpreisauktion mit verdeckten Geboten ist nach ihrem Begründer William Vickrey benannt, der u.a. dafür 1996 den Nobelpreis für Ökonomik zugesprochen bekam. Auch hier wird nur ein einziges Gebot verdeckt abgegeben. Der Bieter mit dem höchsten Gebot gewinnt die Auktion. Allerdings zahlt er nur einen Preis in Höhe des zweithöchsten Gebots. Dieser etwas kontraintuitive Mechanismus führt dazu, dass jeder Bieter ein Gebot in der Höhe seiner tatsächlichen Wertschätzung für das Gut abgibt. Weil der Auktionsmechanismus bei eBay eine Mischung aus Englischer und Vickrey-Auktion ist, soll die letztere hier näher beleuchtet werden. Dazu werden drei Fälle betrachtet: Das Gebot liegt unter

78

4 Online-Transaktionen und Auktionen

oder über der tatsächlichen Wertschätzung des Bieters oder die beiden Größen entsprechen einander: Zu tiefes Gebot: Es können zwei Fälle eintreten: 1. Der Bieter gewinnt die Auktion. Er zahlt aber nur den Preis des nächst tieferen Gebots. Damit hätte er auch ein höheres Gebot, das seiner Wertschätzung entspricht, abgeben können und gleichviel gezahlt. 2. Der Bieter verliert die Auktion. Dann können wiederum zwei Fälle unterschieden werden: Das Gewinngebot des Anderen liegt tiefer als die eigentliche Wertschätzung für das Gut. Dann hätte der Bieter besser ein Gebot in der Höhe der eigenen Wertschätzung abgegeben. Er hätte die Auktion gewonnen und nur den tieferen Preis des Zweitgebots gezahlt und somit einen Gewinn gemacht. Oder aber das Höchstgebot des Anderen liegt über der eigenen Wertschätzung. Dann wäre die Auktion sowieso verloren gegangen. Aber ein Gebot in der Höhe der eigenen Wertschätzung hätte auch nicht geschadet. Zu hohes Gebot: Wiederum kann die Auktion damit gewonnen oder verloren werden. Wenn die Auktion gewonnen wird, ist entscheidend, in welcher Höhe das Zweitgebot liegt, das als Preis entrichtet werden muss. Liegt das Zweitgebot unter der eigenen Wertschätzung, hätte auch diese als Gebot abgegeben werden können. Die Auktion wäre zum selben Preis gewonnen worden. Liegt das Zweitgebot zwar unter dem eigenen, aber über der eigenen Wertschätzung, macht der Bieter einen Verlust. Er gewinnt zwar die Auktion, zahlt aber einen höheren Preis, als ihm die Ware eigentlich wert ist. Somit wäre er besser gefahren, wenn er bei einem Gebot in der Höhe der eigenen Wertschätzung die Auktion verloren hätte. Gebot in der Höhe der eigenen Wertschätzung: Wenn der Bieter die Auktion gewinnt, macht er auf jeden Fall einen Gewinn, da er einen Preis zahlt, der in jedem Fall unter der eigenen Wertschätzung liegt. Wenn er die Auktion verliert, wird er es nicht bereuen, denn dann hätte er die Auktion nur gewinnen können, wenn er einen, gemessen an seiner Wertschätzung, zu hohen Preis gezahlt hätte. Wie in der Englischen Auktion ist es damit eine dominante Strategie, ein Gebot in der Höhe der eigenen Wertschätzung für das Gut abzugeben. Man wird das Gebot nie bereuen, sich aber verbessern, wenn man die Auktion gewinnt.

4.2.3 Preise und Strategien in Auktionen Wie Vickrey (1961) mit seinem Äquivalenztheorem gezeigt hat, weisen alle beschriebenen Auktionsformen denselben erwarteten Endpreis auf. D.h. unabhängig davon, welche Auktionsform ein Auktionator wählt, ergibt sich theoretisch im Durchschnitt derselbe Preis für das versteigerte Gut. Die tatsächlich realisierten Endpreise können im Einzelfall allerdings unterschiedlich sein, weil in der Holländischen und der Erstpreisauktion mit verdeckten Geboten die Bieter Erwartungen über die Zahlungsbereitschaft der anderen Bieter bilden müssen, die im konkreten Fall (nicht aber im Durchschnitt) auch neben der wahren Zahlungsbereitschaft liegen können. Empirisch zeigt sich, dass das tatsächliche Bietverhalten am ehesten in der Englischen Auktion der optimalen Strategie entspricht (für eine Übersicht siehe z.B. Kagel 1995). In

4.2 Auktionen

79

Tabelle 4.2: Bieterstrategien und Verkaufspreise nach Auktionsform Auktionsform

Bieterstrategie

Verkaufspreis

Englische Auktion

Gebotabgabe bis zum eigenen Indifferenzpreis

Verkaufspreis entspricht dem zweithöchsten Gebot plus ε

Holländische Auktion

Gebot entspricht der eigenen Zahlungsbereitschaft inklusive einer strategischen Marge, die die eigene Risikoaversion und die Einschätzung des Wettbewerbs berücksichtigt

Verkaufspreis entspricht dem höchsten Gebot

Verdeckte Erstpreisauktion

Gebot entspricht der eigenen Zahlungsbereitschaft inklusive einer strategischen Marge, die die eigene Risikoaversion und die Einschätzung des Wettbewerbs berücksichtigt

Verkaufspreis entspricht dem höchsten Gebot

Vickrey-Auktion

Gebot entspricht dem eigenen Indifferenzpreis

Verkaufspreis entspricht dem zweithöchsten Gebot

Vickrey-Auktionen werden dagegen häufig Gebote abgegeben, die über der eigenen Wertschätzung liegen. Offenbar wird hier die optimale Bietstrategie, den eigenen Indifferenzpreis zu bieten, nicht als solche erkannt. Auch in der verdeckten Erstpreisauktion sowie der Holländischen Auktion liegen die abgegebenen Gebote oftmals über dem Optimalgebot. Risikoaverse Bieter tendieren dazu, sich durch die Abgabe zu hoher Gebote und damit zu Lasten des Gewinns eine höhere Gewinnwahrscheinlichkeit zu verschaffen. Zudem werden in der verdeckten Erstpreisauktion in der Regel höhere Gebote abgegeben als in der Holländischen Auktion, obwohl beide strategisch äquivalent sind. Dieser Umstand ist durch die spezifischen Charakteristika der Holländischen Auktion zu erklären: Zum einen kann das schrittweise Herabsetzen des Preises eine positive Spannung bewirken, die dazu führt, dass die Bieter den Zuschlag hinauszögern, zum anderen kann dieser Prozess zu einer Fehlanpassung der Annahmen über die Wertschätzungen der Mitbieter führen.

4.2.4 Zahlungsbereitschaft und „Fluch des Gewinners“ Die Wertschätzung und damit die Zahlungsbereitschaft für ein bestimmtes Gut sind bei einer Auktion von Bedeutung. Viele Auktionen finden mit Gütern statt, die nicht für alle Bieter denselben Wert haben (z.B. Kunstobjekte, aber auch der erwähnte Schirmständer oder die Wimpelsammlung). Diese Güter werden auch „Private-Value“-Güter genannt. Bei anderen Auktionen sind die Güter recht homogen und haben für alle Bieter den gleichen Wert (z.B. bei Blumen und Fischen). Bei diesen „Common-Value“-Auktionen tritt häufig der Fall auf, dass die Bieter über unterschiedliche Informationen hinsichtlich der Qualität des Auktionsguts verfügen. Dies kann z.B. der Fall sein, wenn der genaue Wert von Gütern sich erst in der Zukunft zeigen wird, etwa bei einer Mobilfunklizenz oder einem Ölvorkommen. Dann werden die individuellen Nutzeneinschätzungen um den wahren Wert streuen, einige zu tief, einige zu hoch. Der Auktionsmechanismus führt dann dazu, dass der Höchstbietende nur deshalb den Zuschlag erhält, weil er den wahren Wert der Ware überschätzt und damit einen zu hohen Preis bezahlt. Diese Situation wird auch als „Fluch

80

4 Online-Transaktionen und Auktionen

des Gewinners“ („winner’s curse“) bezeichnet (vgl. Thaler 1988). Da in offenen Auktionen unter Umständen durch den Bietprozess selbst Informationen zwischen den Wettbewerbern fließen können, besteht dort eine geringere Gefahr, dem Fluch des Gewinners zu erliegen. Bei verdeckten Auktionen ist dagegen nichts über die Gebote der Konkurrenz und damit über deren Einschätzung des wahren Wertes des Guts bekannt, und die Gefahr, den Fluch des Gewinners zu erleiden, ist größer.

4.2.5 Online-Auktionen Online-Auktionsplattformen verbinden die Möglichkeit, Private-Value-Güter mittels Auktion effizient zu tauschen, bei gleichzeitiger Anonymität und leichter Zugänglichkeit eines Massenmarkts. Dies führt dazu, dass potenziell eine große Menge von Gütern effizient getauscht werden kann, was zu einer erheblichen Wohlstandssteigerung führen kann. In Online-Auktionen werden allerdings keineswegs nur Private-Value-Güter getauscht. Ein Großteil des Angebots besteht aus Common-Value-Gütern, wie sie sich auch in klassischen Warenhäusern finden. Die vielen Nachfrager und das große Angebot machen die Auktionsplattformen auch für solche Güter attraktiv. Allerdings wird typischerweise bei solchen Gütern häufig auch die Möglichkeit des Kaufs über einen Festpreis wie auf einem normalen Markt angeboten. Es existieren verschiedene Online-Auktionsplattformen. Allerdings ist eBay unangefochtener Marktführer und wird hier im Folgenden paradigmatisch für alle OnlineAuktionsplattformen betrachtet.6 Dies ist auch deshalb sinnvoll, weil es für alle Anbieter und Nachfrager rational ist, bei der größten Plattform aktiv zu sein, da dort auch die spezifischen Vorteile am größten sind (größtes Angebot, am meisten Nachfrager). Die Auktion bei eBay geht folgendermaßen vonstatten: Die Auktion hat ein zeitlich festgesetztes Ende. Die Bieter definieren ihr maximales Gebot. Vom Mindestgebot aus wird dann jeweils das Gebot automatisch um den kleinstmögliche Betrag bis zum aktuellen Höchstgebot erhöht, oder bis das Maximalgebot erreicht worden ist. Es handelt sich dabei also um eine Mischung aus Englischer und Vickrey-Auktion. Die dominante Strategie für jeden Bieter besteht deshalb darin, als Maximalgebot seine wahre Zahlungsbereitschaft anzugeben. Der Gewinner bezahlt dann jeweils den Preis für das zweithöchste Gebot plus die kleinstmögliche Gebotserhöhung.

4.3 Stabilisierung von Online-Transaktionen Empirisch sind die folgenden drei Mechanismen zur Stabilisierung von OnlineTransaktionen erkennbar: Reputationsbildung, glaubwürdige Signale und die Einschaltung von neutralen Drittparteien.

6 Ein

Spezialfall sind Auktionsplattformen, bei denen nicht ein Preis für das gewonnene Auktionsgut entrichtet wird, sondern für die Abgabe der Gebote bezahlt werden muss. Dabei handelt es sich um eine sogenannte „Dollar-Auktion“ (Shubik 1971). Diese Auktionsform führt nur unter sehr spezifischen, wohl definierten Umständen dazu, dass das Gut an den Bieter mit der höchsten Wertschätzung geht. Fast immer führt die Dollarauktion zu einer Eskalation der Gebote, die für alle Bieter schädlich ist, obschon es keinen individuellen Anreiz gibt, aus der Eskalation auszusteigen.

4.3 Stabilisierung von Online-Transaktionen

81

4.3.1 Die Reputationslösung Das Vertrauensproblem bei Online-Transaktionen wird entscheidend dadurch verursacht, dass zwei bestimmte Marktteilnehmer wegen der Größe des Marktes und/oder der Anonymität der Teilnehmer tendenziell nur einmal aufeinander treffen und dabei sozial nicht eingebettet sind. D.h. vergangene Transaktionen eines Marktteilnehmers können von potenziellen neuen Partnern nicht beobachtet werden und diese können entsprechende Informationen auch nicht über Dritte beziehen. A. Wirkmechanismus eines Reputationssystems Dieses Problem kann durch ein Reputationssystem überwunden werden, das sich theoretisch an den Folk-Theoremen orientiert (vgl. Kapitel 9.4 im ersten Band). Die einmalige Tauschsituation muss dabei künstlich in eine unbestimmt oft wiederholte überführt werden, in der eine Vergeltungsdrohung wirksam sein kann (Bolton, Katok und Ockenfels 2004; Dellarocas 2003; Nowak und Sigmund 1998). Die Vertrauensdefizite werden dann überwunden, wenn die Erwartung künftiger Tauschvorteile eines Marktteilnehmers den Nutzen einer einmaligen Realisierung seines Opportunismusanreizes übersteigt (Diekmann und Wyder 2002; Raub und Voss 1986). Dazu geben beide Handelspartner nach dem erfolgten Warentausch eine Bewertung zum Ablauf der Transaktion ab. Diese Feedbackvergabe wird dabei in der Regel sowohl quantitativ über ein festes Bewertungssystem als auch qualitativ über freie Kommentare erfasst. Die aggregierten Einzelbewertungen eines Transaktionspartners dokumentieren dann dessen vergangenes Transaktionsverhalten und begründen dadurch seine Reputation. Die eigentlich isolierten Interaktionen erhalten damit die gewünschte Funktion einer langfristigen Beziehung unter bekannten Tauschpartnern (Schmidt und Uske 2004; Resnick et al. 2001). Potenzielle neue Marktteilnehmer profitieren von den abgegebenen Bewertungen, weil sie dadurch vertrauenswürdige Anbieter von solchen mit betrügerischen Absichten unterscheiden können. Kooperative Transaktionspartner können ihre eigene Zuverlässigkeit signalisieren. Und es besteht nun eine Vergeltungsdrohung, die dafür sorgt, dass rationale Anbieter, die Interesse an einer langfristigen Marktteilnahme haben, sich bemühen werden, eine gute Reputation aufzubauen bzw. diese zu erhalten und schlechte Bewertungen zu vermeiden (Friedman und Resnick 2001). Der Nutzen für die Gemeinschaft ist dabei umso größer, je höher der Anteil abgegebener Bewertungen ist. Vor allem potenzielle Käufer werden durch das Reputationssystem vor finanziellem Schaden bewahrt, wenn ein schlechtes Bewertungsprofil einen bestimmten Anbieter als unseriös enttarnt. Dies gilt zumindest so lange, wie die Beständigkeit des Markts für die Zukunft gesichert ist, und die Wahrscheinlichkeit, auf vertrauenswürdige Handelspartner zu treffen, ausreichend groß ist (Bolton, Katok und Ockenfels 2004). Das Eigeninteresse an guter Reputation setzt somit Kooperationsanreize. Sobald ein Käufer nun mehrere gleichwertige Auktionsangebote hat, wird er auf dasjenige des Verkäufers mit dem besten Ruf eingehen. Verkäufer mit einer hohen Reputation können außerdem auf einen höheren Auktionsendpreis hoffen, weil Käufer bereit sind, für die zusätzliche Sicherheit bei der Transaktion eine Prämie zu entrichten. Dies kann aus dem Vertrauensmodell von Coleman (1990) abgeleitet werden: Wenn die Einschätzung der Vertrauenswürdigkeit p des Verkäufers wegen seiner Reputation hoch ist, ist der Käufer bereit, dafür seinen Gewinn G zu reduzieren, indem er einen höheren Preis für das Gut bezahlt, als er es bei einem weniger vertrauenswürdigen Käufer müsste (siehe auch Abschnitt 1.3.1 in diesem Band).

82

4 Online-Transaktionen und Auktionen

B. Empirische Evidenz zu Bewertungssystemen Reputationssysteme und ihre Funktionsfähigkeit haben sich durch die Verbreitung des Internets und nicht zuletzt durch die hohe Zahl der mit dieser Entwicklung verbundenen Betrugsfälle in den letzten Jahren zu einem eigenen und bedeutenden Forschungsgegenstand entwickelt (vgl. Ockenfels 2003). Dies zeigt klar, dass das postulierte Vertrauensproblem bei Online-Transaktionen tatsächlich existiert. Die meisten empirischen Studien zu diesem Thema ziehen Daten des Internetauktionshauses eBay heran. Überwiegend wird dabei untersucht, inwieweit die Verkäuferreputation das Bieter- bzw. Käuferverhalten beeinflusst. Denn sollte die Reputationslösung funktionieren, müsste sich dies auf den Verkaufserfolg und den Auktionsendpreis eines Verkäufers auswirken. Empirisch zeigt sich, dass dies auch der Fall ist. Die meisten Untersuchungen kommen zu dem Ergebnis, dass eine positive Reputation einen positiven Effekt, eine negative Reputation einen negativen Effekt auf den Auktionsendpreis ausüben (Houser und Wooders 2006; Lucking-Reiley et al. 2007; Melnik und Alm 2002; Snijders und Zijdeman 2004; Przepiorka 2011). Auch Berger und Schmitt (2005) stützen diesen Befund und zeigen zugleich, dass dieser Effekt stärker von neueren Bewertungen als von länger zurückliegenden ausgeht. Negative Bewertungen haben zudem einen stärkeren Effekt als im Betrag gleiche positive Bewertungen. Das bedeutet, dass der Aufbau einer guten Reputation ein langwieriger Prozess ist, der durch wenige schlechte Bewertungen in der Folge von unkooperativem Verhalten wieder zerstört werden kann. Gemäß den Folk-Theoremen wirkt die Möglichkeit einer solchen Bestrafung kooperationsstabilisierend. Resnick und Zeckhauser (2002) und Eaton (2005) können dagegen in ihren Analysen keinen Einfluss von Reputationseffekten auf den Endpreis ausmachen. Kauffman und Wood (2000) finden ebenfalls keine signifikanten Effekte auf den Auktionsendpreis. Auch bezüglich des Einflusses von Reputation auf den Verkaufserfolg variieren die Ergebnisse: Einige Studien konstatieren, dass sowohl eine positive als auch eine negative Reputation die Entscheidung von Käufern, in einer Auktion mitzubieten, beeinflusst (Bajari und Hortaçsu 2003, Resnick und Zeckhauser 2002, ähnlich Diekmann und Wyder 2002). Eaton (2005) dagegen findet, dass nur negative Bewertungen Auswirkungen auf die Verkaufswahrscheinlichkeit haben. Berger und Schmitt (2005) finden keine Evidenz für einen direkten Effekt der Reputation auf den Verkaufserfolg, sondern in Übereinstimmung mit der Auktionstheorie und dem Modell der Vertrauensvergabe von Coleman (1990) nur Auswirkungen auf den Endpreis. Dies bedeutet, dass eine schlechte Reputation die Käufer nicht von einer Teilnahme an der Auktion abhält, solange nur der Endpreis und damit der potenzielle Verlust nicht zu hoch sind. Auch Snijders und Zijdeman (2004) kommen zum Ergebnis, dass die Reputation vor allem den Auktionsendpreis beeinflusst und erklären dies damit, dass Verkäufer mit hoher Reputation dazu neigen, Güter zu einem zuvor gesetzten Mindestpreis zu verkaufen. Die uneinheitlichen Ergebnisse dieser Studien sind vor allem darauf zurückzuführen, dass in einigen entweder keine (bei Eaton 2005; Kauffman und Wood 2000; Lucking-Reiley et al. 2007) oder keine reinen Common-Value-Güter (bei Bajari und Hortascu 2002; Melnik und Alm 2002) untersucht wurden und sich deshalb die tatsächliche Zahlungsbereitschaft der Güter unterschied. In diesem Zusammenhang verweisen Berger und Schmitt (2005) und Snijders und Zijdeman (2004) außerdem darauf, dass sich die Käufergruppen verschiedener

4.3 Stabilisierung von Online-Transaktionen

83

Produktgruppen und die Anbietergruppen ebenfalls systematisch unterscheiden können. Junge Käufer scheinen unter Umständen weniger sensibel für die Vertrauensproblematik zu sein. Trotz einiger ambivalenter Resultate kann damit insgesamt als gesichert gelten, dass die Vertrauensproblematik bei Online-Auktionen durch institutionelle Maßnahmen, die Reputationsbildung ermöglichen, gelöst werden kann. C. Das Problem der Bewertungsabgabe Es muss allerdings beachtet werden, dass die Lösung der Vertrauensproblematik bei OnlineTransaktionen entscheidend von der konkreten Ausgestaltung des Bewertungssystems abhängt. Erstens ist auch die Abgabe einer Bewertung mit – wenn auch geringem – Aufwand verbunden. Da eine Bewertung dem Bewertenden selbst nichts nützt, sondern höchstens dem Bewerteten und sonst vor allem den anderen anonymen Teilnehmern, ist zu erwarten, dass nicht alle, die an einer Online-Transaktion teilnehmen, auch eine Bewertung abgeben. Solche Reputationssysteme haben den Charakter eines öffentlichen Guts, in das ein rationaler eigeninteressierter Akteur nicht investieren wird (Dellarocas, Fan und Wood 2004; Resnick und Zeckhauser 2002; Schmidt und Uske 2004). Nur wenn eine genügend große Zahl von Bewertungen abgegeben wird, ohne dass bestimmte Auktionen systematisch ausfallen,7 kann ein Reputationssystem wie oben beschrieben funktionieren. Zweitens entsteht dasselbe Vertrauensproblem, das sich beim online vermittelten Tausch von Gütern gegen Geld ergibt, unter Umständen auch, wenn die Transaktionsteilnehmer online die Bewertungen tauschen. Wenn dies wie beim Tausch „Ware gegen Geld“ in einer Sequenz geschieht, setzt das Reputationssystem genau wie die Transaktionssituation selbst Opportunismusanreize und lässt Spielräume zu strategischem Handeln offen. So kann der Zweitbewertende dem Erstbewertenden mit Vergeltung drohen, falls der Erstbewertende eine negative Bewertung abgeben und damit dessen Reputation beschädigen sollte. Somit liegt wiederum die Interaktionssituation eines Vertrauensspiels vor, in dem kooperativ gehandelt wird, wenn eine wahrheitsgetreue Bewertung der Transaktionen abgegeben wird. Defektion bedeutet dagegen, eine positiv verlaufene Transaktion als unkooperativ oder eine schlecht verlaufene als positiv zu bewerten. Das teilspielperfekte Nash-Gleichgewicht im Vertrauensspiel ist bekanntlich dann erreicht, wenn der erste Akteur nicht kooperiert, weil der zweite Akteur ihn danach betrügen würde (vgl. Abschnitt 9.3 und 9.4 im ersten Band). Damit ist zu erwarten, dass problembehaftete Transaktionen gar nicht oder nicht wahrheitsgetreu als solche bewertet werden. Denn der Erstbewertende vermeidet damit, dass diese negative Bewertung vom Zweitbewertenden mit einer ebensolchen vergolten wird – und zwar unbesehen davon, ob die Transaktion tatsächlich negativ verlaufen ist oder nicht. Umgekehrt kann die Abgabe einer positiven Bewertung dazu führen, dass dies eine ebensolche positive Bewertung auslöst, obschon dies eventuell nicht gerechtfertigt ist. In diesem Fall sind die Voraussetzungen für eine Stabilisierung der Gütertransaktion durch Reputation nicht gegeben, da vom Bewertungsprofil eines potenziellen Tauschpartners nicht mehr auf dessen Vertrauenswürdigkeit geschlossen werden kann. Obwohl die Akteure also von abgegebenen Bewertungen nicht unmittelbar profitieren, ist empirisch eine erstaunlich hohe Bewertungsquote zu beobachten. Resnick und Zeck7 Systematische

Ausfälle lägen z.B. vor, wenn nur Transaktionen bewertet werden, die kooperativ verlaufen sind, jedoch nicht diejenigen, bei denen es Probleme gab.

84

4 Online-Transaktionen und Auktionen

hauser (2002) berichten, dass bei eBay für 70% der Transaktionen von mindestens einem der Beteiligten eine Bewertung abgegeben wird. Bei Dellarocas, Fan und Wood (2004) liegt dieser Wert sogar bei 90%. Einen ähnlichen Befund finden Berger und Zimmermann (2008) mit einer Bewertungsrate von 86%. Es ist jedoch auch gut bestätigt, dass die Bewertungen bei eBay fast ausschließlich positiv sind, und dass negative Bewertungen fast nicht vorkommen (Resnick und Zeckhauser 2002; Dellarocas, Fan und Wood 2004; Berger und Zimmermann 2008). Neutrale Bewertungen werden jedoch noch seltener vergeben, was angesichts des Umstands, dass sie einen durchschnittlich abgewickelten Transaktionsverlauf abbilden sollten, wenig plausibel erscheint. Damit ist nicht auszuschließen, dass ein sequenzielles Bewertungssystem, wie es zu den Beobachtungszeitpunkten bei eBay vorlag, tatsächlich eine Verzerrung hin zu guten Bewertungen bewirkt. Eine Analyse der zu den Festbewertungen gehörigen Freitextkommentare bestätigt dies. Es finden sich klare Hinweise, dass die vergebenen Festbewertungen deutlich zu positiv ausfallen, wobei dieser Effekt bei den Erstbewertungen, die anfälliger sind für eine Vergeltung, stärker ausfällt (Berger und Zimmermann 2008). Insgesamt weisen die empirischen Ergebnisse somit darauf hin, dass sequenzielle Bewertungssysteme zwar relativ hohe Anreize für die Abgabe von Bewertungen setzen, jedoch unzureichende für eine korrekte Informationsvergabe. Tendenziell wird dadurch die stabilisierende Funktion von Reputation untergraben. Aus theoretischer Sicht ließe sich dies mit einer Änderung des Bewertungsmechanismus lösen, indem die Bewertung nur einseitig durch den Käufer oder aber simultan durch beide Partner geschieht.8

4.3.2 Signale zur Reduktion von Informationsasymmetrien Das Vertrauensproblem bei Online-Transaktionen ist auch dadurch verursacht, dass die Tauschpartner normalerweise keine Information über einander haben, und dass nur der Verkäufer Informationen über die Beschaffenheit der angebotenen Ware besitzt (Snijders und Zijedman 2004, Berger und Schmitt 2005). A. Wirkmechanismus von glaubwürdiger Information Aus theoretischer Sicht ist es möglich, dieses Problem durch glaubwürdige Informationen zu lösen (Kollock 1999; Podolny 1993). Dies ist dann der Fall, wenn die Tauschpartner bedingt kooperativ sind. Das bedeutet, dass sich solche Akteure nur aus defensiven Gründen unkooperativ verhalten, um sich gegen Ausbeutung zu schützen. D.h. sie honorieren erhaltenes Vertrauen in der Rolle als Treuhänder immer. Nur wenn sie selbst betrogen wurden, brechen sie gegebene Versprechen. Solche Tauschpartner haben einen Anreiz, glaubwürdige Informationen über ihre wahre Natur zu geben, wenn sie in einer Tauschsequenz als Zweite zum Zug kommen.9 In einer solchen Situation hat auch ein völlig opportunistischer Tauschpartner, der als erstes zum Zug kommt, einen Anreiz, sich kooperativ zu verhalten, um den Partner zum Tausch zu bewegen und so den Tauschgewinn zu realisieren (Lahno 1995). 8 Das

Auktionshaus eBay ändert seine institutionellen Vorgaben manchmal. Diese sind auch nicht in allen Ländern genau gleich. Die Änderungen können dabei durchaus theoretisch erklärt werden. So wurde das Bewertungssystem tatsächlich in die Richtung angepasst, dass Verkäufer nur noch positiv und nicht mehr neutral oder negativ bewerten können. Dies ist nun den Käufern vorbehalten. 9 Dies ist z.B. der Fall, wenn ein Käufer die Ware bezahlt, nachdem der Verkäufer diese verschickt hat.

4.3 Stabilisierung von Online-Transaktionen

85

Um dies zu gewährleisten, können Informationsasymmetrien bezüglich Tauschpartner und Tauschgut strategisch durch entsprechende Signale reduziert werden.10 Ein Anbieter, der seine Aufrichtigkeit signalisieren will, tut das, indem er freiwillig Informationen offenlegt, die einen Betrug erschweren und/oder eine einfache Sanktionierung ermöglichen, falls es dennoch zu Betrug kommt. Im Onlinebereich bestehen verschiedene Möglichkeiten, mit denen solche Informationen übermittelt werden können. So ist häufig institutionell vorgesehen, die eigene Identität durch einen Dritten (z.B. den Staat oder das Onlineportal, dass Transaktionen vermittelt) verifizieren zu lassen.11 Weiterhin ist es prinzipiell möglich, sich durch die Preisgabe von persönlichen Informationen als Mitglied einer bedingt kooperativen Gruppe zu erkennen zu geben.12 Da insbesondere letztere Informationen aber leicht gefälscht werden können, sind davon kaum transaktionsstabilisierende Effekte zu erwarten. Ein kooperativer Anbieter sollte weiterhin auch Interesse daran haben, glaubwürdige Informationen über die Eigenschaften seiner Angebote zu vermitteln. Dazu können z.B. entsprechende technische Informationen zur Ware gemacht werden. Für den Onlinebereich ist es zudem naheliegend, den Nachfragern Fotos des Angebots zugänglich zu machen. Auch zum Transaktionsablauf selbst können Informationen gemacht werden, die als Signal für Kooperation interpretiert werden können. Dazu gehört z.B. die Möglichkeit einer Versandversicherung, die Abgabe von Garantieversprechen bzw. ein Rückgaberecht, oder das Bereitstellen einer Zahlungsmethode mit hohem Käuferschutz (z.B. Abwicklungen über PayPal). Jedoch haben diese Signale wiederum die Eigenschaft, dass sie zumindest teilweise leicht zu fälschen sind und insofern das Vertrauensproblem bei der Warentransaktion nur auf die Informationsebene verschieben. Entsprechend geringe Effekte können davon erwartet werden. B. Empirische Evidenz zu glaubwürdigen Informationen Die empirischen Untersuchungen zur Rolle von Informationen bei der Stabilisierung von Online-Transaktionen beziehen sich wiederum weitgehend auf Auktionsplattformen, insbesondere eBay. Entsprechend müssten die erwarteten Effekte bei der Beseitigung von Informationsasymmetrien an einem höheren Verkaufserfolg und/oder einem höheren Auktionsendpreis sichtbar werden. Insgesamt sind diese Effekte aber eindeutig schwächer ausgeprägt als diejenigen der Reputationsbildung. Keine oder nur schwache Effekte finden sich, wie theoretisch erwartet, für leicht fälschbare Informationen über den Anbieter (Przepiorka 2011). Berger und Schmitt (2005) finden einen positiven Effekt von Informationen allgemein auf den Auktionsendpreis, aber keinen Effekt auf die Verkaufswahrscheinlichkeit. Dasselbe gilt für Informationen ausschließlich zum angebotenen Gut. Zwar erhöhen sowohl Informationen zu den Produktcharakteristika (Markenname und Modell, Lieferumfang, Details zum Gebrauchszustand etc.) als auch Fotos der Ware den Endpreis einer Auktion. Aber erstaunlicherweise spielt es keine Rolle, ob 10 Die

Glaubwürdigkeit der Produktbeschreibung kann dabei auch von der Vertrauenswürdigkeit des Anbieters abhängen. 11 Bei eBay kann man sich bspw. als „geprüftes Mitglied“ ausweisen lassen, indem man seine Identität und Anschrift durch die Deutsche Post AG, anhand von Ausweispapieren verifizieren lässt. 12 Max Weber (1920) hat auf diesen Mechanismus allgemein im Zusammenhang mit religiösen Gruppierungen, wie den protestantischen Sekten, verwiesen (vgl. Abschnitt 3.1.2 im ersten Band; Kapitel 5 in diesem Band). Aber auch wer Mitglied einer Dritte-Welt-Gruppe oder einer Heilsarmeesektion ist, wird eventuell beim Tauschpartner Vertrauenswürdigkeit signalisieren. Auch bei eBay können solche Informationen publiziert werden.

86

4 Online-Transaktionen und Auktionen

es sich dabei um ein Abbild der tatsächlichen Ware handelt (Snijders und Zijdeman 2004). Auch Katalogfotos des Produkts, die weniger Informationen zum Angebot enthalten, haben diesen Effekt. Insgesamt erhöhen sogar alle Arten von Fotos auch die Verkaufswahrscheinlichkeit (Snijders und Zijdeman 2004). Empirisch finden sich zu den Zahlungsmodalitäten gemischte Ergebnisse (Przepiorka 2011). Die Verfügbarkeit sicherer Zahlungsmodalitäten erhöht zwar den Endpreis in einer Auktion. Ein Rückgaberecht hat aber keinen signifikant positiven Effekt. Und eine Versandversicherung beeinflusst die Verkaufswahrscheinlichkeit und den Kaufpreis für ein Gut sogar negativ.

4.3.3 Dritte Parteien Eine andere theoretische Lösung des Opportunismusproblems ist die glaubwürdige Festlegung des Treuhänders durch ein Pfand oder die Einschaltung eines neutralen Vermittlers (vgl. Abschnitt 7.1 im ersten Band; grundlegend Schelling 1960; Coleman 1990). Bereits die oben beschriebene freiwillige Identifizierung der Anbieter durch einen vertrauenswürdigen Dritten (meist den Staat) kann auch dahingehend interpretiert werden. Prinzipiell besteht weiterhin die Möglichkeit, einen Treuhand-Dienstleister in die Transaktion einzuschalten, so auch bei eBay. Dieser hält die Zahlung des Käufers gegen eine vom Käufer gezahlte Gebühr solange zurück, bis dieser die Ware erhalten und die Korrektheit der Lieferung bestätigt hat. Erst dann wird die Zahlung an den Verkäufer freigegeben. Berger und Schmitt (2005) finden allerdings einen schwach negativen Effekt dieses Treuhandangebots auf Verkaufserfolg und Auktionsendpreis. Möglicherweise betrachten die Käufer die Bereitstellung dieses Pfands als Signal für fehlende Vertrauenswürdigkeit. In der Tat wird diese Maßnahme vor allem von Anbietern angeboten, die über keine hohe Reputation verfügen.13 Allerdings wird Reputation dadurch nicht substituiert, sondern es resultiert ein crowding out-Effekt (Frey 1997) derart, dass eigentlich vertrauensbereite Käufer dadurch misstrauisch werden. Dieser Befund deckt sich auch mit den oben beschriebenen Ergebnissen von Przepiorka (2011), wonach eine verpflichtende Versandversicherung die Verkaufswahrscheinlichkeit und den Produktpreis eines Guts sinken lässt. Empirisch zeigt sich insgesamt, dass das Opportunismusproblem bei OnlineTransaktionen durch entsprechende, theoretisch begründbare institutionelle Vorkehrungen behebbar ist. Die zur Verfügung stehenden Mechanismen funktionieren allerdings unterschiedlich gut. Die effektivste Wirkung zeigen Reputationssysteme, die es ermöglichen, vertrauenswürdige Anbieter für ihre bisherige Kooperation zu belohnen. Die Voraussetzung für eine Stabilisierung des Vertrauensproblems im Transaktionsprozess ist aber eine effektive und zuverlässige Funktionsweise des Bewertungsmechanismus. Das Beispiel eBay weist darauf hin, dass dies nicht problemlos zu bewerkstelligen ist. Eine Vertrauensstabilisierung über glaubwürdige Signale scheint empirisch nur teilweise zu gelingen. Theoretisch kann dies damit erklärt werden, dass glaubwürdige Signale im Onlinebereich nicht einfach herzustellen sind. Entsprechend reagieren die Käufer auf solche Maßnahmen nur in geringem Maße und Verkäufer nutzen solche Möglichkeiten deswegen nur begrenzt. Von der Treuhandlösung geht sogar eine negative Signalwirkung aus. Beides zeigt, dass vertrauensbildende Signale nicht immer als solche verstanden werden. Andererseits wird die Vertrauensproblematik bei onlinevermitteltem Tausch von den Beteiligten offenbar als weniger dramatisch empfunden, als es die theoretische Analyse vermuten lässt. 13 eBay

hat den Transaktionsmodus inzwischen derart umgestellt, dass alle Zahlungen über einen Treuhänder abgewickelt werden müssen. Dies zeigt die Bedeutung des Vertrauensproblems.

Literatur

87

Literatur Akerlof, G.A. (1970) „The Market for Lemons. Quality Uncertainty and the Market Mechanism.“ Quarterly Journal of Economics 84: 488–500. Bajari, P. und A. Hortacsu (2003) „The Winners Curse, Reserve Prices and Endogenous Entry: Empirical Insights from eBay Auctions.“ Rand Journal of Economics 3: 329–355. Batenburg, R., W. Raub, und C. Snijders (2000) „Vertrauen und Verträge: Eine empirischtheoretische Analyse der Effekte ,sozialer Einbettung’ auf die Steuerung wirtschaftlicher Transaktionen durch Normen und Institutionen.“ S. 385–413 in: R. Metze, K. Mühler und K.-D. Opp (Hg.) Normen und Institutionen: Entstehung und Wirkung. Leipzig: Universitätsverlag. Berger, R. und K. Schmitt (2005) „Vertrauen bei Internetauktionen und die Rolle von Reputation, Informationen, Treuhandangebot und Preisniveau.“ Kölner Zeitschrift für Soziologie und Sozialpsychologie 57: 86–111. Berger, R. und J. Zimmermann (2008) „Das Problem der Transaktionsbewertung bei Internetauktionen. Eine Analyse des Bewertungssystems von eBay Deutschland unter Berücksichtigung der Freitextkommentare.“ Arbeitsbericht des Instituts für Soziologie Nr. 54, Universität Leipzig. Berz, G. (2007) Spieltheoretische Verhandlungs- und Auktionsstrategien. Mit Praxisbeispielen von Internetauktionen bis Investmentbanking. Stuttgart: Schäffer-Poeschel Verlag. Bolton, G.E., E. Katok und A. Ockenfels (2004) „Trust among Internet Traders. A Behavioral Economics Approach.“ Analyse & Kritik 26: 185 -202. Coleman, J.S. (1990) Foundations of Social Theory. Cambridge: The Belknap Press of Harvard University Press. Dellarocas, C. (2003) „The Digitization of Word-Of-Mouth: Promise and Challenges of Online Feedback Mechanisms.“ Management Science 49: 1407-1424. Dellarocas, C., M.N. Fan und C.A. Wood (2004) „Self-Interest, Reciprocity, and Participation in Online Reputation Systems.“ Arbeitspapier Nr. 4500-04, MIT Sloan School of Management. Diekmann, A. und D. Wyder (2002) „Vertrauen und Reputationseffekte bei InternetAuktionen.“ Kölner Zeitschrift für Soziologie und Sozialpsychologie 54: 674-693. Eaton, D.H. (2005) „Valuing Information: Evidence from Guitar Auctions on eBay.“ Journal of Applied Economics and Policy 24: 1-19. Frey, B.S. (1997) Not Just For The Money: An Economic Theory of Personal Motivation. Cheltenham: Edward Elgar. Friedman, E. und P. Resnick (2001) „The Social Cost of Cheap Pseudonyms.“ Journal of Economics and Management Strategy 2: 173-199. Houser, D. und J.C. Wooders (2006) „Reputation in Auctions: Theory and Evidence from eBay.“ Journal of Economics and Management Strategy 15: 353-369 Kagel, J.H. (1995) „Auctions: A Survey of Experimental Research.“ S. 501-585 in: J.H. Kagel und A.E. Roth (Hg.) Handbook of Experimental Economics. Princeton: Princeton University Press. Kauffman, R.J. und C.A. Wood (2000) „Running up the Bid: Modelling Seller Opportunism in Internet Auctions.“ S. 929-935 in: M. Chung (Hg.) Proceedings of the 2000 Americas Conference on Information Systems (AMCIS-00). Long Beach August 2000. Kollock, P. (1999) „The Production of Trust in Online Markets.“ S. 99-123 in: E.J. Lawler, M. Macy, S. Thyne und H.A. Walker (Hg.) Advances in Group Process 16. Greenwich: JAI Press. Lahno, B. (1995) Das Versprechen. Überlegungen zu einer künstlichen Tugend. München und Wien: Oldenbourg. Lucking-Reiley, D., D. Bryan, N. Prasad und D. Reeves (2007) „Pennies from eBay: The Determinants of Price in Online Auctions.“ Journal of Industrial Economics 55: 223-233.

88

4 Online-Transaktionen und Auktionen

Melnik, M.I. und J. Alm (2002) „Does a Seller’s Ecommerce Reputation Matter? Evidence from eBay Auctions.“ Journal of Industrial Economics 50: 337-349. Nowak, M.A. und K. Sigmund (1998) „Evolution of Indirect Reciprocity by Image Scoring.“ Nature 393: 573-577. Ockenfels, Axel (2003) „Reputationsmechanismen auf Internetplattformen. Theorie und Empirie.“ Zeitschrift für Betriebswirtschaft 73: 295-315. Podolny, J. (1993) „A Status-Based Model of Market Competition“ American Journal of Sociology 98: 829-872. Przepiorka, W. (2011) „Buyers Pay for and Sellers Invest in Reputation. More Evidence from eBay.“ Arbeitspapier, ETH Zürich und University of Oxford. Raub, W. und T. Voss (1986) „Die Sozialstruktur der Kooperation rationaler Egoisten. Zur ,utilitaristischen’ Erklärung sozialer Ordnung.“ Zeitschrift für Soziologie 15: 309-323. Resnick, P., R. Zeckhauser, E. Friedman und K. Kuwabara (2001) „Reputation Systems: Facilitating Trust in Internet Interactions.“ Arbeitspapier, University of Michigan. Resnick, P. und R. Zeckhauser (2002) „Trust Among Strangers in Internet Transactions. Empirical Analysis of eBay’s Reputation System. The Economics of the Internet and ECommerce.“ S. 127-157 in: M.R. Baye (Hg.) Vol. 11 of Advances in Applied Microeconomics. Amsterdam: Elsevier Science. Schelling, T.C. (1969) The Strategy of Conflict. Oxford: University Press. Schmidt, C. und T. Uske (2004) „Reputationsmechanismen für Informationsgüter auf InternetMeinungsportalen.“ Papers on Strategic Interaction 2004-13, Max Planck Institute for Research into Economic Systems, Jena. Shubik, M. (1971) „The Dollar Auction Game: A Paradox in Noncooperative Behavior and Escalation.“ Journal of Conflict Resolution 15: 109-111. Smith A. (1776) [1978] Der Wohlstand der Nationen. München: dtv. Snijders, C. und R.L. Zijdeman (2004) „Reputation and Internet Auctions: eBay and Beyond“ Analyse & Kritik 26: 158-184. Stigler, G.J. (1951) „The Division of Labor is Limited by the Extent of the Market.“ Journal of Political Economy 59: 185-193. Thaler, R.H. (1988) „The Winner’s Curse.“ Journal of Economic Perspectives 2: 191-202. Vickrey, W. (1961) „Counterspeculation, Auctions, and Competitive Sealed Tenders.“ Journal of Finance 16: 8-37. Weber, M. (1920) Gesammelte Aufsätze zur Religionssoziologie I. Tübingen: Mohr.

5 Wirtschaft und Religion Eva Negele Auf den ersten Blick wirkt die Betrachtung von Religion unter dem Blickwinkel der Rational-Choice-Theorie (RC-Theorie, vgl. hierzu Kapitel 9 im ersten Band) befremdlich. Während dort ein vernünftiger, nutzenmaximierender Mensch unterstellt wird (vgl. Abschnitt 5.3 im ersten Band), wird Religion seit der Aufklärung vielfach mit irrationalem Verhalten in Verbindung gebracht. So sieht zum Beispiel Auguste Comte in der Religion ein primitives Stadium, das durch die Wissenschaft sukzessive ersetzt werden kann und wird.1 Der als Religionskritiker bekannte Karl Marx bezeichnet Religion bekanntermaßen als „Opium fürs Volk“ (Marx 1844 [1925]). Auch im 20. Jahrhundert wird Religion in erster Linie als irrational betrachtet: Im Zuge der Rationalisierung der Welt findet nach Max Weber eine Entzauberung statt – zur Beherrschung der Welt wird Magie immer weniger benötigt, Religion wird ins Irrationale abgedrängt und Wissenschaft ersetzt abergläubische Strukturen (Weber 1919 [1992]). Freud kategorisiert Religion sogar als krankhafte Zwangsneurose (Freud 1927). Verzichtet man jedoch auf die Grundannahme vieler Sozialwissenschaftler, wonach Religion mit Irrationalität einhergeht, so ergeben sich, in Verbindung mit alternativen Voraussetzungen (wie etwa Marktgleichgewicht auf der Makroebene und Maximierungsverhalten bezüglich stabiler Präferenzen auf der Mikroebene der Analyse), viele empirisch prüfbare (und, wie später gezeigt wird, mehrheitlich haltbare) Hypothesen (vgl. Stark, Iannaccone und Finke 1996). In der Wirtschaftssoziologie wird diese Herangehensweise bereits gewinnbringend eingesetzt, um den Einfluss von Religion auf das Wirtschaftsleben zu analysieren (vgl. unter anderem die Einführung von Wuthnow 1994): Religion wird hier als makrosoziologische Einflussvariable auf die Wirtschaft betrachtet. Eine weitere Herangehensweise, die in den USA mittlerweile etabliert, in Deutschland hingegen noch weitgehend unüblich ist, ist die Anwendung ökonomischer Überlegungen zur Erklärung religiöser Aktivität. Hierbei stellt die individuelle Religiosität die zu erklärende Zielvariable dar. Bei der Untersuchung von Religion und Wirtschaft dürfen beide Perspektiven von Religion sowohl als Einfluss- als auch als Zielvariable nicht fehlen. Zunächst werden die Wirkungen von Religion auf Normen und Sozialkapital vorgestellt (Abschnitt 5.1). Der Schwerpunkt dieses Beitrags liegt jedoch auf der Erklärung religiöser Aktivität über Mechanismen von Angebot und Nachfrage bzw. durch makro- und mikrosoziologische Überlegungen (Abschnitt 5.2). Die daraus folgenden Implikationen werden schließlich mit Daten des Sozio-oekonomischen Panels empirisch überprüft (Abschnitte 5.3 und 5.4).

1 Im

Bezug auf die Gesellschaft unterscheidet Comte (1884) drei evolutionäre Stadien, mit der Religion als kindlicher Phase, der Metaphysik als jugendhafter und der Wissenschaft als erwachsener Phase.

90

5 Wirtschaft und Religion

5.1 Religion als Einflussvariable Religion und religiöse Inhalte, egal welcher Art, können das Verhalten von Individuen sowie die Ausgestaltung von institutionellen Regelungen im Wirtschaftsleben beeinflussen. Es wird zunächst die Wirkung von Religion auf die Ausgestaltung und Befolgung von Normen untersucht, wobei neben Durkheim und der Bedeutung von Religion für die Entstehung des Kollektivbewusstseins auch Webers Protestantismusthese dargelegt wird. Daran anschließend wird der Zusammenhang von Religion und Sozialkapital (beziehungsweise Vertrauen) untersucht.

5.1.1 Wirkung von Religion auf Normen Nach Durkheims Überlegungen zur sozialen Arbeitsteilung (1883 [1992]) ist die Grundlage jedes Zusammenlebens in einer Gruppe (und damit auch jeder wirtschaftlichen Tätigkeit) solidarisches Handeln ihrer Mitglieder (zu einer ausführlichen Besprechung von Durkheims Position siehe Abschnitt 3.1.3 im ersten Band). Durkheim geht davon aus, dass es in vorindustriellen, segmentären Gesellschaften eine automatische Grundlage dieser Solidarität gegeben hat, dass diese aber im Zuge der Modernisierung und Industrialisierung (und der damit verbundenen Ausweitung der Arbeitsteilung) verloren gegangen ist. Während die Mitglieder segmentärer Gesellschaften sich durch ein gemeinsames Kollektivbewusstsein auszeichnen, das aufgrund von Ähnlichkeiten und geteilten Weltanschauungen besteht, ändert sich im Zuge der Modernisierung die Quelle von Solidarität: Aufgrund von strukturellen Abhängigkeiten in arbeitsteiligen Gesellschaften entwickelt sich eine organische Solidarität – statt einer Assoziation Gleichartiger entwickelt sich eine Kooperation Verschiedenartiger (Baurmann 1999). Kollektivbewusstsein kann für Durkheim aber auch in arbeitsteiligen Gesellschaften geschaffen werden – über Religion (Durkheim 1912 [1981]). Religion ist für ihn eine wichtige Quelle von Vergesellschaftung, da sie durch den geteilten Glauben ein Kollektivbewusstsein unter Gläubigen schafft und Normen bereitstellt. Folgt man Knoblauch (1999), lässt sich die von Durkheim postulierte Vergesellschaftungsfunktion in drei Teilaspekte aufgliedern: Durch Religion werden einzelne Individuen in ein Kollektiv eingebunden, Zugehörigkeiten zu Teilen innerhalb des Kollektivs werden geregelt (Integrationsfunktion). Zudem strukturiert Religion das Denken des Einzelnen, was zu dem erwähnten Kollektivbewusstsein führt (psychologisch-kognitive Funktion). Drittens stellt Religion Normen und Werte bereit, die für alle Gruppenmitglieder gelten und deren Verletzung sanktioniert werden (normative Funktion). Somit erhöht Religion die Kooperationsbereitschaft zwischen den Mitgliedern einer arbeitsteiligen Gesellschaft, was wirtschaftliche Transaktionen ermöglicht. Den Einfluss von Religion auf die Befolgung von Normen untersuchen Tan (2006) sowie Tan und Vogel (2008) in Laborexperimenten mit Studenten der Europa Universität Viadrina. Grundlage beider Studien ist eine vorgelagerte Befragung der Teilnehmer zur Erfassung ihrer Religiosität (die Teilnehmer sind alle jüdischen oder christlichen Glaubens). Tan (2006) untersucht, inwieweit Religion das Vorhandensein sozialer Präferenzen wie Fairness, Altruismus und Reziprozität beeinflusst. Zur Messung dieser normgebundenen Verhaltensweisen werden Diktator- und Ultimatumspiele gespielt. In beiden Spielen geht es um eine Aufteilung von Geldbeträgen zwischen zwei Teilnehmern. Im Diktatorspiel schlägt Spieler 1 einen Betrag vor, den er an Spieler 2 abgibt, dieser muss den Vorschlag annehmen. Im Ultimatumspiel hingegen kann Spieler 2 den vorgeschlagenen Betrag zu-

5.1 Religion als Einflussvariable

91

rückweisen, wenn er ihm als zu niedrig erscheint. In diesem Fall erhalten beide Spieler nichts (zu Diktator- und Ultimatumspiel siehe Abschnitt 9.4.1 im ersten Band). Es zeigt sich, dass Religion ein guter Prädiktor für prosoziales Verhalten ist: Je höher der religiöse Glaube von Spieler 1, desto höher ist der Geldbetrag, der im Diktatorspiel an Spieler 2 ausgezahlt wird. Dies begründet Tan damit, dass die religiöse Doktrin prosoziales Verhalten und Altruismus fördert. Im Ultimatumspiel wird auch die Religiosität von Spieler 2 berücksichtigt. Mit steigender Religiosität akzeptiert er geringere Beträge. In einem zweiten Experiment untersuchen Tan und Vogel (2008) den Zusammenhang von Religion und Vertrauen im Rahmen einer Variante des Vertrauensspiels (siehe Abschnitt 1.3.2 in diesem Band). Spieler 1 (Treugeber) erhält einen Betrag, von dem er einen frei gewählten Anteil an Spieler 2 (Treuhänder) weitergeben kann, aber nicht muss. In der von Tan und Vogel spezifizierten Variante verdreifacht sich die Summe, die Spieler 2 von Spieler 1 erhalten hat, und er kann frei wählen, ob und wieviel von dieser Summe er an Spieler 1 zurückzahlt. Unter rationalen Spielern missbraucht Spieler 2 das Vertrauen und zahlt nichts zurück, so dass Spieler 1 in Antizipation dieses Verhaltens kein Vertrauen gibt. In der Konsequenz kommt keine Kooperation zustande. Erhält nun Spieler 1 Informationen über die Vertrauenswürdigkeit von Spieler 2, kann dies seine Kooperationsbereitschaft beeinflussen. Die Ergebnisse des Experiments zeigen, dass sich das Vertrauen von Spieler 1 mit dem Wissen über die Religiosität von Spieler 2 erhöht. Spieler 1 geht also davon aus, dass religiöse Akteure vertrauenswürdiger sind. Das Experiment zeigt auch, dass die Verhaltensannahme des Treugebers im Durschnitt nicht enttäuscht wird, da sich religiöse Treuhänder tatsächlich als vertrauenswürdiger erweisen. Beide Experimente zeigen, dass Religion durch die Bereitstellung von Kooperationsnormen sowie die Absicherung von Erwartungen prosoziales Verhalten fördern kann. Mit der Wirkung von Religion auf wirtschaftliches Verhalten fördernde Normen befasst sich auch Weber, insbesondere in seiner Protestantismusthese (Weber 1920a [1972], für eine detaillierte Beschreibung sowohl Webers These als auch der aktuellen Diskussion siehe auch Abschnitt 3.1.2 im ersten Band). Ausgangspunkt von Webers These ist, dass sich der Protestantismus, anders als der jenseitsorientierte Katholizismus, durch die relative Betonung von Eigenverantwortung und materiellen Erfolg auszeichnet. Insbesondere der Calvinismus mit seiner Prädestinationslehre, nach der materieller Erfolg als Zeichen göttlichen Auserwähltseins gilt, und die Individuen zu innerweltlicher Askese und Kapitalakkumulation, hoher Arbeitsmoral und Ehrlichkeit anhält, soll das Wirtschaftswachstum begünstigen. Ausgehend von Arbeiten von calvinistischen Denkern wie Richard Baxter (1678) führt Weber aus, dass im Gegensatz zum Katholizismus, bei dem Arbeit lediglich zur Existenzsicherung notwendig ist, im Protestantismus die Ausübung eines Berufs unerlässlich ist für ein gottgefälliges Leben. Auserwählten fällt es leicht, ihrer Bestimmung zu folgen und einen Beruf zu ergreifen. Die daraus resultierende Arbeitsteilung und Spezialisierung führt zu einer Produktivitätssteigerung. Reichtum gilt als positive Folge der erfolgreichen Ausübung der Berufspflicht, der Genuss von Reichtum ist jedoch verpönt. Zeitvergeudung wird als Sünde angesehen, womit innerweltliche Askese (im Gegensatz zur außerweltlichen Askese wie in katholischen Klöstern) und ständige Selbstkontrolle begünstigt wird, was wiederum die Entwicklung des Kapitalismus begünstigt. Weber weist exemplarisch für das 17. und 18. Jahrhundert darauf hin, dass in überwiegend protestantischen Regionen die Wirtschaft weiter entwickelt scheint als in katholischen Regionen. Diese Überlegungen führt er in der Wirtschaftsordnung der Weltreligionen (Weber 1920b [1972]) weiter aus. Hierbei geht er davon aus, dass die jeweils geltende religiös mo-

92

5 Wirtschaft und Religion

tivierte Moral auf die wirtschaftliches Handeln leitenden Motive und damit auch auf die wirtschaftliche Entwicklung wirkt. Er untersucht die großen Religionen (Konfuzianismus und Taoismus, Hinduismus und Buddhismus sowie das Judentum) nach ihrer Wirkung auf die wirtschaftliche Entwicklung in den Ländern, in denen sie hauptsächlich beheimatet sind. Insgesamt begründet er so die wirtschaftliche Vormachtstellung der westlichen, insbesondere der protestantischen Welt. Die Grundannahmen der Protestantismusthese können verallgemeinert werden (McCleary und Barro 2006a): Der Glaube an ein Leben nach dem Tod und die damit verbundenen jenseitigen Folgen wie Erlösung, Verdammnis und Paradies können starke Motive für diesseitiges Handeln sein und, bezogen auf wirtschaftliches Handeln, die Produktivität erhöhen (indem etwa Persönlichkeitsfaktoren wie Ehrlichkeit und Arbeitsmoral verstärkt werden). Vor allem in Religionen mit starkem Erlösungsglauben sollte dies positiv auf die Wirtschaft wirken, weil diesseitiger Wohlstand als Zeichen göttlichen Auserwähltseins gedeutet werden kann (McCleary 2007). Andererseits kann durch formale religiöse Teilnahme (wie etwa dem Gottesdienstbesuch) die Produktivität aufgrund von Zeiteinbußen verringert werden. Eine andere auf Religion verweisende Erklärung für das Entstehen des Kapitalismus in Europa liefert Stark (2005). Er weist darauf hin, dass die Entstehung und Verbreitung des Kapitalismus schon lange vor der Reformation begann, nämlich im 12. Jahrhundert in den Stadtstaaten Italiens (Venedig, Genua, Florenz) und in den mittelalterlichen Klöstern. Stark begründet dies damit, dass das Christentum, anders als andere Religionen, Vernunft und individuelle Freiheit stärkt und fördert – für ihn wichtige Grundlagen für die Entstehung des Kapitalismus. Stark bezieht sich auf historische Begebenheiten vor der Reformation. Es gibt auch Beiträge, die sich mit der späteren Entwicklung befassen. So konnte Webers Protestantismusthese von Becker und Woeßmann (2009) mit historischen Daten von 1870 zur deutschen Wirtschaftsentwicklung empirisch nicht bestätigt werden: Bei einer Analyse auf Ebene 452 preußischer Landkreise identifizieren sie zwar einen positiven Zusammenhang zwischen dem Anteil an Protestanten und wirtschaftlicher Entwicklung (gemessen über die Steuereinnahmen im jeweiligen Kreis). Unter Kontrolle auf Bildung (Alphabetisierungsrate und Entfernung zur Schule) ist dieser Zusammenhang aber nicht haltbar: Die höhere wirtschaftliche Entwicklung von Landkreisen mit hohem Protestantenanteil kann auf die höhere Bildung von Protestanten zurückgeführt werden.2 Auf Länderebene wird ein positiver Zusammenhang zwischen Protestantismus und Wirtschaftswachstum auch von Sala-i-Martin (1997) nicht bestätigt (vgl. auch ähnliche Ergebnisse bei Barro 1997). Er identifiziert zwar signifikante Effekte vom Anteil verschiedener Religionsgemeinschaften auf die Wachstumsrate des Bruttoinlandsprodukts (BIP) pro Kopf zwischen 1960 und 1992, für Protestanten und Katholiken ist dieser allerdings negativ (im Gegensatz zum Anteil konfuzianischer, buddhistischer und muslimischer Religion, der jeweils positiv auf das BIP wirkt). Nach Sala-i-Martin kann dies aber auch auf regionale Phänomene (wie die wirtschaftlich stark wachsenden asiatischen Länder und die ölfördernden (muslimischen) Länder im Nahen und Mittleren Osten) zurückgeführt werden. Den Einfluss religiöser Inhalte auf wirtschaftliches Wachstum untersuchen Barro und McCleary (Barro und McCleary 2003; McCleary und Barro 2006a) anhand des World Va2 Weber

bezieht sich bei seiner Protestantismusthese explizit auf die Entstehung des Kapitalismus einige Jahrhunderte zuvor. Dies kann mit den Daten von Becker und Woeßmann nicht widerlegt werden (vgl. auch hierzu Abschnitt 3.1.2 im ersten Band).

5.1 Religion als Einflussvariable

93

lue Survey, des International Social Survey Programme und des Gallup Millennium Survey. Dabei operationalisieren sie wirtschaftliches Wachstum wie Sala-i-Martin (1997) als Veränderungsrate des BIP pro Kopf zwischen 1965 und 1995. Sie können auf Länderebene zeigen, dass der Anteil von Personen in einem Land, die an die Hölle glauben, wirtschaftliches Wachstum positiv beeinflusst. Das ist ein Hinweis darauf, dass der Glaube an eine Bestrafung im jenseitigen Leben die Produktivität erhöhen kann (der Einfluss von Glauben an den Himmel erweist sich als nicht robust – Belohnung wirkt also nicht so stark). Kirchgang hat einen negativen Einfluss auf wirtschaftliches Wachstum: Je höher der Anteil der Personen, die mindestens einmal monatlich in die Kirche gehen, desto geringer ist das wirtschaftliche Wachstum. Auf der individuellen Ebene kann auch der Einfluss von religiösem Glauben auf Persönlichkeitsmerkmale teilweise bestätigt werden: So finden etwa McCleary und Barro mit Daten des World Value Survey 1995 und 2000 einen signifikanten positiven Zusammenhang zwischen Glauben an die Hölle und Arbeitsmoral (2006a).3 Religion hat auch weitere indirekte Effekte auf wirtschaftliches Handeln. Religion kann zur Bildung von Sozialkapital (in Form von Netzwerken, Vertrauen oder durch Bereitstellung von Normen) beitragen, was wirtschaftliche Transaktionen generell erleichtert.

5.1.2 Wirkung von Religion auf Sozialkapital Sozialkapital entsteht durch die Einbindung von Akteuren in Netzwerke persönlicher Kontakte (zu einer ausführlichen Diskussion von Netzwerken im Arbeitsmarkt siehe Kapitel 2 in diesem Band). Nach Granovetter (1985, 2005) sind Netzwerke relevant für die Entstehung von Vertrauen. Bestimmte Transaktionen (wie zum Beispiel auf illegalen Märkten) werden eher mit Personen bekannter Reputation durchgeführt, als mit gänzlich unbekannten Personen, wodurch Transaktionen im eigenen Netzwerk bevorzugt werden (zu Sozialkapital und Vertrauen siehe Kapitel 1). Investitionen in soziale Beziehungen ermöglichen es, Vorteile wie die Erlangung von sozioökonomischen Status zu realisieren (Lin 1982, 1990, 2001). Granovetter unterscheidet starke und schwache Beziehungen (Granovetter 1973), wobei die Stärke der Beziehungen abhängig ist von Zeit, emotionaler Intensität, Intimität und Reziprozität. Während starke Beziehungen häufig zwischen ähnlichen Personen (bezogen auf Alter, Geschlecht oder Position in der Sozialstruktur) bestehen, die damit Zugriff auf ähnliche Informationen haben, erweitern schwache Beziehungen das eigene Umfeld, wodurch der Zugang zu nicht-redundanter Information erleichtert wird. Dies ist für Granovetter insbesondere bei der Stellensuche relevant. Quelle für solche schwachen Verbindungen sind formale Organisationen oder das Arbeitsumfeld. Auch Religionsgemeinschaften und dabei insbesondere die Kirchengemeinden können als Netzwerke verstanden werden. Nach Granovetter (1973) können in der Kirche als formaler Organisation schwache Beziehungen zwischen den Mitgliedern geschaffen werden, womit innerhalb einer Gemeinde zum Teil unverbundene Gruppen in Kontakt treten können. Beim Kirchgang treffen religiös aktive Mitglieder aufeinander und können Kontakte über ihre eigenen Bezugspersonen hinaus knüpfen, was den Austausch unter Kirchenmitgliedern erleichtert. Darüber hinaus können kirchliche Netzwerke direkt zum individuellen Vorteil genutzt werden (vgl. Lin 2001, Granovetter 2005). Soziale Kontakte zwischen den Gemeindemitgliedern erleichtern den Informationsfluss, was sowohl geschäftlich genutzt 3 Ähnlich

zu den Ergebnissen auf Länderebene ist auch auf Individualebene der Einfluss von Glauben an den Himmel (oder allgemein Glauben an ein Leben nach dem Tod) auf die Arbeitsmoral geringer als der Einfluss von religiöser Aktivität.

94

5 Wirtschaft und Religion

werden kann (etwa bei Stellenangeboten oder Aufträgen von Selbstständigen) als auch für Angebote, die die Kirche bereitstellt (Kindergartenplätze, Seniorenbetreuung). Sozialkapital beinhaltet nicht nur die sozialen Beziehungen, sondern kann ebenso als Bereitschaft für Kooperation verstanden werden, deren Grundlage Vertrauen ist (zu Sozialkapital, Vertrauen und Kooperation siehe auch Kapitel 1 in diesem Band). Für Coleman (1990) besteht Sozialkapital beispielsweise aus Verpflichtungen und Erwartungen und ist nicht einzelnen Personen zuschreibbar, sondern liegt in den Beziehungen innerhalb einer Gruppe. In Organisationen kann Sozialkapital als Nebenprodukt sozialer Aktivitäten gebildet werden und steht als öffentliches Gut jedem Mitglied der Organisation oder der Gruppe zur Verfügung, unabhängig davon, ob es dieses mit erstellt hat oder nicht. Geschlossene und stabile Netzwerke begünstigen die Entstehung von Sozialkapital, da dort Informationen über Vertrauenswürdigkeit schneller und leichter zirkulieren können. Eine Ideologie, die zur Bildung von Sozialkapital beiträgt, erleichtert damit Kooperation. Auch Putnam (1993, 2007) betont den vertrauensfördernden Aspekt von Sozialkapital. Vertraut man darauf, dass sich Andere an Regeln halten, wird man sich selbst auch mit größerer Wahrscheinlichkeit regelgerecht verhalten, was Probleme kollektiven Handelns durch spontane Kooperation lösen hilft. Bürgerschaftliches Engagement in Vereinen erhöht Kooperation. Je dichter diese Netzwerke sind, desto leichter entsteht Kooperation, da Kommunikation über Vertrauenswürdigkeit erleichtert wird. Sozialkapital und insbesondere Vertrauen kann nach Coleman und Putnam in Religionsgemeinschaften entstehen. Nach Coleman (1990) erhöhen eine Ideologie, die Altruismus fördert, sowie geschlossene und stabile Gruppen das Vertrauen. Auf Kirchengemeinden trifft beides zu: Religiöse Gebote zu Nächstenliebe und Ehrlichkeit werden von den Mitgliedern internalisiert und erhöhen das Vertrauen. Zudem sind Religionsgemeinschaften häufig relativ stabile geschlossene Gruppen. Für Putnam (1993) umfassen Netzwerke bürgerschaftlichen Engagements neben Vereinen und Parteien auch religiöse Gruppen. Wie die anderen Gruppierungen zeichnen sich Religionsgemeinschaften dadurch aus, dass die Kosten für Betrug durch wiederholte Interaktionen hoch sind, zudem wird innerhalb der Kirchengemeinde die Kommunikation über die Vertrauenswürdigkeit eines Akteurs erleichtert. Mit dem Zusammenhang von Glauben und religiöser Aktivität auf das Sozialkapital befassen sich einige Studien. So zeigt Coleman (1988) mit Daten des High School and Beyond Survey (1980 und 1982), dass an konfessionellen Schulen die Abbruchrate geringer ist als an staatlichen Schulen. Coleman begründet dies mit dem höheren sozialen Kapital an religiös geprägten Schulen. Dies führt er einerseits auf die Beziehungen von Schule und Eltern zurück, die durch die religiöse Gemeinschaft stärker sind, andererseits auf religiöse Ideologie, die auf Nächstenliebe beruht, wodurch auf Seiten der Schule schneller auf Anzeichen des Rückzugs von Schülern reagiert wird. Traunmüller (2008, 2009) untersucht mit Daten des Sozio-oekonomischen Panels von 1999, 2003 und 2006, inwieweit Glaube und religiöse Aktivität einen Einfluss auf formelle und informelle Beziehungsnetzwerke haben. Es zeigt sich auf Individualebene, dass vor allem der Gottesdienstbesuch einen positiven Effekt auf die Größe des Freundschaftsnetzwerks sowie auf die Anzahl der Treffen mit Freunden hat. Die Einbindung in formelle Netzwerke bürgerschaftlichen Engagements (wie Vereine) werden eher durch die Konfessionszugehörigkeit gefördert. Traunmüller (2011) untersucht auch die Wirkung von moralischen Gemeinschaften auf soziales Vertrauen. Ebenfalls mit Daten des Sozio-oekonomischen Panels von 2003 zeigt er unter Berücksichtigung regionaler Differenzierungen, dass Protes-

5.2 Religion als zu erklärende Variable

95

tanten insgesamt höhere Vertrauenswerte aufweisen als Angehörige anderer Konfessionen oder Konfessionslose. In Regionen mit hohem Protestantenanteil zeigen sich zudem insgesamt höhere Vertrauenswerte, unabhängig von der eigenen Konfession. Nicht nur die Wirkungen von Religion auf die Gesellschaft sind theoretisch und empirisch ergiebig, sondern auch die Erklärung, warum Akteure überhaupt religiös aktiv sind. Dies wird deutlich, wenn man sich um die Begründung religiösen Handelns bemüht.

5.2 Religion als zu erklärende Variable Das Rationalitätspostulat stößt schnell an Grenzen, wenn man damit religiösen Glauben erklären will. Vor seinem Hintergrund ist es einfacher, eine Handlung, wie religiöse Aktivität, zu erklären. Hier kann ein Phänomen auf der Makroebene (wie Kirchgangsraten) über individuelle Handlungen rekonstruiert werden (vgl. Abschnitt 7.4.2 im ersten Band zu Makroebene und Mikrofundierung). Religiöse Aktivität beinhaltet kirchliches Engagement wie Kirchgang, Gebete, Spenden und Wallfahrten. Im Folgenden wird jedoch religiöse Aktivität, analog zu einem Großteil der Literatur, synonym mit Kirchgangshäufigkeit verwendet. Dies hat verfahrenstechnische Vorteile, weil die Messung von religiöser Aktivität über Kirchgangshäufigkeit einfach und eindeutig zu erheben, und damit auch gut vergleichbar ist. Die einfachste Erklärung für religiöse Aktivität ergibt sich, wenn ein Akteur religiös aktiv ist, weil er gläubig ist. Beruht Religiosität allerdings auf stabilen Präferenzen (vgl. Stigler und Becker 1977), müsste die religiöse Aktivität im Lebensverlauf immer gleich intensiv sein, falls sich die Restriktionen des Handelns nicht wesentlich geändert haben. Die Veränderung religiöser Aktivität mit steigendem Alter sollte also auf eine Veränderung der Restriktionen (siehe Abschnitt 5.2.2) zurückgeführt werden, und nicht über eine Veränderung des Glaubens, da sonst die Annahme der Präferenzstabilität aufgehoben werden müsste. Verschiedene Autoren bemühen sich dennoch, Präferenzveränderungen zu erklären. So modellieren etwa Durkin und Greeley (1991) Religion als Versicherung: Unabhängig davon, ob Gott existiert, ist religiöse Aktivität rational, da der Nutzen im potenziellen Leben nach dem Tod die Kosten religiöser Aktivität im Diesseits übersteigt. Präferenzveränderungen werden hierbei über kognitive Dissonanz erklärt – religiöse Aktivität ohne Glauben wäre irrational (Montgomery 1992), was bei gleichbleibender religiöser Aktivität zu einer Anpassung des Glaubens führt. Die Erklärung von religiöser Aktivität als Kirchgangshäufigkeit kann aus zwei Perspektiven erfolgen: Zum einen kann das Angebot religiöser Dienstleister (Religionsgemeinschaften) in einem Land die individuelle Kirchgangshäufigkeit beeinflussen. Zum anderen können, bei gegebenem Angebot, individuelle Faktoren die Nachfrage nach kirchlichen Gütern (zunächst Seelenheil, aber auch Gottesdienste oder säkulare Angebote wie Kindergartenplätze, Seniorenbetreuung) bedingen.

5.2.1 Das Angebot religiöser Dienstleister Angebotsseitige Erklärungen religiöser Aktivität befassen sich mit dem Einfluss von Marktstrukturen (siehe Abschnitt 5.3 im ersten Band) auf die religiöse Aktivität. Vordenker dieser Ansätze ist Adam Smith (1776), der davon ausgeht, dass Marktkräfte auf Religionsgemeinschaften genauso wirken wie auf weltliche Firmen und dass freier Wettbewerb, Monopolismus und staatliche Regulierungen den Religionsmarkt wie jeden anderen Markt

96

5 Wirtschaft und Religion

beeinflussen. Damit nimmt er einen großen Teil der aktuellen Diskussion zu den Wirkungen von unterschiedlichen Angebotsstrukturen der Religionsmärkte auf die religiöse Aktivität vorweg. Smith spricht sich dabei für freien Wettbewerb nicht nur in klassischen Güterund Dienstleistungsmärkten, sondern auch im Religionsmarkt aus. Ein solcher Wettbewerb setzt voraus, dass es erstens hinreichend viele Religionsgemeinschaften gibt, von denen keine eine dominierende Marktmacht etablieren kann, und dass zweitens die Gläubigen frei zwischen den Angeboten wählen können, was dazu führt, dass für jede individuelle Nachfrage ein spezifisches Angebot vorhanden ist und dass Religionsgemeinschaften in direkter Konkurrenz um ihre Mitglieder stehen. Monopole auf dem Religionsmarkt (wie Staatskirchen) entstehen, wenn staatliche Regulierungen eine Religionsgemeinschaft so unterstützen, dass andere verdrängt werden. Dies geschieht entweder direkt über Verbote einzelner Religionsgemeinschaften oder indirekt etwa über staatlich eingezogene Kirchensteuern oder andere Subventionen bestimmter Konfessionen (Finke 1996; Iannaccone 1991). Durch die fehlende Konkurrenz sind diese Staatskirchen weniger effizient: Zum einen kann es auf Seiten der Religionsgemeinschaften zu einer künstlichen Ertragssteigerung kommen. Dabei bereichern sich die Religionsgemeinschaften auf Kosten ihrer Mitglieder etwa dadurch, dass sie, bei gleicher Mitgliederzahl, ihre Arbeitsbelastung reduzieren. Zum anderen wird durch die Beschränkung auf nur eine Religionsgemeinschaft die Bandbreite religiöser Möglichkeiten gering, was dazu führt, dass nicht jede individuelle Nachfrage befriedigt werden kann. Viele kleine Religionsgemeinschaften hingegen können durch die Besetzung unterschiedlicher Nachfragenischen die Bedürfnisse ihrer Mitglieder optimal befriedigen. So sollten also Länder mit freiem Religionsmarkt eine höhere durchschnittliche Religiosität aufweisen als Länder mit nur einer Staatskirche. Mit Aggregatdaten zur religiösen Marktstruktur, zur religiösen Teilnahme und zum Glauben in christlichen Ländern bestätigt Iannaccone (1991) diese Folgerungen. Mit Ausnahme katholischer Länder, die eine große durchschnittliche Partizipation aufweisen, weisen Länder, in denen Wettbewerb unter den Religionsgemeinschaften besteht, eine höhere durchschnittliche religiöse Teilnahme auf als Länder mit einer (protestantischen) Staatskirche.4 Zudem zeigt sich, dass innerhalb eines Landes das Durchschnittsniveau des Glaubens und der religiösen Partizipation in den etablierten Kirchen geringer ist als in alternativen Glaubensgemeinschaften. Der negative Zusammenhang zwischen staatlicher Regulierung und religiöser Aktivität wird auch von anderen Autoren weitgehend bestätigt (Chaves und Cann 1992; McCleary und Barro 2006b; Ruiter und Tubergen 2009).

5.2.2 Nachfrageseitige Erklärungen auf der Mikroebene Anders als obige Ansätze blicken individuelle Erklärungen religiöser Aktivität aus der Sicht der RC-Theorie noch nicht auf eine Jahrhunderte alte Forschungstradition zurück. Auf der Grundlage von Gary Beckers Haushaltsökonomik (Becker 1965) sowie dessen Humankapitalansatz (Becker 1993) werden jedoch seit Mitte der 1970er Jahre vorwiegend in den USA ökonomische Überlegungen auf religiöse Aktivität individueller Akteure angewandt. Die religiöse Haushaltsökonomik nach Azzi und Ehrenberg (1975) befasst sich mit der Zeitallokation des Haushalts: Analog zu Unternehmen setzen Haushalte Zeit und Ressourcen ein, wobei ein benevolenter Haushaltsvorstand den gemeinsamen Nutzen aller 4 Dies

begründet er damit, dass der Katholizismus entweder besser mit Monopolisierung umgehen kann, oder dass es eine stärkere Differenzierung innerhalb der katholischen Kirche gibt.

5.2 Religion als zu erklärende Variable

97

Haushaltsmitglieder maximiert. Azzi und Ehrenberg formulieren drei Motive für religiöse Aktivität: Das Konsummotiv, das Motiv sozialer Erwartungen und das Heilsmotiv. Religiöse Aktivität, ausgeführt auf Basis der ersten beiden Motive, erhöht den diesseitigen Nutzen: Kirchgang kann unterhaltend sein, zudem erhöht soziale Kontrolle den Druck, in die Kirche zu gehen. Das dritte Motiv bezieht sich auf das Leben nach dem Tod: Angenommen wird dabei, dass religiöse Aktivität den jenseitigen Nutzen erhöht. Zur formalen Darstellung dieses Motivs erweitern Azzi und Ehrenberg das Zeitallokationsmodell von Becker und analysieren damit, inwieweit der Glaube an ein Leben nach dem Tod die Zeitallokation des Haushalts im Diesseits beeinflusst. Das ursprüngliche Modell der religiösen Haushaltsproduktion hat jedoch sehr strenge Modellannahmen, wobei zumeist Paare als zentrale Untersuchungseinheiten betrachtet werden. So wissen zum Beispiel beide Partner, dass sie gemeinsam nach T Jahren sterben werden. Zudem ist Trennung oder Scheidung nicht vorgesehen, was in einem solchen Fall mit dem religiösen Kapital geschieht (wird es halbiert, bekommt es derjenige, der es produziert hat oder geht es verloren), wird nicht formuliert. Betrachtet man hingegen nur die Zeitallokation von Individuen, werden die strengen Modellannahmen etwas erleichtet, die wesentlichen Aussagen bleiben dennoch bestehen. Ein möglicher Erklärungsansatz zur individuellen religiösen Partizipation soll im Folgenden entworfen werden. Der Nutzen u eines Individuums i ergibt sich aus der Sequenz von Konsumeinheiten pro Zeitperiode t: ui = ui (ci1 , ci2 , ..., ciT ). Die Konsummenge cit eines Individuums i einer Periode t ergibt sich durch die Funktion: cit = cit (xit , hit ), mit t = 1, 2, ..., T . Der Konsum cit umfasst also eine positive Menge xit an Gütern und die zum Konsum verfügbare Zeit hit (also Zeit, die nicht zur Generierung von Einkommen verwendet wird). Obige Nutzenfunktion bezieht sich auf das diesseitige Leben. Azzi und Ehrenberg (1975) erweitern das Zeitallokationsmodell um den erwarteten Nutzen im Leben nach dem Tod.5 Eingesetzt in die obige Nutzenfunktion, ergibt sich nun die Nutzenfunktion des Individuums i aus dem diesseitigen Konsum und dem (erwarteten) jenseitigen Konsum qi : ui = ui (ci1 , ci2 , ..., ciT , qi ). Der erwartete Konsum eines Individuums i im Leben nach dem Tod qi hängt von der religiösen Aktivität ri im Diesseits ab: qi = qi (ri1 , ri2 , ..., riT ), mit t = 1, 2, ..., T . rit entspricht der religiösen Aktivität des Individuums i in einer Periode t. Nach dieser Gleichung steigt der Jenseitsnutzen mit zunehmender religiöser Investition

5 Mit

dem erwarteten Nutzen im Leben nach dem Tod ist nach Azzi und Ehrenberg nicht nur der dichotome Zustand von Himmel und Hölle gemeint, sondern es besteht ein Kontinuum an möglichen jenseitigen Zuständen, die zwischen Himmel und Hölle möglich sind. Zudem ist qi unendlich (qiT +1 , qiT +2 , ..., qiT +t ) mit t = 1, 2, ..., T, ..., ∞.

98

5 Wirtschaft und Religion

im Diesseits. Dies kann noch genauer spezifiziert werden: rit = r(xrit , hrit ). Die religiöse Aktivität ist demnach abhängig von den erworbenen religiösen Gütern xrit (wie monetäre und nicht-monetäre Spenden) sowie der Zeit hrit , die für religiöse Aktivität verwendet wird. Der erwartete Konsum im Leben nach dem Tod, qi , ist also eine Funktion der Zeit für religiöse Aktivität im Diesseits, rit . Während des gesamten Lebens baut das Individuum folglich religiöses Kapital auf, wovon der Umfang (und die Qualität) des erwarteten Konsums im Leben nach dem Tod abhängt. Hier kann zum Beispiel auch das Begehen von Sünden integriert werden – sie werden als Abschreibung verstanden und verringern demnach den Konsum im Leben nach dem Tod. Jede Zeitallokation ist mit Opportunitätskosten (aufgrund der entgangenen Alternativen) verbunden: Die gesamte verfügbare Zeit eines Individuums i pro Zeitperiode t ist die Summe aus Arbeitszeit, Konsumzeit und Zeit für religiöse Aktivitäten. Verwendet ein Haushaltmitglied also Zeit für religiöse Aktivitäten, bleibt weniger Arbeits- und Konsumzeit übrig. Die verringerte Arbeitszeit jedoch reduziert das Einkommen, was wiederum den irdischen Konsum und damit die irdische Wohlfahrt reduziert. Aus der Opportunitätskosten-Argumentation ergeben sich folgende Implikationen: Opportunitätskostenhypothese 1: Die Möglichkeiten für weltlichen Konsum steigen mit steigendem Einkommen. Dies erhöht die Opportunitätskosten für religiöse Aktivität, was zu folgender Hypothese führt: Je höher der Lohn, desto geringer die religiöse Aktivität. Opportunitätskostenhypothese 2: Mit Eintritt in die Rente steht auf einmal viel mehr Zeit zur Verfügung, da keine Zeit mehr zum Lohnerwerb investiert werden muss. Dies lässt die Opportunitätskosten für religiöse Aktivität sinken. Rentner sind demnach religiös aktiver als Erwerbstätige. Opportunitätskostenhypothese 3: Opportunitätskosten sind in der Stadt größer als auf dem Land, da hier nicht nur die Arbeitsbedingungen besser sind, sondern auch mehr Möglichkeiten zum weltlichen Konsum bestehen. Somit ist in der Stadt die religiöse Aktivität niedriger als auf dem Land. Wie oben bereits erwähnt, entwickelten Azzi und Ehrenberg ihre Theorie anhand des Haushalts. Wird diese Haushaltsstruktur zusätzlich berücksichtigt, können weitere Hypothesen aufgestellt werden. Haushaltshypothese 1: Da in einem Haushalt gemeinsamer Nutzen maximiert wird, können sich die Haushaltsmitglieder arbeitsteilig organisieren. So ist es möglich, Spezialisierungsgewinne zu realisieren. Somit kann folgende Hypothese formuliert werden: In einem Haushalt wird religiöse Aktivität arbeitsteilig organisiert. Haushaltshypothese 2: Bei der Zeitallokation der Haushaltsmitglieder ist die Aufteilung der Zeit zur Produktion säkularer und religiöser Güter abhängig vom Lohn, da die Opportunitätskosten bei geringem Lohn niedriger sind und demnach der erwartete Konsum im Leben nach dem Tod kostengünstiger hergestellt werden kann. Somit wird in einem Haushalt derjenige häufiger in die Kirche gehen, der weniger verdient.

5.2 Religion als zu erklärende Variable

99

Haushaltshypothese 3: Zudem ist die gleiche Konfession von Haushaltsmitgliedern effizient, da so Produktionskostenvorteile erlangt werden können (etwa die gemeinsame Fahrt in den Gottesdienst). So wird der Aufwand geringer, um religiös aktiv zu sein. Die gleiche Konfession in einer Partnerschaft erhöht die religiöse Aktivität beider Partner.6 Azzi und Ehrenberg (1975) untersuchen diese Implikationen anhand US-amerikanischer Daten zur Kirchenmitgliedschaft in den gesamten USA für die Jahre 1926, 1932 und 1952 sowie anhand des General Social Survey des Jahres 1973. Sie bestätigen ihre Theorie: Alter, Glauben an ein Leben nach dem Tod sowie gleiche Konfession der Ehepartner haben signifikant positive Einflüsse auf religiöse Aktivität, Familieneinkommen hingegen hat darauf keinen Effekt. Diese Ergebnisse werden von Ulbrich und Wallace (1983) mit Daten des General Social Services 1973 und 1980 repliziert. Die positiven Effekte gleicher Konfession von Ehepartnern auf religiöse Aktivität werden auch von Iannaccone (1990) bestätigt. Auch für Deutschland finden diese theoretischen Implikationen empirische Unterstützung. Heineck (2001) untersucht in einer Längsschnittstudie mit den Daten des Sozio-oekonomischen Panels (SOEP) der Jahre 1994, 1998 und 1999 den Einfluss von Opportunitätskosten auf die Kirchgangshäufigkeit und identifiziert einen positiven Effekt von Alter, aber keinen Effekt von Einkommen auf religiöse Aktivität. Der Ansatz der religiösen Haushaltsproduktion wird durch das Konzept des Humankapitals (vgl. Becker 1993) erweitert. Diesem liegt die Annahme zugrunde, dass es einen positiven Zusammenhang von Humankapital (wie schulischer und außerschulischer Bildung) und Produktivität im Beruf gibt (vgl. auch Kapitel 11 in diesem Band): Menschliche Fähigkeiten, die im Produktionsprozess eingesetzt werden, beeinflussen Qualität und Quantität der produzierten Güter, und erhöhen damit die Produktivität. Im Bereich der Religion bedeutet dies, dass zur Produktion religiöser Güter nicht nur Zeit (wie bei den Überlegungen zu den Opportunitätskosten) notwendig ist, sondern auch religiöses Wissen (Iannaccone 1990, 1995, 1998). Das religiöse Humankapital des Individuums i, also der Bestand an spezieller Erfahrung aus religiöser Aktivität in der Vergangenheit, wird mit sir bezeichnet. Somit ergibt sich die Erweiterung der Konsumfunktion im Leben nach dem Tod rit : rit = r(xrit , hrit , srit ). Religiöse Aktivität ist also abhängig von der Zeit hrit , den Gütern xrit und dem religiösen Kapital srit eines Individuums i in einer Zeitperiode t. Die Möglichkeit eines Haushalts, religiösen Nutzen zu produzieren, wird beeinflusst durch Güter (Sonntagskleidung, Spenden), Zeit (für Kirchenbesuche und Gebete) und religiöses Humankapital. Dies beinhaltet religiöses Wissen sowie Vertrautheit mit Kirchenritualen. Eine Veränderung von religiösem Humankapital (∆srit ) ist abhängig von der Zeit hir , den religiösen Gütern xir und dem religiösen Humankapital sir in der Vorperiode (t − 1): ∆srit = f (xrit−1 , hrit−1 , srit−1 ).

6 Hier

können jedoch auch, neben den oben genannten Effizienzgründen, Homophilietendenzen bei der Partnerwahl wirken: Religiös aktive Menschen bevorzugen bei der Partnerwahl möglicherweise ebenfalls religiös aktive Partner, die zudem der gleichen Konfession angehören.

100

5 Wirtschaft und Religion

Somit ist religiöses Humankapital nicht nur Voraussetzung, sondern auch Folge von religiöser Aktivität. Denn es erhöht den Nutzen der Teilnahme an religiösen Aktivitäten, was wiederum einen positiven Effekt auf die Wahrscheinlichkeit und das voraussichtliche Niveau der Teilnahme an religiöser Aktivität hat. Durch Kirchgang und religiöse Sozialisation wird ein Kapitalstock religiöser Gewohnheit gebildet, der analog zu einer Sucht die religiöse Aktivität automatisch steigert (vgl. Becker und Murphy 1988 sowie Kapitel 8 in diesem Band). So wird der individuelle Nutzen aktueller und zukünftiger Religiosität erhöht und eine individuelle Einstellungsänderung bis hin zur Nicht-Religiosität verhindert. Zudem ist religiöses Humankapital eine Form spezifischen Humankapitals. Es wird innerhalb einer Konfession gebildet und geht bei Konfessionswechseln verloren. Deswegen ist zu erwarten, dass Kinder in der Religionsgemeinschaft ihrer Eltern bleiben. Wenn ein Konfessionswechsel stattfindet, dann meist früh im Leben und in ähnliche Religionsgemeinschaften, da in jungen Jahren noch nicht so viel religiöses Kapital angehäuft wurde bzw. in ähnlichen Konfessionen nicht ganz verloren geht. Heiraten finden eher innerhalb einer Religion statt. Zu religiösem Humankapital ergeben sich folgende Implikationen: Humankapitalhypothese 1: Religiöses Humankapital wird als Nebenprodukt von religiöser Aktivität gebildet und beinhaltet zudem eine Belohnung für religiöse Teilnahme, da durch Wissen über die Inhalte der Religion der Nutzen der Teilnahme erhöht wird. Deswegen korreliert frühere religiöse Aktivität positiv mit aktueller religiöser Aktivität. Humankapitalhypothese 2: Durch religiöse Sozialisation in der Kindheit wird religiöses Humankapital schon sehr früh aufgebaut. Die Religiosität der Eltern korreliert somit positiv mit der aktuellen religiösen Aktivität. Humankapitalhypothese 3: Zudem erhöht sich mit steigendem Alter aufgrund größerer religiöser Erfahrung das religiöse Humankapital. Dies führt zu einer stetigen Erhöhung religiöser Aktivität mit steigendem Alter. Empirisch werden die meisten Implikationen des Humankapitalansatzes für die USA bestätigt (vgl. hierzu den Überblick bei Iannaccone 1990): Neben dem oben genannten Alterseffekt auf religiöse Aktivität finden sich vor allem Belege dafür, dass religiöses Humankapital spezifisch ist, da Konfessionswechsel selten sind (oder zumindest früh im Leben statt finden, was mit Überlegungen zur Gewohnheitsbildung gut vereinbar ist). Auch finden sich positive Effekte der eigenen religiösen Aktivität als Kind auf die aktuelle religiöse Aktivität.

5.3 Daten und Modellspezifikationen Mit Ausnahme der Befunde von Heineck (2001) bezieht sich der oben zitierte Forschungsstand auf US-amerikanische Daten. Diese Ergebnisse lassen sich nicht ohne Weiteres auf Deutschland übertragen. Während in den USA mit ca. 2 000 Konfessionen ein weitgehend freier Religionsmarkt vorliegt, bestimmen diesen in Deutschland mit der evangelischen und katholischen Kirche zwei staatlich unterstützte Glaubensgemeinschaften. Letzteren gehören nach Zahlen der Deutschen Bischofskonferenz und der Evangelischen Kirche Deutschland im Jahr 2007 insgesamt etwa 50 Millionen Menschen an, was gut 60% der Bevölkerung entspricht. Diese sind zudem nicht gleichmäßig über Deutschland verteilt. Während in Bayern etwa 75% einer Konfession angehören, sind es in den ostdeutschen Bundesländern

5.4 Empirische Ergebnisse

101

Brandenburg und Mecklenburg-Vorpommern nur jeweils 21%. Eine direkte Übertragbarkeit der US-amerikanischen Ergebnisse ist deswegen nicht möglich, was eine Überprüfung der genannten Implikationen mit deutschen Daten ebenso notwendig wie interessant macht. Die empirische Überprüfung der vorangehenden Überlegungen konzentriert sich auf mikrosoziologische Erklärungen religiöser Aktivität (siehe auch Negele 2012). Überprüft werden die Opportunitätskostenhypothesen, die Hypothesen zur Zeitallokation im Haushalt sowie die Humankapitalhypothesen. Hierzu werden die Daten des Sozio-oekonomischen Panels (SOEP) verwendet. In diesen seit 1984 jährlich erhobenen Paneldaten wird der gesamte Haushalt befragt, was etwa eine Überprüfung der Haushaltshypothesen vereinfacht. Die Panelstruktur wird hier bei der Analyse von Opportunitätskosten und Zeitallokation im Haushalt vernachlässigt, hier werden Querschnittsanalysen der Welle 2009 durchgeführt. Bei der Analyse der Humankapitalhypothesen werden die Wellen 1995, 1997, 1999, 2001, 2003, 2005, 2007 und 2009 berücksichtigt, womit intraindividuelle Veränderungen analysiert werden können. Da die zu erklärende Variable religiöse Aktivität ist, konzentriert sich die vorliegende Analyse auf Personen, die einer christlichen Konfession angehören.7 Die abhängige Variable der religiösen Aktivität wird (in Anlehnung an den Forschungsstand) durch Kirchgangshäufigkeit operationalisiert. Diese Variable liegt in vier Kategorien vor („ jede Woche“, „ jeden Monat“, „seltener“, „nie“). Aufgrund der ordinalen abhängigen Variable wird für die Opportunitätskostenhypothesen (Tabelle 5.1) und für die Haushaltshypothesen (Tabelle 5.2) ordinale Probit-Regressionen geschätzt. Im Gegensatz zur ordinal logistischen Regression, bei der eine logistische Verteilungsfunktion angenommen wird, liegt hier als Verteilungsfunktion die Normalverteilung zu Grunde (vgl. Greene 2003, Wooldridge 2002).8 Für die Humankapitalhypothesen (Tabelle 5.3) werden Längsschnittanalysen durchgeführt. Geschätzt werden ordinale Probit-Regressionen mit zufälligen Effekten (Random Effects Ordered Probit) (vgl. Frechette 2001).

5.4 Empirische Ergebnisse Die Ergebnisse der Hypothesenprüfung werden in tabellarischer Form entsprechend den theoretischen Blöcken präsentiert und interpretiert.

5.4.1 Opportunitätskosten des Kirchgangs Tabelle 5.1 zeigt die Ergebnisse der Überprüfung der Opportunitätskostenhypothesen. In Modell 1 wird das logarithmierte Einkommen berücksichtigt, in Modell 2 stattdessen eine binäre Variable zum Bezug von Rente (1 = ja). Da die Einkommensvariable nur das Einkommen aus Erwerbsarbeit beinhaltet, können beide Variablen nicht in einem Modell berichtet werden (wer Rente bezieht, hat per Definition kein Einkommen aus Erwerbsarbeit).9 7 Die

religiöse Aktivität Konfessionsloser ist verschwindend gering: Der Anteil an Konfessionslosen, die mindestens einmal im Monat einen Gottesdienst besuchen, liegt bei 1,5%, während 90% nie in die Kirche gehen (Daten: SOEP 2007). Andere Religionsgemeinschaften wie der Islam und das Judentum werden ausgeschlossen, da hier religiöse Aktivität (operationalisiert über Kirchgangshäufigkeit) nicht oder nur sehr schwer vergleichbar ist. 8 In der Regel führen Logit- und Probitmodelle zu sehr ähnlichen Resultaten. Nur in Ausnahmefällen (v.a. an den Rändern der Verteilung) ergeben sich Unterschiede. 9 Eventuelle Zusatzeinkommen in der Rente werden bei der Operationalisierung explizit ausgeschlossen.

102

5 Wirtschaft und Religion Tabelle 5.1: Opportunitätskosten des Kirchgangs (1) Stadt > 50 000 Log. Einkommen

(2) ∗∗∗

–0,243 (7,55) –0,030 (1,77)

–0,122∗∗∗ (2,80) 0,015 (1,58) –0,0001 (0,85) 0,051∗∗∗ (9,13) 0,363∗∗∗ (7,80) –0,453∗∗∗ (15,57) –0,056 (0,83) 0,379∗∗∗ (8,87) 0,284∗ (2,22)

0,093∗ (2,36) –0,174∗∗∗ (7,97) 0,015∗∗ (3,24) –0,0001 (1,82) 0,051∗∗∗ (12,52) 0,147∗∗∗ (4,40) –0,498∗∗∗ (22,49) –0,122∗ (2,25) 0,299∗∗∗ (8,37) 0,246∗∗∗ (4,30)

6 085 660∗∗∗ 0,113

10 791 1 148∗∗∗ 0,110

Rente Mann Alter Alter2 Ausbildungsjahre Ostdeutschland Protestantisch Geschieden Verheiratet Verwitwet N LR-Chi2 Nagelkerkes R2

–0,238∗∗∗ (10,14)

Ordered Probit Regression. SOEP, Welle 2009. Unstandardisierte Koeffizienten, z-Werte in Klammern. Abhängige Variable Kirchgangshäufigkeit (4-stufig). ∗∗∗ p 0, 5, gilt dabei stets (R − p) > 0, sodass Verhaltensimitation gegenüber der eigenständigen Entscheidungsfindung vorzuziehen ist. Damit kann begründet werden, weshalb sich auch rationale Akteure blinden Herden anschließen. Allerdings wird das Verhältnis R durch eine wachsende Zahl von Entscheidern n nicht verbessert. Nach dem Auftritt von Herdenverhalten werden bekanntlich keine weiteren Informationen über die privaten Signale der Entscheider akkumuliert. In der Folge bleibt R über n konstant und auch der Vorteil rationaler Imitation R − p steigt nicht mit zunehmender Herdengröße. Das grundlegende Modell kann im Übrigen erweitert werden. Zentrale Weiterentwicklungen integrieren einerseits die Instabilität von Kaskaden durch Antikonformität späterer Entscheider (vgl. wiederum Bikhchandani, Hirshleifer und Welch 1992) und andererseits die Stabilisierung von Konformität durch Gewohnheitsbildung (vgl. z.B. Rohner, Winestein und Frey 2006). Natürlich bleibt auch diese Modellierung von Konformität angreifbar. Ein wichtiger Kritikpunkt stellt erstens die als exogen angenommene Handlungsabfolge dar. Es erfolgt keine Erklärung der individuellen Positionen in der Entscheidungskette. Zweitens werden nur zwei extreme stabile Ruhepunkte zugelassen: Ein Gleichgewicht, in dem (nahezu) alle Populationsmitglieder von einer Handlung absehen, und ein Gleichgewicht vollständiger

Literatur

151

Verbreitung der konformen Handlung. Verbreitungsprozesse mit mäßigem Erfolg werden nicht vorhergesagt. Trotz dieser Schwachstellen kann das Herdenmodell zur Erklärung von Konformität in verschiedenen gesellschaftlichen Teilbereichen herangezogen werden. Neben der Konformität im Konsum zählen dazu Manien in Aktienmärkten, die Imitation innerhalb von Unternehmensbranchen, die Homogenisierung im wissenschaftlichen Zitationsverhalten oder Prozesse sozialer Stigmatisierung (für einen Überblick siehe Keuschnigg 2012). Seine Anwendbarkeit beschränkt sich also keineswegs nur auf Fragen der Wirtschaftssoziologie.

Literatur Agarwal, R. und M. Gort (1996) „The Evolution of Markets and Entry, Exit, and Survival of Firms.“ Review of Economics and Statistics 78: 489-498. Banerjee, A.V. (1992) „A Simple Model of Herd Behavior.“ Quarterly Journal of Economics 107: 797-817. Bass, F.M. (1969) „A New Product Growth Model for Consumer Durables.“ Management Science 15: 215-227. Becker, G.S. (1962) „Irrational Behavior and Economic Theory.“ Journal of Political Economy 70: 1-13. Becker, G.S. (1996) Accounting for Tastes. Cambridge: Harvard University Press. Becker, G.S. und K.M. Murphy (1988) „A Theory of Rational Addiction.“ Journal of Political Economy 96: 675-700. Becker, G.S. und K.M. Murphy (2000) Social Economics. Cambridge: The Belknap Press of Harvard University Press. Bikhchandani, S., D. Hirshleifer und I. Welch (1992) „A Theory of Fads, Fashion, Custom, and Cultural Change as Informational Cascades.“ Journal of Political Economy 100: 9921026. Bourdieu, P. (1982) Die feinen Unterschiede. Frankfurt a.M.: Suhrkamp. Braudel, F. (1985) Sozialgeschichte des 15.–18. Jahrhunderts. Der Alltag. München: Kindler. Braun, N. und T. Gautschi (2011) Rational-Choice-Theorie. Weinheim und München: Juventa. Brewer, J. (1998) „Was können wir aus der Geschichte der frühen Neuzeit für die moderne Konsumgeschichte lernen?“ S. 51-74 in: H. Siegrist, H. Kaelble und J. Kocka (Hg.) Europäische Konsumgeschichte. Frankfurt a.M.: Campus. Chamley, C.P. (2004) Rational Herds. Economic Models of Social Herding. Cambridge: Cambridge University Press. Cialdini, R. (1984) Influence: The Psychology of Persuasion. New York: Quill. Clement, M., S. Fabel und C. Schmidt-Stölting (2006) „Diffusion of Hedonic Goods: A Literature Review.“ International Journal on Media Management 8: 155-163. Duesenberry, J. (1949) Income, Saving, and the Theory of Consumer Behavior. Cambridge: Harvard University Press. Frank, R.H. (2000) Luxury Fever. Princeton: Princeton University Press. Gale, D. und S. Kariv (2008) „Learning and Information Aggregation in Networks.“ In: S.N. Durlauf und L.E. Blume (Hg.) The New Palgrave Dictionary of Economics. New York: Palgrave Macmillan. Geiger, T. (1949) Die Klassengesellschaft im Schmelztiegel. Köln: Kiepemheuer. Gort, M. und S. Klepper (1982) „Time Paths in the Diffusion of Product Innovations.“ Economic Journal 92: 630-653. Granovetter, M. (1978) „Threshold Models of Collective Behavior.“ American Journal of Sociology 83: 1420-1443.

152

7 Konsum, Kaufverhalten und Konformität

Granovetter, M. und R. Soong (1983) „Threshold Models of Diffusion and Collective Behavior.“ Journal of Mathematical Sociology 9: 165-179. Granovetter, M. und R. Soong (1986) „Threshold Models of Interpersonal Effects in Consumer Demand.“ Journal of Economic Behavior and Organization 7: 83-99. Granovetter, M. und R. Soong (1988) „Threshold Models of Diversity: Chinese Restaurants, Residential Segregation, and the Spiral of Silence.“ Sociological Methodology 18: 69-104. Hedström, P. (1998) „Rational Imitation.“ S. 306-327 in: P. Hedström and R. Swedberg (Hg.) Social Mechanisms: An Analytical Approach to Social Theory. Cambridge: Cambridge University Press. Jäckel, M. und C. Kochhan (2000) „Notwendigkeit und Luxus. Ein Beitrag zur Geschichte des Konsums.“ S. 73-93 in: D. Rosenkranz und N.F. Schneider (Hg.) Konsum: Soziologische, ökonomische und psychologische Perspektiven. Opladen: Leske und Budrich. Katz, E. und P. Lazarsfeld (1955) Personal Influence: The Part Played by People in the Flow of Mass Communication. New York: Free Press. Keuschnigg, M. (2012) Das Bestseller-Phänomen: Die Entstehung von Nachfragekonzentration im Buchmarkt. Wiesbaden: Springer VS. Klepper, S. (1997) „Industry Life Cycles.“ Industrial and Corporate Change 6: 145-181. Kroeber-Riel, W. und P. Weinberg (2003) Konsumentenverhalten (8. Aufl.). München: Vahlen. Leibenstein, H. (1950) „Bandwagon, Snob, and Veblen Effects in the Theory of Consumers´ Demand.“ Quarterly Journal of Economics 64: 183-207. Levitt, T. (1965) „Exploit the Product Life Cycle.“ Harvard Business Review 88: 81-94. Mahajan, V. und R.A. Peterson (1985) Models for Innovation Diffusion. Beverly Hills: Sage. Miller, G. (2009) Spent. Sex, Evolution, and Consumer Behavior. New York: Penguin. Monroe, K.B. (2003) Pricing: Making Profitable Decisions. New York: McGraw-Hill Irwin. Moser, K. (Hg.) (2007) Wirtschaftspsychologie. Berlin und Heidelberg: Springer. Nachbar, J. (2008) „Giffen’s Paradox.“ In: S.N. Durlauf und L.E. Blume (Hg.) The New Palgrave Dictionary of Economics. New York: Palgrave Macmillan. Pollak, R.A. (1970) „Habit Formation and Dynamic Demand Functions.“ Journal of Political Economy 78: 745-763. Rogers, E.M. (2003) Diffusion of Innovations (5. Aufl.). New York: Free Press. Rohner, D., A. Winestein und B.S. Frey (2006) „Ich bin auch ein Lemming: Herding and Consumption Capital in Arts and Culture.“ Arbeitspapier, Universität Zürich. Saad, G. (2007) The Evolutionary Bases of Consumption. New York: Routledge. Schneider, N.F. (2000) „Konsum und Gesellschaft.“ S. 9-22 in: D. Rosenkranz und N.F. Schneider (Hg.) Konsum: Soziologische, ökonomische und psychologische Perspektiven. Opladen: Leske und Budrich. Simmel, G. (1895) „Zur Psychologie der Mode.“ Wiener Wochenschrift für Politik, Volkswirtschaft, Wissenschaft und Kunst 54: 22-24. Simmel, G. (1905) Philosophie der Mode. Berlin: Pan Verlag. Simmel, G. (1900) Soziologie des Geldes. Berlin: Ducker & Humblot. Stigler, G.J. und G.S. Becker (1977) „De Gustibus Non Est Disputandum.“ American Economic Review 67: 76-90. Thaler, R.H. und C.R. Sunstein (2008) Nudge: Improving Decisions about Health, Wealth, and Happiness. New Haven: Yale University Press. Varian, H.R. (1996) Intermediate Microeconomics (4. Aufl.). New York: W.W. Norton. Veblen, T. (1986) [1899]: Theorie der feinen Leute. Frankfurt a.M.: Fischer. Von Weizsäcker, C.C. (1971) „Notes on Endogenous Changes of Tastes.“ Journal of Economic Theory 3: 345-372. Watts, D.J. und P.S. Dodds (2007) „Influencials, Networks, and Public Opinion.“ Journal of Consumer Research 34: 441-458. Wiswede, G. (2000) „Konsumsoziologie – Eine vergessene Disziplin.“ S. 23-72 in: D. Rosenkranz und N.F. Schneider (Hg.) Konsum: Soziologische, ökonomische und psychologische Perspektiven. Opladen: Leske und Budrich.

8 Sucht, Gewohnheit und Tradition Roger Berger und Thomas Wimmer Grundlegend für die ökonomische Untersuchung von Konsumentscheidungen ist die Annahme, dass Akteure Waren und Dienstleistungen nachfragen, um ihren Nutzen zu maximieren. Diese Maximierung geschieht bei gegebenen Präferenzen unter Beachtung von Restriktionen. Typischerweise zeigt sich dabei, dass Preise, Einkommen und Vermögen wichtige Determinanten sind. Teure Produkte werden weniger gekauft als billige und Reiche können sich mehr leisten als Arme. Außerdem erscheinen derartige Konsumentscheidungen normalerweise zu einem gegebenen Zeitpunkt sowohl unabhängig von vorangegangenen Konsumentscheidungen als auch unabhängig vom Konsum anderer Akteure. Wie die folgenden Beispiele illustrieren, muss dies jedoch nicht zwangsläufig der Fall sein. So werden beim täglichen Einkauf von Nahrungsmitteln auch dann, wenn gleichwertige oder sogar billigere Alternativen existieren, häufig Güter gekauft, die bereits zuvor konsumiert wurden. Besonders deutlich werden derartige Phänomene beim Konsum von Alkohol, Zigaretten und illegalen Drogen. Hier scheint es außerdem, als ob die aktuellen Konsumentscheidungen nicht nur davon abhängen, wie die eigenen Konsumentscheidungen in der Vergangenheit ausgefallen sind, sondern auch von den aktuellen und vergangenen Konsumentscheidungen Anderer beeinflusst werden. Ein Beispiel hierfür ist das Münchner Oktoberfest, bei dem trotz eines starken Anstiegs der Bierpreise konstante bis steigende Besucherzahlen zu verzeichnen sind. Oft werden derartige Verhaltensweisen deshalb als „irrational“ aufgefasst und aus der klassischen ökonomischen Analyse von Konsumentscheidungen ausgeklammert. Dadurch sind es vor allem medizinische, psychologische und soziologische Ansätze, die bei der Erklärung von Gewohnheiten, Süchten und Traditionen eine Rolle spielen. Statt Konsumentscheidungen, die auf Gewohnheit, Sucht oder Tradition zurückgeführt werden können, grundsätzlich als „irrational“ aufzufassen, besteht jedoch auch die Möglichkeit, von zeitlich und sozial eingebetteten rationalen Entscheidungen auszugehen. Dies wiederum ist charakteristisch für eine quantitativ orientierte wirtschaftssoziologische Herangehensweise an die genannten Phänomene, mit deren Hilfe die folgenden Fragen beantwortet werden sollen: • Wie hängen Gewohnheit, Sucht und Tradition zusammen? • Welche Umstände führen zum Beginn einer Gewohnheit, Sucht oder Tradition? • Unter welchen Bedingungen wird eine Gewohnheit, Sucht oder Tradition fortgeführt? • Wann wird eine Gewohnheit, Sucht oder Tradition abgebrochen? • Welche Rolle spielen Preise und Einkommen bei durch Gewohnheiten, Süchte oder Traditionen bedingtem Konsum?

154

8 Sucht, Gewohnheit und Tradition

Dazu wird wird zuerst eine Abgrenzung zwischen Sucht, Gewohnheit und klassischem Konsumverhalten vorgenommen (Abschnitt 8.1). Dies geschieht anhand von Merkmalen (Verstärkungseffekt, Toleranzeffekt, Entzugssymptomatik, Kontrollverlust), die typischerweise beim Konsum normaler Güter (vgl. Abschnitt 5.1.3 im ersten Band) wie z.B. Lebensmitteln oder Benzin nicht auftauchen. Geht es nun darum, zeitliche Konsummuster von Gütern zu modellieren, die durch die genannten Merkmale charakterisiert werden können, so spielen vor allem Annahmen bezüglich des Menschenbildes und damit Postulate über die Präferenzen und die Rationalität des Konsumenten eine Rolle (Abschnitt 8.2). Hierbei können verschiedene Klassen von Gewohnheitsmodellen unterschieden werden, die aufgrund des jeweils spezifizierten Zeitbezugs als statische und dynamische Modelle bezeichnet werden. Werden diese Überlegungen mit Sozialisationsprozessen kombiniert, so lassen sich zudem Traditionen erfassen. Obwohl sich Gewohnheitsmodelle prinzipiell dafür eignen, vermeintlich „irrationale“ Verhaltensweisen in die Rational-Choice-Perspektive zu integrieren, ist die empirische Prüfung dieser Ansätze vor allem aus methodologischer Sicht mit Problemen verbunden. Einige dieser Probleme werden im Rahmen einer Präsentation empirischer Befunde zu den jeweiligen Ansätzen diskutiert (Abschnitt 8.3). Beschlossen wird der Beitrag durch eine kurze Zusammenfassung der wesentlichen Erkenntnisse. Darüber hinaus wird eine kritische Bewertung der zuvor geschilderten Ansätze vorgenommen und zudem auf mögliche Anknüpfungspunkte zu alternativen oder komplementären Erklärungen für die genannten Phänomene eingegangen (Abschnitt 8.4).

8.1 Konzepte und Begriffe Anders als Fachbegriffe wie z.B. „vollständige Rationalität“ werden die Begriffe Gewohnheit, Sucht und Tradition vor allem alltagssprachlich gebraucht. Üblicherweise spricht man im Alltag dann von einer Sucht, wenn die süchtige Person sich selbst und/oder Anderen durch ihr Verhalten schadet. Kennzeichnend sind neben dem Verlangen nach der süchtig machenden Substanz bzw. Aktivität der Wunsch wie auch die Unfähigkeit, das Suchtverhalten zu beenden. Als Gewohnheiten werden dagegen im Zeitverlauf wiederholte Handlungen bezeichnet, bei denen der Akteur sein Verhalten hinreichend unter Kontrolle hat. Dies wiederum bemisst sich vor allem daran, dass der Akteur sich oder Anderen durch sein Verhalten keinen Schaden zufügt. Offensichtlich lassen sich allerdings zahlreiche Beispiele für Verhaltensweisen finden, bei denen unklar ist, ob Gewohnheit, Sucht oder keines von beiden vorliegt. So trinken z.B. sehr viele Menschen regelmäßig Alkohol, ohne dadurch mit dem eigenen oder dem Wohl Anderer in Konflikt zu geraten. Nur diejenigen Konsumenten, die z.B. Unfälle im Straßenverkehr verursachen oder betrunken zur Arbeit erscheinen, gelten im Sinne der obigen Ausführungen als süchtig. Mit dem Begriff der Tradition wird meistens suggeriert, dass bestimmte Verhaltensweisen Generationen zurückliegende kulturelle Wurzeln haben. Wie Hobsbawm und Ranger (1992) aufzeigen, sind jedoch viele Traditionen relativ jung und zudem auch nicht immer auf „echte“ kulturelle Wurzeln zurückzuführen. Beispielsweise hat das Tragen von Trachten auf dem Münchner Oktoberfest nichts mit der über 200-jährigen Geschichte des Oktoberfests zu tun. Es handelt sich vielmehr um eine Erfindung des Münchner Stadtmarketings aus den 1960er Jahren, die anlässlich der Bewerbung für die Olympischen Spiele von 1972 erfolgte (Tomas 2010).

8.1 Konzepte und Begriffe

155

8.1.1 Definition von Gewohnheitskonsum Sinnvoller als eine Orientierung an der alltagssprachlichen Verwendung der Begriffe erscheint es, nach Gemeinsamkeiten all derjenigen Verhaltensweisen zu suchen, die als Gewohnheit, Sucht oder Tradition aufzufassen sind. Hierfür wird zuerst eine Umschreibung des Begriffs Gewohnheit vorgenommen, von der dann der Begriff der Sucht abgegrenzt wird. Auch Traditionen können auf individuelle Gewohnheiten zurückgeführt werden. Denkbar sind jedoch auch davon abweichende Vorgehensweisen, die ebenfalls skizziert werden. Im allgemeinsten Sinne bezeichnet Gewohnheit die Neigung, eine bereits zuvor ausgeführte, nutzenstiftende Handlung zu wiederholen. Charakteristisch ist dabei, dass diese Neigung umso größer ist, je öfter bzw. je intensiver die jeweilige Handlung zuvor ausgeführt wurde. Dieser Aspekt von Gewohnheiten wird auch als „Verstärkungseffekt“ bezeichnet. Während eine Definition über den Verstärkungseffekt sowohl für den Konsum als auch für Aktivitäten, die nicht direkt an den Konsum bestimmter Substanzen gebunden sind (z.B. Glücksspiel, Sport oder das Hören von Musik), sinnvoll erscheint, eignen sich die folgenden Merkmale vor allem dazu, Substanzen zu identifizieren, bei denen ein Gewohnheitskonsum zu erwarten ist. „Toleranzeffekte“ führen einerseits dazu, dass bei wiederholtem Konsum immer höhere Dosierungen notwendig sind, um ein bestimmtes Nutzenniveau zu erreichen. Andererseits äußern sich Toleranzeffekte auch dahingehend, dass z.B. langjährige Konsumenten entsprechender Substanzen in der Lage sind, Dosierungen zu verkraften, die für den Einsteiger tödlich wären. Ebenfalls charakteristisch für solche Substanzen sind „Entzugssymptome“, wobei hier zwischen körperlichen und psychischen Entzugserscheinungen unterschieden wird. Während körperliche Entzugssymptome (wie z.B. zitternde Hände bei Alkoholikern in Abstinenzphasen) relativ einfach zu definieren sind, werden psychische Entzugserscheinungen über das Verlangen („craving“) definiert. Elster und Skog (1999) betonen dabei insbesondere die Verknüpfung des Gewohnheitsverhaltens mit harmlosen Alltagsroutinen: „He [einer der Autoren] always had an excuse for smoking. In addition, smoking became a ritual that served to highlight salient aspects of experience and to impose structure on what would otherwise have been a confusing morass of events. [...] This craving for cigarettes amounts to a desire for order and control, not for nicotine.“ (Elster und Skog 1999: 13f.)

Insofern beziehen sich Entzugssymptome auf Effekte des Nicht-Konsums bestimmter Substanzen, die ausschließlich Konsumenten betreffen, die bereits eine stark ausgeprägte Gewohnheit bezüglich der jeweiligen Substanz aufweisen.

8.1.2 Definition von Suchtkonsum Sucht kann von Gewohnheit insbesondere auf zwei Arten abgegrenzt werden: Einerseits kann im Sinne von Becker und Murphy (1988) Sucht als eine besonders starke und auch schädliche1 Gewohnheit definiert werden. Andererseits kann Sucht durch ein weiteres Merk1 Als

Beispiel für eine unschädliche Gewohnheit verweisen Stigler und Becker (1977) auf den Genuss klassischer Musik. Formal ist das Merkmal einer „beneficial addiction“ ein mit dem Gewohnheitskapitalstock (siehe unten) zunehmender Grenznutzen des Gewohnheitskonsums. Für den Genuss klassischer Musik gilt damit, dass z.B. der Nutzen eines Konzertbesuchs mit der Anzahl vorangegangener Konzertbesuche steigt.

156

8 Sucht, Gewohnheit und Tradition

mal von Gewohnheit abgegrenzt werden. Dabei handelt es sich, alltagssprachlich bezeichnet, um Kontrollverlust oder Ungeduld. So mag es wohl den meisten Rauchern schwer fallen, mit dem Rauchen aufzuhören. Süchtige Raucher im Sinne der obigen Überlegungen sind jedoch nur diejenigen, die trotz des Vorsatzes aufzuhören nach ein paar Tagen oder Wochen der Abstinenz wieder zur Zigarette greifen. Entscheidend ist hierbei also, dass einmal für die Zukunft getroffene Entscheidungen im Zeitverlauf revidiert werden.

8.1.3 Abwechslung und Gewohnheit Gerade aus konsumsoziologischer Sicht ist es nahe liegend, dass neben Gewohnheit auch Abwechslung als deren Gegenteil eine wichtige Rolle spielt. So zeigt die Existenz eines riesigen Warenangebots, dessen Güter sich oft nur geringfügig voneinander unterscheiden, dass auch ein Bedürfnis nach Abwechslung besteht. Die bereits von Hume (1739) geäußerte Vermutung, dass wiederholte Verhaltensweisen nicht nur Gewohnheiten, sondern ebenso das Verlangen nach Abwechslung befördern, erscheint auch intuitiv plausibel. Dieser Widerspruch kann theoretisch aufgelöst werden, wenn stets nur eine bestimmte Zeitperiode betrachtet wird. Von einer Gewohnheit wird gesprochen, wenn der Konsum eines Gutes in zwei aufeinander folgenden Zeitperioden komplementär ist (Ryder und Heal 1973). Sind die Konsumakte in zwei benachbarten Perioden jedoch Substitute, spricht man von Abwechslung.2 Werden also Wochen betrachtet und kauft ein Konsument jeden Sonntag eine Zeitung, so liegt eine Gewohnheit des Zeitungskaufs vor. Werden jedoch Tage betrachtet, so liegt die Gewohnheit nicht vor und der Kauf einer Zeitung ist eine Abwechslung vom üblichen Nicht-Kauf. In diesem Sinne kann davon ausgegangen werden, dass alle Handlungen und Güter sowohl gewohnheitsbildend als auch abwechslungsfördernd zu anderen Handlungen sind. So wird z.B. auch ein schwerstsüchtiger Heroinkonsument kurz nach einer Injektion keinen weiteren Konsum verlangen oder ein großer Fan einer Fernsehserie nach dem Betrachten einer Folge vorerst etwas Anderes tun wollen. Ob für ein bestimmtes Gut oder ein bestimmtes Verhalten eher eine Gewohnheit oder eher Abwechslung vorliegt, muss daher jeweils empirisch vor dem Hintergrund eines bestimmten zeitlichen Analyserahmens entschieden werden.

8.1.4 Traditionen Ausgehend von diesem weit gefassten Konzept des Gewohnheits- bzw. Suchtkonsums lassen sich Konsumtraditionen als kollektive Präferenzen für bestimmte Gewohnheiten auffassen. Diese kollektiven Gewohnheiten haben dabei schon bestanden, bevor ein bestimmtes Individuum die Gewohnheit übernimmt und die Tradition damit weiter trägt. Wesentlich für diesen Traditionsbegriff ist deshalb die Benennung von Randbedingungen, die zur Herausbildung und insbesondere der Weitergabe kollektiver Gewohnheiten führen. Nur so kann nach Stigler und Becker (1977: 78) gewährleistet werden, dass die interessierenden Phänomene tatsächlich erklärt werden. Die Annahme von Präferenzänderungen ist ohne Erklärungskraft, weil dadurch Tür und Tor für beliebige ad hoc Argumentationen ohne jeden Informationsgehalt geöffnet werden. Entsprechend sind der Beginn oder auch der Abbruch von z.B. Nahrungstraditionen oft auf Änderungen von spezifischen Randbedingungen zurückzuführen. So ist die Etablierung des Käsefondues als Schweizer Nationalspeise u.a. 2 Zu

Komplementen und Substituten siehe Abschnitt 5.1.3 im ersten Band.

8.2 Theoretische Überlegungen

157

eng mit einer Marketingstrategie der Schweizer Käsehersteller von 1952 verbunden (Berger 2003). Explizit nicht als traditioneller Konsum betrachtet werden dabei Konsumentscheidungen, die ausschließlich institutionell vorgegeben und mit legitimierten oder sogar legalen Sanktionen erzwingbar sind. Dazu können etwa Nahrungstabus zählen. Damit gehört traditionales Handeln im Sinne von Weber (1921/22) nur bedingt zum traditionellen Handeln. Einerseits schreibt auch Weber dem traditionalen Handeln eine große Bedeutung zu und unterstellt ein ähnliches Handlungsmodell. Andererseits steht traditionales Handeln bei Weber in direktem Gegensatz zu zweckrationalem Handeln und damit zu der hier unterstellten Annahme wie auch immer gearteten rationalen Handelns. Außerdem ist im Weber’schen traditionalen Handeln auch und gerade institutionell verankertes Handeln enthalten. So handelt es sich bei Weihnachtseinkäufen nur dann um traditionellen Konsum im hier verwendeten Sinn, wenn diese nicht durch kanonisches Recht erzwungen, sondern höchstens ausgelöst werden, um das Weber’sche „Befremden“ der Verwandtschaft zu vermeiden. Die Grenzen sind hier aber fließend. Viele Formen traditionellen Konsums, die nach Weber eindeutig als traditionales Handeln zu kategorisieren wären – z.B. die erwähnten Nahrungstabus – können auch als Resultat rationalen Handelns erklärt werden (siehe unten und Harris 1998). Weiterhin ist traditioneller Konsum auch mit Konformität (siehe Kapitel 7 und 9 in diesem Band) verbunden und oft nicht eindeutig davon abgrenzbar.

8.2 Theoretische Überlegungen Modelle, die gewohnheitsmäßiges Handeln annehmen und/oder prognostizieren, existieren in verschiedener Form. Je nachdem, wie groß die Bedeutung ist, die dem Rational-ChoiceParadigma beigemessen wird, lassen sich dabei unterschiedliche Strukturierungen für die theoretischen Ansätze vornehmen (Elster und Skog 1999; Chaloupka, Tauras und Grossman 2000). Sinnvoll erscheint eine Unterteilung in statische Modelle, welche die zeitliche Einbettung von Konsumentscheidungen ausblenden, und dynamische Modelle, bei denen diese zeitliche Einbettung explizit modelliert wird. Sofern es Traditionen – wie sie im Rahmen dieses Kapitels aufgefasst werden – betrifft, existieren hierzu bislang noch keine expliziten Modelle. Deshalb geht es bei der Modellierung von Traditionen in erster Linie darum, die zuvor skizzierten Überlegungen zum Gewohnheits- und Suchtkonsum auf eine sinnvolle Art und Weise mit Ansätzen zur Herausbildung von Gewohnheiten bzw. zur Erklärung von Kollektivverhalten zu verknüpfen.

8.2.1 Statische Gewohnheitsmodelle Eine erste Klasse von statischen Gewohnheitsmodellen sind „Satisficing“ 3 -Modelle. Gemeinsamer Ausgangspunkt dieser Modelle ist die auf Herbert Simon (z.B. 1955) zurückgehende Annahme, dass Konsumenten mehr oder weniger beschränkt rational handeln und sich mit genügenden, aber nicht unbedingt optimalen Handlungsalternativen zufrieden geben (vgl. Abschnitt 9.1.2 im ersten Band). Es handelt sich dabei zwar um allgemeine Verhaltensmodelle, die jedoch für viele konkrete Situationen Handlungen voraussagen, die als Gewohnheiten interpretiert werden können. Satisficing-Modelle unterstellen, dass sich 3 Das

Wort ist eine Zusammenbildung aus „satisfying“ (befriedigend) und „suffice“ (genügen).

158

8 Sucht, Gewohnheit und Tradition

Konsumenten immer nach der folgenden Regel verhalten: Wiederhole befriedigende Konsumentscheidungen so lange, wie die Restriktionen dies erlauben. Preis- und Einkommensänderungen haben in diesen Modellen oft andere Konsequenzen als in den ökonomischen Standardmodellen. Manche Modelle prognostizieren z.B., dass die Preiselastizität der Nachfrage (vgl. Abschnitt 4.1.3 im ersten Band) nach einem Gut oder einer Dienstleistung von der Richtung der Preisänderung abhängt. Da die Preiselastizität von Gewohnheitsgütern bei Preiserhöhungen dann höher ist als bei Preissenkungen, führt dies dazu, dass bei Preiszyklen, die u.a. durch saisonale Effekte verursacht werden, nach Abschluss der Zyklen nicht die Ausgangskonsummenge, sondern eine geringere Menge konsumiert wird, obgleich der Preis wieder dem Ausgangspreis entspricht (Berger 2003; Eisenhauer 1996). Eine weitere Klasse von statischen Gewohnheitsmodellen bilden sogenannte FramingModelle (z.B. Esser 1990; Kroneberg 2007; Lindenberg 1993). Obschon diese unter den soziologischen Handlungstheorien einen prominenten Platz einnehmen, sind sie zur Erklärung von Gewohnheiten kaum geeignet. Gewohnheiten werden in diesen Modellen als „irrationale“ Handlungen verstanden, die durch bestimmte Umgebungsreize ausgelöst werden, und dann unbeeinflussbar und automatisch ablaufen. Sowohl der Beginn als auch der Abbruch von Gewohnheiten können damit nicht endogen im Modell erklärt werden. Möglich sind lediglich nachträgliche Zuweisungen von Verhaltensweisen zu Umgebungsreizen.

8.2.2 Dynamische Gewohnheitsmodelle Modelle dynamischer Gewohnheitsbildung unterscheiden sich im Hinblick auf den Grad der Rationalität, der für die Akteure unterstellt wird. Bei Modellen mit „myopischen“ – d.h. kurzsichtigen, nicht vorausschauend handelnden – Akteuren werden gegenwärtige Konsumentscheidungen zum Teil durch vergangene Konsumentscheidungen determiniert. Vernachlässigt werden im Kalkül des Akteurs jedoch die zukünftigen Folgen des gegenwärtigen Handelns. Dies wiederum äußert sich formal durch das Fehlen von Termen mit Zukunftsbezug in der Nutzenfunktion. Viele dieser Modelle fassen Gewohnheitsbildung im Sinne einer endogenen – d.h. auf den Gewohnheitskonsum selbst zurückzuführenden – Präferenzänderung auf. Charakteristisch für einige dieser Modelle ist, dass vergangener Konsum den gegenwärtigen Konsum durch einen sogenannten Gewohnheitskapitalstock (Abschnitt 8.2.3) beeinflusst (Houthakker und Taylor 1966). Vollständig rationale Akteure berücksichtigen darüber hinaus auch die zukünftigen Folgen ihres gegenwärtigen Handelns. Deutlich wird der Unterschied zwischen vollständig rationalen und myopischen Akteuren z.B. dann, wenn die Anfangsphase einer Gewohnheit durch exogene Einflussfaktoren (d.h. Ursachen, die im Gewohnheitsmodell selbst nicht auftauchen) beeinflusst wird. Der Unterschied kann an einem Beispiel illustriert werden: DVD-Veröffentlichungen der ersten Staffel von Fernsehserien sind oft deutlich billiger als die folgenden Staffeln. Für myopische Akteure ist dies ohne Belang. Sie orientieren sich bei ihren Kaufentscheidung nur an der Vergangenheit und an der Gegenwart und werden eine DVD kaufen, wenn der gegenwärtiger Preis dafür nicht zu hoch ist. Dass sie durch den Konsum der DVD eine Gewohnheit entwickeln können, die sie dazu bringen wird, die teureren DVDs der späteren Staffeln ebenfalls zu kaufen, fließt nicht in ihre Entscheidung ein. Im Gegensatz zu myopischen Akteuren sind vollständig rationale Akteure sich bewusst, dass sie eine einmal begonnene Fernsehserie auch zu Ende sehen wollen und deshalb

159

8.2 Theoretische Überlegungen

nicht nur die gegenwärtigen Kosten (der 1. Staffel), sondern auch die zukünftigen Kosten (der folgenden Staffeln) ihres gegenwärtigen Handelns zu tragen haben werden. Für vollständig rationale Akteure bedeutet dies, dass bereits mit dem Beginn einer Gewohnheit ein optimaler Konsumpfad gewählt wird, der nur bei unvorhergesehenen Änderungen der Randbedingungen (z.B. Lottogewinn, Preiserhöhung bei späteren Staffeln im DVDBeispiel) noch einmal revidiert wird (z.B. indem die DVDs der späteren Staffeln entgegen dem anfänglichen Plan gekauft bzw. nicht gekauft werden). Eine Gewohnheit wird dann also aus einem Nutzenkalkül selbsttätig aufrechterhalten und fortgeführt, solange dies nicht durch exogene Restriktionen unterbunden wird. Frühe Beispiele solcher Modelle stammen von Ryder und Heal (1973) und Boyer (1978). Hier beschränken wir uns auf das prominente Modell von Becker und Murphy (1988).

8.2.3 Formale Aspekte dynamischer Gewohnheitsmodelle Sowohl für myopische Akteure als auch für vollständig rationale Akteure gilt, dass der gegenwärtige Konsum eines Gewohnheitsgutes von vergangenen Konsumentscheidungen abhängt. Deshalb gilt für den gegenwärtigen Konsum c(t) eines Gewohnheitsgutes: c(t) = α + βS(t) + γ1 x1 (t) + γ2 x2 (t) · · · + γk xk (t), wobei es sich bei x1 , x2 , . . . xk um exogene Einflussfaktoren handelt, die c(t) sowohl direkt als auch indirekt über S(t), den Gewohnheitskapitalstock zum Zeitpunkt t, beeinflussen. Der Gewohnheitskapitalstock ist dabei definiert als die Summe aller vorhergehenden Konsumakte c(τ ) mit der Eigenschaft τ < t abzüglich einer Abschreibung mit der konstanten Rate δ pro Zeitperiode. Er dokumentiert die Konsumgeschichte des Individuums und wird formal wie folgt dargestellt: S(t) = S0 e−δt +

Z

t

e−δ(t−τ ) c(τ )dτ.

0

D.h. es wird davon ausgegangen, dass der Gewohnheitskapitalstock und damit auch die Gewohnheit eines bestimmten Konsums mit dem Umfang der vergangenen Konsumakte zunimmt. Länger zurückliegende Konsumakte haben dabei aber aufgrund von δ > 0 einen geringeren Einfluss auf die Gewohnheitsbildung, als solche, die gerade erst passiert sind. Der Modellakteur maximiert nun seinen Nutzen unter Berücksichtigung seiner Budgetbeschränkung. Myopische und vollständig rationale Akteure unterscheiden sich in dieser Modellierung derart, dass bei Ersteren nur der gegenwärtige Nutzen des Gewohnheitskonsums und bei Letzteren der gesamte, auch zukünftige Nutzen des Gewohnheitskonsums berücksichtigt wird. Der Nutzen wird dabei als Funktion des gegenwärtigen Konsums c(t) des Gewohnheitsgutes, des gegenwärtigen Konsums z(t) weiterer nicht gewohnheitsbildender Güter und des Gewohnheitskapitalstocks S(t) ausgedrückt: u(t) = u(c(t), z(t), S(t)). Beide Fälle können im Rahmen des Modells von Becker und Murphy (1988) spezifiziert werden. Für den Verlauf dieser Funktion gilt Konkavität in c, z und S, d.h. ein höherer Konsum c(t) impliziert ein höheres Nutzenniveau, wobei der absolute Nutzenzuwachs einer zusätzli-

160

8 Sucht, Gewohnheit und Tradition

chen Konsumeinheit mit der Höhe des Konsums sinkt (abnehmender Grenznutzen); genauso verhält es sich für den Konsum nicht gewohnheitsbildender Güter z(t). Eine zusätzliche Konsumeinheit hat außerdem einen höheren Nutzen, je größer der Gewohnheitskapitalstock ist (Verstärkungseffekt). Dagegen gilt für S(t): Mit steigendem Gewohnheitskapitalstock sinkt der Nutzen pro zusätzlicher Einheit (Toleranzeffekt). Und weil sich Gewohnheiten im Zeitverlauf bilden, wird darüber hinaus unterstellt, dass die Nutzenfunktion nicht in der Zeit separiert bzw. für einzelne Perioden formuliert werden kann, ohne vergangene Konsumakte zu berücksichtigen. Bezogen auf das obige DVD-Beispiel kann der Verstärkungseffekt so interpretiert werden, dass das Ansehen späterer Folgen einer Fernsehserie mehr Spaß macht, wenn der Zuschauer über entsprechendes Vorwissen aus früheren Folgen verfügt. Allerdings ist der Zuwachs dieses Spaßes zu Beginn größer als zu späteren Zeitpunkten (Toleranzeffekt). Demnach wirkt sich Gewohnheitskapital S(t) sowohl positiv als auch negativ auf den Nutzen u(t) aus. Entzugssymptome schließlich ergeben sich dahingehend, dass der Nutzen fällt, sobald der Konsum des Gewohnheitsgutes aufgegeben wird. Um den Nutzen des Gewohnheitskonsums zu maximieren bzw. um den optimalen Konsumpfad im Zeitverlauf zu finden, wird zunächst das Integral Z U=

T

e−σt u(c(t), S(t), z(t))dt

0

gebildet. Hierbei handelt es sich um einen Ausdruck für den gesamten Nutzen, den ein Akteur im Laufe seines Lebens in Abhängigkeit von Konsumentscheidungen erzielt. Entscheidend ist dabei, dass zukünftiger Nutzen exponentiell abdiskontiert wird, wobei kleine (große) Werte von σ eine niedrige (hohe) Gegenwartspräferenz repräsentieren.4 Zukünftiger Nutzen weist dabei generell einen niedrigeren Wert in der Gegenwart auf. Für dieses Integral wird dann unter der Nebenbedingung einer intertemporalen Budgetbeschränkung, die neben zukünftigen Preisentwicklungen des Gewohnheitsgutes und Einkommensveränderungen im Zeitverlauf auch die Akkumulation von Gewohnheitskapital berücksichtigt, der optimale Konsumpfad über die Zeit bestimmt. In der einfachsten Form (vgl. Chaloupka, Tauras und Grossman 2000) lautet eine notwendige Bedingung für ein Maximum dann: ∂U (t) = µπc (t). ∂c(t) Dabei steht µ für den Grenznutzen des Vermögens bzw. der Erhöhung von z(t) um eine Einheit, wohingegen πc (t) den vollen Preis (also inklusive der Nutzeneinbußen durch S) des Gewohnheitskonsums repräsentiert. Somit gilt, dass auf dem optimalen Konsumpfad der Grenznutzen des Gewohnheitskonsums ∂U (t)/∂c(t) zu jedem Zeitpunkt dem Schattenpreis des Gewohnheitskonsums (in Nutzeneinheiten) entspricht. Der optimierende Akteur befindet sich auf einem gleichgewichtigen Wachstumspfad, der auch „steady state“ (vgl. Abschnitt 4.2.5 im ersten Band) genannt wird. Diesen wird er nicht aus eigenem Antrieb verlassen. Der entsprechende Gewohnheitskonsum wird dann stabil und selbsttätig aufrechterhalten, solange nicht exogene Schocks (z.B. durch unvorhergesehene Preiserhöhungen) dies unterbinden. Insgesamt umfasst das Modell von Becker und Murphy (1988) sowohl gewöhnliches Konsumverhalten (ohne Einfluss des Gewohnheitskapitals) als auch myopisches Verhalten 4 Für

myopisches Verhalten wird eine unendlich große Gegenwartspräferenz (σ = ∞) unterstellt.

8.2 Theoretische Überlegungen

161

(σ = ∞) als Spezialfälle. Ungeduld im Sinne, dass die kurzfristigen Präferenzen für die nahe Zukunft nicht den langfristigen der ferneren entsprechen, ist jedoch ausgeschlossen, weil die Autoren bei der Nutzenfunktion eine exponentielle Diskontierung mit gegebener konstanter Rate unterstellen. Die Ordnung bestimmter Ereignisse im Hinblick auf ihren Nutzen im Zeitverlauf verändert sich also nicht (Berger 2003: 101ff.). Dies sollte sich u.a. in der konsequenten Umsetzung von Vorsätzen zeigen. Die Annahme perfekter Voraussicht ist allerdings äußerst unrealistisch. Reale Individuen können normalerweise weder zukünftige Preis- und Einkommensentwicklungen abschätzen noch sind sie sich der möglichen Konsequenzen ihres Handelns hinreichend bewusst (Skog 1999). Dies zeigt sich z.B. auch daran, dass Entwöhnungsversuche bei Rauchern eine relativ hohe Rückfallquote aufweisen (Hunt, Barnett und Branch 1971). Für Verfeinerungen des Modells von Becker und Murphy (1988) wird deshalb die Annahme einer exponentiellen Zeitdiskontierung gelockert. Nun kann sich die Ordnung zeitlich versetzter Ereignisse bezüglich ihres Nutzens mit der Dauer bis zum Eintreten dieser Ereignisse verändern. Formal lässt sich das Modell von Becker und Murphy erweitern, wenn man zwar eine exponentielle Diskontierung unterstellt, aber eine endogene (d.h. in Abhängigkeit des Gewohnheitskapitalstocks) Anpassung der Zeitpräferenzrate σ erlaubt (Braun und Vanini 2003). Denkbar sind aber auch Ansätze, bei denen grundsätzlich keine exponentielle Diskontierung erfolgt. Diesen Weg gehen z.B. Gruber und Köszegi (2001), die das Modell durch quasi-hyperbolische Diskontierung im Sinne von Laibson (1997) erweitern. Eine andere Möglichkeit besteht darin, Gewohnheiten als Lernprozesse bei unvollständiger Information zu modellieren (Orphanides und Zervos 1995).

8.2.4 Theoretische Überlegungen zu Traditionen Im Gegensatz zu den bisherigen Darstellungen existieren zur Untersuchung von Traditionen keine formalen Modelle. Ausgehend von den theoretischen Überlegungen zu Gewohnheit und Sucht können aber einige Hypothesen formuliert werden, die auch einer empirischen Prüfung zugänglich sind. Ausgangspunkt ist dabei jeweils die Annahme, dass jede Tradition zwangsläufig mit einer individuellen Gewohnheit einhergehen muss. Damit gilt es zu erklären, unter welchen Bedingungen Gewohnheiten innerhalb großer Gruppen simultan aufgenommen und an folgende Generationen weitergegeben werden. Während für die simultane Aufnahme von Gewohnheiten oft exogene Einflüsse, wie z.B. im Falle des Zigarettenrauchens die Erfindung der Bonsack-Zigarettenmaschine im Jahre 1881 und die damit verbundenen Möglichkeiten der Massenproduktion von Zigaretten, ausschlaggebend sind, konzentriert sich die Weitergabe von Traditionen in erster Linie auf Sozialisationsinstitutionen wie z.B. die Familie oder auch die Schule. Dort kann es unter bestimmten Voraussetzungen zur Herausbildung von Präferenzen von Kindern und Jugendlichen kommen. Dies gilt z.B. für die Tradition, sich zu Weihnachten zu beschenken, die von Kindern meist bereitwillig übernommen wird, da die Kosten für Geschenke zu einem Großteil von den Erwachsenen getragen werden. Aber auch Traditionen im Essverhalten können so erklärt werden, da die im Haushalt verfügbaren Speisen umsonst konsumiert werden können bzw. mangels Alternativen auch konsumiert werden müssen. Dadurch gewöhnen sich Kinder an das Essverhalten der Eltern und übernehmen so deren Ernährungstraditionen (von Ferber 1980). So können sich unterschiedliche und nachhaltige Ernährungstraditionen ergeben. In Abhängigkeit von den jeweiligen Umweltrestriktionen werden z.B. tierische Proteine entweder in Form von Fleisch, als Milchprodukte

162

8 Sucht, Gewohnheit und Tradition

oder in Form von Fisch und Meeresfrüchten konsumiert. Wer eine bestimmte Konsumtradition verfolgt, dem erscheinen andere Traditionen oftmals wenig einladend oder sogar ekelerregend (Berger 2003: 256f.). So essen Amerikaner gerne Rindfleisch, der Verzehr von Pferdefleisch erscheint ihnen dagegen völlig abwegig. In Europa wird durchaus Pferdefleisch gegessen, dafür aber keine Schlangen. Diese wiederum stehen in Teilen Asiens auf der Speisekarte, während von Hindus keine Rinder gegessen werden und gläubige Moslems und Juden auf den Konsum von Schweinefleisch verzichten. Wichtig ist, dass in dem skizzierten Modell die Aufrechterhaltung einer Tradition nicht direkt von ideologischen und religiösen Geboten ausgeht. Vielmehr werden sich solche Geund Verbote so lange nachhaltig durchsetzen, wie sie mit einer sich selbst erhaltenden individuellen Konsumgewohnheit vereinbar sind. Das heißt, Schweine werden so lange nicht gegessen, wie der Nutzen des Schweinefleischkonsums auch durch den gewohnheitsmäßigen Konsum von Schaf- und Hühnerfleisch erzielt werden kann. Wenn sich also die Kostenstruktur einer bestimmten Tradition nachhaltig ändert (z.B. wenn Schaf- und Hühnerfleisch sehr teuer und Schweinefleisch dagegen sehr billig wird), wird sich auch die Tradition ändern (Shils 1981). Harris (1998) führt dafür Beispiele an, bei denen dann auch strenge religiöse Nahrungstabus unterlaufen werden. Aus den skizzierten Überlegungen lassen sich nun einige Hypothesen ableiten, die wirtschaftssoziologische Implikationen haben. Prinzipiell gibt es dazu zwei Ausgangspunkte: Gewohnheitskapital als individuelle Größe: Hier müssen Gewohnheiten durch individuellen Konsum selbst erworben werden. Diese Modellierung entspricht dem oben skizzierten Gewohnheits- und Suchtmodell. Zudem kann der Gewohnheitskapitalstock als Korrelat zu entsprechenden neurophysiologischen Prozessen interpretiert werden. Gewohnheitskapital als kollektive Größe: Hierbei wird modellhaft unterstellt, dass Gewohnheitskapital nicht auf ein Individuum beschränkt ist. Vielmehr kann angenommen werden, dass ein Gewohnheitskapitalstock – der dann tatsächlich ein Traditionskapitalstock ist – auf die Mitglieder einer ganzen Gruppe wirkt und auch von den Mitgliedern dieser ganzen Gruppe aufrechterhalten wird. Hier kann es auch zu einer exogenen Erhöhung des individuellen Gewohnheitskapitalstocks (z.B. durch die Eltern) kommen, die dazu führt, dass das jeweilige Verhalten zum gewohnheitsmäßigen Selbstläufer wird, ohne dass das Individuum vorgängig entsprechende Konsumakte hatte. Der mit der Tradition verbundene Gewohnheitskonsum wird dann direkt vererbt. Das Konzept eines solchen kollektiven Gewohnheitskapitalstocks findet sich bereits bei Veblen (1899). Es kann z.B. als modellhaftes Korrelat für den Nutzen interpretiert werden, den man durch die Befriedigung und Sicherheit erfährt, die mit der Fortführung einer Tradition verbunden sind. Prinzipiell können auch auf einen kollektiven Gewohnheitskapitalstock dieselben Konzepte angewendet werden, die bei individuellem Gewohnheitskapital zur Anwendung kommen. Allerdings ist dies mit einigen bisher ungeklärten Problemen verbunden. So ist z.B. unklar, wessen Nutzen durch wen maximiert wird und auf wen sich der „steady state“ bezieht. Prinzipiell kann aber nach der „black box“-Interpretation von theoretischen Modellen verfahren werden (vgl. Abschnitt 4.2.3. im ersten Band; Friedman 1953), die ausschließlich auf die empirische Gültigkeit von abgeleiteten Hypothesen und nicht auf den Wahrheitsgehalt der Annahmen abstellt. Wie die folgende Liste zeigt, führen die unterschiedlichen Annahmen bezüglich der Modellierung des Gewohnheitskapitals zu überprüfbaren Hypothesen. Diese schließen sich

8.2 Theoretische Überlegungen

163

zudem weitgehend gegenseitig aus, so dass das empirisch besser zutreffende Modell prinzipiell bestimmt werden könnte (Berger 2003: 257ff.): A. Traditionen und individuelles Gewohnheitskapital • Traditionen können nur zwischen koexistierenden Generationen weitergegeben werden. Ausgeschlossen ist dadurch z.B., dass Kinder Gewohnheiten der Ururgroßeltern übernehmen. • Die bisherige Dauer einer Tradition hat keinen Einfluss auf deren Weiterbestehen. Eine uralte Tradition kann deshalb ebenso schnell aussterben wie eine relativ junge Tradition. • Umgekehrt können sich junge Traditionen ebenso schnell verbreiten und ebenso stark sein wie alte, die schon viele Generationen existieren. Da sie bisher nur wenige individuelle Gewohnheiten entwickelt haben, sind vor allem Kinder für die Initiierung neuer Traditionen empfänglich. • Es ist relativ einfach, mit jeder traditionstragenden Generation die inhaltliche Begründung bzw. den Sinn einer Tradition zu wechseln, da die ursprüngliche ideelle Begründung für die Aufrechterhaltung der Tradition bedeutungslos ist. So kann und muss der Verzicht auf den Konsum von Schweinefleisch bei Juden und Moslems heute nicht mehr gesundheitlich begründet werden. B. Traditionen und kollektives Gewohnheitskapital • Traditionen sind umso stärker, je länger sie schon existieren. • Traditionen sind umso stärker, je größer das Kollektiv ist, worauf sich die Tradition bezieht. Unter beiden Bedingungen wächst dadurch der kollektive Gewohnheitskapitalstock an und führt zu entsprechend stabilen traditionsbedingten Gewohnheiten bei den Mitgliedern der Gruppe, auf die sich die Tradition bezieht. Dies bedeutet, dass sich Traditionen in großen und alten Kollektiven wie z.B. Indien und China ceteris paribus wesentlich langsamer ändern als in kleinen und historisch jungen Kollektiven, wie etwa Neuseeland oder Simbabwe. • Traditionen können Generationen überspringen, wenn sie vorher lange genug existiert haben. Für beide Ansätze gilt zudem die folgende Hypothese, wenn auch vermutlich in unterschiedlichem Ausmaß: • Wenn sich die relativen Kosten des traditionell konsumierten Gutes im Vergleich zu potenziellen Substituten ändern, können sich auch die Traditionen ändern. Eine Erhöhung der Kosten für eine Tradition führt dabei tendenziell zu ihrem Verschwinden, eine entsprechende Senkung zu einer Festigung der Tradition. Insgesamt sind Traditionen damit eine Art Bremsklotz, der Änderungen in den exogenen Handlungsrestriktionen und -anreizen nur verzögert auf die konkreten Handlungen wirken lässt. Die Trägheitswirkung der Tradition ist dabei durch die Stärke der Gewohnheiten bestimmt.

164

8 Sucht, Gewohnheit und Tradition

8.3 Empirische Evidenz Da das skizzierte Modell für Traditionen die definitorische Annahme voraussetzt, dass jede Tradition zwangsläufig mit einer individuellen Gewohnheit einhergeht, wird die empirische Evidenz zuerst für statische und dynamische Gewohnheitsmodelle dargestellt. Nicht berücksichtigt werden dabei empirische Studien, die den Konsum von Gewohnheitsgütern analysieren, ohne dabei explizit ein Gewohnheitsmodell zu unterstellen. Anschließend wird anhand des Zigarettenkonsums illustriert, wie es zur Aufnahme und zum Abbruch einer typischen Gewohnheit bzw. Sucht kommen kann. Abschließend wird die wenige empirische Evidenz zu Traditionsbildung dargestellt.

8.3.1 Befunde zur statischen Gewohnheitsbildung Obwohl statische Gewohnheitsmodelle von realitätsnahen Annahmen ausgehen und auch die Ableitung empirisch prüfbarer Hypothesen erlauben, existieren hierzu bislang kaum empirische Belege. Gründe hierfür sind u.a. alternative Erklärungen, die ähnliche Zusammenhänge implizieren. So trifft es sicherlich zu, dass Konsumenten, wie prognostiziert, eine starke Präferenz für Preisstabilität haben. Dies wird jedoch normalerweise durch die sogenannte Lebenszyklushypothese (Ando und Modigliani 1963) begründet, bei der unterstellt wird, dass jeder Akteur versucht, seinen Lebensstandard durch langfristige Planung über die gesamte Lebenszeit konstant zu halten. Weniger überzeugend ist dagegen die Vorhersage, dass starke Gewohnheiten dazu führen können, dass kurzfristig aus normalen Gütern inferiore oder sogar Giffen-Güter (vgl. Kapitel 7 in diesem Band) werden.

8.3.2 Befunde zur dynamischen Gewohnheitsbildung Empirisch sollten Gewohnheits- bzw. Suchtmodelle so getestet werden, dass zwischen normalem Konsumverhalten sowie zwischen myopischem und vollständig rationalem Gewohnheits-/Suchtverhalten differenziert werden kann. Eine ganze Reihe von Studien untersucht mit diesem Ziel den Konsum von verschiedenen Gütern, wobei überwiegend typische Suchtgüter wie z.B. Zigaretten, Alkohol und illegale Drogen im Fokus stehen, aber durchaus auch allgemeine Konsumausgaben untersucht werden.5 Wie eine Analyse von Zigarettenverkaufszahlen (Becker, Grossman und Murphy 1994) zeigt, weisen die empirischen Überprüfungen zahlreiche Probleme auf (Berger 2003; Blundell, Pashardes und Weber 1993; Deaton und Muellbauer 1980; Gruber und Köszegi 2001). Entscheidende methodische Probleme ergeben sich insbesondere bei der Schätzung der Konsumfunktion, die sich aus dem Modell von Becker und Murphy (1988) ableiten lässt. Diese Probleme umfassen u.a.: • Häufig werden Aggregatdaten verwendet, um Individualhypothesen zu überprüfen, so dass Fehlschlüsse nicht ausgeschlossen sind. • Statt einer konkreten Messung des Konsumverhaltens werden vermutete Korrelate davon verwendet, die fehlerbehaftet sein können. 5 Beispiele

für die Analyse einzelner Güter sind: Abbé-Decarroux 1995 (Kunst); Dynan 2000; Houthakker und Taylor 1966 (Nahrungsmittel); Olekalns und Bardsley 1996 (Kaffee); Baltagi und Levin 1986; Becker, Grossman und Murphy 1994; Chaloupka 1991 (Nikotin); Cook und Tauchen 1982; Grossman, Chaloupka und Sirtalan 1998 (Alkohol); Grossman und Chaloupka 1998 (Kokain); Uchtenhagen, DoblerMikola und Gutzwiler 1996 (Heroin).

8.3 Empirische Evidenz

165

• Die Zahl der beobachteten Perioden ist oft so gering, dass der dynamische Aspekt der Theorie nicht angemessen überprüft werden kann. Trotz dieser erheblichen Mängel lassen sich ein paar Befunde aus den Modellen ableiten, die als überwiegend bestätigt gelten können: • Gewohnheitsbildung ist bei den betrachteten Zeiträumen (Tagen bis Monaten) und Gütern häufiger als Abwechslungsverhalten. • Modelle vollständig rationaler Gewohnheits- und Suchtbildung gehen von falschen Annahmen aus. In der Realität sind die Konsumenten eher beschränkt vorausschauend. Je stärker die Gewohnheit ist, desto geringer fällt die Voraussicht aus. Stark süchtige Konsumenten zeichnen sich gerade durch eine ausgeprägte Gegenwartsorientierung aus. • Selbst stark süchtige Konsumenten von Suchtgütern reagieren systematisch auf gegenwärtige Veränderungen (wie z.B. Preisvariationen). Auch deshalb erscheint eine nähere Beschäftigung mit einer besonders verbreiteten Gewohnheit bzw. Sucht, dem Rauchen, sinnvoll.

8.3.3 Befunde zum Rauchen Gewohnheits- bzw. Suchtmodelle eignen sich vor allem dazu, die zeitlichen Verläufe von Gewohnheiten und Süchten zu erklären. Wie es dazu kommt, dass eine Gewohnheit überhaupt erst aufgenommen wird, und welche Faktoren dazu führen, dass eine Gewohnheit wieder abgelegt wird, bleibt dabei meistens ausgeblendet. Deshalb sollen im Folgenden anhand der Ergebnisse einer Studie zum Rauchverhalten in Deutschland (Wimmer 2012) einige wesentliche Faktoren, die zur Aufnahme und zum Abbruch von Gewohnheiten führen können, benannt werden. Abbildung 8.1: Einstiegsalter für Zigarettenkonsum .2

Dichte

.15

.1

.05

0 0

20

40

60

80

Einstiegsalter

Quelle: Bundes-Gesundheitssurvey von 2003. Es wurden regelmäßige Raucher, Gelegenheitsraucher und ExRaucher nach dem Einstiegsalter gefragt. Aufgrund der retrospektiv erhobenen Werte und der Tatsache, dass nur Personen ab 18 Jahren befragt wurden, sind Abweichungen zur Verteilung des Einstiegsalters bei spezifischen Geburtskohorten nicht auszuschließen.

166

8 Sucht, Gewohnheit und Tradition

Empirisch gesehen fangen fast alle Raucher vor dem 25. Lebensjahr mit dem Rauchen an, wobei sich die Verteilung des Einstiegsalters für Deutschland stark auf den Modalwert bei 16 Jahren konzentriert (vgl. Abbildung 8.1). Insgesamt werden in dieser Altersgruppe etwa die Hälfte aller Jugendlichen zu Rauchern. Der Grund dafür ist vermutlich, dass das Rauchen in dieser Altersgruppe über positive Wirkungen des Konsums6 hinaus eine symbolische Komponente aufweist, die das Rauchen besonders attraktiv macht. Vor allem fehlende Rauchverbote seitens der Eltern und ein ausreichendes Budget (Taschengeld) haben sich hier als wesentliche Faktoren für den Raucheinstieg erwiesen (vgl. Wimmer 2012). Abbildung 8.2: Anteil der aktuellen Raucher innerhalb der Jemals-Raucher nach Dauer der Raucherkarriere 1

Anteil

.8

.6

.4

Männer Frauen

.2 0

20

40

60

Dauer

Quelle: Mikrozensen 1995, 1999, 2003 und 2005; Daten gepoolt verwendet. Bei den Anteilen der aktuellen Raucher handelt es sich um Mittelwerte der Subpopulation der Jemals-Raucher.

Anders sieht es mit der Entwöhnung aus. Obwohl fast alle Raucher irgendwann einmal mit dem Rauchen aufhören, gibt es hier keinen spezifischen Zeitpunkt, zu dem der Ausstieg besonders wahrscheinlich wäre. Deutlich wird dies, wenn der Anteil der aktuellen Raucher innerhalb der Jemals-Raucher (aktuelle und ehemalige Raucher) betrachtet wird (vgl. Abbildung 8.2). Da der Raucheranteil mit der Dauer der Raucherkarriere nahezu linear abnimmt, kann davon ausgegangen werden, dass mit jedem Jahr der Raucherkarriere etwa gleich viele Raucher einer Einstiegskohorte mit dem Rauchen aufhören. Dass Raucher überhaupt aufhören möchten, hängt dabei vor allem mit den gesundheitlichen Risiken des Zigarettenrauchens zusammen. Gleichzeitig spielt aber auch der Einfluss des (Ehe-)Partners, der den Raucher entweder sanktionieren oder durch stille Zustimmung in seinem Verhalten bestärken kann, eine wichtige Rolle (vgl. Wimmer 2012). Becker und Murphy (1988: 680f.) definieren die Stärke von Gewohnheiten über den Grenznutzen des Konsums, für den sie unterstellen, dass er mit dem Gewohnheitskapital S(t) steigt. Dies wiederum ist in Relation zur Steigerung des vollen Preises des Gewohnheitskonsums zu sehen. Insofern erscheint es für praktische Anwendungen sinnvoll, genau hier anzusetzen und neben den vollen Kosten des Gewohnheitskonsums (z.B. Zigarettenpreis, Rauchverbote, gesundheitliche Probleme) auch die Stärke der Gewohnheit zu opera6 Physiologisch

gesehen hat die Aufnahme von Nikotin in erster Linie stimulierende Effekte. Trotzdem konsumieren die meisten Raucher Zigaretten, um sich – z.B. bei Stressbelastungen – zu beruhigen. Dieser Widerspruch wird auch als Nesbitts Paradox (Schachter 1973) bezeichnet.

8.3 Empirische Evidenz

167

tionalisieren. Geeignet ist dafür im Fall des Zigarettenkonsums der unter Medizinern sehr populäre Fagerström-Test (FTNA-Skala)7 zur Messung von Nikotinabhängigkeit (Fagerstöm und Schneider 1989). Hier deckt sich die empirische Evidenz mit den theoretischen Überlegungen, da der Erfolg von Entwöhnungsversuchen maßgeblich durch die Stärke der Gewohnheit beeinflusst wird. Tabelle 8.1 zeigt absolute und relative Häufigkeiten der erfolgreichen Rauchentwöhnung für verschiedene Grade der Abhängigkeit. Der Entwöhnungserfolg ist dabei umso häufiger, je geringer der Abhängigkeitsgrad ist. Tabelle 8.1: Zusammenhang von FTNA-Skala und Entwöhnungserfolg erfolgreicher Entwöhnungsversuch

Grad der Abhängigkeit gering mittel stark

Gesamt

nein

183 37,7%

120 56,3%

39 65,0%

342 45,1%

ja

303 62,3%

93 43,7%

21 35,0%

417 54,9%

Gesamt

486 100,0%

213 100,0%

60 100,0%

759 100,0%

Pearson χ2 (2) = 31,35 p < 0,001 Quelle: Deutschlandweite telefonische Befragung von 2008 (Wimmer 2012). Bei den Entwöhnungsversuchen handelt es sich um Rauchpausen zum Zweck der Rauchentwöhnung. Da jeweils der letzte (erfolgreiche) Entwöhnungsversuch betrachtet wurde, sind die Erfolgsquoten insgesamt etwas höher als bei einzelnen Entwöhnungsversuchen.

Somit kann das Rauchen durchaus als Sucht oder Gewohnheit aufgefasst werden. Unklar bleibt jedoch, ob tatsächlich ein Verhalten vorliegt, das sich mit den theoretischen Vorstellungen dynamischer Gewohnheitsbildung vereinbaren lässt. Wie bereits angemerkt (vgl. Abschnitt 8.3.2), sind Analysen von Zigarettenverkaufszahlen (vgl. z.B. Becker, Grossman und Murphy 1994) mit zahlreichen methodischen Problemen behaftet, so dass letztendlich keine eindeutigen Aussagen zur empirischen Haltbarkeit der theoretischen Modelle möglich sind. Umso interessanter erscheint es deshalb, Konsummengenänderungen von Rauchern auf der Individualebene zu untersuchen. Grundsätzlich sollten hierbei Paneldaten verwendet werden, da es sonst zu Verzerrungen durch erfolgreiche Entwöhnungsversuche bei Rauchern mit einer niedrigen Konsummenge kommen könnte. Außerdem sollte aufgrund möglicherweise autokorrelierter Störgrößen ein Modell mit Lags der abhängigen Variablen geschätzt werden. Inhaltlich handelt es sich dabei um ein (myopisches) Gewohnheitsmodell, im Rahmen dessen sich auch weitere (nicht zeitkonstante) Erklärungsfaktoren testen lassen. Umgesetzt wurde ein derartiger Ansatz bei Wimmer (2012), wobei Daten des Soziooekonomischen Panels (SOEP) verwendet wurden. Herausgestellt hat sich dabei, dass vor allem Makro-Einflüsse, die inhaltlich z.B. als Effekte von Preissteigerungen interpretiert werden können, und saisonale Effekte zur Erklärung von Konsummengenänderungen beitragen. Darüber hinaus spielen aber auch temporäre Ereignisse wie z.B. Scheidungen und 7 Dieser

Test basiert auf einem Index, der z.B. Fragen zum Rauchverhalten während einer Erkältung oder zur ersten Zigarette am Morgen (da der Nikotinspiegel im Laufe der Nacht abnimmt, ist für abhängige Raucher die erste Zigarette am Morgen von besonderer Bedeutung) umfasst.

168

8 Sucht, Gewohnheit und Tradition

Geburten sowie Änderungen im Rauchverhalten des Partners eine wichtige Rolle. Interessant ist dabei, dass der Effekt der Konsummenge aus der Vorperiode, der aus theoretischer Sicht als Effekt des Gewohnheitskapitals interpretiert werden kann, abgeschwächt wird oder sogar ganz verschwindet, wenn Konsummengenänderungen des (Ehe-)partners in das Modell aufgenommen werden. Insofern spricht die empirische Evidenz zum Rauchen einerseits zwar nicht gegen die theoretischen Überlegungen zur dynamischen Gewohnheitsbildung. Andererseits zeigt insbesondere der Einfluss des Zigarettenkonsum des (Ehe-)Partners, dass soziale Einflüsse, zu denen im weiteren Sinne auch Traditionen gehören, keineswegs vernachlässigt werden sollten, wenn es darum geht, durch Gewohnheiten, Süchte oder Traditionen bedingten Konsum zu erklären.

8.3.4 Befunde zu Traditionen Die empirische Evidenz zu den skizzierten Theorien der Traditionsbildung und -weitergabe ist – wie die Modelle selbst – nur fragmentarisch. Deshalb kann aus empirischen Gründen weder das Traditionsmodell mit individueller Gewohnheitskapitalbildung noch dasjenige mit kollektiver Gewohnheitskapitalbildung zurückgewiesen werden. Sehr plausibel erscheinen die Weitergabe von Nahrungspräferenzen von den Eltern auf ihre Kinder und die dadurch begründeten Ernährungstraditionen. Obwohl keine konkrete empirische Evidenz dafür vorliegt, ist das Modell auch für weitere familiäre Traditionen plausibel. So dürften verschiedene wiederkehrende Ereignisse wie z.B. das Begehen von Geburts- und Namenstagen, aber auch das Feiern von Fasching, Ostern und Weihnachten durch familiäre Traditionen begründet sein. Dabei ist weniger die Tatsache von Interesse, dass gefeiert wird, als der konkrete Ablauf der Feier. Unklar ist jedoch, ob auch negativ konnotiertes Verhalten, exzessiver Alkohol- oder Fastfoodkonsum oder Rauchen im Sinne einer Tradition weitergegeben werden. Abgesehen davon, dass der Begriff Tradition offenbar eher mit Verhaltensweisen verbunden wird, die normativ als vorteilhaft gelten, wird durchaus auch schädliches Verhalten von Eltern auf ihre Kinder vererbt. Solche familiären Traditionen können allerdings auch unterbunden werden. So sind erzieherische Sanktionen gegen das Rauchen eine der wirksamsten Maßnahmen gegen den Raucheinstieg und auch rauchende Eltern dürften kaum ihre jugendlichen Kinder animieren, es ihnen gleichzutun (Wimmer 2012). Aus wirtschaftsoziologischer Sicht am interessantesten sind Traditionen, die sich nicht nur auf Familien, sondern auf größere Gruppen oder sogar ganze Gesellschaften beziehen. Allerdings ist auch hier die empirische Evidenz nicht eindeutig. Neben den bereits genannten Beispielen für Traditionen (Trachten auf dem Oktoberfest, Käsefondue und Weihnachten) können insbesondere bestimmte Bräuche, die regelmäßig an bestimmten Tagen des Jahres zelebriert werden, im Rahmen des hier skizzierten Traditionsmodells erklärt werden. Dazu gehört z.B. das Versenden von Karten und Blumen am Valentinstag. Dieser Brauch wurde von der amerikanischen Glückwunschkartenfirma Hallmark initiiert, um die Glückwunschkartenverkäufe in der umsatzschwachen Zeit zwischen Weihnachten und Ostern anzukurbeln. Hierzulande wurde die Idee des Valentinstags von der Floristikbranche aufgegriffen und weiterverbreitet (Berger 2003: 265ff.). Aus ähnlichen Gründen ist Halloween auch im deutschsprachigen Raum heimisch geworden. Durch den Golfkrieg von 1991 waren Karneval und Fasching ausgefallen und hatten dem Kostüm- und Scherzartikelgewerbe einen herben Geschäftseinbruch beschert. Im September 1994 wurde vom Verband der

8.4 Abschließende Bemerkungen

169

Spielwarenindustrie deshalb beschlossen, das bisher nur in den USA heimische Halloween8 auch in Deutschland als krisenfeste Tradition durchzusetzen (Winnemuth 2010). Wie diese Beispiele zeigen, kann die Etablierung einer Tradition tatsächlich innerhalb kurzer Zeit geschehen, wenn entsprechende Restriktionen und günstige individuelle KostenNutzen-Verhältnisse bestehen. Offensichtlich spielen dann die tatsächliche Ursache und die bisherige Geschichte einer Tradition für ihr Fortbestehen keine Rolle. So ist auch zu erklären, dass der traditionelle Weihnachtskonsum, als die bei weitem absatzträchtigste Tradition, auch ohne christlichen Hintergrund weiterbesteht oder sogar ausgedehnt werden kann. All dies spricht für ein Traditionsmodell mit individueller Gewohnheitskapitalbildung. Allerdings erscheinen auch Verhaltensweisen plausibel, die für ein Traditionsmodell mit kollektiver Gewohnheitskapitalbildung sprechen. Gerade in den erwähnten großen und lange bestehenden Kollektiven wie China, Indien oder auch Japan scheinen Traditionen eine besondere Persistenz aufzuweisen. Klärung können hier nur weitere empirische Untersuchungen bringen.

8.4 Abschließende Bemerkungen Gewohnheit, Sucht und Tradition sind zweifellos wichtige Determinanten des Konsumverhaltens. Aus wirtschaftsoziologischer Sicht entscheidend ist dabei, den Beginn, die Dauerhaftigkeit und den Abbruch der drei Verhaltensformen zu erklären. Dazu existieren verschiedene Modellansätze, deren theoretische Ausarbeitung und empirische Bewährung allerdings sehr unterschiedlich ausgeprägt ist. Modelle statischer Gewohnheitsbildung verzichten auf die Annahme, dass Dauer und Häufigkeit von vergangenen Konsumhandlungen Gewohnheiten beeinflussen. Sie unterstellen stattdessen die Präferenz, ein als befriedigend erkanntes Güterbündel möglichst wenig zu verändern. Ziel des Akteurs in diesen Satisficing–Modellen ist die Beibehaltung eines zufriedenstellenden Konsums und nicht das Erreichen eines globalen Nutzenmaximums. Gewohnheitskonsum steckt damit bereits in den Annahmen des Modells. Diese Modelle wurden allerdings bisher weder theoretisch weiterentwickelt noch empirisch überprüft. Sie sind deshalb trotz einiger Plausibilität als wenig bedeutsam einzustufen. Modelle dynamischer Gewohnheitsbildung messen dagegen der Dauer und der Häufigkeit von Gewohnheitskonsum eine zentrale Bedeutung für dessen Persistenz zu. Ihre zentrale Annahme besteht darin, dass der gegenwärtige Konsum abhängig ist vom vergangenen Konsum, wobei hierzu ein Gewohnheitskapitalstock als Argument in die Nutzenfunktion aufgenommen wird. Daraus ergeben sich wiederum Annahmen über den Verstärkungseffekt, den Toleranzeffekt und das Auftreten von Entzugserscheinungen beim Abbruch des Gewohnheitskonsums. Gewohnheitskonsum wird damit oft nicht konzeptuell, sondern lediglich graduell von Suchtkonsum unterschieden. Allerdings lässt sich Sucht über die Zukunftsorientierung der Akteure modellieren. Im Gegensatz zu statischen Modellen liegen hierzu empirische Analysen vor, die jedoch zu divergierenden Resultaten kommen und zudem mit methodischen Problemen behaftet sind. Zwar zeigt sich, dass vergangener und gegenwärtiger Konsum eindeutig korreliert sind, jedoch können die Auswirkungen auf den zukünftigen Konsum nicht abgeschätzt werden. 8 Genau

genommen handelt es sich bei diesem Phänomen um eine „transatlantische Rückwanderung“. Ursprünglich wurde Halloween auf den britischen Inseln gefeiert, von wo es im 19. Jahrhundert durch irische Einwanderer an die amerikanische Ostküste gebracht wurde. Von dort kehrt es nun, nach vielfältigen Umgestaltungen, als „amerikanischer Brauch“ nach Europa zurück. (Döring 2001)

170

8 Sucht, Gewohnheit und Tradition

Einige Konsumformen sind insofern traditionell, als dass sie nicht nur auf den eigenen, sondern auch auf den vergangenen Konsum Anderer bezogen sind. Wie bereits die Beispiele von Ernährungstraditionen und Festtagsbräuchen zeigen, kommt diesen Verhaltensweisen zudem eine große wirtschaftliche Bedeutung zu. Trotz mannigfaltiger Ansätze existieren jedoch weder ein ausgearbeitetes Modell des traditionellen Konsums noch entsprechende empirische Belege. Nichtsdestotrotz kann exemplarisch gezeigt werden, dass für ausgewählte Konsumtraditionen eine Beziehung zu individuellen Gewohnheiten plausibel erscheint. Insgesamt besteht die wirtschaftssoziologische Relevanz der Modelle zur Erklärung von Gewohnheit, Sucht oder traditionell bedingtem Verhalten vor allem darin, dass durch sie auch vermeintlich irrationale Verhaltensweisen im Sinne der Rational-Choice-Theorie erklärt werden können. Zudem können dynamische Gewohnheitsmodelle auch so interpretiert werden, dass sich aus ihnen wesentliche Vorgaben zur empirischen Analyse bestimmter Phänomene ableiten lassen. Dies gilt beispielsweise für die empirische Schätzung von Preiselastizitäten der Nachfrage nach Zigaretten, die oft nur im Rahmen einfacher Vorher-Nachher-Messungen umgesetzt wird (Hanewinkel und Isensee 2004). Wird hierbei berücksichtigt, dass es sich beim Rauchen um ein Gewohnheitsverhalten handelt, so wird deutlich, dass eine derartige Herangehensweise falsch ist, da sie den Einfluss vorangegangener Konsumentscheidungen der Akteure und die daraus resultierende Autokorrelation der Zeitreihe der Verkaufszahlen vernachlässigt. Weniger klar sind die Ergebnisse im Hinblick auf statische Gewohnheitsmodelle und die skizzierten Traditionsmodelle. Bei Framing-Modellen werden Gewohnheitsbildung und -abbruch nicht theoretisch erfasst, sodass diese Modelle keine Erklärungkraft im Hinblick auf die eigentlich interessierenden Phänomene aufweisen. Für die Satisficing-Modelle trifft dies in gewissem Maße ebenfalls zu. Die auf den ersten Blick überzeugende Idee, Gewohnheitskonsum durch ein Genügsamkeitskalkül zu erklären, verliert nach der theoretischen und empirischen Analyse etwas an Strahlkraft. Einerseits folgen aus dem Satisficing-Modell überraschenderweise in nicht wenigen Fällen dieselben empirischen Konsequenzen wie aus dem ökonomischen Standardmodell für normale Güter (siehe hierzu Kapitel 7 in diesem Band). Andererseits sind einige theoretische Schlussfolgerungen wenig überzeugend (z.B. zu inferioren und Giffen-Gütern). Dennoch scheinen Satisficing-Modelle über Potenzial zur Erklärung von Konsumgewohnheiten zu verfügen, das durch weitere – insbesondere auch empirische – Arbeiten ausgeschöpft werden könnte. Dieser Befund gilt auch für Überlegungen zu Konsumtraditionen, die bisher weder theoretisch noch empirisch hinreichend vertieft wurden. Die Idee, das Modell individueller Gewohnheitsbildung entsprechend auszubauen, ist naheliegend. Die direkte Umsetzung in ein Modell der Traditionsweitergabe über rein individuelles Gewohnheitskapital führt zu einigen kontraintuitiven Hypothesen zur Weitergabe von Konsumtraditionen, die auch für mehrere Einzelfälle bestätigt werden können. Das Alternativmodell mit kollektiver Gewohnheitskapitalbildung ist jedoch bisher nicht überprüft worden. Insgesamt bewegt sich die wirtschaftssoziologische Forschung zu Konsumtraditionen damit noch auf einer weitgehend spekulativen Ebene.

Literatur

171

Literatur Abbé-Decarroux, F. (1995) „Demande Artistique et Préférences Endogènes.“ Revue Economique 46: 983–992. Ando, A. und F. Modigliani (1963) „The „Life-Cycle“ Hypothesis of Saving: Aggregate Implications and Tests.“ American Economic Review 53: 55-84. Baltagi, B.H. und D. Levin (1986) „Estimating Dynamic Demand for Cigarettes Using Panel Data: The Effects of Bootlegging, Taxation and Advertising Reconsidered.“ Review of Economics and Statistics 68: 148–155. Becker, G.S. und K.M. Murphy (1988) „A Theory of Rational Addiction.“ Journal of Political Economy 96: 675-700. Becker, G.S., M. Grossman und K.M. Murphy (1994) „An Empirical Analysis of Cigarette Addiction.“ American Economic Review 84: 396-418. Berger, R. (2003) Gewohnheit, Sucht und Tradition. Leipzig: Leipziger Universitätsverlag. Blundell, R., P. Pashardes und G. Weber (1993) „What Do We Learn About Consumer Demand Patterns from Micro Data.“ American Economic Review 83: 570-596. Braun, N. und P. Vanini (2003) „On Habits and Addictions.“ Journal of Institutional and Theoretical Economics 159: 603-626. Boyer, M. (1978) „A Habit Forming Optimal Growth Model.“ International Economic Review 19: 585-609. Chaloupka (1991) „Rational Addictive Behavior and Cigarette Smoking.“ Journal of Political Economy 99: 722-742. Chaloupka, F.J., J.A. Tauras und M. Grossman (2000) „The Economics of Addiction.“ S. 107-129 in: P. Jha und F. Chaloupka (Hg.) Tobacco Control in Developing Countries. New York: Oxford University Press. Cook P.J. und G. Tauchen (1982) „The Effect of Liquor Taxes on Heavy Drinking.“ Bell Journal of Economics 13: 379-390. Deaton, A. und J. Muellbauer (1980) Economics of Consumer Behavior. Cambridge: Cambridge University Press. Döring, A. (2001) „Halloween im Rheinland. Notizen zu einem Forschungsprojekt.“ Zeitschrift für Volkskunde 97: 281-283. Dynan K.E. (2000) „Habit Formation in Consumer Preferences: Evidence from Panel Data.“ American Economic Review 90: 391-406. Eisenhauer, J.G. (1996) „The Simple Analytics of Habit Formation.“ Studies in Economics and Finance 16: 3-21. Elster, J. und O.-J. Skog (1999) „Getting Hooked (Introduction).“ S. 1-29 in: J. Elster und O.-J. Skog (Hg.) Getting Hooked. Cambridge: Cambridge University Press. Fagerstrom, K.O. und N.G. Schneider (1989) „Measuring Nicotine Dependence: A Review of the Fagerstrom Tolerance Questionnaire“. Journal of Behavioral Medicine 12: 159-182. Esser, H. (1990) „Habits“, „Frames“ und „Rational Choice“. Zeitschrift für Soziologie 19: 231-247. von Ferber, C. (1980) „Ernährungsgewohnheiten: Zur Soziologie der Ernährung.“ Zeitschrift für Soziologie 9: 221-235. Friedman, M. (1953) Essays in Positive Economics (7. Aufl.). Chicago: University of Chicago Press. Grossman M. und F.J. Chaloupka (1998) „The Demand for Cocaine by Young Adults: A Rational Addiction Approach.“ Journal of Health Economics 17: 427-474. Grossman M., F.J. Chaloupka und I. Sirtalan (1998) „An Empirical Analysis of Alcohol Addiction: Results from the Monitoring the Future Panels.“ Economic Inquiry 36: 39-48. Gruber, J. und B. Köszegi (2001) „Is Addiction "Rational"? Theory and Evidence.“ Quarterly Journal of Economics 115: 1261-1303. Harris, M. (1998) Good to Eat: Riddles of Food and Culture. Long Grove: Waveland. Hanewinkel, R. und B. Isensee (2004) „Evaluation der Tabaksteuererhöhung vom 1. Januar 2003.“ Bundesgesundheitsblatt – Gesundheitsforschung – Gesundheitsschutz 47: 771-779.

172

8 Sucht, Gewohnheit und Tradition

Hobsbawm, E. und T. Ranger (1992) The Invention of Tradition. Cambridge: Cambridge University Press. Houthakker, H.S. und L.D. Taylor (1966) Consumer Demand in the United States, 19291970: Analyses and Projections. Cambridge: Harvard University Press. Hume, D. (1739) [2000] A Treatise of Human Nature. Oxford: Oxford University Press. Hunt, W.A., L.W. Barnett und L.G. Branch (1971) „Relapse Rates in Addiction Programs.“ Journal of Clinical Psychology 27: 455-456. Kroneberg, C. (2007) „Wertrationalität und das Modell der Frame-Selektion“. Kölner Zeitschrift für Soziologie 59(2): 215-239. Laibson, D. (1997) „Golden Eggs and Hyperbolic Discounting.“ Quarterly Journal of Economics 112: 443-477. Lindenberg, S. (1993) „Framing, Empirical Evidence and Applications“ S. 11-38 in: P. HerderDornreich, K.-E. Schenk und D. Schmidtchen (Hg.) Jahrbuch für Neue Politische Ökonomie Bd. 12, Neue Politische Ökonomie von Normen und Institutionen. Tübingen: Mohr. Olekalns N. und P. Bardsley (1996) „Rational Addiction to Caffeine: An Analysis of Coffee Consumption.“ Journal of Political Economy 104: 1100-1104. Orphanides, A. und D. Zervos (1995) „Rational Addiction with Learning and Regret.“ Journal of Political Economy 103: 739-758. Ryder, H.E. und G.M. Heal (1973) „Optimal Growth with Intertemporally Dependent Preferences.“ Review of Economic Studies 40: 1-31. Schachter, S. (1973) „Nesbitt’s Paradox.“ S. 147-157 in: W. L. Dunn (Hg.) Smoking Behaviour: Motives and Incentives. Washington D.C.: VH Winston & Sons. Shils, E. (1981) Tradition. Chicago: University of Chicago Press. Simon, H. (1955) „A Behavioral Model of Rational Choice.“ Quarterly Journal of Economics 69 (1): 99-118. Skog, O.-J. (1999) „Rationality, Irrationality and Addiction – Notes on Becker and Murphy’s Theory of Addiction“. S. 93-136 in: J. Elster und O.-J. Skog (Hg.) Getting Hooked. Cambridge: Cambridge University Press. Stigler, G. und G.S. Becker (1977) „De Gustibus Non Est Disputandum.“ American Economic Review 67: 76-90. Tomas, C. (2010) „Die bayerische Burka.“ Süddeutsche Zeitung Magazin 38. Uchtenhagen A., A. Dobler-Mikola und F. Gutzwiler (1996) „Medically Controlled Prescription of Narcotics: A Swiss National Project.“ The International Journal of Drug Policy 7: 28-33. Veblen, T (1899) [2000] Theorie der feinen Leute. Frankfurt a. M.: Fischer Wissenschaft. Weber, M. (1921/22) [1984] Soziologische Grundbegriffe. Tübingen: Mohr. Wimmer, T. (2012) Rauchen, ein ganz normales Konsumverhalten? Theoretische Perspektiven und empirische Analysen zur Erklärung des Zigarettenkonsums. LMU München: Dissertation. Winnemuth, M. (2010) „Süßes? Saures? Wie wär’s mit: gar nichts?“ Süddeutsche Zeitung Magazin 42.

9 Stars und ihre Entstehung Marc Keuschnigg Die Auseinandersetzung mit Märkten nimmt eine zentrale Stellung in der Wirtschaftssoziologie ein. Untersucht werden vor allem Abweichungen realer Märkte vom Idealtyp eines perfekten Wettbewerbsmarktes, wobei häufig auf die soziale Eingebundenheit von Entscheidungsträgern hingewiesen wird. Soziale Einflüsse zwischen Marktakteuren können deutliche Folgen für das Marktgeschehen haben und auffällige Marktdynamiken erzeugen. Diese ergeben sich insbesondere dann, wenn Konsumenten aufeinander reagieren und ihre eigenen Entscheidungen am Verhalten Anderer ausrichten. Finanzmärkte oder auch Modemärkte bilden hier bekannte Beispiele. Ähnliche soziale Einflüsse auf das Konsumverhalten sind auch aus Kulturmärkten für Filme, Musik, Bücher oder Computerspiele bekannt. Hier sind populäre Angebote zumeist um ein Vielfaches erfolgreicher als ihre Konkurrenzprodukte und gleichzeitig sind Prognosen über den nächsten Großerfolg nur schwer möglich (DeVany 2004; Salganik, Dodds und Watts 2006; Salganik und Watts 2009). Diese Produkte mit stark überdurchschnittlichem Verkaufserfolg werden gemeinhin als Bestseller und ihre Anbieter als Stars bezeichnet. Extreme Ergebnisungleichheiten sowie die zu Bestseller-Phänomenen beitragenden Prozesse treten jedoch nicht nur in Kulturmärkten auf. Sogenannte Superstarmärkte (Rosen 1981) oder Winner-take-all-Märkte (Frank und Cook 1995; Frank 2006) mit extremer Erfolgskonzentration finden sich in vielen gesellschaftlichen Teilbereichen. Dazu zählen die Rechtsbranche, Märkte für Finanzdienstleistungen, Unternehmensberatung oder Wissenschaft sowie die Arbeitsmärkte für Mediziner, Manager oder Politiker (vgl. auch Kapitel 3 in diesem Band). Stars im weiteren Sinne treten auch im Zusammenhang mit Siedlungsund Firmengrößen, Nutzerzahlen von Internetseiten oder bei politischen Wahlen auf. Das Makrophänomen extremer Ergebnisungleichheit wird zunächst am Beispiel von Stadtgrößen vorgeführt (Abschnitt 9.1), wobei verteilungstheoretische Überlegungen sowie das Konzept der Potenzfunktion dargestellt werden. Anschließend konzentriert sich die Darstellung auf Kulturmärkte, insbesondere den Buchmarkt. Die Wahl des einleitenden Beispiels soll jedoch die breite Anwendbarkeit der formalen Beschreibung und theoretischen Erklärung über Kulturmärkte hinaus demonstrieren. Danach werden zwei mögliche Entstehungsprozesse auf Mikroebene vorgestellt: Die strikte Bevorzugung guter Angebote durch unabhängig voneinander handelnde Konsumenten mit vollständiger Information und entgegengesetzt dazu, ein Kaufverhalten unter Unsicherheit und sozialer Beeinflussung (Abschnitt 9.2). Beide Modellierungen führen die Entstehung von Stars auf Nachfrageprozesse zurück, welche vom Verhalten individueller Entscheidungsträger hervorgerufen werden. Die Darstellung wird verdeutlichen, dass extreme Erfolgsungleichheiten auf unterschiedliche Weise entstehen können und im Rückgriff auf alternative Annahmen zum Konsumentenverhalten und zu vorherrschenden Marktbedingungen erklärt werden können. Anschließend werden zentrale empirische Befunde für die Unterhaltungsmärkte Sport und Musik referiert

174

9 Stars und ihre Entstehung

(Abschnitt 9.3) und eigene Ergebnisse zur Entstehung von Stars in der deutschen Belletristik präsentiert (Abschnitt 9.4). Insgesamt wird gezeigt, dass vor allem die vorherrschende Markttransparenz bestimmt, welcher der beiden Prozesse das Nachfrageverhalten steuert.

9.1 Star-Phänomene aus der Makroperspektive Die Häufigkeitsverteilung einer Vielzahl von Merkmalen in der Natur und im Sozialen folgt näherungsweise der bekannten Glockenkurve einer Normalverteilung. Dazu zählen z.B. Körpergrößen von Menschen und Tieren, menschliche Intelligenz, Schulnoten oder gemessene Geschwindigkeiten auf Autobahnen (z.B. Newman 2005: 324). Daneben existieren aber rechtsschiefe Merkmalsverteilungen, die deutlich von einer Normalverteilung abweichen. Beispiele sind Nutzungshäufigkeiten von Worten, Stadtgrößen, Firmengrößen, Hyperlinkverteilungen in virtuellen Netzwerken, Wertveränderungen in Finanzmärkten oder Einspielergebnisse von Hollywoodfilmen und Musikalben. Vergleichbare Verteilungen finden sich auch in der Natur. Dazu zählen die Ausmaße von Erdbeben und Asteroideneinschlägen, die Verteilung finanzieller Schäden aufgrund von Naturkatastrophen oder die Größenverteilung von Flussläufen (den Forschungsstand fasst z.B. Newman 2005 zusammen; einen einfach zu lesenden Einstieg bietet auch Buchanan 2002). Anders als in der Gauß’schen Welt herrscht in den genannten Beispielen eine extreme Ergebnisungleichheit zwischen einzelnen Merkmalsträgern. Während die Mehrheit der Untersuchungseinheiten geringe Werte der interessierenden Variable aufweisen, verzeichnen einige wenige Einheiten weit größere Werte. Eine solche extrem konzentrierte Ergebnisvariable zeigt Abbildung 9.1 am Beispiel europäischer Stadtgrößen.1 Würde die Größenverteilung von Städten z.B. einer Normalverteilung folgen, wären weniger kleine Orte aber auch keine Metropolen mit mehreren Millionen Einwohnern beobachtbar. Die Welt wäre von durchschnittlich großen Ansiedlungen dominiert und es gäbe wohl auch weniger Städte, „die man gesehen haben muss“. Entgegen einer Glockenkurve, in welcher Siedlungsgrößen Werte nahe dem Mittelwert annehmen würden, fällt die empirische Größenverteilung von Städten extrem rechtsschief aus. Innerhalb des oberen, „schweren“ Verteilungsbereichs liegen die „Stars“ mit stark überproportionalem Ergebnis. Zur allgemeinen Beschreibung einer Verteilung mit vielen kleinen Ereignissen und wenigen sehr großen Ereignissen eignet sich eine Potenzfunktion mit negativem Exponenten (vgl. Abschnitt 4.1.3 im ersten Band). Große Ereignisse sind dabei selten, treten aber weitaus häufiger auf als bei einer Normalverteilung, wodurch die Verteilung ein „gewichtiges Ende“ oder „heavy tail“ aufweist.2 Die Dichtefunktion einer Potenzverteilung ist gegeben mit f (x) = a · x−b , wobei die Konstante a den Achsenabschnitt darstellt und f (x) im vorliegenden Fall die Auftrittshäufigkeit einer gewissen Siedlungsgröße x angibt. Die Beziehung der beiden Variablen Größe x und Häufigkeit f (x) = y folgt einer Potenzfunktion, deren Verlauf der Skalierungsparameter b beschreibt. Zur Bestimmung des Exponenten kann die Beziehung 1 Zur

Größenverteilung von Städten siehe auch die Abschnitte 4.1.3 und 6.2.2 im ersten Band. rechtsschiefe Dichteverteilung kann durchaus aus alternativen Verteilungen stammen. Dazu zählen u.a. Lognormal-, Exponential- oder Gamma-Verteilungen. Für eine Diskussion siehe z.B. Clauset, Shalizi und Newman (2007) oder Mitzenmacher (2003).

2 Eine

9.1 Star-Phänomene aus der Makroperspektive

175

100 1

50

Häufigkeit

150

200

Abbildung 9.1: Größenverteilung von europäischen Städten

.2

2

4

6

8

10

Millionen Einwohner

Quelle: United Nations Statistical Division 2007; eigene Berechnung. Beachtet werden alle europäischen Städte mit min. 200 Tsd. Einwohnern.

10 1

Häufigkeit

100

200

Abbildung 9.2: Größenverteilung in doppellogarithmierter Form

.2

1

2

4

6

8

10

Millionen Einwohner

zwischen x und y durch Logarithmieren linearisiert werden (y = ln a − b · ln x). Eine empirische Schätzung des Parameters ˆb erfolgt sodann mittels linearer Regression: ln y = ln a ˆ − ˆb · ln x + u ˆ, wobei a ˆ und ˆb zu schätzende Parameter sind und u ˆ den Fehlerterm einer Regressionsanalyse abbildet. In doppellogarithmischer Darstellung folgt die Beziehung zwischen Stadtgrößen und ihrer Auftrittshäufigkeit einer abfallenden Geraden, deren Steigung dem Exponenten b entspricht (vgl. Abbildung 9.2; es gilt der Exponent ˆb = 2, 7; zum genauen Schätzvorgehen siehe unten). Je länger der heavy tail ist (also je höher die Konzentration der untersuchten Variable x ist), desto kleiner fällt der Exponent aus.

176

9 Stars und ihre Entstehung

Der Exponent entspricht der Elastizität der Potenzfunktion und gibt damit den prozentualen Effekt an, welcher sich durch eine einprozentige Änderung der unabhängigen Variable x in der abhängigen Größe y ergibt. Üblicherweise sind Elastizitäten abhängig von der genauen Ausprägung von x (sie sind also eine Funktion von x), sodass für unterschiedliche Werte von x einzelne Punktelastizitäten bestimmt werden müssen. Die Elastizität einer Potenzfunktion ist dagegen konstant, d.h. prozentuale Veränderung der unabhängigen Variable führen über den gesamten Wertebereich von x zu identischen Prozentänderungen in der Zielgröße y. Dies stellt eine wesentliche Eigenschaft der Potenzfunktion dar und ermöglicht insbesondere die Modellierung von Proportionalitäten: Im vorliegenden Fall gilt für den Exponenten der Schätzwert ˆb = −2, 7, womit die Auftrittswahrscheinlichkeit einer gewissen Stadtgröße mit zunehmendem x überproportional fällt. Lässt man die Einwohnerzahl also um ein Prozent steigen, dann sinkt die beobachtete Häufigkeit einer solchen Stadtgröße um 2,7 Prozent. Dementsprechend hoch fällt die Ungleichheit der betrachteten Stadtgrößenverteilung aus.3 Diese Überlegungen zeigen, dass sich Potenzfunktionen gut zur Beschreibung extremer Systemzustände eignen. Das eingeführte Instrumentarium dient im Weiteren zur Beschreibung von extremen Marktergebnissen. Unterliegt die Anteilsverteilung in einem Markt einem Potenzgesetz, gilt für die Anzahl y an Angeboten mit einem Marktanteil von x die Beziehung y = a · x−b . Wie im obigen Beispiel fällt hierbei das erfolgreiche Ende der Verteilung asymptotisch zur Potenz b, wobei ein konstanter Achsenabschnitt in Höhe von a gilt. Je kleiner b ausfällt, desto höher ist die beschriebene Marktkonzentration. Abbildung 9.3 zeigt die Erfolgsverteilung im deutschen Belletristikmarkt. Bucherfolg wird als Summe wöchentlicher Notierungen in den Top 50 gemessen (zur Operationalisierung der verwendeten Erfolgsvariable siehe unten). Das Marktergebnis weicht deutlich von einer Normalverteilung ab. Der Modus liegt nicht im Mittel sondern am Verteilungsanfang; der Median der Erfolgsverteilung ist mit 121 Punkten deutlich kleiner als ihr Mittelwert (359); die Standardabweichung beträgt 626 Erfolgspunkte, was Mittelwertinterpretationen zur Beschreibung der Verteilung sinnlos macht. Die Häufigkeitsverteilung der Verkaufszahlen ist annähernd L-förmig. Ausgehend vom erfolglosen Teil flacht die Verteilung zunächst stark ab, mit steigendem Erfolg allerdings deutlich langsamer als bei einer Glockenkurve. Obwohl die beobachtbare Titelanzahl mit zunehmendem Erfolg rapide sinkt, verzeichnen weitaus mehr Bücher extrem hohe Verkaufszahlen als unter Vorliegen einer Normalverteilung zu erwarten wäre. Der obere Verteilungsbereich tritt deutlich als heavy tail hervor und folgt einer Potenzverteilung mit einem Exponenten ˆb = 1, 7 (Abbildung 9.4).4 Die hier 3 Potenzfunktionen

müssen keinesfalls immer negative Exponenten aufweisen. Im Zusammenhang mit Einwohnerzahlen sind insbesondere Größenvorteile von Städten zu nennen. Mit b > 1 können zunehmende Grenzerträge von x, also überproportionale Steigerungen in y durch Zunahmen von x modelliert werden. Empirisch zeigt sich nämlich, dass sozioökonomische Größen wie Einkommen und Innovationsfreude mit steigender Stadtgröße überproportional wachsen. Für ˆb werden dabei Werte um 1,15 berichtet, d.h. Steigerungen der Einwohnerzahl sind mit überproportionalen Agglomerationsvorteilen verknüpft, wobei ein einprozentiges Wachstum der Einwohnerzahl das durchschnittliche personelle Einkommen und die stadtweite Innovationsrate um 1,15 Prozent steigert (vgl. Bettencourt et al. 2007, 2010). Als Gründe werden erhöhte Arbeitsteilung, Größenersparnisse bei der Erzeugung, Verwendung und Entsorgung von Waren sowie beschleunigte Lernprozesse angeführt. Betont wird in dieser Auseinandersetzung auch die hohe Pfadabhängigkeit in der Entwicklung von Stadtgrößen, denn Prozesse kumulativen Vorteils stabilisieren und verstärken einmal entstandene Größenunterschiede. Zu den Ursachen und Folgen räumlicher Verdichtung siehe Abschnitte 6.1 und 6.2 im ersten Band. 4 Die Schätzung des Skalierungsparameters ergibt ˆ b = 1, 7, wobei für die Y-Achse in Abbildung 9.4 die komplementäre kumulierte Dichteverteilung CCDF gilt (CCDF = 1–kumulierte Dichteverteilung

9.1 Star-Phänomene aus der Makroperspektive

177

10 1

Häufigkeit

20

Abbildung 9.3: Erfolgsverteilung in der deutschen Belletristik

1

2000

4000

6000

Bucherfolg in Punkten

Quelle: Buchreport (2008); eigene Berechnung.

CCDF

0,001

0,01

0,1

Abbildung 9.4: Erfolgsverteilung in doppellogarithmierter Form

655

2000

4000

6000

Bucherfolg in Punkten

verorteten 135 Bestseller (17% der betrachteten Bücher) verzeichnen 65% des gemessenen Gesamtabsatzes in der deutschen Belletristik. Die Erfolgsverteilung in Buchmarkt weist damit strukturelle Ähnlichkeit mit weiteren extrem rechtsschiefen Ergebnisvariablen auf. Dazu zählt beispielsweise die oben vorgestellte Stadtgrößenverteilung. Allerdings liegt unter Büchern eine erheblich stärkere Erfolgskonzentration vor als unter Städten. Dies reflektiert der deutlich kleinere Exponent im Buchmarkt. CDF). Diese Form garantiert eine präzisere Schätzung des Parameters ˆb. Die Schwierigkeit, die bei der Extraktion von ˆb anhand der einfachen Häufigkeitsverteilung besteht, zeigt Abbildung 9.2: Weil hohe Werte nur noch von einzelnen Untersuchungseinheiten erreicht werden, ergibt sich eine deutlich sichtbare Abschlusslinie. Diese Häufungsstruktur tritt unter Verwendung der CCDF nicht auf und Schätzergebnisse sind entsprechend unverzerrt. Dieses robustere Vorgehen (vgl. z.B. Clauset, Shalizi und Newman 2007) wurde auch zur Bestimmung des Werts ˆb = 2, 7 für die Stadtgrößenverteilung verwendet.

178

9 Stars und ihre Entstehung

Im unteren Verteilungsbereich ( 0, d.h. Qualitätssteigerungen führen zu Nutzensteigerungen, und ∂ 2 ui /∂Q2x > 0, d.h. korrespondierende Nutzensteigerungen fallen dabei überproportional hoch aus. Nun soll xi die von Akteur i nachgefragte Menge von Gut x angeben. Für die qualitätsabhängige individuelle Neigung, Angebot x zu wählen, gelten dann die marginalen Bedingungen ∂xi /∂Qx > 0, d.h. eine Zunahme von Qualität Q führt zu einer gesteigerten Nachfrage nach Gut x, und ∂ 2 xi /∂Q2x > 0, d.h. Qualitätszunahmen erhöhen die Kaufneigung überproportional. Das Modell zeigt einen starken Anreiz für Konsumenten, das in einem Markt nachgefragte Güterbündel vollständig auf das qualitativ beste Angebot (bzw. auf die Produkte des besten Anbieters) zu konzentrieren. Da homogene Vorlieben angenommen werden, bevorzugen alle Konsumenten das identische Angebot bzw. den identischen Anbieter. Dieser garantiert aufgrund eines relativen Qualitätsvorsprungs maximalen Konsumnutzen. Aufgrund einer (stark) überproportionalen Nutzensteigerung bei zunehmender Qualität ist die Marktnachfrage (stark) konvex in Qx . Deshalb fällt die Verstärkung marginaler Qualitätsvorteile zu überproportionalen Nachfragesteigerungen am äußersten Ende der Qualitätsverteilung am deutlichsten aus. Eine z.B. der Normalverteilung folgende Talentausstattung der Anbieter wird auf diese Weise zu einer extrem rechtsschiefen Erfolgsverteilung transformiert. Die realisierte Erfolgsverteilung spiegelt damit eine extrem zugunsten der Anbieter höchster Qualität verzerrte Qualitätsverteilung wider. Optimierungshypothese: Je höher die Qualität eines Angebots ist, desto größer ist sein Erfolg. Für die Marktnachfrage M nach Pn Gut x, die der marktweiten Summe an Individualnachfragen nach x entspricht (M = i=1 xi ), gilt damit M = M (Qx ). Der angenommene positive

180

9 Stars und ihre Entstehung

Zusammenhang ist mit einfachen Querschnittdaten zu Produktqualität und -erfolg für jeden interessierenden Markt prüfbar. Aufgrund der Möglichkeit (fast) unbeschränkter Produktionsausweitung bei gleichzeitig abnehmenden Produktions- und Distributionskosten ist theoretisch die Befriedigung der gesamten Nachfrage durch einen qualitativ unübertroffenen Anbieter denkbar. Gegeben entsprechender Vervielfältigungsmöglichkeiten setzt sich im Gleichgewichtszustand ein Star marktweit durch. Für heterogene Märkte ist anzunehmen, dass ein Star in jedem Teilmarkt existiert. Da sich bei hinreichendem Wettbewerb jeweils der beste Anbieter durchsetzt, entsteht im Rosen-Szenario ein sozial effizientes Marktergebnis. Der beschriebene Optimierungsprozess unter qualitätsbewussten Konsumenten bietet ein einfaches Modell zur Erklärung eines hoch konzentrierten Marktergebnisses. Die vorausgesetzte Qualitätspräferenz ist für Märkte, in denen Qualität hoch bewertet und/oder Konsumzeit teuer ist,7 durchaus realistisch. Dass eine strikte Qualitätspräferenz allerdings jedes Star-Phänomen erklärt, ist nicht zu erwarten. Es werden nämlich entscheidende Aspekte von vielen Superstarmärkten, insbesondere Kulturmärkten, vernachlässigt. Wenig realistisch ist die Annahme vollständiger Produktinformation vor dem Kauf. Die zur suchkostenfreien Optimierung erforderliche perfekte Markttransparenz ist vor allem in Erfahrungsgütermärkten nicht erfüllt.8 Dort sind Produkteigenschaften erst nach dem Konsum vollständig bekannt. Daneben beruht die Erklärung auf der stark vereinfachenden Annahme von Geschmackshomogenität; individueller Geschmack, der Wunsch nach Abwechslung sowie die daraus auf Anbieterseite entstehenden Möglichkeiten zur Produktdifferenzierung werden nicht beachtet (siehe auch Schulze 2003). Schließlich ist einzuwenden, dass der Optimierungsprozess die Entstehung von Stars letztlich nicht erklären kann. Deren Existenz wird lediglich auf gegebene und allen Nachfragern bekannte Talentunterschiede auf Anbieterseite sowie eine angenommene Qualitätspräferenz zurückgeführt. Die als Reaktion auf Qualitätsunterschiede entstandene Konzentration im Konsum wird als Ergebnis einer Gleichgewichtsdynamik dargestellt, aber nicht tiefer erklärt. Ein insbesondere auf Moshe Adler (1985) zurückgehender Alternativansatz erklärt Konsumverhalten stattdessen unter Beachtung sozialer Konsumeinflüsse.

9.2.2 Nachfragekonzentration durch Konformität Der zweite Prozess führt die Entstehung von Stars auf einen Konformitätsprozess zurück. Verkaufszahlen folgen einer Potenzverteilung, wenn das Konsumentenverhalten zwei Annahmen genügt: 1. Die Wahrscheinlichkeit, dass ein Konsument ein Angebot wählt, welches bereits von Anderen gekauft wurde, nimmt mit deren Zahl zu. 2. Es besteht eine geringe konstante Wahrscheinlichkeit, dass ein Konsument ein zufälliges Alternativangebot wählt, welches bisher von keinem anderen Konsumenten gekauft wurde. 7 Die

Kosten der Konsumzeit ergeben sich aus den Opportunitätskosten des Konsumenten und können demnach interpersonell variieren. Zudem bestehen nicht für alle Güter und Dienstleistungen homogene Konsumkosten, da ihr Ver- oder Gebrauch unterschiedliche lange Zeitperioden beansprucht (z.B. Buch vs. Film). 8 Beispiele für Erfahrungsgüter sind Filme oder Bücher. Für eine Klassifikation unterschiedlicher Güterarten siehe Abschnitt 5.1.3 im ersten Band.

9.2 Theorien zur Entstehung von Stars

181

Während Annahme 2 die Entstehung erstmaligen Erfolgs durch abweichende Kaufentscheidungen möglich macht, geht die zentrale Annahme 1 von einer Kaufentscheidung unter Konformität aus. Das modellierte Kaufverhalten produziert einen Matthäus-Effekt (Merton 1968), bei dem aktueller Erfolg eine weitere Steigerung der Absatzzahlen erzeugt.9 Der soziale Prozess eines kumulativen Vorteils entsteht, weil eine günstige relative Position als Ressource für weitere relative Vorteile dient (z.B. DiPrete und Eirich 2006). Über dieses soziale Feedback können kleine Anfangsunterschiede zu extremen Differenzen im Verkaufserfolg führen. Allgemein wird von einem „sich selbst verstärkenden“ oder „pfadabhängigen“ (Nachfrage-)Prozess gesprochen. Das Vorliegen kumulativer Vorteile impliziert, dass eine präzise Vorhersage, welches Angebot zum Bestseller wird, anfänglich nicht möglich ist. Marktergebnisse können sich dagegen von Mal zu Mal unterscheiden, je nach dem welches Angebot zuerst einen Popularitätsvorteil erreicht. Die soziale Abhängigkeit von Konsumverhalten kann durch eine erweiterte Nutzenfunktion abgebildet werden, wobei soziale Umweltzustände direkt als Argument mit einbezogen werden (vgl. Kapitel 7 in diesem Band). Qualität wird dabei explizit als nicht nutzenrelevant angenommen, womit im Folgenden gezeigt wird, dass Stars prinzipiell auch ohne Qualitätsvorteile entstehen können. Der individuelle Genuss, den Akteur i durch Konsum von Gütern des betrachteten Markts erfährt, ergibt sich damit aus ui = ui (x, y; Sx ). Der Konsumnutzen entsteht aus dem eigentlichen Güterbündel x und y sowie aus Sx , welches den sozialen Nutzeneinfluss über einen Stock an „sozialem Kapital“ wiedergibt.10 Dieses soziale Konsumkapital entspricht im vorliegenden Fall der aktuellen Marktnachfrage nach Gut x, d.h. Sx = Mt . Vereinfacht gibt Sx damit die herrschende Aufmerksamkeit für Gut x zum Zeitpunkt t an. Konformitätshypothese: Vorausgesetzt die aktuelle Marktnachfrage ist hinreichend relevant für den Konsumnutzen, wird sich der Konsum bei steigendem Sx zunehmend auf das populäre Gut x konzentrieren. Zentrale Annahme ist dabei, dass die aktuelle Nachfrage als Komplement bestimmter Güter dient und damit direkten positiven Einfluss auf den Konsumnutzen ausübt (vgl. Becker und Murphy 2000: 8-16). Besteht Komplementarität zwischen einem Gut und seiner Marktnachfrage, wird in den Sozialwissenschaften häufig von einem Bandwagon-Effekt gesprochen. Ein solcher Konformitätseffekt liegt für Akteur i vor, wenn ∂xi /∂Sx > 0 gilt; ein Produkt verkauft sich also unter sonst gleichen Bedingungen umso besser, je mehr Käufer dieses bereits erworben haben. Gilt diese Beziehung für nahezu alle Akteure eines Sozialsystems, entsteht weitreichende Konformität, also eine Homogenisierung des Kaufverhaltens. Der Quotient gibt die Stärke der Komplementarität und damit das Ausmaß sozialer Nachfrageverstärkung durch Popularität an. Bei nicht vorhandener Komplementarität, also bei „neoklassischem“ Nachfrageverhalten, gilt ∂xi /∂Sx = 0. Käufer entscheiden dann sozial unabhängig. Ein Anti-Konformitätseffekt liegt dagegen vor, wenn Sx und x Substitute 9 Zum

Matthäus-Effekt siehe Abschnitt 4.1.3 im ersten Band; zum Konzept der Pfadabhängigkeit siehe den Kasten in Kapitel 6 im ersten Band. 10 Der Begriff „soziales Kapital“ bezeichnet hier im Wortsinn von Becker und Murphy (2000) ein soziales Konsumkomplement und ist nicht mit Ressourcen aus Netzwerken persönlicher Beziehungen (z.B. Bourdieu 1983) oder aus einer funktionierenden Sozialordnung (z.B. Coleman 1990) zu verwechseln.

182

9 Stars und ihre Entstehung

darstellen. Bei einem solchen „Snob-Effekt“ gilt ∂xi /∂Sx < 0. Ein Produkt ist umso attraktiver, je weniger Käufer dieses bereits erworben haben. Die Nachfrage bleibt daraufhin heterogen, weshalb diese Form des interdependenten Konsumverhaltens keine Bestseller produzieren kann. Konsistent mit einem sich selbst verstärkenden Prozess kumulativen Wachstums begründet Moshe Adler (1985) die Entstehung von Stars. Hierbei lässt Adler die Annahme vollständiger Information unter Konsumenten bewusst fallen. Stars entstehen stattdessen gerade wegen einer vorherrschenden Entscheidungsunsicherheit. Aufgrund der schlechten Informationslage vor dem Kauf bestehen auf Konsumentenseite hohe Suchkosten. Dies gilt vor allem in Erfahrungsgütermärkten. Wirksame Strategien zur Minimierung von Suchkosten stellen die Imitation Anderer (z.B. über den Blick auf eine Bestsellerliste) sowie der Kauf in Folge von Mundpropaganda dar. Damit wenden schlecht informierte Nachfrager eine einfache Heuristik des „sozialen Beweises“ an (Cialdini 1984), wobei die Nachfrage nach einem Produkt als Signal für dessen Existenz und/oder Qualität dient. Auf diese Weise provoziert eine geringe Markttransparenz ein konformes Konsumverhalten (zu einem solchen Herdenverhalten siehe Kapitel 7 in diesem Band). Ferner entstehen Bestseller häufig in Märkten, deren Güter zu konsumieren zusätzliches Vorwissen voraussetzt. Nach Stigler und Becker (1977) kann man von einer Konsumnutzensteigerung durch verfügbares produktbezogenes Wissen ausgehen. Wissensgewinnung kann dabei auf drei Wegen erfolgen: Durch direkten Kontakt zum jeweiligen Angebot (aktueller oder vergangener Konsum), durch indirekten Kontakt über systemweite Informationskanäle (z.B. Massenmedien) oder durch persönlichen Austausch mit anderen Informierten (Mundpropaganda). Da aktuelle Popularität jeweilige Lernkosten verbilligt, bestehen starke Anreize zum Konformitätskauf. Nutzensteigerndes Konsumkapital kann aber nicht nur in Form aktueller Popularität vorliegen, sondern auch in Form von individuellem Gewohnheitskapital. Zusätzlich zum Wissensgewinn durch soziales Lernen ist ein Lernprozess durch eigenen Konsum plausibel (zum Gewohnheitskonsum siehe auch Kapitel 8 in diesem Band). Nach Stigler und Becker (1977) wird angenommen, dass Konsum Gewohnheiten bildet und damit individuelle Präferenzen prägt. Frühere vergleichbare Konsumhandlungen erhöhen somit die Attraktivität einer Handlungswiederholung. Gewohnheitshypothese: Präferenzbildung durch vergangenen Konsum stabilisiert kollektive Nachfragemuster, sodass einmal etablierte Anbieter vorhandene Gewohnheiten bedienen und auf entsprechend erhöhte Nachfrage stoßen. Gewohnheitsbildung, also „Konformität mit sich selbst“ kann Prozesse kumulativen Vorteils verstärken, sobald individuelle Gewohnheiten auf populäre Anbieter fallen. Eine solche Konzentration von Kaufgewohnheiten auf den Mainstream liegt empirisch tatsächlich häufig vor. Systemweite Effizienz durch Konformität ist allerdings nur gegeben, wenn tatsächlich gute Angebote Verbreitung finden. Entscheidungsheuristiken auf Basis sozialer Beweise können aber auch systematische Risiken bergen (z.B. Tversky und Kahneman 1974). Kann der entstehende soziale Zusatznutzen beim Kauf von Angeboten „über die man spricht“ mangelnde Qualität überkompensieren, werden rationale Käufer sogar ein qualitativ schlechtes Angebot zum Bestseller machen. Die herrschende Nachfrage verliert damit als Qualitätssignal an Validität. Das Marktergebnis unter Konformität muss damit keinesfalls zwangsläufig sozial effizient ausfallen. Stattdessen ist die Möglichkeit einer Nach-

9.3 Stars in Sport- und Musikmärkten

183

fragekonzentration auf schlechte Angebote explizit gegeben. Damit wird deutlich, dass die Entstehung von Stars auch ohne die Annahme von Qualitätsunterschieden erfolgen kann. Aufgrund der vom Rosen-Szenario abweichenden Bedingungen des Kaufs (unvollständige Information, hohe Suchkosten) erscheint der qualitätsunabhängige Prozess kumulativen Wachstums durch Konformität insbesondere für intransparente Märkte relevant. Durch Betrachtung aggregierter Verteilungsdaten kann jedoch nicht zwischen beiden möglichen generativen Prozessen der Optimierung oder der Konformität differenziert werden. Hierfür sind Daten auf Ebene einzelner Untersuchungseinheiten notwendig. Im Folgenden wird der empirische Erkenntnisstand zu Star-Phänomenen in Kulturmärkten zusammengefasst, denn insbesondere in Kulturmärkten bietet sich eine Überprüfung beider Nachfrageprozesse an. Hier existieren durchwegs Bestseller und Marktergebnisse sind entsprechend von extremer Ungleichheit geprägt. Die Märkte unterscheiden sich dabei in ihrer Transparenz, sodass prüfbar wird, unter welchen Bedingungen jeweilige Nachfrageprozesse auftreten. Für den Forscher bieten Kulturmärkte des Weiteren den Vorteil, dass prozessproduzierte Daten zum Verkaufserfolg, zu vergangener Popularität der Anbieter und häufig auch zu gehandelten Angebotsqualitäten vorliegen. Die folgende Darstellung konzentriert sich exemplarisch auf zentrale Untersuchungen von Sportmärkten (hohe Markttransparenz) sowie Musikmärkten (geringe Markttransparenz). Im Anschluss werden eigene Ergebnisse zur Entstehung von Bestsellern im Buchmarkt präsentiert.

9.3 Stars in Sport- und Musikmärkten Ein Optimierungsprozess setzt voraus, dass Konsumenten die Qualität verschiedener Angebote unmittelbar und hinreichend objektiv einschätzen können. Beide Bedingungen sind insbesondere im Sport erfüllt, wo z.T. empirische Bestätigung für die Existenz von Stars im Sinne von Rosen gefunden wird. Mit einer objektiven Neubemessung sportlichen Talents in jedem Wettkampf und der generellen Zuschauerpräferenz, einer Höchstleistung beizuwohnen, kommen Sportmärkte dem von Rosen skizzierten Marktszenario recht nahe. Nachdem auch für den Forscher Qualität direkt messbar ist, bietet der Sport eine fruchtbare Datengrundlage zur Untersuchung der Star-Entstehung. Entsprechend umfangreich ist auch die Zahl bisheriger Studien. Für die USA werden deutliche Einkommensvorteile leistungsstarker Sportler der nationalen Basketball- und Eishockeyligen berichtet (Frick 2001). Gemessen an eigenen Treffern, Vorlagen und erfolgreichem Defensivverhalten verdienen talentierte Spieler signifikant mehr. Das Ergebnis stützt die Optimierungserklärung. Lucifora und Simmons (2003) zeigen Ähnliches für den italienischen Profifußball (Serie A und B, Saison 1995/96). Auch deren Ergebnisse weisen auf eine leistungsabhängige Bezahlung hin, insbesondere in der Serie B. Eine leistungsunabhängige Popularitätsmessung und damit einen expliziten Test der Konformitätserklärung nehmen aber erst Franck und Nüesch (2012) vor. Diese erklären Differenzen im Marktwert von Spielern der deutschen Bundesliga (Saisonen 2001/02 bis 2005/06) mit direkt und indirekt beobachtbareren Qualitätsindikatoren sowie leistungsunhabhängiger Spielerbekanntheit. Direkt und kostenneutral beobachtbar sind Tore und Vorlagen bei Angreifern. Die Leistung von Torhütern wird an der Zahl der Gegentore gemessen. Als indirekte Leistungsindikatoren dienen u.a. von Experten des Fußballmagazins Kicker vergebene Schulnoten. Zum Test der Popularitätsthese werden die Zahl absolvierter Spiele jedes Fußballers (vergangener Fankonsum) sowie dessen Präsenz in Printmedien und

184

9 Stars und ihre Entstehung

Internet (aktuelle Popularität) beachtet. Entgegen vorangegangenen Untersuchungen, die ohne explizite Popularitätskontrolle starke Einkommenseffekte für sportliche Leistungen berichten, besitzt direkt beobachtbare Qualität nur noch eine verringerte Erklärungskraft für den Marktwert eines Profis. Der Marktwert korreliert stattdessen stark mit Expertenurteilen und leistungsunhabhängigen Popularitätsindikatoren. Damit bestehen auch für die Entstehung von Sportstars Hinweise auf einen qualitätsunabhängigen Konformitätsprozess. Es darf allerdings nicht vernachlässigt werden, dass gute Leistungen die Voraussetzung für den Beginn einer Profikarriere in der Bundesliga darstellen. Erst für Spieler innerhalb der reichweitenstarken Liga kann ein unterstützender Popularitätseffekt greifen. Weiterhin sucht eine Reihe von Studien in Musikmärkten nach Determinanten der Star-Entstehung. Hamlen (1991, 1994) führt die Nachfragekonzentration im USMusikmarkt auf Stimmharmonien von Sängern, also auf „Talent“ zurück. Aufgrund der fragwürdigen Qualitätsmessung und der mit steigendem Talent keinesfalls überproportionalen Verkaufszunahme werden seine Ergebnisse jedoch vielfach kritisiert (z.B. Schulze 2003).11 Salganik, Dodds und Watts (2006) boten in einem Online-Experiment 48 Lieder bisher unbekannter Musiker zum Herunterladen an. Internetnutzer, die während der Erhebungsphase die Webseite ansteuerten, wurden randomisiert verschiedenen Experimentalgruppen oder einer Kontrollgruppe (keine Angabe von Downloadzahlen oder anderen Stimuli) zugeordnet. In den Experimentalmärkten wurden jeweils unterschiedliche soziale Stimuli gesetzt, dazu zählen die Angabe bisheriger Downloadzahlen und die Darstellung der Lieder in der Rangfolge ihrer aktuellen Popularität. Nach Hörproben konnten die Nachfrager der verschiedenen Märkte Qualitätsbewertungen abgeben und den Song downloaden. Die Qualitätsmessung erfolgte über Bewertungen aus dem Kontrollmarkt. Das jeweilige Marktergebnis lässt sich anhand der realisierten Downloadzahlen bemessen. In den Experimentalmärkten erweist sich das Konsumentenverhalten als stark sozial geprägt. Die Erfolgsungleichheit nimmt unter sozialer Beeinflussung deutlich zu, wobei die Nachfragekonzentration in Märkten mit Rangfolgendarstellung besonders stark ausfällt. Dabei stabilisiert sich trotz identischer Startzustände in jedem „Markt“ ein unterschiedliches Endergebnis, wobei identische Songs selten ähnliche Downloadzahlen erreichen und realisierter Erfolg weitestgehend unabhängig von gemessener Produktqualität ausfällt. Entsprechend der Konformitätshypothese werden in den betrachteten sozialen Musikmärkten nicht a priori gebildete Präferenzen der Konsumenten aggregiert, sondern Marktergebnisse unter sozialer Beeinflussung erreicht. In einer Folgestudie gelingt es Salganik und Watts (2008), Herdenverhalten künstlich zu lenken. Um sich selbst erfüllende Prophezeiungen zu stimulieren, drehten Salganik und Watts nach einer hinreichend langen Versuchszeit das Ranking der tatsächlich realisierten Downloadzahlen innerhalb einzelner Experimentalmärkte um. Allen nachfolgenden Versuchsteilnehmern werden damit ursprünglich falsche Popularitätsinformationen präsentiert. Dabei zeigt sich, dass die meisten manipulierten Songs Gegenstand einer sich selbst erfüllenden Prophezeiung werden. Das bedeutet, die künstlich induzierte Popularität (hoch für vormals unbeliebte oder niedrig für vormals beliebte Lieder) wurde über die Zeit real, weil Teilnehmer die gefälschte Popularität als Qualitätssignal missverstanden. Insgesamt kann die externe Validität der Ergebnisse natürlich in Frage gestellt werden. Schließlich sind die „Konsumenten“ der „Musikmärkte“ lediglich Probanden in einem 11 Für

eine kurze Darstellung weiterer Untersuchungen insbesondere zu Unterhaltungsmärkten siehe ebenfalls Schulze (2003), für den verwandten Kinomarkt siehe DeVany (2004).

9.4 Stars im Buchmarkt

185

virtuellen Labor. Und letztlich wurde nicht deren Verhalten beim Kauf von Musik (insbesondere nicht von physischen Tonträgern) untersucht, sondern ihr Downloadverhalten in einer Umwelt kostenlos angebotener Musikstücke. Zum Verständnis sozialer Ansteckung in Erfahrungsgütermärkten sind die Resultate der Forschergruppe allerdings wegweisend. Wie erwähnt konzentrieren sich Untersuchungen der Star-Entstehung vor allem auf Unterhaltungsmärkte. Folgt man Frank und Cook (1995), so ist die Existenz von Stars aber keinesfalls auf Kulturmärkte beschränkt. Anwendungsfälle sind darüber hinaus z.B. im internationalen Wettbewerb geografischer Standorte (z.B. Migrationsziele von Hochqualifizierten) und im Wettstreit um Produkttechnologien (z.B. technische Standards) gegeben. Auch hier führen Konzentrationsprozesse zu überproportionalem Erfolg weniger Auswahlmöglichkeiten.

9.4 Stars im Buchmarkt Dieser Abschnitt stellt eine eigene Untersuchung zur Entstehung von Stars im Buchmarkt vor. Die Nachfragebedingungen im Buchmarkt ähneln dabei denen in Musikmärkten. Allein in Deutschland werden jedes Jahr mehr als 90 000 neue Belletristik- und Sachbücher verlegt (Börsenverein 2007), sodass sich Leser mit einer Flut an Neuerscheinungen konfrontiert sehen. Gleichzeitig besteht eine geringe Qualitätstransparenz aufgrund der Erfahrungsgutcharakteristik von Büchern. Dabei fällt der Konsum in Büuchmärkten stark konzentriert aus, sodass hohe Ungleichheit im Verkaufserfolg einzelner Angebote besteht. Das Marktergebnis beschreiben Abbildung 9.3 und Abbildung 9.4 auf Makroebene. Nachfolgend wird untersucht, welcher Nachfrageprozess das hoch konzentrierte Marktergebnis erzeugt und so zur Entstehung von Bestsellern führt. Hierzu wird zunächst eine modellgeleitete Hypothesenformulierung veranschaulicht und anschließend der verwendete Datensatz vorgestellt. Abschließend kann gezeigt werden, dass „Qualität“ für Bucherfolg insgesamt kaum empirische Relevanz besitzt. Lediglich in einem Teilmarkt mit verbesserter Informationslage ist Qualität positiv mit Verkaufserfolg assoziiert.

9.4.1 Modellspezifikation und Hypothesen Durch Bestimmung von relevanten Erfolgsfaktoren kann die Erklärungskraft beider möglicher Entstehungsmechanismen von Stars für Buchmärkte überprüft werden. Dabei können auch Rückschlüsse über Entscheidungsregeln und Heuristiken getroffen werden, welche von Konsumenten genutzt werden, um sich in einem Marktumfeld mit geringer Information zurechtzufinden. Werden beide Nachfrageprozesse integriert abgebildet, gilt für die Marktnachfrage M von Buch x die theoretische Funktion M = M (Qx , Sx , Kx ). Das Konstrukt Qx entspricht der Qualität von x. Sx bildet die aktuelle Aufmerksamkeit für x ab und kann nach Adler (1985) als Stock verfügbarer Produktinformationen interpretiert werden. Kx entspricht schließlich der Bekanntheit des Autors von x und bildet damit einen Stock an assoziiertem Gewohnheitskapital der Leser ab. Weil der verwendete Bücherdatensatz keine Informationen über individuelle Konsumgeschichten enthält, können Lesegewohnheiten nur über kollektives Konsumkapital, also über systemweit verfügbare

186

9 Stars und ihre Entstehung

Wissensbestände erfasst werden.12 Angenommen wird, dass jedes der drei Elemente Qx , Sx und Kx die Marktnachfrage M positiv beeinflusst. Durch Umformung der Funktion in ein statistisches Modell wird die Nachfragerelevanz von jedem der drei Konstrukte schätzbar: ˆ 4 ·zi + u ln yi = ˆb0 + ˆb1 · Qi + ˆb2 · Si + ˆb3 · Ki + b ˆi , mit Büchern i = 1, 2, ..., n. Die zu erklärende Zielvariable ist ln yi , der logarithmierte Gesamterfolg von Buch i. Neben den theoretisch interessierenden Einflussgrößen bildet der Vektor z weitere relevante Buch- und Umwelteigenschaften ab. Im Störterm u ˆi werden alle nicht beobachteten (zufälligen) Einflussgrößen der Buchnachfrage zusammengefasst. Die Schätzer ˆbk sind die zu bestimmenden Parameter. Nach den eingeführten Hypothesen gilt: Entsprechend der Optimierungsthese kaufen Leser einfach „das beste Buch“, womit ˆb1 > 0 vorliegen muss; entsprechend der Konformitätsthese sollte dagegen ˆb2 > 0 und nach ˆ 4 6= 0 angenommen. der Gewohnheitsthese ˆb3 > 0 gelten. Ferner wird b Die bisherige Bestsellerforschung für Buchmärkte beschränkt sich auf die Messung positiver Nachfrageeffekte durch vergangenen Autorenerfolg (Clement, Proppe und Sambeth 2006), Bestsellerlisten-Notierungen (Sorensen 2006), Rezensionen (Berger, Sorensen und Rasmussen 2010), Literaturpreise (Clement, Proppe und Sambeth 2006) und Mundpropaganda (Chevalier und Mayzlin 2006). Eine objektive Qualitätsmessung zum expliziten Test der Optimierungshypothese sowie eine Gegenüberstellung zum Konformitätsprozess ist bisher nicht vorgenommen worden.13

9.4.2 Daten und Operationalisierung Die Daten zum Verkaufserfolg von 798 Top 50-Büchern der Belletristik für den Beobachtungszeitraum September 2001 bis August 2006 stammen von Buchreport (2008) und liegen wöchentlich als ordinale Rangplatzierungen rit vor. Es gilt rit ∈ [1, 50] mit Büchern i = 1, 2, ..., n und Wochen t = 1, 2, ..., T . Für jedes der 798 Bücher ist eine Zeitreihe des individuellen Platzierungsverlaufs zu beobachten. Die n Zeitreihen weisen unterschiedliche Längen T auf. Weil für den deutschen Buchmarkt keine absoluten Verkaufszahlen veröffentlicht werden, wird der Verkaufserfolg eines Buchs anhand von Rang und Häufigkeit seiner Top 50-Notierungen gemessen. PTDer Erfolg von i ergibt sich aus der Summe seiner inversen Wochenplatzierungen yi = t (51 − rit ). Es werden also für eine Platzierung auf dem ersten Rang 50 Punkte, für den zweiten Rang 49 Punkte,..., für Rang 50 ein Punkt vergeben. In einem zweiten Schritt werden die ordinalen Punkte für jedes Buch über dessen gesamte Verweildauer in den Top 50 aufaddiert.14 Die entstandene Punktevariable ist extrem rechtsschief verteilt und folgt im oberen Bereich (135 Bücher) einem Potenzgesetz (vgl. Abbildung 9.4). Die korrespondierende Buchqualität wird zweidimensional erfasst. Zum einen über Sterne-Bewertungen durch Nutzer des Onlinehändlers Amazon. Der quasi-metrische Indikator bildet von Lesern eingeschätzte Buchqualitäten ab. Die Spannweite reicht von 1 („mag 12 Zu

kollektiven Gewohnheiten und einer kritischen Diskussion, ob Modellierungen über systemweite Konsumkapitalstöcke methodologisch sinnvoll sind, siehe Kapitel 8 in diesem Band. 13 Für eine umfangreiche Darstellung des Forschungsstands siehe Blömeke et al. (2007) oder Keuschnigg (2012a). Aus letzterem Beitrag sind auch die nachfolgenden Ergebnisse entnommen. 14 Für eine vergleichbare Operationalisierung von Produkterfolg in Unterhaltungsmärkten siehe Bradlow und Fader (2001) und Clement, Proppe und Sambeth (2006); für eine Kritik und Verbesserung dieser ordinalen Erfolgsmessung siehe Keuschnigg (2012a).

9.4 Stars im Buchmarkt

187

ich überhaupt nicht“) bis 5 („gefällt mir sehr“), wobei aufgrund halbstufiger Rundung der Durchschnittsbewertung insgesamt neun Kategorien vorliegen. Kritikerbasierte Qualitätseinschätzungen bietet dagegen eine Bestenliste des Südwestrundfunk (SWR). Hier geben jeden Monat 32 Literaturkritiker ihrer Meinung nach lesenswerte Bücher an. Eine Nennung wird dichotom erfasst (82 Titel weisen den Wert 1 für hohe literarische Güte auf). Ein Informationsschock (Steigerung von S durch öffentliche Ankündigung eines Buchs) kann mit den binären Variablen Lesen! und Rezension modelliert werden. Lesen! weist den Wert 1 auf, wenn i in der gleichnamigen TV-Sendung genannt wurde (diese war während des Betrachtungszeitraums die reichweitenstärkste Literatursendung im deutschen Fernsehen). Für Rezension gilt 1, wenn i in mindestens einer der großen Periodika Süddeutsche Zeitung, Frankfurter Allgemeine Zeitung oder Die Zeit besprochen wurde. Anzumerken ist, dass die Schätzungen für Parameter ˆb2 von Selbstselektion verzerrt sein können, weil sich Kritiker vor allem aussichtsreiche Bücher für eine Besprechung aussuchen. Mit Hilfe einer Panelanalyse, welche buchspezifische Ränge im Zeitverlauf betrachtet, kann dieses Endogenitätsproblem gelöst werden. Keuschnigg (2012a,b) zeigt, dass die hier berichteten Informationseffekte auch unter Kontrolle von Selbstselektion erhalten bleiben. Kollektives Konsumkapital K wird dichotom anhand der Autorenbekanntheit gemessen. Die binäre Variable etablierter Autor erhält den Wert 1, wenn der Autor von Buch i vor dessen Erscheinen bereits Top 50-Erfolg verzeichnete. Zudem wird das Ausmaß der Bekanntheit und damit die Höhe des systemweit vorhandenen Wissensvorrats für etablierte Autoren metrisch erfasst. Die entsprechende Variable Bekanntheit entspricht der Summe bisheriger Wochennotierungen eines Autors in den Top 50. Die Variable ist stark rechtsschief und wird für den linearen Gebrauch logarithmiert.

9.4.3 Ergebnisse für die deutsche Belletristik Es werden OLS-Regressionen in log-linearer Spezifikation geschätzt, d.h. die abhängige Variable geht logarithmiert in die Schätzform ein. Weil für einen empirischen Test konkurrierender Theorien vorrangig relative Effekte verschiedener Regressoren interessieren, werden in der Ergebnistabelle standardisierte Beta-Koeffizienten ausgewiesen. Die Effekte sind damit näherungsweise als prozentuale Reaktion der standardisierten Zielvariable bei einer Veränderung des Regressors um eine Standardabweichung zu interpretieren. Die standardisierten Schätzer ermöglichen einen einheitenfreien Vergleich der Effekte über einzelne Regressoren hinweg und zeigen die Deutlichkeit eines Einflusses auf den logarithmierten Bucherfolg an. Die Schätzergebnisse in der Tabelle zeigen die Erklärungskraft der drei Konstrukte Qualität, aktuelle Aufmerksamkeit und vergangene Popularität. Kontrolliert wird auf Seitenpreis, Verlagsstärke und die buchspezifische Wettbewerbssituation. Um genrespezifische Effekte konstant zu halten, werden sechs Genre-Dummies aufgenommen. Die Referenzkategorie bilden Bücher der größten Gattung „Roman und Erzählung“, signifikante Genreeffekte auf den Bucherfolg bestehen allerdings nicht. Mit einem Anteil erklärter Varianz von 18% (R2 aus Modell 1) können die theoretisch relevanten Regressoren sowie die Kontrollvariablen die Varianz von Bucherfolg nur unzureichend erklären. Hierbei zeigt sich die angesprochene Unplanbarkeit von Bestsellererfolg. Dennoch existieren deutliche Effekte einzelner Variablen, wobei theoretisch interessante Abweichungen zwischen den Teilmärkten unbekannter Autoren (geringe Markttransparenz) und etablierter Autoren (erhöhte Markttransparenz) sichtbar werden.

188

9 Stars und ihre Entstehung Tabelle 9.1: Determinanten des Bucherfolgs

Q

Amazon-Sterne SWR-Bestenliste

S

Lesen! Rezension

K

etablierter Autor

(1) Gesamtmarkt

(2) unbekannte Autoren

(3) etablierte Autoren

–0,047 (1,49) 0,034 (0,93)

–0,116∗ (2,49) 0,066 (1,26)

0,117∗∗ (2,53) 0,094 (1,88)

0,172∗∗∗ (5,21) 0,177∗∗∗ (4,39)

0,255∗∗∗ (5,38) 0,167∗∗ (2,99)

0,051 (1,05) 0,123∗ (2,29)

0,266∗∗∗ (7,46) 0,492∗∗∗ (11,78)

ln Bekanntheit ln Seitenpreis Verlag Wettbewerb Konstante n R2 korr. R2

–0,140∗∗∗ (3,63) 0,138∗∗∗ (3,81) –0,113∗∗∗ (3,53) 4,897∗∗∗ (9,30)

–0,169∗∗ (3,09) 0,138∗∗ (2,88) –0,074 (1,62) 5,765∗∗∗ (8,02)

–0,102∗ (1,93) 0,059 (1,28) –0,103∗ (2,29) 1,700∗∗ (2,30)

798 0,181 0,166

405 0,172 0,145

393 0,325 0,300

OLS-Regressionen mit robusten Standardfehlern. Standardisierte Koeffizienten und robuste t-Werte (in Klammern) ausgewiesen. Abhängige Variable: ln Bucherfolg in Punkten. ∗∗∗ p 0). Die Lorenzkurve liegt in diesem Fall zunächst auf der X-Achse und knickt an deren Ende schließlich senkrecht nach oben ab. Damit nimmt die Fläche zwischen der Kurve und der Diagonalen ihre größtmögliche Ausdehnung an. Das Lorenz-Diagramm erlaubt ausdrücklich auch die gleichzeitige Darstellung mehrerer Verteilungen, wobei durch einen direkten Vergleich der Lorenzkurven Aussagen darüber getroffen werden können, welche der Verteilungen konzentrierter bzw. gleichverteilter ausfällt. Ein derartiger Vergleich ist allerdings nur zulässig, solange sich die einzelnen Lorenzkurven nicht überschneiden. B. Gini-Koeffizient Auf dem Prinzip der Lorenzkurve aufbauend kann der Gini-Koeffizient G als statistische Maßzahl für Ungleichheit bestimmt werden (z.B. Jann 2005: 56-58). G ist dabei gegeben als Verhältnis der Fläche zwischen Diagonaler und Lorenzkurve zur Gesamtfläche unterhalb der Diagonalen. Im Fall vollständiger Gleichheit hat die Fläche zwischen Diagonaler und Lorenzkurve die Größe 0 und das Verhältnis zur Gesamtfläche 0,5 lautet 0/0, 5 = 0. Im

200

10 Nationale und internationale Einkommensverteilung

Fall vollständiger Ungleichheit beträgt die Fläche zwischen Diagonaler und Lorenzkurve 0,5, womit das Verhältnis 0, 5/0, 5 = 1 entspricht. Der Gini-Koeffizient kann damit Werte zwischen 0 (vollständige Gleichheit) und 1 (vollständige Ungleichheit) annehmen. Formal ist der Gini-Koeffizient gegeben mit  Pn  2 · i=1 (i · yi ) n + 1 n Pn G= − · , n n−1 n · i=1 yi wobei n die Stichprobengröße angibt. Es gilt G ∈ [0, 1]. Dieser normierte Koeffizient wird zur vergleichbaren Bemessung nationaler und internationaler Einkommensungleichheit verwendet. In der Literatur wird G auch häufig mit 100 multipliziert dargestellt. Der Gini-Koeffizient ist nicht nur aufgrund seiner einfachen Interpretierbarkeit beliebt, sondern erfüllt auch entscheidende Gütekriterien eines brauchbaren Ungleichheitsmaßes. Dazu zählen eine von der zugrundeliegenden Populationsgröße unabhängige Ungleichheitsbestimmung (principle of population), die Sensibilität des Maßes bezüglich relativer, nicht aber absoluter Verteilungsänderungen (Bresciani-Turroni-Bedingung) sowie das sog. „weak principle of transfers“, wonach Transferzahlungen reicher Untersuchungseinheiten an ärmere Einheiten zur Verringerung der gemessenen Ungleichheit führen.3 Neben den genannten Vorteilen ist die Verwendung des Gini-Koeffizienten allerdings mit zwei Nachteilen verbunden: (1) Beim Vergleich von zwei oder mehreren Messungen muss darauf geachtet werden, dass sich korrespondierende Lorenzkurven nicht schneiden. (2) Der Gini-Koeffizient liefert keine Erkenntnisse darüber, welche Verteilungsform der gemessenen Ungleichheit zugrunde liegt. Es kann auch für zwei völlig unterschiedliche Einkommensverteilungen derselbe GiniKoeffizient gelten, z.B. für eine von wenigen Reichen und eine von vielen Armen dominierte Verteilung. Beide Schwachstellen können unter Verwendung alternativer Maße umgangen werden. C. Quantilvergleiche Als recht junge Neuerung in der Ungleichheitsforschung ist ein Polarisierungsindex von Handcock und Morris (1999) zu nennen. Dieser ermöglicht einen präzisen Vergleich der Form zweier Verteilungen und dient damit insbesondere der Charakterisierung von Verteilungsänderungen innerhalb einer Population im Zeitverlauf. Bei der Konstruktion des Maßes wird der Anteil von Untersuchungseinheiten in einzelnen Einkommensquantilen eines Basisjahres mit der Besetzung der Einkommensquantile im Vergleichsjahr verglichen. Der Koeffizient nimmt Werte zwischen −1 und 1 an, wobei der Wert 0 auf Konstanz der relativen Einkommensverteilung zwischen Basis- und Vergleichsjahr hinweist. Negative Werte indizieren eine Angleichung der Einkommen durch Wachstum des mittleren Einkommensbereichs (Vergrößerung der Mittelschicht). Positive Werte weisen auf eine zunehmende Polarisierung der Einkommensverteilung hin (Verkleinerung der Mittelschicht). Zudem kann unterschieden werden, ob Änderungen der Polarisierung durch Veränderung des Bevölkerungsanteils der Armen oder durch Veränderung der Zahl der Reichen entstehen. Im Fall eines negativen Polarisierungswertes kann das Wachstum der Mittelschicht nämlich sowohl durch Verkleinerung des Bevölkerungsanteils der Armen (Upgrading) als auch durch Verkleinerung der Zahl der Reichen (Downgrading) hervorgerufen werden. Gleiches gilt bei 3 Zu

diesen und weiteren Gütekriterien der Ungleichheitsmessung siehe Allison (1978) und Engelhardt (2000).

10.1 Methodische Grundlagen

201

positiven Indexwerten für eine zunehmende Polarisierung: Eine schwindende Mittelschicht kann ein Anwachsen des Anteils Armer (Downgrading) oder Reicher (Upgrading) bedeuten. Unter Verwendung dieses Maßes berichten Alderson, Beckfield und Nielsen (2005) für einige OECD-Staaten eine wachsende Polarisierung seit den 1970er Jahren. Dazu zählen insbesondere die USA und Großbritannien. Die Konzentrationsprozesse in beiden Ländern unterscheiden sich jedoch grundlegend: Während die Polarisierung in den USA vor allem durch Upgrading zunahm, dominiert in Großbritannien ein Downgrading-Prozess. Diese exemplarischen Ergebnisse verdeutlichen, dass der Polarisierungsindex inhaltliche Aussagen zum vorherrschenden Ungleichheitsprozess ermöglicht. Weniger komplex und daher intuitiv verständlicher vermag auch ein einfacher Quantilvergleich die beiden Schwachstellen des Gini-Koeffizienten zu lösen. Ein Vergleich von Quintilen (20%-Abschnitte einer Verteilung) kann folgendermaßen aussehen: Das Gesamteinkommen ya der ärmsten 20% der Populationsmitglieder wird ins Verhältnis zum Gesamteinkommen yr der reichsten 20% einer Population gesetzt. Bei vollständiger Gleichheit gilt ya = yr und damit V = ya /yr = 1. Wenn jedoch wie typisch ya < yr gilt, werden Verhältniswerte von V < 1 erreicht, welche stetig fallen, je höher das Gesamteinkommen der Reichen gegenüber dem der Armen ausfällt. Der Wert V = 0 wird erreicht, wenn die ärmsten 20% gar nichts mehr besitzen.4 Quintilvergleiche sind über unterschiedliche Populationsgrößen, Wohlstandsniveaus und Landeswährungen direkt möglich. Im Übrigen können ya und yr auch als jeweilige Anteile am Gesamteinkommen der Population operationalisiert werden. Der Wert von V verändert sich dabei nicht. Auch können Einkommensquantile verschiedener Größe ins Verhältnis gesetzt werden. Die Verwendung von Quintilen hat den Vorteil, dass weder zu kleine Gruppen, deren Einkommensbildung speziellen Prozessen unterliegt und/oder deren Einkommensdaten nur schlecht erfasst sind (z.B. im Fall von 5%-Perzentilen), noch zu große Bevölkerungsteile mit entsprechend unspezifischer Aussage (z.B. im Fall von 50%Perzentilen) miteinander verglichen werden. Abschließend sei betont, dass die vorgestellten Ungleichheitsmaße nicht mit Armutsmaßen zu verwechseln sind. Ungleichheit und Armut sind stattdessen zwei unterschiedliche gesellschaftliche Merkmale, die sich oftmals diametral gegenüberstehen (z.B. Sen 1997): Denkbar ist z.B. eine unterentwickelte Agrarwirtschaft mit hoher Einkommensgleichheit, aber einer insgesamt armen Bevölkerung; ebenfalls vorstellbar ist eine hoch entwickelte Industrienation mit hoher Einkommensungleichheit aber ohne absolute Armut. Ein brauchbares Armutsmaß stellt das Gesamteinkommen des untersten Bevölkerungsquintils dar, also die Summe aller Einkommen der ärmsten 20% einer Gesellschaft (z.B. Basu 2011). Anders als die vorgestellten Ungleichheitsmaße ermöglicht dieser Indikator die Betrachtung des Ausmaßes und der Entwicklung von Armut in einem Land und einen Vergleich von Armut zwischen Ländern.5

4 In

der vorgeschlagenen Form reagiert das Ergebnis des Quintilvergleichs V stark auf Relationsveränderungen im moderaten Ungleichheitsbereich. Wird das Quintilverhältnis stattdessen andersherum als V = yr /ya definiert, reagiert das Ungleichheitsmaß stärker auf relative Änderungen im extremen Ungleichheitsbereich. V hat dann einen Wertebereich von 1 (vollständige Gleichheit) bis +∞ (vollständige Ungleichheit). 5 An der Höhe des Quintileinkommens lässt sich auch das „tolerierbare Ungleichheitsniveau“ einer Volkswirtschaft bemessen (vgl. ebenso Basu 2011: 167-176): Folgt man der Maximin-Regel von Rawls (1971), dann sollte sich eine Gesellschaft nur eine solche Ungleichheit leisten, mit welcher ein maximal hohes Einkommen für die ärmsten 20% erreicht wird.

202

10 Nationale und internationale Einkommensverteilung

10.2 Nationale Einkommensverteilung Zunächst werden die aktuelle Einkommensverteilung innerhalb Deutschlands beschrieben sowie wesentliche Veränderungen im Vergleich zu 1991 veranschaulicht. Anschließend wird die Perspektive auf Einkommensungleichheiten und deren historische Entwicklung in weiteren Gesellschaften erweitert, wobei Gini-Koeffizienten für exemplarische Staaten aus verschiedenen Regionen der Erde, mit unterschiedlichem Entwicklungsstand sowie variierenden Wirtschaftsordnungen für den Zeitraum von 1970 bis heute berichtet werden. Damit stehen auch Vergleichswerte zur Verfügung, um das Ausmaß der Ungleichheit in Deutschland einordnen zu können.

10.2.1 Beobachtete Einkommensverteilung innerhalb von Ländern Die zunächst verwendeten Einkommensdaten für Deutschland sind die oben erwähnten ALLBUS-Daten für 2008. Wie beschrieben, werden diese gewichtet verwendet. Abbildung 10.2 zeigt die Dichteverteilung der Haushaltseinkommen in Deutschland. Das monatlich verfügbare Einkommen deutscher Haushalte liegt in einer Spannweite von 0 bis 10 500 Euro, wobei für die Maße der zentralen Tendenz folgende Reihung gilt: Modus (1 250 Euro) < Median (1 875) < arithmetischer Mittelwert (2 104).6 Das Einkommen ist damit deutlich rechtsschief verteilt. Der Gini-Koeffizient nimmt für die Einkommensverteilung von 2008 den Wert G = 0, 336 an. In Quintilen ausgedrückt verfügen die ärmsten 20% der Haushalte über einen Anteil von 5,4% am monatlichen Gesamteinkommen der gewichteten Stichprobe. Die reichsten 20% der Haushalte kommen dagegen auf einen Anteil von 41,8%. Ein Quintilvergleich ergibt das Verhältnis V = 0, 054/0, 418 = 0, 13. Die Armen verfügen damit durchschnittlich über nur 13% der Monatseinkommen von Reichen. Beide Maßzahlen G und V weisen also für Deutschland eine deutliche Einkommensungleichheit aus.

.0002 0

.0001

Dichte

.0003

Abbildung 10.2: Dichteverteilung der verfügbaren Haushaltseinkommen

0

2500

5000

7500

10000

monatlich verfügbares HH−Einkommen

Quelle: ALLBUS 2008; eigene Berechnung.

6 Der

Modus wurde durch Kategorisierung der Einkommensausprägungen in 500 Euro-Intervalle bestimmt: Am häufigsten tritt die Kategorie 1 000–1 500 Euro auf, deren Mittel 1 250 Euro beträgt.

10.2 Nationale Einkommensverteilung

203

0

.2

Dichte

.4

.6

Abbildung 10.3: Dichteverteilung in logarithmierter Darstellung

500

1000

2500

5000

10000

monatlich verfügbares HH−Einkommen

Die gestrichelte Anpassungskurve entspricht einer Lognormalverteilung, deren Mittelwert µ und Varianz σ 2 identisch zu der beobachteten Verteilung sind.

Vergleichbare Einkommensdaten für Gesamtdeutschland wurden im ALLBUS erstmals 1991 erhoben. Die damalige Erhebung bietet einen Vergleichspunkt zur Bestimmung der deutschen Ungleichheitsentwicklung in den letzten beiden Jahrzehnten. Das verfügbare Haushaltseinkommen wurde 1991 noch in D-Mark erhoben und zwischenzeitlich fand eine erhebliche Geldentwertung statt. Dies spielt jedoch bei einem Vergleich relativer Verteilungen keine Rolle. Für die Einkommensverteilung von 1991 gilt der Gini-Koeffizient G = 0, 309 und das Quintilverhältnis V = 0, 071/0, 382 = 0, 185. Vergleicht man beide Maße mit den Werten für 2008, zeigt sich eine wachsende Einkommensungleichheit in Deutschland. Ursache für die höhere Ungleichheit ist eine zunehmende Polarisierung der Einkommen, wobei den ALLBUS-Daten zufolge allerdings nicht der Populationsanteil armer Haushalte stieg, sondern der Anteil reicher Haushalte zunahm (Upgrading). Betrachtet man die deutsche Einkommensverteilung genauer, ist eine annähernd lognormale Form zu erkennen (Abbildung 10.3).7 Eine Variable X folgt allgemein einer Lognormalverteilung, wenn X = ln Y normalverteilt ist, wobei ln Y den natürlichen Logarithmus der Ursprungsvariable Y darstellt (z.B. Rinne 1995). Während für eine Normalverteilung mit Mittelwert µ und Standardabweichung σ aufgrund ihrer unimodalen Symmetrie8 Modus, Median und arithmetisches Mittel zusammenfallen, trifft dies nicht 2 für die Lognormalverteilung zu. Hier ist der Modus stattdessen mit eµ−σ , der Median mit 2 eµ und der Mittelwert mit eµ+0,5·σ gegeben, sodass für die rechtsschiefe Verteilung die Mittelwertabfolge Modus < Median < Mittelwert gilt. Die Einkommensungleichheit in Deutschland fällt nach internationalen Maßstäben allerdings sehr moderat aus (siehe Tabelle 10.1). Lediglich weitere Wohlfahrtsstaaten wie 7 Seit

Pareto (1896) – vgl. Abschnitt 4.1.3 im ersten Band – haben sich mehrere Forschergenerationen mit der Bestimmung der funktionalen Form von Einkommensverteilungen beschäftigt. Dabei werden insbesondere Potenzverteilungen und Lognormalverteilungen zur Beschreibung von Einkommensdaten herangezogen (z.B. Simon 1955; Aitchison und Brown 1957; Badger 1980; Harrison 1981). Daneben können auch andere Verteilungstypen Einkommensdispersionen zufriedenstellend abbilden. Dazu zählen beispielsweise Sichelfunktionen (z.B. Diekmann und Mitter 1983). 8 Eine unimodale Verteilung hat nur einen Gipfel; eine symmetrische Verteilung folgt auf beiden Seiten des Gipfels einer identischen Verlaufsform (nicht jede symmetrische Verteilung ist unimodal und umgekehrt).

204

10 Nationale und internationale Einkommensverteilung Tabelle 10.1: Entwicklung der Einkommensungleichheit seit 1970 OECD

2000er 1990er 1980er 1970er

Lateinamerika

Frankreich

Schweden

UK

USA

Russland

Polen

Mexiko

Brasilien

0,30 0,29 0,30/0,19a 0,33/0,20a

0,28 0,29 0,35 0,37

0,25 0,27 0,26 0,32

0,34 0,34 0,30 0,29

0,44 0,42 0,41 0,41

0,44 0,41 0,26 0,26

0,35 0,29 0,24 0,24

0,52 0,54 0,51 0,52

0,58 0,59 0,59 0,59

Nordafrika

2000er 1990er 1980er 1970er

Osteuropa

Deutschland

Subsahara-Afrika

Mittlerer Osten

Asien

Marokko

Ägypten

Botswana

Kenia

Südafrika

Israel

Iran

China

Indien

0,41b 0,39 0,44 0,57

0,36 0,34 0,32c 0,38

0,61c 0,54 0,56 0,57

0,43b 0,59 0,57 0,62

0,57 0,59 0,47 0,49

0,38 0,35 0,35 0,36

0,45b 0,44 0,47c 0,56

0,46 0,37 0,30 0,29

0,37 0,32 0,31 0,37

a

Der erste Wert bezieht sich auf die BRD, der zweite auf die DDR. Quelle: World Income Inequality Database des World Institute for Development Economics Research (2010). Diese Datensammlung fasst Ungleichheitsmessungen zu verschiedenen Zeitpunkten aus allen Staaten der Welt zusammen. Die hier ausgewiesenen Koeffizienten sind Mittelwerte meist mehrerer GiniMessungen des entsprechenden Jahrzehnts. Sofern möglich, beruhen die Messungen dabei auf „verfügbaren Haushaltseinkommen“. Fehlende Werte wurden mit Angaben (b ) der CIA (2011) und (c ) des OnlineDatenarchivs NationMaster (2010) ergänzt.

Schweden oder Frankreich weisen aktuell eine schwächere Ungleichverteilung auf. Deutlich höher sind Einkommensungleichheiten in anglo-amerikanischen Staaten sowie in Staaten mit geringem wirtschaftlichen Entwicklungsstand, insbesondere in afrikanischen Ländern südlich der Sahara. Auch Südafrika, obwohl wirtschaftlich fortschrittlich, zeichnet sich durch hohe Ungleichheit aus. Drastisch fiel die Zunahme nationaler Ungleichheiten in Osteuropa nach dem Fall des Eisernen Vorhangs aus, genauso in China seit den Lockerungen der Planwirtschaft. Zwar war die Ungleichheit innerhalb dieser Länder während ihrer sozialistischen Phase deutlich geringer, festzuhalten ist dennoch, dass Einkommen auch hier rechtsschief verteilt waren. In Indien macht sich das rasante Wirtschaftswachstum seit den 1990er Jahren in Form gestiegener Ungleichheiten bemerkbar. Hier wurde zuletzt wieder das Ungleichheitsniveau der 1970er erreicht. Eine stabile, sehr hohe Konzentration zeigt sich dagegen in lateinamerikanischen Staaten, deren Volkswirtschaften noch immer von feudal-familiären Strukturen beherrscht sind. Obwohl sie geografische Nachbarn sind, bestehen auch zwischen Israel, mit einer marktliberalen Wirtschaftsordnung, und dem Iran, mit einer staatlich dominierten Wirtschaft, deutliche Unterschiede in der nationalen Einkommensverteilung. Veränderungen nationaler Einkommensungleichheiten konnten lange Zeit mit einer umgekehrt U-förmigen Beziehung zwischen wirtschaftlichem Entwicklungsstand (X-Achse) und Einkommensungleichheit (Y-Achse) beschrieben werden (siehe Abbildung 10.4). Der nach seinem Entdecker als „Kuznets-Kurve“ bekannte Zusammenhang (Kuznets 1965) galt für viele heutige OECD-Staaten über den Zeitverlauf des 19. und weite Teile des 20. Jahrhunderts (z.B. Lecaillon et al. 1984; Williamson und Lindert 1980). Seit den 1970er Jahren werden allerdings zunächst innerhalb der USA und seit den 1980er Jahren auch zunehmend in europäischen Staaten wieder steigende Einkommensungleichheiten gemessen, sodass nun von einem „Great U-Turn“ die Rede ist (Alderson und Nielsen 2002; Nielsen und Alderson 1997; Nollmann 2006).

10.2 Nationale Einkommensverteilung

205

Abbildung 10.4: Zusammenhang von Ungleichheit und Entwicklung Ungleichheit

Einkommen pro Einwohner

Zur Plausibilisierung der Trendwende in der nationalen Ungleichheitsentwicklung steht eine Reihe von Teilerklärungen zur Verfügung. Nach Alderson, Beckfield und Nielsen (2005) zählen dazu Veränderungen in folgenden Bereichen: • Institutionelle Regelungen (z.B. Verkleinerung von staatlichen Umverteilungsmaßnahmen und Arbeitslosenunterstützung, Bedeutungsverlust von Gewerkschaften, Deregulierung von Arbeitsmärkten), • Erwerbsbeteiligung (z.B. Bevölkerungswachstum oder -rückgang, Überalterung, Einwanderung, Zunahme der Erwerbsrate bei Frauen und variierende Größen von Geburtskohorten), • Nachfrage nach Arbeitskräften (z.B. Tertiarisierung, Globalisierung, Konjunkturzyklus), • Beschäftigungssituation (z.B. Zunahme von Teilzeitarbeit, Flexibilisierung und leistungsabhängigen Entlohnungsstrukturen), • Familienstruktur (Zunahme von Single-Haushalten und alleinerziehenden Eltern, Reduktion auf Kernfamilien, Bedeutungsgewinn sog. „Patchwork-Familien“). Sinnvoll erscheinen auch weitere Kategorisierungen wie z.B. eine Gruppierung der Einflussvariablen entsprechend ihrer Wirkung auf den Formverlauf der Einkommensverteilung: Zu einer Vergrößerung des reichen Endes der Einkommensverteilung tragen u.a. technologischer Wandel oder die Zunahme von Winner-take-all-Strukturen (siehe Kapitel 3 und 9 in diesem Band) bei. Vergrößerungen des armen Endes der Verteilung können u.a. durch wirtschaftliche Internationalisierung oder Beschränkungen der Regelungsdichte in Arbeitsmärkten entstehen. Es ist sinnvoll, Gründe für die typische Disparität von Einkommen zu diskutieren.

206

10 Nationale und internationale Einkommensverteilung

10.2.2 Erklärungen rechtsschiefer Einkommensverteilung Während sich frühe Einkommensuntersuchungen auf die Beschreibung von Makrodaten konzentrieren (u.a. Pareto 1896; Simon 1955), verschob sich das Forschungsinteresse mit zunehmender nationaler und internationaler Datensammlung hin zur Analyse von Individualund Haushaltsdaten (z.B. Alderson, Beckfield und Nielsen 2005; Bowles und Gintis 2002; Deininger und Squire 1996; Sala-i-Martin 2006). Anders als unter Betrachtung aggregierter Einkommensverteilungen ist mit Individual- bzw. Haushaltsdaten eine Bestimmung von Faktoren möglich, welche die Höhe des Einkommens beeinflussen. So unterscheiden sich Einkommen stark nach Berufsgruppen, Bildungsstand, Arbeitserfahrung und persönlichen Merkmalen wie Alter, Geschlecht, Einstellungen oder körperlicher Attraktivität (siehe auch Kapitel 11 in diesem Band). Zur Erklärung von Einkommensdifferenzen auf Individualebene und einer daraus entstehenden ungleichen Einkommensverteilung auf gesellschaftlicher Ebene existiert jedoch keine einheitliche, erschöpfende Theorie. Dagegen hat sich eine Reihe von Teilerklärungen zur individuellen Lohnbildung und Kapitalakkumulation etabliert. Eine Auswahl der in der Literatur zentral diskutierten Entstehungsprozesse von rechtsschiefen Einkommensverteilungen wird nun vorgestellt. Die Gliederung folgt dabei in groben Zügen der ideengeschichtlichen Abfolge der sechs angesprochenen Erklärungsansätze. Weil die Höhe von Transferleistungen von staatlichen Regelungen abhängt und systemweit gilt, wird dieses Einkommenselement zur Erklärung individueller Einkommensdifferenzen im Folgenden vernachlässigt (zum Wohlfahrtsstaat siehe Abschnitt 5.1.4 im ersten Band). Von der Erklärung ausgeschlossen ist auch die individuelle Wahl, ob Erwerbsarbeit ausgeführt wird oder nicht.9 Die Einkommensbildung wird nachfolgend also nur für Erwerbstätige und für Kapitalbesitzer erklärt.10 A. Klassisches Modell Die ersten theoretischen Annäherungen zur Erklärung von Einkommensunterschieden stammen von wirtschaftstheoretischen Vordenkern wie Adam Smith (1776), Karl Marx (1867) und Léon Walras (1874). Diese führen Einkommensdifferenzen zwischen Personen auf deren Besitz an menschlicher Arbeitskraft und spezifischen Fähigkeiten, kurz Arbeit A, sowie an Kapital, Land und Produktionsmitteln, kurz Kapital K, zurück. In der Sprache der modernen Ökonomik werden die individuellen Produktivitätsfaktoren Arbeit und Kapital zum jeweils geltenden Marktpreis (gegeben durch Angebot und Nachfrage) entlohnt. Die Produktionsfaktoren und ihre Eigenschaften werden als direkt beobachtbar sowie innerhalb ihrer Qualitätsstufe als homogen und damit als marktlich perfekt handelbar angenommen. Die entstehende Verteilung des Einkommens Y ist demnach eine Funktion der anfänglichen Faktorausstattung und deren Erträgen: Y = f (A, K). Weil A und K über Populationsmitglieder ungleich verteilt sind und insbesondere weil Kapitalerträge reinvestiert werden können und sich kumulieren, entsteht eine rechtsschiefe Einkommensverteilung. Zum Erklärungsgehalt und der Realitätsnähe des Modells sind verschiedene Einwände angebracht. Zunächst fällt auf, dass keine wirkliche Erklärung von Einkommensdifferen9 Einen

verhandlungstheoretischen Ansatz zur Aufteilung von Haus- und Erwerbsarbeit innerhalb von Haushalten bietet z.B. Ott (1990). 10 Für eine vertiefte Darstellung von „Theorien der Einkommensverteilung“ aus ökonomischer Perspektive siehe Neal und Rosen (2000), für eine kürzere Darstellung aus soziologischer Sicht siehe Engelhardt (2000).

10.2 Nationale Einkommensverteilung

207

zen vorgenommen wird. Stattdessen wird das Makrophänomen einer ungleichen Einkommensverteilung auf exogen vorgegebene Unterschiede in der Faktorausstattung betrachteter Personen zurückgeführt. Es wird nicht erklärt, welcher Mechanismus die Akkumulation der personellen Faktorausstattung ursächlich bedingt. Damit fehlt eine Bestimmung der Entstehungsgründe von Ungleichheit. Daneben ist der zur Lohnbildung angenommene Wettbewerbsmarkt wenig wirklichkeitsnah. Arbeitsmärkte sind stattdessen meist stark in Branchen, Berufsgruppen und unternehmensinterne Teilmärkte segmentiert, wobei im Regelfall geringe Transparenz herrscht. Dies gilt sowohl bezüglich verfügbarer Stellen (auf Arbeitnehmerseite) als auch bezüglich der Eigenschaften möglicher Mitarbeiter (auf Arbeitgeberseite). Und schließlich ist einzuwenden, dass die Dichotomie der berücksichtigten Produktionsfaktoren Arbeit und Kapital deutlich zu kurz greift, um individuelle Einkommensdifferenzen zufriedenstellend zu begründen. Viel wichtiger bei der Einkommensbildung sind dagegen individuelle Eigenschaften der Einkommensbezieher und spezifische Marktstrukturen. Entsprechende Ansätze und exemplarische empirische Ergebnisse werden nun vorgestellt. B. Humankapital Die Humankapitaltheorie, ursprünglich formuliert von Mincer (1958), Schultz (1961) und Becker (1962), geht von einem positiven Zusammenhang von Ausbildung und Erfahrung mit individueller Arbeitsproduktivität aus. Erklärt werden individuelle Investitionen in Bildung und letztlich die Verteilung von Lohneinkommen. Die Theorie bietet damit eine Teilerklärung der Einkommensverteilung. Das „Humankapital“ einer Person ergibt sich aus ihrer Ausstattung mit Fähigkeiten und Wissen, welche bis zum betrachteten Zeitpunkt t im Lebensverlauf erworben wurden (vgl. Abschnitt 5.1.1 im ersten Band). Dazu zählen formale Bildungsabschlüsse, berufliche Ausbildungen sowie Berufs- und Lebenserfahrung. Weil Humankapital die individuelle Produktivität erhöht, ist davon auszugehen, dass Personen mit hohem Humankapitalbestand höhere Einkommen beziehen.11 Angenommen wird hierbei, dass Humankapital direkt oder zumindest indirekt beobachtbar ist und auf einem Wettbewerbsmarkt gehandelt wird. Durch den Wettbewerbsmechanismus im Güter- und im Arbeitsmarkt werden im Gleichgewichtszustand die Arbeitnehmer sodann entsprechend dem Wert ihrer Grenzproduktivität entlohnt. In der Theorie entspricht damit die Höhe des Brutto-Gehalts von Person i dem monetären Produktivitätszuwachs, welchen der Arbeitgeber durch Beschäftigung von i erreicht. Für ein hohes Einkommen sind also vorhergehende Investitionen in Humankapital nötig. Diese sind jedoch teuer. Kosten entstehen nicht nur durch Ausbildungsgebühren, sondern vor allem durch entgangenen Arbeitslohn (Opportunitätskosten). Daher können nicht alle Gesellschaftsmitglieder gleichermaßen in Bildung und Ausbildung investieren. Nach Becker (1962, 1975) investiert eine Person solange in ihr Humankapital, bis der Grenzertrag der Bildung ihren Grenzkosten entspricht. Das bedeutet, Menschen lernen solange, bis jedes zusätzliche Lernen das erwartete Einkommen weniger steigert als diese Lerneinheit kostet (inklusive Opportunitätskosten). An diesem Punkt ist ein individuell optimales Humankapitalniveau erreicht. Weil relative Lernkosten (Anteil der Ausbildungskosten am 11 Allgemein

werden auf Bildungsinvestitionen Einkommensrenditen von rund 10% berichtet (vgl. Card 1999; Rosen 2008; Steiner und Lauer 2000). Die Ergebnisse sind dabei über verschiedene Länder und institutionelle Rahmenbedingungen relativ robust.

208

10 Nationale und internationale Einkommensverteilung

verfügbaren Budget) für Mitglieder einkommensstarker Haushalte geringer sind, liegt deren optimales Ausbildungsniveau über dem für einkommensschwache Personen. Auch für intelligente Schüler und Auszubildende fällt die Humankapitalakkumulation preiswerter aus, sodass höhere Bildungsniveaus optimal werden. Beide Implikationen sind empirisch vielfach bestätigt (z.B. Bowles, Gintis und Osborne 2002). Wird daneben angenommen, dass Schichtzugehörigkeit auch auf individuelle Prädispositionen und Erwartungen über Bildungserträge wirkt, verstärkt sich die sozialstrukturelle Abhängigkeit von Bildungsentscheidungen. Boudon (1974) sowie Breen und Goldthorpe (1997) argumentieren, dass mit familiär erworbenen Fähigkeiten und schichtbedingten Bildungszielen (z.B. Abstiegsangst der Mittelschicht, geringe erwartete Bildungserträge und höheres Investitionsrisiko in der Unterschicht) gerade auch kulturelle Familienhintergründe die Höhe individueller Bildungsinvestitionen bestimmen. Beide Argumentationen – sowohl die strikte Rational Choice-Erklärung nach Becker, als auch die um kulturelle und sozialstrukturelle Einflüsse erweiterte Formulierung – implizieren die Entstehung von Bildungsheterogenität, wobei die beobachtbare Bildungsungleichheit auf Makroebene die Investitionsentscheidungen individueller Akteure widerspiegelt. Die relativ lockere Beziehung von Bildung und Einkommen zeigt jedoch, dass Bildungsungleichheit Einkommensdifferenzen nur unvollständig erklärt.12 Humankapital spielt jedoch auch in Verbindung mit anderen (häufig vererblichen) Kapitalarten eine entscheidende Rolle bei der Einkommensbildung, dazu zählt physisches Kapital (wie Maschinen und Gebäude), finanzielles Startkapital oder soziales Kapital in Form von persönlichen Beziehungen. Abschließend sei darauf hingewiesen, dass Einkommensungleichheiten nicht nur die Folge von Bildungsentscheidungen sind, sondern gleichzeitig auch einen Anreiz für Bildungsinvestitionen darstellen. Damit reproduzieren und verstärken sich Bildungs- und Einkommensungleichheiten wechselseitig. Häufig wird daher postuliert, dass bestehende Einkommensungleichheit innerhalb einer Gesellschaft (aber auch zwischen Staaten) als Motivator zu Bildungsinvestitionen (und technologischem Wandel) und damit zu Erhalt und Steigerung volkswirtschaftlicher Produktivität unabdingbar ist (z.B. Okun 1975). Zunehmend wird aber auch diskutiert, ob relative Gleichheit und sozialer Friede durch staatliche Umverteilung wohlfahrtsfördernd sind (z.B. Wilkinson und Pickett 2009). C. Vererbung Daneben erscheint es plausibel, dass die Höhe personeller Einkommen von Vererbung beeinflusst wird. Direkte Vererbung trägt tatsächlich deutlich zur individuellen Einkommensbildung bei, kann Einkommensheterogenität aber bei Weitem nicht vollständig erklären. Daneben ist auch eine indirekte Einkommensvererbung über Bildung möglich, welche ebenso zur Stabilisierung bestehender Einkommensungleichheit beiträgt. Bowles, Gintis und Osborne (2002) berichten als Maß der Vererblichkeit von Vermögen eine intergenerationale Elastizität von finanziellem Kapital in Höhe von 0,5. Demnach lässt 12 Bowles,

Gintis und Osborne (2002) führten eine Metaanalyse bisheriger Studien durch und berichten für Bildung und Einkommen eine Elastizität von 0,22. Die Elastizität ist ein Zusammenhangsmaß für zwei logarithmierte Variablen ln X und ln Y und kann grob als prozentuale Änderung der Zielvariable bei einer einprozentigen Veränderung der unabhängigen Variable interpretiert werden (siehe Kapitel 4 im ersten Band). Eine um 10% erhöhte Bildung steigert das eigene Einkommen demnach lediglich um 2,2%. Für eine Schätzung der Bildungsrendite in Deutschland siehe Kapitel 11 in diesem Band.

10.2 Nationale Einkommensverteilung

209

sich Vermögen nur unter Reibungsverlusten von 50% an die nachfolgende Generation weitergeben. Der Zusammenhang zwischen dem Einkommen von Eltern und Kindern nimmt an den Rändern der Einkommensverteilung allerdings deutlich zu, sodass die niedrigen Einkommen von Nachkommen armer Eltern stark durch ihren prekären Familienhintergrund determiniert sind und gleichzeitig Wohlstand vor allem dann vererblich ist, wenn dieser hoch ausfällt (Hertz 2002; Szydlik 2004).13 Neben der Vererbung ökonomischen Kapitals trägt die Weitergabe von Persönlichkeitsmerkmalen und Bildung entscheidend zur Einkommenshöhe bei. So werden positive Einkommenseffekte auf von Eltern geprägte Einstellungen wie Zukunftsorientierung, Arbeitsmoral oder Risikofreude berichtet (für einen Überblick zu diesen und folgenden empirischen Ergebnissen zur Einkommensvererbung siehe Bowles und Gintis 2002). Daneben werden einkommensrelevante relationale Merkmale wie ethnische oder soziale Gruppenzugehörigkeit und soziale Beziehungen vererbt.14 Der stärkste Vererbungseffekt auf Einkommen wird für Bildung als indirekte Einflussgröße berichtet. Dabei ist ein um 10% höheres Einkommen der Eltern mit rund 4,5% mehr Bildung der Kinder (gemessen in Jahren) verbunden (Bowles, Gintis und Osborne 2002). Das Ergebnis impliziert auch, dass staatliche Maßnahmen der Bildungsexpansion entscheidend zur Reduktion von vererblicher Einkommensungleichheit beitragen können. D. Matching Matching-Erklärungen ähneln der vorhergegangenen Humankapital-Argumentation, betrachten aber nicht Bildungsentscheidungen, sondern die Berufswahl. Kontakte (matches) zwischen Arbeitnehmern und Arbeitgebern finden dabei unter unvollständiger Information für beide Marktseiten statt. Daneben verfügen die Ansätze über einen stärkeren Kontextbezug, weil auch exogene Branchenstrukturen und Positionshierarchien berücksichtigt werden. Konzeptioneller Vorgänger der Diskussion war das Selektionsmodell von Roy (1951), wonach Arbeitnehmer auf Grundlage ihres Talents über ihren Beruf entscheiden. Die Talentverteilung wird dabei nicht erklärt, sondern als exogen gegeben vorausgesetzt. Hohe Fähigkeiten bieten einem Menschen komparative Vorteile und erlauben damit den Eintritt in anspruchsvolle Berufe oder hohe Positionen. Eine rechtsschiefe Einkommensverteilung entsteht schließlich, weil Berufseinsteiger die beste Option aus einer Menge möglicher Karrieren auswählen und gute Positionen verbesserte Möglichkeiten bieten, Talent zu zeigen. Eine dynamische Erweiterung des Selektionsmodells ist unter der Bezeichnung „Sorting“ bekannt und bietet eine Modellierung mit größerer Realitätsnähe (z.B. Ross, Taubman und Wachter 1981). Hier sind sich Berufsanfänger ihrer Talente nicht bewusst und lernen diese erst im Karriereverlauf kennen. In der Folge passen sie ihre Karriereschritte entsprechend an, womit sich die Einkommensschere innerhalb einer Kohorte spreizt. Im Vergleich zu Roys Ansatz verläuft der Konzentrationsprozess innerhalb einer Kohorte langsamer und die Ungleichheit stabilisiert sich erst im späteren Lebensverlauf. Daneben existieren Matching-Erklärungen, die auch die Arbeitgeberseite berücksichtigen (z.B. Miller 1984). Arbeitnehmer und Arbeitgeber lernen hierbei im Zeitverlauf, wie 13 Die

Bedeutung von Erbschaften wird in Abschnitt 5.1.4 des ersten Bandes genauer behandelt, wobei auch ungleichheitsnivellierende Folgen angesprochen werden. 14 Zur Rolle von persönlichen Netzwerken bei Jobfindung und Einkommensbildung siehe Kapitel 2 in diesem Band.

210

10 Nationale und internationale Einkommensverteilung

produktiv ihre Zusammenarbeit ist. Bisherige Ergebnisse der Zusammenarbeit dienen beiden Seiten als Hinweis auf die Produktivität eines Kontakts. Sofern Arbeitnehmer auf Basis ihrer Produktivität entlohnt werden, sind Löhne direkt an Produktivitätseinschätzungen gebunden. Solange die Produktivität zufriedenstellend ausfällt, wird das Beschäftigungsverhältnis aufrechterhalten. Sobald ein Match jedoch von mindestens einer Seite als unproduktiv wahrgenommen wird, wird das Beschäftigungsverhältnis aufgelöst und beide Seiten suchen ein neues Matching. Weil Arbeitnehmer gute Beschäftigungsverhältnisse beibehalten und schlechte verlassen, steigt ihre Produktivität im Zeitverlauf und Löhne nehmen im Kohortendurchschnitt zu. Eine rechtsschiefe Einkommensverteilung entsteht also aus zwei Gründen: Erstens werden schlechte Matches im Hinblick auf bessere aufgegeben und die Einkommensverteilung wird im unteren Bereich entsprechend gestutzt (es bleiben kaum sehr geringe Einkommen übrig). Zweitens sind Löhne altgedienter Arbeitnehmer aufgrund des bereits absolvierten Lernprozesses im Mittel deutlich höher als die der jungen Generation, sodass der obere Bereich der Einkommensverteilung stark besetzt ist. Neben Einkommensungleichheit kann insbesondere eine trotz guter Konjunktur fortbestehende Arbeitslosigkeit auf die Intransparenz von Arbeitsmärkten zurückgeführt werden. Begründet wird das Vorliegen von Arbeitslosigkeit unter gleichzeitiger Existenz freier Stellen mit der wechselseitigen Schwierigkeit von Arbeitnehmern und Arbeitgebern, passende Matches einzugehen (Diamond 1981; Mortensen 1988, Pissarides 1984). Insbesondere neuere Kommunikationstechnologien (z.B. Jobbörsen im Internet) können hier Koordinationsvorteile bieten. E. Kumulative Vorteile Die Einkommensbildung hängt auch von anfänglichen Begünstigungen im Arbeitsmarkt ab. Vorteile an kognitiven Fähigkeiten, Bildung, Kapital, frühen Führungspositionen oder persönlichen Kontakten können eine entscheidende Ressource im Karriereprozess darstellen. Selbstverstärkende Karriereverläufe liegen vor allem für Arbeitslose (Ellwood 1982; Heckman und Borjas 1980) und in internen Arbeitsmärkten vor (also wenn die Karriere innerhalb eines Unternehmens stattfindet). Karrieren werden als Turnierverläufe beschrieben, wobei die Durchsetzungskraft in frühen Runden die Ergebnisse späterer Runden empirisch entscheidend beeinflusst (Althauser 1989; Rosenbaum 1979) und „Spätzünder“ deutliche Karrierenachteile über ihren gesamten Lebensverlauf verzeichnen (Elman und O’Rand 2004). Pfadabhängigkeiten werden auch für die einkommensrelevante Einstellung zur Arbeit berichtet (z.B. Cole und Singer 1991). So steigt (sinkt) die Arbeitsmotivation mit der Zahl an Erfolgserlebnissen (Misserfolgen). Zudem können institutionelle Rahmenbedingungen (z.B. das Rentensystem) und soziale Regelmäßigkeiten (z.B. der Zusammenhang von Armut und Delinquenz) kumulative Einkommenseffekte begünstigen. Für Kapitalvermögende liegen kumulative Vorteile durch Verzinsung vor. Weil auf große Vermögen der absolute Zinsbetrag höher ausfällt, entwickeln sich kleine und große Vermögen zunehmend auseinander. Hinzu kommt, dass reiche Personen Investitionen ihres Vermögens in der Regel stärker streuen und damit zum einen Risiken minimieren, zum anderen aber auch von höheren Renditen aus teilweise riskanten Anlagen profitieren. Außerdem sind für viele Investitionen Grundbeträge einer gewissen Höhe nötig oder es werden auf größere Beträge höhere Zinssätze vergeben (z.B. Yitzhaki 1987). Vor diesem Hintergrund überrascht es nicht, dass eine grundsätzliche Tendenz zu Einkommensungleichheit besteht. Eine beständige Zunahme der Ungleichheit ist allerdings ausgeschlossen, weil kumulative

10.2 Nationale Einkommensverteilung

211

Prozesse zumindest in Arbeitsmärkten (nicht notwendigerweise in Kapitalmärkten) natürlichen Grenzen unterworfen sind. F. Marktstrukturen Die rechtsschiefe Einkommensverteilung wurde bisher auf individuelle Akkumulationsprozesse einkommensrelevanter Ressourcen zurückgeführt, wobei exogene Marktstrukturen weitgehend vernachlässigt wurden (eine Ausnahme bilden die Matching-Ansätze). Einkommensungleichheit kann aber auch mit spezifischen Strukturen und Bedingungen von Arbeitsmärkten begründet werden. Ausgegangen wird dabei nicht von einem homogenen Wettbewerbsmarkt für Arbeit, sondern von einer Vielzahl an segmentierten, teilweise intransparenten Teilmärkten. Die einfachste strukturelle Erklärung von Einkommensungleichheit bietet ein ZweiSegment-Modell des Arbeitsmarkts (Atkinson und Bourguignon 2000). Hierbei wird angenommen, der Arbeitsmarkt sei in zwei Bereiche geteilt (prinzipiell sind n Segmente möglich), wobei das eine Segment Beschäftigung in einfachen Tätigkeitsbereichen, das andere Segment Beschäftigung in gehobenen Positionen bietet. Voraussetzung zur Teilnahme im zweiten Segment ist eine hinreichende Humankapitalausstattung, weil Beschäftigungspositionen hier insbesondere technologisches Wissen erfordern. Auf Basis ihres Bildungsstands suchen sich Arbeitskräfte einen Job in einem der beiden Segmente. Die Höhe jeweiliger Löhne ergibt sich nun aus dem Angebot an Arbeitskräften im entsprechenden Segment sowie den Raten des technologischen Fortschritts und der wirtschaftlichen Internationalisierung eines Landes. Während technologischer Fortschritt die Nachfrage nach gut ausgebildeten Fachkräften steigert und damit deren Löhne erhöht, sind Löhne im voraussetzungsarmen Segment vor allem negativ mit wirtschaftlicher Internationalisierung und der damit verbundenen Abwanderung von Arbeitsplätzen für Geringqualifizierte verknüpft. Wächst die Nachfrage im Segment der Hochqualifizierten schneller als das Angebot an entsprechenden Arbeitskräften, dann steigt die durchschnittliche Einkommensdifferenz zwischen beiden Segmenten. Das Entstehen einer rechtschiefen Einkommensverteilung wird damit auf einen Wettlauf zwischen technologischem bzw. wirtschaftlichem Wandel und der Bildungsbeteiligung einer Gesellschaft zurückgeführt. Desweiteren können Lohndifferenzen aufgrund mangelnder Kontrollmöglichkeiten entstehen. Vor dem Hintergrund des Prinzipal-Agenten-Problems (vgl. Abschnitt 5.2.1 im ersten Band) ergeben sich überraschende Konsequenzen für die Einkommensbildung: Lohndifferenzen innerhalb von Unternehmen können nämlich gezielt als Anreiz zur Produktivitätssteigerung eingesetzt werden, wobei Löhne insbesondere für solche Positionen hoch angesetzt werden, welche keine oder nur eine begrenzte Kontrolle individueller Produktivität erlauben (z.B. Neal und Rosen 2000). So sollen nicht nur unternehmerische Anreize für hochqualifizierte Bewerber bereitgestellt werden, sondern gleichzeitig soll sichergestellt sein, dass sich aktuelle Positionsinhaber aus Angst, ihre privilegierte Stellung zu verlieren, auch ohne Leistungskontrolle hinreichend anstrengen. Nach dieser Betrachtung nationaler Einkommensverteilungen und ihrer Entstehungsgründe kann man die Perspektive auf Ungleichheiten zwischen Staaten erweitern.

212

10 Nationale und internationale Einkommensverteilung

10.3 Internationale Einkommensverteilung Die Betrachtung internationaler Einkommensungleichheit geht mit spezifischen methodischen Herausforderungen einher, welche zunächst beleuchtet werden. Nur vor diesem Hintergrund sind die teilweise divergierenden empirischen Befunde zur Entwicklung der zwischenstaatlichen Ungleichheit nachzuvollziehen. Im Anschluss werden zentrale Befunde zur internationalen Einkommensungleichheit und ihrer Entwicklung seit dem 19. Jahrhundert dargestellt und die damit verbundene Kontroverse diskutiert. Abschließend wird auf die Konsequenzen der Globalisierung für Einkommensunterschiede innerhalb und zwischen Ländern eingegangen.

10.3.1 Messkonzepte internationaler Einkommensungleichheit Die Beschreibung internationaler Einkommensungleichheit setzt zunächst die Festlegung des Einkommenskonzepts, des Standardisierungsverfahrens der Einkommensmaße für einen internationalen Vergleich sowie der zugrundegelegten Untersuchungseinheit voraus. Bei der Erfassung internationaler Einkommensungleichheit können drei Konzepte unterschieden werden, welche jeweils eine spezifische Kombination von Einkommensdefinition und herangezogener Untersuchungseinheit umfasst (vgl. z.B. Milanovic 2005). Die Standardisierung der Einkommensmessung kann weiterhin je nach Datengrundlage innerhalb der Konzepte variieren. Ungewichtete Ungleichheit zwischen Staaten: Die Untersuchungseinheiten sind Nationalstaaten und für diese Einheiten wird zumeist über das Bruttoinlandsprodukt (BIP) pro Kopf das durchschnittliche Einkommen bestimmt.15 Schwäche dieser Konzeption ist zum einen die Ausblendung von Bevölkerungszahlen. So kommt beispielsweise der relativ bevölkerungsarmen Schweiz eine ebenso große Bedeutung zu wie dem bevölkerungsreichen China. Zum anderen bleibt die Ungleichheit innerhalb der Staaten unberücksichtigt, da mit dem BIP pro Kopf lediglich der Mittelwert der Einkommen in einem Land betrachtet wird. Gewichtete Ungleichheit zwischen Staaten: Wiederum werden Staaten als die relevanten Untersuchungseinheiten aufgefasst und auf das Durchschnittseinkommen (wie zuvor in der Regel das BIP pro Kopf) zurückgegriffen. Allerdings gehen die Länder nach ihrer Bevölkerungsgröße gewichtet in die Berechnung ein. Von der Betrachtung innerstaatlicher Ungleichheit wird jedoch weiterhin abgesehen, d.h. es wird ein konstantes Einkommen für alle Einwohner des jeweiligen Landes angenommen. 15 Das

BIP repräsentiert den Gesamtwert aller Güter, welche innerhalb eines Jahres innerhalb der Landesgrenzen einer Volkswirtschaft produziert werden. Das BIP ist das gebräuchlichste Einkommensmaß in internationalen Vergleichen. Wesentlicher Vorteil dieses Maßes ist seine Verfügbarkeit: Der Indikator liegt für die Mehrzahl der Staaten der Welt bereits für einen sehr langen Zeitraum vor (z.B. Maddison 1995). Die Dominanz des Indikators zur Einkommensmessung für internationale Vergleiche kann jedoch nicht über zentrale Schwächen des Maßes hinwegtäuschen (vgl. Lomborg 2001: 68ff.). So schließt das BIP außerhalb des formalen Marktes produzierte Waren und Leistungen (z.B. Hausarbeit, Subsistenzwirtschaft, Schattenwirtschaft) vollständig aus. Aufgrund der Schwächen des Maßes werden seit Längerem Alternativen diskutiert. Um dem Konzept der Nachhaltigkeit gerecht zu werden, berücksichtigt bspw. das Statistische Bundesamt bereits seit 1991 Umweltschäden in der umweltökonomischen Gesamtrechnung (UGR). In eine ähnliche Richtung gehen jüngere Überlegungen eines „grünen BIP“ für China oder Vorschläge verschiedener Nachhaltigkeitsindizes (z.B. Environmental Sustainability Index). Breiter angelegt ist die Entwicklung alternativer Wohlstandsindikatoren wie der von der UN berichtete Human Development Index (HDI).

10.3 Internationale Einkommensverteilung

213

Globale personelle Ungleichheit: Das dritte Konzept greift auf Individuen als Untersuchungseinheiten zurück und versucht, eine globale personelle Einkommensverteilung zu erfassen. Damit ist es möglich, simultan die Einkommensungleichheit innerhalb und zwischen Staaten (oder auch Regionen) zu betrachten und darüber hinaus den Einfluss der Veränderungen inner- und zwischenstaatlicher Ungleichheit auf die globale interpersonelle Einkommensungleichheit zu bestimmen. Inhaltlich ist diese Spezifikation globaler Ungleichheit den Konzepten 1 und 2 deutlich überlegen. Sie beruht allerdings auf schwer zu erhebenden Daten.

Tabelle 10.2: Konzepte internationaler Einkommensungleichheit Konzept 1 Konzept 2 Ungewichtete internationale Gewichtete internationale Einkommensungleichheit Einkommensungleichheit

Konzept 3 Globale personelle Einkommensungleichheit

Untersuchungseinheit

Nationalstaaten

Nationalstaaten gewichtet nach Bevölkerungsgröße

Individuen oder Haushalte

Einkommensmaß

reales BIP pro Kopf

reales BIP pro Kopf

verfügbares Einkommen (oder Ausgaben) pro Kopf oder Haushalt

Ungleichheitsdimension zwischen Staaten

zwischen Staaten

innerh. u. zwischen Staaten

Angaben statistischer Vorrangige Datenquelle Ämter (volkswirtschaftl. Gesamtrechnung)

Angaben statistischer Ämter (volkswirtschaftl. Gesamtrechnung)

Haushaltssurveys, ggf. ergänzt durch Angaben der volkswirt. Gesamtrechnung

Anpassung von Währungsungleichheit

über Wechselkurse oder über Wechselkurse oder Kaufkraftparitäten ($PPP) Kaufkraftparitäten ($PPP)

über Wechselkurse oder Kaufkraftparitäten ($PPP)

Quelle: Die Aufstellung ist angelehnt an die Darstellung in Milanovic (2005: 10).

Mit der Entscheidung für eine der drei Konzeptionen geht der Rückgriff auf unterschiedliche Datenquellen einher vgl. Tabelle 10.2. Während im Rahmen der Konzepte 1 und 2 mit dem Bruttoinlandsprodukt pro Kopf als Maß für das durchschnittliche Einkommen auf prozessproduzierte Statistiken zurückgegriffen werden kann, erfordert Konzept 3 schwer zugängliche Individualdaten. Aber nur durch letztere Konzeption lässt sich Milanovic (2005: 10) zufolge die „wahre Weltungleichheit“ erfassen (für eine ähnliche Perspektive vgl. z.B. Sala-i-Martin 2002, 2006). Die Erfassung mittels länderspezifischer Haushaltssurveys ist bisher jedoch uneinheitlich. Generell stellt die Vergleichbarkeit nationaler Messungen ein zentrales methodisches Erfordernis dar, unabhängig davon, ob personelle Einkommen oder Volkseinkommen betrachtet werden. Dabei müssen Wechselkursschwankungen und Kaufkraftunterschiede zwischen Ländern und über die Zeit berücksichtigt werden. Die neuere Forschung greift daher auf Konzepte der Kaufkraftparität (purchasing power parity, $PPP) zur Herstellung von Vergleichbarkeit der Einkommen unterschiedlicher Länder zurück. Die Grundidee ist einfach (vgl. z.B. Berger 2005): Verglichen wird der Preis einer Ware in heimischer Währung, die im Vergleichsland eine Währungseinheit kostet. Üblicherweise werden hierfür Güterbündel (Warenkörbe) betrachtet, für die ein Preisindex berechnet wird. Für die Herstellung der Vergleichbarkeit ist entscheidend, wie die einzelnen Ausgaben für die Waren im Korb gewichtet werden. Zudem muss eine internationale Metrik gefunden werden, da man kaum den Warenkorb z.B. Deutschlands für einen internationalen Vergleich zugrundelegen kann.

214

10 Nationale und internationale Einkommensverteilung

10.3.2 Datenlage Zur besseren Einordnung der nachfolgend erörterten empirischen Befunde werden nun die zentralen Datensätze vorgestellt, auf welche sich die Mehrzahl der Analysen stützt. Für die Analyse der internationalen Einkommensungleichheit nach Konzept 1 oder 2 ist das vom Center for International Comparisons der University of Pennsylvania bereitgestellte Penn World Table geeignet (Heston, Summers und Aten 2009). Der Datensatz stellt für 189 Länder16 für den Zeitraum ab 1950 zentrale sozioökonomische Indikatoren bereit und wird regelmäßig aktualisiert. Erfasst wird u.a. das kaufkraft- sowie inflationsbereinigte Bruttoinlandsprodukt pro Kopf und die Bevölkerungsgröße. Ähnliche Makroindikatoren hat Maddison (1995) für den Zeitraum von 1820 bis 1992 zusammengestellt. Die Datensammlung enthält Angaben zum BIP pro Kopf und zur Bevölkerungsgröße für bis zu 143 Länder, wobei verschiedene Methoden der Bereinigung von Kaufkraftunterschieden zur Anwendung kommen und auch regional aggregierte Einkommens- und Bevölkerungsindikatoren bereitgestellt werden. Für die Anwendung von Konzept 3 ist der Rückgriff auf Individualdaten notwendig. Deininger und Squire (1996) haben erstmals einen solchen Datensatz für den internationalen Vergleich zusammengestellt. Der Datensatz umfasst Angaben für 108 Länder für den Zeitraum von 1960 bis 1990. Für die einzelnen Länder und Jahre sind jeweils Einkommensquintile erfasst, welche die Ungleichheit innerhalb des jeweiligen Staates angeben. Enthalten sind durchschnittlich sechs Beobachtungen pro Land. Weil die Durchführung von Haushaltssurveys nicht in allen Ländern der Erde verbreitet ist und auch in hoch entwickelten Staaten ein relativ junges Phänomen darstellt, weist der Datensatz zahlreiche Lücken auf.17 Dementsprechend nehmen Deininger und Squire (1996) möglichst sämtliche verfügbaren Befragungsdaten auf und berücksichtigen sowohl Individual- als auch Haushaltseinkommen. Die dadurch entstehenden Verzerrungen bei der Schätzung von Populationsmittelwerten werden durch unterschiedliche institutionelle Rahmenbedingungen (z.B. Steuersystem, Sozialtransfers) verstärkt. Nichtsdestotrotz werden nun die empirischen Befunde zur Entwicklung internationaler Einkommensungleichheit seit dem 19. Jahrhundert in den Blick genommen.

10.3.3 Entwicklung der internationalen Einkommensungleichheit Seit dem 19. Jahrhundert bis in die 1950er Jahre nahm die Ungleichheit zwischen Staaten bedeutend zu. Pritchetts (1997) Analysen zufolge war 1870 das einkommensstärkste Land 8,7 Mal reicher als das ärmste Land der Welt. Dieses Einkommensverhältnis ist bis 1960 kontinuierlich auf 38,5 gestiegen. Pritchett bezieht sich dabei auf Daten des Penn World 16 2011

zählt das CIA Factbook insgesamt 267 Staaten und Territorien (CIA 2011). diesem Grund greifen Forscher, welche die internationale Einkommensungleichheit auf Basis des Konzepts 3 beschreiben möchten, in der Regel auf zahlreiche weitere Datensätze und verschiedene Imputationsverfahren zur Schätzung nicht beobachteter Datenpunkte auf Grundlage der vorhandenen Informationen zurück (vgl. hierzu insbesondere Babones und Alvarez-Rivadulla 2007). Zu beachten ist auch, dass die Verteilung vorhandener Befragungsdaten regional sehr verschieden ausfällt. Während für Asien, Osteuropa und die hoch industrialisierten Länder zahlreiche Datenpunkte vorliegen, sind Länder im Mittleren Osten, Nordafrika und insbesondere afrikanische Staaten südlich der Sahara stark unterrepräsentiert. Damit ist in Datensätzen, welche sich zur Analyse globaler personeller Einkommensungleichheit nach Konzept 3 eignen, ein „Wohlstandsbias“ enthalten, der deutlich stärker ausfällt als in den auf Makroindikatoren beruhenden Quellen. In der Folge werden globale Ungleichheiten systematisch unterschätzt.

17 Aus

10.3 Internationale Einkommensverteilung

215

Table und folgt dem Konzept ungewichteter Einkommensungleichheit. Auch wenn man dieses als angemessenes Ungleichheitskonzept akzeptiert, so ist der von Pritchett herangezogene Ungleichheitsindikator, das Verhältnis des reichsten zum ärmsten Staat der Welt, ungeeignet, die Ungleichheitsentwicklung angemessen zu beschreiben. Denkbar ist etwa, dass sich zwar das jeweils reichste und das jeweils ärmste Land auseinanderentwickelt haben, also ungleicher geworden sind. Dies bedingt jedoch nicht zwingend eine ungleichere Verteilung über alle Länder hinweg. Insofern ist es notwendig, auf präzisere Maßzahlen zurückzugreifen. Für die Zeit bis etwa 1950 wird Pritchetts Fazit steigender internationaler Einkommensungleichheit trotz der Unzulänglichkeiten seiner Studie von anderen Autoren geteilt. Bourginion und Morrisson (2002) betrachten die Entwicklung gewichteter internationaler Einkommensungleichheit. Sie greifen hierbei auf einen Datensatz zurück, der sich u.a. auf die Angaben von Maddison (1995) stützt. Die Autoren betrachteten in ihrer Studie 33 Länder und Ländergruppen und finden ebenfalls eine merkliche Zunahme der internationalen Einkommensungleichheit zwischen 1820 und 1950. Die berichteten Gini-Koeffizient betragen 0,500 (1820), 0,610 (1910) und 0,640 (1950). Bis 1950 kann demnach eine wachsende zwischenstaatliche Einkommensungleichheit belegt werden. Weniger eindeutig sind hingegen die Befunde im Hinblick auf die Entwicklung der Einkommensungleichheit seit 1950. Diverse Berichte der Weltbank (z.B. Milanovic 2002a, b) und des United Nations Development Programme (z.B. Melchior 2001) diagnostizieren eine anhaltende Divergenz der Einkommen. Firebaugh (2003) hingegen hat im Rahmen seiner These einer „neuen Geografie der globalen Einkommensungleichheit“ argumentiert, dass in der zweiten Hälfte des 20. Jahrhunderts die zwischenstaatliche Einkommensungleichheit gesunken sei. Dabei beruft er sich auf seine empirischen Befunde zur Entwicklung der gewichteten internationalen Einkommensungleichheit (vgl. auch Goesling 2001; Sala-i-Martin 2006).18 Abbildung 10.5 verdeutlicht, dass diese widersprüchlichen Befunde auf die Verwendung der unterschiedlichen Konzepte zur Beschreibung der internationalen Einkommensungleichheit zurückzuführen ist. Betrachtet man die ungewichtete internationale Einkommensungleichheit (Konzept 1) zeigt sich in der Tat eine steigende Tendenz seit Mitte der 1980er Jahre. Demnach stieg die internationale Einkommensungleichheit zwischen 1965 (G = 0, 494) bis Mitte der 1970er Jahre (G = 0, 567) deutlich an und stagnierte sodann bis 1980 auf recht hohem Niveau. Nach einem zwischenzeitlichen Rückgang bis Mitte der 1980er Jahre (G = 0, 530) steigt die internationale Ungleichheit seither kontinuierlich an (G = 0, 543 in 2007). Zentraler Kritikpunkt an der Verwendung von Konzept 1 ist die Ausblendung der Bevölkerungsgröße – und damit eine unsachgemäße Überschätzung (Unterschätzung) des Gewichts kleiner (großer) Staaten für die internationale Einkommensungleichheit. In der Tat zeigt sich bei Verwendung derselben Einkommensdaten, dass bei gewichteter Betrachtung (Konzept 2) die internationale Einkommensungleichheit im Zeitraum von 1965 bis 2007 deutlich abnimmt. Während der Gini-Koeffizent nach dieser Messung 1965 noch 0,597 betrug, fiel er bis 2007 auf 0,498. Diese widersprüchlichen Befunde können teilweise auf die wirtschaftliche Entwicklung in China (und eingeschränkt in Indien) zurückgeführt werden. Während China in Konzept 1 dasselbe Gewicht wie allen übrigen Staaten zukommt, ist es in Konzept 2 aufgrund seiner Bevölkerungsgröße der Staat mit dem stärksten Einfluss auf die internationale 18 Mit

dieser Kontroverse unter Forschern befassen sich Anand und Segal (2008), Berger (2005), Capéau und Decoster (2004) sowie Melchior (2001).

216

10 Nationale und internationale Einkommensverteilung

.5

.55

Gini

.6

.65

Abbildung 10.5: Entwicklung internationaler Ungleichheit 1965–2007

1965

1970

1980

1990

2000

2007

Jahr Konzept 1

Konzept 2

Konzept 3

Quelle: Penn World Table (Konzept 1 und 2), Sala-i-Martin (2002; Konzept 3); eigene Berechnungen.

Einkommensungleichheit. Die Zunahme des durchschnittlichen Einkommens in China ist beachtlich: Während das kaufkraftbereinigte BIP pro Kopf in China 1965 noch 472 $PPP betrug, waren es 2000 bereits 4 144 $PPP. Dies entspricht fast einer Verneunfachung des Durchschnittseinkommens. Im Vergleich dazu stieg das kaufkraftbereinigte BIP pro Kopf in den USA im selben Zeitraum lediglich um den Faktor 2 – wenngleich auf einem deutlich höheren Niveau; im Jahr 2000 betrug das BIP pro Kopf hier 31 519 $PPP (Milanovic 2005: 89). In ähnlicher Weise gilt dies für die Entwicklung Indiens. Schließt man sowohl China als auch Indien aus der Berechnung aus, ist eine deutliche Zunahme der internationalen Einkommensungleichheit auch nach Konzept 2 festzustellen: In diesem Fall stieg der Gini-Koeffizient von 0,487 im Jahr 1965 auf 0,525 in 2007. Zusammenfassend ist festzuhalten, dass bei Betrachtung ungewichteter internationaler Einkommen die Ungleichheit seit den 1950er Jahren zugenommen hat, hingegen ist bei Berücksichtigung der Bevölkerungsgröße eine zumindest langsame Abnahme der Ungleichheit seit den 1980er Jahren zu konstatieren (Firebaugh 1999, 2003; Firebaugh und Goesling 2004; Goesling 2001; Melchior, Telle und Wiig 2000; Schultz 1998). Die Vergleichsstudien zeigen zudem, dass für eine adäquate Beschreibung internationaler Einkommensungleichheit Konzept 1 wenig geeignet ist, weil dies die unbestreitbaren wirtschaftlichen Erfolge bevölkerungsreicher Staaten nicht angemessen berücksichtigt. Die bisher betrachteten Studien blenden die innerstaatliche Einkommensungleichheit aus und unterstellen durch die Verwendung nationaler Durchschnittseinkommen innerhalb der Länder ein konstantes Einkommen. Grundsätzlich wird jedoch die Auffassung geteilt, dass die innerstaatliche Ungleichheit für eine adäquate Beschreibung der weltweiten Einkommensungleichheit zwingend berücksichtigt werden muss und damit lediglich Konzept 3 angemessen ist (Anand und Segal 2008; Berger 2005; Firebaugh 2003; Goesling 2001; Milanovic 2005; Sala-i-Martin 2006).

10.3 Internationale Einkommensverteilung

217

Sala-i-Martin (2002, 2006) hat auf Grundlage des Datensatzes von Deininger und Squire (1996) einen viel beachteten (und diskutierten) Vorschlag zur Schätzung einer Welteinkommensverteilung vorgelegt. Die vorhandenen Angaben wurden ergänzt durch Informationen des World Institute for Development der United Nations University (UNU-WIDER) und des Penn World Table zur Anpassung der innerstaatlichen Messungen an $PPP. Im Datensatz enthalten sind Angaben zur Einkommensverteilung innerhalb der Länder für einzelne Quintile, auf deren Basis die Einkommensverteilungen innerhalb der Länder geschätzt werden. Bei Ländern, für die nur ein Beobachtungspunkt vorliegt, unterstellt Sala-i-Martin eine konstante Einkommensverteilung und schließt so die Datenlücken. Letztendlich kann er eine Schätzung der Entwicklung der globalen personellen Einkommensungleichheit von 1970 bis 2000 vorlegen. Dabei stützt sich seine Analyse auf 125 (Sala-i-Martin 2002) bzw. 138 Länder (Sala-i-Martin 2006), die rund 90% der Weltbevölkerung repräsentieren. Diesen Studien zufolge stieg die globale personelle Einkommensungleichheit von 1970 bis 1980. Im Zeitraum zwischen 1980 und 2000 ist sie hingegen gesunken. Seit 2000 ist wieder ein geringfügiger Anstieg festzustellen (siehe Abbildung 10.5). Die Analysen von Sala-i-Martin wurden insbesondere von Milanovic (2002a) in Frage gestellt. Die Kritik bezieht sich auf zwei Aspekte: Zum einen würden für eine adäquate Schätzung innerstaatlicher Ungleichheit Quintilangaben nicht ausreichen. Diese fünf Datenpunkte pro Land und Zeitpunkt gäben nur sehr unpräzise die Ungleichheit innerhalb von Staaten wieder. Zum anderen lägen Angaben für zu wenige Zeitpunkte vor, vor allem für weniger entwickelte Länder. Auf Grundlage dieser spärlichen Information sei es nicht möglich, dem Anspruch der Beschreibung der Entwicklung der globalen personellen Einkommensverteilung von 1970 bis 2000 gerecht zu werden. Milanovics (2002a, 2005) eigene Ergebnisse beruhen folglich nicht auf derselben Datengrundlage. Vielmehr stellt Milanovic einen eigenen Datensatz mit Informationen aus Einkommens- und Verbrauchsstichproben zahlreicher Länder zusammen. Damit stehen ihm zur Schätzung der innerstaatlichen Einkommensverteilung für jedes Land zumindest doppelt so viele Datenpunkte (Dezile) innerhalb der Länder zur Verfügung. Zudem – und dies ist ein entscheidender Punkt – greift Milanovic nicht auf die Anpassung der innerstaatlichen Einkommensverteilungen an die über die volkswirtschaftlichen Gesamtrechnungen ermittelten BIP pro Kopf-Angaben aus der Penn World Table zurück. Darüber hinaus unterscheiden sich die Ansätze in weiteren Punkten: So deckt der Datensatz von Milanovic nur drei Beobachtungszeitpunkte ab (1988, 1993 und 1998) und umfasst insgesamt auch weniger Länder (91). Die Ergebnisse von Milanovic widersprechen teilweise den Resultaten von Sala-iMartin: Während Letzterer bereits für den Zeitraum von 1988 bis 1993 eine sinkende Ungleichheit zwischen den Staaten feststellt, berichtet Milanovic für denselben Zeitraum eine Zunahme. Analog zu den Befunden von Sala-i-Martin sank die globale personelle Einkommensungleichheit jedoch auch in Milanovics Analysen zwischen 1993 und 1998. Capeau und Decoster (2004) nehmen diese unterschiedlichen Befunde genauer in den Blick und zeigen, dass die Divergenzen nicht ausschließlich auf die bereits erwähnten methodischen Unterschiede der Studien zurückgeführt werden können. Zentraler Grund für die Differenzen ist die unterschiedliche Behandlung Chinas, Indiens, Indonesiens und Bangladeschs durch die beiden Autoren. Während Sala-i-Martin ausschließlich Länder betrachtet, erlauben es die Daten von Milanovic, diese Länder in verschiedene Regionen (urbane versus ländliche) auszudifferenzieren. Verzichtet man auf diese Differenzierung, so können mit den Daten Milanovics die Befunde von Sala-i-Martin bezüglich einer abnehmenden Einkommensungleichheit zwischen Staaten repliziert werden.

218

10 Nationale und internationale Einkommensverteilung

Bourguignon und Morrisson (2002) wählten in ihrer bereits erwähnten Studie einen anderen Ansatz. Sie ergänzten die von Maddison (1995) bereitgestellten Daten durch eigens gesammelte Informationen zur innerstaatlichen Einkommensungleichheit. Hierbei griffen sie insbesondere auf historisches Material zurück, weshalb sie auch Aussagen zur Entwicklung der innerstaatlichen Einkommensungleichheit seit 1820 treffen können. Zur Messung der innerstaatlichen Ungleichheit stehen ihnen Daten zur Verfügung, die Einkommensanteile für die unteren neun Dezile enthalten und für die beiden oberen 5% der Bevölkerung. Fehlende Daten für einzelne Länder wurden anhand der ökonomischen Entwicklung benachbarter Staaten geschätzt. Diese innerstaatlichen Einkommensverteilungen werden zudem anhand der BIP pro Kopf-Angaben des Maddison-Datensatzes skaliert. Für die betrachten 33 Länder bzw. Ländergruppen finden Bourguignon und Morrisson nicht nur für den Zeitraum von 1820 bis 1950, sondern auch von 1970 bis 1992 einen Zuwachs der Einkommensungleichheit. So vergrößerte sich der Einkommensanteil des oberen Quintils von 67,8% (1970) auf 71,8% (1992). Die Situation der unteren 20% der Bevölkerung veränderte sich hingegen kaum: Ihr Einkommensanteil belief sich 1970 und 1992 auf etwa 2%. Das Quintilverhältnis V beträgt demnach 0,0295 (1970) und 0,0279 (1992). Trotz der unterschiedlichen Ergebnisse sind bei näherer Betrachtung einige Grundeinsichten festzustellen. Erstens zeigen alle Studien übereinstimmend eine sinkende Einkommensungleichheit innerhalb von Staaten bis Mitte des 20. Jahrhunderts und seitdem einen teilweise deutlichen Anstieg. Im Hinblick auf die Entwicklung der zwischenstaatlichen Ungleichheit ist zweitens festzuhalten, dass diese unbestrittenerweise im Zeitraum von 1820 bis zumindest in die 1980er Jahre deutlich zugenommen hat. Sofern Konzept 2 oder 3 verwendet wird, kann eine sinkende zwischenstaatliche Einkommensungleichheit festgestellt werden. Damit ist drittens ein Wandel der Bedeutung der Einkommensungleichheit zwischen den Staaten verbunden. Während bis 1820 Einkommensungleichheiten vor allem innerhalb von Ländern bestanden, kehrte sich das Verhältnis durch einen dramatischen Zuwachs von Ungleichheit zwischen Ländern seit der Industriellen Revolution um. Obwohl viele Schwellenländer in den letzten Jahrzehnten deutliche Einkommenszuwächse verzeichneten, sind noch immer rund zwei Drittel der Gesamtungleichheit auf zwischenstaatliche Unterschiede zurückzuführen. Damit bleibt das Geburtsland die wesentliche Determinante des individuellen Einkommens. Neben Beschreibungen dieser Art stellt die Untersuchung von Ungleichheitswirkungen der Globalisierung eine zentrale Forschungsaufgabe dar.

10.3.4 Globalisierung und Einkommensungleichheit Die Trendwende in der Ungleichheitsentwicklung seit den 1980er Jahren wurde von einer Ausweitung des internationalen Handelsvolumens begleitet, welches als Phänomen wirtschaftlicher Globalisierung bekannt ist. Triebkräfte der Globalisierung sind verringerte Transportkosten, ein Abbau von Handelshemmnissen in Güter- und Dienstleistungsmärkten sowie liberalisierte Kapitalmärkte. Globalisierung ist zwar ein jüngeres soziales Phänomen als die Ungleichverteilung von Einkommen, sie ist gleichfalls aber nichts Neues: Betrachtet man den durchschnittlichen Grad der Offenheit nationaler Volkswirtschaften (Verhältnis von Importen und Exporten zum BIP) als Indikator für wirtschaftliches Zusammenwachsen, fallen bis zu sechs Globalisierungswellen auf (vgl. Chase-Dunn, Kawano und Brewer 2000; Therborn 2000). Ausgelöst wurden diese (1) durch die Verbreitung der Weltreligionen und der großen Zivilisationen, (2) durch den frühen europäischen Kolonialismus, (3) ab 1795 durch innereuropäische Krie-

10.3 Internationale Einkommensverteilung

219

ge, (4) durch den Imperialismus, (5) durch den Kalten Krieg und schließlich (6) durch das Zusammenwachsen von Güter- und Finanzmärkten. Im Folgenden werden mögliche Globalisierungsfolgen für inner- und zwischenstaatliche Einkommensungleichheiten zunächst aus theoretischer Perspektive diskutiert, wobei ökonomische und soziologische Ansätze angesprochen werden. Abschließend werden empirische Befunde zu den wesentlichen Implikationen umrissen. A. Ökonomische Erklärungsansätze Mit der auf Überlegungen von David Ricardo (vgl. Abschnitt 2.3.1 im ersten Band) aufbauenden Außenhandelstheorie bietet die Makroökonomik ein Instrument zur Untersuchung von Einkommensdifferenzen speziell unter Vorliegen internationaler Handelsbeziehungen. Ihre standardmäßige Formulierung stellt das Heckscher-Ohlin-Modell dar (Heckscher 1919; Ohlin 1933). In seiner einfachsten Form wird von zwei Ländern mit jeweils zwei Sektoren (z.B. Landwirtschaft und Industrie) ausgegangen (prinzipiell sind n Länder und k Sektoren möglich). Für jedes Land ist die Produktion in einem Sektor mit Opportunitätskosten im alternativen Sektor verbunden, wobei die Höhe der Opportunitätskosten jeweils durch relative Faktorpreise gegeben ist.19 Sobald sich Opportunitätskosten in beiden Ländern unterscheiden, werden beide Länder geneigt sein, Güter und Leistungen aus demjenigen Sektor zu exportieren, mit dessen Produktionsmitteln es relativ vorteilhaft ausgestattet ist und welche es damit vergleichsweise billig produzieren kann. Damit können beide Länder unabhängig von der Höhe ihrer jeweiligen absoluten Produktionskosten von Wohlstandsgewinnen durch Außenhandel profitieren. Das Modell impliziert ein hohes (geringes) Handelsaufkommen zwischen strukturell unterschiedlichen (ähnlichen) Staaten sowie, bei perfektem Freihandel, eine vollständige Spezialisierung teilnehmender Volkswirtschaften. Annahmegemäß fallen Spezialisierungsgewinne durch Außenhandel gerade in wenig entwickelten Regionen hoch aus, was eine bedingte Konvergenz (vgl. Abschnitt 6.1 im ersten Band) nationaler Durchschnittseinkommen beschleunigt und damit zwischenstaatliche Ungleichheiten reduziert. Daneben sollen freie globale Märkte Kapital- und Technologietransfers in unterentwickelte Regionen erleichtern, sodass Globalisierung die Geschwindigkeit des Anpassungsprozesses erhöht. Bezüglich der Vorhersage innerstaatlicher Ungleichheit unterscheidet sich die Außenhandelstheorie jedoch deutlich von den Implikationen des neoklassischen Wachstumsmodells: Während die Wachstumstheorie auf die Kuznets-Kurve hinweist, impliziert das klassische Außenhandelsmodell eine Erhöhung der Relativpreise des vergleichsweise billigen Produktionsfaktors und damit eine unmittelbare Nivellierung innerstaatlicher Einkommensungleichheit. Da typischerweise gerade arme Länder über ein hohes Angebot an Arbeitskräften verfügen bzw. Unterbeschäftigung aufweisen, ist von einer Angleichung personeller Einkommen vor allem in Entwicklungsländern auszugehen. B. Soziologische Erklärungsansätze Neben diesen makroökonomischen Überlegungen existiert eine Reihe soziologischer Ansätze, die Globalisierungsprozessen eine zentrale Rolle bei der Entwicklung von Einkommens19 In

der modernen Formulierung der Außenhandelstheorie wird Heterogenität relativer Produktionskosten mit Unterschieden in nationalen Faktorausstattungen begründet. Im konzeptionellen Vorgänger der heutigen Standardmodellierung, David Ricardos Theorie komparativer Kostenvorteile, wird von unterschiedlichen Technologieniveaus der Länder ausgegangen (Ricardo 1817).

220

10 Nationale und internationale Einkommensverteilung

ungleichheit zuweisen (z.B. Guillen 2001). Diese soziologischen Beiträge sind in theoretischer Hinsicht zwar äußerst vielschichtig, jedoch zeichnen sie sich vielfach nicht durch empirische Prüfbarkeit aus. Bestehende empirische Analysen nehmen daher soziologische Überlegungen nur selten auf (Babones und Vonada 2009). Dennoch können Kernaussagen einer relevanten Auswahl an Theorietraditionen, welche sich zumindest prinzipiell als empirisch prüfbar darstellen, knapp skizziert werden: Dependenztheorien: Diese Ansätze gehen von der Annahme aus, dass Entwicklungsprozesse immer ungleich verlaufen und in der Folge Gewinner und Verlierer produzieren. Diese Theorietradition lässt sich auf Lenins (1939) Imperialismustheorie zurückführen und wurde insbesondere im Rahmen der politikwissenschaftlichen Lateinamerikaforschung in den 1970er Jahren populär (Frank 1969). Ausgangspunkt ist die Annahme, dass wirtschaftliche Entwicklung und Unterentwicklung zwingend miteinander einhergehen und die entwickelten Länder den Mehrwert abschöpfen, der in weniger entwickelten Ländern geschaffen wird (vgl. Rehbein und Schwengel 2008: 52ff.). Betrachtet man aktuelle wirtschaftliche Globalisierungsprozesse aus dieser Perspektive, ist eine zunehmende Divergenz sowohl zwischen- als auch innerstaatlicher Einkommensungleichheiten zu erwarten. Grund hierfür ist die anhaltende Ausbeutung armer Staaten durch reiche Länder (Chase-Dunn 1975; Firebaugh 2003). Im Rahmen dieser Ansätze wird insbesondere vor den langfristigen Folgen des freien Außenhandels gewarnt. Einerseits seien Industrieländer aufgrund des Abbaus von Handelshemmnissen mit Unternehmensabwanderungen und dem Verlust von Arbeitsplätzen konfrontiert, sodass vor Lohndumping und einem „Ausverkauf“ wirtschaftlich hoch entwickelter Wohlfahrtsstaaten gewarnt wird. Andererseits wird von einer zunehmenden Abhängigkeit armer Länder von ihren Handelspartnern im entwickelten Norden gesprochen. Hierbei wird betont, dass der Welthandel durch Ausnutzen komparativer Kostenvorteile immer noch die ausbeuterischen Strukturen der Kolonialzeit aufweise. Rohstoffe und Billigprodukte stammen dabei aus wenig entwickelten Ländern, die wachstumsfördernde Entwicklung von (hochtechnologischen) Fertigprodukten findet jedoch vornehmlich in den Industriestaaten statt. Weltsystemansatz: Eng verknüpft mit obiger Argumentationslinie ist der Weltsystemansatz (z.B. Chase-Dunn 2006; Wallerstein 1979). Der Ansatz zielt auf die Erklärung des Phänomens der Globalisierung in historischer Perspektive ab, wobei Beschreibungen der Herausbildung und Veränderung des Weltsystems im Mittelpunkt stehen. Hierbei wird ebenfalls von persistenten Machtunterschieden ausgegangen, wobei sich mit Kern, Peripherie und Semi-Peripherie drei Gruppen von Ländern unterscheiden lassen. Kernstaaten sind gekennzeichnet durch kapitalintensive Produktion und einen hohen Bildungsstandard, während Peripheriestaaten durch arbeitsintensive Produktion mit vergleichsweise niedrigen Bildungsstandards charakterisiert sind. Analog zur Argumentation der Dependenztheoretiker wird davon ausgegangen, dass reiche Kernstaaten überproportional vom Welthandel und dessen Intensivierung profitieren und somit eine Divergenz (oder zumindest eine Persistenz) von Einkommensungleichheit zwischen Kern und Peripherie zu erwarten ist. Gleichwohl schließen die Vertreter dieses Ansatzes eine langfristige Veränderung der Gruppenzugehörigkeit einzelner Staaten nicht aus. Ein Aufstieg aus der Peripherie in die Semi-Peripherie und den Kern ist demnach durchaus möglich.

10.3 Internationale Einkommensverteilung

221

World-Polity-Ansatz: Hier wird die Relevanz institutioneller Rahmenbedingungen für die wirtschaftliche Entwicklung eines Landes betont (z.B. Meyer et al. 1997). Aufbauend auf organisationssoziologischen Überlegungen zum Isomorphismus (siehe Abschnitt 7.3.3 im ersten Band) wird hier auf Weltsystemebene argumentiert, dass im Kontext von Globalisierungsprozessen eine langfristige Angleichung institutioneller Regelungen zu beobachten ist, wobei Staaten „beste Lösungen“ voneinander kopieren. In der Folge wird langfristig nicht nur eine Angleichung institutioneller Regelungen postuliert, sondern es wird auch eine Konvergenz der nationalen Durchschnittseinkommen erwartet. Uneinheitlich ist jedoch nicht nur die theoretische Diskussion von Globalisierungsfolgen, sondern auch die empirische Evidenz zu den Implikationen der verschiedenen Ansätze. C. Empirische Ergebnisse Globalisierungseffekte auf zwischenstaatliche Einkommensungleichheit untersuchen u.a. die Studien von Frankel und Romer (1999) und Milanovic (2009). Sie bescheinigen wirtschaftlicher Öffnung – gemessen als Anteil von Im- und Exporten am BIP – positive Effekte auf nationale Durchschnittseinkommen. Diese Befunde sind jedoch nicht unumstritten: In den Analysen von Harrison (1996) besitzen nicht alle Operationalisierungen internationaler Integration einen positiven Einfluss auf Wachstumsraten. Rodriguez und Rodrik (2001) zeigen, dass die Korrelation verschiedener Offenheitsindikatoren mit Durchschnittseinkommen schwindet, sobald auf die Güte institutioneller Rahmenbedingungen (z.B. Schutz von Eigentumsrechten oder ein funktionierendes Rechtssystem) kontrolliert wird. Zudem legen u.a. die Analysen von Dowrick und DeLong (2003) nahe, dass die Zugehörigkeit zu bestimmten Regionen einen wesentlichen Einfluss auf die Wirkungsweise wirtschaftlicher Öffnung ausübt, sodass Offenheit nicht zwingend als Eintrittskarte in den Klub der Reichen zu interpretieren ist. Nicht zu vergessen ist auch die problematische Kausalitätsannahme. Nur unvollständig geklärt ist nämlich, ob Staaten durch Handel reich werden oder ob reiche Staaten einfach mehr Handel treiben. Konsequenzen der Globalisierung für innerstaatliche Ungleichheiten werden von den Weltbank-Ökonomen Milanovic (2002b) sowie Milanovic und Squire (2005) betrachtet. Als Folge des Abbaus von Handelszöllen finden Milanovic und Squire (2005) Ungleichheitssteigerungen in armen Staaten und eine reduzierte Ungleichheit innerhalb reicher Länder. Von wirtschaftlicher Offenheit profitiert in einkommensschwachen Ländern vor allem der reiche Bevölkerungsteil, während in Schwellenländern tatsächlich niedrige und mittlere Einkommen steigen (Milanovic 2002b). Die zentralen Beiträge der jüngsten soziologischen Diskussion von Globalisierungsfolgen auf innerstaatliche Ungleichheiten stammen von Alderson und Nielsen (2002) und Nollmann (2006). Beide Studien betrachten Gini-Koeffizienten zur Einkommensverteilung innerhalb von OECD-Staaten, decken aber im Vergleich zu obigen Weltbank-Studien jeweils einen verlängerten Zeitraum von 1967 bis 1992 bzw. bis 2000 ab. Alderson und Nielsen (2002) untersuchen u.a. den Einfluss dreier Globalisierungsvariablen (im Ausland getätigte Direktinvestitionen (als Verhältnis zur Zahl Erwerbstätiger), Nord-Süd-Handel (gemessen über den Anteil von Importen aus südlichen Ländern am BIP), Nettomigrationsrate) auf innerstaatliche Einkommensdispersionen. Gefunden wird eine Verschärfung innerstaatlicher Einkommensungleichheit durch Globalisierung, insbesondere in der Messung über Direktinvestitionen. Die berichteten Effekte wirtschaftlicher Öffnung sind aber geringer als die

222

10 Nationale und internationale Einkommensverteilung

der Kontrollvariablen. Mit Hilfe der Globalisierungsvariablen kann lediglich ein passabler Anteil der Varianz innerhalb von Staaten im Zeitverlauf, weniger dagegen Unterschiede zwischen Staaten erklärt werden. Nollmanns (2006) Befunde bestätigen für eine längeren Untersuchungszeitraum bis 2000 eine ansteigende innerstaatliche Einkommensungleichheit in den OECD-Staaten, welche sich in den 1990er Jahren zusätzlich verschärfte. Insofern könnte man eine Verstärkung der Globalisierungseffekte gegenüber den Befunden von Alderson und Nielsen erwarten, doch Nollmann findet keine Effekte für die Globalisierungsvariablen. Stattdessen argumentiert er, dass die „Polarisierung von Wertschöpfungschancen innerhalb des Dienstleistungssektors“ (Nollmann 2006: 638) wesentlich zur Erklärung der jüngsten Zunahme innerstaatlicher Einkommensungleichheit beitrage. Festgehalten werden kann, dass die Effekte der Globalisierung auf die internationale Einkommensungleichheit empirisch noch immer unklar sind und deren Bestimmung gleichfalls mit methodischen Problemen einhergeht. Schwierigkeiten bestehen auch hier aufgrund der mangelnden Verfügbarkeit belastbarer Daten sowie der Sensitivität der Ergebnisse hinsichtlich des verwendeten Ungleichheitsmaßes und des gewählten Ungleichheitskonzeptes (vgl. Mills 2009). So setzt die Untersuchung von Globalisierungsfolgen für die globale personelle Einkommensverteilung eine angemessene Erfassung von Einkommen mittels Individual- oder Haushaltsdaten voraus. Zumindest diesem Vorhaben ist die Forschung in den letzten Jahren ein gutes Stück näher gekommen.

Literatur Aitchison, J. und J.A.C. Brown (1957) The Lognormal Distribution. Cambridge: Cambridge University Press. Alderson, A.S. und F. Nielsen (2002) „Globalization and the Great U-Turn: Income Inequality Trends in 16 OECD Countries.“ American Journal of Sociology 107: 1244-1299. Alderson, A.S., J. Beckfield und F. Nielsen (2005) „Exactly How Has Income Inequality Changed? Patterns of Distributional Change in Core Societies.“ International Journal of Comparative Sociology 46: 405-423. ALLBUS (2008) Allgemeine Bevölkerungsumfrage der Sozialwissenschaften. Köln: GESIS – Leibnitz-Institut für Sozialwissenschaften. Allison, P.D. (1978) „Measures of Inequality.“ American Sociological Review 43: 865-880. Althauser, R.P. (1989) „Internal Labor Markets.“ Annual Review of Sociology 15: 143-161. Anand, S. und P. Segal (2008) „What Do We Know about Global Income Inequality?“ Journal of Economic Literature 46: 57-94. Atkinson, A. und F. Bourguignon (2000) „Introduction: Income Distribution and Economics.“ S. 1-58 in: A. Atkinson und F. Bourguignon (Hg.) Handbook of Income Distribution. Dortrecht: North-Holland. Atkinson, A., L. Rainwater und T. Smeeding (1995) Income Distribution in OECD Countries. Paris: OECD. Babones, S.J. und M.J. Alvarez-Rivadulla (2007) „Standardized Income Inequality Data for Use in Cross-National Research.“ Sociological Inquiry 77: 3-22. Babones, S.J. und D.C. Vonada (2009) „Trade Globalization and National Income Inequality – Are They Related?“ Journal of Sociology 45: 5-30. Badger, W.W. (1980) „An Entropy-Utility Model for the Size Distribution of Income.“ S. 87120 in: B.J. West (Hg.) Mathematical Models as a Tool for the Social Science. New York: Gordon and Breach. Barro, R.J. und X.X. Sala-i-Martin (2004) Economic Growth. Cambridge: MIT Press.

Literatur

223

Basu, K. (2011) Beyond the Invisible Hand: Groundwork for a New Economics. Princeton: Princeton University Press. Becker, G.S. (1962) „Investment in Human Capital: A Theoretical Analysis.“ Journal of Political Economy 70: 9-49. Becker, G.S. (1975) Human Capital. Chicago: Chicago University Press. Bentham, J. (1789) An Introduction to the Principle of Morals and Legislations. Oxford: Blackwell. Berger, J. (2005) „Nimmt die Einkommensungleichheit weltweit zu? Methodische Feinheiten der Ungleichheitsforschung.“ Leviathan 33: 464-481. Boudon, R. (1974) Education, Opportunity, and Social Inequality: Changing Prospects in Western Society. New York: Wiley. Bourguignon, F. und C. Morrisson (2002) „Inequality Among World Citizens: 1820-1992.“ American Economic Review 92: 727-744. Bowles, S. und H. Gintis (2002) „The Inheritance of Inequality.“ Journal of Economic Perspectives 16: 3-30. Bowles, S., H. Gintis und M. Osborne (2002) „The Determinants of Individual Earnings: Skills, Preferences, and Schooling.“ Journal of Economic Literature 39: 1137-1176. Breen, R. und J.H. Goldthorpe (1997) „Explaining Educational Differences: Towards a Formal Rational Choice Action Theory.“ Rationality and Society 9: 275-305. Bundesregierung (2010) Lebenslagen in Deutschland: Der 3. Armuts- und Reichtumsbericht der Bundesregierung. Bundesministerium für Arbeit und Soziales. Capéau, B. und A. Decoster (2004) „The Rise or Fall of World Inequality. A Spurious Controversy?“ Arbeitspapier Nr. 2004/02, World Institute for Development Economics Research. Card, D. (1999) „The Causal Effect of Education on Earnings.“ S. 1801-1863 in: O. Ashenfelter und D. Card (Hg.) Handbook of Labor Economics, Band 3. Amsterdam: Elsevier. Chase-Dunn, C. (1975) „The Effects of International Economic Dependence on Development and Inequality: A Cross-National Study.“ American Sociological Review 40. 720-738. Chase-Dunn, C., Y. Kawano und B. Brewer (2000) „Trade Globalization since 1795: Waves of Integration in the World-System.“ American Sociological Review 65: 77-95. Chase-Dunn, C. (2006) „Globalization: A World-Systems Perspective.“ S. 79-108 in: C. ChaseDunn und S.J. Babones (Hg.) Global Social Change: Historical and Comparative Perspectives. Baltimore: Johns Hopkins University Press. Choi, K. (1983) „A Statistical Test of Olson’s Model.“ S. 57-78 in: D.C. Mueller (Hg.) The Political Economy of Growth. New Haven: Yale University Press. CIA (2011) The World Factbook. https://www.cia.gov/library/publications/the-worldfactbook/ (September 2011). Cole, J.R. und B. Singer (1991) „A Theory of Limited Differences: Explaining the Productivity Puzzle in Science.“ S. 277-310 in: H. Zuckerman, J.R. Cole und J.T. Bruer (Hg.) The Outer Circle: Women in the Scientific Community. New York: Norton. Deininger, K. und L. Squire (1996) „A New Data Set Measuring Income Inequality.“ World Bank Economic Review 10: 565-592. Diamond, P. (1981) „Mobility Costs, Frictional Unemployment, and Efficiency.“ Journal of Political Economy 89: 798-813. Diekmann, A. (2007) Empirische Sozialforschung: Grundlagen, Methoden, Anwendungen. Hamburg: Rowohlt. Diekmann, A. und P. Mitter (1983) „The „Sickle Hypothesis“: A Time-Dependent Poisson Model with Applications to Deviant Behavior and Occupational Mobility.“ Journal of Mathematical Sociology 9: 85-101. Dowrick, S. und B. DeLong (2003) „Globalization and Convergence.“ S. 191-220 in: M.D. Bordo, A.M. Taylor und J.G. Williamson (Hg.) Globalization in Historical Perspective. Chicago: University of Chicago Press.

224

10 Nationale und internationale Einkommensverteilung

Ellwood, D.T. (1982) „Teenage Unemployment: Permanent Scars or Temporary Blemishes?“ S. 349-390 in: R.B. Freeman und D.A. Wise (Hg.) The Youth Labor Market Problem: Its Nature, Causes, and Consequences. Chicago: Chicago University Press. Elman, C. und A.M. O’Rand (2004) „The Race is to the Swift: Socioeconomic Origins, Adult Education, and Wage Attainment.“ American Journal of Sociology 110: 123-160. Engelhardt, H. (2000) „Modelle zur Messung und Erklärung personeller Einkommensverteilungen.“ S. 1066-1091 in: U. Mueller, B. Nauck und A. Diekmann (Hg.) Handbuch der Demographie. Band 2: Anwendungen. Berlin: Springer. Firebaugh, G. (1999) „Empirics of World Income Inequality.“ American Journal of Sociology 104: 1597. Firebaugh, G. (2003) The New Geography of Global Income Inequality. Cambridge: Harvard University Press. Firebaugh, G. und B. Goesling (2004) „Accounting for the Recent Decline in Global Income Inequality.“ American Journal of Sociology 110: 283-312. Frank, A.G. (1969) Kapitalismus und Unterentwicklung in Lateinamerika. Frankfurt. Frankel, J.A. und D. Romer (1999) „Does Trade Cause Growth?“ American Economic Review 89: 379-399. Goesling, B. (2001) „Changing Income Inequalities Within and Between Nations: New Evidence.“American Sociological Review 66: 745-761. Guillén, M.F. (2001) „Is Globalization Civilizing, Destructive Or Feeble? A Critique of Five Key Debates in the Social Science Literature.“ Annual Review of Sociology 27: 235-260. Handcock, M.S. und M. Morris (1999) Relative Distribution Methods in the Social Sciences. New York: Springer. Harrison, A. (1981) „Earnings By Size: A Tale of Two Distributions.“ Review of Economic Studies 48: 621-631. Harrison, A. (1996) „Openness and Growth: A Time-Series, Cross-Country Analysis for Developing Countries.“ Journal of Development Economics 48: 419-447. Heckman, J. und G.J. Borjas (1980) „Does Unemployment Cause Future Unemployment? Definitions, Questions, and Answers from a Continuous Time Model of Heterogeneity and State Dependence.“ Economica 47: 247-283. Heckscher, E. (1919) „The Effect of Foreign Trade on the Distribution of Income.“ Ekonomisk Tidskrift 21: 497-512. Hertz, T. (2002) „Intergenerational Economic Mobility of Black and White Families in the United States.“ Arbeitspapier, Society of Labor Economists. Heston, A., R. Summers und B. Aten (2009) Penn World Table Version 6.3. Center for International Comparisons of Production, Income and Prices, University of Pennsylvania. Jann, B. (2005) Einführung in die Statistik. München: Oldenbourg. Kuznets, S. (1965) „Economic Growth and Income Inequality.“ S. 257-287 in: S. Kuznets (Hg.) Economic Growth and Structure. New York: Norton. Lecaillon, J., F. Paukert, C. Morrison und D. Germidis (1984) Income Distribution and Economic Development: An Analytical Survey. Genf: International Labour Office. Lenin, W.I. (1939) Imperialism, the Highest Stage of Capitalism. New York: International Publishers. Lomborg, B. (2001) The Skeptical Environmentalist: Measuring the Real State of the World. Cambridge: Cambridge University Press. Maddison, A. (1995) Monitoring the World Economy. Paris: Development Centre of the OECD. Maddison, A. (2007) Contours of the World Economy 1-2030 AD: Essays in Macro-Economic History. Oxford: Oxford University Press. Mankiw, N.G., D. Romer und D.N. Weil (1992) „A Contribution to the Empirics of Economic Growth.“ Quarterly Journal of Economics 107: 407-437. Marx, K. (1867) Das Kapital: Kritik der politischen Ökonomie. Hamburg: Otto Meissner. Melchior, A. (2001) „Global Income Inequality: Beliefs, Facts and Unresolved Issues.“ World Economics 2: 87-108.

Literatur

225

Melchior, A., K. Telle und H. Wiig (2000) Globalisation and Inequality. World Income Distribution and Living Standards, 1960-1998. Oslo: Royal Norwegian Ministry of Foreign Affairs. Meyer, J.W., J. Boli, G.M. Thomas und F.O. Ramirez (1997) „World Society and the Nation-State.“ American Journal of Sociology 103. 144-181. Milanovic, B. (2002a) „The Ricardian Vice: Why Sala-i-Martin’s Calculations of World Income Inequality are Wrong.“ Arbeitspapier, World Bank Washington D.C. Milanovic, B. (2002b) „Can We Discern the Effect of Globalization on Income Distribution? Evidence from Household Budget Surveys.“ Arbeitspapier, World Bank Washington D.C. Milanovic, B. (2005) Worlds Apart: Measuring Global and International Inequality. Princeton: Princeton University Press. Milanovic, B. (2009) „Global Inequality and Global Inequality Extraction Ratio: The Story of the Last Two Centuries.“ Arbeitspapier, World Bank Washington D.C. Milanovic, B. und L. Squire (2005) „Does Tariff Liberalization Increase Wage Inequality? Some Empirical Evidence.“ Arbeitspapier, World Bank Washington D.C. Miller, R.A. (1984) „Job Matching and Occupational Choice.“ Journal of Political Economy 92: 1086-1120. Mills, M. (2009) „Globalization and Inequality.“ European Sociological Review 25: 1-8. Mincer, J.A. (1958) „Investment in Human Capital and Personal Income Distribution.“ Journal of Political Economy 8: 1-26. Mortensen, D.T. (1988) „Matching: Finding a Partner for Life or Otherwise.“ American Journal of Sociology 94: S215-S240. NationMaster (2010) Economy Statistics: Gini Index. http://www.nationmaster.com (April 2010). Neal, D. und S. Rosen (2000) „Theories of the Distribution of Earnings.“ S. 379-427 in: A. Atkinson und F. Bourguignon (Hg.) Handbook of Income Distribution. Dortrecht: North-Holland. Nielsen, F.A. und A.S. Alderson (1997) „The Kuznets Curve and the Great U-Turn: Patterns of Income Inequality in United States Counties, 1970-90.“ American Sociological Review 62: 12-33. Nollmann, G. (2006) „Erhöht Globalisierung die Ungleichheit der Einkommen? Determinanten von Einkommensverteilungen in 16 OECD-Ländern 1967–2000.“ Kölner Zeitschrift für Soziologie und Sozialpsychologie 58: 638-659. Ohlin, B. (1933) Interregional and International Trade. Cambridge: Harvard University Press. Okun, A.M. (1975) Equality and Efficiency: The Big Tradeoff. Washington: Brookings Institution. Olson, M. (1983) „The Political Economy of Comparative Growth Rates.“ S. 7-52 in: D.C. Mueller (Hg.) The Political Economy of Growth. New Haven. Ott, N. (1990) Intrafamily Bargaining and Household Decisions. Berlin: Springer. Pareto, V. (1896) Cours d’ Economie Politique. Genf: Droz. Pissarides, C. (1984) „Search Intensity, Job Advertising, and Efficiency.“ Journal of Labor Economics 2: 128-143. Pritchett, L. (1997) „Divergence, Big Time.“ Journal of Economic Perspectives 11: 3-17. Rawls, J. (1971) A Theory of Justice. Cambridge: The Belknap Press of Harvard University Press. Rehbein, B. und H. Schwengel (2008) Theorien der Globalisierung. Konstanz: UTB. Ricardo, D. (1817) On the Principles of Political Economy and Taxation. London: John Murray. Rinne, H. (1995) Taschenbuch der Statistik. Frankfurt a.M.: Harri Deutsch. Rodriguez, F. und D. Rodrik (2001) „Trade Policy and Economic Growth: A Skeptic’s Guide to the Cross-National Evidence.“ S. 261-338 in: B. Bernanke und K.S. Rogoff (Hg.) NBER Macroeconomics Annual 2000. Cambridge: MIT Press. Rosen, S. (2008) „Human Capital.“ In: S.N. Durlauf und L.E. Blume (Hg.) The New Palgrave Dictionary of Economics. New York: Palgrave Macmillan.

226

10 Nationale und internationale Einkommensverteilung

Rosenbaum, J.E. (1979) „Tournament Mobility: Career Patterns in a Corporation.“ Administrative Science Quarterly 24: 220-241. Ross, S., P. Taubman und M. Wachter (1981) „Learning by Observing and the Distribution of Wages.“ S. 359-386 in: S. Rosen (Hg.) Studies in Labor Markets. Chicago: University of Chicago Press. Roy, A.D. (1951) „Some Thoughts on the Distribution of Earnings.“ Oxford Economic Papers 3: 135-146. Sala-i-Martin, X.X. (2002) „The World Distribution of Income (Estimated from Individual Country Distributions).“ NBER Working Paper Nr. 8933. Sala-i-Martin, X.X. (2006) „The World Distribution of Income: Falling Poverty and...Convergence, Period.“ Quarterly Journal of Economics 121: 351-397. Schultz, T.P. (1998) „Inequality in the Distribution of Personal Income in the World: How It Is Changing and Why.“ Journal of Population Economics 11: 307-344. Schultz, T.W. (1961) „Investment in Human Capital.“ American Economic Review 51: 1-17. Sen, A. (1997) On Economic Inequality. Oxford: Clarendon Books. Simon, H.A. (1955) „On a Class of Skew Distribution Functions.“ Biometrika 42: 425-440. Smith, A. (1776) An Inquiry into the Nature and Causes of the Wealth of Nations. London: Stahan and Cadell. Statistisches Bundesamt Deutschland (2010) Begriffserläuterungen: Äquivalenzeinkommen. http://www.destatis.de (April 2010). Steiner, V. und C. Lauer (2000) „Private Erträge von Bildungsinvestitionen in Deutschland.“ Arbeitspapier, Zentrum für Europäische Wirtschaftsforschung. Szydlik, M. (2004) „Inheritance and Inequality: Theoretical Reasoning and Empirical Evidence.“ European Sociological Review 20: 31-45. Therborn, G. (2000) „Globalizations: Dimensions, Historical Waves, Regional Effects, Normative Governance.“ International Sociology 15. 151-179. Wallerstein, I. (1979) The Capitalist World-Economy. Cambridge: Cambridge University Press. Walras, L. (1874) Éléments d’Économie Pure; ou, Théorie de la Richesse Sociale. Lausanne: Rouge. Wilkinson, R.G. und K.E. Pickett (2009) „Income Inequality and Social Dysfunction.“ Annual Review of Sociology 35: 493-511. Williamson, J.G. und P. Lindert (1980) American Inequality: A Macroeconomic History. New York: Academic Press. World Institute for Development Economics Research (2010) World Income Inequality Database. http://www.wider.unu.edu/research/Database/en_GB/wiid/ (April 2010). Yitzhaki, S. (1987) „The Relation between Return and Income.“ Quarterly Journal of Economics 102: 77-95.

11 Körpermerkmale und Lohnbildung Christiane Bozoyan und Tobias Wolbring Benachteiligungen auf Arbeitsmärkten „aus Gründen der Rasse oder wegen der ethnischen Herkunft, wegen des Geschlechts, der Religion oder Weltanschauung, einer Behinderung, des Alters oder der sexuellen Identität“ (Abschnitt 3 Paragraph 19 Satz 1 AGG) werden in der breiten Öffentlichkeit wahrgenommen und gemeinhin als ungerecht empfunden. Auch im juristischen Sinne ist diese Form von Diskriminierung in Deutschland etwa durch das Allgemeine Gleichbehandlungsgesetz untersagt, wobei sich das Gesetz u.a. auf die Bereiche Einstellung von Bewerbern, Beschäftigungs- und Arbeitsbedingungen, Berufs- und Weiterbildung, Sozialschutz und soziale Vergünstigungen sowie Bildung bezieht. Weniger rechtliche Reglementierung wird demgegenüber einer anderen Form von Diskriminierung zuteil. Diese erfolgt – so der Befund später zu referierender empirischer Studien – aufgrund von Körpermerkmalen wie Attraktivität, Köpergewicht1 und Körpergröße, welche in direkten sozialen Interaktionen einfach wahrnehmbar sind. Während der Benachteiligung aufgrund des Körpergewichts dabei in der öffentlichen Diskussion vermehrt Aufmerksamkeit zuteilwird, ist dies für Einflüsse der Attraktivität und der Körpergröße nicht in demselben Maße gegeben. Die genannten Körpermerkmale werden häufig auch mit der Produktivität eines (potenziellen) Arbeitnehmers in Verbindung gebracht, weshalb entsprechende empirische Befunde nicht unbedingt soziale Sprengkraft entfalten müssen. Denn würde ein übergewichtiger, unattraktiver oder kleiner Arbeitnehmer auch geringere Leistung erbringen, so wäre dessen niedrigere Bezahlung anhand des Produktivitätskriteriums in meritokratischen (d.h. am Leistungsprinzip orientierten) Gesellschaften gerechtfertigt. Damit ist eine erste zentrale Schwierigkeit für den Nachweis und die Bestimmung dieser Formen von Benachteiligung benannt: Erst unter Kontrolle von Leistungsunterschieden, die möglicherweise aufgrund der betrachteten Körpermerkmale bestehen, ist die Schätzung eines reinen Diskriminierungseffekts gewährleistet. Von Einkommensdiskriminierung soll im Folgenden demnach dann gesprochen werden, wenn die Entlohnung einer Person trotz vollständiger Konkurrenz im Produkt- und Faktormarkt (Kapital und Arbeit) nicht dem Wert ihrer Grenzproduktivität entspricht. Es kann folglich sowohl positive (Wert der Grenzproduktivität < Entlohnung) als auch negative (Wert der Grenzproduktivität > Entlohnung) Diskriminierung vorliegen. Analog 1 Genauer

sollte hier von Körperzusammensetzung (z.B. fettfreier Masse und Fettmasse) gesprochen werden, für die das Körpergewicht nur ein äußerst grober Indikator ist. Aus Gründen der besseren Lesbarkeit und Verständlichkeit wird dennoch im Folgenden in der Regel die Bezeichnung Körpergewicht verwendet, außer wenn explizit von Körperzusammensetzung gesprochen wird. Weiterhin ist auf die im weiteren Verlauf zentrale Unterscheidung zwischen Übergewicht und Adipositas zu verweisen. Letzterer Begriff dient zur Bezeichnung einer besonders ausgeprägten Form von Übergewicht. Zu beachten ist dabei, dass eine Einstufung in diese beiden Kategorien immer nur mit Blick auf ein als normal definiertes Körpergewicht und in Relation zur Körpergröße erfolgen kann.

228

11 Körpermerkmale und Lohnbildung

kann positive und negative Diskriminierung bei der Einstellung vorliegen, wenn die Einstellungschancen nicht alleine von produktivitätsrelevanten Faktoren beeinflusst werden. Neben dem Problem der statistischen Aufspaltung von Produktivität und Diskriminierung gibt es eine zweite zentrale Schwierigkeit. Sie ergibt sich, wenn es nicht nur um die Aufdeckung ungerichteter Zusammenhänge zwischen physischen Attributen und arbeitsmarktrelevanten Kennziffern, sondern um einen kausalen Nachweis von Diskriminierung aufgrund körperlicher Merkmale gehen soll. Jedoch wird dieses Anliegen durch die Tatsache erheblich erschwert, dass umgekehrt auch die unabhängigen Variablen vom Lohn einer Person beeinflusst werden können (rekursive Kausalität). Für die drei Körpermerkmale physische Attraktivität, Körpergröße und Körpergewicht zeigt sich dieses Endogenitätsproblem in verschiedenem Ausmaß.2 Am einfachsten verhält es sich bei der Körpergröße, die im Erwachsenenalter ein relativ stabiles Merkmal darstellt und daher auch vom Einkommen unbeeinflusst bleibt.3 Die physische Erscheinung einer Person kann demgegenüber durchaus, vermittelt über das Ernährungs-, Hygiene- und Konsumverhalten, vom Lohnniveau beeinflusst werden. Am offensichtlichsten ist das Kausalitätsproblem aber wohl für den Zusammenhang zwischen Körpergewicht und Einkommen. Je nach der jeweiligen kulturellen Überformung signalisiert Übergewicht häufig entweder Reichtum oder Armut. So ist etwa für die USA und Deutschland aus empirischen Studien (vgl. z.B. Baum und Ruhm 2007; Drewnoski und Specter 2004; Heineck 2006) bekannt, dass gegenwärtig eine überproportionale Häufung übergewichtiger Menschen in unteren sozialen Schichten vorliegt. Begründet wird dieser Trend mit der unterschiedlichen Qualität der Lebensmittel, die in Abhängigkeit vom Preis in den sozialen Schichten verzehrt werden (vgl. Darmon und Drewnowski 2008). In Ländern mit niedrigem wirtschaftlichem Entwicklungsstand wird hingegen häufig gerade ein hohes Körpergewicht mit Wohlstand verbunden und daher sozial anerkannt. Die gleiche Begründung kann auch für das Schönheitsideal in westlichen Ländern, insbesondere in Deutschland, zu Zeiten der Renaissance herangezogen werden. Wie später deutlich wird, beschäftigt sich der überwiegende Teil neuerer empirischer Studien genau mit diesem eben skizzierten Endogenitätsproblem. Vor der Präsentation des Forschungsstandes (Abschnitt 11.3) und gängiger Operationalisierungen der Körpermerkmale Attraktivität, Größe und Gewicht (Abschnitt 11.2) ist es jedoch sinnvoll, sich auf theoretischer Ebene genauer mit der Thematik zu beschäftigen und verschiedene Erklärungen für das Phänomen zu betrachten (Abschnitt 11.1). Anhand einer beispielhaften Studie soll ein Ausschnitt der theoretischen Argumente dann einer empirischen Prüfung unterzogen werden. Nach der Vorstellung der verwendeten Datengrundlage, dem Soziooekonomischen Panel (SOEP), werden empirische Resultate werden berichtet (Abschnitt 11.5) und im Hinblick auf ihre wissenschaftliche Anschlussfähigkeit und praktische Relevanz diskutiert (Abschnitt 11.6). 2 Eine

Variable wird als endogen bezeichnet, wenn diese in Modellen von anderen Einflussgrößen abhängt. Wird sie dagegen als exogen aufgefasst, so werden alle Einflüsse auf diese Variable bei der statistischen Betrachtung vernachlässigt. Ein Endogenitätsproblem tritt dann auf, wenn eine erklärende Variable als exogen behandelt wird, obwohl sie möglicherweise selbst von unkontrollierten Faktoren beeinflusst wird, die sich auch auf die abhängige Variable auswirken. 3 Wie jedoch Kriwy, Komlos und Baur (2003) empirisch nachweisen, besteht ein generationenübergreifender Zusammenhang zwischen dem Wohlstand, der Ernährung und der Körpergröße. Bowles und Gintis (2002) zeigen, dass neben Gesundheits- bzw. Ernährungsverhalten auch einkommenssteigernde Einstellungen von Eltern auf ihre Kinder vererbt werden und damit den Zusammenhang zwischen Wohlstand und der Ausprägung bestimmter Körpermerkmale moderieren (vgl. hierzu Kapitel 10 in diesem Band).

11.1 Theoretische Überlegungen

229

11.1 Theoretische Überlegungen Beschäftigt man sich mit Lohnbildung auf Arbeitsmärkten, so ist eine Auseinandersetzung mit klassischen ökonomischen Theorien zur Lohnbildung unumgänglich.4 Die von Gary Becker (1962, 1964), Jacob Mincer (1958, 1974) und Theodore Schultz (1961) stammenden Ausführungen zur Bedeutung von Humankapital sind ein geeigneter Ausgangspunkt für ein besseres Verständnis von Lohnbildungsprozessen. Daran anschließend werden verschiedene Theorien diskutiert, die erklären, weshalb nicht nur das Humankapital, sondern auch andere, nicht produktivitätswirksame (körperliche) Merkmale und Eigenschaften eines Arbeitnehmers entlohnt werden könnten. Es handelt sich dabei um Beckers Präferenzmodell, Theorien statistischer Diskriminierung sowie soziobiologische Überlegungen.

11.1.1 Humankapitaltheorie Unter Humankapital kann die Summe aller Fähigkeiten und Wissensbestände einer Person verstanden werden, welche diese im Zeitverlauf unter Anstrengung akkumuliert hat und welche sich positiv auf deren Rendite auswirken (vgl. Abschnitt 5.1.1 im ersten Band). Den Begriff „Humankapital“ formulierte erstmals Theodore Schultz 1961 in seinem Essay Investment in Human Capital. Er verweist darauf, dass es aus ökonomischer Perspektive keineswegs moralisch verwerflich sei, menschliche Fähigkeiten und Wissensbestände als Kapital zu betrachten. Denn jeder Mensch investiert in Fertigkeiten, Bildung und/oder Fachwissen, um zusätzliche Renditen zu erzielen (Schultz 1961: 4). Der für weitere Ausarbeitungen grundlegende theoretische Rahmen findet sich insbesondere in Gary Beckers (1964) Buch Human Capital, in dem u.a. die Bedeutung von Bildung und Ausbildung für die Humankapitalakkumulation und deren wesentliche Rolle für gesellschaftliches Wachstum hervorgehoben werden. Danach kann zwischen allgemeinem und spezifischem Humankapital unterschieden werden. Allgemeines Humankapital bezieht sich auf diejenigen Fähigkeiten und Wissensbestände, welche auch bei einem Arbeitsplatzwechsel auf neue Kontexte übertragbar sind und leistungssteigernd wirken. Demgegenüber meint spezifisches Humankapital ein an den jeweiligen Arbeitsplatz gebundenes Kapital, das im Falle eines Beschäftigungswechsels entwertet würde. Gleichgültig um welche Form von Humankapital es sich handelt, kann dieses sowohl durch Schul- und Berufsbildung als auch durch berufliche Erfahrung erworben werden. Es beinhaltet aber auch Investitionen in den eigenen Körper und die eigene Gesundheit. So besteht das Humankapital eines Holzfällers neben seinem Wissen über Holzarten oder seinen technischen Fähigkeiten u.a. sicherlich auch aus gewissen physischen Merkmalen wie antrainierter Muskelkraft. „Investiert“ ein Mensch also bewusst in die Erhaltung seines normalen Körpergewichts oder in die Erhöhung seiner physischen Attraktivität, so steigert er damit auch sein Humankapital. Jedoch sind die hier behandelten Körpermerkmale Gewicht, Attraktivität und insbesondere Größe zu einem guten Teil auch genetisch bedingt. Die Tatsache, dass Größe, Gewicht oder Attraktivität in manchen Berufen eine produktivitätssteigernde Wirkung entfalten (z.B. besserer Verkaufserfolg, überzeugenderes Auftreten), sollte also nicht zu dem Fehlschluss verleiten, dass positiv besetzte Körpermerkmale notwendigerweise mit höherem Humankapital einhergehen. 4 Einen

Überblick zu den hier behandelten theoretischen Ansätzen bieten auch Abraham und Hinz (2005) sowie Sesselmeier und Blauermel (1998).

230

11 Körpermerkmale und Lohnbildung

Jedoch könnte eine Ursache für eine bessere Entlohnung normalgewichtiger, größerer und überdurchschnittlich attraktiver Angestellter deren höhere Produktivität in bestimmten Berufssparten sein. Denn der zentrale Gedanke in humankapitaltheoretischen Überlegungen ist, dass auf vollkommenen Märkten bei Konkurrenz Arbeit entsprechend dem Wert der Grenzproduktivität entlohnt wird. Wird ein Lohn oberhalb dem Wert der Grenzproduktivität festgelegt, so ist die Beschäftigung für den Arbeitgeber nicht rentabel. Erhält ein Arbeitnehmer dagegen einen Lohn unterhalb seinem Grenzwertprodukt, so werden andere Arbeitsnachfrager einen höheren Lohn anbieten, da sie dadurch zusätzliche Gewinne realisieren können. Da Humankapital den mit Abstand wichtigsten produktivitätssteigernden Faktor darstellt, sollte es sich deutlich in den Löhnen niederschlagen und das Lohnniveau fast vollständig erklären.5 Humankapital wirft also für den Beschäftigten eine Rendite ab, weshalb für den Einzelnen Anreize bestehen, in dieses in Form von Schulund Ausbildungszeit zu investieren. Eine bekannte und empirisch gut bewährte Formalisierung eines solchen Zusammenhangs ist die sogenannte Mincer-Gleichung (1974), wonach gilt: lnY = β0 + β1 · B + β2 · E + β3 · E 2 . Der logarithmierte6 Stundenlohn Y einer Person ergibt sich danach als Linearkombination aus Bildungsjahren (B) und Berufserfahrung in Jahren (E). Letztere Größe geht auch in quadrierter Form in die Berechnung ein, um einem möglichen nichtlinearen Effekt z.B. dem abnehmenden Grenzertrag von weiterer Berufserfahrung Rechnung zu tragen. Erwartet wird damit ein positiver Effek der Bildungsjahre (β1 > 0) und der Berufserfahrung (β2 > 0) auf den logarithmierten Stundenlohn, wobei sich letzterer Effekt immer weiter abschwächen sollte (β3 < 0). Unter der Prämisse einer hinreichenden Modellierung des Werts der Grenzproduktivität ist folglich der Anteil unerklärter Varianz des Stundenlohns im Wettbewerbsszenario für Produkt- und Faktormarkt (v.a. Kapital und Arbeit)7 auf Diskriminierung zurückzuführen. Granato und Kalter (2001: 505) sprechen daher auch von einer „Residual-Definition“ und kritisieren, dass die Existenz von Diskriminierung „letztlich davon abhängt, was unter Produktivität gefasst wird“.8 Umso wichtiger erscheint aufgrund dessen eine theoretische Herausarbeitung der Mechanismen, die Benachteiligungen im Arbeitsmarkt hervorbringen. Weshalb es zu Diskriminierung kommen kann, wird nun anhand dreier theoretischer Perspektiven erklärt.

5 Zukünftige

Renditen zeigen sich auf verschiedene Arten. Nicht nur höhere Löhne, sondern auch ein steileres Lohnprofil und eine größere Wahrscheinlichkeit, Arbeit zu finden bzw. nicht arbeitslos zu werden, gehören zu den Auszahlungen, die mit hohem Humankapital einhergehen (vgl. Mincer 1989). 6 Die Logarithmierung wird aufgrund der rechtsschiefen Verteilung der Löhne vorgenommen. Einflüsse der Bildung und der Berufserfahrung lassen sich daher näherungsweise als prozentuale Änderung des Stundenlohns interpretieren. 7 Im Falle eines Monopols im Produktmarkt und/oder Monopsons im Faktormarkt ist diese Schlussfolgerungen nicht mehr zulässig. Allerdings gilt weiterhin, dass sich der Lohn proportional zum Wert der Grenzproduktivität verhält. Zusätzlich sind jedoch bei Abwesenheit vollständiger Konkurrenz auf diesen Märkten die Preiselastizität der Güternachfrage und/oder die Preiselastizität des Arbeitsangebots auf den jeweiligen Märkten zu beachten. 8 Aus empirischen Arbeiten ist beispielsweise bekannt, dass neben individuellen Faktoren auch die Marktstruktur eine wichtige Rolle bei der Lohnbildung spielt. In besonders prägnanter Form zeigt sich dies etwa in Winner-take-all-Märkten (vgl. hierzu Kapitel 3 in diesem Band).

11.1 Theoretische Überlegungen

231

11.1.2 Gary Beckers Präferenzmodell Neben Beckers Humankapitaltheorie haben auch seine Überlegungen zu einer ökonomischen Theorie der Diskriminierung (Becker 1957) große Verbreitung gefunden. Ausgangspunkt ist die Annahme einer Präferenz für Diskriminierung, d.h. eine Vorliebe für oder gegen bestimmte Personengruppen, die sich in monetären Größen messen lässt. So können Arbeitgeber einer bestimmten Personengruppe höhere Stundenlöhne bezahlen, um nicht eine Gruppe unerwünschter Arbeitssuchender einstellen zu müssen (Produzentendiskriminierung). Ebenso können Kunden bereit sein, für ein Produkt einen höheren Preis zu bezahlen, wenn sie dieses bei einem Verkäufer einer präferierten Personengruppe erwerben oder wenn dieses von einer präferierten Personengruppe produziert wurde (Kundendiskriminierung). Bei letzterer Form kann es auch zu indirekter Diskriminierung kommen, wenn Arbeitgeber eine solche Präferenz ihrer Kunden antizipieren und diese bei der Einstellung und Festlegung der Löhne berücksichtigen.9 Eine interessante Folgerung ergibt sich aus Beckers Präferenzmodell, wenn man versucht, (Produzenten-)Diskriminierung in Märkten mit vollkommenem Wettbewerb unter Arbeitsnachfragern zu erklären. Denn diskriminierendes Verhalten ist kostspielig und wirkt auf Unternehmen wie eine Steuer (vgl. Arrow 1971). Langfristig besteht daher – unter der Voraussetzung, dass auch Arbeitsnachfrager ohne eine solche Präferenz existieren – für diskriminierende Unternehmen ein Wettbewerbsnachteil, weshalb sie aus dem Markt verdrängt werden sollten. Dagegen kann auf Märkten mit monopson- oder oligopsonhaften Strukturen (siehe dazu Abschnitt 5.2.2 im ersten Band) auch auf lange Sicht Diskriminierung bestehen bleiben, da entsprechende Wettbewerbskräfte zu deren Beseitigung fehlen. Als empirisch prüfbare Hypothese ergibt sich damit: Je mehr Nachfrager nach Arbeit auf einem Markt miteinander konkurrieren, desto geringer ist das Ausmaß an Diskriminierung. Mit Blick auf reale Märkte scheint sich diese Vermutung ihrer Tendenz nach durchaus zu bestätigen (z.B. Cohn 2000; Hellerstein, Neumark und Troske 2002), obwohl die Vorhersage, dass bei vollkommenem Wettbewerb keinerlei Diskriminierung zu beobachten ist, sicherlich unrealistisch und unhaltbar ist. Eine weitere Schwierigkeit ergibt sich bezüglich der von Becker unterstellten Präferenzen, da diese schlicht als gegeben und individuell variierend angesehen werden. Die zentralen Fragen, wie Präferenzen entstehen und welcher Akteur anhand welcher Merkmale diskriminiert, werden ausgeklammert. Es wäre daher zur tieferen Fundierung von Beckers Ansatz eine empirisch prüfbare Theorie wünschenswert, die spezifiziert, welche Individuen welche Präferenz aufweisen. Nichtsdestotrotz ist das Modell keineswegs empirisch gehaltlos, da sich unter Berücksichtigung situativer Gegebenheiten, wie etwa der Marktstruktur, prüfbare Hypothesen ableiten lassen. Zudem sind aus psychologischen Studien zahlreiche Vorurteile gegenüber unattraktiven, kleinen und übergewichtigen Menschen bekannt, welche die Existenz eines „taste for discrimination“ plausibel erscheinen lassen (siehe dazu auch Abschnitt 11.1.4). Jedoch weist Diekmann (1985: 15) darauf hin, dass die von Becker vorgelegte Erklärung im Gegensatz zu seiner ansonsten vertretenen methodologischen

9 Becker

benennt noch eine dritte Form von Diskriminierung, die von Seiten der Arbeitskollegen und Vorgesetzten ausgeht. Diese spielt in den weiteren Überlegungen nur eine untergeordnete Rolle, obwohl sich zugegebenermaßen auch Diskriminierung von Seiten der Kollegen auf die Lohnbildung auswirken kann.

232

11 Körpermerkmale und Lohnbildung

Prämisse steht, den Schwerpunkt von Erklärungen auf die situativen Umstände zu legen. Denn eine Erklärung des Verhaltens anhand von Präferenzen birgt die Gefahr, empirisch gehaltlos und tautologisch zu werden.10

11.1.3 Statistische Diskriminierung Während in Beckers Modell für Diskriminierung unabhängig von der Produktivität eines Arbeitnehmers Präferenzen bestehen können, stellen Theorien statistischer Diskriminierung (z.B. Aigner und Cain 1977; Arrow 1971, 1972; Phelps 1972) auf den Aspekt der (im statistischen Sinne) erwartbaren Produktivität ab. Demnach verfügen Arbeitgeber nur über unvollständige Informationen über potenzielle Arbeitnehmer. Da der Erwerb valider Informationen über deren Produktivität häufig sehr kostspielig ist (siehe dazu auch Kapitel 3 in diesem Band), greifen sie auf eigene und berichtete Erfahrungen mit der jeweiligen spezifischen Personengruppe zurück, welcher sie die betreffende Person zurechnen. Anschließend werden mittels dieser Indikatoren Erwartungen über die Leistungsfähigkeit und Zuverlässigkeit des betreffenden potenziellen Arbeitnehmers aus dieser (möglicherweise in sich sehr heterogenen) Gruppe gebildet. Im Hintergrund steht dabei die von den Arbeitgebern implizit getroffene (und ggf. auch falsche) Annahme, dass Merkmale der Gruppe die einzelnen Gruppenmitglieder hinreichend gut beschreiben und sich Personen, die einer gemeinsamen Gruppe zugerechnet werden, ähnlicher sind als Personen verschiedener Gruppen. So kann etwa die Vermutung, dass übergewichtige Arbeitnehmer weniger körperlich belastbar und häufiger krank sind, zu geringeren Einstellungschancen und niedrigeren Löhnen für einzelne Mitglieder dieser Gruppe führen. Negativ diskriminiert werden damit tatsächlich nur diejenigen Personen, deren Produktivität über der durchschnittlichen Gruppenproduktivität liegt. Dabei sind auch sich selbst verstärkende oder gar erfüllende Prozesse (vgl. Merton 1948) vorstellbar, und zwar wenn Personen der betreffenden Gruppe eine Benachteiligung antizipieren und daher weniger in das eigene Humankapital investieren. Die Erwartungen einer geringeren Leistungsfähigkeit einer Gruppe bestätigen sich dann, obwohl sie ursprünglich eventuell falsch gewesen sind. Generell ist jedoch eine Abnahme von Diskriminierung mit zunehmender Beschäftigungszeit in einem Unternehmen zu erwarten. Bei der Einstellung besteht starke asymmetrische Information über die tatsächlichen Fähigkeiten des Bewerbers. Je länger dieser jedoch in einem Unternehmen tätig ist, umso mehr Informationen kann der Arbeitgeber über dessen individuelle Produktivität sammeln und ursprünglich falsche Einschätzungen korrigieren. Während also im Falle präferenzbasierter Diskriminierung auch bei längerer Unternehmenszugehörigkeit Benachteiligungen zu vermuten sind, lassen sich im Falle statistischer Diskriminierung aufgrund der Verfügbarkeit besserer individueller Produktivitätssignale im Zeitverlauf Anpassungsprozesse in Form von Lohnerhöhungen und Beförderungen erwarten. Weiterhin ist zu beachten, dass sich in gewissen Berufen, insbesondere Tätigkeiten mit starkem sozialem Bezug, wie dem Verkauf von Produkten, dem Aufbau von sozialen Netzwerken usw., Vorteile bezüglich der Arbeitsleistung aus körperlichen Merkmalen ergeben 10 Becker

hat jedoch auch in späteren, gemeinsam mit Kevin M. Murphy und Michael Grossman verfassten Arbeiten (siehe Becker und Murphy 1988; Becker, Grossman und Murphy 1991 sowie Kapitel 8 in diesem Buch) Präferenzen zur Erklärung der Entstehung und Persistenz von Sucht endogenisiert und damit eine empirisch prüfbare Theorie von Präferenzveränderungen vorgeschlagen (vgl. Becker 1998).

11.1 Theoretische Überlegungen

233

können und daher entsprechende Körpermerkmale besonders intensiv als Produktivitätssignale wahrgenommen werden. Eine Unterscheidung nach verschiedenen Berufsgruppen ist daher notwendig, wobei Selektionseffekte unter den Arbeitnehmern auftreten können. Denn Berufe, in welchen gewisse Körpermerkmale (relativ zu anderen Berufen gesehen) monetär besonders gut honoriert werden, sollten überdurchschnittlich häufig von Personen mit genau diesen physischen Eigenschaften gewählt werden. So ist gerade im Dienstleistungsbereich und bei repräsentativen Tätigkeiten ein (im Vergleich zu anderen Branchen) stärkerer Zusammenhang zwischen körperlichen Merkmalen und Lohnbildung zu erwarten. Zudem sollte daher in diesen Berufssparten auch eine überproportionale Häufung attraktiver, normalgewichtiger und großer Personen zu beobachten sein (siehe hierzu auch Abschnitt 11.3).

11.1.4 Soziobiologische Ansätze Bisher wurde die Wirkung körperlicher Merkmale auf die Lohnbildung unter dem Aspekt von Humankapital, diskriminierenden Präferenzen und unvollständigen Informationen betrachtet. Weitere Gesichtspunkte werden unter Rückgriff auf soziobiologische Ansätze (z.B. Buss 2005, 2007; Grammer et al. 2003; Wilson 2000) deutlich, welche die evolutionäre Bedeutung der Fokussierung auf körperliche Merkmale betonen und eine tiefere Begründung für Diskriminierung liefern. Aus soziobiologischer Perspektive, die maßgeblich auf Darwins Evolutionstheorie basiert,11 dienten körperliche Merkmale in der frühen Menschheitsgeschichte als Signale für die physische Fitness und damit den Wert eines Partners bzw. Stammesmitgliedes. Denn Attraktivität, Normalgewicht und Körpergröße standen mit erhöhten individuellen Überlebenschancen, Chancen der Weitergabe der eigenen Gene und Fortbestandschancen des gesamten Stammes in Verbindung. Große und normalgewichtige Stammesmitglieder hatten sowohl bei der Jagd als auch bei stammesinternen und -externen Konflikten Vorteile und nahmen daher meist respektierte und mächtige Positionen ein. Zudem erhöhten sich die Überlebenschancen eines Nachkommens bei Elternschaft mit einem gesunden und physisch robusten Partner – unter anderem erkennbar an dessen/deren physischer Attraktivität. Für die Menschen stellten und stellen daher körperliche Merkmale hilfreiche Signale (siehe Kapitel 3 in diesem Band) dar, um den Gesundheitszustand bzw. die Fitness eines Gegenübers zu bewerten. Aus evolutionärer Perspektive ist dieser Aspekt auch heute noch im Menschen genetisch verankert, auch wenn angezweifelt werden mag, ob „die geltenden Regeln des Tierreichs auf dem heutigen Arbeitsmarkt ihre Entsprechung finden“ (Gautschi und Hangartner 2006: 275). Geht man jedoch davon aus, dass Menschen zur Vereinfachung von Entscheidungssituationen auf leicht zugängliche Hinweisreize zurückgreifen und Entscheidungen anhand einfacher Urteilsheuristiken (z.B. Gigerenzer 2008; Gigerenzer und Brighton 2009) 11 Nach

Darwin verhält sich jedes Lebewesen – und damit auch der Mensch – instinktiv so, dass er das Überleben der Nachkommenschaft und damit der eigenen Art sichert. Verändern sich Umweltbedingungen, wird der Mensch, wie jedes andere Lebewesen, seine Handlungen und Verhaltensweisen so anpassen, dass die größtmögliche Überlebenschance gegeben ist bzw. die größte Fitness erreicht wird. Jede Handlung wird aus soziobiologischer Sichtweise als Strategie zum Erhalt der eigenen Gene interpretiert. Erfolgreiches Verhalten wird von anderen Artgenossen adaptiert, weniger förderliches Handeln wird verworfen. Nach Dawkins (1976), der an Darwins Arbeiten anschließt, führt die natürliche Auslese dazu, dass sich sowohl die besten Gene als auch die besten Strategien einer Spezies durchsetzen und so jede Generation überlebensfähiger wird als die vorherige. Aus soziobiologischer Perspektive geht es also „nicht um das Wohlergehen der Individuen [...], sondern einzig um den Ausbreitungserfolg biologischer Programme“ (Voland 2007: 14).

234

11 Körpermerkmale und Lohnbildung

treffen, sind gerade Merkmale wie die physische Attraktivität, das Köpergewicht und die Körpergröße einer Person nahe liegende Orientierungspunkte.12 Eine Reihe empirischer Untersuchungen zeigt zudem, dass Menschen evolutionär relevante Eigenschaften mit den betreffenden Merkmalen in Verbindung bringen. So werden attraktive Menschen (im Vergleich zu unattraktiven und durchschnittlich attraktiven Menschen) u.a. als sozial kompetenter, geselliger, moralischer, intelligenter, kreativer, anpassungsfähiger, fleißiger, erfolgreicher und (psychisch und physisch) gesünder eingeschätzt (vgl. Eagly et al. 1991; Jackson, Hunter und Hodge 1995). Überdurchschnittlich große Menschen gelten (im Vergleich zu kleinen Menschen) etwa als überzeugungskräftiger, intelligenter, erfolgreicher und zum Teil attraktiver (vgl. Jackson und Ervin 1992; Roberts und Herman 1986). Übergewichtige Menschen werden dagegen im Alltag häufig mit negativ besetzten Attributen wie faul, unmotiviert, undiszipliniert, inkompetent und unkooperativ in Verbindung gebracht (vgl. Puhl und Heuer 2009). Darüber hinaus ist bekannt, dass körperliche Merkmale – möglicherweise vermittelt über die beschriebenen Stereotype – Auswirkungen auf verschiedene Lebensbereiche haben.13 Am intensivsten untersucht sind Einflüsse von Körpermerkmalen auf arbeitsmarktrelevante Kennziffern wie Berufswahl, Einstellungschancen, Lohnhöhe, Lohnwachstum und Beförderungsraten. Im Folgenden werden die Ergebnisse zentraler Studien aus diesem Bereich vorgestellt. Zuvor ist es jedoch sinnvoll, gängige Operationalisierungen körperlicher Merkmale genauer in den Blick zu nehmen.

11.2 Messung von Körpermerkmalen Die Frage nach den Auswirkungen physischer Merkmale auf arbeitsmarktrelevante Größen wie Lohnniveau, Einstellungschancen oder ausgeübter Beruf werden in der wissenschaftlichen Literatur seit Anfang der 1990er Jahre untersucht. Drei unterschiedliche körperliche Attribute haben sich im Laufe der Zeit als einflussreich erwiesen: die physische Attraktivität, die Körpergröße und das Körpergewicht bzw. die Körperzusammensetzung einer Person. Physische Attraktivität ist ein komplexes Konstrukt, das verschiedene Dimensionen (u.a. Körperumfang, Proportionen von Gliedmaßen und die Attraktivität der Gesichtspartie) umfasst. Dennoch scheint es einen kulturspezifischen Konsens darüber zu geben, was unter attraktiv zu verstehen ist. Insbesondere die physische Attraktivität der Gesichtspartie eines Menschen hat sich als wesentlicher Faktor für dessen wahrgenommene physische Attraktivität erwiesen. Bei Attraktivitätsbewertungen von Potraitfotos durch verschiedene Urteiler zeigen sich sehr hohe Korrelationen (z.B. Hatfield und Sprecher 1989; Patzer 1985), was auf kulturell geteilte Schönheitsideale hindeutet. Auf Basis dieser Erkenntnis 12 Eine

analoge Argumentation findet sich bei Miller und Todd (1998), die sich mit Urteilsheuristiken bei der Partnerwahl befassen. 13 So wirken sich Körpermerkmale u.a. auf das Ausmaß von Aufmerksamkeit und Zuwendungen, Interaktionshäufigkeit, Popularität und Größe der Freundschaftsnetzwerke, die Zahl von Verabredungen und sexuellen Erfahrungen sowie auf die Heiratschancen aus (vgl. Averett und Korenman 1996; Cawley 2001; Cawley, Joyner und Sobal 2006; Rosar 2009). Auch zeigen sich empirische Zusammenhänge mit der Teilnahme und Kooperation in spieltheoretischen Experimenten (vgl. Andreoni und Petrie 2008; Solnick und Schweitzer 1999), dem Erfolg bei politischen Wahlen (vgl. Hamermesh 2006; Klein und Rosar 2005), der studentischen Bewertung von Lehrveranstaltungen (vgl. Hamermesh und Parker 2005; Klein und Rosar 2006; Wolbring 2010) und der Verurteilungshäufigkeit bei Gerichtsverfahren (vgl. Mocan und Tekin 2006).

11.3 Wirkung von Körpermerkmalen in Arbeitsmärkten

235

sollte Attraktivität also auch intersubjektiv messbar sein. In der Regel werden hierzu Fotos der Probanden von (mindestens zwei Dutzend) externen Urteilern bewertet und das arithmetische Mittel dieser Bewertung als Schönheitsmaß definiert (vgl. z.B. Biddle und Hamermesh 1998; Henss 1987, 1992). Im Gegensatz zur Attraktivität von Probanden verhält es sich mit der Messbarkeit der Körpergröße einfach. Diese wird entweder von Befragten selbst angegeben oder aber von medizinischem Personal gemessen. Selbstberichtete Angaben zur Körpergröße finden sich inzwischen in den meisten Bevölkerungssurveys (z.B. SOEP, ALLBUS) in Deutschland. Das Körpergewicht wird in der Regel ganz ähnlich wie die Körpergröße auf Basis selbstberichteter Angaben der Probanden erfasst. Das zentrale Maß zur Messung von GewichtsKörpergrößen-Relationen ist der Body-Mass-Index (BMI), d.h. die Körpermasse in kg/m2 . Zudem ist es gängig, den Einfluss des Gewichts unter Kontrolle der Körpergröße zu berechnen oder eine Kategorisierung des BMI nach den Vorgaben der World Health Organisation (WHO)14 zu wählen (vgl. Garcia und Quintana-Domeque 2007; Harper 2000; Sarlio-Lähteenkorva und Lahelma 1999). Die Problematik, welche mit selbstberichteten Angaben bei sensitiven, mehr oder weniger deutlich an gesellschaftliche Normen gebundene Größen wie dem Körpergewicht und in geringerem Maße der Körpergröße einhergeht, darf nicht unterschätzt werden. So geben Frauen generell ein etwas niedrigeres Gewicht an und Männer tendieren dazu einige Zentimeter an Körpergröße zusätzlich anzugeben (vgl. Kroh 2004). Trotz dieser Verzerrungen benutzen die meisten Studien diese Messungen, um den Einfluss physischer Merkmale auf unterschiedliche Bereiche (z.B. Heiratswahrscheinlichkeit, Belastungen für das Gesundheitssystem, Kooperation und Vertrauensvergabe) zu testen. Im Folgenden stehen die Wirkungen physischer Merkmale auf dem Arbeitsmarkt im Vordergrund.

11.3 Wirkung von Körpermerkmalen in Arbeitsmärkten Die Zahl sozialwissenschaftlicher Untersuchungen, die sich mit den Effekten körperlicher Merkmale auf Arbeitsmarktergebnisse beschäftigen, ist seit Beginn der Forschung in den 1990er Jahren erheblich angewachsen und daher kaum mehr zu überblicken. Anstatt daher einzelne empirische Untersuchungen nacheinander zu referieren, werden im Folgenden die zentralen und über verschiedene Studien hinweg robusten empirischen Einsichten berichtet. Es wird dabei die Befundlage zu den Wirkungen von Attraktivität, Körpergröße und Körpergewicht/-zusammensetzung auf Einstellungschancen und Löhne dargestellt.

11.3.1 Physische Attraktivität Wie Daniel Hamermesh (2011) in seinem Buch Beauty Pays herausarbeitet, wirkt sich die Attraktivität der Beschäftigten positiv auf deren Lohnniveau aus. Die geschätzten Lohnprämien liegen (bei Kontrolle auf weitere produktivitätsrelevante Faktoren) meist zwischen fünf und zehn Prozent. Dabei werden Menschen eher für unattraktives Äußeres auf dem Arbeitsmarkt abgestraft, als für attraktives Äußeres belohnt (z.B. Fletcher 2009; French 2002; Hamermesh, Meng und Zhang 2002; Hamermesh und Biddle 1994, 1998; Harper 2000; 14 BMI

< 18,5 entspricht Untergewicht, 18,5 ≤ BMI < 25 entspricht Normalgewicht, 25 ≤ BMI < 30 entspricht Übergewicht und BMI ≥ 30 entspricht Adipositas (WHO Expert Committee 1995).

236

11 Körpermerkmale und Lohnbildung

Mobius und Rosenblat 2006). Ähnliche Befunde werden von Pfeiffer (2012) für Deutschland auf Grundlage des ALLBUS hinsichtlich des Lohnniveaus und der Anstellungschancen berichtet. Weiterhin deuten Studien von Hamermesh und Biddle (1994) sowie von Harper (2000) auf Selektionsprozesse in bestimmten Berufssparten hin. Attraktive Menschen scheinen eher Berufe zu wählen, in denen ihr Erscheinungsbild besonders honoriert wird, während unterdurchschnittlich attraktive Menschen eher in Berufen mit weniger sozialen Kontakten beschäftigt sind. Eine Studie von Hamermesh und Biddle (1994) zeigt daneben für die USA, dass unterdurchschnittlich attraktive Frauen eine geringere Partizipation am Arbeitsmarkt aufweisen als durchschnittlich oder überdurchschnittlich attraktive Frauen. All diese Selektionseffekte erschweren es dabei, die Frage eindeutig zu klären, ob Attraktivitätseffekte für Frauen oder Männer stärker ausfallen. Partizipieren unattraktive Frauen in Antizipation schlechter beruflicher Chancen in geringerem Maße am Arbeitsmarkt, so können die Attraktivitätseffekte für Männer fälschlicherweise sogar stärker erscheinen als diejenigen für Frauen. Ein stärkerer Effekt für Männer zeigt sich tatsächlich in einigen Studien (vgl. Hamermesh 2011). Weniger umstritten ist demgegenüber, dass das physische Erscheinungsbild von Beschäftigten positiv mit den Umsätzen des Arbeitgebers assoziiert sein kann (z.B. Mobius und Rosenblat 2006; Pfann et al. 2000; Rule und Ambady 2008). Dies lässt wiederum den eindeutigen Nachweis von Diskriminierung aufgrund des Zusammenhangs zwischen Attraktivität und Produktivität umso schwieriger erscheinen. Schließlich sei der interessierte Leser auf eine amüsante Studie von Hamermesh, Meng und Zhang (2002) verwiesen, in welcher die Autoren anhand von Erwerbs- und Konsumdaten zu erwerbstätigen Chinesinnen neben dem bekannten Attraktivitätseffekt auf den Lohn zeigen, dass Investitionen in Kosmetik und Kleidung sich nur bis zu einem gewissen Schwellenwert positiv auf die Attraktivität auswirken und weitere Ausgaben sogar attraktivitätsreduzierend wirken könnten.15

11.3.2 Körpergröße Auch zur Wirkung der Körpergröße von Beschäftigten auf deren Arbeitsmarkterfolg liegen seit der ersten Studie in diesem Forschungsbereich von Loh im Jahr 1993 einige interessante Befunde vor. Als gesichert kann dabei gelten, dass Körpergröße bei Männern einen positiven Zusammenhang mit dem Lohnniveau aufweist, während meist schwächere bis keine Effekte für Frauen vorliegen (z.B. Gautschi und Hangartner 2006; Harper 2000; Heineck 2005; Hübler 2009; Kortt und Leigh 2010; Persico, Postlewaite und Silverman 2004; Spahnel 2010). Diese geschlechtsspezifischen Befunde werden dabei u.a. mit Verweis auf Unterschiede in den Schönheitsidealen für Männer und Frauen begründet. Daneben sind in der Literatur zwei Punkte umstritten. Erstens wird diskutiert, ob sich die Körpergröße eines Menschen nur bis zu einem gewissen Schwellenwert positiv auf dessen Lohn auswirkt. Anstoß für diese Frage gaben einige Studien, die einen nicht-linearen Zusammenhang zwischen Körpergröße und Lohnniveau nachweisen. Nach den Befunden von Gautschi und Hangartner (2006) sowie Heineck (2005) liegt in Deutschland und der Schweiz die Grenze für Männer bei ca. 195 cm. Hübler (2009) schätzt, dass die einkommensmaximierende Körpergröße für Männer 185 cm ist und für deutsche Frauen bereits 15 Es

ist dabei natürlich nicht auszuschließen, dass z.B. besonders unattraktive Menschen besonders viel Geld in solche Produkte investieren.

11.3 Wirkung von Körpermerkmalen in Arbeitsmärkten

237

knapp unter dem geschlechtsspezifischen Durchschnitt von ca. 165 cm liegt. Oberhalb dieser Schwellen wirkt sich jeder weitere Zentimeter an Körpergröße wieder negativ auf den Lohn aus. Zweitens ist fraglich, ob tatsächlich die Körpergröße im Erwachsenenalter der zentrale Einflussfaktor auf das Einkommen ist. So argumentieren einige Autoren, dass eigentlich die Körpergröße in der Jugendzeit indirekt (über vermittelnde Faktoren) das spätere Einkommen wesentlich determiniert. Da die Körpergröße im Jugend- und Erwachsenenalter hinreichend stark, wenn auch nicht perfekt miteinander korreliert sind, erscheint es nur so, als würde Letztere das Einkommen bestimmen. So berichten beispielsweise Persico, Postlewaite und Silverman (2004), dass der Effekt der Körpergröße im Erwachsenenalter verschwindet, wenn auf die Körpergröße im Jugendalter kontrolliert wird. Zudem zeigen sie, dass sich größere männliche Jugendliche häufiger an sozialen Aktivitäten beteiligen und eher Führungsrollen ausfüllen. Case und Paxson (2008) argumentieren weitergehend, dass größere Jugendliche auch bei kognitiven Leistungstests besser abschneiden. Der Einkommenseffekt könnte also auch über soziale und kognitive Fähigkeiten vermittelt sein (siehe auch Heineck 2009; Hübler 2009). Schließlich deuten einige Befunde an, dass die Höhe der Körpergrößenprämie mit der Berufssparte variiert und dass überdurchschnittlich große (kleine) Menschen diejenigen Berufe wählen (meiden), bei denen die Körpergröße besonders stark honoriert (bestraft) wird (Case, Paxson und Islam 2009; Cinnirella und Winter 2009; Judge und Cable 2004; Spahnel 2010). So fällt der Zusammenhang zwischen Körpergröße und Lohnniveau nach Judge und Cable (2004) im Verkaufsbereich und bei Managern besonders stark aus, während sich Cinnirella und Winter (2009) zufolge bei Selbstständigen kaum Effekte zeigen. Gleichzeitig entscheiden sich größere Menschen im Durchschnitt eher für kognitiv fordernde Tätigkeiten.

11.3.3 Körpergewicht und -zusammensetzung Die überwiegende Zahl der Studien zum Zusammenhang zwischen Körperzusammensetzung und Arbeitsmarkterfolg zieht das Körpergewicht oder den BMI als Indikator heran. Die ersten Studien wurden in den frühen 1990er Jahren vorgelegt (z.B. Gortmaker et al. 1993; Hamermesh und Biddle 1994; Register und Williams 1990) und zeigen, dass übergewichtige Frauen in den USA und Kanada im Vergleich zu normalgewichtigen Frauen Lohneinbußen von etwa zehn Prozent hinnehmen müssen. Im Gegensatz dazu liegen die entsprechenden Effekte des Köpergewichts und des BMI männlicher Beschäftigter deutlich darunter. In einer mittlerweile klassischen Studie berichten Averett und Korenman (1996), dass adipöse Frauen sogar um ca. 20 Prozent niedrigere Familieneinkommen und um ca. 15 Prozent niedrigere Stundenlöhne erzielen als normalgewichtige Frauen. Für übergewichtige Frauen ist das Familieneinkommen um 10 Prozent und der Stundenlohn um 5 Prozent geringer. Für Männer finden die Autoren dagegen keinerlei signifikante Effekte. Auch neuere Studien, die mit dem BMI oder dem Körpergewicht als unabhängige Variable arbeiten und ausgefeilte statistische Analyseverfahren (z.B. Panelregressionen, Modelle mit zeitversetzten Einflussgrößen, Instrumentalvariablen) heranziehen, kommen für die USA zu ähnlichen Einsichten, obwohl die geschätzten Effektstärken generell etwas geringer ausfallen (z.B. Cawley 2000, 2004; Cawley, Grabka und Lillard 2005). Darüber hinaus konnten die Befunde auch für viele europäische Länder bestätigt werden (Brunello und D’Hombres 2007; Garcia und Quintana-Domeque 2007; Greve 2008; Harper 2000;

238

11 Körpermerkmale und Lohnbildung

Sarlio-Lähteenkorva und Lahelma 1999; Sousa 2005). Angesichts dieser Vielzahl empirischer Studien ist umso bemerkenswerter, dass nach Wissen der Autoren nur eine Studie für Deutschland vorliegt. Cawley, Grabka und Lillard (2005) berichten darin, dass übergewichtige Frauen in Deutschland eine Lohneinbuße von ca. neun Prozent hinnehmen müssen, während sich für übergewichtige Männer keine Effekte des Körpergewichts auf den Lohn feststellen lassen. Der Zusammenhang verschwindet im Übrigen auch für Frauen, wenn statistisch fortgeschrittene Analyseverfahren herangezogen werden. Die klaren Befunde für Frauen und die recht heterogenen Resultate für Männer lassen sich dabei generell auf zwei Arten interpretieren. Zum einen könnte man aus der recht einheitlichen empirischen Evidenz schließen, dass übergewichtige und adipöse Frauen diskriminiert werden, während für fettleibige Männer keine Benachteiligung auf dem Arbeitsmarkt besteht. Zum anderen ließe sich jedoch auch argumentieren, dass die heterogenen Befunde für Männer auf methodische Mängel hindeuten, da das Körpergewicht und der BMI besonders bei Männern wenig valide Maße für die tatsächliche Körperzusammensetzung sind (siehe dazu ausführlicher den folgenden Abschnitt). Werden stattdessen validere Maße für die Körperzusammensetzung (z.B. Anteil an fettfreier Masse und Fettmasse, Hüftumfang) verwendet, zeigen sich auch für Männer relativ einheitliche Effekte, die auf eine Ungleichbehandlung übergewichtiger Männer hindeuten. Burkhauser und Cawley (2007) berichten entsprechende Befunde, wonach übergewichtige amerikanische Männer geringere Beschäftigungschancen aufweisen. Die Befunde von Wada und Tekin (2010) deuten zudem für die USA an, dass Männer von jedem Kilogramm an fettfreier Körpermaße finanziell profitieren, während ein negativer Zusammenhang zwischen Lohnniveau und Fettmasse besteht. Schließlich wird auch anhand von Befunden für Finnland deutlich, dass der BMI und andere Maße für die Körperzusammensetzung zu qualitativ unterschiedlichen Schlüssen führen können – die Wahl der Operationalisierung der Variable Körperzusammensetzung das Ergebnis also wesentlich beeinflusst (Johansson et al. 2009). Neben dieser Diskussion um die Ursachen für die unterschiedlichen Effekte der Fettleibigkeit von Männern und Frauen liegen in der Literatur – wie bereits im Fall von Attraktivität und Körpergröße – Indizien für das Vorliegen berufsspartenspezifischer Gewichtseffekte und daraus resultierender Selektionsprozesse in bestimmte Berufe vor (z.B. Atella, Pace und Vuri 2008; Wada 2007). Zudem wurde das Vorliegen von Anstellungsdiskriminierung für übergewichtige und adipöse Frauen vielfach nachgewiesen, während die Befunde für Männer deutlich heterogener ausfallen (z.B. Cawley 2000; Garcia und Quintana-Domeque 2007; Greve 2008; Sarlio-Lähteenkorva und Lahelma 1999; Sousa 2005). Auch hier trifft natürlich wieder das zuvor referierte methodische Argument der Verwendung schlechter Indikatoren zu, wie sich mit Blick auf die zuvor berichteten Befunde von Burkhauser und Cawley (2007) sowie Johansson et al. (2009) zur Wahrscheinlichkeit fettleibiger Menschen, arbeitslos zu sein, zeigt. Auch in einem Feldexperiment von Roth (2009) mit fingierten Bewerbungsschreiben an schwedische Unternehmen, das aufgrund der Manipulation des Gewichts mittels Fotos der Gesichtspartie nicht diesem Messproblemen unterliegt, lassen sich vergleichbare Effekte für Bewerberinnen und Bewerber finden. Die um acht Prozentpunkte niedrigere Einladungswahrscheinlichkeit übergewichtiger Bewerberinnen geht dabei jedoch vorwiegend auf deren Körpergewicht zurück, während der vergleichbare Effekt von sechs Prozentpunkten für übergewichtige Bewerber über deren geringere Attraktivität vermittelt ist.

11.4 Daten und Methoden

239

Zusammenfassend lässt sich also festhalten, dass erstens die Befunde für Männer uneinheitlich sind, zweitens die Befundlage für Deutschland bisher relativ dünn ist und drittens validere Körperzusammensetzungsmaße die Indikatoren Körpergewicht und BMI ersetzen sollten. In der folgenden empirischen Analyse wird allen drei Forschungslücken begegnet. Zudem werden auch eigene Befunde zur Wirkung der Körpergröße auf den Lohn für Deutschland vorgelegt. Vor der Darstellung der entsprechenden empirischen Resultate ist jedoch ein Blick auf die Datengrundlage und das methodische Vorgehen sinnvoll.

11.4 Daten und Methoden Datengrundlage für die vorliegende Studie bildet das SOEP (Wagner et al 2007), d.h. eine Haushaltsbefragung, die seit 1984 jährlich in Deutschland durchgeführt wird. Seit dem Jahr 2002 werden die Probanden auch alle zwei Jahre nach ihrer Körpergröße und ihrem Gewicht befragt. Zudem sind Angaben über Einkommensverläufe und Erwerbsbiographien der Probanden vorhanden. Erfasst werden alle Haushaltsmitglieder, die zum Zeitpunkt der Befragung das 17. Lebensjahr vollendet haben, und seit 2000 auch jugendliche Mitglieder des jeweiligen Haushalts im Alter zwischen 16 und 17 Jahren.16 In der vorliegenden Studie werden fünf Wellen des SOEP ausgewertet: 2002, 2004, 2006, 2008 und 2010.17 In Anlehnung an bisherige Studien wird die Stichprobe des betrachteten Datensatzes auf erwerbstätige Personen, die zwischen 18 und 66 Jahre alt sind und wenigstens einen Stundenlohn von vier Euro haben, beschränkt. Wehr- und Zivildienstleistende, Auszubildende und Praktikanten finden keine Berücksichtigung in den Analysen, da das in der Regel sehr niedrige Gehalt dieser Personengruppen die Schätzungen der Effekte von Körpergewicht und -größe auf das Lohnniveau verzerren könnte. Angehörige eines Familienbetriebs, Selbstständige und Freiberufler werden ebenfalls aus den Analysen ausgeschlossen, da hier vermutlich keine Diskriminierung seitens der Arbeitgeber stattfinden kann. Zudem werden Personen mit Extremwerten beim Körpergewicht aus der Stichprobe ausgeschlossen, da es überaus unwahrscheinlich ist, dass diese Angaben korrekt sind.18 Unberücksichtigt bleiben freilich auch schwangere Frauen, da in dieser Gruppe ggf. ein Zusammenhang zwischen Einkommen und Gewichtsangaben auf andere Ursachen zurückzuführen ist, als auf die hier geprüften. Bekanntlich bildet die Lohnschätzgleichung nach Mincer (1974) die Basis des analytisch-statistischen Vorgehens. Die abhängige Variable ist der logarithmierte Stundenlohn, welcher getrennt für männliche und weibliche Beschäftigte geschätzt wird. Durch diese geschlechtsspezifischen Schätzungen wird eine Vermischung der unterschiedlichen Motive einer Erwerbstätigkeit von Männern und Frauen vermieden.19 16 Daneben

gibt es spezielle Fragebögen für jüngere Haushaltsmitglieder. vergleichbare Studie wurde bereits mit den Wellen 2002 bis 2008 von Bozoyan und Wolbring (2011) veröffentlicht. 18 Personen mit Körpergewichtswerten über 180 kg und unter 31 kg sowie Personen mit einer Körpergröße über 213 cm und unter 114 cm (in Anlehnung an Conley und Glauber 2005) und zudem Personen mit einem BM I ≥ 50 werden nicht berücksichtigt. 19 Da die Beschränkung der Stichprobe auf die arbeitende Bevölkerung keine zufällige Auswahl mehr ist, können die Schätzungen verzerrt sein. Eine verbreitete Vorgehensweise in solchen Fällen ist die zweistufige Heckman-Korrektur (1979) der Daten mittels eines zusätzlichen Parameters, in welchen geschlechtsspezifische Partizipationswahrscheinlichkeiten auf dem Arbeitsmarkt einfließen. Allerdings zeigen Stolzenberg und Relles (1990), dass die Heckman-Korrektur nicht in jedem Falle zu einer Verbesserung der Schätzung führt: „Heckman’s method reduced the accuracy of coefficient estimates as 17 Eine

240

11 Körpermerkmale und Lohnbildung

Die Operationalisierung der Körperzusammensetzung ist mit zwei wesentlichen Problemen behaftet. Zum einen können selbstberichtete Angaben zu Körpergewicht und -größe verzerrt sein, weil die Probanden absichtlich oder unabsichtlich ihre physischen Merkmale falsch berichten. Burkhauser und Cawley (2007) zeigen, wie mit einem zweiten Datensatz (National Health and Nutrition Examination Survey, kurz NHANES III), der sowohl selbstberichtete als auch objektiv gemessene Angaben zu Gewicht und Größe enthält, eine Schätzgleichung für den „objektiven“ BMI erstellt werden kann. Diese Schätzgleichung wird dann im ursprünglich interessierenden Datensatz verwendet, um Schätzwerte des BMI zu generieren. Auf diese Weise können Verzerrungen aufgrund selbstberichteter Angaben vermieden werden. Für Deutschland steht leider kein vergleichbarer Datensatz mit objektiven Messungen zur Verfügung. Dennoch konnte gezeigt werden, dass die Anwesenheit von Interviewern zumindest die bewusst falsch gemachten Angaben der Probanden reduziert (vgl. Kroh 2004). Diese Variable haben Cawley, Grabka und Lillard (2005) bei den Berechnungen mit dem SOEP verwendet und auch in dieser Untersuchung wird auf die persönliche Anwesenheit von Interviewern kontrolliert. Neben einer Verzerrung durch selbstberichtete Angaben ist das konventionelle Maß zur Messung der Körperzusammensetzung, der BMI (kg/m2 ), zum anderen anfällig für falsch-positive Zuweisungen. Das heißt, durch den BMI kann nicht gemessen werden, ob hohes Gewicht aufgrund von Muskel- oder Fettmasse erreicht wird. Durch diese fehlende Differenzierung können muskulöse Personen fälschlicherweise als übergewichtig klassifiziert werden. Tomczak (2003) spricht von einer lediglich mittleren Korrelation (r = 0,5) des Körperfettanteils mit dem Körpergewicht. Gallagher et al. (1996) kommen ebenfalls zu dem Schluss, dass die Korrelation des BMI mit anderen Werten zur Messung der Körperzusammensetzung (getrennt nach Geschlecht und Ethnie) gering bis mittel ist. Beispielsweise beträgt die Korrelation des BMI und der fettfreien Masse bei weißen Amerikanern nur 0,33 und bei weißen Amerikanerinnen 0,44. Solche unbefriedigenden Annäherungen an das zu messende Merkmal geben Anlass, alternative Verfahren zur Bestimmung der Körperzusammensetzung zu nutzen. Zur Überwindung dieser Problematik haben Burkhauser und Cawley (2007), eine Schätzgleichung für das totale Körperfett (TKF) und die fettfreie Masse (FFM) generiert und diese Schätzungen in bestehende Paneldaten integriert (siehe für ein ähnliches Vorgehen Wada und Tekin 2010). Nach ihrem Vorbild wird im vorliegenden Beitrag den Berechnungen des Effekts von Körperzusammensetzung auf Löhne ebenfalls eine Schätzung der Körperzusammensetzung in einem zweiten Datensatz zugrundegelegt. Im Datensatz des BIAdata Base Projects wird mittels der bioelektrischen Impedanzanalyse (BIA) der Anteil des Ohmschen Körperwiderstands (Resistanz R) und der kapazitive Anteil (Reaktanz Xc ) von einem Teil der deutschen Bevölkerung gemessen. Mit dem elektronischen Widerstand lassen sich FFM und TKF berechnen. Die Idee dahinter ist, dass der elektronische Widerstand zwischen TKF und FFM unterschiedlich groß ist: Fett leitet Strom wesentlich schlechter als die FFM. Kurz: Personen mit hohen elektrischen Widerstandswerten weisen in der Regel auch mehr TKF auf. Da es sich bei den Daten des BIAdata Base Projects nicht um eine repräsentative Stichprobe für die deutsche Bevölkerung handelt und zudem Verlaufsdaten, sprich Mehrfachmessungen bei einer Person, enthalten sind, wurde eine zufällig gezogene Teilstichprobe gebildet. In dieser Teilstichprobe findet sich jeweils nur die aktuellste Messung für jede Peroften as it improved them“ (Stolzenberg und Relles 1990: 406). Aus diesem Grund haben wir auf eine Heckman-Korrektur verzichtet.

11.4 Daten und Methoden

241

Tabelle 11.1: Vergleich der Stichprobe des BIAdata Projects mit dem SOEP, Angaben in Prozent Frauen

BMI < 18,5 18,5 ≤ BMI < 25,0 25,0 ≤ BMI < 30,0 BMI ≥ 30,0

BIAdata 1993–1999 3.12 55,32 33,12 8,44

SOEP 2002 3.01 52,30 30,92 13,77

Männer

BMI < 18,5 18,5 ≤ BMI < 25,0 25,0 ≤ BMI < 30,0 BMI ≥ 30,0

0,97 38,31 46,10 14,61

0,69 38,86 44,97 15,47

son. Zudem wurde die Teilstichprobe unter Berücksichtigung der Kennwerte des BMI und des Geschlechts im SOEP für das Jahr 2002 gebildet (Tabelle 11.1). In einem nächsten Schritt werden Resistanz und Reaktanz unter Berücksichtigung des Alters, des Körpergewichts und der Körpergröße sowie des Geschlechts in die FFM und das TKF überführt. Inzwischen gibt es zahlreiche Gleichungen zur Berechnung der Körperzusammensetzung (für einen Überblick vgl. Kyle et al. 2004). In der vorliegenden Studie wird die FFM mithilfe der Formel von Kyle et al. (2005) berechnet:20 F F M = −4, 104 + 0, 231 · Gewicht + 0, 518 ·

Größe2 + 0, 130 · Xc + 4, 229 · Mann R

Die FM ergibt sich aus der Differenz zwischen Körpergewicht und der FFM: F M = Totales Körpergewicht − F F M Anschließend wird die Körperzusammensetzung (FFM und TKF) erneut, aber nur mit den auch im SOEP vorhandenen Größen Alter, Körpergröße und Körpergewicht geschätzt.21 Mit der berechneten Schätzgleichung werden in einem nächsten Schritt Schätzwerte in das SOEP übertragen.22 Alle nachfolgenden Berechnungen erfolgen dann mit den neuen unabhängigen Variablen TKF und FFM. Die Körpergröße (gemessen in cm) wird als metrische Variable in die Schätzgleichung aufgenommen. Aufgrund von Multikollinearität23 müssen für den Einfluss der Körpergröße, des BMI, des TKFs und der FFM separate Modelle geschätzt werden. 20 Diese

Formel wurde anhand einer schweizerische Stichprobe validiert. Eine Formel für die deutsche Bevölkerung gibt es nach dem Wissen der Autoren bisher noch nicht. 21 Burkhauser und Cawley (2007) folgend werden alle drei Größen zudem quadratisch aufgenommen. Die Anpassung der Modelle der FFM betragen für Frauen R2 = 0, 84 und für Männer R2 = 0, 75. Die Anpassung der TKF-Schätzungen liegt für Frauen bei R2 = 0, 91 und für Männer bei R2 = 0, 84. 22 Optimalerweise würde die Schätzung der Körperzusammensetzung mit selbstberichteten Daten erfolgen. Auf diese Weise kann man neben der Verzerrung durch die Messung mittels des BMI auch gleichzeitig den Bias durch selbstberichtete Daten mindern. Dies ist mit den Daten des BIAdata Projects leider nicht möglich. Insofern muss man sich mit einer Kontrolle auf die Anwesenheit des Interviewers begnügen. 23 Multikollinearität liegt vor, wenn zwei unabhängige Variablen in einem Regressionsmodell stark miteinander zusammenhängen. In Folge erhöhen sich die Standardfehler, sodass sich die Genauigkeit der Schätzung reduziert. Bei perfekter Multikollinearität sind die Effekte beider Variablen nicht mehr voneinander zu trennen (siehe z.B. Gujarati 2003: Kap. 10).

242

11 Körpermerkmale und Lohnbildung

Weitere Variablen, welche das Humankapital und die Produktivität der Probanden abbilden sollen, sind in dem Schätzmodell enthalten: Zum einen spielen Bildung und Arbeitserfahrung laut der Mincer-Gleichung eine zentrale Rolle. So werden das Bildungsniveau der Personen (Schulbildung gemessen in Jahren) und die Arbeitserfahrung (gemessen in Jahren) sowohl linear als auch quadriert (getrennt nach Vollzeit- und Teilzeitbeschäftigungen sowie Arbeitslosigkeit) in das Modell aufgenommen. Darüber hinaus ist die Ausbildung ein wichtiger Prädiktor des Lohnniveaus. Daher wird je ein Dummy, der angibt, ob die Person keine oder eine Lehre, eine Ausbildung zum Meister und/oder einen Universitätsabschluss hat, in die Modellierung einbezogen. Weiter wird die soziale Herkunft der Probanden über die Gesamtbildung der Eltern in Jahren kontrolliert.24 Neben der Bildung und der sozialen Herkunft beeinflusst auch der Gesundheitszustand das Produktivitätsniveau einer Person und damit ihren Lohn: Einmal erfolgt der Einfluss direkt durch Fehlzeiten und zum anderen gibt es einen indirekten leistungsreduzierenden Einfluss eines schlechten Gesundheitszustands. Im ersten Fall wird trotz Bezahlung gar keine Leistung erbracht, im zweiten Fall wird die Leistung eingeschränkt. Aus diesem Grund wird der direkte Einfluss durch die Anzahl der Fehltage im Vorjahr und der indirekte Einfluss durch die subjektive Einschätzung (gemessen auf einer elfstufigen Zufriedenheitsskala) und die Anzahl der Arztbesuche in den letzten drei Monaten kontrolliert. Weitere Kontrollvariablen sind schließlich: Alter, quadriertes Alter, Familienstand (ledig/verheiratet), Kinder unter 16 Jahren im Haushalt (ja/nein), Wohnort (Ost-/Westdeutschland), deutsche Staatsbürgerschaft (ja/nein) sowie Anwesenheit des Interviewers beim Ausfüllen des Fragebogens (ja/nein). Zur Prüfung des Einflusses von Körpermerkmalen auf das Lohnniveau muss, wie oben angesprochen, berücksichtigt werden, dass die Kausalität auch rekursiv wirken könnte. Die hier verwendeten Paneldaten bieten die Möglichkeit, die zeitliche Struktur zu berücksichtigen, auch wenn keine „echten“ kausalen Effekte geschätzt werden können. Die gängigsten Verfahren zur Analyse von Paneldaten basieren auf zeitverzögerten Variablen sowie auf Modellen mit fixen und zufälligen Effekten (Fixed- und Random-Effects) (siehe Allison 2009; Angrist und Pischke 2009; Wooldridge 2002 für verständliche Einführungen). Diesem Beispiel wird hier gefolgt. Fixed-Effects-Modelle (FEM) überprüfen, ob personenspezifische Veränderungen der Einflussvariablen über die Zeit zu personenspezifischen Veränderungen in der abhängigen Variable führen (Within-Varianz). Die Varianz, die zwischen den Personen auftritt (Between-Varianz), wird bei der Bestimmung der Koeffizienten nicht berücksichtigt (siehe für eine Erläuterung von Fixed-Effects-Modellen auch Abschnitt 12.4 in diesem Band). Unterschiede in der Körperzusammensetzung verschiedener Personen gehen also nicht in die Schätzung ein. Diese basiert nur auf individuellen Veränderungen der Körperzusammensetzung. Man muss sich daher die Frage stellen, ob es plausibel ist, dass eine Person, die im Zeitverlauf z.B. zunimmt, vom Arbeitgeber mit Lohneinbußen bestraft wird. Grundsätzlich ist dies vorstellbar, überzeugender ist jedoch die These, dass eine übergewichtige Person von Beginn der Erwerbstätigkeit an weniger Lohn erhält. Ein Vorteil von FEM ist hingegen, dass der Einfluss jeglicher zeitkonstanter Merkmale, z.B. Persönlichkeitseigenschaften, heraus gerechnet wird. Mögliche unbeobachtete Drittvariablen auf Individualebene (unbe24 Dafür

wurden der Schulabschluss der Eltern und die danach folgende Ausbildung in Jahre umgerechnet und addiert. Anschließend wurde das Mittel der Gesamtbildung von Mutter und Vater berechnet. Um keine Fälle zu verlieren, wird für diejenigen Personen, die die Bildungsangabe von nur einem Elternteil haben, diese eingesetzt.

11.5 Ergebnisse

243

obachtete Heterogenität), die Körpergewicht und Gehalt beeinflussen, können folglich die Schätzungen nicht verzerren.25 Deshalb können für diese Modelle auch nicht die Einflüsse der weitgehend zeitkonstanten Körpergröße geschätzt werden. Random-Effects-Modelle (REM) berücksichtigen demgegenüber auch die Varianz zwischen Personen, sind aber anfälliger für Annahmeverletzungen und Verzerrungen durch unbeobachtete Heterogenität zwischen den Personen. Da die zu prüfenden Einflussgrößen (Körpergröße, Körpergewicht, FFM, TKF und BMI) allerdings innerhalb von Personen über die Zeit relativ stabil sind, sind REM zur Beantwortung der hier behandelten Fragestellung zweckmäßiger. Die dritte Variante an Modellen versucht, über ein Querschnittdesign der Kausalität gerecht zu werden, indem das aktuelle Lohnniveau auf zeitverzögerte Körpermerkmale regressiert wird („time lagged“ Modelle (TLM)). Durch den zeitlichen Abstand in der Messung der unabhängigen und abhängigen Variablen wird versucht, Probleme der rekursiven Kausalität auszuschließen. So erscheint es beispielsweise unwahrscheinlich, dass das heutige Lohnniveau frühere Körpermerkmale beeinflusst hat. Es ist natürlich nicht auszuschließen, dass eine weitere Einflussgröße (z.B. früherer Lohn) frühere Körpermerkmale und heutigen Lohn determiniert. Jedoch ergibt sich mittels Modellen mit zeitverzögerten Variablen, ebenso wie bei REM und FEM, ein strengerer Test als wenn Körpermerkmale und Lohnniveau zu demselben Zeitpunkt betrachtet werden. Im vorliegenden Fall wird der Einfluss der Körpermerkmale aus dem Jahr 2002 auf den logarithmierten Stundenlohn im Jahr 2010 geprüft.

11.5 Ergebnisse Die geschlechtsspezifische Verteilung der relevanten Größen wird in Tabelle 11.2 dargestellt. Die durchschnittliche Frau ist 42,53 Jahre alt und hat einen Stundenlohn von 10,43 Euro. Der durchschnittliche Mann ist fast gleich alt, 42,72 Jahre, verdient aber im Schnitt etwa drei Euro mehr pro Stunde. Die durchschnittliche Körpergröße der Frauen liegt bei 166,52 cm mit einem Körpergewicht von 68,01 kg. Männer sind im Durchschnitt 179,25 cm groß und wiegen 85,21 kg. Während sich die FFM zwischen den Geschlechtern deutlich unterscheidet (Frauen haben etwa 44,63 kg FFM und Männer 59,88 kg), ist die Fettmasse relativ gleichverteilt: Frauen tragen im Schnitt 23,38 kg Fett mit sich und Männer 25,33 kg. Dies bedeutet natürlich, dass der Fettanteil bei Männern und Frauen variiert und der oben beschriebene Bias einer falsch-positiven Zuordnung bei Männern wahrscheinlich ist. Nach einer etwa 10,33 Jahre langen Schullaufbahn kann die durchschnittliche Frau 13,05 Jahre Berufserfahrung in einer Vollzeitstelle aufweisen und 5,09 Jahre in einer Teilzeitstelle. Arbeitslos gemeldet ist sie im Schnitt ein halbes Jahr. Männer besuchen etwa 9,95 Jahre lang die Schule, arbeiten dann aber in größerem Umfang Vollzeit, nämlich 19,52 Jahre. Eine Stelle in Teilzeit besetzten Männer nur ein halbes Jahr, während sie aber mit 0,4 Jahren fast genauso lange wie Frauen arbeitslos gemeldet sind. 70% der Frauen und 68% der Männer absolvieren eine Lehre und 29% der Frauen sowie 27% der Männer erlan25 Eine

mögliche Drittvariable wäre zum Beispiel eine stark ausgeprägte Gegenwartspräferenz. Diese könnte einerseits ungehemmtes Essverhalten auslösen, da der gegenwärtige Genuss von Nahrung stärkeren Nutzen stiftet als präventives Gesundheitsverhalten. Gleichzeitig investieren diese Personen, weniger in ihre Bildung und erhalten demnach später weniger Lohn.

244

11 Körpermerkmale und Lohnbildung

Tabelle 11.2: Deskriptive Statistik Frauen Variablen Stundenlohn in Euro Körpergewicht in kg Körpergröße in cm TKF in kg FFM in kg BMI Gesamtbildung der Eltern in Jahren Schulbildung in Jahren Arbeitserfahrung vollzeit in Jahren Arbeitserfahrung teilzeit in Jahren Arbeitserfahrung arbeitslos in Jahren Dummy: Keine Lehre Dummy: Lehre Dummy: Meister Dummy: Universität Anzahl Arztbesuche in den letzten drei Monaten Subjektive Gesundheitseinschätzung (von 0 - 10) Anzahl Fehltage im Vorjahr Dummy: Verheiratet Dummy: Kinder unter 16 Jahren im Haushalt Alter in Jahren Dummy: Westdeutschland Dummy: Deutsche Staatsbürgerschaft Dummy: Interviewer anwesend Beobachtungen Individuen

Männer

Mittelwert

SD

Mittelwert

SD

10,43 68,01 166,52 23,38 44,63 24,53 12,12 10,33 13,05 5,09 0,50 0,26 0,70 0,06 0,29 2,27 6,97 8,36 0,64 0,34 42,53 0,72 0,97 0,24

5,04 12,74 6,30 7,82 5,35 4,44 2,01 2,26 9,88 6,71 1,29 – – – – 3,39 1,96 21,00 – – 9,94 – – –

13,59 85,21 179,25 25,33 59,88 26,49 11,97 9,95 19,52 0,51 0,41 0,25 0,68 0,10 0,27 1,65 6,98 7,76 0,67 0,40 42,72 0,76 0,95 0,25

6,90 13,78 7,00 7,49 7,72 3,81 2,04 2,49 10,52 1,80 1,12 – – – – 3,01 1,91 20,67 – – 9,87 – – –

15 240 5 587

17 309 5 960

gen einen Universitätsabschluss. Das entspricht fast dem Anteil an Personen, die angeben, keine Lehre gemacht zu haben (26% vs. 25%)26 . Der Gesundheitszustand von Frauen und Männern gleicht sich: Frauen schätzen ihre Gesundheit auf einer Skala von 0 [–] bis 10 [+] auf etwa 6,97 und Männer auf 6,98. Dafür fehlen Frauen durchschnittlich einen halben Tag länger im Jahr im Büro (8,63 Tage vs. 7,76 Tage) und besuchen auch den Arzt etwas häufiger (2,27 Tage vs. 1,65 Tage). Zur Erklärung der Varianz im Stundenlohn für Männer und Frauen wurden mehrere multiple Modelle geschätzt. In einem ersten Schritt wird aufgezeigt, wie viel Varianz des Stundenlohns alleine durch die Humankapitaltheorie erklärt werden kann (nicht tabelliert). Dafür werden Modelle geschätzt, die auf zahlreiche produktivitätssteigernde Variablen kontrollieren: Schulbildung, die drei Arbeitsmarkterfahrungsgrößen inklusive deren Quadrate, die Dummies zu keine Lehre, Lehre, Meister und Universitätsabschluss, Alter sowie Al26 Ein

Problem mit Multikollinearität gibt es aber in den multiplen Modellen dennoch nicht. Die Korrelation der beiden Dummies liegt bei r = 0, 53 und ist damit nicht perfekt. Betrachtete man eine Kreuztabelle, zeigt sich, dass von allen Personen, die keine Lehre gemacht haben 86,36% auch keinen Hochschulabschluss haben.

11.5 Ergebnisse

245

ter quadriert und die drei Gesundheitsgrößen. An den Gütemaßen der Regressionen lässt sich deutlich erkennen, dass die Humankapitaltheorie schon eine wesentliche und für sozialwissenschaftliche Verhältnisse sehr hohe Erklärungskraft besitzt. Die reinen Humankapitalmodelle (TLM) leisten eine Varianzaufklärung von 32,94% für Männer und von 27,43% für Frauen. Durch Aufnahme der zusätzlichen Einflussgrößen, wie Körpermerkmale, können weitere 10% der Varianz aufgeklärt werden (vgl. Tabelle 11.3: 36,31% und 45,42%). Die REM zeigen eine Aufklärung der Within-Varianz von 14,60% bei Männern und von 10,18% bei Frauen, die FEM eine von 16,88% bei Männern und 13,22% bei Frauen. Dass die erklärte Within-Varianz weniger durch die physischen Merkmale zunimmt, liegt unter anderem auch daran, dass die Variablen zu den einzelnen Körpermerkmalen vor allem die Between-Varianz erklären. Bei der Interpretation der Effektstärken in Tabelle 11.3 sollte Vorsicht geboten sein, da diese abhängig von der Einheit der unabhängigen Variablen ist. Allerdings können aufgrund der Logarithmierung des Stundenlohns alle Koeffizienten näherungsweise als prozentuale Veränderungen des Stundenlohns bei Veränderung der unabhängigen Variable um eine Einheit interpretiert werden. Zudem ist die Betrachtung der Stabilität von Effekten über verschiedene Modelle hinweg sinnvoll. So zeigt sich zum Beispiel ein fast durchweg konstanter Einfluss der Dauer von Arbeitslosigkeit. Dieser ist, wie anhand der signifikanten quadrierten Erfahrungseffekte erkennbar, nicht linear. Weiter spielt die Schulbildung eine wichtige Rolle. Ein Jahr zusätzlicher Bildung erhöht den Stundenlohn um 0,4% bis 2,3%. Der Erwerb eines Universitätsabschluss erhöht den Stundenlohn sogar um bis zu 33,3%. Dennoch ist es bemerkenswert, dass sich auch unter Kontrolle der Produktivität ein stabiler und durchweg signifikanter Effekt sowohl des TKFs als auch der FFM zeigt. Die Höhe der p-Werte ist dabei freilich auch abhängig von der Fallzahl in der Regression. Diese sollte bei der Interpretation von Signifikanzstests (insbesondere bei großen Fallzahlen) beachtet werden. Aber auch in den TLM mit deutlich niedrigeren Fallzahlen zeigen sich die gleichen Effekte. Dies ist vor allem dann von Bedeutung, wenn man bedenkt, dass in einer Welt ohne Diskriminierung eigentlich kein Nachweis eines Einflusses der Körpervariablen vorhanden sein sollte. Die vorliegenden Befunde deuten also auf Diskriminierung aufgrund von Körpermerkmalen hin, wobei ungeklärt bleiben muss, ob es sich um präferenzbasierte oder statistische Diskriminierung handelt. Mit jedem zusätzlichen Kilogramm an FFM erhöht sich bei Frauen der Stundenlohn um etwa 0,8–0,9%. Bei Männern ist der Effekt mit einer Veränderung um 0,4–0,6% pro Kilogramm FFM etwas schwächer ausgeprägt. Für eine anwachsende Fettmasse werden ebenfalls beide Geschlechter bestraft. Allerdings sind auch hier Frauen stärker als Männer betroffen: Die Lohneinbuße liegt bei Frauen im Bereich von 0,5% pro Kilogramm TKF. Bei Männern bewegt sich der Effekt zwischen 0,2% und 0,4% pro Kilogramm TKF. Auf den ersten Blick mögen diese Werte vernachlässigbar erscheinen, vor allem, wenn man den relativ kleinen Erklärungszuwachs dieser Variablen berücksichtigt. Berechnet man allerdings das Jahresgehalt von Beispielfrauen und -männern, wird schnell deutlich, welche Folgen Diskriminierung aufgrund der körperlichen Statur hat. Die Einkommen der Beispielpersonen werden auf Grundlage der Paramterschätzer des TLM berechnet. Die Beispielpersonen haben eine Lehre gemacht, aber keine Meisterausbildung oder einen Universitätsabschluss. Sie sind deutsche Staatsbürger, stammen aus dem Westen, sind unverheiratet und kinderlos. Alle metrischen Größen werden konstant auf dem Mittelwert gehalten (vgl. Tabelle 11.2) und zudem war ein Interviewer anwesend.

246

11 Körpermerkmale und Lohnbildung Tabelle 11.3: Determinanten des logarithmierten Stundenlohns TLM

REM

FEM

Variablen

Frauen

Männer

Frauen

Männer

Frauen

Männer

FFM

0,008∗∗ (0,003) -0,005∗ (0,002)

0,006∗∗∗ (0,001) -0,004∗∗ (0,001)

0,009∗∗∗ (0,001) -0,005∗∗∗ (0,001)

0,004∗∗∗ (0,001) -0,002∗∗ (0,001)

-0,0001 (0,004) -0,0004 (0,002)

-0,001 (0,002) 0,0003 (0,001)

0,023∗∗∗ (0,005) -0,017 (0,054) 0,043 (0,058) 0,044 (0,051) 0,291∗∗∗ (0,027) 0,011∗ (0,005)

0,005 (0,003) -0,055 (0,047) 0,069 (0,054) -0,002 (0,047) 0,333∗∗∗ (0,024) 0,010∗ (0,005)

0,022∗∗∗ (0,002) -0,005 (0,026) 0,014 (0,029) 0,033 (0,027) 0,278∗∗∗ (0,012) 0,023∗∗∗ (0,002)

0,005∗∗ (0,002) -0,031 (0,025) 0,043 (0,026) 0,001 (0,025) 0,280∗∗∗ (0,015) 0,022∗∗∗ (0,002)

0,010∗ (0,005) 0,043 (0,042) 0,055 (0,051) -0,012 (0,034) 0,080* (0,040) – –

0,004 (0,004) 0,084∗ (0,038) 0,096∗ (0,042) 0,015 (0,032) 0,044 (0,038) – –

0,007 (0,004) -0,008 (0,004) -0,091∗∗∗ (0,016) -0,0001 (0,0001) 0,0001 (0,0001) 0,006∗∗ (0,002)

0,011 (0,007) -0,009 (0,009) -0,181∗∗∗ (0,017) -0,0004∗ (0,0001) -0,0002 (0,0007) 0,016∗∗∗ (0,003)

0,017∗∗∗ (0,002) 0,005∗ (0,002) -0,073∗∗∗ (0,006) -0,0002∗∗∗ (0,00003) 0,00001 (0,0001) 0,004∗∗∗ (0,001)

0,012∗∗∗ (0,003) -0,008 (0,004) -0,108∗∗∗ (0,009) -0,0004∗∗∗ (0,00004) 0,00002 (0,0002) 0,005∗∗∗ (0,001)

0,009 (0,008) -0,002 (0,007) -0,085∗∗∗ (0,023) -0,0002∗∗∗ (0,0001) 0,0001 (0,0001) 0,004 (0,002)

0,015 (0,011) -0,006 (0,010) -0,115∗∗∗ (0,026) -0,0003∗∗∗ (0,0001) 0,00004 (0,0004) 0,006 (0,004)

subjektive Gesundheit Anzahl Arztbesuche Anzahl Fehltage

0,007 (0,005) 0,001 (0,003) -0,0001 (0,0003)

0,012∗ (0,005) 0,007∗ (0,003) -0,001∗ (0,0004)

0,001 (0,001) 0,00003 (0,001) -0,0002∗ (0,0001)

0,005∗∗∗ (0,001) -0,0003 (0,001) -0,0002∗∗ (0,0001)

0,002 (0,001) -0,0004 (0,001) -0,0003∗∗ (0,0001)

0,002 (0,001) -0,001 (0,0005) -0,0002∗ (0,0001)

Konstante

0,820∗∗ (0,276)

1,378∗∗∗ (0,327)

0,531∗∗∗ (0,088)

0,884∗∗∗ (0,092)

0,648∗∗ (0,226)

1,075∗∗∗ (0,285)

– 1 451 0,363

– 1 782 0,454

15 240 5 587 0,103

17 309 5 960 0,153

15 240 5 587 0,134

17 309 5 960 0,185

TKF Schulbildung Dummy: Lehre Dummy: Meister Dummy: Keine Lehre Dummy: Univ. Abschluss Gesamtbildung der Eltern Erfahrung V Z Erfahrung T Z Erfahrung AL Erfahrung V Z 2 Erfahrung T Z 2 Erfahrung AL2

Beobachtungen Individuen (Within-)R2

TLM = Modell mit zeitverzögerter Körpermerkmalsvariable, FEM = Fixed-Effects-Modell, REM = Random-Effects-Modell; Gebootstrappte, um die Haushalts-ID geclusterte Standardfehler in Klammern; weitere Kontrollvariablen im Modell sind: Alter, Alter quadriert, Dummy: Verheiratet, Dummy: Kinder unter 16 Jahre im Haushalt, Dummy: Deutsche Staatsbürgerschaft, Dummy: Interviewer anwesend, Dummy: Westdeutschland; ∗∗∗ p βˆ6 , d.h. weiter zurückliegende Einkommensveränderungen üben einen geringeren Einfluss auf die aktuelle Lebenszufriedenheit aus als jüngste Veränderungen. Tabelle 12.3 fasst die Ergebnisse der Panelanalyse zusammen. Die absoluten Effekte von Einkommensveränderungen auf die Lebenszufriedenheit sind klein, ein weiterer Befund, der mit dem Easterlin-Paradox konform ist. Jüngste Einkommensverluste in Höhe von 10% gehen näherungsweise mit einer Zufriedenheitsminderung von durchschnittlich 0, 015 · 0, 1 = 0, 0015 Punkten einher. Für entsprechende Einkommenszugewinne beträgt die Steigerung der Lebenszufriedenheit lediglich 0,0009 Punkte. Trotz der geringen quantitativen Effekte bestehen zwischen den Parametern relevante qualitative Unterschiede: Die Schätzer in Modell 1 weisen die aufgrund der Hypothese zum Anspruchsniveau erwartete Struktur auf, wobei βˆ1 , βˆ3 , βˆ5 < 0 und βˆ2 , βˆ4 , βˆ6 > 0 sowie |βˆ1 | > βˆ2 , |βˆ3 | > βˆ4 , |βˆ5 | > βˆ6 . Diese Unterschiede sind höchst signifikant (p < 0, 001). Für zwei Jahre zurückliegende Einkommensveränderungen bestehen absolut kleinere Effekte, wobei Verluste schwerer wiegen als Gewinne. Einkommensveränderungen vor drei Jahren wirken schließlich nur mehr kaum auf das aktuelle Zufriedenheitsniveau, wobei keine Unterschiede in der absoluten Effektstärke zwischen Verlusten und Zugewinnen bestehen. Damit gilt auch |βˆ1 | > |βˆ3 | > |βˆ5 | und βˆ2 > βˆ4 > βˆ6 . Auch die Ausprägungen der standardisierten Beta-Koeffizienten bestätigen den Befund. Wird das Schätzmodell um Kontrollvariablen erweitert (Modell 2), verkleinern sich die Effekte von Einkommensveränderungen, wobei die Effektminderungen insbesondere durch Aufnahme der beiden Dummies zum Erwerbsstatus hervorgerufen werden. Die Struktur der Effekte bleibt dabei allerdings erhalten. Insgesamt werden sowohl die Hypothese zum Anspruchsniveau, als auch die Hypothese zu einer im Zeitverlauf stattfindenden Gewöhnung an ein bestimmtes Einkommensniveau empirisch unterstützt. Von theoretischem Interesse sind auch die spezifischen Effekte der Kontrollvariablen. Es zeigt sich nämlich auch hier, dass „Verluste“ signifikant größere Glücksveränderungen nach sich ziehen als „Zugewinne“: Arbeitslosigkeit ist kurzfristig mit deutlich stärkerer Minderung der Lebenszufriedenheit verbunden als ein Wiedereintritt an Verbesserungen bringt. Verschlechterungen des Gesundheitszustands machen unglücklicher als entsprechende Verbesserungen glücklich machen und auch der Singlestatus macht unzufriedener als eine Heirat zufrieden macht. Abschließend kann durch einen Vergleich der Alterseffekte in Modell 2 mit den Querschnittergebnissen aus Tabelle 12.2 das Vorliegen eines Kohorteneffekts identifiziert werden: Anstatt des bisherigen Befunds, mit zunehmendem Alter steige die Lebenszufriedenheit erneut, gilt im Längsschnitt nämlich kein U-förmiger Zusammenhang zwischen Alter und Lebenszufriedenheit. Stattdessen sind Alter und Glück im Lebensverlauf negativ verbunden, auch wenn auf einen speziellen Renten-Dummy (der mit dem Wegfall der

276

12 Einkommen und Lebenszufriedenheit Tabelle 12.3: Anspruchsniveau und Gewöhnung (1) ln Yit− ln Yit+ − ln Yit−1 + ln Yit−1 − ln Yit−2 + ln Yit−2

(2) ∗∗∗

–0,015 (–0,019) 0,009∗∗∗ (0,012) –0,011∗∗∗ (–0,014) 0,009∗∗∗ (0,011) –0,006∗∗ (–0,008) 0,006∗∗ (0,008)

–0,010∗∗∗ (–0,013) 0,009∗∗∗ (0,012) –0,008∗∗∗ (–0,010) 0,007∗∗∗ (0,009) –0,005∗ (–0,006) 0,005∗ (0,006) –0,558∗∗∗ (–0,077) 0,066∗∗∗ (0,031) –0,662∗∗∗ (–0,185) 0,419∗∗∗ (0,087) –0,313∗∗∗ (–0,071) 0,110∗∗∗ (0,030)

Eintritt Arbeitslosigkeit Wiedereintritt Erwerbsleben verschlechterte Gesundheit verbesserte Gesundheit Trennung, dann Single Heirat

–0,010∗ (–0,110) –0,0007∗ (–0,719) 0,059∗ (0,014)

Alter Alter2 Rente Konstante

6,713∗∗∗

7,564∗∗∗

Befragte · Perioden n Befragte R2 within rho

182 496 27 673 0,015 0,593

179 083 27 480 0,074 0,566

Fixed-Effects-Regressionen, mit Cluster-Korrektur. Abhängige Variable: Elfstufige Skala zur Lebenszufriedenheit. Betrachtet werden die gesamtdeutschen Paneldaten des SOEP aus den jährlichen Wellen von 1992 bis 2008 (T = 17). Zur Kontrolle von Periodeneffekten enthalten beide Modelle jeweils 16 Wellendummies. Angegeben sind unstandardisierte Koeffizienten in der ersten Zeile, standardisierte Beta-Koeffizienten in Klammern jeweils in der zweiten Zeile. ∗∗∗ p