Theorie, Daten, Methoden: Neuere Modelle und Verfahren in den Sozialwissenschaften. Theodor Harder zum sechzigsten Geburtstag [Reprint 2015 ed.] 9783486828047, 9783486559453


191 5 21MB

German Pages 432 Year 1992

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorwort
On a New Algebra of Dichotomous Systems And its Application to Empirical Social Research
Logistische Regressionsmodelle für Paneldaten – Analyse dichotomer Variablen im Zeitverlauf unter besonderer Berücksichtigung unbeobachteter Heterogenität
Die Modellierung zeitstetiger sozialer Prozesse – Untersuchungsmethoden für Lebensverlaufsereignisse
Strukturgleichungsmodelle für Panel-Daten und die Schätzung von Differentialgleichungsmodellen
Evolution von Produktionsweisen
Theorie und Experiment – Simulationsspiele zur Selbstorganisation
Contributions of Experimental Games to Mathematical Sociology
Soziale Dilemmata – Modelle, Typisierungen und empirische Resultate
Sehen und Glauben – Über Experimente in der Statistikausbildung
Bessere Ergebnisse durch Gewichtung?
Strukturmodelle von Position und Rolle
Multivariate Analyse von Struktureigenschaften auf mehreren Ebenen – Netzwerkanalyse als »meßtheoretisches« Konzept
SYMLOG-Strukturen geschlechtsspezifischer Interaktion
Wahrgenommene Politikdistanzen zwischen Parteien und eigene Politikpräferenzen der Wähler – Die Anwendung eines räumlichen Modells der Parteienkonkurrenz auf das Parteiensystem in West- und Ostdeutschland
Die Analyse interdependenter Lebensverlaufsprozesse – Zum Zusammenhang von Familienbildung und Erwerbstätigkeit bei Frauen
Trendanalyse von Besuchszahlen-Entwicklungen in den Museen der (vormaligen) Bundesrepublik Deutschland
Wahlprogramme, Regierungserklärungen und Politisches Handeln – Zur »Programmatik politischer Parteien«
Ein Beitrag der Statistik zur international vergleichenden Sozialstrukturanalyse: Typen nationaler Sozialstrukturen
Fragekultur und bäuerliche Gesellschaft – Erfahrungen mit empirischer Sozialforschung im pakistanischen Punjab
Meinungsforschung im Jahre 2000
Zu den Autoren
Recommend Papers

Theorie, Daten, Methoden: Neuere Modelle und Verfahren in den Sozialwissenschaften. Theodor Harder zum sechzigsten Geburtstag [Reprint 2015 ed.]
 9783486828047, 9783486559453

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Theorie Daten Methoden Neue Modelle und Verfahrensweisen in den Sozialwissenschaften Herausgegeben von Hans-Jürgen Andreß, Johannes Huinink, Holger Meinken, Dorothea Rumianek, Wolfgang Sodeur und Gabriele Sturm

R. Oldenbourg Verlag München 1992

Die Deutsche Bibliothek - CIP-Einheitsaufnahme Theorie, Daten, Methoden : neuere Modelle und Verfahren in den Sozialwissenschaften ; [Theodor Harder zum sechzigsten Geburtstag] / hrsg. von Hans-Jürgen Andress ... - München : Oldenbourg, 1992 ISBN 3-486-55945-1 NE: Andress, Hans-Jürgen [Hrsg.]; Harder, Theodor: Festschrift

© 1992 R. Oldenbourg Verlag GmbH, München Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Umschlaggestaltung: Dieter Vollendorf Gesamtherstellung: WB-Druck, Rieden a. F.

ISBN 3-486-55945-1

Theorie, Daten, Methoden Neuere Modelle und Verfahren in den Sozialwissenschaften Theodor Harder zum sechzigsten Geburtstag

Inhalt

Vorwort

7

Bend Streitberg On a New Algebra of Dichotomous Systems And its Application to Empirical Social Research

13

Hans-Jürgen Andreß Logistische Regressionsmodelle fur Paneldaten — Analyse dichotomer Variablen im Zeitverlauf unter besonderer Berücksichtigung unbeobachteter Heterogenität

35

Holger Meinken Die Modellierung zeitstetiger sozialer Prozesse methoden für Lebensverlaufsereignisse

67

— Untersuchungs-

Walter Bien, Peter Schmidt und Roland Schürhoff Strukturgleichungsmodelle für Panel-Daten und die Schätzung von Differentialgleichungsmodellen

89

Klaus G. Troitzsch Evolution von Produktionsweisen

113

Dorothea Rumianek und Reinhard Samson Theorie und Experiment — Simulationsspiele zur Selbstorganisation

135

Anatol Rapoport Contributions of Experimental Games to Mathematical Sociology

165

Andreas Diekmann Soziale Dilemmata — Modelle, Typisierungen und empirische Resultate .... 177 P. Naeve, D. Twnkler und H.P. Wolf in der Statistikausbildung Sehen und Glauben — Über Experimente

205

Hans-Jürgen Andreß und Hartmut Popken Bessere Ergebnisse durch Gewichtung?

221

Peter Kappelhoff Strukturmodelle von Position und Rolle

243

6

Theorie, Daten, Methoden

Hans J. Hummell und Wolfgang Sodeur Multivariate Analyse von Struktureigenschaften auf mehreren Ebenen — Netzwerkanalyse als »meßtheoretisches« Konzept

269

Gabriele Sturm SYMLOG-Strukturen geschlechtsspezifischer Interaktion

295

Franz Urban Pappi Wahrgenommene Politikdistanzen zwischen Parteien und eigene Politikpräferenzen der Wähler — Die Anwendung eines räumlichen Modells der Parteienkonkurrenz auf das Parteiensystem in West- und Ostdeutschland

317

Johannes Huinink Die Analyse interdependenter Lebensverlaufsprozesse — Zum Zusammenhang von Familienbildung und Erwerbstätigkeit bei Frauen

343

Heiner Treinen und Helmut Kromrey Trendanalyse von Besuchszahlen-Entwicklungen in den Museen der (vormaligen) Bundesrepublik Deutschland

367

Richard I. Hofferbert, Hans-Dieter Klingemann und Andrea Volkens Wahlprogramme, Regierungserklärungen und Politisches Handeln - Zur »Programmatik politischer Parteien«

383

Dieter Holtmann Ein Beitrag der Statistik zur international vergleichenden Sozialstrukturanalyse: Typen nationaler Sozialstrukturen

393

Hanns Wienold Fragekultur und bäuerliche Gesellschaft — Erfahrungen mit empirischer Sozialforschung im pakistanischen Punjab

405

Walter Tacke Meinungsforschung im Jahre 2000

423

Zu den Autoren

429

Vorwort

'Nihil est sine ratione sit, quam поп sit (...> (Ch. Wolfio, Philosophie Prima siva. Ontologia, § 70, Verona MDCCLXXIX)

Theorie, Daten, Methoden — der Titel des Buches deutet an, daß grundlegende Fragen der sozialwissenschaftlichen und soziologischen Forschung behandelt werden. Die Akzente verschieben sich notgedrungen mit dem Wandel der politischen, ökonomischen und gesellschaftlichen Entwicklungslinien. Die Schwerpunkte und Ziele einer wissenschaftlichen Disziplin bleiben dieselben. Dafür ist nicht zuletzt der Inhalt dieses Buches ein Beweis. Vor mehr als zwei Jahrzehnten — in einer Zeit, die auf vielen Ebenen von einem vorwärtsdrängenden Reformwillen geprägt war — hat Theodor Harder mit seinem Buch »Dynamische Modelle in der Sozialforschung« (1973) darauf aufmerksam gemacht, daß in der Soziologie von Dynamik, sozialen Prozessen, Evolution etc. die Rede ist, aber wenn es um die Theoriebildung und die methodische Analyse sozialer Phänomene geht, werden die folgerichtigen Konsequenzen, nämlich eine prozeßadäquate Modellformalisierung nicht gezogen. Dieser Anspruch der keineswegs auf das Studium und die Analyse sozialer Prozesse zu beschränken ist — besagt, daß komplexe theoretische Überlegungen in einfachen Modellen beschrieben und präzisiert werden. Ein solches Vorgehen erleichtert die Theorieprüfung und regt die Weiterentwicklung statistischer Methoden an. Mit seinem Buch »Daten und Theorie« (1975) hat Th. Harder dementsprechende Anregungen gegeben. Inzwischen sind dank der Bemühungen um eine exakte Grundlagenforschung in vielen Bereichen Fortschritte zu verzeichnen. Damit haben sich auch neue Wege des Erklärens und Verstehens in den Sozialwissenschaften und insbesondere in der Soziologie eröffnet. Methoden der Logik und der Mathematik sind zu festen Bestandteilen der Wissenschaft von der Gesellschaft geworden. Eine frühe Erwartung, die mit ihrem Einsatz verbunden war und nach wie vor gilt, ist die, daß sich durch strenge Formalisieruag sozialwissenschaftliche Theorien und Konstrukte auf logische Widersprüche hin untersuchen lassen. Ein anderes Motiv für den Einsatz formaler Modellierung besteht darin, diffuse theoretische Aussagen präzise formulieren und ihre Beziehungsstruktur eindeutig ableiten zu können. Formalisierung, so lautet die vertretene Meinung, ermöglicht auf der Basis unterschiedlich differenzierter Ausgangshypothesen und Annahmen die Darstellung sehr komplexer Systeme, deren Beschreibung mit einer linearen, verbalen »Formulierungsarbeit« nur schwer zu leisten ist. Die formale Übersetzung sozialwissenschaftlicher Theorien ist auch eine Voraussetzung für den ad-

8

Theorie, Daten, Methoden

äqualen Einsatz statistischer Methoden in der empirischen Forschung, die letztlich die Konfrontation der Daten mit der Theorie über das Modell vermittelt ermöglichen soll. Die zu beobachtende Entwicklung im Bereich methodisch abstrakter Theorieund Modellbildung sollte aber auch nicht darüber hinwegtäuschen, daß nach wie vor eine gewisse Zurückhaltung gegenüber Mathematisierung und Algorithmierung gerade im Bereich soziologischer Forschung besteht. Prinzipiell ist dagegen nicht viel einzuwenden; denn, so wie es außer Zweifel steht, daß mathematische Verfahren und statistische Methoden als sozialwissenschaftliches Instrumentarium ebenso wie in jeder anderen Disziplin unverzichtbar sind, wäre ihre unvoreingenommene, routinemäßige und unkritische Anwendung ohne Kenntnis der Materie und fernab jeder problemorientierten Informiertheit äußerst problematisch. Es muß eine Frage des zu behandelnden Gegenstandes und der zur Verfügung stehenden Daten, also der Messung sozialer Sachverhalte und Prozesse — aber auch der exakten Präsenz und Beherrschung des zur Anwendung gelangenden Instrumentes durch den Forscher — bleiben, ob und in welchem Umfang oder in welchem Verhältnis zu anderen Analysemethoden, verfügbare Mathematik zur Formulierung von Erkenntnissen und Erzeugnung von Ergebnissen zum Einsatz gelangen. Zum einen sollte daher, eine gesunde Skepsis gegenüber jeglichem mathematischen und statistischen Methodenfetischismus immer vorhanden sein. Zum anderen kann die Mahnung zur Vorsicht gleichzeitig als Herausforderung zur Weiterentwicklung formaler Modellierung und statistischer Methoden und, was häufig vergessen wird, verfeinerteren Meßmethoden zur Datengewinnung in den Sozialwissenschaften angesehen werden. Mit dem vorliegenden Reader — für dessen Entstehung es also gute Gründe gibt — wird der Versuch unternommen, aus ganz unterschiedlichen Forschungsanliegen erarbeitete Fragestellungen, Methoden und Modelle einem größeren Kreis interessierter Leser aus Lehre, Forschung, Studium und Praxis zugänglich zu machen. Dabei ist eine umfassende und systematische Darstellung des aktuellen Standes der Diskussion nicht beabsichtigt und auch nicht möglich. Dennoch sind u.E. die derzeit zentralen Entwicklungslinien der mathematischen und statistischen Modellierung sozialer Strukturen und Prozesse weitgehend repräsentiert. Adressaten des Buches sind alle, die es zur Kenntnis nehmen und damit Mitwirkende an der Thematik werden. Sein Inhalt hat sicher für jeden etwas. Schwieriges mußte manchmal aus Gründen der Vermittlung und der Aufforderung zur Kürze vereinfacht werden. Manche Texte weisen zuweilen nicht immer ganz einfache Formulierungen, Daten und Gleichungssysteme auf, aber immer in der Absicht, den Rezipienten präzise zu informieren und einen Anstoß zum mitbzw. weiterdenken zu geben. Zu danken ist allen, die an dem Entstehen und Gelingen dieses Buches mitgetan haben. In guter Erinnerung gilt dieser Dank besonders den Autoren und auch Herrn Volker Verrel, der die Hauptlast der Drucklegungsvorbereitung getragen hat.

Vorwort

9

Die Arbeiten in diesem Band, ohne Ausnahme Originalbeiträge, sind inhaltlich, methodisch und bezogen auf den jeweiligen Anwendungsbereich ausgesprochen vielfältig. Im folgenden findet der interessierte Leser eine kurze Darstellung der behandelten Themen. In den ersten vier Beiträgen werden einige neuere Entwicklungen und Probleme aus dem Bereich der statistischen Analyse empirischer Daten vorgestellt und diskutiert. Bernd Streitberg schlägt eine veränderte Fassung der Lazersfeld'schen Methode der »Reparametrisierung« mehrdimensionaler Kreuztabellen zur Analyse von hochdimensionalen, additiven Interaktionen zwischen dichotomen Merkmalen vor. Er bietet damit eine attraktive Alternative zu den bekannten loglinearen Modellen mit ihrem multiplikativen Interaktionskonzept an, insbesondere für den Fall, daB die Zahl der analysierten Fälle relativ klein im Verhältnis zur Anzahl der Zellen ist. Hans-Jürgen Andreß stellt eine Strategie zur Analyse der Interdependenz zeitveränderlicher kategorialer Variablen auf der Basis von Paneldaten vor. Dabei können Effekte der Prozeßgeschichte und Besonderheiten des Erhebungsdesigns berücksichtigt werden. Einflüsse nicht gemessener individueller Merkmale werden kontrolliert. Holger Meinken gibt schließlich einen umfassenden Überblick über die Methoden der Ereignisdatenanalyse. Sie haben mittlerweile einen prominenten Platz in der Reihe von Verfahren der zeitbezogenen Analyse individueller und sozialer Prozesse inne. Während mit der Ereignisdatenanalyse diskrete Statuswechsel in der kontinuierlichen Zeit untersucht werden, bieten Methoden zur Schätzung von Differentialgleichungsmodellen die Möglichkeit der Analyse des Wandels gleichmäßig sich fortsetzender Merkmale in der Zeit. Eine mögliche Vorgehensweise zur Schätzung der Parameter solcher Modelle auf der Basis von Paneldaten, die auf die Methodologie der Strukturgleichungsmodelle zurückgreift, behandeln Walter Bien, Peter Schmidt und Roland Schürhoff in ihrem Aufsatz. Auf den Seiten 119-164 werden neuere Ansätze der mathematischen Modellierung sozialer Systeme vorgestellt. Klaus G. Troitzsch führt beispielhaft in die Methodik der Modellierung und Analyse nichtlinearer Systemprozesse ein. Sie erfreut sich seit einiger Zeit auch in den Sozialwissenschaften wachsender Aufmerksamkeit. Troitzsch zeigt besonders eindrucksvoll, wie wichtig die explizite Modellierung von Mikro- und Makroprozessen für die Beschreibung gesellschaftlicher Entwicklungen ist. Von einer anderen Seite nähern sich ähnlichen Phänomenen sozialer »Selbstorganisation« Dorothea Rumianek und Reinhard Samson mit einem ebenfalls schon paradigmatisch zu nennenden mikroanalytisch orientierten Modellierungskonzept. Auf der Grundlage zellulärer Automaten wird theoretisch experimentiert. Ein anderer bedeutsamer Bereich der Anwendung mathematischer Modelle in den Sozialwissenschaften ist die formale Darstellung sozialer und sozialpsychlogischer Handlungsprozesse mit Hilfe der Spieltheorie. Auch sie hat die soziologische Forschung während der letzten 20 Jahre mehr und mehr inspiriert. Dies wird auf den Seiten 165-203 dokumentiert. Anatol Rapoport berichtet

10

Theorie, Daten, Methoden

über den aktuellen Stand der Diskussion um die experimentellen Studien zum iterierten Gefangenendilemma. Es zeigt sich, daß die Ergebnisse dieser Untersuchungen für die sozialpsychologische Fundierung sozialer Interaktionsprozesse von grundlegender Bedeutung sind. Andreas Diekmann gibt einen allgemeinen Überblick über die spieltheoretische Modellierung sozialer Dilemma-Situationen. Die Ausführungen zeigen, daB Spieltheorie mittlerweile zu einem wichtigen Instrument bei der Formalisierung sozialer Interaktion, Kooperation und kollektiver Prozesse herangereift ist. Mit dem Einsatz von »Simulationsexperimenten« zur Beschreibung und Analyse statistischer Daten und Sachverhalte in unterschiedlichen Anwendungsbereichen beschäftigen sich die Aufsätze auf den Seiten 205-242. Peter Naeve, D. Trenkler und Hans Peter Wolf verwenden Simulationsexperimente zur didaktischen Darstellung statistischer Sachverhalte. Hans-Jürgen Andreß und Hartmut Popken benutzen Simulationsmethoden zur Beschreibung der Konsequenzen von Gewichtungsprozeduren für die Qualität der Schätzung von Populationsparametern. Mit Neuentdeckungen und -formulierungen im Bereich der Analyse sozialer Netzwerke und gruppeninterner Interaktionsprozesse wird der Leser auf den Seiten 243-315 konfrontiert. Peter KappelhofT stellt ausgehend von dem Ansatz der Blockmodellanalyse verschiedene, mögliche Definitionen von Positionsäquivalenz und Rollenäquivalenz von Individuen in sozialen Netzwerken vor und diskutiert deren Implikationen für die theoretische und empirische Analyse. Hans H. Hummell und Wolfgang Sodeur spezifizieren soziale Netzwerke als dynamische Mehrebenenstrukturen und belegen die Fruchtbarkeit des klassischen Schemas individueller und kollektiver Merkmale von Lazarsfeld und Menzel auch für diesen Fall. Im weiteren zeigen sie, wie sich dieses Modell dazu eignet, theoretisch und empirisch die Veränderung von Strukturen sozialer Netzwerke als Konsequenz individueller Handlungsprozesse zu begreifen. In einer spannenden Studie berichtet Gabriele Sturm schießlich über das Beobachtungsdesign SYMLOG und dessen Anwendung in der politiksoziologischen Feldforschung. Der SYMLOGAnsatz ist praxisorientiert und für die praktische Sozialtherapie und Sozialisation entwickelt worden. Das Instrument wurde bisher — vermutlich weil es sich um ein Beobachtungsverfahren handelt — in der Soziologie nur sehr selten eingesetzt und erprobt. In einem integrierten Methodenkurs (IMK), dessen Ergebnisse hier u.a. vorgelegt werden, geht es um die Testung der Möglichkeiten und Grenzen dieses Verfahrens unter Berücksichtigung soziologischer Fragestellungen und im Rahmen von Feldforschungen. Anhand empirischer Studien werden im letzten Teil des Bandes spezifische konzeptuelle und praktische Probleme der empirischen Sozialforschung aus der Sicht unterschiedlicher Forschungsinhalte und -bereiche vorgestellt (S. 317429). Franz Urban Pappi zeigt, wie man mit Modellen — hier mit einem Modell aus der Familie der Raummodelle — die politische Wählerwirklichkeit, gekennzeichnet durch a) individuelle Wahrnehmungen (der Politikdistanzen zwischen Parteien) und b) ebensolchen Policy-Präferenzen, in Szene setzt und empirisch

Vorwort

11

füllt. Er gelangt auf diesem Wege zu Erklärungen, welche die Mehrdimensionalität der untersuchten Parteienlandschaft entdecken. Johannes Huinink diskutiert am Beispiel des Zusammenhanges von Familiengründung und Erwerbsbeteiligung von Frauen in der alten Bundesrepublik Probleme des Studiums interdependenter Lebensverlaufsprozesse. Es werden Modelle wechselseitiger Abhängigkeiten zwischen verschiedenen Lebensbereichen thematisiert und Vorschläge zu Auswertungsverfahren auf der Basis von Methoden der Ereignisdatenanalyse vorgestellt. Für die Kultursoziologen dürften die Ergebnisse einer Trendanalyse für die Besucherentwicklung in Kultureinrichtungen während der vergangenen zehn Jahre von Interesse sein. Heiner Treinen und Helmut Kromrey haben diese Untersuchung für die vormalige BRD durchgeführt. Sie geben einen interessanten Einblick in die von ihnen gewählte Analysenmethode und dokumentieren in präzis differenzierter Weise die Entwicklungstrends hinsichtlich der Museumsbesuche, wobei die Validierung der Befunde anhand einer Konfrontation mit der Entwicklung anderer kultureller Einrichtungen nicht fehlt. Richard I. Hofferbert, HansDieter Wingemann und Andrea Volkens führen uns noch einmal zurück in die Politikwissenschaft. Ihr Forschungsanliegen betrifft die »Kongruenz und Diskongruenz« zwischen den Versprechungen der Parteien in ihren Wahlprogrammen, den Versprechungen von (Koalitions-)Regierungen in der Regierungserklärung nach der Wahl und dem Regierungshandeln. Auch hier findet der Leser methodische Anregungen und stringente Ausführungen über das Zustandekommen und den Inhalt — doch recht überraschender — Ergebnisse. Dieter Holtmann berichtet im Anschluß daran über Ergebnisse national und international vergleichender Untersuchungen zur sozialen Ungleichheit in kapitalistisch strukturierten Ländern. Daran ist der Anspruch einer vergleichenden Diskussion der kapitalistischen Entwicklungsperspektiven geknüpft. In diesem Zusammenhang werden verschiedene Berufsstruktur- und Klassenmodelle getestet. Mit dem Testergebnis wird dem Berufsstrukturmodell der Vorzug eingeräumt. Dies läßt das Modell zum zentralen Diskussionsgegenstand der Arbeit werden. Daran schließt sich die Entwicklung eines allgemeinen, d.h. für alle zur Untersuchung vorgesehenen Länder gleichermaßen geeigeneten Konstruktes an. Schließlich werden die Typen nationaler Sozialstrukturen empirisch generiert, die sich durch einige als besonders zu bezeichnende Ungleichheitsdeterminanten auszeichnen. Mit den »Erfahrungen einer empirischen Sozialforschung im pakistanischen Punjab« bringt Hanns Wienold uns in ebenso subtiler wie sensibilisierter Weise nahe, daß es vielleicht manchmal auch ganz nützlich ist, in toto empirische Sozialforschung als eine Methode der Kollision mit »Wirklichkeit« aufzufassen, die aus den Rückwirkungen der Zusammenstöße auf sich selbst ihre Schlüsse über den Gegenstand zieht. Solche Rückstöße machen sich umso mehr und empfindlicher bemerkbar, je »fremder« Methode und Wirklichkeit sich gegenüberstehen. Dieser Text ist fast wörtlich dem Aufsatz entnommen und charakterisiert treffend seinen Anspruch. Den Abschluß bildet ein spritziges Essay, das der Feder von Walter Tacke, einem bekannten Meinungsforscher der Bundesrepublik entstammt. Mit einem Blick in die Sterne,

12

Theorie, Daten, Methoden

d.h. in diesem Fall auf das Jahr 2000, wird nicht nur über den Wertewandel im Handwerkskasten der Sozialforschungsmethoden nachgedacht, sondern auch einige originäre Voraussagen über die Trends der Markt- und Meinungsforschung in Wechselwirkung mit nationaler und internationaler Politik, Technologie und sozialen Veränderungen formuliert.

Für die Herausgeber Dorothea Rumianek Johannes Huinink

Bernd Streitberg f

On a New Algebra of Dichotomous Systems And its Application to Empirical Social Research*

1.

Introduction

If one searches for the single most influential paper in the history of empirical social research, one might well be led to »The algebra of dichotomous systems« by Paul F. Lazarsfeld. The paper was published in 1961, but preliminary versions already circulated since about 1949 as technical reports from Columbia University. It is not improbable that Lazarsfeld had invented most of the ideas in his 1961 paper as early as 1938 when he was forced to leave Austria. The paper introduced novel techniques for the study of interactions in a system of binary variables, thereby revolutionizing the theory of attributes first discussed by Yule (1900). By providing a precise quantitative formalization of the basic intellectual techniques of specification, elaboration, interpretation and explanation, the paper laid the foundations of a new paradigm for the design and analysis of survey studies. The »Lazarsfeld paradigm« has dominated empirical social research for many years and still is, even in the era of the »mighty modelers«, the preferred approach for many problems of data based sociology. Today, where the potential pitfalls of modeling are much more clearly seen than in the recent past — some remarks are given in the next section — it might well be the time to return to the classical paradigms and have a fresh look upon Lazarsfeld's results. There, on closer scrutiny, an interesting anomaly appears. Lazarsfeld's mathematics is undoubtedly correct for two or three attributes considered simultaneously. It can be seen, however, to be in error for systems with four or more variables in the sense that his »symmetric parameters« do not work as intended

* The paper is dedicated to Theodor Harder in order to celebrate the public announcement of the fact that he is about 10 years wiser now than Bob Dylan. Theo is a personality of high, perhaps even infinite, improbability, because he is a sociologist, a musician, a multilingual poet and a mathematician all in one person. I wonder what he is saying about the mathematics and the english of this paper. In any case, I have been prudent enough not to put any music scores into it. About 10 years ago, he tried hard and almost succeeded in bringing me back to the scenic, but somewhat wild, area of social research. After having judged the tiny bit of social research presented here, he might be wiser now in not attempting it a second time. This is, however, but a first draft and there is always room for improvement.

14

Bernd Streitberg

for high dimensional interactions. The same defect shows up also in the work of mathematical statisticians which followed Lazarsfeld, especially in the Bahadurexpansion (1961) and in Lancaster's (1969) theory of additive interactions. This has gone unnoticed for a long time and has only very recently been corrected (Streitberg (1990)). In the following paper a leisurely introduction to the multivariate analysis of dichotomous systems is given, starting with the well known fourfold table in section 3.1 and with the analysis of the dichotomous cube in section 3.2. The defect of the Lazarsfeld parameters is discussed in section 3.3. Alter the special cases of four and five attributes in section 4.1, some general notation is introduced in section 4.2 where a redefinition of Lazarsfeld's parameters is given. The revised parameters work for systems of arbitrarily high dimension. Questions of uniqueness of this definition are also discussed in section 4.2. Chapter 5 introduces a model free technique for finding the »significant« interactions in a dichotomous system. This method of »additive interaction analysis« should be viewed as an alternative to loglinear modeling which avoids some of the problems of this class of models. In the final chapter 6, several open problems are discussed. All definitions and theorems of the »new algebra« are illustrated, using an example from empirical social research. The approach can, without problems, be extended to polytomous data, i.e. qualitative variables with more than 2 categories, see Streitberg (1991). The basic idea is to have an interaction parameter for each cell of the multidimensional contingency table by regarding a variable with к categories as an assembly of к simultaneous dichotomies of the kind »Theo against the rest of the world«.

2.

Models considered harmful (potentially)

When a researcher has observed a set of qualitative variables (say the responses to the questions in a survey), there are several methodologies for the analysis of these data he can choose from. Very often these methodologies are model-based and a popular class of techniques is provided by the loglinear model. Let us express our hope, as an aside, that our researcher does not belong to the »lunatic fringe« of LISREL addicts. This system and related voodoo approaches are clear examples of extreme »overmodeling« of data. We will assume, in the following, that our researcher aims at a honest confrontation of data and theory. Even staying within the comparatively respectable class of log-linear models, there appear several problems very well known in applications to the natural sciences, notably biometrics, which appear not to be known as well in empirical social research. Some of these problems are of a general nature and the following citation from Diaconis (1988), p.169, is pertinent: A word of caution: I find the statistical community introduces models much too easily. (...) In some cases linearity or physical justification (and repeated comparison with reality) justify models: Gauss discovery of Ceres, Bright-Wigner distributions in particle

A New Algebra of Dichotomous Systems

15

physics or multinomial distributions in genetics are examples. (...) The cases where some slim justification is given seem alarmingly few to me. Usually, one is contemplating some data and a model is chosen for convenience as a way of doing data analysis. (...) the assumptions (...) may be a drastic oversimplification. One may well do better looking directly at the data using spectral analysis, or a convenient ad-hoc approach. I must admit that I too fmd ad hoc modeling attractive and occasionally useful — it seems like a most worthwhile project to try to isolate what good comes out of the modeling paradigm and attempt to build a theory that optimizes this good instead of behavior in a non-existent fantasy land of iid repetitions. For a loglinear model, some special problems appear: (1) The model is multiplicative, i.e. it is linear in the logarithm of the frequencies. When the number of cases is small compared to the number of cells (say 2000 cases and 10 attributes with 1024 cells), empty cells occur with high probability. What is log(0)? The common remedy of adding a small constant to each cell frequency is fine asymptotically (number of cases going to infinity while the number of cells is fixed), but has disturbing strong effects whenever the number of cases is of roughly the same magnitude than the number of cells. (2) The model is linear (which might be tolerable as a first order approximation), but the parameters are not easily interpreted, unless one stays within certain subclasses like »direct graphic models«. (3) The model does not allow a consideration of marginal tables unless a very strict collapsibility condition is satisfied. Also a condensation of polytomous variables by combination of categories may produce a (multiplicative) interaction where there was none in the original table. So many useful techniques of data analysis are strictly not allowed in this class of models. (4) All standard errors, confidence intervals and tests are of an asymptotic nature only and not much is known about finite distributions. (5) The main problem is, however, that loglinear models are commonly used as model-search procedures: one is searching for the »best« or at least an »acceptable« model for a given data set. It is well known that none of the tests, standard errors etc. which are commonly computed for such a model are of any validity anymore if the model is the result of a searching process and not defined before looking at the data. The true standard errors are, in general, orders of magnitude larger than the nominal standard errors, given by the standard computer programs, whenever the effect of searching is taken into due account. In my opinion, the most useful »models« are »no models at all«. A good example is Harder's »model« for the analysis of the averages of a quantitative variable (say income) in the cells of a 2r-table obtained by classifying a sample or a population by r attributes (say age, sex, education, region if suitably dichotomized). Because the model has exactly as many parameters as the number of data-points given initially (2r), it is not a model at all. It better should be called a reparameteriza-

16

Berod Streitberg

tion and Härders (1975) book contains ample proof that it is a very useful reparameterization because the new parameters are more easily interpreted than the original data. Spectra] analysis (in the general sense of Streitberg (1981) or Diaconis (1988)) is a statistical method of the same nature. The approach by Lazarsfeld (1961) and the revised version discussed in this paper also are just reparameterizations and not models. They have as many parameters as data points (2r in the case of r attributes) and the map data points -* parameters is invertible, meaning that no information is destroyed. Also, none is gained. Reparameterizations are useful, however, if the new parameters are able to signal interesting relationships which are not immediately visible in the original data. The main purpose of this paper is to show that a comparatively straightforward interpretation is possible for the Lazarsfeld parameters, if these are suitably redefined.

3.

Lazarsfeld's symmetric interaction parameters

It appears inevitable that in each new paper on the analysis of qualitative data a new notation is invented. This paper is no exception. The notation is, however, rather near to the one chosen by Lazarsfeld. What he calls »p-parameters«, I call »n-parameters«, because I want to allow the researcher to choose between expressing his parameters in absolute frequencies (n=sample size) or in relative frequencies ( n = l ) . The interaction parameter, say for three attributes ij,k, is denoted by cijk instead of Lazarsfeld's |ijk|.

3.1

The f -table

Consider a sample of η people partitioned into 2r classes according to the joint observation of r dichotomous items (yes/no-attributes). For 2 attributes i and j, the absolute frequencies can be given in the well-known fourfold table: my

m!

nij

m

where for any dichotomy one of the two responses is arbitrarily coded as unity(l), the other one as null(O). The corresponding joint frequencies of two attributes i and j are designated as my for the response-pattern (11), mt for the response pattern (10), nij for the response pattern (01) and m for the response pattern (00). Note that the subscripts on an m-parameter corresponding to a

A New Algebra of Dichotomous Systems

17

response pattern are exactly those attributes that have a »1« in the particular response pattern. The »m-parameters« are also called »cell frequencies« in the following. Example: In a two-wave panel survey, η=228 participants in the student movement were classified in 1970 according to their economic views (attribute i with 1 = predominominantly marxist, 0=other) and their views on family life and personal relations (attribute j with 1= predominantly freudian, 0=other). This resulted in the following two-fold-table in 1970:

il 10

jl

JO

131 20

53 24

Lazarsfeld introduced a second system of parameters- the »n-symbols« or »marginal frequencies«. These are given by the joint and marginal frequencies of the positive (1) responses. For the joint frequency obviously Пу = Шу. Considering the marginal frequencies, one has П|=Шу + п^ and nj = m,j + irij as the number of respondents having positive answers on attributes i respectively j. An »n-symbol« corresponds to the »all-positive« (11... 1) response pattern for selected attributes, given by the subscripts. We therefore are consistent in denoting the total number of respondents by n: (1)

η = m^j + mi + mj + m.

Example: For the »student« sample η=228, ^ = 184, nj = 151, = 131. We can arrange these »marginal frequencies« in the same way as the »cell frequencies«:

11 Sum

jl

Sum

131 151

184 228

Conventionally, the »m« and the »n«-parameters would be combined in one table:

il Ю Sum

jl

jo

Sum

131 20 151

53 24 79

184 44 228

Both the system of the four m-parameters (mu, oij, mj, m) and the system of the four η-parameters (ny, η , nj, η) are complete and equivalent descriptions of the data obtained by considering two attributes i and j simultaneously.

Bernd Streitberg

18

There are many measures of association for 2x2-tables. The theory of Lazarsfeld is based on a particularly simple one: the cross product (2)

Cjj = η^η - ninj.

Lazarsfeld defines this as the determinant of a 2 by 2 matrix, wherein the marginal frequencies are arranged as above. Expressed in the cell frequencies, this is equal to (3)

Су = т у т - mjiTij

There exists a fundamentally different alternative to the cross product among the symmetric measures of association. This is the cross product ratio: Шут/тад. In choosing between these two parameters, the researcher is choosing between two alternative roads for the study of interaction in general: the »additive road« (linear combinations of frequency products) or the »multiplicative road« (linear combinations of log frequencies). The second road leads to log-linear models, the first road led, in the past, to practically nowhere. Personally, I always feel a bit unhappy about parameters which are merely defined on the interior of the set of possible data (all possible contingency tables). This makes the study of exact small-sample distributions, where the boundary has non-zero probability, practically impossible. A compact space (the set of all possible tables) is thereby artificially transformed into a locally compact space (the boundary is infinitely far away in the metric corresponding to »multiplicative« parameters). Several simple properties of the cross product are easily proved: — Upon division by n2, the cross product is equal to the covariance between the binary attributes i and j. — Whenever the orientation of one of the attributes is changed by switching the roles of 0 and 1 for that attribute, the cross product simply changes its sign. If the reoriented attribute i is denoted by i*, this means c i'j = c(j' = — cij = — ci'j· — Clearly Су = с,;. This is the reason why Lazarsfeld calls the cross product a »symmetric« parameter. — The cross product has a simple behavior under scaling: if all original frequencies (m) are multiplied by some scalar X, сц is multiplied by X2. A special example is given by taking X = n - 1 , i.e. going from absolute to relative frequencies. The decisive property of the cross product, however, is the following: — Whenever two attributes i and j are independent, the cross product will vanish. This is obvious by the very definition of independence: ng = ηη/η. The cross product can, therefore, be considered an interaction parameter for

A New Algebra of Dicbotomous Systems

19

two binary variables, measuring deviations from independence. The task is to invent »interaction parameters« for more than 2 attributes with an analogous property. If one introduces Ci=nj, Cj = nj, c = n, one has a third complete system (cy,citcj,c) for the description of the given fourfold table. It is easy to see that from the с-parameters, the η-parameters (and therefore the m-parameters) can be uniquely recovered by

In applications to empirical social research, the dimensions of parameters are relevant for their interpretation. If applied to absolute frequencies (n is the sample size) Cy has the dimension of (Persons)2 or n2, for short. It therefore is often better to use cy/c which has dimension η — i.e. »persons« — and can be interpreted as the difference between the actually observed number of persons with an all positive response pattern and the corresponding number expected under independence. A good alternative is to use »dimensionless« quantities like cy/c2 of dimension 1 (percentages or proportions) as Lazarsfeld did. Example: Consider a simple numerical example in relative frequencies (dimension 1) in order to make the notation perfectly clear: Let the given table (m-parameters) be 0.5

0.2

0.1

0.2

The marginal η-parameters are п : =0.7 and nj=0.6 with η^=0.42. The cross product, therefore is Cy = 0.5 —(0.7)(0.6) — 0.08 and the observed table is decomposed into a sum of two tables, one describing the frequencies as they would have been under independence·. 0.42

0.28

0.18

0.12

plus a second table which clearly indicates the deviations from independence: + 0.08

-0.08

-0.08

+0.08

20

Berod

Streitberg

Example: For the student-data (absolute frequencies) one has Cy = (131)(228) — (184)(151) = 2084 with c g /c = 9.15 and the corresponding decomposition gives the independence table (qcj/c): 121.85

62.15

29.15

24.85

and the deviations table (measured in number of persons): + 9.15

-9.15

-9.15

+9.15

This example illustrates the use of the n-scaling, expressing all parameters in numbers of persons or deviations from expected numbers of persons. I believe that the introduction of parameters that are expressed either in absolute numbers of persons or in percentages of a given number of persons most clearly shows the actual strength of effects and should be preferred to scalings that are more remote from everyday notions. Still another possibility is the comparison of c y with the maximal obtainable value of the cross product under certain assumptions. The zero assumption is that nothing is known about low-order frequencies other than η itself. It then is easily shown that |c y | < 0.25 n 2 , wherefrom the parameter 4cy/n2 with — I s 4cij/n2 s 1 would suggest itself. Still another possibility is given by investigating what the maximum value of с у is, given the knowledge of all lower order parameters. This leads to well-known coefficients of association.

3.2

The 23-table (the dichotomous cube)

Consider now what happens if a third attribute к is introduced. The »dichotomous cube« of the joint frequency distribution of i j and к can be given, for instance, by presenting two 22-tables with the original »cell frequencies« of the 8 possible response patterns: m iik

m^

m^j

nij

m jk

mk

inj

m

The notation is completely analogous to the two-way case with, say, m^ denoting the absolute frequency of the response pattern (101) wherein attributes i and к have a positive response. Clearly the notation for m-parameters is context-dependent: it is necessary to specify the basic set of attributes under consideration in order to make the notation unambiguous. Here the set is ijk, so my now is the frequency of the response pattern (110).

A New Algebra of Dichotomous

Systems

21

The »n-system« of (joint and) marginal frequencies for the positive response patterns is a second, completely equivalent, way to describe the given data. A nice general algorithm, with some analogies to the »Fast Fourier Transform«, to go from the »m-system« to the »n-system« and vice versa in detailed in the Appendix. The dichotomous cube is completely specified by the joint and marginal frequencies of the positive response patterns: n ^ , n^, n^, n k , Пу, П|, n j ( η, where for instance n^ = m^ + m ^ . For three attributes, Lazarsfeld (1961) introduced the third order symmetric parameter c ^ by an implicit equation. This has been generalized somewhat here, because we consider symmetric parameters not only for relative ( c = n = 1) but also for absolute (c = η equal to an arbitrary positive number): ... (5)

nyk =

CjCjCt + CkCjj + CjCjt + CjCjn + Cjjt J с

This is an implicit equation for с у к which can, however, easily be solved because the lower order parameters are just the cross products computed for the marginal tables. Explicitly one obtains (6)

Ук = Пук«2 - П^ПкП - n^njn - njknjn + 21ЦП;Пк.

с

The corresponding expression in the original cell frequencies is a rather complicated third-order polynomial with 40 terms. Note that equation (5) allows one to split up the joint frequency into several components: A component q Cj c k = П) η nk due to complete independence: — denoted by »i,j,k« — plus three components due to group-wise independence, say ckcy for »k independent of ( i j K This is denoted by »k,ij«. The possible association among i and j can be measured by c^. The symmetric parameter is a residual quantity, measuring what is left over after accounting for all lower order dependencies among the attributes. Again the symmetric parameter has several simple properties: — It is symmetric under interchange of attributes: c ^ = c ^ etc. — It changes sign under reorientation of one of the attributes. The absolute value is not changed: Cj,jk = —с ик . — Behavior under scaling: If all original cell frequencies are multiplied by a scaling constant X, the third order parameter is multiplied by X3. The decisive property of the cross product, namely to vanish under independence, is also shared by the third order parameter. However, there now are four types of independence to be investigated: complete independence and the three group-wise independence structures.

22

Bernd Streitberg

— Assume, as an example, that к is independent from (ij) — that is n ük — nk Пу/ч ~ th« 1 ^ will be independent from i and j taken separately. This implies c u = c^ = 0 and, together with equation (5), cijk = 0. — In the same way the other independence structures are investigated with the result that cijk is always equal to zero if an independence assumption is true. Indeed any decent parameter intended to measure interactions as deviations from independence should, in my opinion, have the »minimal« property of being able to clearly signal the absence of interaction in cases of independence. Note that cijkis of the order n3. It therefore might be useful to report it in the form C|jk/n2, which again is a deviation from independence measured in number of people or in the form c^/n, a (signed) relative frequency. One can easily prove that |c^| s 0.125n3 as follows. Introduce binary random variates Xj, Xj, Xk whose joint probability distribution is given by Pijk = Пук/п. Then (7)

c № = E[(Xj - EXj) (Xj - EXj) (Xk - EXJ] n3.

Because |Xj — EX;| £0.5 the result is immediate. The same argument goes through for the higher order symmetric Lazarsfeld parameters. It is instructive to consider three-way tables with maximal c^. Typical is the following table (relative cell frequencies), a latin square (written as a cube): 0.25

0

0

0.25

0

0.25

0.25

0

Example: In section 3.1 merely the data for the »first wave« in 1970 have been given. In the second wave, which was conducted in 1990, participants were again classified according to their economic and psychological views (attribute к on economic views in wave 2 corresponding to i in wave 1, attribute 1 on psychological views in wave 2 corresponding to j in wave 1). Here we consider the joint distribution of ijk given in the following contingency table (m-parameters): kl

kO

jl

jo

jl

jo

il

41

16

90

37

Ю

4

0

16

24

The subtable denoted by »kl« consists of all those responders that were classified as »marxist« still in 1990. The marginal parameters can be arranged in exactly the same way as the »m-parameters«. In general notation this arrangement is denoted as

A New Algebra of Dicbotomous Systems

kl

23

Sum Sum

jl

Sum

il

n

gk

4ik

»«

Sum

njk

Dk

Щ

Hi η

jl

which is, for the given data, equal to kl

Sum Sum

il

jl 41

57

131

180

Sum

45

61

151

228

jl

Sum

The reader who does not understand this table immediately is clearly advised to go back to the definition of the »n-parameters« given above. Note that the first table is just the two-dimensional »n-table« of i and j for constant к = 1. A simple interpretation of the »third order parameter« is afforded by considering either the »m-table« with fixed k = l or, equivalently, the »n-table« with fixed k = l . A trick that leads to simple formulas is to behave like a survey sampler who »blows up« tables of a subsample to the size of the total sample by reweighting, i.e. multiplying by the ratio (n/n^) of total sample size to subsample size. Multiplying the m or η-table by (228/81) results in an Active η-table for the total sample, which only would be equal to the true η-table if the subsample were exactly representative of the total. Let us denote the cross product of this Active table obtained by Axing к = 1 by c ij;k=1 . This is in general given by the formula: Cij;k = l = (П/Пк) (nijkn -

n^J.

Dividing by n, one again obtains a »dimension n« quantity. It is tempting now to compare this »Active« cross product to the »true« cross product Cy. This difference appears, suitably weighted, in the third order parameter as follows: _ CikC^j Uk — n_ k

c



1сц

— c

g;k=l.»nk·

This can be expressed as a quantity of dimension η by dividing by n2 on both sides, which gives a decomposition in number of persons. The formula has a simple interpretation: the Active and the true cross product of i and j would be identical if the third order parameter was given by the product of the interactions between i and k, on the one hand, and j and к on the other, weighted by l/n k . Note that even in the absence of »third order interaction« the difference is not necessarily zero due to interactions of к with i and j, separately. This has clear

24

Berod Streitberg

analogies to the well known formulae for conditional and partial correlation, but is more complex here, because we also have to consider third order interactions absent in the »gaussian« theory. Many instructive formulae of this kind are given in Lazarsfeld's paper. A more detailed discussion of the given 23-table and »conditional« and »partial« interactions will, hopefully, be included in the final version. Also all the formulae will have undergone a second, and more thorough quality control cycle.

3.3

Non-vanishing interactions in the if-table

If four attributes ij,k,l are considered simultaneously, Lazarsfeld (1961), p.129, introduces a fourth order symmetric parameter c ^ by the equation: ПуЫ = (CjCjCkC| + CjCjCu + CjCkCj! + едсд + cjckcu + + qcju + CjCju + сксдо + с,с^ + СциУс

+ скс,су

and, for the general case of r attributes, an analogous equation is given (p. 130). Again we investigate the decisive property. Is c ^ = 0 under the several possible types of independence? As it turns out, this is indeed true under complete independence and groupwise independence of the type: i independent from (j,k,l) — denoted by »ijkl«. If one considers, however, groupwise independencies of the type (ij) independent from (j,k) — denoted by »ij,kl« — the answer is different. Let us work through the case ПуЦ = n^nu/n. Under this assumption, clearly Cik = cu = Cjk = Cj,. Also, all third order parameters vanish by the analysis given above. Hence _ ПуПц _ (C,CjCkC| + CjCjCu + CkC,Cg + Сцц)

If one inserts the definition of cross products, say c u -= nun—nkn, and then cancels and recollects terms, one easily finds for the fourth order parameter: Суй _ (n^n — lyij) (nMn - nkni) _ СцСц

This product of two second order parameters will not vanish unless either i is independent from j or к is independent from 1. Here is the problem which was hinted at in the introduction: an »interaction parameter« which does not signal the ultimate case of »non-interaction«, namely independence, clearly is not particularly useful. Also all parameters of higher than fourth order, as defined by Lazarsfeld, have the same defect.

Λ New Algebra of Dicbotomous Systems 4.

25

The »new algebra«

4.1 Revised interaction parameters For the fourth order parameter a corrected definition can easily be invented. Obviously there are certain terms missing in the defining equation, namely the »products of cross products« like CyCu. The corrected equation reads as follows: (11) nukl = (CjCftq + cjcjcu + след + qqcjk + cjckcu + CjC,^ + ckc,cg + CyCu + CjjjCj! + CuCjk + CjCju + CjCiu + ckcu, + qc^ + сик1) / с3 where the second line contains the new terms. The general formula is given in Streitberg (1990) and will here be exemplified by looking at the case of 5 attributes ij,k,l,s. On the right hand side there are 52 terms and, in order to have a concise formula, merely one term of one »type« will be given explicitly: (12)

Щрь = (CiCjCkc,c, + qcjckcu + ... + CjC^Cu + ... + с^-сц, + ... + CgCkU + — + CiCjjj, + ... + Cyu,) / c 4 .

The construction for arbitrary r now should be clear. One has to consider all possible »set partitions« of the given set of attributes into disjoint subsets (called the »blocks« of the partition), such that the union of these subsets is equal to the given set of attributes. For six attributes ij,k,l,s,t a typical such set partition is given by {{ij},{k},{l,t},{s}}, which could be written in shorthand form as »ij,k,lt,s«. There are 203 set partitions of the 6 attributes in all. To each such partition belongs exactly one term on the right side. This term is a product of factors, one for each block. A factor for a block is equal to the corresponding marginal interaction parameter (say Cy for the first block {ij} in the example). The term corresponding to the example partition is сусксис,. Several questions have to be answered now. First, does this construction yield higher order parameters which have the desired decisive property of vanishing in the presence of complete or group-wise independence? Secondly, is the construction unique in some way or does it have some element of arbitrariness? These question are dealt with in the next section.

4.2 Some theory As it turns out, both questions can be answered in the positive. In order to state the result concisely, a general notation will be introduced. The following section is, therefore, on a somewhat higher mathematical level than the rest of the paper. Readers primarily interested in applications could safely turn to the final section.

Bernd Streitberg

26

Denote the given set of attributes by S. Example: S={iJ,k.l} in the case of four attributes. Denote a general set partition by x, say x = »i jk,l«. The number of blocks in the partition is designated by |x|, say | x | = 3 for x=»i,jk,l«. The finest possible partition of S, which splits up S into singletons will be denoted by a. The coarsest possible partition, which does not split up S at all, will be denoted by ω. For 4 attributes a=»ij,k,l« and b>=»ijkl«. The interaction parameters will be denoted by c U( where U is a subset of S. In the defining equation, products of interaction parameters appear. For a partition τ = {U,,U2 Uk} of S into к blocks, let cT = с^.с^ ... c^ be the product of the interaction parameters over the blocks in т . In the discussion of the special cases r=2,3,4 not merely products of interaction parameters but also products of the marginal frequencies appeared (like пупып2). For a subset U of the set S of r attributes, let nv denote the corresponding marginal frequency and define, for a partition χ of S into к blocks, the quantity nT as n r - k times the product of the nUp as U ranges over the blocks of x. Note that all nT-quantities are of dimension nr. na is the product of all one-dimensional marginal frequencies and nu is n r ~'n, with n, the joint frequency of an all positive response. In this notation, the defining equation can be written concisely:

(13)

=

с

where the sum is over all partitions χ of the set of the r given attributes. In Streitberg (1990) it has been shown that this equation can be inverted: (14)

cu = L ( - 1 ) I * I - ' ( M - ! ) ! „ , ,

where again the sum is over all partitions τ of S. For r = 3 , this is equation (6) and for r = 4 one obtains: (15)

c iju = niJkln3 - п^ ы п 2 - ... - ПуПцП2 - ... + ... + 6ninJnkn1.

There are 15 terms on the right hand side. Equations (13) and (14) can be generalized by allowing a finer partition than ω on the left hand side (see Streitberg (1991)). The answer to the two questions stated above now is given by the following theorem: Theorem 1: Let an interaction parameter cu satisfy the following three axioms for arbitrary marginal frequencies: [Additivity] cw is a linear combination of the products nT of the marginal frequencies: c u = £a T n I .

A New Algebra of Dichotomous Systems

27

[Normalization] The coefficient of cM in n u is unity: au = 1. [Independence] Whenever complete or groupwise independence holds (i.e. ηω = nT for some τ Φ ω), the interaction parameter cw is zero. Then c u exists and is uniquely given by (14) with the inversion formula (13). Proof: Streitberg (1990, 1991) proves a characterization theorem for the Moebius function on finite lattices as the solution of the eigenproblem of »infimum« operators. From this theorem the proof of theorem 1 follows immediately. The new interaction parameters are related to multivariate cumulants. The two-variate cumulant is well known- it is the covariance of two random variables. If Xi and Xj are two binary variables, asuming only the values 0 and 1 with joint and marginal probabilities of the positive values given by Py, pj and pj, their covariance is equal to cov[Xj,Xj] = Py — PiPj, which is Lazarsfeld's cross product (set n = 1 in our formula). Cumulants are higher order covariances and, for binary variables, they correspond exactly to the »new« parameters. It is instructive to investigate the point where Lazarsfeld's and the new parameters differ, when both are expressed in the »random variables« terminology. For the case r = 3 , the three-variate cumulant is equal to (16)

cum[Xj,Xj,XJ = E[(Xj - EXJ (Xj - EXj) (Xk -

EXJ]

and the new and the old interaction parameters are identical. It is well known that cumulants and centered moments are not identical any more for r > 3 with (17)

cum[Xj,Xj,X k ,X|] = E[(X, - EXJ (Xj - EXj) (Xk - EX,) (X, - EX,)] - cov[Xi,Xj]cov[xX k ,XJ - cov[Xi,XJcov[Xj,X|] - cov[Xi,XJcov[X j( XJ

for r = 4 . Centered moments correspond to the Lazarsfeld parameters and cumulants to the new parameters. For a somewhat deeper connection between interactions and cumulants see Streitberg (1990), where it is shown that all cumulants are representable as functions of suitably defined interactions. There also an axiomatic definition of cumulants is given.

5.

Additive Interaction Analysis

5.1

A new approach to the analysis of qualitative data

So far no questions of statistical significance have been discussed. For this one would need results on the (joint) distribution of the c-parameters. Consider the

28

Berod Streitberg

Standard multinomial sampling assumption of η identically and independently (iid) observations, each a r-variate binary vector corresponding to the response pattern of one subject. The m-parameters are the frequencies of the different possible binary vectors appearing in the sample. They are obviously asymptotically normal by the central limit theorem. Because the η-parameters are merely linear functions of the cell frequencies they are also asymptotically normal. Finally the с-parameters are well behaved polynomial functions of the n-parameters and therefore again asymptotically normal by the delta method (the derivative D(c,m) evaluated at E(m) will, for generic r-variate distributions not be identically zero). In principle therefore everything is clear. The asymptotic variance-covariance matrix of the c-parameters is, however, a matrix, the entries of which are described by tedious expressions which would be very costly to evaluate computationally. Also the use of an asymptotic distribution in finite cases is always open to critique. Here a very straightforward method is proposed, based on the bootstrap. The given table is re-sampled in order to give a bootstrap table. This is equivalent to re-sampling from the original (n,r)-data matrix by drawing randomly and with replacement η rows from the data matrix. In the bootstrap table all parameters of interest (say the с и or the (^-parameters or some functions thereof) are estimated just as in the original table. This process is repeated В times, thus obtaining В bootstrap replications. For each parameter, an estimator of the variance is obtained by computing its empirical variance over the В replications. A significance test (Z) is given by dividing the parameter estimate from the original table by the standard deviation thus obtained and by determining the two-sided p-value corresponding to the observed Z-statistic from the normal distribution. For small n, also the t-distribution can be used. Whenever a bootstrap procedure is proposed, its asymptotic validity has to be investigated. Do the results obtained via bootstrapping converge to the largesample asymptotics if the sample size goes to infinity? In our case this is rather immediate by a remark in Efron (1979) and the sketch of a short proof has been given in Streitberg (1991). Example: The full 24-table for both waves of the »student«-data has been laid out as a 4=4-table, rows corresponding to the 1970-wave, columns to the 1990-wave: kl= 11

Id = 10

28 1

13 15

55

ij = 10 ij = 01

4

0

ij = 00

0

0

33

28

ij = l l

Sum

kl = 01

kl=00

Sum

35 35

131

2 1

35 23

20 24

67

100

228

2

53

The proposed approach leads to a table which is comparable to the well known ANOVA-table. For each subset U of the attributes the corresponding c-para-

A New Algebra of Dicbcxomous Systems

29

meter cv is given (expressed in parts per thousand, i.e. the relative frequencies are multiplied by 1000), together with the t-statistic from the bootstrap and the corresponding p-value. The column labelled *p'« gives Holm-Bonferoni adjusted multiple p-values (see Sonnemann (1982) or Streitberg (1991)), taking into account that many tests are conducted simultaneously with the same data. We consider only multiple p-values smaller than 0.05 as providing sufficient evidence for nonzero interaction. It is also instructive to compare the value of an interaction parameter с и to the minimum and maximum value obtainable if all lower order interactions are regarded as fixed. This is a by-product of the algorithm and is given in the columns cmin and cmax. The quotient с' = с и /тах, where »max« is the larger one of |cmin| or I cmax I, can be interpreted as a kind of higher order correlation coefficient. The computation of cmin and cmax has not yet been implemented. The basic idea for the determination of lower and upper bounds is as follows: For a given (marginal) table with corresponding set U of attributes, a decomposition of the original cell frequencies in »low order« contributions and contributions caused by Сц is computed by the »inversion formula« and the algorithm given in the appendix. Beause no cell frequency can be negative, this decomposition implies bounds for the variation of с и . Example: Results are based on В = 100 replications (in В = 10000 replications, results were not substantially different) Subset i j к 1

807.0 662.3 267.5 438.6

Ü ik jk il jl kl

40.1 34.1 20.2 23.2 130.6 27.4

2.7 4.0 1.4 1.8 9.7 1.8

0.006

0.045

0.000

0.000

0.141 0.074

0.441 0.441

ijk ijl ikl jkl

-12.8 - 8.7 -10.8 0.7

ijkl

-0.1

0.000

0.000

0.074

0.441

2.8 1.7 2.4 0.1

0.004 0.079 0.017 0.893

0.041 0.441 0.119

0.0

0.938

1.000

1.000

A part of the story is already told by the one-dimensional marginals: 183 of the 228 respondents (about 80%) were »Marxists« in 1970, with only 60 (about 27%)

30

Berod Streitberg

marxists in 1990. A somewhat lower percentage (66%) was »Freudian« in 1970 (141 of 228), with still 44% freudians in 1990 (100 of 228). The most relevant interaction is found for the persistence of Freudian views from 1970 to 1990 (the jl-interaction with about 30 persons more in the 11pattern than expected under independence). This is also the »most« significant parameter as judged by the multiple p-value. A somewhat lower persistence is found for the Marxians (with about 8 persons more than expected in the 11-cell). Also a small significant correlation between marxist and freudian views is visible in 1970, which is not significant any more in 1990. Only one three-way interaction (ijk with, however, only about 3 persons less than expected in the 111-cell) is significant. This interaction has already been discussed in section 3.2. Clearly for panel data like this many other approaches are possible and in no way excluded by applying the above analysis. The technique illustrated here, however, is a general automatic method for the detection and investigation of interactions in high-dimensional contingency tables. It corrects a defect in a classical approach to additive interactions and is, hopefully, in the spirit of the paradigm set up by Lazarsfeld.

5.2

Some open problems

(1) Devise an algorithm that determines all »significant« interactions for truly high-dimensional data. The APL programs are completely general and fast for r < 7 , but get extremely slow if r a 9 due to the extremely high number of set partitions. In empirical social research, or in the construction of psychological scales, often many items are considered simultaneously. In general, merely first and second order properties are considered. It would be a very worthwhile project to implement a method for detecting potential higher order interactions which might invalidate the second order analysis. Already detection methods for third and fourth-order interactions would be useful. (2) Develop a theory of conditional and partial interactions. This would be very useful for the detailed interpretation of high dimensional interactions. (3) Determine absolute upper bounds for the interactions in a 2'-table. This is simple for r s 3 , but difficult for r > 3 . For r = 4, I have found a table with c ijti=0.125 with merely two non-zero entries, but I do not know if this is an extremal configuration. Note that this example falsifies the conjecture in Streitberg (1991), that Сц0, sonst.

Je nach Verteilung der ц, in (3) ergeben sich die zuvor in (2) formalisierten Probit- oder Logit-Modelle. Aus weiter unten noch zu erläuternden Gründen beschränke ich mich hier auf das logistische Regressionsmodell (4)

d«./ Ii я 4 Pr(y it =l|x,/3,a) =

expQfxj, + a j T [1 + exp(p Xj, + aj]

Es kann nun gezeigt werden (vgl. etwa Hsiao 1986: 159), daß die gemeinsame Schätzung der Parameter β und a zu verzerrten und inkonsistenten Ergebnissen führt. Ähnlich wie im linearen Modell läßt sich dieses Schätzproblem aber umgehen, wenn man nicht die unbedingte gemeinsame Likelihood sondern eine geeignete bedingte Likelihood maximiert. Das entsprechende allgemeine Lösungsprinzip ist von Neymann und Scott (1948) vorgeschlagen worden: Existiert eine minimal suffiziente Statistik η für die Parameter a; und ist diese nicht von β abhängig, dann hängt die folgende bedingte Dichte

Haas-Jürgen Aodreß

40

hiyitl/S.Ti) =

mit g(r i |^,a i )>0

nicht mehr von ^ ab. Andersen (1970, 1973) hat schließlich gezeigt, daB die Maximierung der bedingten Dichten für alle yit ( i = l N; t = l T) konsistente und unverzerrte Schätzer der Regressionskoeffizienten β unter gewissen Regularitätsbedingungen liefert. Dieses Conditional-Likelihood-Schätzverfahren (CL) läßt sich leicht auf logistische Regressionsmodelle für Panel-Daten übertragen. Beispielsweise ist auch in Modell (4) yit eine suffiziente Statistik für a^ Für Probit-Modelle dagegen lassen sich keine einfachen CL-Funktionen der interessierenden Parameter finden, die von den personenspeziflschen Effekten aj unabhängig sind. Dies erklärt unsere Bevorzugung des logistischen Modells. Zur Illustration des Vorgehens betrachten wir zunächst den Fall mit T = 2 Panel-Wellen und überlegen uns die Wahrscheinlichkeit einer bestimmten Sequenz von Einsen und Nullen gegeben die Gesamtsumme der Einsen £, yit. Ist diese Summe entweder gleich 0 oder gleich 2, dann sind die beiden Werte y u und yj2 notwendigerweise beide 0 oder beide 1, d.h. die bedingten Wahrscheinlichkeiten der möglichen Sequenzen 00 bzw. 11 sind immer 1. Diese Fälle sind also für die Maximierung der CL-Funktion irrelevant. Der einzig interessante Fall ist offenbar bei yit = 1 gegeben, d.h. wenn entweder die Sequenz s ^ O l oder s i b =10 auftritt. Die bedingte Wahrscheinlichkeit für Sy, gegeben £ t yit = 1 entspricht

Pr(sJ L y i t = i ) = p r ( s j

+

pr(sib).

Sie reduziert sich nach Einsetzen des logistischen Regressionsmodells (4) auf den Ausdruck , ir exp[gT(Xj2 - χ»)] T Pr(Si,l L y,t=l) = — —Γ = F[0 (*a - Xi,)]. 1 + ехр[0 (хц - Xji)] D

der offensichtlich von aj unabhängig ist. Praktisch läßt sich diese CL-Schätzung für 2-Wellen-Panel mit jedem logistischem Regressionsprogramm umsetzen: Statt der ursprünglich N - 2 Beobachtungen betrachtet man N Fälle mit einer dichotomen Zielvariablen s, die zwei Ausprägungen 1 oder 0 erhält, je nachdem, ob für den Fall die Sequenz 01 oder die Sequenz 10 in beiden Panel-Wellen beobachtet wurde. Als Kovariate dieses logistischen Regressionsmodells verwendet man die Differenz der Meßwerte (XQ — Хц) zwischen erster und zweiter Welle. Dies

Logistische RegressionsmodeUe für Paaeldtten

41

ist das logistische Analogen zum entsprechenden linearen Modell mit Differenzenbildung (s.oben). 8 Betrachten wir nun den allgemeinen Fall mit mehr als 2 Panel-Wellen: Wie zuvor sind die Sequenzen, deren Summe der Einsen entweder Null ( £ , y i t =0) oder der Anzahl der Wellen ( £ , y i t =T) entspricht, für die Maximierung irrelevant. Damit verbleiben Τ —1 verschiedene Typen von Sequenzen mit £ t yit = 1, 2, ... oder Τ — 1 Einsen. Jeder dieser Sequenztypen S besteht allgemein aus Einzelsequenzen: Im Falle von T = 3 Wellen haben sowohl der erste Sequenztyp mit insgesamt einer Eins (100, 010 und 001) als auch der zweite Sequenztyp mit insgesamt 2 Einsen (110, 101 und 011) jeweils 3 verschiedene Elemente. Die bedingte Wahrscheinlichkeit, daß bei einem Fall i eine bestimmte Sequenz (z.B. 100) des ersten Sequenztyps beobachtet wird, entspricht dann folgendem Ausdruck •

PrdOOk

г

„ч

L

У

"=1)

Рг(100) =

Pr(100) + Pr(010) + Pr(001)'

der sich nach Einsetzen des logistischen Regressionsmodells reduziert auf (5)

exiXfl^i) ехрОЗтзц,) + ехр03тха) + expiß 7 ^)'

Auch hier läfit sich der Personeneffekt % herauskürzen. Bezeichnet man die verschiedenen Sequenzen eines Sequenztyps S allgemein mit der Folge d 1 ,d 2 ,...,d T , wobei d, entweder 0 oder 1 sein kann und £ t d, = Lit У, = s entspricht, dann läßt sich das Bildungsgesetz der obigen bedingten Wahrscheinlichkeit wie folgt formalisieren:

(6)

Рг(у„

Угг| L Уi t

= s

)

=

Lks exp(ß Е л А ) Die Maximierung der Log-Likelihood-Funktion L = In Pr(yu yiT| ΕιΥίι =s ) liefert die gewünschten CL-Schätzer. Eine genauere Analyse von (5) bzw. (6) zeigt, daß die bedingten Wahrscheinlichkeiten dem Ausdruck entsprechen, der üblicherweise in sogenannten konditionalen logistischen bzw. diskreten Wahl-Modellen maximiert wird (vgl. McFadden 1974). Dort geht es um die Wahl zwischen verschiedenen Alternativen,

8)

Mit der Diflerenzbildung werden natürlich auch alle zwischen den Wellen konstanten Merkmale eliminiert, d.h. das logistische Regressionsmodell darf keine Regressionskonstante enthalten und die verwendeten Kovariaten müssen hinreichend Variation zwischen den Wellen aufweisen.

Наш-Jürgea Andrei

42

die einer Stichprobe von Personen zur Verfügimg stehen und die jeweils verschiedene (alteraativenspeziflsche) Eigenschaften besitzen (z.B. verschiedene Transportmittel mit unterschiedlichen Kosten und Fahrtzeiten). Das bedeutet, daß man CL-Schätzungen für T-Wellen-Panels mit einem konditionalen logistischen Regressionsprogramm durchführen kann: Die Wahlalternativen entsprechen jetzt den verschiedenen Sequenzen eines Sequenztyps. Da es im allgemeinen Fall unterschiedlich viele Elemente pro Sequenztyp geben kann, muß das Programm eine variable Anzahl von Alternativen verarbeiten können. Diese Alternativen resp. Sequenzen sind für jeden Fall an Hand der Kovariaten Xj, zu bewerten (vgl. den Zähler von 6). Schließlich muß vermerkt werden, welche Alternative resp. Sequenz von den verschiedenen möglichen bei Fall i beobachtet wurde. Das konkrete Vorgehen ist in Anhang 1 beschrieben. Zusammengefaßt kann man also sagen, daß sich durch Betrachtung bedingter Wahrscheinlichkeiten der unbekannte personenspeziflsche Parameter aj eliminieren läßt. Die entsprechenden Schätzverfahren können ohne Probleme mit allgemein zugänglichen Programmen zur logistischen Regression bzw. zur Analyse diskreter Wahlen umgesetzt werden. Für die folgenden Ausführungen ist es vielleicht noch hilfreich zu wissen, wie man die sufflzienten Statistiken bestimmt, die für die Konditionierung von zentraler Bedeutung sind. Rein rechentechnisch überlegt man sich das am besten an der Hand der unbedingten Wahrscheinlichkeit für eine bestimmte Sequenz des Modells (4) (7)

Pr(yü

yiT) = A/B

mit А = expfo L yit + ßT L ^ J und Β = Π, [1 + ехр03тзц, + aj]. Wenn man nun berücksichtigt, daß eine geeignete bedingte Wahrscheinlichkeit Pr(y il ,...,y iT |X) = Pr(yil,...,yiT)/Pr(X) gefunden werden muß, so daß aj gekürzt werden kann, dann muß Pr(X)=C/D aus einem Ausdruck bestehen, dessen Nenner D erstens dem Nenner В in (7) entspricht und dessen Zähler С zweitens so zusammengesetzt ist, daß aj aus Α eliminiert werden kann. Dies ist offensichtlich der Fall, wenn Pr(X)=Pr(S mit £, y i t =s). Als näherungsweise (!) Suchregel könnte man formulieren: Betrachte die unbedingte Wahrscheinlichkeit für eine beliebige Sequenz. Die suffizienten Statistiken entsprechen dann den Summen, die mit dem zu eliminierenden Parameter verbunden sind, in diesem Fall also £ t yit. Bei Verwendung dieser Summe entsteht in diesem Fall ein Nenner D, der В in (7) entspricht. Auf eine bedeutsame Ausnahme von dieser Regel werden wir in Abschnitt 3.2 zu sprechen kommen.

Logistiscbe Regressionsmodelle für Paneldaten

3.

43

Univariate dynamische Modelle

In den bisher vorgestellten Modellen beruht die Dynamik des Prozesses ausschließlich auf exogenen Änderungen in Xjt. Ich habe diese Modellklasse daher als statische Modelle bezeichnet. Zur Untersuchung der in der Einleitung angesprochenen »Scarringx-Hypothese ist es jedoch notwendig, Veränderungen des Prozesses durch frühere Ereignisse zuzulassen. Benötigt werden dazu Modelle mit (endogener) Dynamik, in denen die Wahrscheinlichkeit aktueller Zustände Pr(yit) von früheren Zuständen y it _! abhängt. Wie in der Einleitung bereits erwähnt, sind zur Überprüfung dieser Modellklasse mehrere Messungen notwendig. Einzelne über den gesamten Untersuchungszeitraum aggregierte Häufigkeiten erlauben keine Unterscheidung der »Scarring«-Hypothese von alternativen Erklärungen. Dieser Abschnitt diskutiert Modelle, in denen lediglich eine Zielvariable betrachtet wird. Der folgende vierte Abschnitt erweitert die Fragestellung auf zwei Ziel variablen, die sich gegenseitig beeinflussen können.

3.1

Heterogenität, serielle Korrelation und zustandsabhängige Prozesse

Unter tatsächlichen Einflüssen der Vorgeschichte (»true state dependence«) wollen wir einen Prozeß verstehen, in dem eine Person, die ein bestimmtes Ereignis (z.B. Arbeitslosigkeit) erlebt hat, ein anderes Verhalten zeigt (z.B. vermehrte Arbeitslosigkeit in den Folgejahren) als eine ansonsten identische Person, die diese Erfahrung nicht gemacht hat. Ein solcher Prozeß ist schwierig empirisch zu überprüfen, da aus mindestens drei Gründen sogenannte scheinbare Einflüsse der Vorgeschichte (»spurious state dependence«) entstehen können: 1. Personen können unterschiedliche Risiken haben, arbeitslos zu werden. Im Erwerbsverlauf der »gefährdeten« Personen wird daher zwangsläufig vermehrt Arbeitslosigkeit auftreten. Einige Determinanten dieser Arbeitslosigkeitsrisiken sind dem Forscher zugänglich. Er kann sie daher in seine Modelle aufnehmen. Andere Einflußgrößen sind jedoch unbekannt oder können mangels Daten nicht berücksichtigt werden (z.B. die Einschätzung des Arbeitssuchenden durch den Arbeitgeber). Wenn man diese verbleibende unbeobachtete Heterogenität nicht angemessen kontrolliert, ergibt sich automatisch eine serielle Korrelation zwischen vergangenen und aktuellen Arbeitslosigkeiten der untersuchten Per9 son. 2. Das vorhergehende Argument gilt vor allem für Merkmale Zj, die im Zeitab-

9)

Man beachte, daß der Einfluß der im Modell berücksichtigten Variablen ebenfalls verzerrt und inkonsistent geschätzt wird. Auch die Annahme, daß beobachtete und unbeobachtete Heterogenität unabhängig voneinander sind, hilft hier nicht weiter, denn in einem Modell mit endogener Dynamik korrelieren die nicht berücksichtigten Merkmale durch Verwendung von yu_, als Kovariate mit mindestens einer der unabhängigen Variablen, nämlich mit y h _,.

44

Hans-Jürgen AndreiI lauf konstant sind. Ahnliche Schlußfolgerungen ergeben sich aber auch für zeitveränderliche Merkmale Хц, deren Werte zwar im Zeitablauf variieren, aber in allen realistischen Fällen miteinander zusammenhängen (z.B. die nationale Arbeitslosenquote). Scheinbare Einflüsse der Vorgeschichte ergeben sich also auch durch die serielle Korrelation zeitabhängiger Kovariaten, wenn diese im Modell nicht berücksichtigt werden konnten.

3. Schließlich können vergangene und aktuelle Arbeitslosigkeiten auf Grund des Erhebungsdesigns miteinander zusammenhängen. Angenommen man verwendet das in der Einleitung beschriebene zeitraumbezogene Erhebungsdesign b, dann können Arbeitsunfähigkeiten im aktuellen Jahr deshalb mit Arbeitsunfähigkeiten des Voijahres korrelieren, weil eine (längere) Arbeitsuniahigkeits-Periode beide Erhebungszeiträume überlappt. Die Gefahr, solche scheinbaren Einflüsse der Vorgeschichte zu erfassen, ist offensichtlich bei zeitpunktbezogenen Erhebungsdesigns geringer, wenn die Erhebungszeitpunkte hinreichend voneinander entfernt sind. Wie im folgenden näher erläutert wird, können einige der angesprochenen Fehlschlüsse durch das folgende dynamische Modell kontrolliert werden, in dem für die Zielvariable ein autoregressiver ProzeB zweiter Ordnung unterstellt wird. Unter Verwendung des o.g. Schwellenwert-Konzeptes läßt sich das Modell wie folgt darstellen: (8)

У*и = a,y i t _, + агу-,,.2 + ß \ I 1 und yit = i . ·"' 0,

+ δ τ ζ, + а, + ц,

wenn y * h > 0 sonst.

Neben den Einflüssen a t und a 2 früherer Ereignisse werden in diesem Modell sowohl Effekte β zeitabhängiger exogener Merkmale Xj„ die die Person sowie die Umwelt beschreiben können, als auch Effekte δ zeitkonstanter exogener Merkmale Zj unterstellt. Beispiele für Xj, waren etwa Familienstand, Kinderzahl, Haushaltszusammensetzung, Arbeitslosen- und Offene-Stellen-Quote. Geschlecht, soziale Herkunft und Schulabschluß würde man dagegen eher zu den zeitkonstanten Variablen Zj rechnen, aj entspricht schließlich dem oben definierten Personeneffekt, der quasi alle unbekannten zeitkonstanten Merkmale der Person erfasst. uit sei eine unabhängig und identisch verteilte Zufallsvariable, deren Verteilung nicht von den anderen Variablen abhängt. Handelt es sich dabei um die logistische Verteilung, ergibt sich das bekannte logistische Regressionsmodell (9)

Pr(yit=l) = L(aiyit_, +

mit L(v) =

а2уи_2

exp(v) [1 + exp(v)]'

+ ß\t

+ 5TZj + a j

Logistiscbe RegressioasmodeUe für Paneldaten

45

das im Gegensatz zum Probit-Modell den Vorteil hat, daß durch CL-Schätzung der unbekannte Personenparameter % eliminiert werden kann. Allerdings, darauf sei hier schon gleich hingewiesen, können im Rahmen dieses Modellierungs- und Schätzansatzes nicht alle Parameter ohne weitere Restriktionen geschätzt werden. Erfreuerlicherweise hat das Modell aber testbare Implikationen, die wir für eine schrittweise Analyse des untersuchten Prozesses nutzen werden, um so nacheinander die o.g. alternativen Erklärungsmöglichkeiten ausschließen zu können. 1. Dabei geht es zuerst und vor allem um die Frage, ob der vorherige Zustand der Zielvariablen yit_, den aktuellen yit beeinflußt, selbst wenn man die unbeobachtete Heterogenität aj kontrolliert. Im Rahmen von Modell (9) entspricht das der Nullhypothese сц = 0. Die CL-Schätzung setzt dazu voraus, daß α2 = β = 0 gesetzt und 6TZj mit aj zusammengefasst wird. Die Widerlegung der Nullhypothese besagt zunächst, daß die Daten seriell korreliert sind, auch wenn man stationäre Heterogenität kontrolliert. 2. Die Frage, die sich dann stellt, lautet, ob man diese serielle Korrelation schon als Einflüsse der Vorgeschichte im Sinne der »Scarring«-Hypothese interpretieren kann. Die Tatsache, daß jemand in t wie in t—1 arbeitslos gemeldet ist, besagt ja noch nicht, daß die Person in t schon wieder arbeitslos ist, sie kann ja genausogut immer noch arbeitslos sein. Berücksichtigt man vor allem den Einfluß des Erhebungsdesigns, dann können die beiden Zustände yit_, und yit auch schlicht auf Grund von Überlappungen zusammenhängen (s. oben). Das einfache Modell aus Schritt 1 stellt daher noch nicht sicher, daß es sich wirklich um einen Prozeß handelt, in dem die Vorgeschichte einen Einfluß hat, und nicht um einen vor allem durch das Erhebungsdesign bedingten statistischen Zusammenhang. Für einen präziseren Test bedarf es zunächst einer genauen Definition eines Vergleichsmodells, in dem die fraglichen Einflüsse der Vorgeschichte nicht existieren. Falls die Daten signifikant von diesem Vergleichsmodell abweichen, kann von Veränderungen des Prozesses durch frühere Ereignisse ausgegangen werden. Dieser präzisere Test ist mit Hilfe des Parameters a2 möglich. 3. Auch die CL-Schätzung von a2 setzt stationäre Heterogenität voraus, d.h. /3=0. Ein wesentlicher Nachteil des beschriebenen Vorgehens ist daher die Tatsache, daß in beiden Schritten 1 und 2 keine zeitabhängigen Kovariaten berücksichtigt werden können. Anders ausgedrückt, die Parameter β können nur dann mit CL geschätzt werden, wenn α, = a2 = 0 (vgl. Modell 4). In Bezug auf die Ausgangsfrage ist daher zu befürchten, daß sich scheinbare Einflüsse der Vorgeschichte auf Grund serieller Korrelation der Kovariaten зц, nicht ganz ausschließen lassen. Es stellt sich die Frage, warum dies der Fall ist und ob sich im Rahmen dieser Modellklasse alternative Vorgehensweisen ergeben?

Hans-Jürgen Andre/)

46

Soweit der Überblick: In den folgenden Abschnitten sollen nun diese Argumente und vor allem die konkrete Berechnung der einzelnen Submodelle ausgeführt werden. Die einzelnen Abschnitte orientieren sich an der soeben dargestellten schrittweisen Modellevaluation.

3.2

Serielle Korrelation

Ein sehr einfacher Test zur Analyse der seriellen Korrelation aufeinander folgender Werte der Zielvariablen ist das folgende Submodell (10)

Pr(y i t =l) = U e j y , , . , + aj)

des allgemeinen logistischen Regressionsmodells (9). Es unterstellt für die Zielvariable einen autoregressiven Prozeß erster Ordnung. Der Parameter α, (genauer ехрсц) gibt praktisch an, um welchen Faktor sich das relative Risiko erhöht, arbeitslos zu sein, wenn man zuvor bereits arbeitslos war. Dabei werden zeitkonstante Merkmale der Person kontrolliert, d.h. beobachtete Zj und unbeobachtete Heterogenität ^ werden in dem Personen-Effekt % zusammengefasst. Zeitabhängige Kovariaten эц, können in diesem Modell leider nicht berücksichtigt werden, d.h. 0 = 0 . Im Rahmen dieses Modell entspricht die (unbedingte) Wahrscheinlichkeit einer beliebigen Sequenz Рг(Уи

yiT) = А/В

τ τ mit А = Рг(уц) ехр(а, £y i t + α, £y it y it _,) 2

2

und В = [1 + ехр(0! + гц)Г' [1 + expaj™2, τ wobei m! = £у(,-ь m2 = Τ — 1 — m^ 2

An Hand der Suchregel aus Abschnitt 2,2 ergeben sich y ilf yiT und yit als suffiziente Statistiken für a^ Für eine CL-Schätzung sind also die folgenden bedingten Wahrscheinlichkeiten

ex

(11)

Pr(y il ,...,y iT |y i i,yiT,Ly il ) =

τ P(®i Ly« Уи-ι) 2 —

£ * s exp(a, £d, d,_i) 2

zu maximieren (zur Definition von S und d, vgl. analog Abschnitt 2.2).

Logistiscbe Regressionsmodelle für Paneldaten

47

Um diese bedingten Wahrscheinlichkeiten berechnen zu können, benötigt man mindestens 4 Panel-Wellen. Beispielsweise ergeben sich für yi = l , Ут=0 und £,у,=2 zwei mögliche Sequenzen 1100 und 1010. Die bedingte Wahrscheinlichkeit der ersten Sequenz, gegeben beide Möglichkeiten, entspricht dann Pr(1100|ll00 oder 1010) = „ 6 Χ Ρ ° ' . . 1 (1 + expa,) Bei 4 Panel-Wellen gibt es insgesamt nur 2 verschiedene Sequenztypen S mit jeweils 2 verschiedenen Einzelsequenzen, die überhaupt einen Beitrag zur Likelihood-Funktion liefern: S, mit 1100 oder 1010 sowie S2 mit 0101 oder 0011. Alle bedingten Wahrscheinlichkeiten sind eine einfache Funktion des Parameters β], der daher direkt berechnet werden kann (vgl. z.B. Corcoran/Hill 1985: 181f.). Im allgemeinen Fall mit mehr als 4 Wellen gibt es natürlich mehr Sequenztypen bestehend aus einer unterschiedlichen Anzahl von Einzelsequenzen. Diese sind zwar ebenfalls eine Funktion des Parameters a t , jedoch gibt es keine einfache analytische Lösung. Wie in Abschnitt 2.2 kann man jedoch ein konditionales logistisches Regressionsprogramm verwenden, um die bedingten Wahrscheinlichkeiten zu maximieren. Das entsprechende diskrete Wahl-Modell darf lediglich eine alternativenspezifische Kovariate haben. Wenn deren Werte gleich der Summe Et yityit-i = siii P r o Alternative resp. Sequenz sind, dann entspricht der Effekt dieser Kovariaten exakt dem Parameter β!·10 Angenommen man hätte in (10) zeitabhängige Kovariaten Xj, zugelassen, dann entsprächen Zähler und Nenner der unbedingten Wahrscheinlichkeit Рг;(y!,...,yT) = A/B folgenden Ausdrücken: T T τ a = Pr(y ü ) exp(ai Lyit + a, £уиУи-1 + ßT L*«y*), 2

2

2

В = [1 + exp(a, + a, + / f x j f 1 [1 + e x p ^ + /3Txlt)]mj τ mit m, = £у й _1, m2 = Τ - 1 — η . 2

Auf Grund der Verknüpfung von г^ mit yit ist man wiederum geneigt, eine bedingte Wahrscheinlichkeit auf der Basis von y ü , yiT und zu berechnen. In diesem Fall zeigt sich jedoch, daß der Nenner В der unbedingten Wahrscheinlichkeit nicht gekürzt werden kann (vgl. die Bemerkungen am Ende des Ab-

10) s i n ist die Summe der Zustände mit dem Kode 1, denen eine 1 vorausgeht. Dies bezeichnet man auch als die sufllziente Statistik für α,. Der Fall mit T > 4 Panel-Wellen und die Verwendung eines konditionalen logistischen Regresionsprogramms wird in einem Anwendungsbeispiel in Abschnitt S.l vorgeführt.

48

Hans-Jürgen Aodreß

schnitts 2.2). Es gibt also keine einfache Möglichkeit den Parameter ^ zu eliminieren und dies erklärt, warum wir in diesem und dem folgenden Modell zeitabhängige Kovariate außer Acht lassen müssen. Wenn man bereit ist, eine leicht veränderte Funktion in (10) zuzulassen, dann zeigt Abschnitt 3.4 einen Ausweg aus diesem Dilemma. Unabhängig von dieser technischen Restriktion des Modells (10) sei jedoch noch einmal ausdrücklich darauf hingewiesen, daß der Parameter a l t der im Zentrum dieses Modells steht, lediglich die serielle Korrelation der Arbeitlosigkeiten mißt, — ob diese im Sinne der »Scarring«-Hypothese interpretiert werden kann, ist Gegenstand des folgenden Abschnitts.

3.3

Zustandsabhängige Prozesse und Einflüsse des Erhebungsdesigns

Chamberlain (1978, 1984, 1985) und mit ihm viele andere Autoren haben darauf hingewiesen, daß die hier diskutierten Modelle eigentlich nur dann angemessen sind, wenn die zeitdiskrete Erhebungsform inhaltlich dem untersuchten Prozeß angemessen ist (wie z.B. bei Wahlen, die in regelmäßigen Abständen durchgeführt werden).11 In vielen Fällen beruht die zeitdiskrete Form der Erhebung jedoch mehr auf praktischen als auf inhaltlichen Erwägungen, denn die wenigsten Prozesse gehorchen einem zeitdiskreten Veränderungsmuster. Daher würde man sich in vielen Fällen eigentlich eine kontinuierliche Erhebung von Verlaufsdaten wünschen, die genaue Informationen über Abfolge, Zeitpunkt und Art aller Veränderungen liefert. Durch zeitdiskrete Erhebungsdesigns werden kontinuierliche Veränderungsprozesse entweder in gleich lange Intervalle (zeitraumbezogenes Design) oder in äquidistante Messungen (zeitpunktbezogenes Design) aufgelöst. Die solchermaßen generierten Sequenzen von »Veränderungen« können mit dem zugrundeliegenden Prozeß relativ wenig zu tun haben. Insbesondere dann, wenn die Intervalle sehr kurz sind, wird die Wahrscheinlichkeit, daß eine 1 in t wie in t — 1 beobachtet wird, immer größer. Die entstehende serielle Korrelation in der Sequenz ist daher ein Artefakt des Erhebungsdesigns. Ziel der im folgenden zu beschreibenden Testprozedur ist es daher, mehr Informationen der beobachteten Sequenz als den jeweils unmittelbar vorausgehenden Wert y,_! zu verwenden (beispielsweise den vorvorhergehenden Wert y,_2), um sicherzugehen, daß die zuvor in Modell (10) getestete serielle Korrelation nicht Ergebnis des Erhebungsdesigns ist. Ausgangspunkt der Testprozedur ist für Chamberlain ein zeitkontinuierlicher Prozeß, für den die Markov-Annahme gelten soll. D.h. erstens hat die Vorgeschichte einer Person keinen Einfluß auf die Verteilung der aktuellen Zustandsdauer und zweitens läßt die bisherige Dauer des Zustands die verbleibende Zeit in diesem Zustand unbeeinflußt. Beide Implikationen machen den Markov-Prozeß

11) Zu einer entsprechenden Typologie von Veränderungsprozessen und Erhebungsdesigns vgl. Andreß (1985).

Logistische Regressioasmodelle für РапекШеа

49

zu einer sinnvollen Nullhypothese der folgenden Testprozedur, die Einflüsse der Vorgeschichte untersuchen soll. Die erste Annahme geht davon aus, daB die einzelnen Zustandsdauern voneinander unabhängig sind. Wenn alle Zustandsdauern im Zustand 1 die gleiche Verteilung haben und die Zustandsdauern in Zustand 0 ebenfalls, dann ergibt sich ein sogenannter Erneuerungsprozeß. Die zweite Annahme setzt voraus, daß die Zustandsdauern in jedem der beiden Zustände exponentialverteilt sind. Sind überdies die Parameter beider Exponentialverteilungen (hier auch als zeitkonstante Raten bezeichnet) identisch, dann ergibt sich ein alternierender Poisson-Prozeß. Die Heterogenität der Untersuchungspersonen läBt sich schließlich dadurch berücksichtigen, daß jede Person durch eine individuelle Kate charakterisiert wird. Alle Abweichungen von diesem Basismodell bezeichnet Chamberlain als zeitabhängigen Prozeß (»duration dependence«). Kann man solchermaßen definierte Zeitabhängigkeit für den beobachteten Prozeß ausschließen, dann wäre ein signifikanter Einfluß a t von y t _ t im einfachen Modell (10) ein Effekt des Erhebungsdesigns. Das Testproblem reduziert sich daher auf die Frage, wie man jeder Person individuell verschiedene zeitkonstante Raten zuordnen kann und gleichzeitig auf Einflüsse der Vorgeschichte bzw. auf Zeitabhängigkeit im Chamberlain'schen Sinne testet. Chamberlain schlägt für zeitpunktbezogene Erhebungsdesigns folgendes logistisches Regressionsmodell (12)

Pr(y u =l) = Цацу»-! +

+ aj

vor. Es ist ein Submodell unseres allgemeinen Modells (9), in dem /3=0 gesetzt und δτζ: mit ai zusammengefasst wurde. Mit щ und vor allem a n wird für jede Person ein individuell verschiedener Markov-Prozeß erster Ordnung zugelassen und mit a 2 wird der Einfluß von Zeitabhängigkeiten im Chamberlain'schen Sinn gemessen. Eine Inspektion der unbedingten Wahrscheinlichkeit einer beliebigen Sequenz dieses Modells Рг(Уи,...,Уп·) = А/В T T τ mit А = Pr(yu,yi2) exp^ Ly« + вц £УйУ,.-1 + α2 Σ ϊ ^ α - ύ 3

3

3

und В = [1 + exp(ai + a il + a2)]m' [1 + expfo + вц)]"4 · [1 + expia,+а 2 )р [1 + expaj"\ τ wobei m, = 3 τ т з = Еу,,-2(1 - Ук-ι). з

τ m2 = Lyh-iO-У«-2>. 3 m

< = T-2-m,-m2-m3

50

Haas-Jürgen Andieß

zeigt, daß y u , ya, y i T _ l f y iT , £ , yj,=s und -t УиУи_t = si 11 suffiziente Statistiken für a^ und a n sind (vgl. die o.g. Suchregel).1 Es ist daher eine LikelihoodFunktion mit den folgenden bedingten Wahrscheinlichkeiten (13)

Pr(y a

Угг|у>1-У,2.Угг-1.Угг, E^h. Е|УиУй-1> τ exp(a 2 £ y ^ u - 2 )



3

τ Ldts exp(a 2 3LdA-2)

zu maximieren (zur Definition von S und d, vgl. analog Abschnitt 2.2). Um diese bedingten Wahrscheinlichkeiten berechnen zu können, benötigt man mindestens 6 Panel-Wellen.13 Beispielsweise ergeben sich für y ü = l , Ув=0, y i T _! = y i T = 0 , E,y i t =2 und 1 ^ , - 1 = 0 zwei mögliche Sequenzen 101000 und 100100. Die bedingte Wahrscheinlichkeit der ersten Sequenz, gegeben beide Möglichkeiten, entspricht dann , РгЦОЮОО 101000 oder 100100) =

expa 2 1 + expo2

Bei 6 Panel-Wellen gibt es insgesamt nur 4 verschiedene Sequenztypen S mit jeweils 2 verschiedenen Einzelsequenzen, die überhaupt einen Beitrag zur Likelihood-Funktion liefern: S, mit 101000 oder 100100, S 2 mit 000101 oder 001001, S 3 mit 010111 oder 011011 sowie S 4 mit 111010 oder 110110. Die entsprechenden bedingten Wahrscheinlichkeiten sind allesamt eine einfache Funktion des Parameters a 2 , der daher direkt berechnet werden kann (siehe das Anwendungsbeispiel in 5.1). Für den allgemeinen Fall mit T > 6 Wellen gilt wiederum, daß die bedingten Wahrscheinlichkeiten mit einem konditionalen logistischen Regressionsprogramm maximiert werden können. Das entsprechende diskrete WahlModell darf lediglich eine alternativenspezifische Kovariate haben. Wenn deren

12) Der Index für die Summe s iu läuft von 2 bis T. Es ist praktisch die Summe der Zustände mit dem Kode 1, denen eine 1 vorausgeht. 13) Stehen weniger als 6 Wellen zur Verfügung, kann man zwar nicht mehr als den Parameter α, bestimmen, jedoch müssen bei Gültigkeit des Modells (12) wie des folgenden Modells für zeitraumbezogene Erhebungsdesigns bestimmte Sequenzen gleich wahrscheinlich sein. Für Modell (12) sind beispielsweise die Sequenzen gleich wahrscheinlich, die die gleiche Anzahl von Übergängen zwischen allen Zuständen aufweisen. Diese Modellimplikation läßt sich mit Hilfe eines Likelihood-Verhältnis-Testes überprüfen (zu den Einzelheiten vgl. Chamberlain 1978).

Logistische RegressioasmodeUe für Paneldaten

51

Werte gleich der Summe £ t yuyit-2 = s ii+i pro Alternative resp. Sequenz sind, dann entspricht der Effekt dieser Kovariaten exakt dem Parameter a2.14 Bei zeitraumbezogenen Erhebungsdesigns ist ein Test zeitabhängiger Prozesse nicht ganz so einfach durchzuführen, da aus dem Zustand y t _, = l in der Vorperiode nicht erkennbar ist, wann innerhalb der Periode der Zustand tatsächlich zutraf. Ob dieser eher früher oder eher später zutraf, wird wiederum von y,_2 abhängen. Es bieten sich im Prinzip zwei Auswege an, ein datentechnischer und ein modelltheoretischer, die sich gegenseitig ergänzen: a) In einer Analyse der Jugendarbeitslosigkeit in Großbritannien verwenden Narendranathan und Elias (1990) nicht die Informationen aus allen Erhebungs-Intervallen, sondern lassen jeweils eine bestimmte Anzahl von Intervallen aus (z.B. 0 — 1—0 — 1—0 — 0), so daß hinreichend große Lücken (—) pro Sequenz entstehen, die die Gefahr von Überlappungen minimieren. Konkret teilen sie jedes Jahr in 6 Zwei-Monatsperioden auf und vergleichen dann jeweils die Januar/Februar-, März/April-Werte usw. des aktuellen und des Vorjahres. Auf diese Weise entsteht jeweils eine Lücke von 10 Monaten. Gleichzeitig können sie mit diesem Vorgehen saisonale Schwankungen der Wirtschaftsaktivität kontrollieren. b) Chamberlain weist darauf hin, daß für den Fall, daß irgendwo in der Sequenz eine Null auftritt, das o.g. zeitliche Zuordnungsproblem für das entsprechende Intervall nicht existiert. Für dieses Intervall ist man sicher, daß die Person über den gesamten Zeitraum kein Ereignis hatte und sich daher auch am Ende des Intervalls im Zustand 0 befindet. Wenn nun die oben definierte MarkovAnnahme zutrifft, dann sind die Zustände in den Intervallen vor dem Intervall mit 0 für die Prognose des weiteren Verlaufs irrelevant. Im Prinzip ist es daher ausreichend, eine Sequenz solange zurückzuverfolgen, bis eine Null auftritt. In Bezug auf das Anwendungsbeispiel könnte man sagen: Ausgehend von der Annahme, daß keine Zeitabhängigkeiten existieren und der Prozeß auf der individuellen Ebene durch einen alternierenden Poisson-Prozeß beschrieben werden kann, hängt die Wahrscheinlichkeit, daß eine Person im Jahr t arbeitslos ist, lediglich von der Anzahl der Jahre ab, in denen die Person zuvor in zusammenhängender Folge mindestens eine Arbeitslosigkeit angegeben hat. Ausgehend von dieser Grundannahme läßt sich wiederum eine Conditional-Likelihood konstruieren, die von den Personen-Effekten гц unabhängig ist. Die Einzelheiten dieser Ableitungen sollen hier nicht wiedergegeben werden (vgl. Chamberlain 1978: 42 —45, 1985: 17 — 19). Es zeigt sich jedoch, daß sich bei Verwendung der suffizienten Statistiken y iT _,, Пц, niT, s i0l , s i o u , si011l ... usw. dieselben bedingten Wahrscheinlichkeiten wie in (13) ergeben, die nur noch den Parameter a 2 enthal-

14) s i l + 1 ist die sufliziente Statistik für a? und entspricht der Summe der Zustände mit dem Kode 1, denen eine 1 zwei Perioden vorher vorausgeht.

Hans-Jürgen Andreß

52

ten. Dabei entsprechen njt und гцт der Anzahl der aufeinanderfolgenden Einsen am Anfang und am Ende einer Sequenz und beispielsweise s i o u l der Anzahl der Zustände 1, denen die Sequenz 011 vorausgeht. Zur Überrüfung dieses Modells benötigt man ebenfalls mindestens 6 PanelWellen. Beispielsweise ergeben sich für Пц = 1, nj 6 =0, yiT_ ι = 0 , si01 = 1 und si011 = si0111 = . . . = 0 zwei mögliche Sequenzen 101000 und 100100. Die bedingte Wahrscheinlichkeit der ersten Sequenz, gegeben beide Möglichkeiten, entspricht wiederum Pr(101000|l01000 oder 100100) =

. 1 + expe2

Im Gegensatz zum zeitpunktspezifischen Modell zeigt sich jedoch, daß es ingesamt nur 2 statt 4 verschiedene Sequenztypen gibt, nämlich S t und S2 (s. oben).

3.4

Exogene Einflüsse

Aus den in Abschnitt 3.2 diskutierten Gründen können bei der Untersuchung des Einflusses der Vorgeschichte nur zeitkonstante Merkmale kontrolliert werden. Veränderliche Merkmale, deren serielle Korrelation ebenfalls dazu fuhrt, daß frühere und aktuelle Zustände miteinander zusammenhängen, dürfen keinen Einfluß haben (ß=0). Prominente Beispiele für solche veränderlichen Merkmale wären im Kontext von Arbeitslosigkeit und Krankheit alle Arbeitsmarktindikatoren, z.B. die (regionale) Arbeitslosenquote. Ist diese im Untersuchungszeitraum relativ konstant, dann ist die Annahme ß=0 offensichtlich nicht besonders problematisch, denn ein solcher zeitkonstanter Effekt würde mit aj kontrolliert.15 Konstante wirtschaftliche Rahmenbedingungen können für kurze Untersuchungszeiträume häufig unterstellt werden. Es verbleiben jedoch alle Veränderungen auf der individuellen Ebene und wenn man beispielsweise an die Erwerbstätigkeit von Frauen denkt, dann fallen einem unmittelbar mehrere Variablen ein (z.B. Geburt eines Kindes, Erwerbsstatus des Partners), die das Erwerbs verhalten von Frauen entscheidend beeinflussen. Auch wenn man häufig von konstanten Bedingungen auf der Makro-Ebene ausgehen kann, bleibt also dennoch festzuhalten, daß die Annahme /3=0 auf der Mikro-Ebene sehr restriktiv ist. Falls zeitabhängige Kovariaten den ProzeB beeinflussen, dann wird ihr Effekt in α, bzw. a 2 mitgemessen, d.h. der Einfluß der Vorgeschichte wird überschätzt. Bei einer konkreten Datenanalyse ist nun zu entscheiden: Gibt es überhaupt signifikante Einflüsse zeitabhängiger Kovariaten in meinen Daten? Wenn ja, gibt es

15) Würde es sich um die nationale Arbeitslosenquote handeln, die im Zeitablauf konstant ist, könnte man sich dieses Merkmal ohnehin sparen, denn es ergäbe sich für alle Individuen und Zeitpunkte eine Konstante.

Logistische RegressioasmodeUe Or Paaeldaten

53

nicht alternative Vorgehensweisen, die zumindest partiell den Einfluß dieser Merkmale kontrollieren? Beide Fragen sollen kurz angesprochen werden: 1. In Abschnitt 2.2 wurde ausführlich diskutiert, wie man den HinfluB zeitabhängiger Kovariaten misst, wenn keine endogene Dynamik vorliegt, also α, und a 2 beide Null sind. Modell (4) zeigt daher zumindest, ob überhaupt (zeitabhängige) Informationen vorliegen, die die Zielvariable beeinflussen. Wie gesagt, von solchen Einflüssen ist in allen realistischen Fällen auszugehen, die Frage ist jedoch, ob diese Informationen auch in den zur Verfügung stehenden Daten vorhanden sind. Ein Test des Modells (4) gibt also zumindest Auskunft darüber, ob es in den Daten überhaupt Merkmale gibt, deren Einfluß kontrolliert werden sollte." 2. Chamberlain (1978) schlägt eine funktional leicht abgewandelte Version des Modells (10) vor, für das suffiziente Statistiken existieren, die den Parameter ai eliminieren. Dieses Modell lautet _ , ,, Рг(У,,= 1) =

expaj + ttiyj,_i .τ , expaj + e x p ( - 0 x,^

und entspricht Modell (4) für α, = 0 . Eine ähnliche Abwandlung, nämlich ttiyii-i + e x p # x i , + a j 1λ Pr(y i t =l) = — -f —, 1 + exp(/3 Xj, + a j verwendet Corcoran (1982), um einen Zeittrend der Wiederbeschäftigungschancen zu modellieren. In beiden Fällen existiert eine CL-Funktion. Es handelt sich jedoch in keinem Fall um ein logistisches Regressionsmodell und es ist auch nicht gesichert, daß die prognostizierten Werte im für eine Wahrscheinlichkeit sinnvollen Wertebereich von 0 bis 1 liegen. Da außer der Arbeit von Corcoran (1982) keine weiteren Anwendungen zu diesem Ansatz bekannt sind, soll er hier nicht weiterverfolgt werden.

16) Da Modell (4) Dicht die Einflüsse der Vorgeschichte kontrolliert, werden die Effekte der Kovariaten x, natürlich überschätzt. Falls signifikante Einflüsse gefunden werden, stellt sich auch die Frage, ob dies ein direkter Effekt des betreffenden Merkmals oder ein indirekter Effekt der Vorgeschichte ist. Man denke etwa an das folgende Beispiel: Die Geburt eines Kindes (zeitabhängige Kovariate) kann die Wahrscheinlichkeit zukünftiger Arbeitslosigkeit für Frauen erhöben. Die Entscheidung für die Mutterrolle kann wiederum bei einigen Frauen durch die Tatsache motiviert sein, keine Arbeit zu finden (Vorgeschichte).

54

4.

Harn-Jürgen

Andreß

Bivariate dynamische Modelle

Ein besonders interessante Anwendung sind Prozesse, die sich gegenseitig beeinflussen. Erhöhen gesundheitliche Probleme die Arbeitsmarktrisiken einer Person und/oder verschlechtert sich mit Arbeitslosigkeit die gesundheitliche Verfassung einer Person. Etwas prononcierter: Macht Arbeitslosigkeit krank oder werden Kranke arbeitslos? Die darin eingeschlossenen Fragen nach Kausalität und Interdependenz, nach der methodisch und methodologisch einwandfreien Kontrolle möglicher störender Einflüsse usw. haben Generationen von Sozialwissenschaftlern beschäftigt und können/sollen hier nicht noch einmal aufgerollt werden. Hier soll lediglich gezeigt werden, daß die bisher vorgestellten Methoden leicht auf einen bivariaten, dynamischen Prozeß erweitert werden können, so daß einige der zuvor gestellten Fragen zumindest präziser zu beantworten sind, als es mit herkömmlichen Methoden für nicht-metrische Daten möglich ist. Diese Erweiterung wurde von Narendranathan, Nickell und Metcalf (1985) vorgeschlagen. Statt einer 1/0-kodierten Ziel variablen modellieren wir nun zwei. In Anlehnung an das Beispiel bezeichne ich sie mit ц, und sit (unemployed bzw. sick). Die Wahrscheinlichkeit des Auftretens einer bestimmten Kombination von u und s ist dann Pr(Ujt,sit). Bei unabhängigen Ereignissen entspricht diese Wahrscheinlichkeit dem Produkt der Einzelwahrscheinlichkeiten (14a)

PriUhA) = Ργ(ιΟ · Pr(Su),

andernfalls sind die bedingten Wahrscheinlichkeiten zu berücksichtigen (15a)

Pr(Ui„sit) = Pr(Uit|Sjl) · Pr(si().

Eine einfache Variante des Modells (14a) sind die beiden logistischen Regressionsmodelle (14b) (14c)

Pr(Ui,) = UojUj,.! + ajSj,.! + a j und Pr(sit) = Ш Л , - , + 03S..-1 + b·,),

in denen beide Ereignisse jeweils von früheren Arbeitslosigkeiten und Krankheiten sit_ ι sowie von personenspezifischen Arbeitslosigkeits- und Krankheitsrisiken ai und b; abhängen. Modell (15a) ergibt sich, wenn wir zusätzlich einen Einfluß aktueller Krankheit su auf Arbeitslosigkeit zulassen: (15b) (15c)

Pr(Ujt|sit) = Ц а д , + ajUj,-! + а 3 8 й _, + a j und Pr(sit) = L O W , + ft*-, + b,).

Natürlich gibt es zu (15) auch noch die spiegelbildlich umgedrehte Version (16a) (16b)

Pr(u,„sit) = Ρτ(ιΟ · PriSiJujt) mit Рг(ц,) = L(a2Uit_i + a 3 s it _! + a j und

Logistiscbe RegressioasmodeUe für РааекШеп (16c)

55

Pr(sit|ui,) = L(3lUit + /32ц,_, + /33sit_! + bi).

a t wie /3j messen offensichtlich den direkten EinfluB, den beide Variablen aufeinander haben. Es ist jedoch nicht möglich, gleichzeitig a t und j3t zu identifizieren. Wie zuvor bei den univariaten Modellen mit endogener Dynamik werden Einflüsse zeitabhängiger Kovariaten ignoriert. Unveränderliche Merkmale (beobachtete und unbeobachtete Heterogenität) werden dagegen mit % und b, kontrolliert, und zwar getrennt für jede der beiden Zielvariablen. Wieder geht es darum, suffiziente Statistiken für die personenspezifischen Parameter und b-, zu finden. Die Inspektion der unbedingten Wahrscheinlichkeiten Pr(uj uT,s, ST) für beliebige Sequenzen unter den jeweiligen Modellannahmen (s. Anhang 2) ergibt17 £s„ L u t - I S , , ! für Modell 14, Σ Χ £s„ Е и , . ^ ! , Б е д . ! , £8,и,_„ Бед.,!!,-! für Modell 15, fiir £u„ £s„ £ ц Ц - 1 . EutSt-I. Σ η Λ - Α - ι Modell 16.

UI.SLUT.ST, £ U „ ULSJ.UJ.ST, ULSLUT.ST,

Die bedingten Wahrscheinlichkeiten sind ebenfalls im Anhang zu ersehen. Man erkennt dort, daß durch die Konditionierung ebenfalls die Parameter ah ß2 und ß3 (Modell 15) sowie die Parameter ßlt a2 und a3 (Modell 16) eliminiert werden. Schließlich enthält der Anhang jeweils ein Beispiel, aus dem deutlich wird, wie die bedingten Wahrscheinlichkeiten konkret berechnet werden. Um die CLSchätzung durchführen zu können, benötigt man mindestens 4 Panel-Wellen. Bei T = 4 besteht jeder Sequenztyp aus jeweils 2 Einzelsequenzen. Die Parameter können daher mit einem einfachen logistischen Regressionsprogramm geschätzt werden (s. Anwendungsbeispiel in Abschnitt 5.2). Im allgemeinen Fall mit T > 4 muß man wiederum auf ein konditionales logistisches Regressionsprogramm zurückgreifen. Abschließend seien dazu die suffizienten Statistiken für die schätzbaren Parameter genannt: £u,u,_i für α2, Ε°Α-ι für a 3 , J2stut_1 für ß2 und für ß3. Vgl. dazu auch die Zähler der bedingten Wahrscheinlichkeiten im Anhang.

5.

Anwendungsbeispiele

5.1

Erhöht Arbeitslosigkeit das Risiko weiterer Arbeitslosigkeit?

Die Frage nach den Einflüssen früherer Arbeitslosigkeitserfahrungen auf den weiteren Erwerbsverlauf ist von einer Vielzahl von Autoren untersucht worden. Eine inhaltliche Diskussion der unterschiedlichen Ergebnisse liegt jedoch außerhalb

17) Der Index für alle Summen ist t und läuft von 1 bzw. 2 (je nach Lag) bis T. Der Index i wurde aus Vereinafchungsgründen fortgelassen.

56

Hans-Jürgen Andreß

des Rahmens dieser Darstellung (vgl. jedoch Andreß 1989, Büchlemann/Brasche 1985). Das Untersuchungsproblem dient hier lediglich dazu, das praktische Vorgehen im Rahmen der beschriebenen univariaten Modelle zu demonstrieren. Die Daten stammen aus dem Längsschnittdatensat/ des SOEP (Welle 1—6) und beziehen sich auf die deutschen Männer und Frauen, die zum Zeitpunkt der Erstbefragung 1984 zwischen 16 und 55 Jahre alt waren. Es werden die Antworten auf die Frage nach der Arbeitslosigkeitsmeldung verwendet (s. Einleitung).18 Beginnen wir zunächst mit dem einfachen Modell (10), das einen autoregressiven Prozeß erster Ordnung für die Zielvariable unterstellt. Bei 6 Panel-Wellen sind mehr als zwei Sequenzen pro Sequenztyp möglich. Betrachten wir als Beispiel den Typ Sk mit y n = 1, у,т=0 und wobei wir gleich eine Darstellung wählen, die mit einem Programm zur Analyse diskreter Wahlen kompatibel ist (vgl. Anhang 1): S

N

к к к к к к

6 6 6 6 6 6

ALTERNATIVE 1 (für 2 (für 3 (für 4 (für 5 (für 6 (für

111000) 110100) 110010) 101100) 100110) 101010)

N WAHL

N S

Al

7 2 0 2 1 1

13 13 13 13 13 13

2 1 1 1 1 0

Dieser Sequenztyp (s. Variable S) besteht also aus 6 Einzelsequenzen (s. Variable N). Insgesamt treten die verschiedenen Einzelsequenzen Nr. 1—6 (s. Variable ALTERNATIVE) in unserer Datei bei 7, 2, 0, 2 usw. Fällen auf (s. Variable N WAHL), der Sequenztyp к kommt also insgesamt 13 mal vor (s. Variable N S). Im Gegensatz zu dem Beispiel im Anhang werden die Daten also in aggregierter Form verarbeitet. Die beobachtete bedingte »Wahrscheinlichkeit« einer bestimmten Sequenz (Alternative) des Seqenztyps ergibt sich aus N WAHL/ N S. Die Variable Al enthält schließlich den Wert der suffizienten Statistik Ly it y it -i für den Parameter сц. Die bedingten Wahrscheinlichkeiten für die j= l 6 Einzelsequenzen entsprechen danach Ausdrücken der Form Cj/D mit D = EjC r К, 1 Nr. 1:

exp(2a,) exp(2a t ) + 4exp(a,) + 1

Nr. 2:

exptei) exp(2a!) + 4exp(o,) + 1

18) Für die Bereitstellung der Daten sei Jürgen Schupp (Deutsches Institut für Wirtschaftsforschung, Berlin) herzlich gedankt. Die Datenanalysen konnten im Rahmen eines Gastaufenthaltes des Autors beim DIW vorbereitet werden, der aus Mitteln der Projektgruppe SOEP beim DIW finanziert wurde.

Logistische Regressionsmodelle für Paneldaten

Nr. 3:

expie,) ехрфаО + 4exp(a1) + 1

Nr. 4:

expfoi) exp(2ai) + 4exp(a() + 1

Nr. 5: Nr. 6:

57

exp(tti) exp(2a!) + 4exp(a,) + 1 1 exp^a^ + 4exp(a() + 1

Eine Maximierung der CL-Funktion aller bedingten Wahrscheinlichkeiten liefert schließlich den gesuchten Schätzer für a t . Für die hier ausgewerteten SOEP-Daten schwankt die bedingte Wahrscheinlichkeit Pr(l|l), nach einer Arbeitslosigkeit im Befragungsjahr im nächsten Jahr immer noch oder erneut arbeitslos zu sein, zwischen 45,5 und 53,2 Prozent. Umgekehrt bewegt sich die Wahrscheinlichkeit Pr(l|0), im nächsten Jahr arbeitslos zu sein, vorausgesetzt die Person ist zum Befragungszeitpunkt noch nicht arbeitslos, zwischen 1,5 und 3,1 Prozent. Dabei zeigt keine der beiden Zeitreihen einen eindeutigen zeitlicher Trend. Das relative Arbeitslosigkeits-Risiko ist damit fur die bereits Arbeitslosen im Durchschnitt 38,4-mal größer. Dies entspricht einem Wert für a t von 3,6. Kontrolliert man nun wie zuvor beschrieben (Modell 10) die individuell variierenden, zeitkonstanten Arbeitslosigkeitsrisiken, dann ergibt sich ein Wert von 1,4 für α,.19 D.h. das relative Risiko einer Arbeitsosigkeit ist selbst bei Kontrolle der Heterogenität immer noch 4,1-mal höher, wenn die oder der Befragte schon im Vorjahr arbeitslos gemeldet war. Dieser Schätzwert ist signifikant (Standardfehler 0,148), jedoch sehr viel geringer als der Wert 3,6, den man erhält, wenn man die unbeobachtete Heterogenität aj nicht kontrolliert. Nun können, wie in Abschnitt 3.3 diskutiert, bei zeitdiskreten Erhebungsdesigns für tatsächlich zeitkontinuierliche Prozesse Effekte des Erhebungsdesigns scheinbare Einflüsse der Vorgeschichte hervorrufen. Obwohl dieser Effekt bei einem zeitlichen Abstand der Panel-Wellen von einem Jahr und einer durchschnittlichen Arbeitslosigkeitsdauer, die sicher unter einem Jahr liegt, wahrscheinlich für das SOEP zu vernachlässigen ist, soll dennoch das Modell (12) geprüft werden. Wie erwähnt, können bei 6 Wellen lediglich 4 verschiedene Sequenztypen auftreten: S, mit 101000 oder 100100, S2 mit 000101 oder 001001, S3 mit 010111 oder 011011 sowie S4 mit 111010 oder 110110. Es zeigt sich, daB die bedingte Wahrscheinlichkeit für die jeweils erste Einzelsequenz pro Typ expa2 / (1 + expe2) entspricht. Die bedingte Wahrscheinlichkeit der zweiten Einzelsequenz ist dann 1 / (1 + βχραχ). Der Quotient der Häufigkeiten

19) Nur 4,7 Prozent der Beobachtungen wurden bei der CL-Schätzung berücksichtigt.

58

Hans-Jürgen Aodreß пц _ Personen mit Sequenz 101000, 000101, 010111 oder 111010 m 2 ~~ Personen mit Sequenz 100100, 001001, 011011 oder 110110 '

genauer gesagt sein natürlicher Logarithmus lntmj/m^, ist dann ein Schätzer für a 2 mit Standardfehler (m[ +m2)/(m, · m2). Für die SOEP-Daten ergibt sich ein geschätzter Wert von 0,460 für a 2 mit einem Standardfehler von 0,136 (basierend allerdings auf einem sehr kleinen Subsample). Die beobachteten Arbeitslosigkeitssequenzen zeigen also signifikante Abweichungen von einem Markov-Prozeß erster Ordnung, d.h. die Vergangenheit des Prozesses gibt Auskunft über die Wahrscheinlichkeit zukünftiger Arbeitslosigkeiten, — auch dann, wenn man das zeitdiskrete Erhebungsdesign berücksichtigt. Die Auswertung der SOEP-Daten deutet also darauf hin, daß die Erfahrung von Arbeitslosigkeit strukturelle Verhaltensänderungen der Betroffenen auslöst. Nicht auszuschließen sind allerdings Effekte zeitveränderlicher Heterogenität, die mit den beschriebenen Methoden nicht kontrolliert werden konnten. Von daher sind die Einflüsse der Vorgeschichte mit Vorsicht zu interpretieren.

5.2

Macht Arbeitslosigkeit ктаак?

Schließlich soll das Vorgehen für bivariate Modelle an Hand einer Analyse des wechselseitigen Einflusses von Arbeitslosigkeit und Krankheit demonstriert werden, die mit Hilfe von Daten der AOK »Küstenstadt« durchgeführt wurde (Andreß 1991). Die Daten erfassen alle Zeiten von Arbeitslosigkeit und Arbeitsunfähigkeit der deutschen Mitglieder im Alter von 14 bis 60 Jahren (Stichtag: 31.12.73), die in den Jahren 1974 — 78 in »Küstenstadt« pflichtversichert waren und in diesem Zeitraum weder in Rente noch in Rehabilitation waren (insgesamt 25201 Männer und 9343 Frauen). Für jedes Jahr des Untersuchungszeitraums wurde registriert, ob die Person a) mindestens einmal arbeitslos und/oder b) mindestens einmal 6 Wochen oder länger arbeitsunfähig gemeldet war. Für die folgende Analyse wurden lediglich die vier Jahre 1975 — 78 verwendet, weil sich die wirtschaftlichen Rahmenbedingungen des Jahres 1974 (»Ölkrise«) wesenüich von den Folgejahren unterscheiden. Bei vier Panel-Wellen besteht jeder Sequenztyp der Modelle (14 — 16) aus jeweils zwei Einzelsequenzen. Betrachten wir z.B. Modell (14) und dort den Sequenztyp S = k mit u, = 0 , Si=0, u T = 0 , Sr=0, £ u , = l , £ s , = 2 und £u,_i St_! = l (Männer): s

Ν

ALTERNATIVE

N_WAHL

N_S

A2

A3

B2

B3

к к

2 2

1 (für 0„0,1,00) 2 (für 0„ 1,0,0ο)

1 3

4 4

0 0

1 0

0 1

1 1

Alle Variablen sind genauso definiert wie im vorhergehenden Beispiel, wobei A2—B3 die suffizienten Statistiken für die Parameter a 2 — ß } des Modells (14)

Logistiscbe Regressionsmodelle für Paneldaten

59

darstellen. Da lediglich zwei Alternativen pro Sequenztyp vorkommen, kann man dieses diskrete Wahl-Modell auch in ein (binäres) logistisches Regressionsmodell überführen: N WAHL

N S

1

LA2

4

LA3

LB2

0

1

LB3

-

1

0

Die vormals zwei Datensätze pro Sequenztyp werden zu einem zusammengefügt. Das logistische Regressionsmodell prüft die Frage, wieviele von den insgesamt 4 Einzelsequenzen (N S) auf die erste Alternative entfallen (N WAHL). LA2 — LB3 sind die entsprechenden Variablen, deren Effekte a 2 —entsprechen. Sie ergeben sich aus A2—B3 durch Subtraktion der entsprechenden Werte der 2. Alternative von denen der 1. Alternative (LB2=B2! — B2 2 =0 - 1 = —1). Tabelle 1: Bivariates dynamisches Regressionsmodell (Asymptotische t-Werte in Klammern) Effekt

Zielvariable

Männer U..S.

s.

u, 0,51 (8,8)

-

-

Ol

-

0,50 (4.4)

-

/3,

4-1

3,84 (119,8)

3,85 (119,5)

2,02 (19,6)

2,02 (18,0)

0,22 (4.6)

-0,11 (1.7)

-0,02 (0.1)

-0,39 (2,1)

Vi

0,72 (13,1)

0,62 (11,0)

0,38 (2,9)

0,60 (3,4)

1,88 (46,8)

1,85 (46,0)

0,84 (9,4)

0,85 (8.9)

Α_,(1 - и , - ! ) , m, =

EU,_A-I(1-SI)»

= Εβ,α-ϋ,-,χΐ-β,.!), me =

Εϋ,-ΚΙ-ΟίΙ-β,.!),

Haas-Jürgea AodreB

66 m7

=

mg = m n =

£st_1(l-st)(l-ut_1),

m8 = Τ -

1 -

Lu,-iSi-i» m,o = £ u , _ i ( l - s , . , ) , L s , - i ( l - u , - i ) . m 12 = Τ - 1 - £ ? i ,

£jm j ( mj.

Modell 15, bedingte Wahrscheinlichkeit (A.6)

Pr(U,

UT,S!

Sr|

UlUt.SlSt, £u,, £ s „ Lui-A-i.Lsfit-i,

£s,u,-i. £sA-iU 0

ebenfalls recht flexible Modellierungseigenschaften und wird häufig zur Modellierung demographischer Ereignisse herangezogen. Eine Erweiterung stellt die gelegentlich auch verwendete Gompertz-Makeham- Verteilung mit der Rate (17)

h(t) = α + X exp(ct) ,

β, λ > О

dar. Mit der Log-logistischen Verteilung, deren Rate und Überlebensfunktion » ^ (18) h(t) = 1 + (Xt)p

(19)

S(t)

=

r

r

^

·

λ

'

ρ > 0

lauten, lassen sich mit p > l Raten modellieren, deren Verlauf erst ansteigt und dann nach dem Erreichen eines Maximums wieder monoton fallt. Für die Analyse des Lebensereignisses »Ehescheidung« haben Diekmann/Mitter (1984b) gezeigt, daß die von ihnen vorgeschlagene Sichel-Verteilung deutlich bessere Anpassungen liefert als beispielsweise die Exponential-, die Weibull- und die Loglogistische Verteilung. Hazardrate und Überlebensfunktion der Sichel-Verteilung lauten: (20)

h(t) = et exp(-J) ,

(21)

S(t) = exp[—Xc (X - (t+X)exp(-:£))] , Λ

6)

Mit p = 1 entspricht sie genau der Exponentialverteilung.

с, X > 0 .

81

82

Holger Meinken

Die Modellierung der Hazardrate mittels dieser komplexeren Funktionsverläufe erfolgt über die Parametrisierung der einzelnen Funktionsverlaufsparameter, d.h. die Funktionsparameter werden als abhängig von gegebenen externen Variablen betrachtet und die Anzahl der Regressionsgleichungen entspricht der Anzahl der zu modellierenden Parameter. Damit wird die Heterogenität in den Ratenverläufen über die modellierten Funktionsverlaufsparameter erklärt (vgl. Diekmann/ Mitter 1984a: 164ff.). Zu beachten ist, daß die Prozent-Interpretation der C-Effekte der erklärenden Variablen nur für Modelle mit proportionalen Risiken (siehe nächster Abschnitt) angewendet werden kann.

2.2.2

Semi-parametrische Verfahren

Die semi-parametrische Modellierung beruht auf der vereinfachenden Annahme, daß individuelle Übergangsraten sich im Zeitverlauf proportional zueinander verhalten (proportional hazards). Eine solche Modellierung ist insbesondere dann geeignet, wenn keine spezifischen Hypothesen über den zeitlichen Verlauf der Risikofunktion vorliegen, wenn eine Spezifikation des Verlaufs mit anderen (parametrischen) Modellen nicht möglich ist oder wenn man ausschließlich an dem Vergleich der Effekte der unabhängigen Variablen nicht aber an der Art des zeitlichen Verlaufs der Rate interessiert ist. Gleichwohl bedeutet dieser Ansatz eine wesentliche Einschränkung der Erkenntnisse, da die Einflüsse individueller Merkmale auf zeitliche Veränderungen der Rate nicht feststellbar sind. Zudem muß die Stichprobe tatsächlich der Annahme proportionaler Risiken hinsichtlich der analysierten Subpopulationen gerecht werden. Der Modellansatz proportionaler Risiken lautet: (22)

h(t|x) = ho(t) · е , л · е"2*2 .. e

wobei ho(t) die sogenannte Baseline-Hazardrate darstellt, die in dem Modell nicht näher spezifiziert werden muß, und die für alle Personen einer Stichprobe als gleich angenommen wird. Die Effekte der exogenen Variablen wirken dann multiplikativ auf die unbekannte Basisrate. Zur Klasse der Modelle proportionaler Risiken zählt als Spezialfall das Exponentialmodell, unter bestimmten Bedingungen (wenn der Faktor im Exponenten nicht parametrisiert wird) aber auch das Weibull-, Gompertz- und Sichel-Modell. Sei X; = (х и , x2j, .·., x„i) der Zeilenvektor der unabhängigen Variablen für die i-te Person, dann läßt sich für zwei Personen mit den Kovariablen-Vektoren Xj und Xj aus dem Quotienten der jeweiligen Hazardraten der Proportionalitätsfaktor bestimmen, um den sich die personenspezifischen Übergangsraten unterscheiden: h(t|1Xi1)

ho(t) »v ' · e

h ö l ^ j ~ ho(t) · e

Modellierung zeitstetiger sozialer Prozesse

83

Die Schätzung der ^-Parameter aus Gleichung (22) wird im semi-parametrischen Ansatz mittels einer modifizierten Likelihood-Funktion, der von Сох (1972, 1975) vorgestellten Partial-Likelihood-Funktion, vorgenommen, weshalb das genannte Modell auch gelegentlich als Partial-Likelihood- oder CoxModell bezeichnet wird. In der letzten Spalte von Tabelle 1 sind die Ergebnisse eines Cox-Modells für unseren Beispieldatensatz dokumentiert. Die Interpretation der geschätzten Parameter kann analog zum Exponentialmodell vollzogen werden. Der einzige Unterschied besteht darin, daß die α-Koeffizienten hier multiplikativ auf eine nicht bekannte Basisrate wirken, während beim Exponentialmodell die a-Koeffizienten multiplikativ auf eine geschätzte Konstante wirken. Auch im semi-parametrischen Modell können die Effekte der unabhängigen Merkmale durch die prozentuale Veränderung interpretiert werden, die sie auf die Übergangsrate haben, wenn sich die Merkmalsausprägung um eine Einheit ändert. Unsere Beispielauswertung ergibt signifikante Effekte für die unabhängigen Variablen Geschlecht, Konfession und Erwerbstätigkeit. Für Frauen erhöht sich die Baseline-Hazardrate um 73,0 %, wogegen Konfessionszugehörigkeit zu einer Verringerung um 44,2 % führt. Eine bestehende Erwerbstätigkeit erhöht das Risiko einer Haushaltsgründung um 72,9 %. Das Gesamtmodell verfügt über einen signifikanten Erklärungsbeitrag, wenngleich — wie schon im Exponentialmodell — der relative Erklärungsanteil gegenüber dem Basismodell (hier: Cox-Modell ohne erklärende Variablen) mit einem Pseudo-R2 von 0,013 recht gering ausfallt. Die Zensierungsquote ist wiederum sehr klein, so daß von guten Schätzungen für das Modell ausgegangen werden kann. Vergleicht man die Ergebnisse des semi-parametrischen Modells mit denen des Exponentialmodells, so lassen sich trotz der gleichgebliebenen Wirkungsrichtungen gewisse Abweichungen ausmachen. Sie liegen hauptsächlich im nicht mehr signifikanten Effekt der Hochschulzulassungsberechtigung und dem deutlich höheren Effekt des Merkmals Erwerbstätigkeit. Der Geschlechtseffekt fallt hier ebenfalls erheblich höher aus. Da das Cox-Modell das allgemeinere Modell und das Exponentialmodell einen Spezialfall aus der Klasse der Modelle mit proportionalen Risiken darstellt, können die Ergebnisabweichungen auch folgendermaßen interpretiert werden: Zwar haben unsere Tests auf konstanten Ratenverlauf ergeben, daß das Exponentialmodell für das Ereignis Haushaltsgründung geeignet ist, gleichwohl ist damit zu rechnen, daß es in den Raten Verläufen doch geringe Abweichungen von einem zeitkonstanten Verlauf gibt. Diese Abweichungen werden im Cox-Modell besser berücksichtigt, sofern die Annahme proportionaler Risiken zutrifft. Demnach wäre das Cox-Modell das besser spezifizierte, und die inhaltliche Interpretation der Effektstärken wäre an seinen Ergebnissen auszurichten. Kurz gefaßt, die Merkmale Geschlecht und Erwerbstätigkeit sind vor dem Merkmal Konfessionszugehörigkeit die wesentlichen Bestimmungsgründe für die Übergangsrate des Ereignisses »eigene Haushaltsgründung«.

84

Holger

Meinken

Die Proportionalitätsannahme des semi-parametrisehen Modells kann sowohl visuell als auch inferenzstatistisch geprüft werden. Der visuelle Test ist mit BMDP z.B. durch Einführung einer Schichtungsvariable und der Betrachtung der geschichteten log-minus-log-transformierten Überlebensfunktionen durchzuführen (vgl. Dixon 1988: 724). Der inferenzstatistische Test auf Proportionalität läßt sich über die Aufnahme einer speziellen zeitabhängigen Variable in das Regressionsmodell realisieren (vgl. Dixon 1988: 726f.; Kalbfleisch/Prentice 1980: 134f.).

3.

Spezielle Probleme und Erweiterungen

Bei der Vorstellung der Modellierungsverfahren wurden bisher eine Reihe vereinfachender Annahmen gemacht. So gingen wir davon aus, daB sich die unabhängigen Variablen im Zeitverlauf nicht ändern, was bei dem Merkmal Geschlecht noch einsichtig ist, aber bei den Variablen Konfession oder Berufsstatus des Vaters schon fragwürdig erscheinen kann. Generell dürfte die Annahme der Zeitkonstanz exogener Variablen eher unrealistisch sein. Eine Vernachlässigung dieser Tatsache kann zu verzerrten Parameterschätzungen führen. Es wäre also angemessen, die Zeitveränderungen in den Ausprägungen der erklärenden Variablen modellseitig zu erfassen. Als weiterer Grund für eine Berücksichtigung zeitveränderlicher Kovariablen ist zu erwähnen, daB damit eine unter Umständen vorliegende Zeitabhängigkeit der Hazardrate erklärt werden kann. Denn die Ursache für eine zeitveränderliche Rate auf der Ebene der Gesamtstichprobe ist unter anderem in zeitabhängigen individuellen Merkmalen zu sehen. Eine Zeitabhängigkeit der Rate wird meistens nicht von der Zeit selbst, sondern von sich in der Zeit ändernden Kovariablen verursacht sein. Bei korrekter, vollständiger Modellspezifikation (also incl. aller relevanten zeitkonstanten und zeitabhängigen Kovariablen) wäre die Rate implizit zeitabhängig und man brauchte sie nicht mit expliziten Zeitverlaufsannahmen modellieren. Jedoch wird in aller Regel nicht jedes erforderliche zeitkonstante oder zeitveränderliche Merkmal verfügbar sein, oder sofern es verfügbar ist, wird selten dessen Zeitverlaufsform bekannt sein. Daher werden im Falle eines parametrisch spezifizierten Modells alle nicht bekannten Einflüsse gewissermaßen in dem gewählten Zeitverlaufstyp subsumiert. Zeitabhängige Kovariablen werden bei Kalbfleisch/Prentice danach unterschieden, ob es sich bei ihnen um externe oder interne Kovariablen handelt (1980: 123). Unter externen Kovariablen werden solche Variablen verstanden, die einen Einfluß auf das untersuchte Ereignis bzw. der Wartezeit ausüben, aber selbst nicht von ihm beeinflußt sind. Als interne Kovariablen werden demnach die Merkmale bezeichnet, für die ein wechselseitiger Einfluß zum untersuchten Ereignis besteht; also z.B. Merkmale, die Informationen über andere Ereignisse beinhalten, und dann gewissermaßen zwei Ereignisse wechselseitig voneinander abhängen (Beispiel: Heirat und Kindgeburt). Die Einbeziehung interner Kovariablen ist folglich

Modellierung zeitstetiger sozialer Prozesse

85

mit der Untersuchung interdependenter sozialer Prozesse identisch, für die in der Ereignisanalyse bislang keine vollständig befriedigenden Lösungsmöglichkeiten bestehen (vgl. Huinink in diesem Band; Meinken 1989). Die Aufnahme externer zeitabhängiger Kovariablen in ein Ratenmodell kann auf unterschiedliche Art vorgenommen werden. Bei semi-parametrischen Modellen bietet z.B. BMDP die Möglichkeit zeitabhängige Merkmale einzubeziehen, vorausgesetzt der Funktionsverlauf des externen Merkmals ist bekannt. In der Modellschätzung wird dann der zu jedem einzelnen Ereigniszeitpunkt existierende Kovariablenvektor verwendet. Weisen exogene Variablen diskrete Ausprägungen auf, kann bei parametrischer Modellierung ein Episodensplitting durchgeführt werden. Dabei wird die einzelne Episode nach den Zeitpunkten der Merkmalsänderungen der externen Kovariable geteilt und die Modellierung anhand der Teilepisoden vorgenommen, wobei, bis auf die letzte, alle Episoden als zensiert betrachtet werden. Dieses Verfahren bietet sich insbesondere bei nichtmetrischen zeitveränderlichen Kovariablen an, läßt aber ebenso eine Berücksichtigung metrischer zeitveränderlicher Kovariablen zu. Auch in unseren Modellrechnungen ist — ohne es bisher zu erwähnen — eine zeitabhängige Kovariable per Episodensplitting einbezogen worden, und zwar die Variable »Erwerbstätigkeit« (siehe Tabelle 1). Für Personen, die vor der eigenen Haushaltsgründung erwerbstätig wurden, sind im Modell zwei Episoden berücksichtigt, zum einen die Episode ohne Erwerbstätigkeit und zum anderen die Erwerbstätigkeits-Episode (näheres zum Vorgehen beim Episodensplitting siehe Biossfeld et al. 1986: 193f.). Die Zeitabhängigkeit der Hazardrate kann aufler von zeitabhängigen Kovariablen ebenso von unbeobachteter Heterogenität in der Stichprobe und von Fehlspezifikationen des Zustandsraumes der abhängigen Variablen hervorgerufen werden. Während Fehlspezifikationen des Zustandsraumes als Ursache für zeitabhängige Raten eher vernachlässigt werden können, fallt dem Phänomen der unbeobachteten Heterogenität ein um so größeres Gewicht zu (Tuma/Hannan 1984: 189). Unter unbeobachteter Heterogenität der Stichprobe ist zu verstehen, daß ein Merkmal im Modell unberücksichtigt bleibt, obwohl bei Differenzierung der Stichprobe nach diesem Merkmal unterschiedliche Übergangsraten für die fraglichen Teilstichproben feststellbar sind. Beispielhaft formuliert: Frauen und Männer weisen in unseren Berechnungen deutlich unterschiedliche Übergangsraten auf (vgl. Abbildung 3). Frauen haben ein höheres Risiko der Haushaltsgründung als Männer. Nehmen wir einmal an, wir spezifizierten ein Modell ohne die Variable Geschlecht, und nehmen wir weiter an, die Gruppe der Frauen und die der Männer wiesen bei getrennter Betrachtung eine zeitkonstante Übergangsrate auf, dann würden die zeitkonstanten aber unterschiedlich hohen Raten der Subpopulationen zu einer zeitabhängigen (nämlich abfallenden) Risikofunktion bei der Betrachtung der Gesamtpopulation führen. Die Ursache dafür liegt in dem schnelleren Abgang der Frauen aus der Risikomenge und damit der zeitlichen Veränderung des Stichprobenverhältnisses

86

Holger Meinken

zugunsten der Männer. Verallgemeinert bedeutet das: Unbeobachtete Heterogenität kann dazu führen, daB die Hazardrate zeitabhängig erscheint, obwohl sie es bei Berücksichtigimg sämtlicher relevanter Merkmale nicht wäre. Auch hier kann eine parametrische Modellierung der Zeitabhängigkeit als Ersatz für nicht berücksichtigte oder nicht verfügbare erklärende Variablen verstanden werden. Gleichwohl ist zu beachten, daß bei Vorliegen von unbeobachteter Heterogenität nicht zwischen echter Verweildauerabhängigkeit der Rate und den Effekten nicht beobachteter Kovariableneinfliisse unterschieden werden kann. Neben den genannten Aspekten zur Zeitabhängigkeit von Übergangsrate und Kovariablen sind noch die Problembereiche von konkurrierenden Risiken und sich wiederholenden Ereignissen zu nennen. Was unter konkurrierenden Risiken zu verstehen ist, war bereits in Abbildung 1 ersichtlich: Die Personen können vom Zustand »Wohnen bei den Eltern« sowohl in die Zustände »eigener Haushalt«, »Heimunterkunft« als auch »Wohnen in Wohngemeinschaft« wechseln. Die hier getroffene Wahl des Zustandsraumes und des Ausgangszustandes ergibt somit drei konkurrierende Zielzustände bzw. Risiken. Die Modellierung konkurrierender Risiken erfolgt durch getrennte Betrachtung der einzelnen Übergänge, d.h. es wird für jeden Übergang eine getrenntes Ratenmodell berechnet, wobei die Beobachtungen mit jeweils anderen Übergängen als zensiert angenommen werden. Damit wird das Mehr-Zustands-Modell in mehrere Zwei-Zustands-Modelle zerlegt, und es lassen sich prinzipiell Übergangsraten für Zustandwechsel von jedem Ausgangszustand in jeden Zielzustand schätzen (vgl. Tuma/Hannan/Groeneveld 1979). Im Fall wiederholbarer Ereignisse kann das Vorgehen darin bestehen, daB die jeweiligen Episoden einer befragten Person als einzelner Fall, allerdings mit den gleichen personenspezifischen exogenen Variablen, betrachtet werden. Wenn von einer Person Episoden mit gleichem Zustandswechsel während des Lebensverlaufes mehrfach auftreten, ist jedoch zu bedenken, daß die Wartezeiten der einzelnen Episoden nicht notwendigerweise unabhängig voneinander sind. Das heißt, Übergangsraten für spätere Episoden können von dem Auftreten und den Verweildauern in früheren Episoden abhängen (Lernprozesse).

4.

Schlußbetrachtung

Längsschnitterhebungen und -analysen erfreuen sich in der neueren Sozialforschung wachsender Beliebtheit. Die Gründe dafür liegen auf der Hand: Zum einen wird erst mit Hilfe von Zeitverlaufsstudien sozialer Wandel analysierbar. Neben den Zeitreihen, die im wesentlichen für Erklärungen auf der Makro-Ebene einsetzbar sind, wurden ausgehend von der Panelanalyse inzwischen eine Reihe elaborierter statistischer Analyseverfahren und Simulationen entwickelt, die soziale Veränderungen auf der Mikro-Ebene nachvollziehbar machen. Zum anderen ermöglichen Zeitverlaufsanalysen die Erforschung komplexer zeitbezogener Zu-

Modellierung zeitstetiger sozialer Prozesse

87

sammenhangsstrukturen, während den Querschnittsstudien in der Regel aufgrund der verfügbaren Datenbasis Beschränkungen auferlegt sind. Die in diesem Beitrag vorgestellten Verfahren zur Analyse von Lebensverlaufsereignissen erfahren ihre Bedeutung für die Sozialwissenschaften nicht nur wegen eines gestiegenen Interesses an der Biographie- und Lebensverlaufsforschung sondern vielmehr wegen der in sozialwissenschaftlichen Untersuchungen bedeutsamen nominalen und ordinalen Merkmale, deren Zustandswechsel sich in stetiger Zeit vollziehen. Trotz aller Vorzüge der ereignisanalytischen Verfahren bliebe einschränkend festzuhalten, daß weiterhin ungelöste Probleme bestehen, z.B. bei der Analyse interdependenter Prozesse, bei Fehlspezifikationen wegen unbeobachteter Heterogenität, oder allein wegen der Tatsache, daß mittels Ereignisanalysen nur einzelne Episoden nicht aber die Verlaufsmuster kompletter Ereignisgeschichten analysierbar sind.

Literatur Allison, P.D. 1984: Event History Analysis: Regression for Longitudinal Event Data, Beverly Hills/London: Sage. Andreß, H.-J. 198S: Multivariate Analyse von Verlaufsdaten. Statistische Grundlagen und Anwendungsbeispiele für die dynamische Analyse nichtmetrischer Merkmale. ZUMAMethodentexte Bd.l, Mannheim: ZUMA. Blossfeld, H.P., Hamerle, Α., Mayer, K.U. 1986: Ereignisanalyse: Statistische Theorie und Anwendung in den Wirtschafts- und Sozialwissenschaften, Frankfurt/New York: Campus. Coleman, J.S. 1964a: Introduction to Mathematical Sociology, New York: Free Press. Coleman, J.S. 1964b: Models of Change and Response Uncertainty, Englewood Cliffs (N.J.): Prentice-Hall. Cox, D.R. 1972: Regression models and life tables (with discussion). Journal of the Royal Statistical Society B, 34, S. 187-202. Cox, D.R. 1975: Partial likelihood. Biometrika 62, S. 269-276. Cox, D.R., Oakes, D. 1984: Analysis of Survival Data, London: Chapman & Hall. Diekmann, Α., Mitter, P. 1984a: Methoden zur Analyse von Zeitverläufen. Anwendungen stochastischer Prozesse bei der Untersuchung von Ereignisdaten, Stuttgart: Teubner. Diekmann, Α., Mitter, P. (Hrsg.) 1984b: Stochastic Modelling of Social Processes, Orlando: Academic Press. Diekmann, Α., Mitter, P. 1990: Stand und Probleme der Ereignisanalyse. S. 404-441 in: K.U. Mayer (Hrsg.), Lebensverläufe und sozialer Wandel, Opladen. Dixon, W.J. (ed.) 1988: BMDP Statisical Software Manual, 2 Volumes, Berkeley: Univ. of California Press. Elandt-Johnson, R.C., Johnson, N.L. 1980: Survival Models and Data Analysis, New York: Wiley.

88

Holger

Meinten

Kalbfleisch, J.D., Prentice, R.L. 1980: The Statistical Analysis of Failure Time Data, New York: Wiley. Kaplan, E.L., Meier, P. 1958: Nonparametric estimation from incomplete observations. Journal of the American Statistical Association, 53, S. 457-481. Kemeny, J.G., Snell, J.L. 1962: Mathematical Models in the Social Sciences, Cambridge (Mass.). Lawless, J.F. 1982: Statistical Models and Methods of Lifetime Data, New York: Wiley. Mayer, K.U. (Hrsg.) 1990: Lebensverläufe und sozialer Wandel. Kölner Zeitschrift für Soziologie und Sozialpsychologie, Sonderheft 31, Opladen: Westdeutscher Verlag. Mayer, K.U., Wagner, M. 1986: Der Auszug von Kindern aus dem elterlichen Haushalt. S. 1-42 in: K.F. Zimmermann (Hrsg.), Demographische Probleme der Haushaltsökonomie, Bochum. Mayer, K.U., Wagner. M. 1989: Wann verlassen Kinder das Elternhaus? in: A. Herith, K.P. Strohmeier (Hrsg.), Lebenslaufund Familienentwicklung, Opladen. S. 17-37. Meinken, H. 1989: Die Untersuchung interdependenter sozialer Prozesse mittels Ereignisanalysen. Die Methode und ihre Anwendung am Beispiel von Berufs- und Familienkarrieren junger Frauen. Institut für Bevölkerungsforschung und Sozialpolitik (IBS), Materialien Nr. 28, Bielefeld. Treiman, D.J. 1977: Occupational Prestige in Comparative Perspective, New York. Tuma, N.B. 1980: Invoking RATE, rev. ed., Mannheim: ZUMA. Tuma, N.B., Hannan, M.T. 1984: Social Dynamics. Models and Methods, New York: Academic Press. Tuma, N.B., Hannan, M.T., Groeneveld, L.P. 1979: Dynamic analysis of event histories. American Journal of Sociology 84, S. 820-854. Voges, W. (Hrsg.) 1987: Methoden der Biographie- und Lebenslaufforschung, Opladen: Leske & Budrich.

Walter Bien, Peter Schmidt und Roland Schürhoff

Strukturgleichungsmodelle für Panel-Daten und die Schätzung von Differentialgleichungsmodellen*

1.

Einführung und Problemstellung zu DGL-Modellen

Differentialgleichungs(DGL-)modelle gelten in vielen Wissenschaftsdisziplinen, so auch in der empirischen Sozialwissenschaft als Königsweg der Theoriekonstruktion und eleganteste Methode um Prozesse (genauer: deren zeitliche Entwicklung) jeglicher Art darzustellen und zu prognostizieren. Unter den empirischen Sozialwissenschaftlern in der Bundesrepublik war T. Harder einer der Wenigen, der die Formulierung dynamischer Modelle in den Sozialwissenschaften vorschlugen. Bereits in seinem Buch »Dynamische Modelle in der empirischen Sozialforschung« (Harder, 1973) behandelte er die Formalisierung und Testung dynamischer Modelle — Schwerpunkt waren dabei aber Differenzen- und nicht Differentialgleichungen(DGLn) — und empfahl diese Vorgehensweise ausdrücklich den Sozialforschern und Theoretikern in der Bundesrepublik Deutschland, die sich damals nahezu ausschließlich mit statischen Hypothesen und Querschnittsanalysen beschäftigten. Verglichen mit der breiten Anwendung von Strukturgleichungsmodellen innerhalb der Sozialwissenschaften in den letzten 20 Jahren ist bis heute der Einsatz von DGLn eher eine Ausnahme geblieben. Eine mögliche Erklärung sieht Möbus (1986: 115) darin, daB DGL-Modelle bei empirischen Untersuchungen wegen der Schwierigkeit bei der Modellidentifizierung und Parameterschätzung noch keine weitere Verbreitung erfahren haben. Im vorliegenden Beitrag wollen wir uns nun genauer damit beschäftigen, wie weit eine neuentwickelte Methode (Arminger, 1986) zur Schätzung von DGLKoeffizienten bei Panel-Modellen, die wir erstmals auch in einem EDVProgramm implementiert haben, für sozialwissenschaftliche Zwecke anwendbar ist und welchen Informationsgewinn diese gegenüber der Anwendung von Strukturgleichungsmodellen für Panel-Daten bietet. Den ersten und bekanntesten Versuch zur Formalisierung verbaler qualitativer soziologischer Aussagen mit Hilfe von DGLn machte Herbert A. Simon mit einem Modell, das Teile der Hypothesen von Homans aufgreift (vgl. Simon, 1952).

Diese Arbeit entstand im Rahmen des DFG-Projekts »Dynamische Modelle« (Schm658—3/1/2).

90

Walter Bien/Peter Schmidt/Roland Scbürboff

Das von Simon entwickelte DGL-Modell wurde von Coleman (1968) präzisiert und wiederum von Ziegler (1972) umfassend rekonstruiert und kritisch diskutiert. Weitere Anwendungen in der Soziologie finden sich bei Arminger (1976, 1986), Diekmann (1980), Diekmann/Opp (1979), Doreian/Hummon (1977), Fararo (1972), Tuma/Hannan (1984). In der Psychologie sind besonders die Arbeit von Abelson (1965) über ein DGL-Modell für Einstellungsänderungen, diejenige von Kühl und Blankenship (1979) über Leistungsmotivationsänderungen, die Monographie von Atkinson und Birch (1974) über dynamische Handlungsmodelle und die Arbeit von Möbus (1986) von Interesse. Eine Generalisierung dieser Ansätze, unter Hinzunahme auch nichtlinearer Beziehungen, findet sich bei Troitzsch (1990 a, b). Zunächst stand bei diesen Formalisierungsversuchen nur die Frage im Vordergrund, welchen Erkenntnisfortschritt eine solche Modellierung liefert, während der empirische Test des DGL-Modells nicht behandelt wurde. Ziegler (1972: 280) nennt vier Punkte zugunsten der Formalisierung verbaler sozialwissenschaftlicher Aussagen mittels DGL-Modellen: 1. An die Stelle einer Menge von Aussagen, die unvermittelt nebeneinander stehen oder deren logische Beziehung mehr erahnt als exakt bewiesen werden, tritt ein System von Gleichungen. Aussagen über Eigenschaften dieses Systems können nur mit Hilfe der entsprechenden mathematischen Theorie aus den Postulaten gewonnen werden. 2. Insbesondere ist es möglich nachzuprüfen, ob bestimmte Aussagen aus sehr schwachen Voraussetzungen ableitbar sind oder nicht. 3. Es handelt sich um ein dynamisches Modell, das im Prinzip erlaubt, Variablen des Systems, d.h. die Größenordnung der Variablen im Zeitablauf zu beschreiben. Begriffe wie Gleichgewicht oder Stabilität erhalten dabei einen präzisen, angebbaren Sinn, wobei sie allerdings viel von der Bedeutung einbüßen, die ihnen oft in der soziologischen Diskussion beigelegt wird. (Vgl. auch Tuma/Hannan, 1984: 12) 4. Das gleiche System enthält eine Reihe von Parametern, die nur z.T. inhaltlich interpretierbar sind. Welche Folgen ergeben sich bei einer Variation dieser Parameterwerte oder genauer gesagt, wie ändern sich dann Existenz, Lage und Stabilität von Gleichgewichtspunkten? Die unter 1. und 2. genannten Punkte gelten auch für die Formalisierung mit Hilfe von Strukturgleichungsmodellen. Die unter 3. und 4. genannten Vorteile gelten jedoch nur für die Modellierung mit Hilfe von DGLn. Die Analysemöglichkeiten von Längsschnitt- bzw. Panel-Daten wurden durch die Generalisierung des linearen Modells und die Einführung latenter Variablen (vgl. Jöreskog, 1973) entscheidend verbessert. Inzwischen gibt es eine sehr große Zahl von Anwendungen in Psychologie, Ökonomie und Soziologie (vgl. Bielby/Hauser 1977, Bentier 1980, Bagozzi 1980, Jöreskog/Sörbom 1988, Bentier 1988).

Schätzung von Strukturgleichungs- und DUTerentialgleichungsmodellen für Panel-Daten

91

Jetzt stellt sich die Frage, ob die in 3. und 4. genannten Vorteile von DGLmodellen unter Einbeziehung latenter Variablen gegenüber Strukturgleichungsmodellen für Panel-Daten theoretisch und empirisch gelten (vgl. Arminger, 1986; Coleman, 1968; Tuma/Hannan, 1984). Gegenstand der vorliegenden Arbeit bildet zunächst die Verknüpfung von Strukturgleichungsmodellen (mit Panel-Daten) und DGL-Modellen. Es folgt eine detaillierte Darstellung der sogenannten »indirekten Methode« zur Schätzung von DGL-Modellen bei Panel-Daten und deren Umsetzung in ein Gauss—Programm. Abschließend zeigen wir die Anwendung an einem Beispiel, bei dem auch die Bedeutung der angemessenen Modellspezifikation des Strukturgleichungsmodells anhand der Stabilität der Variablen »Entfremdung« durch Spezifikation zweier unterschiedlicher Modelle fur die Schätzung des dynamischen Modells und die Interpretation der Parameter herausgearbeitet wird. Schließlich soll diskutiert werden, inwieweit die Formulierung und Testung von DGL-Modellen mit der vorgestellten Methode einen wirklichen Erkenntnisfortschritt in der sozialwissenschaftlichen Forschungspraxis gegenüber der Formulierung von reinen Strukturgleichungsmodellen mit Panel-Daten bedeutet.

2.

Verknüpfung von Strukturgleicbungsmodellen mit len und deren Schätzung

DGL-Model-

Gehen wir zunächst auf den Vergleich der Interpretationen von Koeffizienten in Strukturgleichungs- und DGL-Modellen ein. Das allgemeine Strukturgleichungsmodell ohne Mittelwerte hat folgende Form: (1)

η = Β · η

+ Γ · ξ

+ £

wobei: η = Vektor der endogenen Konstrukte В = Matrix der Regressionskoeffizienten der endogenen Konstrukte aufeinander Г — Matrix der Regressionskoeffizienten der exogenen Konstrukte auf die endogenen Konstrukte £ = Vektor der exogenen Konstrukte { ~ Vektor der Residuen der endogenen Konstrukte

Das Meßmodell ohne Mittelwerte hat folgende Form: (2) κ }

у = Лу · η + e

τ

χ = Λ,

'

· ξ + δ

wobei: у — Vektor der Indikatoren der latenten endogenen Konstrukte χ - Vektor der Indikatoren der latenten exogenen Konstrukte Л, = Matrix der Faktorenladungen der y-Indikatoren auf den endogenen Konstrukten Л, = Matrix der Faktorenladungen der x-Indikatoren auf den exogenen Konstrukten t = Vektor der Meßfehler der y-Indikatoren & = Vektor der Meßfehler der x-Indikatoren

92

Walter Bien/Peter Schmidt/Roland ScbOrboff

Ausgehend von einer linearen DGL bei der die exogenen Variablen über die Zeit konstant sind, werden nun die Koeffizienten solcher Modelle interpretiert (vgl. Nielsen/Rosenfeld, 1981; Tuma/Hannan, a.a.O: 331fT.). Dabei stellt sich die Frage, wie der Ansatz von Strukturgleichungsmodellen mit einem Differentialgleichungssystem (DGLS) verknüpft werden kann. Das Interpretationsproblem von DGL-Modellen läflt sich am klarsten im Vergleich mit einem normalen statischen Modell demonstrieren. Gegeben sei in Gleichung (3) ein typisches statisches Modell mit zwei unabhängigen Variablen X,, X2 und einer abhängigen Variablen Y (ohne Berücksichtigung von Residualvariablen) — wobei b t und bj unstandardisierte Regressionskoeffizienten seien. (3)

Y = b, · X t + bj · X2

Der Koeffizient b t ist ein Maß des Zuwachses in Y, der durch Zuwachs von einer Einheit in X, hervorgerufen wird, wenn man X2 konstant hält. Diese Interpretation gilt für den Koeffizient bj in analoger Weise (vgl. z.B. Bollen, 1989: 124 — 125). In der Notation von Strukturgleichungsmodellen kann Gleichung (3) folgendermaßen geschrieben werden: (4)

η =

7i ·

+

γ2 ·

Die Interpretationen der Regressionskoeffizienten des Strukturgleichungsmodells gamma! und gamma2 sind analog denen der eben besprochenen Koeffizienten b t und bj. Für DGL-Modelle ist die Interpretation komplexer. Ein einfaches Modell des Wandels habe folgende Form: (5)

^

= a · У + b · X

In der Gleichung (5) ist die Rate der Änderung dY/dt von Y über die Zeit eine lineare Funktion des gegenwärtigen Wertes von Y und einer einzelnen exogenen Variable X. Komplexere Einzelgleichungsmodelle können formuliert werden, indem man mehr als eine exogene Variable X) mit Koeffizienten b; zuläßt. Der Komplexitätsgrad wird nochmals gesteigert, wenn auch die X-Variablen zeitabhängig sind (Coleman 1968, Bergström 1969) und wenn man ein System von DGLn formuliert (Blalock 1969). Die allgemeine Lösung der DGL (5) spezifiziert die Beziehung zwischen Y und X als eine nichtlineare Funktion verschiedener Parameter und der Zeit. (6)

Y(t) = e* · Yflo) + (1 - e") · с · X mit: с = b/ —а

Schätzung von Strukturgleichungs- und DiflerentialgleichungsmodeUen für Panel-Daten

93

Für wachsendes t (d.h. fortschreitende Zeit) strebt Y(t) nur für negative a einem festen Grenzwert, bzw. einem Gleichgewichtszustand Ε (Equilibrium) zu — das System ist nur dann zeitlich stabil1. Von einem statischen Gesichtspunkt aus gesehen wäre man versucht, Gleichung (5) folgendermaßen zu interpretieren: Die Koeffizienten a und b bestimmen den Effekt von X und Y auf die Rate der Veränderung von Y. Dies entspräche der Interpretation von Regressionskoeffizienten in Strukturgleichungsmodellen. Jedoch ist die Bedeutung der Koeffizienten a und b in Gleichung (5) einerseits und die der Koeffizienten b t und b2 in Gleichung (3) bzw. gammai und gamma2 in Gleichung (4) andererseits durchaus unterschiedlich: — In Gleichung (5) ist im Gegensatz zu Gleichung (4) die abhängige Variable eine Änderungsrate (dY/dt). — Während in Gleichung (3) die Koeffizienten b, und bj analytisch unabhängig sind, gilt dies nicht fur die Koeffizienten a und b in Gleichung (5). Zu einem bestimmten (d.h. jedem beliebigen) Zeitpunkt hängt die Beziehung zwischen Y und X sowohl von a als auch von b ab. Daher darf man bei der Interpretation der beiden Koeffizienten nicht annehmen, daB der EinfluB von anderen Variablen konstant gehalten werden kann. Dies bedeutet, daB die Koeffizienten nicht den Nettoeffekt einer Variablen auf die andere repräsentieren. — Aus Gleichung (6) erhält man als partielle Ableitung nach X den Ausdruck (l-e*)-b/—a; man beachte, daB der Nettoeffekt von X auf Y in dieser Formulierung eine Funktion der Zeit ist. Für den Vergleich von Koeffizienten über verschiedene Stichproben, wie er bei Regressionskoeffizienten von großer Bedeutung ist, ergibt sich eine wichtige Konsequenz. Man kann nicht argumentieren, daB der Effekt von X auf Y in einer Stichprobe größer ist als in einer anderen, nur weil b in der DGL (5) für diese Stichprobe größer als in einer anderen ist. Ob der Effekt von X auf Y in einer Stichprobe größer ist als in einer anderen, hängt gleichzeitig vom Wert von a ab. Als Konsequenz dieser Nichtvergleichbarkeit schlagen Nielsen und Rosenfeld daher vor, statt der Koeffizienten der DGL die Trajektorien des Prozesses, d.h. die Kurvenverläufe der einzelnen Variablen, wie sie durch das zugrundeliegende Modell bedingt sind, zu vergleichen. Sie argumentieren (Nielsen/Rosenfeld, 1981: 161), daß sinnvollerweise die Trajektorien für Modelle in verschiedenen Stichproben verglichen werden können. Das gleiche gilt aber auch für die Analyse der Wirkung verschiedener Variablen einer Gleichung bezogen auf eine einzige Stichprobe. Auch hier wäre ein Vergleich von Trajektorien angemessener. Diesen Vorschlag werden wir in unserer späteren Darstellung der Beispiele nochmals aufgreifen.

1)

Im folgenden Text wird stau — a auch die Schreibweise |a| verwendet, wenn fflr a nur negative Werte (zeitlich stabiles Verhalten) in Betracht kommen sollen (siehe dazu auch Abschnitt 3.1).

94

Walter Bien/Peter Schmidt/Roland

Scbürhoif

Als allgemeine Interpretation für DGL-Modelle kann folgendes ausgesagt werden. Im einfachsten Fall mit einer unabhängigen Variablen X gibt es zwei Koeffizienten von substantiellem Interesse, die in der allgemeinen Lösung der DGL (6) auftreten. 1. Der Koeffizient a oder e" repräsentiert den dynamischen Aspekt des Prozesses. Je größer der absolute Wert von a, desto geringer ist die Abhängigkeit von Y von der Vergangenheit, oder desto kleiner ist die Resistenz des Systems gegen Wandel, oder desto größer ist die Geschwindigkeit der Annäherung an einen (theoretischen) Gleichgewichtszustand, dessen betragsmäßiger Wert durch exogene Faktoren determiniert ist. 2. Aus der Beziehung b/|a|=c erhält man auch einen Zahlenwert für den Gleichgewichtszustand von Y als Funktion der exogenen Variable X. Die substantielle Interpretationen des Koeffizienten c=b/|a| gehorcht derselben Logik wie die Interpretation der Koeffizienten eines statischen Modells. Koeffizienten b/|a| derselben Variablen können also wie Regressionskoeffizienten über verschiedene Gleichungen hinweg verglichen werden. Werden die dynamischen Aspekte des Prozesses (allein durch den Koeffizienten a repräsentiert) konstant gehalten, ist es inhaltlich sinnvoll, die Gleichgewichtskoeffizienten с als unabhängige Einheiten zu interpretieren. Diese Eigenschaft macht den Gleichgewichtskoeffizienten с zu einer fundamentaleren Einheit als b allein in Gleichung (5). Er repräsentiert eine konzeptuelle Brücke zwischen der dynamischen Formulierung und der kausalen Syntax, die bei statischen Modellen Verwendung findet. In gewissem Sinne enthalten die Gleichgewichtskoeffizienten die statischen Aspekte des dynamischen Modells. Man kann dieselben Schlußfolgerungen erreichen, wenn man die Interpretation der partiellen Ableitung des Nettoeffekts einer Variablen in einem nichtlinearen Modell betrachtet. In anderer Formulierung läßt sich der Koeffizient a als ein Maß der Geschwindigkeit (Anpassungsgeschwindigkeit pro Zeiteinheit) interpretieren, mit dem die Werte von Y auf geänderte Werte von X reagieren — bei kleinem (negativem) a geht die Anpassung (an den Gleichgewichtszustand) nur langsam vor sich, große (negative) Werte von a bedeuten eine hohe Anpassungsgeschwindigkeit (Anderungsrate). Die Lösungskurven (Trajektorien) aus Gl. (6) der DGL lassen sich als lineare Funktion mit zeitverzögerten Werten der abhängigen Variable und den unabhängigen Variablen auch so ausschreiben: (7)

Υ, = А · Yt_4t + Β · X mit den Abkürzungen: А = e°'St; В = (i — e°'St) · b / - a

Im Unterschied zu der Analyse von Panel-Daten mit Strukturgleichungsmodellen sind die Parameter zeitkontinuierlicher Modelle nicht explizit von der Größe des

Schützung von Strukturgleichungs- und Dißerentialgleichungsmodellen für Panel-Daten 95 Beobachtungsintervalls t„—t (n _ l) =Ät abhängig. Sie lösen somit zwei Probleme: a) Die oft problematische Wahl des Zeitabstands zwischen den Wellen (lagproblem). b) Vergleichsmöglichkeiten der Ergebnisse von Untersuchungen mit unterschiedlichen Zeitabständen. (Vergleiche dazu auch: Tuma/Hannan, 1984; Möbus, 1986). Die Schätzung einer Regressionsgleichung, wie der in (7) angegebenen Gleichung, ist der erste Schritt in der Schätzprozedur für eine DGL, wie sie von Coleman (1968) vorgeschlagen wurde. Modelle wie die in Gleichung (7) werden oft von Forschern postuliert, ohne ein zugrundeliegendes dynamisches Modell anzunehmen. Darüber hinaus ist die Zeitverzögerung in einer Gleichung, wie z.B. auch in Gleichung (7), oft eher durch die Verfügbarkeit von Daten bestimmt, als durch die Annahme, daß der Prozeß inhärent diskret sei. Wenn der Wandel in Y kontinuierlich über die Zeit erfolgt, dann kann eine Strukturgleichung mit einer zeitverzögerten endogenen Variable als Lösung einer kontinuierlichen linearen DGL aufgefaßt werden. Unsere Diskussion oben impliziert, daß der Regressionskoeffizient Α der zeitverzögerten abhängigen endogenen Variable direkt als ein Maß des Widerstands gegen Wandel oder als Geschwindigkeit der Anpassung interpretiert werden kann. Dabei entspricht ein großer Wert für Α einem kleinen von lal.

2.1

Indirekte Methode zur Schätzung von DGL-Modellen bei Panel-Daten

Die hier beschriebene Vorgehensweise läuft darauf hinaus, daß zunächst mit einem Programm zur Berechnung von Koeffizienten in Strukturgleichungsmodellen dessen Parametermatrizen Beta und Gamma geschätzt werden (1. Schritt), und diese dann als Eingabe für weitere Matrizenoperationen dienen (2. Schritt), an deren Ende die Parametermatrizen des DGL-Modells vorliegen. Eine solche zweistufige Lösung (auch als »indirekte Methode« bezeichnet), bei der zuerst mit LISREL oder einem anderen Programm zur Schätzung von Strukturgleichungsmodellen - wie EQS, LISCOMP oder LINCS - die Parameter dieses (Strukturgleichungs-)Modells geschätzt werden und dann als Ausgangsbasis zur Berechnung von DGL-Koeffizienten dienen, wirft eine Reihe von Schwierigkeiten auf, die am Ende dieses Abschnitts näher erläutert werden. Um Aussagen über den (möglichen) zeitlichen Verlauf endogener Variablen eines mit LISREL geschätzten Panel-Modells machen zu können hat Arminger (1986), aufbauend auf Arbeiten von Coleman (1968) und Tuma/Hannan (1984), eine Methode vorgeschlagen, mit deren Hilfe sowohl Punktschätzungen als auch die Einbeziehung von Standardschätzfehlern für DGL-Systeme ermöglicht werden sollen. Nötig dazu ist die Lösung eines stochastischen linearen DGL-Systems erster Ordnung mit konstanten Koeffizientenmatrizen Α und В in der Form:

Walter Ken/Peter Schmidt/Roland Scbürboif

%

(8)

η· = A · ,(t) + В · {(t) + 1*3

teT

mit den Bezeichnungen: η ξ v(t) η'

= = = =

Spaltenvektor der endogenen Variablen Spaltenvektor der exogenen Variablen Spaltenvektor eines stochastiachen Fehlertermg zeitliche Ableitung des Vektors der endogenen Variablen — (wobei der Differentialoperator zu verwenden ist) А, В = konstante Koeffizientenmatrizen Τ = Zeitintervall der Beobachtungen (Panel-Wellen)

Unter der Annahme, daß Ksi zeitunabhängig ist, vereinfacht sich Gleichung (8) zu: (9)

V(t) = А · r,(t) + В · { + u(t)

teT

Die allgemeine Lösung von (9) lautet dann: (10)

ijU) = exp[(t - to)A] · i,(to) + A" 1 · (exp[(t — to)A] — I) · В · £

bzw.: (mit den Bezeichnungen) (0t = t - to, q(t-Ä) = ij t _i, (11)

=e ( i t

A)

f(0 =

«

+ A"1 · (el(St)'A1 - I) • В • { + f ,

·

wobei: f(t) = |е ( , _ , )

А

· u(s)ds

4) β(,-ω·Λ

=

£l

( t

_

g k

.

A

i

k-V*· (4(to) ist ein angegebener (Anfangs-)Wert von ij zum Zeitpunkt tg; I = Einheitsmatrix) mit den geeigneten Parametermatrizen Α und B. Dazu übernimmt Arminger jetzt den Vorschlag von Jöreskog und Sörbom (1977), d.h. den Ansatz: (12)

4 (t)

= B* · q(to) + Г* · { + f(t)

bzw.: (mit den Bezeichnungen) (Ä = t - to, ij(t-&) = (13)

7J, = B* ·

f(t) =

»

+ Г* • f + f ,

d.h. für die ί-te (entsprechend dem zugrundeliegenden LISREL-Modell) Beobachtung von eta:

Schätzung von Strukturgleicbungs- und DUTerentialgkichungsmodellen für Panel-Daten (14)

4t/i

= Β* ·

+ Г* · & + ξ Λ

Aus (11) und (13) erhalten wir durch Koeffizientenvergleich sofort die formalen Lösungen für die Parametermatrizen А und B: (15)

Α = (Λ)"1 · InB*

(16)

В = (В* - I)" 1 · A · Г*

Zur Berechnung von In Beta* verwendet Arminger den Ansatz: (17)

InB* = Η · Л • H" 1

wobei: Η = Matrix der Eigenvektoren (EV) der Matrix B* A = Matrix mit den logarithmierten Eigenwerten (EW) der Matrix B* als Hauptdiagonalelementen An der Gestalt der Gleichungen (11) und (13) läflt sich ablesen, daß zur Berechung der Koeffizienten des DGLS nur solche Koeffizienten des Strukturgleichungsmodells herangezogen werden, die kausale Beziehungen zwischen Variablen von einem früheren (i—1) zu einem späteren Zeitpunkt (i) widerspiegeln. Somit können kausale Beziehungen zwischen Variablen zum gleichen MeBZeitpunkt, d.h. in der gleichen Panel-Welle nicht berücksichtigt werden (Informationsverlust). Bei gleichem Abstand der Panel-Wellen schlägt Arminger sogar vor, Restriktionen der Art Bi*=Bj_i* und Γ ί *=Γ ί _ 1 * zu spezifizieren (vgl. Arminger, 1986: 196), um in einem Schritt die gesamte verfügbare Information zur Berechnung der Parametermatrizen Α und В des DGLS zu nutzen. Modelltheoretisch wird diese Vorgehensweise jedoch nur einigen wenigen empirischen Datensätzen angemessen sein. Neben diesen Einschränkungen in der Anwendbarkeit der Methode treten noch eine Reihe weiterer Schwierigkeiten auf. Diese beziehen sich beispielsweise auf die Logarithmierung der Matrix, worauf besonders Singer und Spilerman (1976), Möbus (1986) und Hamerle, Nagl und Singer (1988) hingewiesen haben. Die zuletzt genannten Autoren haben insgesamt drei Argumente aufgeführt, die ihrer Ansicht nach die Überlegenheit einer direkten Schätzung von DGL-koeffizienten gegenüber dem Verfahren von Arminger belegen sollen: 1. Nichteindeutigkeit der Lösung von Α (siehe Gl. 15). In dem von Hamerle et al. (1988: 25f.) angeführten Beispiel wird dies eindrucksvoll demonstriert. Bei der von den Autoren vorgeschlagenen direkten ML-Lösung scheint das Problem der Nichteindeutigkeit jedoch ebenso von Bedeutung (mögliche Zerlegung der Matrix Α in verschiedene quadratische Formen; vgl. zum ganzen Punkt Hamerle et al., 1988: 14f. und Singer, 1990).

9

98

Walter Bien/Peter Schmidt/Roland Scbürhoff

2. Berücksichtigung von Einschränkungen (constraints). Schon einfache Einschränkungen für die Matrix Α des DGLS drücken sich nicht in entsprechenden Einschränkungen für die LISREL-Matrix B* aus (vgl. Hamerle et al. 1988: 15f.). 3. Beschränkte Anwendung. Hamerle, Nagl und Singer argumentieren, daß für die Matrizen B* und Γ* nur in einfachen Spezialfällen Maximum-Likelihood-Schätzungen möglich seien. Dies wird allerdings nicht detaillierter ausgeführt, und sollte deshalb noch genauer untersucht werden. Aus den genannten Argumenten heraus sicher begründet, plädieren Hamerle, Nagl und Singer dafür, eine Schätzprozedur anzuwenden, die direkt die Parameter des stochastischen Systems, d.h. die Matrizen Α und В liefert (vgl. Hamerle et al. 1988: 18 - 22).

2.2

Implementierung der indirekten Methode in ein OAUSS-Programm

Unter Verwendung der matrizenorientierten Programmiersprache GAUSS haben wir das Programm DYNMOD entwickelt, in dem der von Arminger (1986) vorgeschlagene Algorithmus implementiert ist. DYNMOD ermöglicht die Schätzung der Parametermatrizen eines stochastischen DGL-Systems für Panel-Daten und in seiner neuesten Version über Armingers Methode hinaus auch die Darstellung der Kurvenverläufe (Trajektorien) jeder einzelnen Komponente des Lösungsvektors eta(t), d.h. jeder einzelnen latenten endogenen Variablen des zugrundeliegenden Strukturgleichungsmodells. Ausgehend von den Beta- und Gamma-Matrizen eines mit LISREL geschätzten Modells, werden die konstanten Koeffizientenmatrizen Α und В der allgemeinen Lösung des DGLS sowie die Eigenwerte (EW) von Beta* und damit nach Gl. (15) auch die EW von Α berechnet. In der DYNMOD-Version 2.0 erhält man die Ergebnisse der Punktschätzungen und zusätzlich für die latenten Variablen eine Wertetabelle ihrer Kurvenpunkte im Abstand von t = 0 . 1 , die wir derzeit mit Hilfe eines weiteren GrafikProgramms zur Darstellung der Kurvenverläufe verwenden. Damit stehen uns die Trajektorien der einzelnen latenten Variablen zur Verfügung, und wir können diese im Sinne der Ausführungen des Abschnitts 2 interpretieren. Für die nächste Version des Programms ist die Einbeziehung und Auswertung von Standardschätzfehlern und Mittelwerten vorgesehen. DYNMOD ist ausführlich dokumentiert, d.h. die verwendeten Algorithmen, nötigen Eingaben, Zwischenschritte, auftretenden Probleme und möglichen Ergebnis-Ausgaben sind eingehend beschrieben. Leider ermöglicht GAUSS nicht die Kompilierung eines Programmes zu .EXE- oder .COM-Dateien, sodaß für dieBenutzung von DYNMOD zusätzlich das GAUSS-Programmpaket (ab Vers.l.49B) verfügbar sein muß.

Schätzung von Strukturgleichmgs- und Difierentialgleichungsmodellen für Panel-Daten 99 Aus den mit Strukturgleichungsprogrammen (EQS, LISCOMP, LISREL, LINCS, etc.) geschätzten Parametermatrizen Beta+ (quadratisch) der endogenen latenten Variablen des Modells, und Gamma'1', bei zusätzlicher Verwendung exogener latenter Variablen werden die Untermatrizen Beta* und Gamma* gebildet. Diese bestehen aus solchen Koeffizienten von Beta + , bzw. Gamma'1' welche die Wirkung zwischen den endogenen, bzw. exogenen latenten Variablen von einer früheren zu einer späteren Meßwelle spezifizieren. Unter Verwendung des von Arminger vorgeschlagenen Diagonalisierungsansatzes zur Logarithmusbildung fur die Matrix Beta* (vgl. Arminger, 1986: 194) werden ausgehend von den Untermatrizen Beta* und Gamma* die Parametermatrizen Α und В des DGLS berechnet. Mit Hilfe der GAUSS-Routinen »eigsym« im Falle einer symmetrischen Matrix Beta*, bzw. mit »eig« bei nichtsymmetrischen Matrizen, lassen sich die Eigenwerte (EW) und Eigenvektoren (EV) der Matrix Beta* ermitteln. Die gefundenen EW, bzw. deren Realteile bilden die Hauptdiagonale einer quadratischen Hilfsmatrix »Q«, die ansonsten mit »Nullen« besetzt ist. Aus »Q« erhalten wir eine weitere Hilfsmatrix »Lambda«, indem die Hauptdiagonalelemente von »Q« logarithmiert werden. Die dritte Hilfsmatrix »H« setzt sich zeilenweise aus den gefundenen EV zusammen, indem diese jeweils eine Zeile von »H« bilden. Zu »H« ist außerdem deren Inverse »H_1« zu ermitteln, wobei evtl. Probleme bei der Inversenbildung auftreten können. Unter Annahme gleichen Zeitabstandes zwischen den Panel-Wellen können wir =>t gleich 1 setzen und erhalten als Vereinfachung aus Gleichung (15): (18)

A = InB*

Die EW von Α haben wir bereits mit Anwendung des Diagonalisierungsansates erhalten. Falls in der Modellspezifikationen exogene latente Variablen mit einbezogen wurden erhalten wir mit Auswertung von Gleichung (16) die Parametermatrix B. Da wir, wie bereits kurz ausgeführt, die Trajektorien der einzelnen latenten Variablen darstellen möchten, ist es erforderlich, aus der allgemeinen Lösung des DGLS (Gl. 10) durch Vorgabe geeigneter (Start-)Vektoren eta(to) und Ksi eine spezielle Lösung auszuwählen. DYNMOD liefert dann Wertetabellen für jede latente Variable, die als Grundlage zur grafischen Darstellung (z.Z. noch mit Hilfe des Grafikprogramms CHART 3.0) und dadurch ermöglichter Auswertungen dienen. Außerdem wird für jede Komponente des Vektors eta (entsprechend der zugehörigen endogenen Variablen) der mit zunehmender Zeit t angestrebte Grenzwert Ε angegeben. Die Startvektoren etaftg) und Ksi können bei sonst unveränderten Modellwerten variiert werden; alle Ausgabedaten lassen sich als Druckdatei speichern, bzw. anschließend ausdrucken. Am Ende des jeweiligen Programmlaufs sind mehrere Optionen möglich unter denen man wählen kann, z.B. ob der letzte Rechenlauf mit modifizierten Daten wiederholt werden oder das Programm beendet werden soll.

Walter Bien/Peter Scbmkb/Roiaod Scbürboff

100

3.

Anwendungen der indirekten Methode

Mit der Implementierung des Armingerschen Algorithmus im Programm DYNMOD ist ein erstes Hindernis für die breitere Anwendung und Prüfung der Methode in der empirischen Forschungspraxis beseitigt. Im Laufe unserer Untersuchungen sind jedoch neue Schwierigkeiten aufgetreten, die zum großen Teil auf die Beschaffenheit des meisten verfügbaren Datenmaterials, bzw. auf theoretisch begründete Modellkonstellationen zurückzuführen sind und die bisher nur teilweise behoben werden konnten. Dabei sind zum einen drei grundsätzlich verschiedene mögliche Kurvenverläufe (Trajektorien) für die latenten Variablen und zum anderen vier unterschiedliche Fälle bei der Spezifikation zeitlich stabiler Modelle zu berücksichtigen. Im Abschnitt 3.2 soll diese Problematik an dem von Arminger (1986) präsentierten Beispiel verdeutlicht und daraus abgeleitet eine von uns untersuchte alternative Modellspeziflkation vorgestellt werden.

3.1

Anwendbarkeit der Methode bei verschiedenen Modellspeafikatioaen

Betrachtet man die allgemeine Lösung (10) des DGL-Systems, d.h. (10)

4 (t)

= exp[(t - to)A] · »/(to) + A" 1 · (exp[(t - to)A] - I) · В · f

so ergeben sich je nach Konstellation der Parametermatrizen Α und В verschiedene Kurvenverläufe für die einzelnen latenten endogenen Variablen (entsprechend den Komponenten des Vektors eta(t)). Da zur Berechnung des Vektors eta(t) wieder ein Diagonalisierungsansatz benutzt werden kann (hier um die Exponentialfunktion der Matrix [(t—tg) A] zu berechnen), sind die möglichen Kurvenvarianten schon anhand der Gestalt der Eigenwerte (EW) von Α zu erkennen. Dabei lassen sich drei Fälle unterscheiden: 1. alle EW der Matrix Α sind reell und negativ 2. wenigstens einer der realen EW von Α ist positiv 3. die Matrix Α hat auch komplexe EW Fall 1: Damit die EW der Matrix Α negativ sind, müssen die EW von Beta* im Bereich zwischen 0 und 1 liegen (vgl. Gl. 15 und Gl. 17). Betrachtet man in diesem Fall die Kurvenverläufe der einzelnen eta-Variablen, so ist zu sehen, daB diese sich mit wachsender Zeit horizontalen Asymptoten nähern, die den Gleichgewichtszustand (Equilibrium; Ε) für jede eta-Variable markieren; das modellierte System ist (im zeitlichen Verlauf) stabil. Je nachdem ob die Ausgangspunkte (eta^t) zum Zeitpunkt to — das ist der Zeitpunkt der ersten Messung) der Variablen über oder unter dem Wert ihres späteren Equilibriums liegen, nähern sich ihre Trajektorien diesem von oben oder von unten (vgl. Nielsen/Rosenfeld 1981: 162).

Schätzung von Strukturgleichungs- und DiflerentialgleicbungsmodeUen für Panel-Daten 101 Wichtig im Hinblick auf Vergleichsmöglichkeiten zum zeitlichen Verhalten der latenten Variablen ist die Geschwindigkeit ihrer Annäherung an E, denn damit kann man z.B. Abschätzungen darüber machen, wie schnell das System sich nach Störungen wieder im Gleichgewichtszustand befinden wird. Will man die Koeffizienten gleichartiger Modelle vergleichen, die sich durch den Abstand der panel-Wellen unterscheiden, ist dies durch geeignete Wahl, bzw. Transformation der t-Koordinaten zu erreichen. Fall 2: Das modellierte System ist zeitlich instabil, d.h. die Werte der eta-Variablen wachsen mit zunehmender Zeit über alle Grenzen (vgl. Arminger, 1986: 192) — mit den gefundenen Koeffizienten des DGL-Modells lassen sich keine sinnvollen Interpretationen gewinnen. Fall 3: Das Auftreten komplexer EW deutet auf zyklisches, bzw. oszillierendes Verhalten des Systems hin (vgl. Arminger, 1986: 192); auch diesen Fall wollen wir wegen der besonderen Interpretationsprobleme außer Betracht lassen. (Vgl. zu allen Fällen: Blalock, 1969: 93f., Tuma/Hannan, 1984: 335f„ Nielsen/Rosenfeld, 1981: 162-169). Tab. 1: Mögliche Typen von Modellspeziükaüonen im Modell sind exogene Variablen

reine Markovmodelle (MM) Markov-Modell und zusätzliche Querpfade (NMM)

enthalten (EV)

nicht enthalten (NEV)

EV/MM

NEV/MM

EV/NMM

NEV/NMM

Zeitlich stabile Modelle (Fall 1) lassen sich in vier Gruppen einteilen, die sich in ihrer Komplexität unterscheiden. Dabei kann zum einen getrennt werden, ob im Modell exogene Variablen enthalten sind (EV) oder nicht (NEV) und zum anderen, ob es sich um reine Markov-Modelle (MM), d.h. für die endogenen Variablen bestehen nur Kausalpfade zwischen verschiedenen Meßzeitpunkten der gleichen Variablen, oder ob auch Kausalpfade zwischen verschiedenen Variablen zu unterschiedlichen Meßzeitpunkten (NMM) auftreten (vgl. Tab. 1). Zur Illustration der vier möglichen Fälle verwenden wir jeweils ein Modell mit zwei latenten Variablen, von denen jede zwei Indikatoren hat und die zu zwei Meßzeitpunkten gemessen wurden; im Falle exogener Variablen kommen zwei solche hinzu, die als zeitunabhängig betrachtet werden.

102

Walter Bien/Peter Schmidt/Roland

Scbürboff

Bezeichnungen in den nachstehenden Abbildungen: Ч1/2

=

Ч3/4 =

У1/2

=

УЗ/4 = У5/6

=

У7/8 = f 1/2 =

*l/2

=

*3/4 =

latente abhängige Variablen zum Zeitpunkt 1 latente abhängige Variablen zum Zeitpunkt 2 Indikatoren der Variablen etat eta2 eta3 eta«. latente unabhängige Variablen (zeitunabhängig) Indikatoren der Variablen ks^ ksi2

Abb. 1: NEV/MM keine exogenen Variablen reines Markov-Modeli

Abb. 2:EV/MM mit exogenen Variablen reines Markov-Modell

Schätzung yon Strukturgleicbungs- und Differentialgleichungsmodellen für Panel-Daten 103 Abb. 3: NEV/NMM keine exogenen Variablen kein reines Markov-Modell

3.2

Abb. 4: EV/NMM mit exogenen Variablen kein reines Markov-Modell

Beispiel: Stabilität von Entfremdung

In der Arbeit von Arminger (1986) wird ein Beispiel präsentiert, bei dem es inhaltlich um die zeitliche Stabilität von Entfremdung und Einstellung zu Lateinamerika geht. Die Daten basieren auf einer Untersuchung von Wheaton et al. (1977)2.

a) Armingers Originalmodell Wir haben Armingers Beispiel mit DYNMOD repliziert — eine grafische Darstellung des getesteten Strukturgleichungsmodells findet sich in der nachstehenden Abbildung.

2)

Die genaue Beschreibung des zugrundeliegenden LISREL-Modells findet man auf den Seiten 200 - 2 0 3 in Anninger (1986).

104

Teilergebnisse DYNMOD:

Water Bien/Peter Schmidt/Roland Schürhoff

der

LISREL-Schatzung

und

Ergebnisse

des

Programms

Skalenniveau: Intervallskala für alle Variablen Annahme: multivariate Normalverteilung Schätzmethode: Maximum-Likelihood (ML)

Tab. 2: Beta- und Gamoa-Mattizen der LISREL Schätzung BETA:

ALIEN67 LASD67 ALIEN71 LASD71

GAMMA:

AUEN67

LASD67

ALIEN71

LASD71

EDUC

SEI

0.0000 0.0000

0.0000 0.0000

0.6160 0.0790

0.2650 0.3360

0.0000 0.0000 0.0000 0.0000

0.0000 0.0000 0.0000 0.0000

-0.3260 -0.0580 -0.1130 -0.0370

-0.0240 -0.0020 -0.0090 0.0010

Schätzung von Strukturgleichungs- und DifTerentialgleicbungsmodeUen für Panel-Daten 105

DYNMOD-Ergebnisse: Die Eingabematrix Beta* (2x2) wurde so eingelesen:

ea 3 eta«

eta,

eta2

0.61600 0.07900

0.26500 0.33600

Als vorgegebener Startvektor eta(to) wurden folgende Werte eingelesen: AUEN LASD

1.00000 1.00000

Eigenwerte der Matrix Beta*: lambda,: lambda,:

0.677333 0.274667

Mit den EW von Beta* als Hauptdiagonalelemente erhält man die Matrix Q:

0.677333 0.0

0.0 0.274667

Die Realteile der EV bilden die Matrix H: 0.974247 0.225485

-0.67551 0.87009

Die gesuchte Parametermatrix Α ist: -0.527074 0.177084

0.594016 -1.154714

Die Eigenwerte der Matrix Α sind:

lambda,: lambda::

-0.389592 -1.2921%

Die Eingabematrix Gamma* (2x2) wurde so eingelesen: ksi, eta, eta«

ksi;

-0.11300 -0.03700

-0.00900 0.00100

Als vorgegebener Startvektor ksi wurden folgende Werte eingelesen: EDUC SEI

1.00000 1.00000

Matrix der reellen Eigenverteilung zu Beta*: EVI: EV2:

0.974247 0.225485

- 0.67551 0.87009

Mit elemnetweisem Logarithmieren der Hauptdiagonalelemente von Q erhält man die Matrix Lambda: - 0.389592 0.0

0.0 -1.2921%

Die Inverse der Matrix H, also Η ' ist: 0.870090 - 0.225485

0.675510 0.974247

Die gesuchte Parametermatrix В ist: -0.132339 -0.049953

- 0.012032 0.002708

Das Equilibrium der latenten Variablen ist für: ALIEN LASD

-0.3869 -0.1002

106

Walter Bien/Peter Schmidt/Roland Scbürboif

Tab. 3:

Zusammenstellung der wichtigsten Koeffizienten aus Strukturgleicbungs- und Differentialgleichungsmodell LISREL-Koeffizienten fur Beta*:

ALIEN71 LASD71

ALIEN67

LASD67

0.6160 0.0790

0.2650 0.3360

und GAMMA*: SEI

EDUC -0.1130 -0.0370

-0.0090 0.0010

Koeffizienten des Differentialgleichungssystems Eigenwerte der Matrix A lambda, lambda2

Equilibrium der endog. Var.

-0.389592 -1.292196

ALIEN LASD

Parametermatrix A -0.527074 0.177084

-0.3869 -0.1002 Paramtermatrix В

0.594016 -1.154714

-0.132339 -0.049953

-0.012032 0.002708

Abb. 6: Trajektonen der Variablen ALIEN und LASD (OriginalmodeU)

Kurvenverlauf A r m i n g e r (Original)

- AUEN \

N

\

>,

- LASD s

0

1 8 d e l t a t z w i s c h e n zwei

9 Panel-Wellen

4

Tabelle 3 und Abbildung 6 zeigen folgendes: Beide Eigenwerte der Matrix Α sind real und negativ, das System ist also im zeitlichen Verlauf stabil und strebt einem Gleichgewichtszustand zu, der durch den Ausdruck —A~' -B-ksi bestimmt wird. Für die Variable A L I E N liegt der Wert dieses Gleichgewichtszustandes (—0.3869) dabei weiter vom Anfangswert etaMJENOO) entfernt, als der für LASD (—0.1002).

Schätzung von Strukturgleicbungs- und Differentiaigleichungsmodellen für Panel-Daten 107 Die latenten Variablen verhalten sich im zeitlichen Verlauf selbstdämpfend, d.h. liegen die Werte für ALIEN und LASD über dem Equilibrium nehmen sie mit fortschreitender Zeit ab, liegen sie unter dem Gleichgewichtszustand (z.B. bei etal/2(lo>= — 1) nehmen sie zu. Vergleicht man die Trajektorien der Variablen LASD und ALIEN, so ist zu erkennen, daß die Geschwindigkeit der Annäherung an das Equilibrium für die Variable LASD wesentlich größer ist, als für ALIEN. Das bedeutet auch, daß die sich die Werte für LASD schneller wieder an Ε annähern, wenn das System durch eine zufallige Störung aus dem Gleichgewichtszustand gebracht wurde.

b)

Variation des Armingermodells

Arminger hat ohne weitere theoretische Begründung in seinem Modell postuliert, daß die frühere Entfremdung auf die spätere Einstellung zu Lateinamerika kausal wirkt und in analoger Weise die frühere Einstellung auf die spätere Entfremdung (Modellbezeichnung ΕV/MM entsprechend 3.1). Er gibt jedoch keinerlei theoretischen Hintergrund für die Begründung dieser Hypothesen. Aus der Einstellungsforschung kann nun keineswegs abgeleitet werden, daß eine bestimmte Einstellung kausal auf das Gefühl der Entfremdung wirkt oder umgekehrt. Vielmehr ist man bezüglich der kausalen Verknüpfung von Einstellungen selbst eher der Auffassung, daß ihre empirische Korrelationen meist auf Faktoren zweiter Ordnung oder Drittvariablen rückführbar sind. Abb. 7: LISRELModeUder Variante des Arminger-Beispiels

108

Walter Bien/Peter Schmidt/Roland Scbürboff

Tab. 4: Zusammenstellung der wichtigsten Koeffizienten aus Strukturgleicbungs- und Differentialgleichungsmodel] LISREL-Koeffizienten fBr Beta*: ALJEN67

LASD67

0.6510 0.0000

0.0000 0.3650

ALIEN71 LASD71

und GAMMA*: EDUC

SEI

-0.1160 -0.0610

-0.0080 0.0010

Koefiizienteo des Diflerentialgleic lungssystems Eigenwette der Matrix А lambda, lambda2

Equilibrium der endog. Var.

-0.42925 -1.00786

ALIEN LASD

Parametermatrix A -0.42925 0.00000

-0.3553 -0.0976

Paramtermatrix В

0.00000 -1.00786

-0.14267 -0.09682

-0.00984 - 0.00159

Abb. 8: Trajektorien der Variablen ALIEN und LASD (Modellvariante) Kurvenverlauf Arminger (Variante) Л '•л '• Ν ._..·,..ν ·.

\



4

- AUEN 4

Ν Ν

-- LASD ч

\

^

\

ν

α

Ч

·ν. 4

·> ·

8 8 delta t zwischen zwei Panel-Wellen

4

Schätzung von Strukttirghichungs- und Dißerentialgleicbungsmodellen für Panel-Daten 109

Aus diesem Grunde scheint die gewählte Spezifikation zunächst ad hoc und unter theoretischen Gesichtspunkten eine Spezifikation inhaltlich angemessener, bei der die Variablen Einstellung und Entfremdung einfach als korrelliert angesehen werden. Um den Effekt einer solchen Alteraativspezifikation auf die Schätzung der Parameter im Strukturgleichungsmodell und die darauf basierendeSchätzung der Koeffizienten des DGL-Modells zu testen, haben wir zunächst die kausale Struktur des Modells in entsprechender Weise modifiziert. Prinzipiell gelten für die Variante die gleichen Aussagen wie für das Originalmodell. Bei der Variante liegt der angestrebte Gleichgewichtszustand für die Variable ALIEN bei -0.3553 und für LASD bei -0.0976, was absolut gesehen ein geringfügig kleinerer Wert ist. Beide Variablen nähern sich hier dem Equilibrium schneller an als im Originalmodell — dabei ist dieser Effekt für die Variable LASD eher klein, aber für die Variable ALIEN eher stark. Die unterschiedlichen Kurvenverläufe machen deutlich, wie wichtig es ist, die Spezifikation von cross-lagged-EfTekten im Strukturgleichungsmodell genau zu begründen, da sie für die Interpretation des Differentialgleichungsmodells entsprechend starke Auswirkungen zeigen.

4.

Diskussion und Schlußfolgerungen

In der vorliegenden Arbeit wurde gezeigt, wie mit der indirekten Methode, zur Schätzung von Differentialgleichungen die Parameter eines zugrunde liegenden dynamischen Modells aus den empirisch geschätzten Koeffizienten eines Strukturgleichungsmodells für Paneldaten geschätzt werden können. Gerade weil in zunehmender Zahl in sozialwissenschaftlichen Projekten Paneldaten zur Beschreibung und Erklärung sozialen Wandels erhoben werden, stellt sich die Frage der angemessenen Ausweitung solcher Daten. Mit dem vorliegenden Aufsatz sollte gezeigt werden, inwieweit die hier vorgestellte Vorgehensweise zusätzliche Informationen gegenüber der Anwendung von Strukturgleichungsmodellen bietet. Während Studien mit unterschiedlichem Zeitabstand zwischen den Messungen nicht verglichen werden können, da die Modellparameter in komplizierter Weise von der Zeit abhängen, kann die Anwendung zeitkontinuierlicher Modelle zu einem Vergleich der Strukturparameter trotz verschiedener Zeitabstände bei der Datenerhebung geleistet werden. Während in einem rein deskriptiven Modell beliebige Funktionen an die Datenpunkte angepaßt werden können, wie z.B. bei Wachstumskurvenanalysen, ergeben sich bei einem expliziten Differentialgleichungsmodell die Interpolationsfunktionen als Lösung der ProzeBgleichung. Durch die hier beschriebenen Parameter, die Informationen über das explizite zugrundeliegende Modell, sowie die Stabilität des Systems geben, erhalten wir somit zusätzliche Informationen, die über die Parameter hinaus gehen, welche man mit Hilfe der Schätzung von Strukturgleichungsmodellen erhält.

110

Walter Bien/Peter Schmidt/Roland Schürhoff

Für die weitere praktische Erprobung der hier vorgeschlagenen Methode und der generellen Vorgehensweise zur empirischen Schätzung von DifTerentialgleichungsansätzen sind jedoch eine Reihe von Punkten zu beachten, die sich folgendermaßen formulieren lassen: 1. Wie in dem vorliegenden Fall, bzw. Beispiel der Stabilität von Entfremdung aufgezeigt wurde, wirkt sich die Spezifikation des Modells auch auf die Schätzung der Differentialgleichungen durchaus nicht gering aus. Deshalb muß der angemessenen kausalen Spezifikation des Modells viel Aufmerksamkeit gewidmet werden, weil andernfalls die Parameter verzerrt sind. Allerdings läßt sich das Problem oft nicht einfach lösen, da logisch äquivalente Modelle unter Umständen nicht an Daten entscheidbar sind. Die Erprobung der hier vorliegenden Methode auf die empirische Schätzung von Mittelwertstrukturen steht noch aus. 2. Die Berücksichtigung der Problematik fehlender Werte, auf die Schätzung der Parameter ist bisher noch nicht in diesem Kontext diskutiert worden. 3. Durch eine Reihe von Simulationsstudien müßte geklärt werden, inwieweit die hier angewandte indirekte Methode verfälschte oder akzeptable Ergebnisse (bei verschiedenen Modelltypen) gegenüber der Anwendung der direkten Methode zur Schätzung von Differentialgleichungenssystemen aufweist. Grundsätzlich sprechen aber die eben genannten Probleme nicht dagegen in breiterem Maße als dies bisher geschehen ist, Differentialgleichungsmodelle auf die Beschreibung, Erklärung und Prognose von sozialen Prozessen anzuwenden.

Literatur Abelson, R.P. 1965: Mathematical models of the distribution of attitudes under controversy. In: Frederiksen, N./Gulliksen, H. (Eds.), Contributions to mathematical psychology (p. 142160). New York: Holt, Rinehart & Winston. Arminger, G. 1976: Anlage und Auswertung von Paneluntersuchungen. In: K. Holm (Hrsg.), Die Befragung 4 (S. 134-235). München: Francke Verlag. Arminger, G. 1986: Linear stochastic differential equation models for panel data with unobserved variables. In: N.B. Tuma (Ed.) Sociological Methodology 1986 (p. 187-212). San Francisco: Jossey-Bass. Atkinson, J.W./Birch, D. 1974: The dynamics of action. New York: Wiley. Bagozzi, R.P. 1980: Causal models in marketing. New York: Wiley. Bentler, P.M. 1980: Multivariate analysis with latent variables: Causal models. Annual Review of Psychology, 31, 419-456. Bentler, P.M. 1988: Theorie and Implementation of EQS, Vers. 2.0. Los Angeles: BMDP Statistical Software Inc. Bergstrom, A. 1969: Statistical Inference in Continous Time Economic Models. New York: Elsevier.

Schätzung von Strukturgleichungs- und DifTerentialgleichungsmodellen für Panel-Daten 111 Bielby, W.T./Hauser, R.M. 1977: Structural equation models. Annual Review of Sociology, 3, 137-161. Blalock, H.M. 1969: Theory Construction: From verbal to mathematical formulations. Englewood-Cliffs (N.Y.): Prentice-Hall. Bollen, K.A. 1989: Structural Equations with latent variables. New York: Wiley. Coleman, J.S. 1968: The mathematical study of change. In: H.M. Blalock/A.B. Blalock (Eds.), Methodology in social research (p. 428-478). New York: McGraw Hill. Diekmann, A. 1980: Dynamische Modelle sozialer Prozesse — Theoretische Ansätze zur Erklärung krimineller Prozesse und ihrer Formalisierung. München: Oldenbourg. Diekmann, A./Opp, K.-D. 1979: Anomie und Prozesse der Kriminalitätsentwicklung im sozialen Kontext — Vorschläge für die Weiterentwicklung und Formalisierung der Anomietheorie. In: Zeitschrift für Soziologie, Jg. 8/4. Doreian, P./Hummon, N.P. 1977: Estimates for differential equation models of social phenomena. In: P.R. Heise, Sociological Methodology 1977. San Francisco: Jossey-Bass. Fararo, T.J. 1972: Dynamics of Status Equilibrium. In: J. Berger/M. Zelditch/B. Anderson (Eds.), Sociological Theorie in progress (p. 183-217). Boston: Houghton Miflin. Hamerle, A./Nagl, W./Singer, H. 1988: Parameter Estimation on Continous Time Dynamic Systems Using Panel Data. Konstanz: Universität — Diskussions beitrage, 109, 1-39. Harder, ΤΗ. 1973: Dynamische Modelle in der empirischen Sozialforschung. Stuttgart: Teubner. Jöreskog, K.G. 1973: A general Method for estimating a linear structural equation system. In: A.S. Goldberger/O.G. Duncan (Eds.), Structural Equation Models in the Social Sciences (p. 85-112). New York: Seminar Press. Jöreskog, K.G./Sörbom, D. 1977: Statistical Models and Methods for Analysis of Longitudinal Data. In: D.J. Aigner/A.S. Goldberger (Eds.), Latent Variables in Sociological Models (p. 285-325). Amsterdam: New Holland. Jöreskog, K.G./Sörbom, D. 1988: LISREL 7 - A Guide to the Program and Applications (user's guide). Chicago: SPSS Inc.. Kühl, J./Blankenship, V. 1979: The dynamic theory of achievement motivation: from episodic to dynamic thinking. Psychological Review, 86, 141-151. Möbus, С. 1986: Analyse von Rohdaten mit LISREL — Allgemeines Lineares Modell, stochastische Differenzen- und Differentialgleichungssysteme. In: С. Möbus/W. Schneider (Hrsg), Strukturmodelle für Längsschnittdaten und Zeitreihen (S. 57-126). Bern, Stuttgart, Toronto: Huber. Nielsen, F./Rosenfeld, R.A. 1981: Substantive interpretations of differential equation models. American Sociological Review, 46, 159-174. Simon, H.A. 1952: A formal theory of interaction in social groups. American Sociological Rev., 17, 202-211. Singer, B./Spilerman: 1976: Representation of social processes by Markov models. Amer. Jour, of Sociology, 82, 1-53. Singer, H. 1990: Parameterschätzung in zeitkontinuierlichen dynamischen Systemen. Konstanz: Hartung-Gorre. Troitzsch, K.G. 1990a: Modellbildung und Simulation in den Sozialwissenschaften. Opladen: Westdeutscher Verlag. Troitzsch, K.G. 1990b: Systems of Linear Stochastic Differential Equations and the Change of their Covariance Matrices Over Time. Koblenz: unveröffentlichtes Manuskript.

112

Waller Bien/Peter Scbmidt/Rolaod Schürboff

Tuma, N.B./Hannan, M.T. 1984: Social dynamics. New York: Academic Press. Wheaton, B./Mutben, B./Alwin, D./Summers, G.F. 1977: Assessing Reliability and Stability in Panel Models. In: D.R. Heise (Ed.), Sociological Methodology 1977 (p. 84-136). San Francisco: Jossey-Bass. Ziegler, R. 1972: Theorie und Modell — Oer Beitrag der Formalisierung zur soziologischen Theorienbildung. München: Oldenbourg.

Klaus G. Troitzsch

Evolution von Produktionsweisen

1.

Grundlegende Annahmen

Ziel des Beitrags ist ein kurzer Überblick über einige Forschungsergebnisse von Igor V. Chernenko (1989) von der Akademie der Wissenschaften der Ukraine (die hier erstmals in einer westlichen Sprache vorgestellt werden) und die Erweiterung seines Ansatzes der Modellierung technologischer Evolution. Die Erweiterung dieses Ansatzes geschieht in zwei Schritten: zunächst auf der Makroebene unter Einbeziehung einer beliebigen Zahl neu entstehender Produktionsweisen (Chernenko unterscheidet nur genau drei miteinander konkurrierende Produktionsweisen), dann auf der Mikroebene, auf der das Entstehen und der Untergang von Produktionsweisen stochastisch — mit Geburts- und Todesprozessen — modelliert werden. Chernenko untersucht in seinem Papier, wie sich aufeinander folgende Produktionsweisen historisch entwickelt haben. Er unterscheidet Produktionsprozesse dreier Arten: — »aneignende« Jäger-und-Sammler-Tätigkeit, — agrarische Produktion, — industrielle Produktion. Es soll untersucht werden, welche Gütermengen in den drei Arten von Produktionsprozessen hergestellt werden und wie sich die drei Arten von Produktionsprozessen gegenseitig beeinflussen. Allgemein wird unterstellt, daß der Zuwachs an vorhandenen Gütermengen als die Differenz zwischen dem Ausmaß der Produktion und dem Verlust durch Abnutzung darstellbar ist, wobei die Produktion abhängt von den natürlichen Ressourcen, von der schon vorhandenen Gütermenge der gleichen Produktart und von Beiträgen anderer Produktarten, soweit sie bei der Produktion dieser Produktart unterstützend eingesetzt werden können. Dabei gilt: — Je mehr natürliche Ressourcen zur Verfügung stehen, desto größer sind die Produktionszuwächse. — Je mehr von der jeweiligen Produktart schon vorhanden ist, desto geringer sind die Produktionszuwächse (Sättigungseffekt). — Je mehr Hilfsgüter aus anderen Produktarten zur Verfügung stehen, desto höher ist der Produktionszuwachs.

114 2.

Klaus G. Tmitzscb Formalisierung

Der Autor stellt für seine Produktalten ein System aus drei Differentialgleichungen auf, das eine Erweiterung des (deterministischen) Volterra-Lotka-Modells darstellt: (1)

if, = W N ,

- *,) - A

(2)

x2 = k2x2(N2

+ ахг -

(3)

*э = k3x3(ßx2

-

xi) - Фг

x3) - 160). Sie wird dann von einer anderen Subpopulation abgelöst, die dominant ist, bis Subpopulation Nr. 57 die Führung übernimmt (f « 380). Von t » 380 bis t - 700 verschwinden alle Subpopulationen von Nr. 58 bis Nr. 107 jeweils nach kurzer Zeit. Subpopulation Nr. 108 ist die erste, die in der Lage ist, mit einem ihrer Vorgänger zu koexistieren (und koexistiert weiter bis zum Ende des Simulationslaufs, der bis t = 2.400 dauerte). Zum Zeitpunkt t * 1.050 gelingt es einer dritten Subpopulation (Nr. 179), die Nr. 108 an Größe zu überholen. Von den t * 1.050 bis t = 1.420 koexistieren drei Subpopulationen. Dann vermag eine vierte Subpopulation (Nr. 222) ihr Aussterben abzuwenden. Wir haben jetzt vier koexistierende Subpopulationen bis t « 1.780, wenn Subpopulation Nr. 326 ihr Wachstum beginnt. Zum Zeitpunkt t = 1.800 haben wir fünf koexistierende Subpopulationen. Drei weitere Subpopulationen, die zu diesem Zeitpunkt noch sehr jung sind, überleben, aber nur für kurze Zeit. Zum Zeitpunkt t = 2.120 entsteht Subpopulation Nr. 385 und wird schnell die größte, während Nr. 222 verschwindet und Nr. 57 ein erneutes Wachstum beginnt. Sowohl Nr. 57 als auch Nr. 222 waren zum Zeitpunkt t = 2.100 ungefähr gleich groß, aber die Entstehung von Nr. 385 scheint nur Nr. 57 zu helfen, während sie Nr. 222 schadet. Am Ende des Simulationslaufs haben wir sechs koexistierende Subpopulationen (Nr. 390 entwickelt sich sehr langsam) und vier zusätzliche Subpopulationen, die kurze Zeit später aussterben werden. Ein erster Blick auf die Parameter der Subpopulation zeigt, daß hohe N/s und hohe ki s für ein langes Überleben verantwortlich zu sein scheinen, denn nur Subpopulationen mit großen Nj und großen Je, überleben. Diese Subpopulationen sind ausgestattet mit hoher Produktivität und großer Fähigkeit, ihre regenerierbaren Ressourcen auszubeuten. Der Fall der Entstehung der Subpopulation Nr. 385, die die Auslöschung von Subpopulation Nr. 222 und den Wiederbeginn des Wachstums von Subpopulation Nr. 57 zur Folge hat, verlangt nach detaillierterer Erklärung. Dazu müssen wir zunächst die Parameter der drei Subpopulationen zusammenstellen: 1 57 222 385

»1 2.735 0.717 1.068 0.844 2.384 0.889

«Ü 57 222 385

57

222

385

0.135 0.026 0.244 0.279 0.154 0.090 0.217 0.146 0.266

Wir sehen sofort, daß der Beitrag der Subpopulation Nr. 385 zum Wachstum von Subpopulation Nr. 57 viel größer ist (0.244) als ihr Beitrag zum Wachstum von Subpopulation Nr. 222 (0.090). Von Beginn ihrer Existenz an wurde die Sub-

Forts. von letzter Seite nen unmittelbar entnommen werden. Die Tabellen oben in der Mitte in jeder Teilgraphik zu den Mikromodellen (Abb. 2), die Entropie-Eintragung und die Listen der Subpopulationen und ihrer Größen beziehen sich auf die Zeitpunkte t = 600, t = 1.200, usw.

122

Klaus G. Troitzsch

population Nr. 222 von Subpopulation Nr. 57 gefördert (deren Beitrag zugunsten von Nr. 222 war 0.279, während der Beitrag in der anderen Richtung nur 0.026 betrug); andere wichtige Beiträge kamen von Nr. 108 (0.266) und von Nr. 326 (0.267). Alle drei Subpopulationen, die Nr. 222 förderten, werden geschwächt durch die neue Subpopulation Nr. 385 (die Beiträge von Nr. 385 zu Nr. 108 und Nr. 326 sind bloße 0.067 und 0.045), so daß Nr. 222 mit ihrer bescheidenen Fähigkeit zur Ausbeutung ihrer Ressourcen nicht länger überleben kann. Ein — immer noch vorhandener — Nachteil dieser Modellierung ist, daß dieses Modell ein scheinbares Wachstum zeigt, das allein darauf beruht, daß immer wieder neue Subpopulationen mit nicht verschwindendem Produktionsumfang eingebracht werden. Das Wachstum, das im Modell insgesamt zu beobachten ist, folgt also allein schon aus den bloß mathematisch-technisch erforderlichen, nicht aber allein aus inhaltlichen Annahmen. Gleichwohl mag von Interesse sein, daß alle durchgeführten Simulationsläufe deutlich machen, daß sich gerade diejenigen Populationen, die ihre Ressourcen besonders gut auszunutzen vermögen und außerdem zu schneller Produktion fähig sind, durchzusetzen in der Lage sind.

6.

Alternative Mikromodellienmg

Eine weitere Verallgemeinerung umgeht die mathematisch-technisch erforderliche Annahme des ständigen Wachstums dadurch, daß die Entwicklung der einzelnen Subpopulationen (d.h. der Träger der einzelnen Produktionsweisen) nicht deterministisch und kontinuierlich erfolgt, sondern stochastisch und diskret vermöge eines Geburts- und Todesprozesses, der so konstituiert ist, daß die Uber die Gesamtpopulation berechnete mittlere Geburtenrate der mittleren Sterberate gleich ist. Ein eventuell zu beobachtendes Wachstum ergibt sich hier also allein aus inhaltlichen, nicht aus methodisch erforderlichen Annahmen. Geburtenrate und Sterberate hängen dabei vom aktuellen Zustand der Produktion in gleicher Weise ab wie im Makromodell. Auf der Ebene der Individuen müssen wir das Wachstum der Subpopulationen mit Hilfe individueller Geburts- und Sterbewahrscheinlichkeiten modellieren. Um es etwas einfacher zu machen, modellieren wir unsere Individuen, als ob sie sich asexuell fortpflanzen würden. Um unser Mikromodell unserem Makromodell so ähnlich wie möglich zu machen, formulieren wir die Geburts- oder Kopierwahrscheinlichkeiten mit den positiven Teilen und die Sterbewahrscheinlichkeiten mit den negativen Teilen der Zuwächse und Verluste von Gleichung 4, d.h. die individuelle Reproduktionswahrscheinlichkeit in Subpopulation ι ist

(13) p%x) = kj(Nj + Za^j) + ^

Lkfu'l

Entsprechend ist die individuelle Sterbewahrscheinlichkeit

Evolution von Produktionsweisen

(14)

р1(х) = W i

+ TT [ V Ä 4> i

+

123

L « w

jtk

Wir sehen sofort, daß gilt: 15)

! > , · pU*) = L*k pl(x)

Im Mittel sind also Geburten und Sterbefalle im Gesamtsystem gleich wahrscheinlich. Die Entstehung neuer Subpopulationen wird nun in zwei Schritten modelliert: Zunächst werden — wie im Makromodell — neue Subpopulationen erzeugt, aber mit einer Anfangsgröße von Null. Jedoch kommen »Mutationen« vor, wenn ein Individuum seine Subpopulation verläßt, um sich einer anderen anzuschließen. Damit ist eine Subpopulation leer, wenn sie erzeugt wird, und sie wird erst aufgefüllt, wenn sich ein Individuum sich ihr anschließt. In den Simulationsläufen, die wir nachfolgend beschreiben, benutzen wir jedoch diesen Mutationsmechanismus gar nicht. Um Subpopulationsgrößen von Null aus wachsen zu lassen, genügt nämlich unser Geburtsmechanismus bereits, denn pffc) kann auch für л- ; =0 positiv sein. Nur die erste Subpopulation muß von einer positiven Größe aus starten. Dieser Modellierungsansatz erlaubt eine einfachere und effizientere Realisierung, denn es ist nicht notwendig, die einzelne Subpopulation aus ihren Mitgliedern zu rekonstruieren. In gewisser Weise modellieren wir Genotypen, die vor ihren Phänotypen entstehen, oder Pläne, die formuliert werden, bevor sie ausgeführt werden. Es kommt hinzu, daß in diesem Ansatz (wenn Mutation nicht ausgeschlossen wird) ein Plan, der von seiner Subpopulation aufgegeben worden ist, von später geborenen Individuen wieder aufgegriffen werden kann, wenn sie sich entscheiden, ihm zu folgen — im Makroansatz bleiben ausgestorbene Subpopulationen für immer ausgestorben. (Lediglich um Speicherplatz zu sparen, löschen wir Subpopulationen mit der Größe Null nach einiger Zeit). Anhang В enthält die MIMOSE-Speziflkation des Mikromodells. Die Spezifikation ähnelt der des Makromodells in Anhang Α sehr: Hinsichtlich des Objekttyps society unterscheiden sie sich nur in den Attributen INITSIZE und totalsize; zusätzlich hat das Mikromodell das Attribut people. Die Objekttypen pop sind ebenfalls sehr ähnlich; der Hauptunterschied liegt darin, daß die Dynamik des Attributs size nun in die Attribute copyprob und deathprob verlagert ist, während das Attribut size des Typs pop im Mikromodell nur noch die Mitglieder der Subpopulation zu jedem Zeitpunkt zählt. Wenn wir uns die Spezifikationen des Mikro- und Makromodells ansehen, entdecken wir einen der wichtigsten Vorteile von MIMOSE: Die Haupteigenschaften auch eines ziemlich komplexen Modells lassen sich auf zwei Druckseiten niederschreiben — was einen schnellen Vergleich zwischen verwandten Modellen und die schnelle Entdeckung von Ähnlichkeiten und Unterschieden erlaubt.

Klaus G. Troitzsch

124

In der folgenden Erörterung benutzen wir das gleiche »C«-Programm wie vorher, jedoch in seiner Mikroversion. Hier ist die Ausgangsgröße der ersten Subpopulation 100, während alle späteren Subpopulationen ohne Mitglieder entstehen. Der in Abbildung 2 dargestellte Simulationslauf (der noch bis zum Zeitpunkt t = 18.600 weiterging) zeigt zunächst einen schnellen Anstieg der Größe der Gesamtpopulation, die sich in den ersten 600 Schritten nahezu verfünffacht und in den folgenden 600 Schritten auf das Siebenfache der Ausgangsgröße ansteigt.

О

20

40

ВО

во

too

120

1-Ю

160

180

200

220

240

260

2ВО

t o o . θ'

ЗОО Э20 340 38О ЗвО 400 420 4-«О 460 -*ва SOO 520 540 5вО 580 sun С_0 8 9 17 18 23 2в 42 -«в А = 0, P ^ = 0, Abbruch der Interaktion b) NZ = Α, PNZ β (e, 1] » NZ = A, PNZMU = min(PNZ + Paz · G1A, 1), AZ = A, PAZneu = min(PAz + P NZ · G1A, 1) PNZ = Pnzubi· PAZ = PAZJ*U> 1 = 1 + 1 I < G1 a =» zufällig eine neue NZ auswählen und je nach Gruppenzugehörigkeit der NZ weiter mit 2b), 2c) oder 2d) c) NZ = B, P NZ e (e, 1] -» TMPNZ = PNZ - Paz • G2A TMPaz = Ρλζ - PNZ · G2B TMPNZ > e =» NZ = B, PNZ = TMP NZ TMPNZ e [ - e , e] =» NZ = 0, P NZ = 0 TMPNZ < —e => NZ = A, PNZ = min(|TMP NZ |, 1) TMPAZ > e =» AZ = A, P ^ = T M P ^ , 1 = 1 + 1 I < G1 a => zufallig eine neue NZ auswählen und je nach Gruppenzugehörigkeit der NZ weiter mit 2b), 2c) oder 2d) TMPAZ e [ - e , e] =• AZ = 0, P ^ = 0, Abbruch der Interaktion TMPAZ < - e =» AZ = B, PAZ = min(ITMPaz|, 1). Abbruch der Interaktion

Theorie und Experiment — Simulatioasspiele zur Selbstorganisation 163 d) NZ = 0, P NZ = 0 => TMP = Ρλζ · G2A TMP > Б * N Z = A, PN2 = TMP, 1 = 1 + 1

I £ G1A =» zufällig eine neue NZ auswählen und je nach Gruppenzugehörigkeit der NZ weiter mit 2b), 2c) oder 2d) 3. AZ = B, Paz e (e, 1] -» Die Interaktion verläuft analog zu 2.

Literatur Axelrod, R. 1987: Die Evolution der Kooperation, [engl. 1984], München: Oldenbourg. Becker, K.-H./D6rfler, D. 31989: Dynamische Systeme und Fraktale, Braunschweig: Vieweg. Berlekamp, E.R./Conway, J.H./Guy, K. 1982: Winning Ways, [dt. 1985], Bd. 4. Bertalanfly, v.L. 1971: Generell System Theory, Harmondsworth, Penguin. Crutchfield, S./Shaw, R.S. u.a. 1987: Chaos, in: Spektrum der Wissenschaft, 2. Coleman, J.S. 1964: Introduction to Mathematical Sociology, London: Free Press. Coleman, J.S. 1989: Simulation Games and the Development of Social Theory, in: Simulation & Games, Journal of Theory, Design and Research, S. 144-164. Coleman, J.S. 1991: Grundlagen der Sozialtheorie Bd. 1, [amerik. 1990], München: Oldenbourg Dewdney, A.K. 1985: Wie man Populationsdynamik eines Ökosystems auf dem Computer simuliert, in: Spektrum der Wissenschaft, H. 2, S. 6-13. Eigen, M. 1987: Stufen zum Leben, München: Piper Eigen, M./Schuster, P. 1979: The Hypercycle. A Principle of Natural Self-Organisation, Berlin/Heidelberg/New York: Springer Eigen, M./Winkler, R. 1975: Das Spiel, München: Piper Gerhard, M. 1987: Mathematische Modellierung der Dynamik der heterogenen katalytischen Oxidation von Kohlenmonoxid, Diss. Universität Bielefeld Haken, H. 1977: Synergetics, Berlin/Heidelberg/New York: Springer Haken, H. 21991: Synergetik: Die Lehre vom Zusammenwirken, Frankfurt/M.: Ullstein Hardin, R. 1968: The Tragedy of the Commons, in: Science 162, S. 1243-1248. Hayes, B. 1989: Zelluläre Automaten, in: Spektrum der Wissenschaft, S. 178-185. Hobbes, Th. 1651: Leviathan oder Wesen, Form und Gewalt des kirchlichen und bürgerlichen Staates. Hopcroft, J.E. 1984: Turingmaschinen, in: Spektrum der Wissenschaft 7/84, S. 34-49. Jantsch, E. 1979: Die Selbstorganisation des Universums, München: Hansa. Klaus, G./Liebscher, H. 1974: Systeme, Informationen, Strategien, Berlin: VEB. Leipert, Ch. 1989: Die heimlichen Kosten des Fortschritts, Frankfurt/M.: Fischer.

164

Dorothea RumiaDek/Reinbard Samson

Lorenz, E.N. 1963: Deterministic Nonperiodic Flow, in: Journal of the Atmoeheric Sciences Science 20. S. 130-141. Moore, E.F. 1970: Machine Models or Self-Reproduction, in: Burks, A.W. (ed.), Essays in Cellular Automata, Urbana: University Press, S. 187-203. Nicolis, G./Prigogine, I. 1977: Self-Organization in Nonequilibrium Systems, New York: Wiley. Olson, Μ. 1968: Die Logik des kollektiven Handelns, Tübingen: Mohr. Parsons, Т. 1976: The System of Modern Society, [dt. 1972], München: Juventa Rumianek, D. 1988: Entscheidung und spontane Ordnung im Visier modelltheoretischer Konstruktion. Materialien zur sozial wissenschaftlichen Planung* und Entscheidungstheorie Nr. 13, Universität Bielefeld. Schelling, Th.C. 1960: The Strategy of Conflict, Cambridge Mass.: Harvard University Press. Schelling, Th.C. 1971: Dynamic Models of Segregation, in: Journal of Mathematical Sociology, Vol. 1, S. 143-186. Schüssler, R. 1990: Kooperation unter Egoisten, München: Oldenbourg. Schwegler, H. 1986: Die Protozelle: Ein Modell Шг die Selbsterhaltung der Organismen, Manuskript, Universität Bremen. Spencer, H. 1891: Essays: Scientific, Political, Speculative I., London. Troitzsch, K.G. 1990: Modellbildung und Simulation in den Sozialwissenschaften, München: Oldenburg. Turing, A.M. 1952: The Chemical Basis of Morphogenesis, in: Phil. Trans. Roy. Soc. В 234, S. 5-72. Vanberg, V. 1982: Markt und Organisation, Tübingen: Mohr. Varela, F. 1987: Autonomie und Autopoiesis, in: Schmidt, J.S. (Hg.), Der Diskurs des radikalen Konstruktivismus, Frankfurt/M.: Suhrkamp, S. 119-132. Varela, F./Maturana, H.R./Uribe, R. 1974: Autopoiesis: The Organization of Living Systems, in Biosystems 5, S. 187-196. Vester, F. 1983: Unsere Welt — ein vernetztes System, Stuttgart. Wiener, W. 1968: Kybernetik, Duisburg. Wolfram, St. 1984: Software Шг Mathematik und Naturwissenschaften, in Spektrum der Wissenschaft, S. 108-119. Zeleny, F./Pierre, N.A. 1975: Simulation Models of Autopoietic Systems.

Anatol Rapoport

Contributions of Experimental Games to Mathematical Sociology

Theodor Harder (1969) called attention to an effect that should be of prime interest to mathematical sociologists. In assessing the contributions of regressors to the target variables in regression analysis, ecological factors need to be taken into account. For instance, suppose we wish to know the contribution of being a Catholic to the likelihood of voting for the CSU (Christian Social Union in Germany). It turns out that if the density of Catholics in the region examined is low, the contribution is negative; that is the coefficient representing the regressor »Catholic« in a linear model is negative, whereas if the density of Catholics is high, the coefficient is positive. That this is not simply a reinforcement (imitation) effect is seen from the circumstances that workers are strongly likely to vote for their preferred party (Social Democrats) if they are either in extreme majority or in extreme minority than if they are in between. Analogous ecological effects can be derived theoretically in the context of conflict-cooperation situations. To what extent they will be observed empirically remains to be seen. An experimental approach to this question is being developed by some investigators interested in applying game-theoretic models on constructing theories of social behaviour. The basic instrument of such investigations is the now well known twoperson game called Prisoner's Dilemma. The structure of the game is shown in the following matrix.

C, D. Prisoner's

Dilenuna

The horizontal rows of the matrix represent strategies (choices) available to one player; the vertical columns to the other. A play of the game consists of a simultaneous choice by both players. Their choices determine one of the four cells of the matrix as the outcome of the game. The entries in each cell represent the payoffs (gains or losses) to the respective players. The first payoff is to player 1 (called Row), the second to player 2 (called (Column). The game is a Prisoner's Dilemma if the following inequalities hold:

166

Aaatol Rapoport Τ, > R, > Ρ, > S,

(i = l, 2)

In some contexts an additional condition is imposed: Ri + R 2 > T! + Sz = S, + T2. Prisoner's Dilemma attracted the attention of psychologists, sociologists, economists, and political scientists because of a paradox embodied in it. By all criteria of individual rationality, each player should choose D in preference to C. One such criterion is the sure thing or dominance principle. We note that because of the above inequalities, Row gets a larger payoff choosing D regardless of Column's choice. Similarly Column's better choice is D2. We say strategy D dominates startegy C. Another principle sometimes invoked in decisions where the outcome is influenced by events not under the control of the decision maker is called the maximin principle. Associated with each strategy is an outcome that awards the minimal payoff in that row (or column). The player using the maximin principle chooses the row (column) in which that minimal payoff is maximal (hence the term maximin). We note in Prisoner's Dilemma D is a maximin strategy. Finally the equilibrium principle prescribes choices of strategy that lead to an equilibrium outcome. This is the outcome represented by the lower right hand cell of the game matrix above. It is the only equilibrium in that game, so called because neither player is motivated to change his choice (assuming that the coplayer does not) so as to effect another outcome. It turns out, however, that the outcome DJD2, dictated by all three principles that appear to be »rational«, is worse for both players than outcome CtC2 (since Ri > Pi, i = 1, 2). Hence the dilemma. Prisoner's Dilemma illustrates the difference between individual and collective rationality. Individual rationality dictates the choice of D; collective rationality the choice of C. Several hundred experiments have been reported since the late 1950s in which subjects were invited to play Prisoner's Dilemma under a wide variety of conditions, which constituted the independent variables. Among these were numerical values of the payoffs, opportunities of communication between the players, strategies prescribed to one of the players (a confederate of the experimenter), number of iterations in sequential play, induced motivation (cooperative, competitive, individualistic), etc.. The basic dependent variable was the observed frequency of С (or D) responses, either unconditional or conditional on previous outcomes. The ease with which large masses of directly quantifiable data could be gathered permitted an accumulation of statistically stable results. The simplicity of the process in iterated play suggested mathematical models, the testing of which could serve as the basis of a theory. Prisoner's Dilemma is an abstract version of a widely observed social situation. The original anecdote, used to illustrate the game, concerned two prisoners suspected of crime, each trying to decide whether to confess (thus

Contributions of Experimental

Games

167

implicating the partner) or not. It turns out that confessing is advantageous regardless of whether the partner confesses or not. However, if both confess, both are convicted of a more serious crime than they could have been convicted if neither confessed. Thus, if both make use of the sure thing principle, both are worse off than if they had not. In another interpretation, the players are competing firms, each in position to undersell the other, whereby it is advantageous to do so whether the other attempts to do so or not. The attempt to undersell results in losses to both. Still another interpretation is in terms of an arms race in a polarized world where it seems advantageous to each power to increase its military potential whether the other does or not, but where the resulting arms race is damaging to both powers. Of particular interest to mathematical sociologist is an evolutionary version of Prisoner's Dilemma experiments, which brings out the two features of macroprocesses discussed by Harder (1969), namely, the dynamic aspects of such processes and the aggregation problems they engender. Prisoner's Dilemma experiments have been conducted in three principal formats, each bringing out a particular feature of the situation. The »one-shot« format involves a single play by a pair of subjects. This format permits the observation of spontaneous responses to the situation uninfluenced by experience. Iterated play involves a series of repeated choices usually with the outcome of each play revealed to the players. This format brings out the learning and interaction effects. It suppresses effects that could be ascribed to the personalities of the players, since in repeated plays the decisions of the two players tend to be strongly correlated. The third format involves a programmed player (a »stooge«), who uses a prescribed strategy, which becomes the independent variable. This format permits the study of a subject's behaviour in response to particular behaviour patterns of the co-player. In recent years a new format of Prisoner's Dilemma experiments has been added — the evolutionary format. Here the iterated game is played in a variable ecological milieu. A »player« in such an experiment is represented by a fixed strategy among a set of strategies available in an iterated game. A strategy in this sense is a plan of action projected in advance which specifies how the player will choose (C or D) on every trial in a sequence of plays, generally depending on the set of outcomes that preceded the choice in the question. The simplest of these strategies are independent of the sequence of preceding outcomes. For example, a strategy called ALL D is a strategy of this sort. It prescribes the choice of D on every play of the iterated game. Another such strategy is RANDOM, which prescibes the choice of С or D with the probabilities ρ and 1 - ρ respectively regardless of the sequnce of outcomes preceding the choice in the question. One of the simplest contingent strategies is the so called ΤΓΓ FOR TAT. It prescribes С on the first play and thereafter the same choice as the co-player's on the preceding play. Another contingent strategy migth be: »Starting with С (or D)

168

Anatol Rupoport

choose С if the proportion of С choices by the co-player preceding the trial in question is not less than 70 %; otherwise choose D.« Another is: »Choose С as long as the co-player chooses С on the preceding trial. Following the choice of D by the co-player, choose D on every trial thereafter.« An experiment with Prisoner's Dilemma in the format of a contest migth be conducted as follows. Each player (here a prescribed strategy) is paired sequentially with every other strategy in a population of such strategies. On each play of a sequence of η plays, each player receives a payoff of T, R, P, or S. The sum of the payoffs received in η plays constitutes the »score« attained by the strategy in a particular encounter. The sum of the scores so attained by a strategy in all the encounters of the round robin contest constitutes the programme's total score. A result of such an experiment would be a ranking of the strategies according to the total score received. The results of a contest of this sort were reported by R. Axelrod (1984). The »players« were computer programmes submitted by 14 persons. Each was matched with each other including itself. In addition RANDOM with ρ = 1/2 was included as a basis of comparison. Each pair of matched programmes played 200 iterations of Prisoner's Dilemma with the following payoff matrix: Q

D2

c,

3, 3

0, 5

D,

5, 0

1. 1

Payoff matrix of Prisoner's Dilemma used in Axelrod's experiments

The winner of this round robin contest was ΤΓΓ FOR TAT. A couple of years later another similar contest was arranged. The rules were almost identical except that the number of iterations was now a random variable. That is, the sequence could stop after any play with a fixed probability, whereby the mean number of iterations was 151. It is noteworthy that the announcement of the second contest was accompanied by information about the results of the first, namely, the description of every programme submitted and the score attained by each. TIT FOR TAT was among the entries to the second contest. It was submitted only by the person who submitted it the first time. It again attained the highest score. The most interesting result of these contests seems at first sight somewhat paradoxical. In none of the paired encounters did ΤΓΓ FOR TAT obtain a higher score than the programme it was paired with. Indeed, it can be easily seen that TIT FOR TAT cannot possibly obtain a higher score than its co-player, since the only outcome in which it gets a larger payoff is the one of that results from

Contributions of Experimental Games

169

the choice of D by TIT FOR TAT and of С by the co-player. This means that in a sequence of plays, ТГГ FOR TAT can attain a higher score only if it has played D more frequently than the co-player, which is impossible, since the only time when ТГГ FOR TAT can play D is after the co-player has played D. Nevertheless TIT FOR TAT attained the highest score in both contests. This happened because other programmes reduced each others' scores when matched with each other. This effect can be demonstrated by a simplified contest. Assume that a round robin contest takes place between just four programmes, namely, two TIT FOR TATs, one ALL D, and one ALL С (which plays С regardless of the co-player's choice). Matched with itself and with the other ТГГ FOR TAT, а ТГГ FOR TAT programme attains 600 points in each encounter. Matched with ALL D, it gets 199 points. Matched with ALL С it gets 600 points or 1999 points in all. ALL D gets 204 points when matched with each ТГГ FOR TAT, 200 points when matched with itself, and 1000 points when matched with ALL С or 1608 points in all. ALL С gets 600 points when matched with each TIT FOR TAT or with itself, and 0 points when matched with ALL D, that is, 1800 points in all. Note that TIT FOR TAT has won this contest. Moreover, ALL С got a higher total score than ALL D in spite of the fact that ALL С can never get a higher score when matched with any programme (since it cannot play more Ds than the other), while ALL D can never get a lower score than its co-player, since it never can play fewer Ds than the other! This is a simple illustration of a situation demonstrating a principle of interest in sociology, namely, that the value of a strategy may depend crucially on how many others are using the same strategy. Consider a person driving to work in the morning and getting information over the radio about where the traffic is heavy and where it is light. It seems rational to take the route where the traffic is light. But if every motorist makes for the uncrowded streets, these streets can soon become crowded, and the advantage is lost. In our simple round robin example, the population consisted of two ТГГ FOR TATs, an ALL D, and an ALL C. Had there been only one TIT FOR TAT or two ALL Cs, ALL D would have obtained the highest total score. That is, the results of the round robin depend on the composition of the population of contestants, on the »ecological setting«, so to say. The introduction of a dynamic naturally suggests itself, namely variation of the composition of the population resulting from the interactions in the encounters. Experiments with a build-in dynamic of this sort were reported by J. Maynard Smith and C.R. Price (1973). The experiments were simulations of encounters between pairs of animals of different types. A type was defined by the sort of strategy an animal used in fighting. Specifically, it could do three things. It could fight fiercely. This type of fighting was designated by D (for »dangerous«). It could fight with restraint (desigated by С for »conventional« fighting): Or it could retreat (R). Each encounter consisted of a series of »moves« used alternately by the »fighters«.

170

Anatol Rapoport

The following were five types of fighters, each characterized by a particular strategy in a sequence of encounters, i.e., by the mode of fighting in response to the mode chosen by the opponent. The mouse. This type of fighter never uses D. If the opponent uses D, the Mouse immediately retreats. Otherwise it uses С until the combat has lasted a fixed number of moves. The Hawk. This type always starts the combat with D, continues to use D until it is seriously injured or until the opponent retreats. The Bully. Starts with D, continues to use D in response to С (i.e., bullies the opponent who fights with restraint). Uses С when the opponent resorts to D. Retreats when the opponent uses D the second time. (Bullies pick on weaker opponents but are notorious cowards). The Retaliator. If making the first move, uses C. Thereafter uses С in responese to the opponent's C, D in response to the opponent's D. Retreats when the combat has lasted a preassigned number of moves. The Prober-Retaliator. If making the first move, uses C; likewise in response to opponent's С with high probability. »Probes«, i.e., uses D (with low probability) in response to opponent's C, provided the contest has not ended. After »probing« reverts to С if the opponent retaliates with D. However, if the opponent continues to use C, takes advantage of this by continuing to use D. After receiving a »probe«, uses D with high probability. Maynard Smith and Price used the following probabilites associated with the players' responses or outcomes of an encounter. Serious injury on any move was received with probability 0.10 if the opponent used D. The Prober-Retaliator probed on the first move or after the opponent played С with probability 0.05. The Retaliator and the Prober-Retaliator always retaliate with D against D. Finally the following payoffs were assigned to the outcomes. Payoff for »winning« the encounter (i.e., if the opponent retreats or is incapacitated by serious injury) was 60. Payoff for receiving serious injury was -100. Payoff for each D receiced if not seriously injured was -2. Payoff for saving time and energy (retreating without serious injury) varied from 0 (if the combat lasted preassigned number of moves) to 20 for very short combats. All of these parameters were incorporated into computer programmes, each programme representing oae of the behavioural types. Encounters between the members of a population, initially comsisting of equal proportions of the various types, were then arranged. The resulting scores were interpreted as relative reproduction potentials of the types that attained these scores. Thus, a type attaining a high score in an encounter would »reproduce« at a high rate, that is, a relative large number of copies of that type would be added to the population. If a player of a given type obtained a negative score, a number of individuals representing this type (depending on the size of »loss«) would be removed from the population. In this way the process simulated natural selection. The players were

Contributions of Experimental Games

171

characterized by differential fitness, operationally defined as relative reproductive success. The results of the simulation are shown in Table 1. Table 1:

Average payoffs in simulated intraspecißc combats for five different strategies (.after Maynard Smith and Price, 1973) Player from whom payoff was received Mouse

Hawk

Bully

Retaliator

Prober

Mouse

29.0

19.5

19.5

29.0

17.2

Contestant

Hawk

80.0

-19.5

74.6

-18.1

-18.9

received

Bully

80.0

4.9

41.5

11.9

11.2

payoff

Retaliator

29.0

-22.3

57.1

29.0

23.1

Prober

56.7

-20.1

59.4

26.9

21.9

We see from the table that the Retaliator strategy is best against itself, i.e., does as well or better when paired with another Retaliator strategy than any other. This is one criterion defining a so called »evolutionary stable strategy«, one that under a wide variety of conditions would in the process of natural selection be representative of almost the entire population. In other words, a population of animals represented by the strategies attributed to the various types would be likely to evolve into a population consisting almost exclusively of Retaliators. R. Axelrod embodied the same idea in similar simulation experiments, using several strategies submitted by the participants in the iterated Prisoner's Dilemma strategy contests. In five of our six experiments in which different compositions of strategies were used to represent the initial population, ΤΓΓ FOR TAT »won the struggle for existence«. That is, its reproductive advantage determined by the scores it attained in encounters with other strategies (including itself) allowed it to become the overwhelmingly predominant strategy in the population. The discrepancy between the poor performance of TIT FOR TAT compared with the strategies with which it is matched in one-to-one encounters and its excellent performance in the round robin contest can be interpreted as an illustration of the principle »in weakness there is strength«. Non-aggressiveness is an essential feature of ΤΓΓ FOR TAT. It retaliates against »aggression« (represented by the non-cooperative choice D) but never initiates »aggression«. That is, in addition to being provokable, it is »nice«. Moreover, it is »forgiving«. That is, when after a sequence of uncooperative plays the co-player resorts to cooperation (С), ΤΤΓ FOR TAT reciprocates immediately with C. Finally, ΤΓΓ FOR TAT is a simple strategy. The programme representing it contains only four lines of FORTRAN, whereas some of the strategies submitted in the two contests ran

172

Anatol Rapoport

well over 100 lines. This simplicity is believed to be responsible for the success of ΤΓΓ FOR TAT in experiments with iterated Prisoner's Dilemma with human subjects. ΤΓΓ FOR TAT elicited a large proportion of cooperative responses than any of the four programmes compared with it. A simple explanation suggests itself (Chammah 1969). The behaviour of TIT FOR TAT induces instrumental conditioning in the co-player. Following each choice of С, ΤΓΓ FOR TAT responds with C, which confers a larger payoff on the co-player than D, which always follows the choice of D by the co-player. Thus, the choice of С is reinforced and the choice of D inhibited. It is interesting to note that subjects playing against a programmed player using ТГГ FOR TAT were generally not aware of the strategy used by the »co-player«. That is, they failed to realize that the co-player was actually their mirror image. In other words, they must have learned to cooperate unconsciously. These findings and their interpretations are clearly of psychological interest. Of greater sociolocigal interest are the macroscopic aspects of processes of this sort, particularly the evolution of collective behaviour, which may have aspects different from those of individual behaviour. To see the difference, consider two ways in which the level of cooperation can change in a population. As we have seen, individual subjects learn to cooperate (choose C) when engaged in iterated Prisoner's Dilemma when their co-player uses ТГГ FOR TAT or a similar strategy — one that is nice, provokable, forgiving, and simple. However, the level of cooperation in a society can also change in another way: Suppose for simplicity every member of a society is either a »cooperator« or a »competitor«; that is, in iterated Prisoner's Dilemma he chooses invariably (or predominantly) С or D. Further suppose that on the basis of scores attained in iterated play, players of one or the other type are »cloned« or eliminated from the population. As the proportion of »cooperators« and »competitors« changes, the level of cooperation in the society will change, however, not because individuals learn to behave differently, but because they have differential »reproductive success«. (The reproduction need not be identified with biological procreation. It may represent entrace into or exit from some social stratum, some organization, or the like). Sociobiologists have made a number of attempts to explain some aspects of biological evolution in Darwinian terms, that is, by differential procreative success of individuals genetically characterized by particular behaviour patterns or predilections. Some of these attempts could be regarded successful, others less so. I believe that human cultures or societies can be changed by processes unrelated to genetic variation and natural selection. The evolution of some components of culture are naturally attributable to obviously non-biological forms of reproduction and selection. As an example, consider the evolution of artifacts. The »fossil record« of motor cars, telephones, weapons, and the like can be seen in any museum of technology. Their evolution bears a striking resemblance to the evolution of organisms, even to the extent of exhibiting vestigial parts. The early automobiles (»horseless carriages«) had even stands for whips. The passenger cars of

Contributions of Experimental Games

173

the 1920s and 1930s still had running boards, even though they were no longer necessary for getting into the car. And just before they completely disappeared, a narrow, completely useless strip was still seen below the door, a veritable »vestigial part«, like the silent letters of English spelling or the buttons on the cuffs of men's jackets, like our vermiform appendix. The evolution of artifacts, like the evolution of organisms, can be attributed to differential reproduction rates and to selection but not in biological terms. An artifact may be reproduced on the assembly line. Whether it will be reproduced and in what quantities depends on selection, that is, on the extent to which there is a demand for it in the market'. A most important analogue of reproduction in social settings is imitation, which, in turn, spreads by contagion-like processes. The similarity of suddenly spreading fads, crazes, etc. to epidemics is striking. In fact, mathematical models of contagion have been developed which describe both epidemics of diseases and of behavior patterns. Experiments have been proposed in which »ecological« determinants of cooperation in a population might be observed. Experiments whith competing strategies in iterated Prisoner's Dilemma games have shown that the success of a strategy can depend crucially on the composition of the population of strategies. We have already shown by a simple example how the success of ΤΓΓ FOR TAT depends on the proportion of TIT FOR TAT programmes in the population. Similarly, it can be shown that the success of an »exploitative« strategy, e.g., ALL D, depends crucially on the proportion of »mouse-like« (ALL C) or »hawk-like« (ALL D) strategies in the population. These findings are valid even if the players are pre-designed computer programmes rather than human subjects. With human subjects other even more interesting effects could be observed. For example, the evolution of cooperation may depend on the spread of an impression that the proportion of cooperators in a population is growing. Such an observation would illustrate the well known self-confirming assumption. This conjecture suggests the following experimental format. Let η subjects produce choices in a sequence of Prisoner's Dilemma plays, whereby the coplayer of each subject varies from play to play. For instance, each subject plays in turn against every other subject as in a round robin. Before each play the subject gets information about the choices of his current co-player on the preceding plays. It is natural to hypothesize that the tendency of a subject to choose С will vary with the current co-player's record. The greater the proportion of C-choices in the co-player's performance on the previous plays, the more readiness we can expect in the subject reading that record to choose C. Hence the dynamics may be governed by a positive feedback. The greater level of coopera-

1)

The following item appeared in the Toronto »Globe and Mail« January 28, 1991: Teddy bears evolve as toy stores observe which models sell best, say British biologists. The original teddy had a low forehaed and a long snout; the trend, except for the Pooh Bear model, is toward bears with larger foreheads and smaller noses.

174

Anatol Rapoport

tion at a given stage of the sequence, the more cooperation we can expect in the following plays and vice versa. In other words, the system would exhibit instability. Such an instability could also be induced. For example, the subjects need not to be fed correct information about their current co-player's record. They could be induced to believe either that their co-player as strongly inclined to cooperate or, on the contrary, not to cooperate. In this way, self-confirming assumptions could be demonstrated. Prisoner's Dilemma is by all counts the game most frequently used to demonstrate propensities to cooperate or not to cooperate under a variety of conditions. There are, however, many equally interesting games that could admirably serve as instruments in experimental sociology. (I make the distinction between psychological and sociological investigations to the extent that the mental states and behaviour of individuals are of prime interest in the former, while the analogues of »mental states« and overt behaviour of an entire population is a principal object of investigation in the latter.) A close relative of Prisoner's Dilemma is the game called Chicken. Its game matrix differs from that of Prisoner's Dilemma in that the payoffs to the four cells of the game matrix satisfy the inequalities Τ > R > S > P. Whereas in Prisoner's Dilemma it is individually advantageous to choose D regardless of how the co-player chooses, in Chicken, it is individually rational to choose D if the co-player chooses C, but С if the co-player chooses D. In this game intimidation can play an important part. If somehow the co-player can be made to believe that one is determined to choose D, it is likely that he will »give in« and choose С rather than suffer the severe punishment associated with the outcome D,D 2 . The Doomsday machine, which blows up the world if activated by an act of aggression by either side in a bipolarized world is modeled by the game of Chicken. Chicken can be used to test the effects of contagion, by observing the effects of the co-player's »reputation« as assessed by his previous record, in the same way as Prisoner's Dilemma. The results can be compared and both differences and similarities related to the structures of the two games. Both Prisoner's Dilemma and Chicken are models of situations in which the exercise of »local rationality« leads to »global irrationality«. Another game of this sort is the Largest Number Game. Its structure differs from those of Chicken and Prisoner's Dilemma in that if the number of players exceeds 2 it has no individually rational solution. It has only a collectively rational solution, and yet, cooperation in this game has been shown to be extremely difficult to achieve, especially if the number of players is large. In the Largest Number game, each of η players is asked to name a whole positive number. The player naming the largest number wins a prize — an amount of money which is divided by the number he has named. In case of ties, the prize is to be equally divided among the players who have named the largest number.

Contributions of Experimental Games

175

The amount of money to be devided by the number named can be very large even if the experimenter has only a modest budget at his/her disposal. Some years ago the readers of »Scientific American« were invited to participate in a lottery essentially equivalent to the Largest Number Game, in which the prize was $ 1,000,000. As the inventor of the lottery assured the publishers of »Scientific American«, they would not have to pay out anything, and so they didn't. I have performed the experiment with the Largest Number Game with groups of subjects ranging from 8 to 12, where the prize offered was $ 1,000 Canadian (divided by the largest number named). The largest number of money I ever had to pay was $ 10. (cf. Hofstadter 1985: 758-760; Rapoport 1988). That this game has no individually rational solution (i.e., no equilibrium) can be easily seen. Assume the game is played by two players. Then it appears that it is always more advantagious to name N + 1 than N for all N > 1. For let $ P/N be the amount to be won if one names N as the number. Then if both name N, each wins $ P/2N. But if one names N + 1, while the other names N, one wins $ P/(N +1), which is more than $ P/2N, for N > 1, if N = 1, P/(N + 1) - P/2N. Neverthelesss N = 2 weakly dominates N = 1, since it the co-player names 2. N = 1 wins nothing, while if the other names N = 1, one wins at least as much (P/2) with N = 2 as with N = 1. It follows that the »optimal« N has no upper bound. On the other hand, it is easily seen that N = 1 is collectively rational, since it maximizes the prize to be divided among the η players. A dynamic can be introduced into the Largest Number game by having η subjects play an iterated game. One could begin the play by instructing the subjects to name Ν = 1 on the first round, thus receiving P/n each. It would be interesting to observe how long a tacit »coalition« would last before some one is tempted to defect by choosing 2 and, assuming he is the only one, getting P/2 instead of P/n. One would surmise that such a defection would lead immediately to the break up of the coalition to every one's loss. Alternately, one could introduce controlled feedback »informing« the players of the others' choices and manipulating the information in one direction or the other to watch either the break-up or, perhaps, the restoration of the coalition. As our final example, consider the Benevolence-Trust Game, illustrated by the following payoff matrix: τ

D

В

1. 5

1. 5

Μ

1, 0

1. 1

B: benevolence; M: malevolenoe; T: trust; D: distrust

Benevolence-Malevolence Game

176

Anatol Rapoport

Note that Row's payoff is not effected by his choice. He gets a payoff of 1 whether he chooses В or M. However, Row can, without cost to himself, cause Column to get 5 instead of at most 1 by choosing B. Looking at the game from Column's point of view, we see that his strategy D weakly dominates strategy Τ in the sense that D yields at least as large a payoff as Τ and possibly larger. From the point of view of individual rationality, therefore, D is Column's optimal choice. Can Column's choice Τ be defended? It can. Note that by choosing B, Row can be said to be acting benevolently toward Column. Thus, in a population of subjects, the proportion of B-choices is a measure of its »level of benevolence«. By choosing T, Column demonstrates to Row that he trusts him to act »benevolently«. Indeed, if Row is not »benevolent«, Column's trust is betrayed, since he could have got 1 instead of 0, if he did not trust Row. Therefore the »level of benevolence« in the population is, in a way, a measure of the extent to which Column's trust can be justified. An interesting question arises to what extent Column's trust tends to induce Row to be benevolent. We are speaking, of course, of »generalized« Row and Column players, i.e., composites of the individuals comprising our subject population. As in the case of the other games, the situation modeled by the BenevolenceTrust game can be manipulated by feedback information. For example, information can be fed back to the subjects to make it appear that the more trust is demonstrated by Column, the more (or less) likely is benevolent behaviour on the part of Row or vice versa. In sum, simple experimental games can be used to investigate dynamics of psychologically rich social situations, in which ecological factors influence the problem of aggregating »micropsyetiological« into »macopsyetiological« indices.

References Axelrod, R., 1984: The Evolution of Cooperation, New York, Basic Books Chammah, A.M., 1969: Sex Differences, Strategy, and Communication in Mixed-Motive Games. University of Michigan (Unpublished Ph.D. Diss.) Harder, Т., 1969: Multiple-Level Regression Analysis of Survey and Ecological Data, Social Science Information, 8 (S), pp. 43-67 Hofstadter, D.R., 198S: Metamagical Themas, New York, Basic Books Maynard Smith, J./Price, C.R., 1973: The Logic of Animal Conflict, Nature, No. 246, pp. 15-18 Rapoport, Α., 1988: Experiment with Social Traps I. Prisoner's Dilemma, Weak Prisoner's Dilemma, Volunteer's Dilemma, and Largest Number, Journal of Conflict Resolution, 32 (3), pp. 547-472

Andreas Diekmann

Soziale Dilemmata Modelle, Typisierungen und empirische Resultate*

1.

Soziale Dilemmata

Wer in einer Paniksituation, z.B. bei einem Feuer im Kino, zum Ausgang eilt, wird auf zahlreiche Menschen mit dem gleichen Motiv, sich in Sicherheit zu bringen, stoßen, wodurch letztlich allen der Ausgang versperrt ist. Sozialpsychologen haben derartige Situationen in einem einfachen Versuch simuliert. In einer Flasche befindet sich eine Anzahl von Metallplättchen, an denen je ein Faden befestigt ist, der aus dem Flaschenhals hinausführt. Nur jeweils ein Plättchen paBt zur gleichen Zeit durch die Öffnung. Erklärt man nun z.B. acht Versuchspersonen, daß der erste, der ein Plättchen herauszieht, 80 DM erhält, der zweite 70 DM usf., so weist die Situation nach dem »Startschuß« alle Merkmale einer Panik auf. Führt man ferner die Regel ein, daß die Entscheidungszeit sehr kurz ist — sagen wir eine Minute — so wird man des öfteren feststellen, daß alle Versuchspersonen leer ausgehen. Dieses Experiment, nach einer Idee von Mintz aus dem Jahr 1951, ist keineswegs trivial. »Soziale Fallen« (Platt 1973) mit ähnlicher Struktur finden wir auf der Ebene kleiner Gruppen ebenso wie auf der Makroebene der Weltgesellschaft mit den einzelnen Nationen als handelnde Akteure. Beispiele wie das Wettrüsten, der Walfang verschiedener Länder weit jenseits der das Gleichgewicht sichernden Reproduktionsrate, generell die Ausbeutung knapper Ressourcen, Umweltverschmutzung, aber auch der Wasserverbrauch in einem Mietshaus mit gemeinsamem Zähler mögen dies illustrieren. So verschieden die gewählten Beispiele und auch deren Strukturen sein mögen, so ist ihnen doch eines gemeinsam: in allen Fällen existiert keine »unsichtbare Hand«, die ä la Adam Smith individuelle Interessen und kollektive Folgen zur Übereinstimmung bringt. Während in der Perspektive der klassischen Ökonomie individuelle Handlungen und kollektive Ziele durch die »unsichtbare Hand« des Marktes harmonisiert werden, zeichnen sich »soziale Dilemmata« (Dawes 1975)

*)

Die Abschnitte 1,2 und 4-6 sind in überarbeiteter Form dem Aufsatz Diekmann (1985a) entnommen. Teil 3 ist eine ergänzte Fassung eines Abschnitts aus dem Forschungsantrag Diekmann und Rapoport (1988). Die in Abschnitt 7 diskutierten experimentellen Untersuchungen wurden durch die Deutsche Forschungsgemeinschaft (DFG) gefördert.

1)

In dem Original-Experiment handelte es sich um Gruppen von 15-21 Personen, die relativ geringe Beträge (bis 25 cents) erhielten. Siehe Mintz 1951. Zu einer Theorie »sozialer Fallen« siehe auch Platt 1973.

178

Andreas Diekmann

durch ein Spannungsverhältnis zwischen individueller und kollektiver Rationalität aus. »Soziale Dilemmata« sind definierbar als Interaktionsstrukturen, bei denen die individuell-rationalen Handlungen von zwei oder mehreren Akteuren zu kollektiv suboptimalen Ergebnissen führen. Aufierdem lehren die Beispiele, daB es ein — leider weitverbreiteter Kurzschluß wäre — von den sichtbaren Folgen auf die unsichtbaren Motive der Handelnden zu schließen. Interdependentes Handeln kann zum Gegenteil des ursprünglich Beabsichtigten führen, das gerade ist der Kern der sozialen Paradoxien. In den verschiedenen Disziplinen der Sozialwissenschaften hat der Kerngedanke der Dilemma-Forschung bereits eine längere Tradition. Soziologen sprechen von (unerwünschten) nicht-intendierten Handlungsfolgen (Merton 1936), »paradoxen Effekten« (Boudon 1977) oder von »Mikro-Motiven und Makroverhalten« (Schelling 1978), Ökonomen von »Marktversagen« oder »Kollektivgutproblematik« (Olson 1965) und Sozialpsychologen von »sozialen Fallen« (Platt 1973) und »sozialen Dilemmata« (Dawes 1975). Auch in der Geschichte der Philosophie und besonders der Philosophie der Geschichte ist dieser Gedanke keineswegs neu. Thomas Hobbes, Kant, Hegel, Marx sind nur einige berühmte Namen. Dem Marxismus zufolge produziert die Bourgeoisie ihren eigenen Totengräber, das Proletariat, und handelt damit letztlich gegen ihre eigenen Interessen.2 Und Friedrich Engels schreibt in einem Brief an Bloch aus dem Jahre 1890 sehr deutlich, daß die Geschichte als »Endresultat stets aus den Konflikten vieler Einzelwillen hervorgeht...«, wobei Engels betont: »Denn was jeder einzelne will, wird von jedem anderen verhindert, und was herauskommt, ist etwas, das keiner gewollt hat.«3

2.

Dilemmata mit positiven und negativen Extemalitäten

Die genaue formale Analyse von Situationen interdependenter Handlungen ist das zentrale Thema der Spieltheorie. Sie leistet damit mehrere Aufgaben: Erstens werden Denkmodelle zum Studium von Konfliktsituationen zur Verfügung gestellt. Damit ist es möglich, unterschiedliche Handlungsstrukturen zu klassifizieren. Zweitens erleichtert sie die Suche nach optimalen Strategien, drittens können Sozialpsychologen im Rahmen der experimentellen Spieltheorie studieren, wie sich Menschen in genau definierten Konfliktsituationen tatsächlich verhalten und viertens stellt die Spieltheorie zumindest ein heuristisches Potential zur Stimulierung der Theorieentwicklung in den Sozial Wissenschaften dar.

2)

So die Theorie. Mittlerweile wurde der »Totengräber« andernorts aktiv, während sich die Bourgeoisie noch guter Gesundheit erfreute.

3)

Engels 1966, S. 227. Sehr viel prägnanter wurde das Problem nicht-intendieiter Konsequenzen individueller Handlungen vor Engels und Merton von Wilhelm Busch formuliert: »Und auch hier wie überhaupt, kommt es anders als man glaubt!«

Soziale Dilemmata

179

Eine Typologie sozialer Strukturen nach spieltheoretischen Kriterien ist keine bloße »Spielerei«, sondern auch von theoretischem und praktischem Interesse. So ist es hinsichtlich der sozialen Folgen ein essentieller Unterschied, ob z.B. eine politische oder soziale Struktur durch die Merkmale eines Gefangenendilemmas, eines »Chicken-Spiels«, eines Koordinationsspiels oder eines »Freiwilligendilemmas« (dazu weiter unten) gekennzeichnet ist. Auch verweist die Spieltheorie auf Auswege aus sozialen Dilemmata, indem sie strukturelle Bedingungen nennt, durch deren Veränderung eine Entschärfung eines sozialen Dilemmas erzielt werden kann. In spieltheoretischen Termini sind zahlreiche, aber keineswegs alle sozialen Dilemmata (dazu weiter unten) durch zwei Prinzipien charakterisierbar (Dawes 1975): — Die handelnden Personen haben eine (im Sinne der Spieltheorie) nichtkooperative dominierende Strategie, — und der Schnittpunkt der dominierenden Strategien stellt ein sub-optimales Gleichgewicht dar.4 D.h. gleichgültig wie viele andere Personen sozial (oder kooperativ) handeln, immer ist es individuell rational, die nicht-kooperative Strategie zu wählen. Da jedoch diese Überlegung für alle Personen gilt, wird das Ergebnis ein (nicht Pareto-optimales) Gleichgewicht sein, das für alle Personen unbefriedigender ist als das Resultat gemeinsamer Kooperation. Das Musterbeispiel für eine derartig charakterisierte Konfliktsituation ist das bekannte und in hunderten von sozialpsychologischen Experimenten erforschte Gefangenendilemma-Spiel.5 Soziale oder kooperative Entscheidungen sind immer positive Exteraalitäten für die Mitspieler. Von einer Beitragsleistung oder der Unterlassung einer Umweltverschmutzung profitieren immer auch die übrigen beteiligten Personen. Anders ausgedrückt ist eine kooperative Entscheidung als Beteiligung an der Produktion eines Kollektivguts (bzw. der Nicht-Beteiligung an einem »kollektiven Übel«) anzusehen, von dessen Gebrauch defmitionsgemäß keiner der kooperativ oder auch unkooperativ handelnden Mitspieler ausgeschlossen ist. Ein hohes Kooperationsniveau, d.h. ein geringer Grad an Umweltverschmutzung, eine hohe Effektivität einer Organisation usf. kann in diesem Rahmen gleichgesetzt werden mit einem hohen Ausmaß der Versorgung mit kollektiven Gütern. Die oben erwähnten Beispiele zeigen, daß die kooperative Entscheidung sowohl in einer bestimmten Handlung (Beitritt zu einer sozialen Bewegung, die ein kollektives Gut produziert)

4)

Eine grundlegende Einführung in die Spieltheorie findet man z.B. in dem klassischen Lehrbuch von Luce und RaifTa (19S7). Einen kurzen Überblick vermittelt Rapoport (1980).

5)

Es wäre eine eigene, umfassende Arbeit, die Lehren aus den experimentellen Spielen einer kritischen Würdigung zu unterziehen. Allein die Bibliographie der bisher durchgeführten Experimente zum Gefangenendilemma umfaflt hunderte von Titeln. So hat man z.B. Männer gegen Frauen spielen lassen, oder Angehörige verschiedener Kulturen gegeneinander, allein oder in Gruppen, einmalig und wiederholt, mit und ohne Kommunikation usw. Eine Bibliographie der Experimente wurde von Guyer und Perkel (1972) zusammengestellt.

180

Andreas Diekmann

als auch im Unterlassen einer Handlung (RohstofTausbeutung in einer »Tragedyof-the-Commons-Situation« (Hardin 1968), Umweltverschmutzung, Überbelastung des Stromnetzes, »Tempo 100« etc.) gesehen werden kann. Experimentelle Spiele für beide Situationen wurden von Hamburger (1973) vorgeschlagen. Bei dem ersteren Spiel handelt es sich um ein N-Personen-Gefangenendilemma, ein Beitragsleistungsspiel für ein kollektives Gut mit dem Namen »deterministic give-some-game«. Hier kann jeder Spieler eine positive Zahl nennen (seinen Beitrag). Der Wert einer streng monotonen Funktion von S, der Summe aller individuellen Beiträge, abzüglich des vom Spieler i geleisteten Beitrags ist dann der Auszahlungsbetrag an den Akteur i. Der Konflikt ist offensichtlich. Jeder Spieler möchte von den Beiträgen der anderen Personen profitieren, selbst aber möglichst als »Freerider« keinen Beitrag leisten. Die soziale Leistung ist bei diesem Spiel eine Handlung, die als positive Externalität für die Mitbeteiligten aufgefaßt werden kann.6 Bei dem zweiten Spiel, dem »probabilistic take-some-game«, besteht genau umgekehrt die soziale Reaktion im Unterlassen einer Aktivität. Jeder Spieler nennt hierbei ebenfalls eine positive Zahl aus einer bestimmten Menge von Zahlen. Die Summe S wird sodann mit einer zufallsgenerierten Zahl L verglichen (wobei den Spielern nur die Wahrscheinlichkeitsverteilung von L, nicht aber der genaue Wert bekannt ist). Nur wenn S kleiner oder gleich L ist, erhält jeder Spieler Auszahlungseinheiten in Höhe der von ihm genannten Zahl, andernfalls gehen alle Spieler leer aus. Jeder Spieler hat natürlich ein individuelles Interesse daran, eine möglichst hohe Zahl zu nennen. Folgen jedoch alle Spieler dieser Überlegung, so ist die Wahrscheinlichkeit hoch, daß keiner der Beteiligten etwas bekommt. In einer ähnlichen Situation befinden sich die Energieverbraucher bei einem überlasteten Stromnetz. Die Handlungen (Nennen einer hohen Zahl, hoher Stromverbrauch) stellen negative Externalitäten für die anderen Personen dar. Die Logik beider Spiele ist von Hamburger (1973) genauer untersucht worden. Es erwies sich, daß beide Spiele als bestimmte Verallgemeinerungen des Gefangenendilemmas bzw. Gefangenendilemma-ähnlicher Spiele angesehen werden können.

6)

Die Auszahlungsfunktion lautet gemäß Hamburger (1973) A(i) = v(S) — s(i), wobei s(i) die von i genannte Zahl und S die Summe aller genannten Zahlen ist. v(S) ist nach Hamburger eine strikt monotone Funktion von S. Man muB jedoch noch eine weitere Bedingung hinzufügen, damit das nicht-kooperative Verhalten zu einer dominanten Strategie wird. Werden die folgenden Bezeichnungen eingeführt: S* = S — a, s*(i) = s(i) — a und A*(i) = v(S*) — s*(i), so soll gelten: A*(i) > A(i). D.h. bei einer Verringerung des Beitrages um den Wert a und unverändertem Kooperationsniveau der Mitspieler soll sich die Auszahlung an i vergrößern. Z.B. ist v(S) = 2S hierfür ein Gegenbeispiel, d.h. in diesem Fall wird die Bedingung einer dominanten nicht-kooperativen Strategie nicht erfüllt. Dürfen die positiven Externalitäten v(S) auf der einen Seite nicht zu groß werden, so dürfen sie auf der anderen Seite auch nicht zu klein sein. Eine weitere Bedingung muß hinzukommen, die garantiert, daß das resultierende Gleichgewicht suboptimal ist. Ist v(S) nämlich extrem gering, so kann es passieren, daß das unkooperative Gleichgewicht S = 0 ein Optimum darstellt. Bei linearer Funktion v(S) = aS + β z.B. lauten beide Bedingungen: 1 > α > 1/N wobei N die Zahl der Beteiligten ist.

Soziale

Dilemmata

181

Während die Spieltheorie Modelle zur Verfügung stellt, um die logische Struktur einer Konfliktsituation zu erhellen, ist es Aufgabe der experimentellen Sozialpsychologie, zu erforschen, wie sich Personen bei variierenden Struktur- und Persönlichkeitsmerkmalen tatsächlich in Konfliktsituationen der beschriebenen Art verhalten. Als dritte Disziplin, die sich mit dem Problem individuell-kollektiver Konflikte befaßt, ist die in der Ökonomie verwurzelte Forschungsrichtung zum Thema »Theorien kollektiver Güter« zu nennen. Alle drei Disziplinen profitieren in hohem Maße voneinander. Ihnen gemeinsam ist, daß sie kollektive Resultate auf der Basis individueller Verhaltensmaximen und bestimmter Annahmen über die Struktur der Situation zu erklären versuchen. Scheinbar unterschiedliche Probleme in verschiedenen Sozialwissenschaften werden dadurch aus einem einheitlichen Blickwinkel und manchmal in einem überraschend neuen Licht gesehen. So ist z.B. Olsons (1965) Theorie kollektiver Güter auf die Erklärung des Organisationsgrades von Gewerkschaften in verschiedenen Ländern, die Erklärung des Erfolgs von Automobilclubs wie dem ADAC oder auch auf das Marxsche Problem der Entstehung von KlassenbewuBtsein anwendbar. »Beitragsspiele« korrespondieren eher mit Kollektivgutproblemen, wie sie von Olson untersucht wurden. Ressourcenentnahmespiele (take-some-games) entsprechen dagegen Allmende- oder »Commons-Dilemma«-Situationen. Wir diskutieren zunächst einige Beispiele sowie eine Reihe empirischer Resultate zur Problematik von Commons-Dilemma-Situationen. Anschließend betrachten wir den Zusammenhang zwischen Olsons Theorie kollektiver Güter und dem N-Personen-Gefangenendilemma-Spiel. Es sei aber darauf hingewiesen, daß weder Beitragsspiele zur Herstellung von Kollektivgütern noch Ressourcenentnahmeprobleme notwendigerweise exakt dem Spieltyp eines Gefangenendilemmas entsprechen müssen. Insbesondere sind soziale Dilemmata von Beitragssituationen denkbar, in denen keine dominierende Strategie existiert (siehe auch Liebrand 1983, Taylor 1987, Diekmann 1985). Derartige Situationen werden in Abschnitt 5, ein korrespondierendes spieltheoretisches Modell wird in Abschnitt 6 diskutiert. Abschließend werden neuere experimentelle Ergebnisse zur Hypothese von Gruppengrößeneffekten auf das Kooperationsniveau präsentiert. Hierbei zeigt sich, daß im (einmaligen) Gefangenendilemma das Kooperationsniveau keineswegs negativ mit der Gruppengröße korreliert sein muß.

3.

Das »Commons-Dilemma«: Ressourcenmanagementprobleme

Bei ungeregelten Zugriffschancen einer Mehrzahl von Personen auf knappe Ressourcen ist mit hoher Wahrscheinlichkeit zu beobachten, daß die Ressourcen suboptimal nachgefragt werden und häufig nach kurzer Zeit erschöpft sind. Dieses »Commons-dilemma« wurde von G. Hardin (1968) in einem einflußreichen Artikel am Beispiel des Verfalls des gemeinsamen Weidelandes (»The Commons«) in den Neuenglandstaaten illustriert. Für jeden einzelnen Farmer war es in der von Hardin beschriebenen Situation individuell rational, die Zahl der eigenen

182

Andreas Diekmann

Rinder auf dem gemeinsamen Weideland zu erhöhen. Dadurch jedoch, daß alle Farmer diese Strategie verfolgten, wurde die Allmende durch überextensive Nutzung ruiniert. Das Commons-Dilemma (Allmende-Problem, Ressourcenmanagementproblem) ist je nach den vorliegenden strukturellen Bedingungen (nicht-erneuerbare versus erneuerbare oder wachsende Ressourcen, PreisKosten-Relationen der Ressourcennutzung u.a.m) als einmaliges oder wiederholtes (iteratives) N-Personen-Dilemma-Spiel, nicht notwendigerweise aber als Gefangenendilemma, konzeptualisierbar. In der Regel existiert eine kollektiv optimale (pareto-optimale) Bewirtschaftungsstrategie. Die einzelnen Akteure haben jedoch den Anreiz, von dieser Strategie individuell abzuweichen, um »Sondervorteile« zu erzielen. Gewissermaßen schnappt die »soziale Falle« zu, wenn alle Beteiligten dieser Logik folgen und dadurch ein kollektiv suboptimaler Zustand erreicht wird. Eine Vielzahl von Problemen der realen Welt entspricht der Struktur nach dem Commons-Dilemma-Typ. So etwa der Fischfang in den Weltmeeren, die Beinahe-Ausrottung verschiedener Walarten, die Ausbeutung knapper Bodenschätze, Belastungen der Umwelt oder die kollektive Nutzung eines Universitäts-Kopiergeräts durch die Angehörigen verschiedener Lehrstühle. Eine auf den ersten Blick naheliegende Lösung des Commons-Dilemmas erscheint die Privatisierung der Ressourcen zu sein. So wurde auch verschiedentlich beobachtet, daß historisch in Situationen des Commons-Dilemmas Eigentumsrechte entstehen können (Demsetz 1967). Dieser Ausweg verbietet sich allerdings, wenn die direkten und indirekten Kosten der Privatisierung relativ hoch sind. Zum anderen ist die Privatisierung von Ressourcen keine Garantie für die Konservierung und Pflege von Ressourcen. Auch bei privatem Management ist die Gefahr der ruinösen Ausbeutung von Ressourcen gegeben, wenn die Wachstumsrate der Ressourcenerträge geringer ist als der Zinssatz auf Kapitalanlagen (siehe z.B. Clark 1974). Neben der Möglichkeit der Privatisierung oder »Territorialisierung« existieren eine Reihe von strukturellen Faktoren, die kooperatives Verhalten in CommonsDilemma-Situationen beeinflussen (siehe z.B. die Aufsätze in Hardin und Baden 1977 sowie die Überblicke von Orbell und Dawes 1981, Messick und Brewer 1983). Eine Ressourcenbewirtschaftung ist dabei umso kooperativer, je größer die Übereinstimmung des individuellen Verhaltens mit der kollektiv optimalen Strategie ist. Zu den strukturellen Variablen zählen: Die Kosten der Ressourcenausbeute, beeinflußt von Technologien wie z.B. Fischfang- oder Jagdmethoden, sowie der Preis und die Wachstumsrate der Ressourcen. Diese Komponenten kommen im spieltheoretischen Modell in der Auszahlungsmatrix zur Geltung. Von Bedeutung ist ferner die Anzahl von Personen mit Zugriffsmöglichkeiten auf den Ressourcenpool, d.h. die Gruppengröße, die Möglichkeit der Kommunikation zwischen den Beteiligten, die Möglichkeit, bindende Verträge abzuschließen, das Ausmaß der Information (über die Natur des Dilemmas, den Stand der Ressourcen, über optimale Strategien und das Verhalten der Mitspieler) sowie die Spieldynamik, d.h. die Strategien der Mitspieler in iterativen Dilemma-Situationen. Über diese »strukturellen« Faktoren hinaus kann das Ausmaß der Kooperation von kulturellen Normen über faire und gerechte Ressourcennut-

Soziale Dilemmata

183

zung, von moralischen Aufrufen und von persönlichen Merkmalen, etwa der kognitiven Einsicht in die Situation oder Erfahrungen mit ähnlichen DilemmaSituationen, abhängen. Das zentrale Forschungsproblem empirischer Studien zum Commons-Dilemma ist die Frage, in welcher Weise und in welchem Ausmaß diese Faktoren kooperatives Verhalten in Commons-Dilemma-Situationen beeinflussen. Antworten auf die Frage nach den Bedingungen kooperativen Verhaltens können sowohl historische und zeitgenössische Fallstudien als auch experimentelle Untersuchungen liefern. Fallstudien haben gegenüber Experimenten natürlich den Vorteil größerer Realitätsnähe und externer Validität, während Experimente den Vorzug der Manipulierbarkeit der unabhängigen Variablen nach den theoretischen Vorstellungen des Forschers aufweisen. Beide Kategorien von Forschungen können einander auf diesem Gebiet ergänzen. Fallstudien in der »Property-Rights«-Tradition beschreiben die Entstehung von Eigentumsrechten in Commons-Dilemma-Situationen in Abhängigkeit von den Privatisierungskosten (Demsetz 1967; Andersen und Hill 1975). Wilson (1977) vergleicht den Effekt geregelter Ressourcenbewirtschaftung anhand der Fangquoten von Hummern in kontrollierten und nicht-kontrollierten Gewässern. Es zeigte sich, daß die zugangs-kontrollierten Küstenabschnitte sowohl bezüglich des Einkommens der Fischer als auch bezüglich der Ressourcenbewahrung günstiger abschnitten als die unkontrollierten Gewässer. Bullock und Baden (1977) untersuchen Commons-Dilemma-Probleme bei zwei religiösen Gemeinschaften. Mißerfolge der Mormonen bei der Einrichtung eines kollektiven Fonds (zu Beginn des 19. Jahrhunderts) im Gegensatz zur erfolgreichen Bewirtschaftung von Ressourcen durch die Hutterer werden auf strukturelle Unterschiede der jeweils gewählten, institutionellen Regelungen zurückgeführt. So ist es bei den Hutterern üblich, die Gemeinschaft ab einer bestimmten zahlenmäßigen Größe aufzuteilen und Tochterkolonien zu bilden. Auf diese Weise wurde der Faktor Gruppengröße, eine vermutlich wichtige Determinante kooperativen Verhaltens, durch institutionalisierte Regelungen kontrolliert. Experimentelle Untersuchungen des Commons-Dilemmas orientierten sich zum einen am einmaligen N-Personen-Gefangenendilemma (Colman 1982: 158 pp, 178 pp). Diese Studien erfassen jedoch nicht die für das CommonsDilemma charakteristische Dynamik des Spielverlaufs. Mit den Ressourcenmanagementspielen (Brechner 1977; Cass und Edney 1978; Edney und Harper 1978a,b; Jorgenson und Papciak 1981: Messick u.a. 1983; Knapp 1986; Popp 1988; Rapoport 1988b) auf der anderen Seite wird besonders dem iterativen Aspekt von Commons-Dilemma-Situationen Rechnung getragen. Typisch für diese Experimente ist das folgende Design: N Personen nehmen an einem Spiel über mehrere Runden teil, wobei in jeder Runde Punkte aus einem »Topf« (dem Ressourcenpool) angefordert werden können. Die jeweils im Pool verbleibenden Ressourcen wachsen mit einer bestimmten, vorgegebenen Rate. Die Ressourcen sind erschöpft, wenn in einer Spielrunde insgesamt mehr Punkte angefordert werden, als im Pool enthalten sind. Registriert werden als Indikatoren für die effiziente und kooperative Ressourcenbewirtschaftung a) die insgesamt erzielten

184

Andreas Diekmann

Punkte, b) die Rundenzahl bis zur völligen Ausbeutung der Ressourcen, c) das Ausmaß der Übereinstimmung mit einer »optimalen« Bewirtschaftungsstrategie wie z.B. der Aufrechterhaltung eines bestimmten Ressourcen-Niveaus. Mit diesem Design können die Effekte einer Vielzahl interessanter struktureller Variationen und Persönlichkeitsmerkmale auf die Ressourcenbewirtschaftungsstrategie studiert werden. So liegen beispielsweise Befunde vor zum Einfluß von Kommunikationsmöglichkeiten über Spielstrategien (Brechner 1977; Edney und Harper 1978b; Jorgenson und Papciak 1981), Rückmeldungen über den jeweiligen Stand der Ressourcen (Informationsfeedback, Cass und Edney 1978; Jorgenson und Papciak 1981), zum Effekt der Identifizierbarkeit von Mitspielerentscheidungen (Jorgenson und Papciak 1981), der Aufklärung über optimale Spielstrategien (mit widersprüchlichen Ergebnissen, vgl. Edney und Harper 1978b; Rapoport 1988b) sowie zur Rolle induzierter Emotionen bei der Bewirtschaftung knapper Ressourcen (Knapp 1986; Popp 1988). Besondere Aufmerksamkeit verdient die Untersuchung von Gruppengrößeneffekten, da dieser Einflußfaktor auch aus praktischen Gründen von erheblicher Bedeutung ist. In Überblicken zu spieltheoretischen Kooperationsexperimenten wird wiederholt erwähnt, daß sich die Kooperationsbereitschaft mit der Anzahl der Mitspieler vermindert (z.B. Edney 1981: 27 p; Stroebe und Frey 1982: 125 p; Messick und Brewer 1983: 34 ρ). Die meisten dieser Experimente beziehen sich auf das N-Personen-Gefangenendilemma. Abgesehen davon, daß auch im N-Personen-Gefangenendilemma nicht notwendigerweise ein negativer Zusammenhang zwischen der Gruppengröße und der Wahrscheinlichkeit einer kooperativen Wahl auftreten muß (Bonacich et al. 1976, Bonacich und Light 1978: 165 p, siehe auch Abschnitt 7), kann die Gruppengrößen-Kooperationsrelation wesentlich durch den jeweiligen Strukturtyp eines Dilemmas bestimmt werden (Raub 1988). Ergebnisse aus Experimenten zum N-Personen-Gefangenendilemma sollten daher nicht vorschnell auf Ressourcenmangementprobleme übertragen werden. Bisherige Untersuchungen der Gruppengrößeneffekte bei Ressourcenmanagementproblemen liefern widersprüchliche Resultate. So konnten Brewer und Kramer (1986) keinen Einfluß der Gruppengröße im Commons-Dilemma beim Vergleich von Gruppen der Größe acht und zweiunddreißig nachweisen — ein Resultat, das die Hypothese der Autoren über eine größere Wahrscheinlichkeit von Gruppengrößeneffekten bei Kollektivgutproblemen im Vergleich mit CommonsDilemma-Situationen bestätigt. Nach Harper et al. hingegen (unveröffentlichtes Manuskript, zitiert bei Orbell und Dawes 1981: 58) sinkt die Kooperation mit der Gruppengröße im Vergleich von ein-, drei- und sechs-Personen-Gruppen. Brewer und Kramer (1986: 544) zitieren in einer Diskussion des Gruppengrößeneffekts weitere Studien, in denen kein Gruppengrößeneffekt ermittelt werden konnte. Sie erklären die widersprüchlichen Befunde mit einander gegenläufigen Effekten der Gruppengröße, wobei die Risikoorientierung eine Schlüsselrolle spielt. Auffallend bei den empirischen Befunden ist aber, daß offenbar Gruppengrößeneffekte beim Vergleich relativ großer Gruppen (N > 6) nicht zu ermitteln waren, während beim Vergleich kleinerer Gruppen signifikante Unterschiede im Ausmaß der Kooperation hervortraten. Diese Resultate sind konsistent mit der

Soziale Dilemmata

185

Hypothese, daß der Zusammenhang zwischen der GruppengröBe und der Wahrscheinlichkeit unkooperativer Entscheidungen nicht-linear verläuft. Bei einer konkaven Funktion wären GruppengrößenefTekte nur im unteren Gröftenbe reich nachweisbar (siehe auch Diekmann 1986). Experimentell untersucht wurde im Commons-Dilemma ferner der Extremfall des Privatisierungseffekts, d.h. der Fall N = 1 versus N > 1 (Cass und Edney 1978). In dem Experiment wird ein höheres Kooperationsniveau unter der Privatisierungsbedingung berichtet, aber natürlich verschwinden unter dieser Bedingung auch die typischen Dilemma-Eigenschaften eines individuell-kollektiven Konflikts. Die Bewirtschaftung privater Ressourcen ist nurmehr ein individuelles Optimierungsproblem, bei dessen Lösung die kurz- und langfristigen Interessen eines Akteurs (der Diskontfaktor) und dessen kognitive Einsichtsfähigkeit eine Rolle spielen mag. Sofern sich in Commons-Dilemma-Situationen ein negativer Gruppengrößeneffekt auf die Kooperationsbereitschaft zeigt, ist auch dessen Wirkung erklärungsbedürftig. Handelt es sich darum, daß in Dilemma-Situationen mit der GruppengröBe die Kommunikation erschwert wird, die relativen Erträge kooperativen Verhaltens sinken, eine Art De-Individualion stattfindet, das perzipierte Risiko der Ressourcenerschöpfung diffundiert (Brewer und Kramer 1986), oder in iterativen Dilemmata nicht-kooperatives Verhalten von Mitspielern nicht mehr gezielt sanktionierbar ist (vgl. auch Bonacich und Light 1978; Orbeil und Dawes 1981; Stroebe und Frey 1982; Messick und Brewer 1983)? Besonderes Interesse verdient daher in Commons-Dilemma-Situationen nicht nur die Erforschung der Stärke und Richtung von GruppengrößenefTekten, sondern auch die Erklärung der Wirkungsweise dieses besonders bedeutsamen strukturellen EinfluBfaktors. Gemäß den Resultaten der Theorie iterativer Spiele (Friedmann 1971; Taylor 1976,1987; Axelrod 1984, siehe auch Voss 1985) sollten die Entscheidungen eines Akteurs auch von den Strategien der Mitspieler abhängen. Effekte der Spieldynamik wurden in Ressourcenmanagementspielen bislang wenig beachtet. Messick et al. (1983) berichten, daB in einer Situation extensiver Ausbeutung des Ressourcenpools diejenigen Personen, die kooperatives Verhalten der Mitspieler erwarten, dieses Verhalten erwidern. Weiterhin zeigte sich, daB die Spieler bei extensiver Ressourcenausbeutung dazu neigen, eine zentrale Kontrollinstanz zu bestimmen, die das Ressourcenmanagement dirigiert — sozusagen Hobbes Leviathan als Alternative zur Privatisierung. Den EinfluB (simulierter) Mitspieler-Strategien in einem endlich oft wiederholten Commons-Dilemma demonstriert ferner ein Experiment von Diekmann, Meier und Rapoport (1990). Erwartungsgemäß erhöhen kooperative Mitspieler-Strategien die Wahrscheinlichkeit der Kooperation bei einer Versuchsperson. Hiermit ist auch die rasche Erosion der Kooperation in manchen sozialen Gruppen erklärbar. Wenn Personen mit niedrigem Defektions-Schwellenwert beginnen, unkooperativ zu handeln, werden die Akteure in der Reihenfolge ihrer Schwellenwerte im Sinne eines Domino-Effekts nach und nach die Kooperation aufkündigen. Insbesondere in größeren Gruppen dürfte dann auch bei iterierten Dilemmata ein Neuaufbau der Kooperation (ohne äußere Ein-

186

Andreas Diekmann

Wirkungen oder einklagbare Verträge) wenig wahrscheinlich sein (vgl. auch Diekmann und Μ anhart 1989). Die Vielzahl sozialpsychologischer Einzelhypothesen ergibt als Summe sicher noch keine Theorie des kooperativen Verhaltens im Commons-Dilemma. Die experimentellen Befunde verweisen jedoch auf relevante Einflußfaktoren, wobei die erzielten Kenntnisse auch für die praktische Sozialgestaltung nützliche Hinweise liefern könnten. Nicht immer ist die Privatisierungslösung wünschbar oder machbar. Um die Überfischung der Weltmeere zu verhindern, können in den Ozeanen keine Zäune errichtet werden. Die Festlegung von Quoten oder aber die Besteuerung negativer Externalitaten kann erhebliche Überwachungskosten, d.h. die Finanzierung bürokratischer Apparate erfordern. Die Untersuchung alternativer Lösungsmöglichkeiten in Commons-Dilemma-Situationen ist aus diesen Gründen nicht nur theoretisch, sondern auch praktisch von Belang.

4.

N-Personen-Gefangenendilemma und die Güter

Theorie kollektiver

Wohl kaum ein Buch hat die Diskussion über die Kollektivgutproblematik und das damit verbundene Verhältnis von Individual- und Gruppeninteressen so nachhaltig geprägt wie Mancur Olsons (1965) bekannte Studie über die »Logik kollektiven Verhaltens«. Wenn Olsons Analyse auch vorwiegend auf mikroökonomischen Modellen basiert, so ist doch die Verwandtschaft zu spieltheoretischen Denkweisen unübersehbar. Der Grundgedanke der Theorie läßt sich ohne formale Hilfsmittel leicht an einem Beispiel skizzieren. Gehen wir davon aus, daß eine Gewerkschaft das kollektive Gut »Lohnerhöhung« für alle Arbeitnehmer produziert, d.h. sowohl Mitglieder als auch Nicht-Mitglieder kommen in den Genuß einer Lohnerhöhung. Weiterhin sei angenommen, daß die Stärke der gewerkschaftlichen Organisation und damit das Ausmaß des kollektiven Guts »Lohnerhöhung« mit der Zahl der Mitglieder steigt. Welcher Anreiz besteht dann für einen Arbeiter, der Gewerkschaft beizutreten? Betrachten wir seine Kosten-Nutzen-Rechnung. Tritt er der Gewerkschaft bei, so muß er einen Mitgliedsbeitrag zahlen. Auf der anderen Seite erhöht sich sein Nutzen (und damit der Nutzen aller) aufgrund der etwas höheren Organisationsstärke beim Eintritt eines neuen Mitglieds nur äußerst minimal. In der Sprache der ökonomischen Grenzkostenanalyse ausgedrückt, ist der marginale Nutzen eines Beitritts immer geringer als die marginalen Kosten. Der individuell rational denkende Arbeiter wird zum »Freerider«. Folgt in einer latenten, nicht-organisierten Gruppe jede an einem Kollektivgut interessierte Person dieser Überlegung, so wird das Kollektivgut erst gar nicht produziert. Olson hat sozusagen den Mythos eines sich automatisch realisierenden »Gruppeninteresses« zerstört. Nicht die Gruppe handelt, sondern die Individuen sind die Akteure. Hieraus resultiert das Paradox, daß zwar eine Menge von Personen an der Produktion eines Kollektivguts interessiert ist, jeder aber die Kosten seinen »Mitspielern« überlassen möchte.

187

Soziale Dilemmata

Es sei am Rande vermerkt, daß vier Wege aus dem Dilemma führen können. Erstens starke Solidaritätsnormen, zweitens der Ausschluß von Nicht-Mitgliedern von der (Consumption des Gutes (wodurch es den Charakter eines Kollektivguts verliert), drittens Zwangsbeiträge und viertens individuelle Anreize. Die erste Lösung stand am Anfang der Arbeiterbewegung, die zweite Maßnahme entspricht im Falle des Gewerkschaftsbeispiels den »closed shops« in England und den USA, Maßnahme drei realisieren z.B. öffentlich rechtliche Kammern und Maßnahme vier dürfte von den meisten sich frei bildenden Organisationen angewandt werden. So bieten die Gewerkschaften Rechtsberatungen, Fortbildungskurse usf., d.h. der marginale Nutzen einer Mitgliedschaft wird über das Niveau der Beitrittskosten angehoben. Es ist gut möglich, daß der variierende Organisationsgrad in Hinblick auf Gewerkschaften und Parteien in verschiedenen Ländern u.a. durch eine Variation der individuellen Anreize erklärbar ist (z.B. der für westliche Verhältnisse extrem hohe Organisationsgrad in Österreich). Zahl anderer Mitspieler, die С wählen 0

1

2

3

4

5

С

-0,5

0,0

0,5

1,0

1.5

2,0

D

0,0

0,5

1,0

1,5

2,0

2,5

Abb. 1: N-Persooen-Gefangeaeadilemma

In spieltheoretischen Termini lautet das von Olson aufgeworfene Problem, daß das nicht-kooperative Freerider-Verhalten in großen Gruppen als dominante Strategie angesehen werden kann, d.h. unabhängig von dem Ausmaß der Kooperation anderer Personen ist die Nichtbeteiligung an der Kollektivgut-Produktion individuell lohnenswerter, wobei der Schnittpunkt der dominanten Strategien ein suboptimales Gleichgewicht bildet. Diese beiden Merkmale kennzeichnen auch eine Gefangenendilemma-Situation. N-Personen-Gefangenendilemma und die von Olson analysierte Situation der »Logik kollektiver Aktionen« sind (unter gewissen Bedingungen) strukturell identisch (Hardin 1971). Ein Zahlenbeispiel zur Illustration (Abbildung 1) läßt sich leicht auf der Basis des Beitragsspiels von Hamburger konstruieren. Nehmen wir an, sechs Personen sind an der Herstellung eines Kollektivguts interessiert. Die Beitragsleistung beträgt eine Nutzeneinheit, wobei jede Beitragsleistung den Nutzen des Kollektivguts um 50% des Beitrags erhöht. Aus der Sicht jedes Individuums sind dann die marginalen Kosten doppelt so hoch wie der individuelle marginale Nutzen. Die Auszahlungsfunktion für Person i im Beitragsspiel lautet: A(i) = 0,5S — s(i) wobei der Betrag s(i) den Wert 0 (kein Beitrag) oder 1 (Beitragsleistung) aufweist und S der Summe der Beiträge der sechs Personen entspricht. Bezeichnen wir wieder die kooperative Wahl mit С (s(i) = 1) und die nicht-kooperative Wahl mit D (s(i) = 0), so kann das symmetrische N-Personen-Gefangenendilemma-Spiel in vereinfachter Weise als Matrix dargestellt werden.

188

Andreas Diekmann

Wählt z.B. Person i die Alternative С und entscheiden sich hierfür ebenfalls drei andere Personen, so ist A(i) = 0,5 * 4 — 1. Der resultierende Wert ist in der Matrix in der Zeile C-Wahl/3 andere Mitspieler mit C-Wahl eingetragen. Man erkennt, daB D eine dominierende Strategie darstellt. Unabhängig von dem Kooperationsniveau der anderen Personen ist der Nutzen stets eine halbe Einheit höher als bei kooperativer Wahl. Entscheiden sich jedoch alle Personen für D, so ist der Auszahlungsbetrag null, während jede Person bei vollständig kooperativem Verhalten immerhin zwei Einheiten erhielte. Man kann die Matrix in Abbildung 1 als Erweiterung eines Zwei-Personen-Gefangenendilemmas ansehen. Das Basisspiel, auf dem die Matrix aufgebaut ist, hat die in Abbildung 2 gezeigte Gestalt: Spieler 2 С

D 0,5

0,4

С 0,4

-0,1

Spieler 1 0

-0,1 D 0,5

0

Abb. 2: 2-Personen-Gefangenendilemma als Basispiel

Wenn jede Person dieses 2x2 Gefangenendilemma-Spiels gegen jede andere Person spielt, erhält man die Auszahlungsmatrix in Abbildung 1. Olson hat die Freerider-Hypothese für große Gruppen formuliert. Dies ändert jedoch nichts an der Tatsache der strukturellen Übereinstimmung seiner Theorie mit der Logik des N-Personen-Gefangenendilemmas. Die an dem 6-Personen-Beispiel illustrierten Überlegungen gelten ja auch bei beliebig großem N. Eine wichtige Konsequenz der Hardinschen These von der strukturellen Übereinstimmung zwischen dem N-Personen-Gefangenendilemma und Olsons Theorie ist die Möglichkeit, Hypothesen über die Herstellung von Kollektivgütern in spieltheoretischen Experimenten zu überprüfen. Verschiedene Experimente haben sich u.a. von dieser Idee leiten lassen. In kleinen »privilegierten« Gruppen vermutet Olson (1965: 32 f.) die Wirksamkeit anderer Mechanismen. Hier sind Personen häufig individuell daran interessiert, zumindest einen gewissen Betrag des Kollektivguts herzustellen. Anders ausgedrückt ist hier D nicht für jede Person eine dominierende Strategie, die Auszahlungsfunktion konstituiert nicht notwendigerweise eine Gefangenendilem-

Soziale Dilemmata

189

ma-Struktur. Wenn wenigstens für ein Individuum der Nutzen des Kollektivguts höher ist als sein individueller Beitrag zur Produktion des Gutes (derartige Gruppen werden von Olson als «privilegiert« bezeichnet), dann ist für Olson (1965: 22) die Versorgung der Gruppe mit dem Kollektivgut gesichert. Diese Hypothese ist jedoch keineswegs unproblematisch. Wenn nämlich die Gruppe mehr als einen »privilegierten« Akteur umfaBt, entsteht ein strategisches Handlungsproblem. Paradoxerweise ist bei Gruppen mit к privilegierten Akteuren für к = 1, nicht aber für к > 1 die Herstellung des Kollektivguts mit Sicherheit zu erwarten. Das in Abschnitt 6 entwickelte Freiwilligendilemma modelliert die Handlungsstruktur eines derartigen »Missing-Heroe-Dilemmas«.

5.

»Missing-Heroe-Fallen«

Nicht alle sozialen Fallen weisen das Merkmal einer dominierenden Strategie auf wie in Entscheidungssituationen des Olson-Typs. Wie sich zeigen wird, sind Situationen konstruierbar, in denen der individuelle marginale Nutzen einer kooperativen Handlung die marginalen Kosten übersteigt und dennoch nicht garantiert ist, daß das Kollektivgut erzeugt wird. »Missing-Heroe-Fallen« (Platt 1973) zählen unter bestimmten Bedingungen zu dieser Kategorie. Ein »Missing-Heroe-Dilemma« (MHD) ist in der einfachsten Version dadurch beschreibbar, daß erstens das Kollektivgut (eine Hilfeleistung, die Beseitigung eines Hindernisses für eine Gruppe etc.) von einer Person produziert werden kann und zweitens das Kollektivgut einen »Alles-oder-nichts-Charakter« aufweist — ähnlich wie eine Brücke, deren Nutzen null ist, wenn sie nur eine Hälfte des Flusses überspannt. Es ist wichtig, zwei Fälle von MHDs zu unterscheiden. Zum einen Situationen, in denen der »Held« oder Freiwillige, der das Kollektivgut herstellt, von seiner kooperativen Handlung selbst profitiert. Der Nutzen einer kooperativen Handlung übersteigt also die Kosten, allerdings ist der Nettonutzen noch größer für die »Freerider«, die das Kollektivgut zum »Nulltarif« erhalten. Eine derartige Situation sei als MHD mit positivem Kooperationswert bezeichnet. In einem MHD mit negativem Kooperationswert sind dagegen die Kosten eines potentiellen Freiwilligen größer als sein individueller Nutzen. Schellings (1971) »Matratzenproblem« (siehe unten) ist hierfür ein lehrreiches Beispiel. Nur im Falle negativer Kooperationswerte existiert eine dominierende Strategie. Einige Beispiele mögen dies illustrieren. Schelling (1971) berichtet von Verkehrsstauungen an Sommerwochenenden, die regelmäßig dadurch verursacht werden, daß eines der vom Strand zurückgekehrten Fahrzeuge auf einer zweispurigen Autobahn die auf dem Autodach befestigten Matratzen beispielsweise auf der linken Fahrspur verliert. Ein kilometerlanger Stau wäre zu vermeiden, wenn sich jemand bereit fände, das Hindernis zu beseitigen. Nun ist die Situation deswegen besonders heimtückisch, da nur deijenige Autofahrer das Kollektivgut »Hindernisbeseitigung« erzeugen kann, der sich direkt vor dem Hindernis befindet. Der

190

Andreas Diekmann

individuelle Nutzen der Beseitigung ist aber invers zur Entfernung vom Hindernis. Daher wird der Fahrer an der Spitze der Schlange »D« wählen, d.h. das Hindernis umfahren. Die weit hinten in der Schlange eingekeilten Autofahrer hätten dagegen von dem Kollektivgut einen hohen Nutzen zu erwarten; leider sind gerade sie nicht in der Lage, die Matratzen von der Fahrbahn zu räumen. Allgemein formuliert ist ein soziales Dilemma in einer nichtorganisierten Gruppe dann nur schwer lösbar, wenn im Extremfall nur eine Person das Kollektivgut erzeugen kann, für die die Kosten der kooperativen Handlung einen höheren Wert haben als der Nutzen.7 Es existieren jedoch auch hiervon strukturell verschiedene Situationen, in denen anders als bei Schellings »Matratzenproblem« mehrere Akteure potentiell in der Lage sind, das Kollektivgut herzustellen. Wird z.B. bei einer Kinovorführung ein unscharfes Bild auf die Leinwand projiziert, dann ist im Prinzip jeder Zuschauer in der Lage, durch Rufen oder einen Hinweis an der Kinokasse auf den Mißstand aufmerksam zu machen. Üblicherweise dauert es jedoch erhebliche Zeit, bis sich mindestens eine Person dazu entschließt, aus Eigeninteresse für das »Kollektiv« der Zuschauer tätig zu werden. Wie ist dieser Verzögerungseffekt zu erklären? Selbst wenn angenommen wird, daß bei mehreren Personen der Nutzen einer kooperativen Entscheidung die Kosten übertrifft, so erscheint es dennoch individuell rational zu sein, zunächst abzuwarten, ob sich nicht jemand anders bereit Findet, einem Mißstand abzuhelfen. Wenn im Extremfall alle Personen darauf spekulieren, das Kollektivgut zum »Nulltarif« zu erzielen, kann es passieren, daß das Kollektivgut überhaupt nicht realisiert wird. Hilfeleistungen bei Verbrechensopfern, Unfällen oder in Notsituationen stellen weitere und sozial gewiß bedeutsamere Beispiele dar (siehe auch Stroebe & Frey 1982). So hat vor knapp drei Jahrzehnten der Mord an einer jungen Frau in New York für großes Aufsehen gesorgt. 38 Zeugen haben diesen Mord von ihrer Wohnung aus beobachtet, wie nachträgliche Rekonstruktionen ergaben. Keiner der Zeugen, von denen jeder einzelne bemerken konnte, daß weitere Beobachter zugegen waren, hat Hilfe geleistet oder auch nur zum Telefonhörer gegriffen, um die Polizei zu benachrichtigen. Die Anonymität städtischer Lebensformen, Persönlichkeitsmerkmale usf. wurden damals zur Erklärung herangezogen. Diese Umstände mögen durchaus eine bedeutsame Rolle spielen (dazu weiter unten). Von Interesse ist hier aber, daß Darley und Latane (1968) auf einen alternativen oder

7)

Gesucht ist also zur Lösung des Dilemmas ein »Held«, der nicht nur individuelles sondern auch kollektives Wohlergehen bei seinen Entscheidungen berücksichtigt. Hier machen sich sicher kulturspeziflsche Besonderheiten bemerkbar, wie auch Platt (1973) am Beispiel des kollektiven Verhaltens der Mormonen deutlich macht. Hat man in einem Land keine »Helden« zur Verfügung, dann besteht die zweite Lösungsalternative darin, eine Organisation einzurichten, die für Hilfeleistungen bezahlt wird — im Falle des »Matratzenproblems« etwa einen Autobahndienst. Veränderungen der Struktur einer Situation können »Helden« überflüssig machen. Dies ist ja auch eine der Lehren aus Brechts (1972) Galilei. Auf die Anschuldigung seines Schülers Andrea nach Galileis Widerruf »Unglücklich das Land, das keine Helden hat!« antwortet dieser: »Nein. Unglücklich das Land, das Helden nötig hat.«

191

Soziale Dilemmata

zusätzlichen Erklärungsmechanismus verweisen, wobei der Schlüssel zum Verständnis des Verhaltens in der Struktur der Situation gesucht wird. Ihr Diffusion-von-Verantwortung-Prinzip besagt, daß jeder der Zeugen von einem anderen Beobachter erwartet, daß er die Mühe der Hilfeleistung auf sich nimmt. Denken alle Beobachter in dieser Weise, resultiert hieraus der paradoxe Effekt (d.h. ein Effekt, der letztlich auch den Absichten der Zuschauer zuwiderläuft), daß die Hilfeleistung unterbleibt. Die beiden genannten Autoren haben eine derartige Situation in einem Experiment im Labor simuliert. Die aus dem VerantwortungsdifTusions-Prinzip ableitbare Hypothese, die in dem Experiment untersucht werden sollte, lautete dabei, daß sich die Wahrscheinlichkeit einer Hilfeleistung durch eine bestimmte Person mit zunehmender Zuschauerzahl verringert. Den Versuchspersonen an dem Experiment wurde vorgespiegelt, sie nähmen an einer Diskussion über das CollegeLeben teil. Jede Person wurde in einen Raum gebeten, in dem sie sich über ein Mikrophon mit den (vorgetäuschten) anderen Gruppenmitgliedern unterhalten konnte. Je nach Versuchsbedingung wurde eine Zwei-Personen, Drei-Personen oder Sechs-Personen-Gruppe suggeriert. Nach einem vorgetäuschten epileptischen Anfall eines Gruppenmitglieds wurde die Reaktion der Versuchspersonen in einem Zeitraum von sechs Minuten aufgezeichnet. Als Hilfeleistung wurde gewertet, wenn die Versuchsperson den Raum verließ, um den Versuchsleiter auf die vermeintliche Notsituation des »Opfers« aufmerksam zu machen. Tabelle 1:

Gruppengröße und Hilfe-Wahrscheinlichkeit im Darley und Latani-Experiment

GruppengröBe der Versuchspersonen

N

HilfeleistungsReaktionen in % während der Dauer des simulierten Anfalls

Durchschnittliche Zeit in sec. bis zur Reaktion

1 (Versuchsperson und »Opfer«)

13

85

52

2 (Versuchsperson, »Opfer« und andere Personen)

26

62

93

5 (Versuchsperson, »Opfer« und 4 andere Personen)

13

31

166

Alle Unterschiede sind für alpha = 0,05 signifikant

Wie anhand der Tabelle erkennbar, wurde die Hypothese eindrucksvoll bestätigt. Ferner zeigte sich, daß Persönlichkeitsmerkmale (Apathie, Entfremdung, Anomie) kaum verhaltensrelevant waren. Es ist allerdings zu berücksichtigen, daß zwar die Wahrscheinlichkeit sinkt, daß eine bestimmte Person Hilfe leistet, wenn die Gruppengröße steigt, daß aber andererseits in einer realen Situation mehr Personen vorhanden sind, die potentiell Hilfe leisten können. Dadurch wiederum kann die Wahrscheinlichkeit steigen, daß

192

Andreas Diekmano

das Opfer Hilfe von irgendeiner Person erhält. Es handelt sich also um zwei gegenläufige Faktoren. Wenn η die Zuschauerzahl bezeichnet und ρ die Eingriffswahrscheinlichkeit einer Person, so ist die Wahrscheinlichkeit, daß das Opfer Hilfe erhält: P(n) = 1 - [1 - p(n)]°. Man kann anhand der Tabellenwerte berechnen, daß die Wahrscheinlichkeit, daB das Opfer Hilfe erhält, in allen drei Versuchsbedingungen ungefähr konstant bleibt (ca. 0,85), sich die beiden Faktoren also gegenseitig kompensieren.8 In dem hier beschriebenen Kontext kann die Tatsache einer Hilfeleistung als Kollektivgut angesehen werden. Die meisten Personen werden Hilfeleistungen als einen positiven Wert ansehen, was auch die hohe Zahl von Reaktionen in der ersten Versuchsbedingung (Grappengröße 2) unterstreicht. Auch dürfte der marginale Nutzen einer Realisierung der Norm größer sein, als die marginalen Kosten, zumindest bei den 85% der Versuchspersonen, die vermeintlich mit dem »Opfer« allein waren. Wie in der Kino-Situation kann der Nettonutzen in größeren Gruppen eventuell dadurch maximiert werden, daß man sich auf die Reaktion anderer verläßt — eine Reaktionsweise, die aber geradezu in die soziale Falle führen kann.

6.

Freiwilligendilemma

Freiwilligendilemma ist ein Spiel, mit dem sich »Missing-Heroe-Situationen« spieltheoretisch analysieren lassen.9 Das Spiel sei zunächst anhand einer Anekdote und sodann durch ein einfaches Experiment skizziert. Nehmen wir an, in einem Land mit einem fremdartigen Rechtssystem werden N Gefangene vor folgende Wahl gestellt. Meldet sich mindestens einer von ihnen freiwillig, so erhält dieser eine Strafe von 5 Jahren, während die übrigen Gefangenen, die sich nicht gemeldet haben, frei gelassen werden. Meldet sich jedoch keiner, so ist die Strafe für alle 10 Jahre. Da das N-Personen-Spiel symmetrisch ist, läßt es sich leicht in MatrixForm darstellen. Wie bei Dilemma-Spielen üblich, bezeichnen wir die kooperative Wahl, d.h. die Herstellung des Kollektivguts »Freiheit«, mit »C« und die nicht-kooperative Wahl mit »D«.

8)

Siehe auch Darley und Latan£ 1968 , S. 380. Eine kurze Diskussion von Folgeexperimenten findet sich in Mann 1974, S. 87 ff. sowie in Lück 1975, S. 92 ff. Dort werden auch verschiedene kritische Einwände gegenüber der Hypothese von Darley und Latani diskutiert, die aufgrund weiterer Experimente formuliert wurden; siehe ferner Latan6 und Nida (1981).

9)

Zu einer genaueren spieltheoretischen Analyse siehe Diekmann (198S, 1986).

193

Soziale Dilemmata

Jeder Beteiligte каш С oder D wählen, er befindet sich also in der Rolle des Zeilenspielers. Je nachdem wie viele andere Personen С gewählt haben, bestimmt sich hierdurch die Höhe der Auszahlung an den Zeilenspieler. Das Kollektivgut ist offensichtlich »Freilassung der Gefangenen«, wobei die Kosten der Herstellung 5 Jahre Gefängnis für den »Helden« betragen. Auch der »Held« profitiert jedoch von seiner kooperativen Handlung, denn würde sich keiner freiwillig melden, so müßte er mit einer zehnjährigen Strafe rechnen. Aber wer soll den Helden spielen? Ist es rational, С zu wählen mit der Aussicht auf Gewinn durch eine Verkürzung der Haftzeit um fünf Jahre, oder ist D die rationale Wahl im Vertrauen darauf, daß sich ein anderer Freiwilliger findet? Wie man anhand der nachstehenden Matrix erkennt, gibt es keine dominierende Strategie. Wenn keine andere Person С wählt (O-Spalte), ist es günstiger, selbst С zu wählen. In allen anderen Fällen (Spalten 1 bis N-l) sichert D einen höheren Gewinn.

0

1

andere C-Wähler 2

С

-5

-5

-5

-5

D

-10

0

0

0

3

...N-l

...0

Abb. 3: Freiwilligeodilemma-Beispiel

In der humaneren Version des Spiels sind die Auszahlungen positiv. Man kann sehr leicht folgendes Experiment arrangieren. Jeder Teilnehmer darf einen Betrag U oder U-K fordern, sagen wir 2 DM oder 0,20 DM. Der gewünschte Betrag wird auf einen Zettel geschrieben, wobei die Forderung jedes Spielers erfüllt wird, sofern mindestens ein Spieler U-K fordert, d.h. die Strategie С wählt. Absprachen sind, jedenfalls in der Grundform des Spiels, nicht erlaubt. Das Freiwilligendilemma-Spiel hat dann allgemein die folgende Form:

0

1

andere C-Wähler 2

3

...N-l

С

U-K

U-K

U-K

U-K

...U-K

D

0

и

и

и

и

Abb. 4: Freiwilligeodilemma

Sofern U-K > 0 gilt, handelt es sich um ein MHD mit positivem Kooperationswert. Für den Spezialfall N = 2 und U-K positiv, wird es zu einem Quasi-Chicken-Spiel. Ist U-K negativ, dann nimmt das Spiel den Charakter eines MHD mit negativem Kooperationsweit an. In letzterem Fall ist natürlich D eine dominierende Strategie und die Herstellung des Kollektivguts wenig wahr-

194

Andreas Diekmann

scheinlich — es sei denn, es existieren verbindliche Normen oder die Möglichkeit von Absprachen.10 Schellings (1971) Autofahrer an der Spitze der Schlange direkt vor dem Hindernis befindet sich in einer MHD-Situation mit negativem Kooperationswert. Nach Schellings Beobachtungen wählen alle Autofahrer D und umfahren das Hindernis, anstatt es zu beseitigen. Nur der Fahrer an der Spitze des Staus kann das Hindernis beseitigen. Für ihn ist aber U-K negativ. Für die Personen am Ende des Staus ist dagegen U-K positiv; nur sind leider gerade sie vorerst nicht in der Lage, an dem »Spiel« teilzunehmen. Der Mordfall Genovese in New York, der Darley und Latanes (1968) Untersuchungen über Hilfeleistungen beeinfluBt hat, läBt sich dagegen als MHD mit positivem Kooperationswert rekonstruieren. Den 38 Zeugen des Mordes, die jeweils von ihren Wohnungen aus das Geschehen beobachtet haben, war vermutlich der Mord nicht gleichgültig. Vermutlich war wenigstens für einige Beteiligte auch die Rettung eines Menschen, d.h. die Herstellung eines bestimmten Wertes, ein Kollektivgut mit einem höheren Wert U als die Kosten К der Unbequemlichkeit eines Telefongesprächs mit der Polizei. Nur sind die Kosten offenbar niedriger, wenn sich jemand anders opfert und Hilfe leistet. In diesem Sinne ist Darleys und Latanes (1968) Hypothese der »Diffusion-von-Verantwortung« in einem Freiwilligendilemma-Kontext rekonstruierbar. Allerdings schließt die Erklärung durch Verantwortungsdiffusion nicht die Wirkung anderer, oben genannter Faktoren aus wie kulturelle Werte der Hilfeleistungsmoral, der Betroffenheit und Identifikation mit dem Opfer, externe Sanktionen im Falle unterlassener Hilfeleistung oder interne Sanktionen durch das eigene Gewissen, wenn humanitäre Verpflichtungen verletzt werden. Diese Faktoren können mehr oder minder variieren und haben in anonymen Großstadtsituationen möglicherweise geringere Ausprägungen als in integrierten Gemeinschaften. Sie bestimmen den Wert von U, wobei die Wahrscheinlichkeit einer Hilfeleistung mit dem Wert von U relativ zu den Kosten К anwächst. In diesem Sinne ist die Kritik an der mangelnden Verantwortungsbereitschaft im großstädtischen Sozialverhalten nach dem Genovese-Mord nicht aus der Luft geriffen. Die Hypothese der Verantwortungsdiffusion verweist jedoch auf einen zusätzlichen strukturellen Einfluß, der in vielen Situationen dieses Typs wirksam werden kann. Weist die Situation — wie im Falle von Hilfeleistungen — eine Freiwilligendilemma-Struktur mit U-K > 0 auf, und ist den Personen nur die Zahl der »Mitspieler«, nicht jedoch deren Entscheidung bekannt (wie bei dem Darleyund-Latane-Experiment), so dürfte die Kooperationsbereitschaft einer Person

10) Eine allgemeinere Form des Spiels sieht die Einführung von Kostenteilung und Entscheidungszeitkosten vor, d.h. U(t) und K(t) verringern bzw. vergrößern sich im Zeitablauf. Kostenteilung bei mehrfacher C-Wahl dürfte dazu führen, dafi die Wahrscheinlichkeit einer C-Wahl wächst. Für N = 2 handelt es sich bei Kostenteilung um ein Chicken-Spiel, sofern U(t) — K(t) positiv ist. Mit der skizzierten Versuchsanordnung und den erwähnten Variationen ist die Möglichkeit gegeben, eine Vielzahl von Hypothesen über das Verhalten in Freiwilligendilemma-Situationen zunächst »in vitro«, d.h. in einfachen Experimenten, zu erforschen.

Soziale Dilemmata

195

mit der GruppengröBe sinken, wie die Verantwortungsdiffusions-Hypothese behauptet. Kann man jedoch davon ausgehen, daß die Entscheidung der anderen Personen sichtbar wird, dann dürften die meisten Personen geneigt sein, ihre Wahl hinauszuzögern. In einer »offenen« Hilfeleistungssituation z.B., in der N Personen zugegen sind, wird vermutlich ein starker Verzögerungseffekt auftreten. Anders als bei Kollektivgutproblemen des N-Personen-Gefangenendilemma-Typs mit dominierender Strategie, ist im Falle der hier beschriebenen Strukturen eine Verhaltensprognose aus spieltheoretischer Sicht schwierig, da eine dominierende Strategie in den Matrizen der Abbildungen 3 und 4 nicht existiert. Gehen die Beteiligten vom Maximin-Prinzip aus, d.h. der Wahl der besten unter den möglicherweise auftretenden schlimmsten Ereignissen, so müssen sie С wählen. Da eine rational denkende Person aber annimmt, daß die Mitspieler ebenso rational handeln wie sie selbst, muß sie davon ausgehen, daB sich auch die Mitspieler nach dem Maximin-Prinzip richten. In diesem Fall ist es aber günstiger D zu wählen. Geht die Überlegung aller Personen bis zu diesem Punkt, so wird bei gemeinsamer D-Wahl das schlimmste Ereignis eintreten, also wäre es doch besser С zu wählen — usw. ad infinitum. In einer derartigen Situation, in der es nicht gelingt, eindeutige Verhaltensprogaosen aus gewissen zugrunde gelegten Verhaltensmaximen abzuleiten, sind sozialpsychologische Experimente Uber das tatsächliche Verhalten besonders aufschlußreich. Die verschiedenen Typen spieltheoretisch exakt formulierbarer Entscheidungsdilemmas zeigen auch die Grenzen einer allzu simplen Anwendung der Nutzentheorie. Im Falle einer interdependenten Handlungsstruktur mit den Merkmalen eines sozialen Dilemmas können verschiedene Entscheidungsprinzipien (Maximin-Prinzip, Gleichgewichtsstrategie, maximaler subjektiver Erwartungswert (SEU-Modell) usf.) je nach Typ der »sozialen Falle« in Konkurrenz zueinander stehen. Deshalb auch sind derartige Dilemmasituationen für die Grundlagenforschung in der Entscheidungstheorie so bedeutsam."

7.

Gruppengrößeneffekte Freiwilligendilemma

im N-Personen-Gefangenendilemma und

Insbesondere stimuliert durch Olsons Theorie wurde der Einfluß der Gruppengröße auf das Kooperationsverhalten in zahlreichen sozialpsychologischen Untersuchungen studiert (siehe die Überblicke Orbell und Dawes 1981; Stroebe und Frey 1983; Messick und Brewer 1983, vgl. auch Abschnitt 3). Zumeist wird als

11) Zu diesem Thema sei auch auf die Experimente von Hahnemann und Tversky (1979) verwiesen. Die Autoren untersuchen zahlreiche Entscheidungssituationen, in denen konsistente Abweichungen vom Prinzip des maximalen Erwartungsnutzens zu beobachten sind. Zu einer kritischen Diskussion der Nutzentheorie und des Rationalitätsprinzips siehe auch Elster (1979).

1%

Andreas Diekmann

Fazit derartiger Untersuchungen formuliert, daß sich mit steigender Gruppengröße das Ausmaß an Kooperation vermindere. Dabei wird häufig übersehen, daß tatsächlich die Art des Zusammenhangs zwischen den beiden Größen vom Typ des sozialen Dilemmas abhängig sein dürfte (Raub 1988). Betrachten wir zunächst das Freiwilligendilemma. Die Wahl von D ist hier die risikoreiche Maximax-, С die Maximin-Strategie. Eine dominierende Strategie existiert in diesem Spiel nicht. Werden gemischte Strategien berücksichtigt (DWahl mit Wahrscheinlichkeit q, C-Wahl mit Wahrscheinlichkeit 1-q), dann kommen zwei weitere Strategien in Frage: Erstens die gemischte Nash-Gleichgewichtsstrategie und zweitens das mit Hofstadter (1985) so bezeichnete »Superrationalitätsprinzip« . Werden die Strategien für das Freiwilligendilemma allgemein abgeleitet, dann zeigt sich für beide Strategien, daß die Wahrscheinlichkeit der Nichtkooperation (D-Wahl) einer Person mit dem Quotienten aus den Kooperationskosten und dem Wert des kollektiven Gutes (K/U) ansteigt, mit der Gruppengröße N hingegen absinkt (siehe genauer Diekmann 1985, 1986). Die Richtung der Effekte ist auch intuitiv einsichtig. Je größer die Zahl der Akteure ist, als desto größer wird die Wahrscheinlichkeit wahrgenommen, daß irgendeine andere Person das Kollektivgut bereitstellen wird. Dies ist die exakte, spieltheoretische Untermauerung der Darley-Latane-Hypothese der Verantwortungsdiffusion. Tabelle 2 enthält die Formeln für die verschiedenen strategischen Prinzipien. Tabelle 2:

Entscbeidungsregeln im Freiwilligeodilemma

Strategien

Wahrscheinlichkeit der Nicht-Kooperation (D-Wahl)

Maximin

0

Erwarteter Nutzen

Wahrscheinlichkeit der Herstellung des kollektiven Guts

U - К

1

и - К

1 (mit N abnehmend)

U-K 0.9 durchaus brauchbare Resultate liefert. Es war naheliegend, den symmetrischen Fall p1 = p2 = pJ = p4 = 0.25 zuerst zu untersuchen. Wie aber steht es mit anderen Konstellationen? Ergeben sich dann auch so zuverlässige Ergebnisse? Ist der Ausgangspunkt eine konkrete Testsituation, so wird die Wahl der Parameter demgemäß ausfallen. Eine zweite Motivation könnte in dem Wunsch nach Überprüfung von Literaturempfehlungen liegen. Ideengenerierung ist ein wichtiger Bestandteil der Nachbereitungsphase. Es zeigt sich, ob für die ganz naheliegenden Folgefragen das Experiment auch eine Antwort liefern kann. Hier gilt es, das Experiment mit neuen Parameterwerten zu starten — Forderung 7. Deshalb wird das Experiment nun noch einmal mit den Parameterwerten Pi = ft=ft=0.1, P4 = 0.7 durchgeführt. Hierbei gilt nämlich e1 = e2 = e3 = l, so daß gegen die Empfehlung Kreyszigs (1965) verstoßen wird. Wir erhalten wieder einen modifizierten P-P-Plot. m





1

'

*

*

J ^ — — W ^ — T ~

Abb. 5: Plot von H(t) gegen A(t) für p,=p2=p3=0.1,

p4=0.7,

A(i)

n=10

219

Experimente ia der Statistiiausbildung

Hier gibt es Fälle, wo P(T £ t) < Ρ(χ3 £ t) ist, jedoch sind dann die Differenzen gering. Für Approximationswerte A(t) > 0.9 ist die Approximation sehr gut, denn die Fehler liegen unter 3 %. Als Zwischenergebnis können wir festhalten, daB der χ-Anpassungstest zu besseren Ergebnissen führt als das auf Grund der Empfehlungen zu erwarten gewesen wäre. Mit wachsenden Werten für к oder η wird die Berechnung der exakten Verteilung von Τ immer aufwendiger. Sollen jedoch gerade solche Parameterkonstellationen untersucht werden, wird sich der Experimentator nicht mit der Antwort Parameter unzulässig! abspeisen lassen. Als Ausweg können Simulationen herangezogen werden. ff(t)

0.030.040.03 0.02

0.01.

Λ

0 "3

1

О

1

37Ϊ '

ϊΤϊ

'

Ϊ7β

1

Γ

-A(t)

Abb. 6: Plot von ft(t) gegen A(t) für p,=p:=p3=p4=ps=0.2,

в-20

H(t)

"3

'

ЗЛ

1

37Ϊ '

371 '

31

Abb. 7: Plot von D(t) gegen A(t) für p,=p1=p,=pt=0.05,

1

Г

-A(l)

ps=0.8,

n=20

Um einen Eindruck hiervon zu geben, zeigen die vorstehenden Abbildungen einen Plot von ft(t) = £(t) - Ρ(χ4 £ t) gegen t, wobei P(t) eine Schätzung der Verteilungsfunktion von Τ ist, die auf 10.000 simulierten Werten basiert. Ein Vergleich der Abbildungspaare 5 und 7 sowie 4 und 6 wirft die Frage auf, welchen EinfluB die Symmetrie bzw. Unsymmetrie der Verteilung auf das Verhalten des χ2-Anpassungstests haben. Schon werden weitere Experimente angeregt.

220

P. Naeve/D. Treakkr/H.P.

Wolf

Literatur Chambers, J.M. et al., 1983: Graphical Methods for Data Analysis, Duxbury Press, Boston. Fisher, N.I., 1983: Graphical Methods in Nonparametric Statistics: A Review and Annotated Bibliography. In: Int. Stat. Rev. 51: 25-58. Jevons, W.S., 1877: The Principle of Science, a Treatise on Logic and Scientific Methods, Dover publ. 1958. Kreyszig, E., 1965: Statistische Methoden und ihre Anwendungen, Vandenhoek & Rupprecht, Göttingen. Lindgren, B.W., 1976: Statistical Theory, 3. Auflage, Collier Macmillan, New York. Naeve, P./Trenkler, D./Wolf, H.P., 1991: How to Make the Teaching of Statistics Roar. In: Computational Statistics Quarterly, Vol. 6, Iss. 4: 325-353. Rohatgi, V.K., 1984: Statistical Inference, John Wiley, New York. Tufte, E.R., 1983: The Visual Display of Quantitative Information, Graphic Press, Cheshire. Winograd, T./Flores, F., 1986: Understanding Computers and Cognition, Ablex Publishing Corporation, New Jersey.

Hans-Jürgea Andreß und Hartmut Popken

Bessere Ergebnisse durch Gewichtung?

1.

Einleitung

Erhebungen auf Stichprobenbasis haben den Vorteil, daß durch die solchermaßen gewonnenen Daten Verallgemeinerungen auf die Grundgesamtheit möglich sind, ohne daß diese vollständig bekannt sein muß. Die Zuverlässigkeit von solchen Aussagen hängt dabei im wesentlichen von der »Repräsentativität« der Stichprobe ab, die oftmals mittels eines Vergleiches von soziodemographischen Merkmalen mit amtlichen Statistiken (Mikrozensus, Volkszählung etc.) ermittelt werden kann. Häufig tritt dabei jedoch der Fall ein, daß die Übereinstimmung mit den Vergleichsdaten nicht vorhanden, die gewünschte Repräsentativität also nicht gewährleistet ist. Um aber dennoch verallgemeinernde Aussagen aus der Stichprobe ziehen zu können, wird eine gewichtete Hochrechnung erforderlich. Kann von der Gültigkeit der amtlichen Statistiken ausgegangen werden, so bietet sich die Möglichkeit an, den erhobenen Datensatz an die bekannten externen Variablen anzupassen. Durch dieses als Redressment bekannte Verfahren wird zwar eine hohe Übereinstimmung bei den zur Gewichtung herangezogenen Variablen erreicht, inwieweit dadurch aber auch die Qualität der anderen, in der Grundgesamtheit unbekannten Variablen verbessert wird, hängt von einer Reihe weiterer Kriterien ab, von denen dem Ausfall- bzw. Teilnahmeprozeß eine bedeutende Rolle zukommt. In der Literatur wird dabei zwischen zwei verschiedenen Arten von Ausfallen unterschieden, die sich am besten an einem Ausschöpfungsprotokoll einer beliebigen Studie veranschaulichen lassen: Die Anzahl aller Personen bzw. Haushalte, die aufgrund des getroffenen Auswahlverfahrens zu befragen wären, wird als Вrutto-Einsatz-Stichprobe (BES) bezeichnet. Hiervon sind zunächst die wertneutralen Ausfalle abzuziehen. Zu den wertneutralen Ausfällen gehören alle Personen bzw. Haushalte, bei denen ein Interview aufgrund von Fehlern in der Adressenauswahl (falsche oder unleserliche Adressen, kein Privathaushalt, Person gehört nicht zur Zielgruppe) nicht durchgeführt werden kann. Da es sich hierbei nicht um systematische Ausfalle bestimmter Gruppen handelt, sondern um zufallige, aufgrund der Auswahlgrundlage bedingte Ausfalle, treten somit normalerweise auch keine Verzerrungen in der Stichprobe auf. Die so reduzierte Stichprobe wird auch als Netto-Stichprobe oder bereinigte Stichprobe bezeichnet (vgl. Schaefer 1979). Zu ihr gehören demnach alle Personen, bei denen ein Interview hätte durchgeführt werden können.

222

Hans-Jürgen Andreß/Haitmut Popken

Als Ausschöpfungsquote wird nun der Anteil der tatsächlich ausgewerteten Interviews bezeichnet. Sie ergibt sich aus dem Verhältnis zwischen der Anzahl der ausgewerteten Interviews (Responses) und dem Umfang der Netto-Stichprobe. Die hier verzeichneten Ausfälle (Non-Responses) werden auch als systematische oder nicht-neutrale Ausfälle bezeichnet, da sie oftmals mit speziellen Merkmalen bzw. Gruppenzugehörigkeiten der nicht an der Untersuchung teilnehmenden Personen verbunden sind. Dies hat zur Folge, daß eben jene Gruppen in der erhobenen Stichprobe nicht mehr repräsentativ vertreten sind. Beispiele aus der Praxis wären die schwere Erreichbarkeit von Einpersonenhaushalten oder eine geringere Kooperationsbereitschaft bei Personen mit niedriger Schulbildung (vgl. Hartmann 1990). Da die Ausschöpfungsquoten bei mündlich durchgeführten Interviews ca. 60 — 70% betragen, bei schriftlichen Befragungen sogar noch deutlich darunter liegen können, entsprechen die erhobenen Stichproben somit nicht mehr unbedingt einem repräsentativen Abbild der Grundgesamtheit. Ziel einer Gewichtung ist daher eine Korrektur dieses Ausfall- respektive Teilnahmeprozesses durch einen Vergleich der erhobenen Untersuchungseinheiten mit einigen Strukturmerkmalen der Grundgesamtheit. In dieser Arbeit soll anhand einer Simulation der Einfluß unterschiedlicher Teilnahmequoten auf die Qualität der gewichteten und ungewichteten Schätzer näher untersucht werden. Im Prinzip handelt es sich dabei um ein Problem fehlender Daten. Dabei beschränken wir uns ausschließlich auf das Problem fehlender Untersuchungseinheiten (Unit-Nonresponse). Fehlende Werte einzelner Variablen (Item-Nonresponse) werden außer Acht gelassen. Untersucht werden sollen die Auswirkungen von Gewichtungsprozeduren auf nicht-metrische (kategoriale) Variablen. Demzufolge werden die Anteile von einzelnen Ausprägungen dieser Variablen betrachtet. Da die meisten der in der sozialwissenschaftlichen Umfrageforschung erhobenen Daten nicht-metrisches Meßniveau haben, dürfte dies keine wesentliche Einschränkung bedeuten.

2.

Redressmentprozeduren

Die Anpassung der erhobenen Daten an externe Randverteilungen durch Gewichtung bezeichnet man auch als Redressment. Der Stichprobe wird sozusagen ein »neuer Anzug« verpaßt, damit sie zumindest in einigen Merkmalen genauso »aussieht« wie die Grundgesamtheit. Um einen erhobenen Datensatz an externen Variablen hochzurechnen, wären im einfachsten Falle folgende Schritte zur Berechnung der Gewichte erforderlich: Als erstes wird eine mehrdimensionale Kreuztabelle der relativen Häufigkeiten (Anteile) sowohl der bekannten Grundgesamtheit als auch der Stichprobe erstellt, wobei die Anzahl der Dimensionen der Anzahl der jeweiligen zur Gewichtung herangezogenen Variablen entspricht.

Bessere Ergebnisse durch Gewichtung?

223

Werden zu einer Gewichtung bspw. drei Variablen mit jeweils zwei, drei und vier Kategorien herangezogen, so ergibt dies eine dreidimensionale Kreuztabelle mit 2 - 3 - 4 = 24 Subpopulationen, im folgenden auch als Zellen bezeichnet. Die Subpopulationen werden dementsprechend immer durch die Ausprägungskombinationen der Gewichtungsvariablen definiert. Die Tabelle der Stichprobe wird dabei als Ist-Tabelle bezeichnet, die der Grundgesamtheit als Soll-Tabelle. Ziel der Gewichtung ist die Anpassung der Ist- an die Soll-Tabelle. Das Gewicht für die einzelnen Zellen entspricht dem Ergebnis einer Division der jeweiligen Soll-Zellenanteile durch die entsprechende Ist-Zellenanteile. Jeder einer Zelle zugehörige Fall der Stichprobe wird anschließend mit diesem Ergebnis multipliziert und erhält so das auf diese Art und Weise errechnete Gewicht. Nach dieser Gewichtung entsprechen die Verteilungen der dazu herangezogenen Variablen in der Stichprobe, sowie auch deren Ausprägungskombinationen, unter bestimmten Voraussetzungen, auf die noch eingegangen werden soll, exakt denen der Grundgesamtheit. Auch die Anzahl der Fälle der gewichteten Stichprobe ist identisch mit der Anzahl der Fälle in der ungewichteten Stichprobe. In der Praxis ist die oben beschriebene einfache »Soll durch Ist« Redressmentprozedur aber oft nicht durchführbar oder ergibt nicht die erwünschten Ergebnisse. Die Gründe hierfür liegen zum Teil in den zur Verfügung stehenden externen Daten, deren gemeinsame Ausprägungskombinationen häufig nicht bekannt sind, andererseits sind sie aber auch durch das Konstruktionsprinzip der Prozedur selbst bedingt. So steigt die Anzahl der möglichen Ausprägungskombinationen mit der Anzahl der verwendeten Variablen drastisch an. Werden zur Gewichtung viele Variablen mit jeweils mehreren Ausprägungen herangezogen, so kann leicht der Fall eintreten, daß einige der Zellen in der Stichprobe unbesetzt bleiben, die in der Grundgesamtheit jedoch besetzt sind. In der gewichteten Stichprobe würden diese Zellen aufgrund des oben beschriebenen Verfahrens ebenfalls eine Null enthalten, die Anteile dieser Zelle in der Soll-Tabelle gingen demnach in der gewichteten Ist-Zelle verloren. Dies hätte zur Folge, daß der gewichtete Datensatz nicht mehr die gewollten Eigenschaften besitzt, da sowohl die Häufigkeitsverteilungen nicht mit denen der Grundgesamtheit übereinstimmen, als auch die Anzahl der Fälle der gewichteten Stichprobe nicht mit denen der ungewichteten Stichprobe identisch ist. Da das Nullzellen-Problem mit der Anzahl der nichtbesetzten Zellen ansteigt, ist diese Art der Gewichtung ab einem bestimmten Punkt nicht mehr vertretbar. In diesen Fällen wird eine modifizierte Form der oben beschriebenen Gewichtungsprozedur verwendet, die auf einem iterativen Algorithmus von Deming und Stephan (1940) beruht. Dabei wird nicht mehr eine Tabelle mit allen Variablen verwendet, sondern nacheinander Teiltabellen einzelner Variablen bzw. Variablenkombinationen. Die gemeinsamen Ausprägungen aller verwendeten Variablen der Grundgesamtheit müssen dabei nicht mehr bekannt sein. Jede dieser Tabellen wird nacheinander auf die oben beschriebene Weise an die Grundgesamheit angepaßt. Die daraus resultierenden Gewichte gehen jeweils wieder in die gemeinsame

224

Hans-Jürgen Andreß/Hartmut Popken

Tabelle aller Variablen der Stichprobe ein, bevor daraus die nächste Teiltabelle gebildet wird. Dieses Verfahren wird solange durchgeführt, bis sich durch die Teilgewichtungen keine oder nur geringfügige Änderungen an der Gesamttabelle ergeben. Eine genauere Beschreibung dieser Prozedur, die in der Literatur auch als IPF-Algorithmus (iterative proportional Fitting) oder als »Raking«1 bezeichnet wird, findet sich im Kontext log-linearer Modelle beispielsweise bei Davis (1974). Die auf diese Art gewichtete Stichprobe entspricht sowohl in der Anzahl der Fälle der ungewichteten Stichprobe als auch in der Verteilung der Häufigkeiten bei den gewichteten Variablen der Teiltabellen denen der Grundgesamtheit. Durch die somit gewonnene Übereinstimmung der zur Gewichtung herangezogenen Variablen mit den entsprechenden Variablen der Grundgesamtheit könnte nun leicht der Eindruck entstehen, daB sich auch die Qualität der Schätzer bei den anderen in der Grundgesamtheit unbekannten Variablen verbessert. DaB dies nicht unbedingt der Fall ist, soll folgendes Beispiel verdeutlichen (vgl. auch Rothe 1990).

3.

Ein Beispiel zur Gewichtung

Betrachten wir als Beispiel eine Stichprobe, bei der es um die repräsentative Erhebung des Erwerbsstatus gehen soll. Anders ausgedrückt: Die Verteilung der Variablen ERWERB mit den drei Ausprägungen »erwerbstätig«, »arbeitslos«, »sonstiges« ist in der Grundgesamtheit unbekannt und soll nun mithilfe einer Stichprobenerhebung geschätzt werden. Wir bezeichnen sie daher als Zielvariable der Analyse. Für das folgende Simulationsexperiment mußten wir jedoch die Grundgesamtheit als bekannt voraussetzten, d.h. auch die Verteilung der Variablen ERWERB, um überhaupt beurteilen zu können, wie stark der — gewichtete oder ungewichtete — Anteil der Erwerbstätigen in der Stichprobe vom »wahren« Anteil in der Grundgesamtheit abweicht. Aus dieser »konstruierten« Grundgesamtheit wurde nun eine Stichprobe von 500 Befragten gezogen. Die Verteilung einiger ausgewählter Merkmale in Grundgesamtheit und Stichprobe zeigt die folgende Tabelle. Da das »Nullzellen-Problem« in diesem Fall keine Rolle spielte, wurde die »Stichprobe« nach dem oben beschriebenen, einfachen »Soll durch Ist« Verfahren gewichtet. Als Gewichtungsvariablen (GV) dienten dabei die ersten drei Merkmale ALTER, GESCHLECHT und PARTEI. Dabei ist der Datensatz bewuflt so konstruiert, daß das Gewichtungsverfahren einen verzerrenden EinfluB auf die geschätzten Anteile der drei Ausprägungen der Variablen ERWERB hat. Dieses muB

1)

Der Begriff »Raking« (Harken) veranschaulicht die Vorgehensweise des IPF-Algorithmus, in dem er dessen Ähnlichkeit mit der Gartenarbeit »Harken« herausstellt. Die Tabelle wird quasi mehrmals horizontal und vertikal »geharkt« und zwar solange, bis die Randverteilungen passen.

225

Bessere Ergebnisse durch Gewichtung?

nicht immer so sein, das konstruierte Beispiel ermöglicht es jedoch die Bedingungen genauer zu studieren, unter denen eine solche Verzerrung eintreten kann. Tabelle 1 Grundgesamtheit ALTER jung mittel alt ges.

N 985 2520 1495 5000

% 19,7 50,4 29,9 100,0

GESCHL männl. weibl. ges.

2558 2442 5000

51,2 48,8 100,0

2260 1826 496 418 5000

45,2 36,5 9,9 8,4 100,0

ALTER

ALTER

jung mittel alt ges

N 66 336 _98 500

% 15,2 67,2 19,6 100,0

2913 780 1307 5000

58,3 15,6 26,1 100,0

männl. weibl. ges.

CDU SPD FDP sonst. ges.

188 312 500

37,6 62,4 100,0

N 98 252 149 500

% 19,7 50,4 29,9 100,0

männl. weibl. ges.

256 244 500

51,2 68,8 100,0

226 183 50 J2 500

45,2 36,5 9,9 8,4 100,0

335 53 111 500

67,0 10,7 22,3 100,0

PARTEI 216 184 58 42 500

43,2 36,8 11,6 8,4 100,0

CDU SPD FDP sonst. ges.

310 6 126 500

62,0 12,8 25,2 100,0

erwerb. arb.los sonst. ges.

ERWERB erwerb. arb.los sonst. ges.

jung mittel alt ges. GESCHL

PARTEI

ERWERB erwerb. arb.los sonst. ges.

Gewichtete Stichprobe

GESCHL

PARTEI CDU SPD FDP sonst. ges.

Ungewichtete Stiebprobe

ERWERB

Betrachten wir zunächst die ungewichtete Stichprobe: Bei den GV ALTER, GESCHLECHT und PARTEI finden sich z.T. sehr hohe Abweichungen gegenüber der Grundgesamtheit. So sind die mittlere Altersgruppe sowie die Gruppe der Frauen stark überrepräsentiert. Auch die Anteile der ZV ERWERB sind nicht mit denen der Grundgesamtheit identisch. So ist hier die Gruppe der Erwerbstätigen deutlich stärker vertreten. Die Gewichtung hat bei den dazu herangezogenen Variablen ALTER, GESCHLECHT und PARTEI das gewünschte Ergebnis erzielt: Die Anteile gleichen exakt denen der Grundgesamtheit. Anders jedoch bei der nicht in die Hochrechnung eingegangenen Zielvariablen ERWERB. In den einzelnen Ausprägungen zeigen sich nach der Gewichtung sogar noch stärkere Differenzen gegenüber der Grundgesamtheit. Eine Hochrechnung auf der Basis der gewichteten Stichprobe würde daher verzerrtere Ergebnisse liefern als eine Hochrechnung ohne Gewichtung.

226

Hans-Jürgen Andreß/Hartmut Popken

Die Gründe dafür liegen in den relativ hohen Abweichungen zwischen der Grundgesamtheit und der ungewichteten Stichprobe bei den Variablen GESCHLECHT und ALTER sowie deren Korrelation mit der Variablen ERWERB. Die Gruppe der Nicht-Erwerbstätigen ist in der Gruppe der Frauen sowie in der mittleren Altersgruppe besonders vertreten, andererseits ist sie in der Stichprobe unterrepräsentiert, da in diesem Beispiel die Teilnahmequote der Nicht-Erwerbstätigen unterdurchschnittlich ist. Da aber sowohl die Frauen als auch die mittlere Altersgruppe überdurchschnittlich vertreten sind, wird die mangelnde Teilnahme der Nicht-Erwerbstätigen zum Teil wieder ausgeglichen. Soweit die ungewichtete Stichprobe. Durch die Gewichtung werden nun die Anteile der Frauen und der mittleren Altersgruppe verringert, womit analog eine Verringerung des Anteils der NichtErwerbstätigen einhergeht. Als Folge davon ist in der gewichteten Stichprobe die Gruppe der Nichterwerbtstätigen noch weiter unterrepräsentiert. Eine Gewichtung würde in diesem Falle also die Schätzer für die ZV deutlich verschlechtern.

4.

Ein einfaches Simulationsmodell des Teilnahmeprozesses

Anhand des vorangegangenen Beispiels wurde deutlich, daß der Prozeß der Teilnahme einen großen Einfluß auf die Qualität von Gewichtungen hat. Nun ist aber auch gerade dieser Prozeß der Grund für eine Gewichtung, durch die ja die Ausfälle ausgeglichen werden sollen. Treten aber bei den nicht in die Gewichtung einbezogenen Variablen (in unserem Beispiel die ZV) Ausfälle auf, haben also Personen mit eben diesen Eigenschaften eine geringere Teilnahmebereitschaft bzw. lassen sich bei ihnen in geringerem Maße Interviews realisieren, so ist mit einer Gewichtung nicht ohne weiteres eine Verbesserung der Qualität aller Schätzer verbunden. In der Praxis werden zu einer Hochrechnung in der Regel mehr Variablen verwendet als bei dem vorangegangenen Beispiel. Dadurch wird es zunehmend schwieriger, den Einfluß der einzelnen Variablen als auch den Ausfallprozeß genauer zu analysieren, da sich die Effekte sowohl verstärken als auch gegenseitig aufheben können. Wir verwenden daher ein stark vereinfachtes Modell, in dem lediglich eine ZV (Erwerbstätigkeit) und eine GV (Geschlecht) betrachtet werden, die zudem beide dichotome Merkmale sein sollen. Durch diese Vereinfachung ist es nun mit Hilfe einer Simulation des Teilnahmeprozesses, der ja in der Regel unbekannt ist, möglich, sämtliche Einflüsse der relevanten Parameter festzustellen, und so grundsätzlich einen Eindruck von Gewichtungen unter unterschiedlichen Bedingungen zu erlangen. Ziel der Simulation ist demnach ein Vergleich des gewichteten und des ungewichteten geschätzten Anteils einer Ausprägung der ZV unter Berücksichtigung unterschiedlicher Teilnahmequoten und unterschiedlicher Korrelationen zwischen GV und ZV.

Bessere Ergebnisse durch Gewichtung?

227

In unserer Beispiel stellen sich dadurch folgende Fragen: — Wie wird die Qualität der Gewichtung durch unterschiedliche Teilnahmequoten einzelner Gruppen (Männer/Frauen, Erwerbstätige/Nicht-Erwerbstätige) beeinflußt? — Welche Rolle spielt dabei die Beziehung zwischen der GV Geschlecht und der ZV Erwerbstätigkeit? Im Rahmen dieses Aufsatzes gehen wir von einer einfachen Zufallsauswahl der Stichprobe aus, d.h. jede Untersuchungseinheit hat die gleiche Selektions- oder Inklusionswahrscheinlichkeit τ, = τ. Weiterhin sei angenommen, daß die Antwortwahrscheinlichkeit сц («mit response) für alle Untersuchungseinheiten einer Subpopulation j, die bei der ZV die Ausprägung к haben, identisch ist = Unter der Teilnahmequote qi = T i , a i verstehen wir nun die Wahrscheinlichkeit, nicht nur für die Untersuchung ausgewählt zu werden, sondern auch tatsächlich an ihr teilzunehmen. Unter den genannten Annahmen variieren die Teilnahmequoten nur nach Subpopulationen und Ausprägungen der Zielvariablen: qi = T-aj k =qj k .

Teilnahme

Abb. 1: Teilnahme-Modell

Abbildung 1 zeigt eine grafische Darstellung des zugrundeliegenden Modells. In diesem vereinfachten Modell einer typischen Stichproben-Erhebung geht es ebenfalls um die Analyse der Erwerbstätigkeit. Ferner werden hierbei verschiedene soziodemographische Merkmale wie z.B. Geschlecht herangezogen. Erwerbstätigkeit (E) ist demnach die ZV, eigentlich in der Grundgesamtheit unbekannt, Geschlecht (G) die GV, über die in der Grundgesamtheit Informationen vorliegen, so daß sie in diesem Fall zu einer Gewichtung herangezogen werden kann. Die Teilnahmebereitschaft (T) ist eine dichotome Variable, die angibt, ob eine Person teilnimmt oder nicht. Wie durch die Pfeile gekennzeichnet, kann die Teilnahmebereitschaft von der GV, der ZV oder sogar von beiden gemeinsam abhängig sein. Um den Einfluß der Gewichtung bei unterschiedlichen Voraussetzungen zu berechnen, verwenden wir ein zweistufiges Modell. Im ersten Schritt wird die

228

Hans-Jürgen Andreß/Hartmut Popkeo

Grundgesamtheit festgelegt, daran anschließend kann daraus die Stichprobe errechnet werden. Zuerst wird die Größe N der Grundgesamtheit sowie der Anteil der Männer festgelegt. Dann ist festzulegen, wie die beiden Merkmale Б und G in der Grundgesamtheit miteinander variieren sollen. Dazu werden die Anteile der Erwerbstätigen bzw. Nicht-Erwerbstätigen getrennt nach Männern und Frauen berechnet: Erwerbstätige

Nicht-Erwerbstätige

Männer

Pu

Pu

Frauen

Pjl

Pb

Alle vier Anteilswelte können in einer 2-2 Matrix Ρ zusammengefaßt werden. Da sich die Anteile jeweils zu 1 addieren, genügt es den jeweils ersten Anteilswert (der Anteil der Erwerbstätigen) zu betrachten. Dazu formulieren wir das folgende lineare Modell: Pji = 7i + 72* j = 1. 2 γ, bezeichnet dabei die allgemeine Erwerbstätigkeitsquote, y2 die Abweichung der Erwerbstätigkeitsquote der Männer vom Durchschnitt, χ ist eine 1/ —1 kodierte Dummy-Variable für das Merkmal G (x= 1 bei Männern, χ = — 1 bei Frauen). Die jeweils ersten Anteilswerte lassen sich als eine Funktion F(P) der Matrix Ρ auffassen. Dementsprechend kann unser lineares Modell wie folgt in Matrixschreibweise spezifiziert werden: 1 1

Pli P21

1 -1

7i 72

Da nun alle Merkmale der Grundgesamtheit bekannt sind, kann darauf aufbauend in einem zweiten Schritt die Stichprobe berechnet werden. Dabei ist die Abhängigkeit der Variablen Τ von den beiden Variablen G und Ε zu modellieren. Es müssen also die Teilnahmequoten für alle in der Grundgesamtheit vorkommenden Subpopulationen bestimmt werden. Analog dazu gibt es in diesem Beispiel 2-2 = 4 Teilnahmequoten, die in einer 2'2-Matrix Q zusammengefaßt werden können: Erwerbstätige

Nicht-Erwerbstätige

Männer

Я.1

4l2

Frauen

421

0.4

Gm. Sichpob· -UngM.SfchfMbe -20СГ- Untmdlätang (*) Abb. 2:

3)

Realisiert wurde die Simulation durch ein Pascal-Programm.

Bessere Ergebnisse durch Gewichtung?

231

In Abb. 2 ist der optimale Anwendungsfall für Gewichtungen zu sehen. Die allgemeine Teilnahmequote beträgt wie auch in allen anderen Beispielen 50% 03! = 0.5). Die Teilnahme ist hier nur von der Variablen Geschlecht abhängig (ß2 variiert), die Teilnahme der Männer ist also unterschiedlich zu der Teilnahme der Frauen. Im Gegensatz dazu nehmen Erwerbstätige in genau dem gleichen Umfang an der Untersuchung teil wie Nicht-Erwerbstätige, es besteht also kein Zusammenhang zwischen Erwerbstätigkeit und Teilnahme 033 = 0). Andererseits besteht aber ein sehr starker Zusammenhang zwischen Geschlecht und Erwerbstätigkeit, also zwischen GV und ZV. Die Erwerbstätigkeit der Männer ist um 40% höher (72 = 0,4) als die allgemeine Erwerbsquote von 50% (γι =0,5). Die Schätzer der gewichteten Stichprobe entsprechen in diesem Beispiel exakt dem Anteil der Erwerbstätigen in der Grundgesamtheit, ihre Y-Werte liegen folglich alle bei 0 und somit auf der Y-Achse, weshalb die durchgezogene Linie in der Darstellung schlecht zu erkennen ist. Im Gegensatz dazu entspricht der Schätzer bei der ungewichteten Stichprobe nur unter der Bedingung, daB es keinen Unterschied der Teilnahmequoten zwischen Männern und Frauen gibt (/32 = 0), dem tatsächlichen Anteil in der Grundgesamtheit. Je mehr /32 von 0 abweicht, desto größer ist in diesem Beispiel die Verzerrung des ungewichteten Schätzers. Das Ausmaß der Verzerrung, in der Grafik die Steigung der Geraden, ist dabei abhängig von dem unterschiedlichen Anteil der Erwerbstätigen bei Männern und Frauen (72). Je größer diese Differenz, desto stärker sind die Verzerrungen in der Stichprobe. Wäre dieser Unterschied nicht vorhanden (72 = 0). also keine Beziehung zwischen Geschlecht und Erwerbstätigkeit, so wäre eine Gewichtung nicht mehr notwendig (was die ZV betrifft), da auch die ungewichteten Schätzer der ZV dem Anteil in der Grundgesamtheit entsprechen würden. Abb. 2 zeigt also eine Situation, in der die Ausfalle ausschließlich durch die GV bedingt sind. In diesem Fall können die Verzerrungen in der Stichprobe durch eine Gewichtung völlig ausgeglichen werden. In Abb. 3 ist die Teilnahme ausschließlich an die Variable Erwerbstätigkeit gekoppelt (ß3 variiert), die Teilnahmequote der Erwerbstätigen weicht also vom Durchschnitt ab. Es besteht somit weder ein Zusammenhang zwischen GV und ZV (72 = 0), noch nehmen Männer oder Frauen unterschiedlich an der Untersuchung teil (/32 = 0). Hier zeigt sich ein Anwendungsfall, bei dem die Gewichtung überhaupt keinen Einfluß auf die Qualität der Schätzer hat, sowohl gewichtete als auch ungewichtete Schätzer sind gleich verzerrt, in der Grafik wiederum schierig zu erkennen, da beide Linien übereinander liegen. Die Ausfalle sind bei diesem Fall ausschließlich an die ZV gekoppelt. Nur wenn die Teilnahme der Erwerbstätigen sich nicht von der allgemeinen Teilnahme unterscheidet (jS 3 =0), entsprechen beide Schätzer den Anteilen der Grundgesamtheit. In Abb. 4 variiert wie bereits im vorangegangenen Beispiel die Teilnahme nach der Erwerbstätigkeit. Allerdings besteht hier zusätzlich noch ein starker Zusammenhang zwischen Geschlecht und Erwerbstätigkeit (y2— ~0,4), die Erwerbstätigkeit der Männer liegt um 40% unter dem Durchschnitt. Zwar sind

232

Hans-Jürgen AodreB/Hartmut Popken

sowoM die Schätzer der ungewichteten als auch der gewichteten Stichprobe nicht mit den tatsächlichen Anteilen in der Grundgesamtheit identisch, die Qualität der gewichteten Schätzer ist aber in allen Bereichen besser.

Abb. 4:

Bessere Ergebnisse durch Gewichtung?

233

Hier besteht zwar keine direkte Beziehung zwischen Teilnahme und Geschlecht (02 = 0), Männer und Frauen nehmen zu gleichem Anteil an der Untersuchung teil, wohl aber ist die Erwerbstätigkeitsquote bei Männern und Frauen unterschiedlich (72= —0,4). Da aber andererseits Teilnahme von Erwerbstätigkeit abhängig ist, sind wegen des Zusammenhangs von Erwerbstätigkeit und Geschlecht Männer und Frauen in der Stichprobe nicht gleichermaßen vertreten wie in der Grundgesamtheit. Diese Abweichung wird durch die Gewichtung mit der GV Geschlecht aufgehoben und fuhrt gleichzeitig (wegen der Rückkopplung auf die Anteile der Erwerbstätigen) zu geringeren Abweichungen der gewichteten Schätzer. Eine Gewichtung wäre in diesem Fall also durchaus sinnvoll. Sie würde zwar nicht wie in Abb. 1 die Verzerrungen gänzlich bereinigen, aber immerhin um einen gewissen Grad verringern.

In Abb. 5 bestehen Beziehungen sowohl zwischen Teilnahme und Geschlecht (ß2= —0,25), als auch zwischen Teilnahme und Erwerbstätigkeit (ß3 variiert). Allerdings ist die Erwerbstätigkeit bei Männern und Frauen gleich (y2=0). War in den vorangegangenen Beispielen eine Gewichtung durchaus sinnvoll oder zumindest relativ besser, so zeigt sich an diesem Fall eine Konstellation, bei der eine gewichtete Hochrechnung durchgehend schlechtere Ergebnisse mit sich führen würde. Da in diesem Fall keine Beziehung zwischen Geschlecht und Erwerbstätigkeit besteht, der Anteil der Männer bei den Erwerbstätigen dem der Frauen entspricht, zugleich aber die Teilnahme sowohl der Männer als auch der Erwerbstätigen vom Durchschnitt abweicht, kann eine Gewichtung die Ergebnisse nur noch verschlechtern.

234

Haas-Jürgen Aadreß/Hattmut Popken

In Abb. 6 ist die Teilnahme sowohl von Geschlecht (ß2=—0,2) als auch von Erwerbstätigkeit (ß3 variiert) abhängig. Ebenso ist die Erwerbstätigkeit bei Männern und Frauen verschieden ( 7 2 = 0 , 2 ) , so daß eine Gewichtung unter bestimmten Voraussetzungen (hier /З 3 0,02) aber die ungewichtete Stichprobe präzisere Schätzer liefert. Diese Situation lag der eingangs beschriebenen Stichprobenziehung mit den Variablen ERWERB, ALTER, G E S C H L E C H T und PARTEI zugrunde. Wie man dort sehen konnte, können die Abweichungen der gewichteten Schätzer durchaus relevant sein. Da hier die Teilnahmebereitschaft der Männer um 20% unter dem Durchschnitt liegt ( 0 2 = —0,2), ihre Erwerbstätigkeitsquote aber auch um 20% höher ist als der Durchschnitt (72 = 0,2), wird durch eine Gewichtung auch der Anteil der Erwerbstätigen erhöht. Kommt dazu noch eine überdurchschnittliche Teilnahme dieser Gruppe, so wird die Erwerbstätigkeit in der gewichteten Stichprobe deutlich zu hoch geschätzt, während die Qualität der Schätzer in der ungewichteten Stichprobe dagegen etwas besser ist.

Bessere Ergebnisse durch Gewichtung?

6.

235

Unter welchen Umständen ist eine Gewichtung sinnvoll?

Typen von Missing-Data Für die folgende Zusammenfassung der Ergebnisse des Simulationsexperiments ist es sinnvoll, verschiedene Typen von Missing-Data bzw. verschiedene Arten von Ausfallprozessen zu unterscheiden. Wir orientieren uns dabei an der Typologie von Rubin (1976), der zwischen ignorierbaren und nicht ignorierbaren Ausfallprozessen unterscheidet: a) Ein ignorierbarer Ausfallprozeß liegt dann vor, wenn die fehlenden Werte der Zielvariablen zufällig auftreten, entweder für die gesamte Stichprobe (missing completely at random — MCAR) oder innerhalb bestimmter Subpopulationen (missing at random — MAR). Die Teilnahmequoten q sind also entweder für alle Untersuchungseinheiten konstant q j = q + + (MCAR-Prozeß) oder innerhalb jeder Subpopulation j konstant qi=qy+ (MAR-Prozeß). b) Auf keinen Fall dürfen die Teilnahmequoten mit den Ausprägungen к der (teilweise) beobachteten Zielvariablen variieren. In diesem Fall handelt es sich um einen nicht ignorierbaren AusfallprozeB (nonignorable, nonrandom — NINR), da die beobachteten Werte systematisch mit den tatsächlichen Werten der Ziel variablen zusammenhängen. In unserem Simulationsexperiment wurden verschiedene Konstellationen der drei Variablen Geschlecht (Gewichtungsvariable), Erwerbstätigkeit (Zielvariable) und Teilnahme (kein Ausfall) durchgespielt, die eindeutig den drei verschiedenen Arten von Ausfallprozessen zugeordnet werden können. Die zwei Modelle 1 und 2, in denen die Teilnahme an der Untersuchung weder vom Geschlecht der Befragten noch von ihrer Erwerbstätigkeit abhängt (letztere variiert allenfalls mit dem Geschlecht), entsprechen einem MCARProzeß. 1

G

1

Ε Π)

E

(21

In beiden Fällen zeigen sich keine Unterschiede zwischen dem gewichteten und dem ungewichteten Schätzer, sie wurden daher im vorherigen Abschnitt auch gar nicht weiter diskutiert. Handelt es sich also um einen vollständig zufalligen Ausfallprozeß, in dem die Teilnahme an der Untersuchung weder von der/n Gewichtungsvariable(n) noch von der Zielvariablen abhängt, dann bringt die Berücksichti-

236

Hans-Jürgen AodreB/Hartmut Popken

gung der Stichprobenausfalle keine zusätzlichen Informationen (ausgenommen eine zusätzliche Effizienz der Schätzer, was jedoch nicht Thema dieses Aufsatzes ist). Dies ist im übrigen die Standardannahme der üblicherweise verwendeten Prozeduren zur Behandlung fehlender Werte (listwise bzw. pairwise deletion of missing data). Implizit gehen diese ad-hoc-Prozeduren der Ignorierung fehlender Werte von einem MCAR-Prozeß aus. Ein MAR-Prozeß liegt dagegen bei den Modellen 3 und 4 vor, in denen die Teilnahme an der Untersuchung ausschließlich von dem Geschlecht der Befragten abhängt.

/, L (3)

m

Hier variiert die Teilnahme je nach Subgruppe (Männer oder Frauen), ist aber immer noch von den Werten der Zielvariablen unabhängig. Dies ist der klassische Anwendungsfall einer Gewichtungsprozedur: Dazu muß allerdings die Zielvariable wie in Modell 4 (vgl. Abb. 2) von der Gewichtungsvariablen abhängen. In diesem speziellen Fall (MAR und Zielvariable abhängig von Gewichtungsvariable/n) ist der gewichtete Schätzer ein unverzerrter Schätzer der tatsächlichen Anteilswerte der Zielvariablen. Soweit die ignorierbaren Ausfallprozesse — was ist jedoch mit den nicht ignorierbaren Ausfällen, die in der Praxis sehr viel häufiger auftreten? Intuitiv erwartet man bei NINR-Prozessen, daß keiner der beiden Schätzer, egal ob gewichtet oder ungewichtet, den tatsächlichen Anteil erfaßt. Die spannende Frage ist jedoch, ob der gewichtete Schätzer vielleicht nicht ganz so verzerrt ist wie der ungewichtete. Wir haben dazu die folgenden Modelle 5—8 geprüft, die sich allesamt dadurch auszeichnen, daß die Teilnahme an der Untersuchung (mindestens) mit dem Erwerbsstatus, also den Werten der Ziel variablen, zusammenhängt.

Λ Λ ΛΔ Η

И

я

w

Damit gewichteter und ungewichteter Schätzer sich überhaupt unterscheiden, muß die Teilnahme von der Gewichtungsvariablen Geschlecht abhängen. Da dieses in Modell 5 (vgl. Abb. 3) nicht der Fall ist, sind in diesem Fall beide Schätzer gleich schlecht. Der gewichtete Schätzer ist immer dann relativ (!) besser als der ungewichtete, wenn in einem NINR-Prozeß paradoxerweise die Teilnahme von

Bessere Ergebnisse durch Gewichtung?

237

der/den Gewichtungsvariable/n unabhängig ist (Modell 6, vgl. Abb. 4). In dieser Konstellation macht sich der Ausfallprozeß über die Brücke G Ε bei der Gewichtungsvariablen bemerkbar, da diese jedoch den Ausfallprozeß nicht beeinflußt, kann sie auch keine zusätzlichen Fehler in die Schätzung einbringen. Sie fungiert quasi als Meßinstrument für den (unbekannten) Ausfallprozeß bei der Zielvariablen (vgl. die Analogie zur Schätzung mit Instrumentalvariablen in Mehr-Gleichungsmodellen). Diese für den gewichteten Schätzer günstigere Situation kehrt sich genau dann um, wenn wie in Modell 7 (vgl. Abb. 5) der Teilnahmeprozeß auch von der Gewichtungsvariablen abhängt, diese aber nichts mit der Ziel variablen zu tun hat. In diesem Fall wird ein Teil der Erwerbstätigen (Männer) anders gewichtet als der Rest (Frauen), obwohl die fehlenden Erwerbstätigen sich nicht durch das Geschlecht von den teilnehmenden unterscheiden. Die Gewichtung produziert also zusätzliche Fehler. Als vorläufige erste Schlußfolgerung für einen systematischen Ausfallprozeß (NINR-Prozeß) läßt sich daher festhalten: Wenn eine Gewichtung zwar verzerrte, aber immerhin bessere Schätzungen als ohne Gewichtung liefern soll, dann müssen die Gewichtungsvariablen mit der Zielvariablen zusammenhängen, dürfen jedoch nicht die Teilnahme an der Untersuchung beeinflussen. Leider werden Gewichtungsvariablen gerade nicht nach diesem Kriterium ausgesucht und darüberhinaus sind alle für ein Redressment praktisch zur Verfügung stehenden Variablen in der Regel mit der Teilnahmebereitschaft korreliert. Von daher sind die relativen Vorteile einer Gewichtung in Modell 6 skeptisch zu beurteilen. Modell 8 beschreibt schließlich den Fall, der in den meisten Anwendungen zutreffen dürfte: Die Teilnahmebereitschaft hängt sowohl von den Gewichtungsvariablen als auch von der Zielvariablen ab und beide Variablentypen sind kausal verkettet. In dieser Situation ist der relative Vorteil der Gewichtung am schwierigsten zu bestimmen, denn je nach Richtung und Stärke der beteiligten Effekte kann der gewichtete oder der ungewichtete Schätzer relativ besser sein. Prinzipiell gibt es immer einen Bereich des Parameterraumes, in dem der gewichtete Schätzer den ungewichteten übertrifft. Dazu müssen die Ausprägungen der Zielvariablen, die von Ausfallen besonders betroffen sind, durch die Gewichtung überproportional angehoben werden. Das ist nur dann möglich, wenn diese Ausprägungen in den Subpopulationen überproportional auftreten, die ebenfalls stark von Ausfallen betroffen sind oder anders ausgedrückt, deren Charakteristika (Gewichtungsvariablen) negativ mit der Teilnahmebereitschaft korrelieren. Dieses wäre die zweite Schlußfolgerung aus unserem Simulationsexperiment.

ΔΔΔΔ М

М

М

Μ

238

Hans-Jürgen Andreß/Hartmut Popken

Die vier Pfaddiagramme fassen noch einmal diese (8a) und andere (8b—d) Parameterkonstellationen zusammenfassen, in denen in unserem einfachen Beispiel der ungewichtete Schätzer relativ besser ist.

Verallgemeinerung des Simulationsexperiments In komplexeren Anwendungen mit mehr als zwei Subpopulationen (ein oder mehrere Gewichtungsvariablen mit zwei und mehr Ausprägungen) und polytomen Zielvariablen ist es jedoch nicht so einfach, die Verzerrung des gewichteten und des ungewichteten Schätzers zu beurteilen. Für diese Zwecke ist es notwendig, das oben beschriebene Simulationsexperiment zu verallgemeinern. Dazu definieren wir zwei j·k-Matrizen Ρ und Q sowie einen j-l-Vektor 6. Die Elemente des Vektors δ entsprechen den Anteilen der j Subpopulationen in der Grundgesamtheit. Wir betrachten diese Subpopulationen als voneinander unabhängige Subgruppen der Grundgesamtheit, innerhalb derer uns die Anteile pjk der einzelnen Ausprägungen к der Ziel variablen interessieren. Die Matrix Ρ enthält also zeilenweise die subpopulationsspezifischen Verteilungen der Zielvariablen, für die daher die Restriktion £ j ) j k = l gilt- Die Matrix Q enthält schliefllich die oben definierten Teilnahmequoten qjk, von denen wir im allgemeinen Fall annehmen, dafi sie je nach Subpopulation j und Ausprägung к der Zielvariablen verschieden sein können. Zwei spezielle Teilnahmequoten (TQ) sind für die folgenden Ableitungen hilfreich: a) allgemeine TQ

q+ + = Lj(ij EkPjkljk).

b) subpopulationsspezifische TQ

qj + = LkPjkljk·

Unter Verwendung dieser Definitionen entspricht der ungewichtete Stichprobenanteil uk der Ausprägung к der Zielvariablen "k = LjSjPjk4jk / q+ + . der gewichtete Anteil gk dagegen gk = LjäjPjkqjk / 4j+ Beide Werte sind jeweils ein Schätzer für den tatsächlichen Anteil tk der Ausprägung к in der Grundgesamtheit. Dieser ist jedoch nichts anderes als ein (mit den Anteilen der Subpopulationen) gewichteter Durchschnitt der subpopulationsspezifischen Anteilswerte pjk: tk = EjäjPjk-

Bessere Ergebnisse durch Gewichtung?

239

Die ungewichteten bzw. gewichteten Anteilswerte unterscheiden sich davon lediglich durch den Faktor bzw. — sie sind sozusagen doppelt gewichtete Durchschnitte. Daraus lassen sich schließlich zwei weitere Schlußfolgerungen ziehen: — Der ungewichtete Anteilswert ut ist dann mit dem tatsächlichen Anteil tk identisch, wenn sich die einzelnen Teilnahmequoten q^ nicht von der Gesamtteilnahmequote q+ + unterscheiden (qjk/q+ + =l). — Der gewichtete Anteilswert gk ist dann mit dem tatsächlichen Anteil tk identisch, wenn sich die einzelnen Teilnahmequoten q^ nicht von den jeweiligen Teilnahmequoten qj+ der Subpopulationen unterscheiden (qjt/qj+ =1)· Die erste Annahme (qjk/q+ + = 1) entspricht der Definition eines MCAR-Prozesses, die zweite = 1) entspricht einem MAR-Prozeß. Sind die Matrizen Ρ und Q sowie der Vektor 6 bekannt, dann lassen sich alle Anteilswerte berechnen, — z.B. mit einer matrizenorientierten Programmiersprache, wie die folgende GAUSS-Prozedur zeigt (Aptech 1988): P R O C gew01(p,q,d); /* Parameter: p(j,k] » Anteile der Zielvariablen pro Subpopulation q[j.kj » Teilnahmequoten pro Subpop. und Ausprägung der Zielv. d[j,1] « Anteile der Subpopulationen in der Grundgesamtheit

*/

LOCAL k,g,u; /* g und u sind die k'1-Vektoren der gewichteten und ungewichteten Anteile

*/

к - cols(p); 0 " (P-*q-/((P-*q)*ones(k,1)))'d; u-(p.*qV(d'(p.*q)*ones(k,1)))'d; Г Ergebnis:

k-3-Matrix mit tatsächlichen (1.), ungewichteten (2.) und gewichteten Anteilen (3. Spalte)

*/

RETP(p'd~u~g); ENDP;

δ ist auf Grund von Daten über die Grundgesamtheit bekannt, Ρ und Q sind dagegen normalerweise unbekannt, jedoch kann man mit Hilfe geeigneter Annahmen über Ρ und Q ähnlich wie in unserem Simulationsexperiment die Konsequenzen für die verschiedenen Schätzer durchspielen. Dieser Punkt wird im letzten Abschnitt diskutiert.

240

7.

Haas-Jürgen Aadreß/Hartmut Popken

Scblußbetrachtung

Abschließend wollen wir die wesentlichen Ergebnisse unserer Untersuchung zusammenfassen und einige Konsequenzen für die Praxis der Umfrageforschung ziehen: 1. Die Anpassung einer Stichprobe an bekannte Randverteilungen der Grundgesamtheit durch Gewichtung kann bessere Schätzergebnisse liefern als ein Verzicht auf entsprechende Redressment-Prozeduren, mu0 es aber nicht. 2. Eine Gewichtung ist streng genommen nur dann sinnvoll, wenn der Ausfallprozeß als zufällig betrachtet werden kann, — zumindest innerhalb der Subgruppen, die durch die Gewichtung angepaßt werden (MAR-Prozeß). 3. Bei Ausfallen (NINR-Prozeß), die mit den untersuchten Merkmalen zusammenhängen, über die keine Vergleichsinformationen in der Grundgesamtheit vorliegen, liefern gewichtete wie ungewichtete Schätzer gleichermaßen verzerrte Ergebnisse. In diesem Fall kann es nur noch um die Frage gehen, unter welchen Bedingungen der gewichtete Schätzer nicht ganz so verzerrt ist wie der ungewichtete. 4. Um einen relativ besseren gewichteten Schätzer zu erhalten, wären alle die Variablen optimale Gewichtungsfaktoren, die hoch mit den untersuchten Merkmalen korrelieren, jedoch nicht die Teilnahme an der Untersuchung beeinflussen. Diese Forderung erfüllen jedoch die wenigsten praktisch verfügbaren Anpassungsmerkmale. 5. Damit also im allgemeinen Fall die Gewichtung weniger verzerrte Ergebnisse liefert, müssten die Subpopulationen relativ stärker gewichtet werden, bei denen auch überproportional viele Ausfälle bei den Ziel variablen auftreten. Da aber über diese Merkmale keine Informationen aus der Grundgesamtheit vorliegen, der Ausfallprozeß also nicht überprüft werden kann, ist diese Frage empirisch nicht entscheidbar. Allerdings ist die Situation nicht ganz so desolat, wie man auf Grund der letzten These annehmen könnte. Mindestens gibt es begründete Annahmen darüber, welche Personengruppen (differenziert nach potentiellen Gewichtungsvariablen und Untersuchungsmerkmalen) sich eher an einer Umfrage beteiligen. Das gleiche gilt für die Zusammenhänge zwischen den Zielvariablen und den Gewichtungsvariablen. Häufig liegen auch quantitative Vergleichsdaten über Teilnahme und Untersuchungsmerkmale aus anderen Studien vor — zumindest für Teile der in Frage stehenden Merkmalszusammenhänge. Alle diese Informationen erlauben dem Sozialforscher, Modelle für den Teilnahmeprozeß (die Matrix Q) und die Abhängigkeit der Zielvariablen von den Gewichtungsvariablen (die Matrix P) zu formulieren. Die Annahmen können in einem linearen Modell für die Teilnahmequoten qjk einerseits und die Anteilswerte Pjk andererseits zusammengefaßt werden:

Bessere Ergebnisse durch Gewichtung?

F(P) = X,

241

bzw. F(Q) = Y/3

F(P) und F(Q) sind geeignete Funktionen der Matrizen Ρ und Q, die eine Modellierung analog dem GSK-Ansatz erlauben (Grizzle/Starmer/Koch 1969).4 X und Y sind entsprechende Designmatrizen für die verschiedenen Effekte, die die Zielvariable sowie die Teilnahme an der Untersuchung beeinflussen, β und у sind die dazugehörenden Parametervektoren (vgl. das obige Simulationsbeispiel). Durch Annahme verschiedener Designmatrizen und Parametervektoren lassen sich also verschiedene Matrizen Ρ und Q generieren und mit Hilfe der zuvor beschriebenen Methoden die Effekte einer Gewichtung untersuchen.5 Dabei können Teile des Modells für F(P) bzw. F(Q) aus einer GSK-Schätzung für einen anderen Datensatz übernommen werden, d.h. die Simulationsannahmen können partiell durch empirische Daten untermauert werden. Statt einer routinemäßigen Anwendung von Redressment-Prozeduren plädieren wir also für mehr Sensitivitätsanalysen, die basierend auf plausiblen Annahmen über den Teilnahmeprozeß zeigen, wie stark gewichtete und ungewichtete Schätzer von den tatsächlichen Anteilswerten abweichen können. Daneben müßte man über entsprechende Testverfahren verfugen, an Hand derer sich entscheiden ließe, ob die erhobenen Daten durch einen MCAR- oder MAR-Prozeß generiert wurden. Im positiven Fall könnte man dann problemlos eine Gewichtung vornehmen, ohne große Verzerrungen befürchten zu müssen. Im negativen Fall (NINR-Prozeß) wäre zu fragen, ob diese Testprozedur auch Informationen darüber liefert, von welchen Merkmalen die systematischen Ausfalle abhängen. Für metrische Variablen existieren Standard-Testverfahren für Missing-Data (insb. item nonresponse, vgl. etwa das Programm AM im BMDP). Ähnliche Prozeduren lassen sich im Rahmen log-linearer Modelle mit latenten Klassen implementieren (Fuchs 1982, Fay 1986), haben jedoch noch relativ wenig Verbreitung in der Forschungspraxis gefunden. Dies liegt nicht zuletzt daran, daß die mathematisch-statistischen Details (Identiflzierbarkeit, numerische Lösbarkeit) durchaus nicht trivial sind (vgl. die Diskussion bei Winship/Mare 1989).

4)

Genauer gesagt ist F(P) ein j(k —l)-l-Vektor aller subpopulationsspezifischen Anteilswerte (ausgenommen der jeweils letzte Anteils wert) und F(Q) ein jk-1-Vektor aller Teilnahmequoten. Beide Matrizen werden also zeilenweise in einen langen Spaltenvektor geschrieben, wobei wegen der Restriktion £ j > | k = l der jeweils letzte Anteilswert einer Zeile von Ρ weggelassen werden kann.

5)

Mit dem Programm DESMAT von Hummelman, Hagenaars und Luijkx (vgl. Hagenaars 1990: 312) kann man auf einfache Art und Weise beliebige Designmatrizen generieren, die in andere Programme eingelesen werden können. Angenommen man hat F(P) bzw. F(Q) in zwei Gauss-Vektoren fp und fq übernommen und der bekannte Vektor 6 ist in d abgespeichert, dann liefern die folgenden Programmzeilen die tatsächlichen, die ungewichteten und die gewichteten Anteilswerte aller Ausprägungen der Zielvariablen für das obige Beispiel (Alter-Geschl-Partei, Erwerb): 1-24; К—3; ρ-reshape(fp,j,k-1); p.p~(1-p*ones(k-l,1)); q-reshape(lq,|,k); gew01(p,q,d); Alle verwendeten Programme sind auf Anfrage bei den Autoren erhältlich.

242

Hans-Jürgen Andreß/Haitmut Popken

Literaturangaben Aptech Systems Inc., 1988: Gauss. Programming language manual. Version 2.0. Kent, WA. Davis, J.A., 1974: Hierarchical models for significance test in multivariate contingency tables: An exegesis of Goodman's recent papers. In: Costner, H.L. (ed.), Sociological Methodology 1973-74, San Francisco 1974: 189-231, Joesey-Bass. Demrng, W.Ε./Stefan, F.F., 1940: On a least square adjustment of a sampled frequency table when the expected marginal totals are known. Annals of Mathematical Statistics 11: 427-444. Fay, R.E., 1986: Causal models for patterns of nonresponse. Journal of the American Statistical Association 81: 354-365. Fuchs, С., 1982: Maximum likelihood estimation and model selection in contingency tables with missing data. Journal of the American Statistical Association 63: 1091-1131. Grizzle, J.E./Starmer, C.F./Koch, G.G., 1969: Analysis of categorical data by linear models. Biometrics 25: 489-504. Hagenaars, J.A., 1990: Categorical longitudinal data. Log-linear panel, trend, and cohort analysis. London/Beverly Hills: Sage. Hartmann, P., 1990: Wie repräsentativ sind Bevölkerungsumfragen? Ein Vergleich des ALLBUS und des Mikrozensus. ZUMA-Nachrichten 26: 7-30. Rothe, G., 1990: Wie (un)wichtig sind Gewichtungen? Eine Untersuchung am ALLBUS 1986. ZUMA-Nachrichten 26: 31-55. Rubin, D.B., 1976: Inference and missing data. Biometrika 63: 581-592. Schaefer, F., 1979: Muster-Stichproben-Pläne für Bevölkerungs-Stichproben in der Bundesrepublik Deutschland und West-Berlin. München: Verlag Moderne Industrie. Winship, C./Mare, R.D., 1989: Loglinear models with missing data: a latent class approach, in: Sociological Methodology 17: 331-367.

Peter Kappelhoff

Strukturmodelle von Position und Rolle

1.

Netzwerkanalyse als Analyse sozialer Strukturen

1.1

Methodologischer Relationalismus

Die soziale Netzwerkanalyse umfaßt eine Vielzahl von Methoden zur Untersuchung von sozialen Strukturen. Allen diesen Methoden ist gemeinsam, daß soziale Strukturen als Muster von sozialen Beziehungen zwischen sozialen Objekten verstanden werden. Die sozialen Objekte können dabei sowohl Personen wie auch Gruppen oder Organisationen oder sogar ganze Gesellschaften sein. Entsprechend vielfaltig sind auch die möglichen Beziehungstypen, aus denen sich das soziale Netzwerk zusammensetzt (vgl. Kappelhoff 1989). Grundlegende Analyseeinheit der Netzwerkanalyse ist also die soziale Beziehimg. Damit eine Menge von sozialen Beziehungen allerdings ein Netzwerk bildet, müssen diese Beziehungen wieder untereinander in Beziehung stehen — eine Ansammlung unverbundener sozialer Beziehungen allein macht noch kein soziales Netzwerk aus (vgl. Nagel 1957, S. 16). Der eigentliche Gegenstand der sozialen Netzwerkanalyse sind also Beziehungen von Beziehungen. Diesem Ansatz liegt eine methodologische Orientierung zugrunde, die man am ehesten als methodologischen Relationalismus bezeichnen könnte. Danach konstituiert sich das Soziale primär als ein Genecht von sozialen Beziehungen und erst sekundär durch soziales Handeln der beteiligten Individuen oder die systemische Gesamtheit der Sozialstruktur. Der methodologische Rationalismus ist also zwischen dem sozialen Atomismus und dem sozialen Holismus angesiedelt. Es mag daher nützlich sein, unser Verständnis des methodologischen Relationalismus von dem des methodologischen Individualismus abzugrenzen. Der methodologische Individualismus sieht soziale Ereignisse als das Ergebnis (im Sinne intendierter und nicht intendierter Folgen) von individuellen Handlungen an, wobei zugleich die Auswirkungen des sozialen Kontextes als Randbedingungen berücksichtigt werden. Sozialtheorie ist demnach Handlungstheorie plus kontextuelle Einbindung. Der methodologische Individualismus ist dabei nicht auf eine bestimmte Handlungstheorie festgelegt. In seiner modernen strukturell-individualistischen Form ist er aber überwiegend der Theorie rationalen Handelns verpflichtet (vgl. z.B. Voss 1985: llff.). Der methodologische Individualismus hat also nichts gemein mit der Vorstellung sozial isolierter Individuen und ist durchaus in der Lage, makroskopische Phänomene als kollektive Folgen individuellen Handelns zu erklären und dabei auch Strukturbedingungen des Handelns in

244

Peter Kappelboff

der Erklärung als Randbedingungen zu berücksichtigen. Wir wollen diese Form der Erklärung makroskopischer Phänomene als Emergenz von unten bezeichnen. Soweit ist der strukturell-individualistische Ansatz Grundlage eines erfolgreichen Forschungsprogrammes, das gerade in den 80er Jahren weiter entwickelt wurde (vgl. z.B. Boudon 1980, Coleman 1990). Wird aus der strukturellindividualistischen Methode allerdings ein methodologisches Prinzip abgeleitet, postuliert sie also ein methodologisches Primat, so erweist sich diese sozialphilosophisch-wissenschaftstheoretische Position als problematisch. Ihr nicht hinterfragbarer Ausgangspunkt, das individuelle Handeln zur Grundlage jeder soziologischen Erklärung zu machen, verrät einen latenten Anthropozentrismus. Als metaphysisches Prinzip behauptet es nämlich einen priviligierten Zugang zum Sozialen gerade durch die individuelle Handlungslogik. Das Soziale wird sozusagen durch die Emergenz von unten erklärt. Völlig aus dem Blick gerät dabei aber die Konstitution von oben, d.h. die gesellschaftliche Prägung des Individuellen (vgl. Dürkheim 1988). Inwieweit soziales Handeln im weiteren Sinne überhaupt individuell zurechenbar ist, ist aber eine offene Frage, die im methodologischen Individualismus prinzipiell vorentschieden wird. Als Grundlage einer soziologischen Theoriebildung scheint mir aber eine Strategie erfolgreicher zu sein, die an die soziale Wechselwirkung als den grundlegenden sozialen Tatbestand anknüpft. Um metaphysische Überschußbedeutungen möglichst zu vermeiden, ist es aber auch hier sinnvoll, Ismen und Logien möglichst zu vermeiden und in Bezug auf die soziale Netzwerkanalyse schlicht von der relationalen Methode zu sprechen. Verbindungen mit der individualistischen Methode (vgl. z.B. Burt 1982) sind daher in der sozialen Netzwerkanalyse ebenso möglich wie zur strukturalistischen (vgl. z.B. White 1963).

1.2

Mitgliedschaftsrollen und relationale Rollen

Nadel (1957) unterscheidet in seiner »Theorie sozialer Strukturen« u.a. zwischen Mitgliedschaftsrollen und relationalen Rollen. Da in dem Konzept der Mitgliedschaftsrolle noch einmal die gerade angesprochene Dualität von Individuum und Gesellschaft zum Ausdruck kommt, wollen wir auf diese Unterscheidung kurz eingehen, bevor wir uns unserem eigentlichen Thema zuwenden, nämlich einer netzwerkanalytischen Formalisierung verschiedener Modelle von relationalen Rollen. Gesellschaften bestehen nach Nadel nicht nur aus dem »infinite array of relationships, interconnected and filling up the society« (1957: 95), sondern auch aus Verbindungen zwischen Subgruppen, die durch ihre Mitglieder induziert werden. Dies kann auf verschiedene Weisen geschehen: Einmal durch grenzüberschreitende soziale Beziehungen, die einen spezifischen Aspekt relationaler Rollen darstellen, oder durch multiple Mitgliedschaften. Diese je spezifische Kreuzung sozialer Kreise in einer Person war schon für Simmel das Charak-

Strukturmodelle von Position und Rolle

245

teristikum der modernen Individualität. Eine Person ist danach charakterisiert durch die sie konstituierenden Gruppenbezüge, wie sich auch umgekehrt eine soziale Gruppe über ihre Mitglieder charakterisieren läßt. Diese Dualität von Person und Gruppe wurde in der Netzwerkanalyse in Form eines bipartiten Graphen formalisiert. Die Punktemenge des Graphen besteht dabei aus den beiden Teilmengen der Personen und der Gruppen. In einem solchen bipartiten Graphen gibt es nur Beziehungen zwischen Personen und Gruppen, die jeweils die Mitgliedschaft einer bestimmten Person in einer bestimmten Gruppe anzeigen. Aus einem solchen bipartiten Graphen läßt sich sowohl ein PersonenPersonen-Netzwerk ableiten, das die Verbindungen über gemeinsame Mitgliedschaften enthält, wie auch ein Gruppen-Gruppen-Netzwerk, das die Verbindungen durch überlappende Mitgliedschaften enthält (vgl. Breiger 1974). Aus dem bipartiten Graphen als ebenenverbindendes Mitgliedschaftsnetzwerk werden also zwei ebenenspezifische Netzwerke abgeleitet. Damit kehren wir wieder zur relationalen Rolle zurück. Auch hier haben wir es mit einer Dualität zu tun, nämlich mit der Dualität von Position und Rolle. Linton versteht unter einer sozialen Position (er spricht von sozialem Status) »den Platz, den ein Individuum zu einer bestimmten Zeit in einem bestimmten System einnimmt« (1973: 311). Der PositionsbegrifT zeichnet sich also durch eine Systemreferenz (und auch eine Zeitreferenz) aus. So kann ein Individuum durchaus in verschiedenen Systemen unterschiedliche Positionen einnehmen. Damit ist für die Bestimmung einer Position eine vorherige Klärung der Systemreferenz notwendig. Rolle bezeichnet nach Linton dann die Gesamtheit aller kulturellen Muster, die mit einer bestimmten Position verbunden sind. Dies schließt die legitimen Erwartungen ein, die von anderen an einen Inhaber dieser sozialen Position gerichtet werden. Da wir hier auf eine strukturelle Charakterisierung von Rollen abzielen, interessiert uns vor allem das manifeste Rollenverhalten, d.h. die sozialen Rollenbeziehungen, die sich aus diesen Erwartungen ergeben. Der Systembezug des Positionsbegriffs bedeutet, daß eine Position immer nur relativ zu den anderen Positionen im System bestimmt werden kann. Jedem Bezug einer fokalen Position auf eine andere Position im System (Positionssegment) entspricht auf der Rollenebene ein spezielles Rollensegment, nämlich eine spezifische Rollenbeziehung gegenüber dieser Position (vgl. Dahrendorf 1974: 30ff.). Die Gesamtheit der Rollenbeziehungen wird das zu der fokalen Position gehörende Rollenbündel genannt (Merten (1973) spricht hier von dem zugehörigen roleset). In Kapitel 4 werden wir in diesem Zusammenhang von einer lokalen Rolle sprechen. Betrachtet man eine Position als ein Element in einem System von Positionen, das durch Rollenbeziehungen verknüpft ist, so sprechen wir von einer globalen Rolle (s. Kapitel 2; zur Begrifllichkeit vgl. Mandel 1983). Damit werden einige Beschränkungen unseres Versuchs deutlich, Netzwerkmodelle von Position und Rolle zu entwickeln. Behandelt wird dabei nämlich immer nur der strukturell-statische Aspekt dieser Begriffe. Außerdem gehen wir stets von einem angeschlossenen System von sozialen Beziehungen zwischen sozialen Objekten aus. Dabei kommt dem vorgängigen Problem der System-

246

Peter

Kappelboff

abgrenzung eine besondere Bedeutung zu (vgl. Laumann u.a. 1983). Dies gilt sowoM für die Abgrenzung der zum sozialen System gehörenden Objekte wie auch für die Abgrenzung der Beziehungstypen, die das soziale Netzwerk ausmachen. Da eine systematische Diskussion des Abgrenzungsproblems hier nicht möglich ist, illustrieren wir es lediglich anhand einiger typischer Anwendungsfalle, um den praktischen Hintergrund unserer Modellierungsbemühungen deutlich zu machen: — Bank Wiring Observation Room-Gruppe (Homans 1950): Für die Gruppe von Verdrahtungsarbeitern ist die Systemabgrenzung relativ unproblematisch, da die Gruppenmitgliedschaft durch die Rahmenbedingungen des Experiments vorgegeben war und die erhobenen Beziehungstypen (Freundschaft, Spiele, Arbeitstausch, Hilfeleistung, Antagonismus, Streit) die relevanten Gruppenbeziehungen erfassen (vgl. auch Kappelhoff 1987a). — Gemeindeelite von Altneustadt (Pappi 1984): Hier ist insbesondere die Abgrenzung der Elitemitglieder problematisch; es wurde eine Positionsmethode mit reputationellem Filter verwandt. Für die Machtstrukturanalyse wurden 3 Beziehungstypen ausgewählt, nämlich Machtreputationsnennungen, politische Diskussion und Tausch von politischen Gefälligkeiten (vgl. Kappelhoff und Pappi 1987). — Unternehmensverflechtungen (Ziegler 1984): Diese Untersuchung der Verflechtungen zwischen großen Wirtschaftsunternehmen der BRD im Jahre 1976 erfordert eine sorgfältige Abgrenzung der einzubeziehenden Unternehmen. Darüber hinaus ist die Bestimmung der für die Untersuchung relevanten Verflechtungsbeziehungen außerordentlich problematisch (vgl. Pappi u.a. 1987). Ausgangspunkt der Analyse zur Bestimmung von Positionen und Rollen ist also in allen Fällen ein multiples Datennetzwerk D = [ P , R 1 , . . . , R n ] , bestehend aus der Menge der sozialen Objekte Ρ und den Relationen R , , . . . ^ , die den Netzwerken für die verschiedenen Beziehungstypen entsprechen. Für das Folgende muß genau zwischen den sozialen Beziehungen im Datennetzwerk und den daraus zu bestimmenden Rollenbeziehungen zwischen sozialen Positionen unterschieden werden. Eine parallele Unterscheidung muß auch zwischen den zu ermittelnden sozialen Positionen und den zugehörigen Positionsinhabern, also den sozialen Objekten des Datennetzwerkes, gemacht werden. Das Datennetzwerk der beobachteten sozialen Beziehungen zwischen konkreten Objekten soll also als ein Netzwerk von Rollenbeziehungen zwischen Positionen rekonstruiert werden.

StruktunnodeUe von Position und Rolle

2.

Die klassische Blockmodellanalyse

2.1

Das Nullblockkriterium

247

Die Grundgedanken der Blockmodellanalyse1 wurden in dem Aufsatz »Social Strucure from Multiple Networks: Blockmodels of Roles and Positions« von White, Boorman und Breiger (1976) entwickelt. Bereits im Titel des Aufsatzes wird der Anspruch deutlich, ein Verfahren zur Bestimmung von Positionen und Rollen in sozialen Netzwerken entwickelt zu haben. Wie bereits in Kapitel 1 erläutert, ist ein multiples Datennetzwerk Ausgangspunkt der Überlegungen. Alle Beziehungstypen, die das zu analysierende soziale System von Positionen und Rollen umfaßt, müssen gleichzeitig untersucht werden, um dem multiplexen Charakter von Rollenbeziehungen Rechnung tragen zu können. Das bedeutet, daß erst alle Beziehungstypen gemeinsam den Charakter einer Rollenbeziehung ausmachen, also im Falle der Gruppe der Verdrahtungsarbeiter z.B. eine Rollenbeziehung, die durch Freundschaft, Spiele, Hilfeleistung und Arbeitsplatztausch und gleichzeitig durch das Fehlen von Antagonismen und Streit gekennzeichnet ist. Zur Vereinfachung der Darstellung beschränken wir uns in den folgenden Darstellungen der Verfahren aber auf einfache Netzwerke. Die in Abbildung 1 dargestellte Struktur enthält eine zentrale Gruppe von Akteuren {3,4,5,6}, die untereinander vollständig verbunden sind, und eine weitere, periphere Gruppe von Akteuren {1,2,7,8}, die jeweils zu einem der zentralen Akteure eine einseitige Beziehung haben. Eine Cliquenanalyse (vgl. Kappelhoff 1987c) würde lediglich die zentrale 1-Clique {3,4,5,6} liefern. Die peripheren Akteure 1,2,7 und 8 sind dagegen nicht miteinander verbunden und können deshalb durch das verbundenheitsorientierte Verfahren der Cliquenanalyse nicht zueinander gruppiert werden. Dennoch ist intuitiv klar, daß auch die peripheren Akteure strukturell ähnliche Positionen einnehmen. Dies wird auch an der nach den Positionen I = {3,4,5,6} und II = {1,2,7,8} umgruppierten zugehörigen Soziomatrix in Abbildung lb deutlich. Dieses Blockmodell enthält zwei sogenannte Nullblöcke, nämlich Felder ohne jeglichen Eintrag einer Beziehung, die in dem zugehörigen Rollenmodell in Abbildung lc als Nullen dargestellt sind. Das Rollenmodell enthält also die Rollenbeziehungen zwischen den Positionen I und II. Die Inhaber der Position I sind untereinander verbunden, die Inhaber von Position II aber nicht (Hauptdiagonalelemente); dagegen haben die Inhaber von Position II Beziehungen zu Position I, aber nicht umgekehrt (Nebendiagonalelemente). Der Leitgedanke der dargestellten Datenreduktion, der in dem sogenannten Nullblockkriterium zum Ausdruck kommt, besagt also, daB soziale Strukturen gerade durch Beziehungsverbote, also durch fehlende Beziehungen zwischen gewissen Positionen, charakterisiert sind. So sind z.B. in bestimmten klassifi-

1)

Das Verfahren kann hier aus Platzgründen nur in den Grundzügen erläutert werden. Eine ausführliche Darstellung findet sich z.B. bei Kappelhoff (1987b).

248

Peter Kappelboff a) Struktur 1

5• «-

-» 3·

6

4

b) Blockmodell für Struktur 1

3

4

5

6

3

X

1

1

1

4

1

X

1

1

5

1

1

X

1

6

1

1

1

X

1

1

2

1

2

7

8

1

7

1

8

1 c) RoUenmodell für Struktur 1

I

II

I

1

0

I := {3,4,5,6}

II

1

0

":= {1,2,7,8} Abb. 1

katorischen Verwandtschaftssystemen Heiraten nur zwischen bestimmten Gruppen erlaubt, woraus sich dann komplementär die gerade angesprochenen Beziehungsverbote zu anderen Gruppen ergeben (vgl. Levi-Strauss 1981).2 Nach dem Nullblockkriterium erfolgt die Bestimmung der Positionen und damit auch der Rollenbeziehungen in der Blockmodellanalyse derart, daß in der umgruppierten Soziomatrix (Blockmodell) möglichst viele Nullblöcke erscheinen. Allerdings ist damit noch kein praktisches Verfahren zur Bestimmung von Positionen und Rollen gegeben.

2)

Die Untersuchung solcher klassifikatorischen Verwandtschaftssysteme mit algebraischen Methoden durch White (1963) beeinflußte die Entwicklung der Blockmodellanalyse in entscheidenden Punkten.

249

Strukturmodelle von Position und Rolle

Bevor wir auf dieses Problem zurückkommen, untersuchen wir noch zwei weitere Strukturen, die Abwandlungen des gerade diskutierten Beispiels darstellen (siehe Abb. 2). In Struktur 2 können wir wieder die Positionen I = {3,4,5,6} und II = {1,2,7,8} erkennen. Das zugehörige Blockmodell ist allerdings leicht verändert, da das Feld der Beziehungen der Inhaber von Position I untereinander kein kompletter Einsblock mehr ist, d.h. das Feld ist nicht vollständig mit Einträgen von Beziehungen gefüllt. An der Grundstruktur, also an den beiden Nullblökken, hat sich dadurch aber nichts geändert, so daß sich das gleiche Rollenmodell (und damit die gleichen Rollenbeziehungen zwischen den Positionen) ergibt wie in Struktur 1. Anders liegt der Fall in Struktur 3 (siehe Abb. 2b). Im Vergleich zu Struktur 1 verfügen die Akteure 1 und 2 jeweils über eine zusätzliche Beziehung und die Akteure 7 und 8 fehlen ganz. Die Akteure 3,4,5 und 6 sind nun nicht mehr in einer vergleichbaren Position, da zwar 3 und 4 über AuBenbeziehungen verfügen, aber nicht 5 und 6. Wir müssen hier also die drei Positionen Γ = {1,2}, II' = {3,4} und III' = {5,6} unterscheiden und erhalten daher ein verändertes Blockmodell und ein verändertes Rollenmodell (vgl. Abb. 2c).

c) Block- und Rollenmodell für Struktur 3

1

3

4

1

1

1

1

3

χ

1

1

1

4

1

x

1

1

5

1

1

χ

1

6

1

1

1

x

1 2

2

X X

5

6

l':={1,2} ΙΓ:={3,4} lll':={5,6}

Abb. 2

1'

II'

III'

I'

0

1

0

II'

0

1

1

III'

0

1

1

250

Peter Kappelboff

Die Blockmodellanalyse gehört zu den positionsorientierten Verfahren (vgl. Burt 1978). Im Gegensatz zu den verbundenheitsorientierten Verfahren wird dabei nicht nach sozialer Nähe (operationalisieit als irgendeine Form von direkter oder indirekter Verbundenheit oder als Überlappungen in den primären Umwelten zwischen den Akteuren), sondern nach der Ähnlichkeit der sozialen Position von Akteuren gruppiert. Dadurch ist es möglich, daB Akteure der gleichen Position zugeordnet werden, ohne daß sie untereinander verbunden sind — wie z.B. die Akteure 1,2,7 und 8 in Struktur 1, die alle eine periphere Position einnehmen. Andererseits können aber auch 1-Cliquen als Positionen erscheinen, wie z.B. die Akteure 3,4,5 und 6. Unterscheiden sich die Mitglieder einer Clique aber in ihren Außenbeziehungen, wie z.B. in Struktur 3, wo die Akteure 5 und 6 im Gegensatz zu den Akteuren 3 und 4 über keine Außenbeziehungen verfügen, so wird die Cliquenstruktur weiter aufgespalten, um vergleichbare soziale Positionen zu erhalten. Schließlich ist es möglich, daß die Inhaber einer sozialen Position zwar intern verbunden sind, ohne daß sie eine 1-Clique bilden. Dafür ist die Position {3,4,5,6} in Struktur 2 ein Beispiel. Die Gruppierung von Akteuren in soziale Positionen erfolgt also nach einem abstrakteren Kriterium als die Gruppierung nach Verbundenheit, und die Resultate beider Vorgehensweisen sind nur in Ausnahmefallen identisch.

2.2

Strukturelle Äquivalenz und strukturelle Ähnlichkeit

Das Nullblockkriterium der Blockmodellanalyse ist nicht ohne weiteres als Gruppierungskriterium für die Bestimmung sozialer Positionen in empirischen Datennetzwerken D = [P,R] geeignet.3 Als Leitgedanke gilt hier das Konzept der strukturellen Äquivalenz. Zwei Akteure a und b aus Ρ sind strukturell äquivalent in Bezug auf das Datennetzwerk D, wenn sie in ihren Beziehungsmustern zu und von allen anderen Akteuren des Datennetzwerkes übereinstimmen, formal: a strukturell äquivalent zu b genau dann, wenn gilt: aRb genau dann, wenn bRa und für alle с aus P, die ungleich a und b sind, gilt: aRc genau dann, wenn bRc und cRa genau denn, wenn cRb. Wie man leicht zeigen kann, ist die so definierte strukturelle Äquivalenz eine Äquivalenzrelation, also reflexiv (a ist strukturell äquivalent zu a), symmetrisch (wenn a strukturell äquivalent zu b ist, dann ist auch b strukturell äquivalent zu a)

3)

Der Übersichtlichkeit der Darstellung wegen beschränken wir uns im folgenden auf ein einfaches Datennetzwerk. Die Definitionen können aber ohne weiteres auf multiple Datennetzwerke übertragen werden. Es ist gerade der Vorteil der positionsorientierten Verfahren im Gegensatz zu den verbundenheitsorientierten, daB sich das Positionskonzept auf ein multiples Datennetzwerk bezieht (siehe 1.2).

Strukturmodelle von Position und Rolle

251

und transitiv (wenn a strukturell äquivalent zu b und b strukturell äquivalent zu с ist, dann ist auch a strukturell äquivalent zu c). Da die strukturelle Äquivalenz eine Äquivalenzrelation darstellt, werden alle Einheiten des Netzwerkes genau einer Äquivalenzklasse strukturell äquivalenter Einheiten zugeordnet, die als ihre soziale Position bezeichnet werden kann. Strukturell äquivalente Akteure sind in Bezug auf ihre relationale Einbettung in das Gesamtnetzwerk vollständig austauschbar. So sind in dem Blockmodell für Struktur 3 (vgl. Abb. 2c) alle Akteure, die zu einer Position gehören, vertauschbar, ohne daß sich die Blockmodellmatrix verändert. Betrachtet man etwa die Akteure 3 und 4 in Position II', so stimmen beide in ihren Zeilen- und Spaltenvektoren (den Beziehungsmustern zu und von allen Akteuren des Netzwerkes) vollständig überein. Beide haben keine Beziehung zu Position I', so daß hier ein vollkommener Nullblock vorliegt. Andererseits haben beide Beziehungen zu allen Akteuren aus Position III', so daß sich hier ein vollkommener Einsblock ergibt. Blockmodelle auf der Grundlage struktureller Äquivalenz als Gruppierungskriterium bestehen also vollständig aus vollkommenen Null- und Einsblöcken. Neben dem Nullblockkriterium der Blockmodellanalyse ist also auch das komplementäre Einsblockkriterium erfüllt. Im Gegensatz dazu erfüllt das Blockmodell für Struktur 1 zwar das Nullblockkriterium, aber nicht das Einsblockkriterium. Der Block, der die Beziehungen von Position I nach Position II enthält, ist z.B. nicht vollständig. Zwar hat jeder Akteur aus Position I genau eine Beziehung zu einem Akteur aus Position II, aber jeder zu einem anderen. Damit sind die Akteure aus Position I ebenso wie die aus Position II nicht äquivalent im Sinne struktureller Äquivalenz. 4 So sind z.B. die Akteure 1 und 2 aus Position I nicht strukturell äquivalent, da 1 eine Beziehung zu 3 hat, 2 aber nicht. Aus dem gleichen Grund sind 3 und 4 aus Position II nicht äquivalent, da 3 eine Beziehung von 1 hat, 4 aber nicht. Es muß deshalb versucht werden, eine Definition von Positionsäquivalenz zu finden, die die strikte Bedingung struktureller Äquivalenz abschwächt. Ein solches verallgemeinertes Konzept von Positionsäquivalenz sollte weiter mit dem Nullblockkriterium vereinbar sein, aber nicht unbedingt vollkommene Einsblöcke an den Stellen fordern, wo Rollenbeziehungen zwischen Positionen bestehen. Bevor wir auf solche Generalisierungen in den Kapiteln 3 und 4 zurückkommen, wollen wir hier noch kurz auf einige Verfahren zur Blockmodellanalyse eingehen, die die Annäherung an strukturelle Äquivalenz als Gruppierungskriterium verwenden. Zwei Einheiten des Datennetzwerkes sind demnach strukturell um so ähnlicher, je besser ihre Beziehungsmuster zu und von allen anderen Akteuren (Zeilen- und Spaltenvektoren der Soziomatrix) übereinstimmen. Als Ähnlichkeitsmaße werden dabei der Korrelationskoeffizient (CONCOR-

4)

Dies gilt erst recht für die Positionen I und Π in Struktur 2. Hier ist auch der Einsblock, der die internen Beziehungen der Akteure der Position {3,4,5,6} enthält, nicht vollkommen. Die Akteure unterscheiden sich hier also nicht nur in ihren Außenkontakten, sondern auch in ihren internen Beziehungen.

Peter Kappelboff

252

Algorithmus), die euklidische Distanz (STRUCTURE), der Index der Co-Blockbarkeit (COBLOC) oder auch andere Ähnlichkeitsmaße verwandt.5 Aus der Matrix der strukturellen Ähnlichkeiten zwischen den Einheiten des Datennetzwerkes werden mit Hilfe einer Clusteranalyse oder eines anderen Gruppierungsverfahrens die Positionen im System bestimmt. In dem zugehörigen Blockmodell werden dann die Blockdichten berechnet und als Null- oder Einsblöcke kodiert. Daraus ergeben sich die Rollenbeziehungen zwischen den Positionen, d.h. das Rollenmodell.

3.

Automorphe und reguläre Äquivalenz

3.1

Automorphe Äquivalenz

Wie wir sahen, sind die beiden Akteure 1 und 2 aus Struktur 1 nicht strukturell äquivalent im Sinne der in Kapitel 2.2 gegebenen Definition, d.h. die Beziehungen zu den anderen Akteuren im System sind nicht identisch. Worauf stützt sich dann aber unsere Intuition, die unmittelbar erkennt, daß die beiden Akteure die »gleiche« Position einnehmen? Offenbar enthält die Struktur 1 einige Symmetrien, die einige Akteure untereinander vertauschbar machen, ohne daß sich die Struktur insgesamt verändert. Betrachtet man z.B. die Drehung um die vertikale Achse, die zwischen den Punkten 3 und 5 bzw. 4 und 6 verläuft, so lassen sich auf diese Weise die Punkte 1 und 7, 2 und 8, 3 und 5 und schließlich 4 und 6 vertauschen, ohne daß sich die Beziehungsmuster zwischen den Punkten ändern. Gleiches gilt für die Drehung um die horizontale Achse zwischen den Punkten 3 und 4 bzw. 5 und 6. Dadurch werden die Punkte 1 und 2, 3 und 4, 5 und 6 und 7 und 8 ineinander übergeführt. Bezeichnen wir die Drehung um die horizontale Achse mit Tj, und die um die vertikale Achse mit x2, so ist auch die Abbildung x 3 = (ir2 nach τ,) eine strukturelle Abbildung, die die Punkte 1 und 8, 2 und 7, 3 und 6 und schließlich 4 und 5 ineinander überführt. Zusammen mit der indentischen Abbildung id können wir damit folgende Multiplikationstabelle konstruieren:

id *ι

5)

id

τι

x2

χ3

id я-! x2 Xj

τι id x3 Xj

x2 T3 id x,

x3 x2 x, id

Alle genannten Verfahren sind in dem Daten- und Methodenbanksystem zur Netzwerkanalyse SONIS (vgl. Pappi und Stelck 1987) enthalten, das über das Mannheimer Zentrum für Sozialwissenschaften als PC-Version bezogen werden kann. Für eingehendere Darstellungen der genannten Verfahren sei auf Kappelhoff (1987b) oder auch auf die SONIS-Programmbeschreibung verwiesen (vgl. Melbeck 1989).

Strukturmodelle von Position and Rolle

253

Die Abbildungen id, x l , x2, x3 bilden eine Untergruppe der Gruppe der Automorphismen Aut(Strukturl) über der Struktur 1 mit der Verknüpfung »o« und der angegebenen Multiplikationstabelle. Formal ist eine Abbildung χ über einer Struktur D = [ P , R ] genau dann ein Automorphismus, wenn gilt: 1)

2)

χ : Ρ — > P ist eine bijektive Abbildung, d.h. je zwei Punkte aus Ρ werden von χ auf verschiedene Punkte (wieder aus P) abgebildet, χ ist also eine Permutation auf P. χ ist strukturtreu, d.h. für je zwei Punkte с und d aus Ρ gilt: cRd genau dann, wenn x(c)Rx(d).

Zwei Akteure a und b aus Ρ sind nun genau dann automorph äquivalent, wenn es einen Automorphismus χ über D = [P,R] gibt, der a auf b abbildet, formal: a automorph äquivalent zu b genau denn wenn gilt: es gibt einen Automorphismus χ über D mit x(a) = b. Zwei Punkte sind also genau dann automorph äquivalent, wenn sie miteinander vertauschbar sind, ohne die Struktur des Datennetzwerkes zu verändern. Es ist unmittelbar klar, daB die automorphe Äquivalenz eine Äquivalenzrelation ist, da sie reflexiv (Identität), symmetrisch (Umkehrabbildung) und transitiv (Verknüpfung durch »»«) ist. Wie gerade gezeigt, sind die Akteure 1,2,7 und 8 automorph äquivalent, ebenso wie die Akteure 3,4,5 und 6. Das Blockmodell in Abb.l beruht also auf der automorphen Äquivalenz als Gruppierungskriterium. Wie man leicht sieht, gilt Aut(Struktur 2) < Aut(Struktur 1), d.h. Aut(Struktur 2) ist eine Untergruppe von Aut(Struktur 1). Weiter ist die oben diskutierte Untergruppe aus id, x t , x 2 und x 3 auch eine Untergruppe von Aut(Struktur 2). 6 Damit wird durch die automorphe Äquivalenz auch das gleiche Blockmodell induziert. Allgemein gilt: Jede strukturelle Äquivalenz ist auch eine automorphe Äquivalenz. Seien nämlich a und b strukturell äquivalent, so ist χ mit x ( a ) = b , x(b) = a und x ( c ) = c für alle c ± a , b offenbar ein Automorphismus (vgl. Everett 1985: 355). Da umgekehrt nicht jede automorphe Äquivalenz eine strukturelle Äquivalenz ist (wie am Beispiel von Struktur 1 gezeigt), handelt es sich bei der automorphen Äquivalenz um eine echte Abschwächung der strukturellen Äquivalenz.

6)

Die volle Gruppe Aut(Struktur 2) enthält neben den vier erwähnten Automorphismen noch die ßrehungen um das Zentrum um 90° und um 270° und die Drehungen um die Achsen (3,6) und (4,5). Die Struktur solcher Automorphismusgruppen wird von Boyd und Everett (1988) diskutiert. Dort findet sich auch die volle Multiplikationstabelle von Aut(Struktur 2) (dort als D, bezeichnet).

Peter Kappelboff

254

3.2

Reguläre Äquivalenz

Auch die automorphe Äquivalenz ist immer noch eine sehr restriktive Bedingung für Positionsäquivalenz. Dazu betrachten wir die beiden hierarchischen Strukturen 4 und 5 in Abbildung 3. Struktur 4 enthält einige Automorphismen mit den dadurch induzierten automorphen Äquivalenzen zwischen den Akteuren. Neben den einfachen Automorphismen, die lediglich die Akteure 4 und 5 oder auch die Akteure 6 und 7 miteinander vertauschen (diesen Automorphismen entsprechen strukturelle Äquivalenzen), ist auch die gleichzeitige Vertauschung von 2 und 3, 4 und 6 und 5 und 7 strukturtreu. Zu beachten ist hier, daß man keinen Automorphismus ζ wichen 4 und 6 konstruieren kann, ohne gleichzeitig 5 auf 7 abzubilden (und auch 2 auf 3). Insgesamt erweisen sich also die Akteure 4,5,6 und 7 als automorph äquivalent und gleichzeitig die Akteure 2 und 3. Akteur 1 besitzt eine singuläre Position. Ganz anders ist die Situation in Struktur 5, die sich von Struktur 4 lediglich dadurch unterscheidet, daß Akteur 3 auf der mittleren Ebene nun über einen zusätzlichen Untergebenen verfügt, nämlich Akteur 8. Wieder sind die einfachen Automorphismen vorhanden, die die Akteure 4 und 5 oder auch die Akteure 6, 7 und 8 untereinander vertauschen und die strukturellen Äquivalenzen entsprechen. Wegen der unterschiedlichen Zahl von Untergebenen sind aber 2 und a) Struktur 4

b) Struktur 5

1

1

c) Struktur 6

1

4

5

6

7

8 Abb. 3

3 nicht miteinander vertauschbar und somit nicht automorph äquivalent. Damit sind auch die Akteure aus den Positionen {4,5} und {6,7,8} nicht miteinander

StrukCurmodeUe

von Position

und

Rolle

255

vertauschbar. Die einzigen automorphen Äquivalenzen in Struktur 5 sind also die strukturellen Äquivalenzen. Auch in diesem Fall ist es aber unmittelbar einleuchtend, daß eine weitere Abschwächung der automorphen Äquivalenz wünschenswert ist, die die Akteure der verschiedenen hierarchischen Ebenen als positionsäquivalent in einem allgemeineren Sinne ausweist. Dabei ist das Problem in Hinblick auf Struktur 5 das folgende: Wenn man annimmt, daB die Akteure 2 und 3 positionsäquivalent sind (mittlere Ebene), sind es automatisch auch die Akteure 4,5,6,7 und 8 (untere Ebene), da sie dann in gleicher Weise zu positionsäquivalenten Akteuren Beziehungen haben, also »strukturerhaltend« vertauschbar sind. Nimmt man umgekehrt an, daB alle Akteure der unteren Ebene positionsäquivalent sind, so folgt analog auch die Positionsäquivalenz der Akteure der mittleren Ebene. Diese zirkuläre Struktur der Argumentation verweist darauf, daß beide Äquivalenzen simultan in einem System von Äquivalenzen definiert werden müssen, wobei die Inhaber einer Position jeweils nur noch vergleichbare Beziehungen zu allen anderen Positionen haben müssen. Damit ergibt sich die folgende, ebenfalls zirkuläre Definition der regulären Äquivalenz (vgl. Sailer 1978, White und Reitz 1983): Zwei Akteure a und b aus D sind genau dann regulär äquivalent, wenn für jede Beziehung zwischen a und einem dritten Akteur к ein zu к regulär äquivalenter Akteur 1 existiert, der zu b in der gleichen Beziehung steht wie к zu a. Im Gegensatz zur strukturellen Äquivalenz wird also nicht verlangt, daB identische Beziehungen zu identischen Akteuren bestehen, sondern nur, daB vergleichbare Beziehungen zu regulär äquivalenten Akteuren bestehen. Damit scheint auf den ersten Blick eine Definition von Positionsäquivalenz gefunden zu sein, die genau den Erfordernissen des soziologischen Positions- und Rollenbegriffs entspricht. So nehmen etwa zwei Lehrer nicht deswegen die gleiche Position ein, weil sie die gleichen Schüler unterrichten, sondern weil beide Schüler unterrichten (analog für die anderen Positionssegmente). Außerdem ist die Anzahl der jeweils unterrichteten Schüler nicht entscheidend für die Positionsäquivalenz. Diese Entsprechung der Beziehungen in den einzelnen Positionssegmenten wird aber nicht nur lokal, sondern global für das gesamte System behauptet (vgl. Kap. 1.2). Dies gilt zwar auch für die automorphe und die strukturelle Äquivalenz (die Verstärkungen der regulären Äquivalenz darstellen), aber im Falle der regulären Äquivalenz ist das gegenseitige Aufeinanderverwiesensein der Positionsbestimmungen gerade zu einem Bestandteil der Definition gemacht worden. Man kann von einer regulären Äquivalenz zwischen zwei Akteuren nur dann reden, wenn man gleichzeitig die regulären Äquivalenzen zwischen allen anderen Akteuren im System beachtet. Jede automorphe Äquivalenz ist auch eine reguläre Äquivalenz (vgl. Everett 1985). Existiert nämlich ein Automorphismus τ mit x(a)=b und gilt aRk, so auch b = Tr(a)Rx(k): = 1; wegen т(к)=1 sind also auch к und 1 automorph äquivalent. Analog kann für kRa geschlossen werden. Umgekehrt ist aber nicht jede reguläre Äquivalenz eine automorphe Äquivalenz, wie das Beispiel von Struktur 5 zeigt. Die Aufteilung nach hierarchischen Rängen in {1}, {2,3} und {4,5,6,7,8}

256

Peter Kappelboff

ist zwar eine reguläre Äquivalenz (jedes Mitglied eines Ranges bat in vergleichbarer Weise Beziehungen zu Mitgliedern der benachbarten Ränge), aber keine automorphe Äquivalenz, da Akteur 3 einen Untergebenen mehr hat als Akteur 2.

3.3

Probleme mit regulären Äquivalenzen

Die Definition der regulären Äquivalenz wurde mit dem Anspruch entwickelt, ein adäquates Modell für die soziologischen Konzepte von Position und Rolle zu entwickeln (vgl. Sailer 1978 und White und Reitz 1983). Leider zeigten sich jedoch bald einige unerwartete Eigenschaften regulärer Äquivalenzen, die quasi in der komplexen zirkulären Definition des Begriffs versteckt waren. Zum besseren Verständnis des Folgenden ist es notwendig, kurz auf die Verfahren zur Bestimmung regulärer Äquivalenz und regulärer Ähnlichkeit einzugehen. Wegen der zirkulären Logik der Definition regulärer Äquivalenz sind diese Algorithmen notwendig iterativ. Sie beginnen mit einer vorgegebenen Struktur regulärer Ähnlichkeiten und berechnen diese Ähnlichkeitsmatrix in jedem Schritt neu auf der Grundlage des Datennetzwerkes und der im letzten Schritt berechneten Ähnlichkeitsmatrix. Dabei sind grundsätzlich zwei Vorgehensweisen möglich, je nachdem welche Ähnlichkeitsmatrix als Ausgangspunkt in Schritt 0 gewählt wird. Entweder wird angenommen, daß jeder Akteur nur zu sich selbst ähnlich ist (Sailer-Algorithmus, siehe Sailer 1978), oder daß alle Akteure einander ähnlich sind (REGE-Algorithmus, siehe MacEvoy und Freeman 1987).7 In den nächsten Schritten werden dann im REGE-Algorithmus diese maximalen Anfangsschätzungen für die reguläre Äquivalenz zweier Akteure a und b nach einem komplexen mathematischen Verfahren sukzessiv verringert, falls es z.B. beim Vorliegen von aRk nicht gelingt, einen zu к äquivalenten Akteur 1 mit bRl zu finden. Die Vorgehensweise beim Sailer-Algorithmus ist genau komplementär. In beiden Fällen sind die Konvergenzeigenschaften der Verfahren bisher noch nicht vollständig geklärt. Daher werden meistens nur einige Iterationsschritte (in der Regel 3) durchgeführt und die Positionen regulär ähnlicher Akteure dann mit Hilfe einer Clusteranalyse der letzten Ähnlichkeitsmatrix bestimmt. Wendet man den REGE-Algorithmus auf zusammenhängende Strukturen in ungerichteten Graphen (z.B. Struktur 6 in Abb. 3) oder auf stark zusammenhängende Strukturen in gerichteten Graphen (z.B. Struktur 7 in Abb. 4) an, so erhält man stets die maximale Äquivalenz — also {1,2,3,4,5,6,7,8} im Falle von Struktur 6 und {1,2,3,4,5,6} im Falle von Struktur 7 (vgl. auch Doreian 1987, 1988a und Borgatti 1988). Der Sailer-Algorithmus findet im ersten Fall die reguläre Äquivalenz {1} {2,3} {4,5,6,7,8} und im zweiten Fall die minimale Äquivalenz {1} {2} {3} {4} {5} {6}. Der entscheidende Punkt ist, daß die unterschiedlichen Ergebnisse nicht auf Defekte in den beiden Algorithmen zurück-

7)

Der Sailer-Algorithmus ist in SONIS implementiert und der REGE-Algorithmus in UCINET (vgl. MacEvoy und Freeman 1987).

Strukturmodelle von Position und Rolle

257

zuführen sind. Im Gegenteil, beide finden korrekte reguläre Äquivalenzen. In jeder zusammenhängenden Struktur ist nämlich die maximale Äquivalenz immer eine exakte reguläre Äquivalenz — jeder hat Beziehungen zu und von irgendjemand und ist daher mit jedem austauschbar (Borgatti 1988). Umgekehrt ist die minimale Äquivalenz unabhängig von der Struktur immer eine reguläre Äquivalenz. Ebenso ist jede strukturelle oder automorphe Äquivalenz eine reguläre Äquivalenz. Für jede Struktur gibt es also immer eine ganze Klasse von regulären Äquivalenzen, die unterschiedliche Äquivalenzklasseneinteilungen induzieren. Darunter können sich auch kontraintuitive Äquivalenzen befinden, wie z.B. die reguläre Äquivalenz {1,4,5,6,7,8} {2,3} in Struktur 6. a) Struktur 7

1

/ \

b) Struktur 8

2

1

\. ·(

·/

5

4

2

/ \

\ ·

·

5

4

/

Abb. 4

Zur weiteren Verdeutlichung dienen die zyklischen Strukturen in Abbildung 4. In Struktur 7 existieren neben den erwähnten (trivialen) regulären Äquivalenzen noch die folgenden beiden: {1,4} {2,5} {3,6} und {1,3,5} {2,4,6}. In Struktur 8 existieren darüber hinaus z.B. noch folgende reguläre Äquivalenzen: {1,2} {3,6} {4,5} und {1,2,4,5} {3,6} sowie {2,3} {1,4} {5,6} und {2,3,5,6} {1,4} und schließlich {3,4} {2,5} {1,6} und {3,4,1,6} {2,5}. 8 Hier angekommen, könnte man vielleicht vermuten, daß jede beliebige Partition eine reguläre Äquivalenz in Struktur 8 induziert. Wie z.B. die Partition {1,2,3} {4,5,6} zeigt, ist dies aber nicht der Fall. Akteur 2 hat nämlich nur Beziehungen innerhalb von {1,2,3} und kann also nicht regulär äquivalent zu 1 oder 3 sein, die beide auch über Beziehungen zu der zweiten Position {4,5,6} verfügen. Da {1,2,3} {4,5,6} eine Verfeinerung von {1,2,3,4,5,6} darstellt, können wir folgern, daß nicht jede Verfeinerung einer regulären Äquivalenz wieder eine reguläre Äquivalenz ergibt. Insgesamt bildet die Gesamtheit der regulären Äquivalenzen einen mathematischen Verband. Wir verzichten in diesem Zusammenhang auf formale Definitionen und mathematische Beweise (vgl. Borgatti und Everett 1989, Theorem 1) und illustrieren die entstehende Verbandsstruktur lediglich, indem wir die im Text erwähnten regulären Äquivalenzen in Struktur 8 in eine partielle

8) Es lassen sich leicht noch weitere reguläre Äquivalenzen finden, so z.B. {1,5} {3} {2,4} {6}.

258

Peter KappelboiT

Ordnung bringen (vgl. Abb. 5). Dabei erinnern wir noch einmal ausdrücklich daran, daß es sich dabei nur um einen Ausschnitt der vollen Verbandsstruktur aller regulären Äquivalenzen für Struktur 8 handelt. ·

·

φ·

2•

h4



8· 2»

3

>4· Abb. 6:

5

7

9

·

·

·





StnikturmodeUe

von Position

und

Rolle

259

Eine weitere Möglichkeit, theoretisch relevante reguläre Äquivalenzen unterhalb der maximalen Äquivalenz zu bestimmen, stellen die sog. lokalen Rollen dar. Bevor wir darauf im abschließenden Kapitel zurückkommen, wollen wir den globalen Charakter der bisher diskutierten Positionsäquivalenzen noch einmal am Beispiel der regulären Äquivalenz verdeutlichen. Dazu betrachten wir die Strukturen 9 und 10 in Abbildung 6. Zur Bestimmung der regulären Äquivalenzen stellen wir zunächst eine diskrete Version des REGE-Algorithmus vor (vgl. Borgatti und Everett 1989): Schritt 0: Schritt 1:

Schritt N + 1 :

Alle Punkte werden der gleichen Äquivalenzklasse zugeordnet. Für Punkte, die nur Kanten aussenden, wird ebenso eine eigene Äquivalenzklasse gebildet, wie für Punkte, die nur Kanten empfangen. Punkte, die Beziehungen zu den gleichen Äquivalenzklassen des Schrittes N haben, bilden die Äquivalenzklassen des Schrittes N + l . Diese Iteration wird solange fortgesetzt, bis sich die Klasseneinteilung nicht mehr verändert. Die so erhaltene Klasseneinteilung ist die maximale reguläre Äquivalenz.

Zur Erläuterung veranschaulichen wir das Verfahren am Beispiel von Struktur 9. Schritt 0 ordnet alle 8 Punkte in die gleiche Äquivalenzklasse. Schritt 1 bringt die Äquivalenzklassen {1,2}' {3,4,5,6,7,8}', da die Punkte 1 und 2 nur Kanten aussenden. Punkte, die nur Kanten empfangen, sind in Struktur 9 nicht enthalten. Wäre auch die Menge der Punkte mit nur ausgehenden Kanten leer (wie z.B. in den Strukturen 6, 7 und 8), wäre das Verfahren bereits hier beendet und alle Punkte wären in der gleichen Äquivalenzklasse.1 Im Schritt 2 wird zusätzlich die Äquivalenzklasse der Punkte 3 und 4 gebildet, die sich dadurch auszeichnen, daß sie sowohl von {1,2}' als auch zu {3,4,5,6,7,8}' Beziehungen haben. Damit ergeben sich folgende Äquivalenzklassen {1,2}" {3,4} u , {5,6,7,8}". Nach den gleichen Überlegungen ergibt sich in Schritt 3 {1,2} ш , {3,4} ш , {5,6} ш , {7,8} ш . Diese Einteilung wird in Schritt 4 reproduziert, d.h. das Verfahren ist damit beendet. Die maximale reguläre Äquivalenz in Struktur 9 wird also durch die von dem diskreten REGE-Algorithmus in Schritt 3 gefundenen Äquivalenzklassen repräsentiert. Für Struktur 10 würde sich nach Schritt 3 die folgende Einteilung in Äquivalenzklassen ergeben: {1,2} {3,4} {5,6} {7,8,9}. Das Verfahren ist aber damit noch nicht beendet: Schritt 4: Schritt 5: Schritt 6:

9)

{1,2} {3,4} {5,6} {7,8} {9} {1,2} {3,4} {5,6} {7} {8} {9} {1,2} {3,4} {5} {6} {7} {8} {9}

Dieses Ergebais macht noch einmal deutlich, daß in stark verbundenen Strukturen alle Punkte untereinander regulär äquivalent sind.

Peter Kappelboff

260

Schritt 7: Schritte:

{1,2} {3} {4} {5} {6} {7} {8} {9} {1} {2} {3} {4} {5} {6} {7} {8} {9}.

Wie man sieht, wird in Schritt 4 die singuläre Position von Punkt 9 erkannt. Das führt in der Folge dazu, daß nacheinander die jeweils benachbarten zweielementigen Äquivalenzklassen aufgebrochen werden, bis schließlich in Schritt 8 jeder Punkt singular ist. Vergleicht man die Ergebnisse für die Strukturen 9 und 10, so erkennt man deutlich den globalen Charakter der regulären Äquivalenz. Veränderungen an einer Stelle im Netzwerk wirken sich schließlich auch an jeder anderen Stelle aus, obwohl sich »lokal« in der Umgebung der Punkte 1 und 2 keine Veränderungen ergeben haben (vgl. auch Doreian 1988a). An diesem Resultat würde sich auch dann nichts ändern, wenn man Struktur 10 erweitern würde, indem man in der Horizontalen weitere Quadrate einbauen und so die Pfaddistanz zwischen den Punkten 1 und 2 auf der linken und dem hinzugefügten Endpunkt auf der rechten Seite beliebig erhöhen würde. Pro Quadrat würden lediglich zwei zusätzliche Schritte für den diskreten REGE-Algorithmus benötigt.

4. 4.1

Konzepterweiterungen Lokale Rollenäquivalenzen

Aufgrund ihres globalen Charakters ist die reguläre Äquivalenz (wie auch die strukturelle und die automorphe) populationsspezifisch. Die Charakterisierung der Positionen erfolgt nämlich immer relativ zu allen anderen Positionen im System. Wird wie in Struktur 10 im Vergleich zu Struktur 9 eine neue Position hinzugefügt, können dadurch alle Positionen im System betroffen sein. Daher sind auch Positionsvergleiche zwischen verschiedenen Systemen nicht möglich. So kann z.B. auf der Grundlage der bisher diskutierten Positionsäquivalenzen nicht entschieden werden, wie ähnlich die Position {3,4,5,6} aus Struktur 1 der Position {3,4} aus Struktur 3 ist. Trotzdem sagt uns unsere Intuition, daß diese beiden Positionen einander ähnlicher (oder gar »äquivalent« in einem noch zu spezifizierenden Sinne?) sind, als z.B. beide der Position {1,3,5} in Struktur 7. Eine Möglichkeit zur Bestimmung solcher Ähnlichkeiten und Äquivalenzen ergibt sich erst, wenn man auf den Vergleich der Beziehungsmuster zu allen anderen Akteuren eines bestimmten Systems verzichtet und stattdessen nur die Art der Beziehungsmuster vergleicht. Solche Äquivalenzen, die auf dem Vergleich von Rollenbeziehungen beruhen, wollen wir Rollenäquivalenzen nennen. Im Unterschied zu den bisher besprochenen Positionsäquivalenzen sind sie nicht populationsspezifisch, d.h. es ist möglich, Rollenäquivalenz auch über verschiedene Datennetzwerke Di = [P,,R] und D2 = [P2,R] zu bestimmen, solange es sich in beiden Fällen um den gleichen Beziehungstyp R handelt. Die System-

Struktunaodelle von Position und Rolle

261

referenz ist also nicht vollständig aufgehoben, sondern bezieht sich auf die Beziehungstypen, über die die Rollenbeziehungen definiert werden. Die Vergleichbarkeit der Rollenbeziehungen setzt voraus, daß diese über der gleichen Menge von Beziehungstypen als Generatoren betrachtet werden. Wir erläutern die Vorgehensweise bei der Konstruktion von Rollenäquivalenzen an zwei Beispielen: der zweistufigen lokalen Rollenäquivalenz (vgl. Winship und Mandel 1983) und der triadischen lokalen Rollenäquivalenz (vgl. Hummell und Sodeur 1987). Aus Platzgründen müssen Verfahren außer Betracht bleiben, die die gesamte subjektive Rollenalgebra (aus der Sicht Egos) zur Grundlage der Bestimmung von RollenäquiValenzen machen (vgl. Mandel 1983, Wu 1983 und Breiger und Pattison 1986). Grundlage der Bestimmung der zweistufigen lokalen Rollenäquivalenz sind alle direkten und indirekten Beziehungen in dem zugrundeliegenden Datennetzwerk D = [P,R], Im Falle eines linearen Graphen (symmetrische Beziehungen) sind dies R und R2 und im Falle eines gerichteten Graphen R,RT (die transponierte Beziehung), RRT, RTR, R2 und R™. In Bezug auf Struktur 5 können die Beziehungstypen wie folgt charakterisiert werden: aRb: aRTb: aRRTb: aRTRb: aR2b: aR^b:

a a a a a a

ist Vorgesetzter von b ist Untergebener von b und b haben den gleichen Untergebenen und b haben den gleichen Vorgesetzten ist Vorgesetzter eines Vorgesetzten von b ist Untergebener eines Untergebenen von b

Jede Rollenbeziehung zwischen zwei Akteuren kann nun in Bezug auf alle Beziehungstypen charakterisiert werden, im Falle des gerade diskutierten Beispiels also durch 6 Beziehungstypen. Die Rollenbeziehung zwischen 1 und 4 z.B. ist danach durch den Vektor 0,0,0,0,1,0 charakterisiert, d.h. 1 ist Vorgesetzter eines Vorgesetzten von 4; die Rollenbeziehung zwischen 4 und 5 wird durch den Vektor 0,0,0,1,0,0 dargestellt; usw. Jede Rollenbeziehung kann also als ein Vektor der Länge 6 dargestellt werden, dessen Einträge das Vorliegen bzw. Fehlen einer Beziehung des jeweiligen Typs induzieren.10 Insgesamt sind damit 26 mögliche Rollenbeziehungen definiert. Für jeden Akteur kann damit sein Rollenbündel (vgl. Kap.1.2) als die Menge seiner Rollenbeziehungen zu allen anderen Akteuren des Systems definiert werden. Zwei Akteure heißen nun genau dann zweistufig lokal rollenäquivalent, wenn ihre jeweiligen Rollenbündel übereinstimmen. Winship und Mandel verlangen dabei für die Gleichheit der Rollenbündel nur, daß jede Rollenbeziehung, die in dem einen

10) Winship und Mandel unterscheiden bei dem Vorliegen einer Beziehung nicht nach der Vielfachheit. So liegt etwa 3RRT3 genau 3 mal vor, 2RRT2 aber nur 2 mal, da Akteur 3 über 3 Untergebene verfügt, Akteur 2 aber nur über 2. Dennoch sind die Rollenbeziehungen der Akteure 2 und 3 zu sich selbst identisch.

262

Peter Kappelhoff

Rollenbündel vorkommt, auch in dem anderen vorhanden ist und umgekehrt." Diese Definition ist vollkommen populationsunabhängig, da die Rollenbeziehungen zunächst in den abstrakten Raum aller möglichen Rollenbeziehungen abgebildet werden (es werden Rollenbündel verglichen und nicht Beziehungsmuster). Voraussetzung für die Vergleichbarkeit der Rollenbündel ist nur, daß die enthaltenen Rollenbeziehungen in den konstitutiven Beziehungstypen übereinstimmen.12 In Struktur 6 ergeben sich folgende zweistufigen lokalen Rollenäquivalenzen: Die Akteure 2 und 3 verfügen jeweils über Untergebene und einen Vorgesetzten, nicht aber über Vorgesetzte von Vorgesetzten oder Untergebene von Untergebenen, sind also rollenäquivalent. Die Akteure 4,5,6,7,8 verfügen alle über keine Untergebenen, aber über einen Vorgesetzten und einen Vorgesetzten eines Vorgesetzten und mindestens (!) einen Kollegen auf der gleichen hierarchischen Ebene, sind also ebenfalls äquivalent. Die vollständige zweistufige lokale Rollenäquivalenz lautet also {1} {2,3} {4,5,6,7,8}. Die Rollenäquivalenz zeichnet hier also eine der möglichen regulären Äquivalenzen aus, und zwar genau die, die den theoretisch relevanten Aspekt einer hierarchischen Struktur darstellt. Der lokale Charakter der Rollenäquivalenz kommt besonders deutlich beim Vergleich der Strukturen 9 und 10 zum Ausdruck. Da die lokale Umgebung (direkte und indirekte Beziehungen) für die Akteure 1 und 2 in beiden Strukturen gleich ist, sind sie äquivalent im Sinne der zweistufigen lokalen Rollenäquivalenz. Würde man allerdings eine vierstufige lokale Rollenäquivalenz betrachten, wären die Akteure 1 und 2 in Struktur 10 nicht mehr rollenäquivalent, da Akteur 1 alle Akteure (mit Ausnahme von 2) in mindestens 4 Schritten erreichen kann, Akteur 2 aber den Akteur 9 nur über 5 Schritte. Der Vektor der Rollenbeziehungen zwischen 2 und 9 besteht also aus lauter Nullen. Eine solche Rollenbeziehung kommt in dem Rollenbündel von Akteur 1 aber nicht vor. Man sieht also, daß man die Anforderungen an eine lokale Rollenäquivalenz durch Berücksichtigung längerer Interaktionsketten verschärfen kann. Damit geht dann aber der lokale Charakter der Rollenäquivalenz weitgehend wieder verloren. Eine zweite Form der lokalen Rollenäquivalenz, die wir hier noch kurz ansprechen wollen, weil sie sehr eng mit der zweistufigen lokalen Rollenäquivalenz verwandt ist, ist die triadische lokale Rollenäquivalenz (vgl. Hummell und Sodeur 1987 und Burt 1990). Grundlage ist hier ein triadischer Positionszensus aus der Sicht des fokalen Akteurs. Da sich Triaden aus direkten und indirekten Beziehungen zusammensetzen, liegt die Verbindung mit der zweistufigen lokalen

11) Berücksichtigt man zusätzlich noch die Vielfachheit der jeweiligen Beziehungstypen, so gelangt man zu der sog. RoUenprofiläquivalenz (vgl. KappelhofT 1987a). 12) So können z.B. die eingangs erwähnten Positionen {3,4,5,6} aus Struktur 1 und {3,4} aus Struktur 3 miteinander verglichen werden, da die zugehörigen Rollenbündel dem gleichen Beziehungsraum angehören. Ein MaB zur Berechnung der Ähnlichkeit von Rollenbündeln wird von Winship und Mandel (1983) vorgeschlagen. Aus Platzgründen können wir auf dieses und weitere Verfahren zur Bestimmung lokaler Rollenähnlichkeiten nicht näher eingehen.

StrukturmodeUe von Position und Rolle

263

Rollenäquivalenz auf der Hand. Der triadische Positionszensus beinhaltet 36 verschiedene Konstellationen, die aus der Sicht des fokalen Akteurs unterschieden werden können.13 Andererseits kann sich ein Rollenbündel bei der zweistufigen lokalen Rollenäquivalenz aus 26 = 64 verschiedenen Rollenbeziehungen zusammensetzen. Da aber in beiden Fällen die Dimensionen des dadurch aufgespannten abstrakten Raumes nicht unabhängig voneinander sein dürften, bleibt die Frage offen, welches Verfahren einen Informationsüberschuß gegenüber dem anderen enthält oder ob beide Verfahren überhaupt in dieser Weise vergleichbar sind. Zusammenfassend kann festgehalten werden, daß die lokalen Rollenäquivalenzen auf einer höheren Abstraktionsebene ansetzen als die Positionsäquivalenz. Rollenäquivalenz bezieht sich auf die Übereinstimmung in einem abstrakten Raum (der in unseren Beispielen durch alle zweistufigen Rollenbeziehungen bzw. durch alle Triadentypen des Positionszensus aufgespannt wird) und ist damit populationsunabhängig. Soziale Systeme, die durch die gleichen Beziehungstypen konstituiert sind, werden auf diese Weise vergleichbar gemacht. Der lokale Charakter dieser Verfahren ergibt sich daraus, daß nur Beziehungsverknüpfungen bis zu einer bestimmten Länge für die Berechnung der Rollenäquivalenzen berücksichtigt werden. Allerdings ist auch eine abgeschwächte Form der regulären Äquivalenz denkbar, die lokalen Charakter hat (vgl. Doreian 1988a). Wenn man nämlich in dem REGE-Algorithmus nur eine begrenzte Zahl von Iterationen durchführt (üblicherweise 3), gehen indirekte Beziehungen auch nur bis zu dieser Länge in die Berechnung regulärer Ähnlichkeiten ein.

4.2

Äquivalenz und Ähnlichkeit

Bisher haben wir uns mit der Frage beschäftigt, welche abstrakten Eigenschaften die verschiedenen vorgeschlagenen Definitionen von Positions- und Rollenäquivalenz haben. Schon dabei wurde deutlich, daß es nicht darum gehen kann, eines dieser Strukturmodelle als die allein richtige Operationalisierung des soziologischen Verständnisses von Position und Rolle herauszustellen. Es ging eher darum, umgekehrt ein möglichst vielfaltiges Angebot von Strukturmodellen herauszuarbeiten und so die Dimensionen zu spezifizieren, die bei einer präzisen Definition eines relationalen Rollenbegriffs aus theoretischer Sicht beachtet werden müssen. So ist es zunächst einmal erforderlich, zwischen positions- und rollenorientierten Verfahren zu unterscheiden. Damit verbunden ist die spezifische Systemreferenz des resultierenden Positionsbegriffs. Weiter hängt von der Reichweite der berücksichtigten Beziehungsverknüpfungen der eher lokale oder eher globale

13) Hummell und Sodeur berücksichtigen bei der Bestimmung der triadischen lokalen RollenSquivalenz auch die Vielfachheit, mit der einzelne Triadentypen in dem Positionszensus eines Akteurs vorkommen. Die so definierte Äquivalenz entspricht also eher der lokalen Rollenprofiläquivalenz.

264

Peter

KappelhofT

Charakter der Äquivalenz ab. Schließlich ist es zumindest teilweise möglich, die verschiedenen Äquivalenzformen untereinander zu vergleichen und in eine Reihenfolge zu bringen. So ist z.B. die reguläre Äquivalenz eine Abschwächung der automorphen, und diese ist wiederum schwächer als die strukturelle. Diese Eigenschaften können aus den formalen Äquivalenzdefinitionen rein logisch abgeleitet und auf ihre theoretische Relevanz hin geprüft werden. Eine vollkommen andere Frage ist es aber, wie diese exakten Äquivalenzdefinitionen für die empirische Untersuchung von komplexen Datennetzwerken nutzbar gemacht werden können. Exakte Äquivalenzen im Sinne der formalen Definitionen finden sich nämlich in der Regel nur in den eigens für diese Zwecke konstruierten Strukturen, nicht aber in empirischen Datennetzwerken. Es ist daher notwendig, für jede Äquivalenz ein zugehöriges AhnlichkeitsmaB zu konstruieren, das für je zwei Akteure den Grad der Annäherung an die vorliegende Äquivalenzdefinition angibt. Wir haben dieses Problem am Beispiel der strukturellen Äquivalenz und von Maßen struktureller Ähnlichkeit in Kapitel 2.2 kurz angesprochen. Uns interessiert die Notwendigkeit der Übersetzung von Äquivalenz- in Ähnlichkeitskonzepte hier allerdings nur unter einem Aspekt: Inwieweit lassen sich die Eigenschaften, die abstrakt für die formalen Äquivalenzdefinitionen abgeleitet werden können, auch in den zugehörigen Ahnlichkeitsmaßen und den daraus abgeleiteten Algorithmen wiederfinden, die für empirische Untersuchungen von Datennetzwerken entwickelt wurden. Zu dieser Frage liegen bisher nur einige explorative Untersuchungen vor, die die Eigenschaften verschiedener Verfahren anhand von Teststrukturen (wie wir sie auch in diesem Aufsatz verwandt haben) und von bekannten Datensätzen überprüfen (vgl. Kappelhoff 1987a, Doreian 1988b und Faust 1988). Wir wollen die dabei auftretenden Probleme nur anhand eines Beispiels diskutieren. In Abbildung 7a ist zunächst einmal ein einfaches Datennetzwerk dargestellt, nämlich die politischen Beziehungen zwischen Mitgliedern einer Elite in einer kleinen Gemeinde in den USA (vgl. Doreian 1988b). Deutlich sind zwei Cliquen und eine Liaisonperson (1) erkennbar, die noch mit einer grauen Eminenz (k) verbunden ist. Die eingezeichneten Gruppierungen sind das Ergebnis einer verbundenheitsorientierten Analyse. Die Resultate einer positionsorientierten Analyse mit Hilfe von STRUCTURE (strukturelle Ähnlichkeit gemessen als euklidische Distanz) und mit Hilfe des REGE-Algorithmus (reguläre Ähnlichkeit) sind in Abbildung 7b und с wiedergegeben. Da die reguläre Äquivalenz eine Abschwächung der strukturellen darstellt, könnte man für die entsprechenden Ähnlichkeiten eine analoge Beziehung annehmen. Das Ergebnis der REGE-Analyse sollte dann eine Vergröberung des Ergebnisses der STRUCTURE-Analyse darstellen, da strukturelle Äquivalenz reguläre Äquivalenz impliziert. Wie die abgebildeten Lösungen zeigen, sind die Resultate beider Verfahren aber vollkommen verschieden. Das Ergebnis der positionsorientierten Analyse auf der Grundlage struktureller Ähnlichkeit entspricht exakt dem der verbundenheitsorientierten Vorgehensweise, wenn man einmal von der Feinstruktur innerhalb der beiden Cliquen absieht. Dagegen sind die Gruppierungen nach regulärer Ähnlichkeit cliquenübergreifend und bilden eine

Strukturmodelle von Position und Rolle

265

Zentrum-Peripherie-Struktur ab, bestehend aus dem Zentrum {1}, der Mittelposition {f,d,m,h,b} und den beiden peripheren Positionen {g,n,e,k} und {c,a,ij}. Die beiden positionsorientierten Verfahren bilden also vollkommen verschiedene Aspekte der empirischen Struktur ab. Natürlich sind beide Lösungen sinnvoll, da eine gegebene Struktur immer unter verschiedenen Blickwinkeln betrachtet werden kann. Der aus unserer Sicht problematische Punkt ist allein, daß zwar die reguläre Äquivalenz eine Abschwächung der strukturellen darstellt, eine empirische Untersuchung auf der Grundlage regulärer Ähnlichkeit aber ein vollkommen anderes Ergebnis ergeben kann als bei Verwendung eines strukturellen Ähnlichkeitsmaßes. a) Netzwerk der politischen Beziehungen in einer Gemeindeelite

b) Gruppierung auf der Grundlage struktureller Ähnlichkeit (STRUCTURE-Analyse)

c) Gruppierung auf der Grundlage regulärer Ähnlichkeit (REGE-Lösung)

Abb. 7 (nach Doreian 1988b)

266

Peter Kappelboff

Allerdings sind die beiden Lösungen nicht so ganz widersprüchlich, wie es auf den ersten Blick erscheint. Betrachtet man nämlich die interne Struktur der beiden Cliquen für die strukturelle Analyse, so findet man die beiden Teilgruppen {f,d} und {m,h,b}, also genau die Akteure, die in der regulären Lösung die Mittelposition ergeben. Mit einigen Abstrichen kann die strukturelle Lösung auf dieser Ebene der Verfeinerung also durchaus als in der regulären Lösung enthalten angesehen werden, wie es nach der logischen Beziehung zwischen struktureller und regulärer Äquivalenz zu erwarten ist. Auch die agglomerative Clusteranalyse der strukturellen Ähnlichkeiten liefert nämlich keine eindeutige Lösung, sondern eine Hierarchie ineinander verschachtelter Gruppierungen. Die eigentliche Aufgabe ist es dann, die Ebene der Verfeinerung zu bestimmen, die inhaltlich am besten interpretiert werden kann. Mit anderen Worten, es muß entschieden werden, bei welchem Grad struktureller Verschiedenheit nicht mehr von struktureller Äquivalenz gesprochen werden kann. Wie gesehen, kann dabei der Vergleich mit der regulären Analyse durchaus eine Hilfe sein. Eine letzte Bemerkung betrifft die Beobachtung, daß im allgemeinen die strukturelle Analyse der verbundenheitsorientierten Lösung ähnlicher ist als die reguläre Analyse (vgl. Kappelhoff 1987a, Doreian 1988b und Faust 1988). Wie wir in Kapitel 2.2 sahen, impliziert die strukturelle Äquivalenz nicht nur das strikte Nullblockkriterium, sondern auch das strikte Einsblockkriterium. Bei vollkommener struktureller Äquivalenz sind daher die resultierenden Positionen intern (und auch untereinander) entweder vollständig verbunden oder überhaupt nicht. Von daher ist die Nähe zu den verbundenheitsorientierten Verfahren leicht erklärbar. Die Konzepte der sozialen Position und der sozialen Rolle verlangen aber lediglich, daß die Inhaber einer sozialen Position vergleichbare Rollenbeziehungen zu den Inhabern anderer sozialer Positonen haben. Alle hier diskutierten Abschwächungen struktureller Äquivalenz (von Faust (1988) verallgemeinerte Äquivalenzen genannt) versuchen, diesen Aspekt zu berücksichtigen. Sie können daher als verbesserte Strukturmodelle von Position und Rolle angesehen werden, die sich intern wiederum in Nuancen voneinander unterscheiden. Insbesondere die regulären Positionsäquivalenzen und die lokalen Rollenäquivalenzen erweisen sich dabei als geeignete Formalisierungen von Position und Rolle.

Literaturliste Borgatti, S., 1988: A Comment on Doreian's Regular Equivalence in Symmetric Structures. Social Networks 10: 265-271. Borgatti, S.P./Everett, G.M., 1989: The Class of All Regular Equivalences: Algebraic Structure and Computation. Social Networks 11: 65-88. Boudon, R., 1980: Die Logik des gesellschaftlichen Handelns. Neuwied. Boyd, J.P./Everett, G.M., 1988: Block Structures of Automorphism Croups of Social Relations. Social Networks 10: 137-155.

Strukturmodelle γοη Position und Rolle

267

Breiger, R.L., 1974: The Duality of Persons and Groups. Social Forces 53: 181-190. Breiger, R.L./Pattison, P.E., 1986: Cummulated Social Roles. The Duality of Persons and their Algebras. Social Networks 8: 215-256. Burt, R.S., 1978: Cohesion versus Structural Equivalence as a Basis for Network Subgroups. Sociological Methods and Research 7: 189-212. Bun, R.S., 1982: Toward a Structural Theory of Action. Network Models of Social Structure, Perception, and Action. New York. Burt, R.S., 1990: Detecting Role Equivalence. Social Networks 12: 83-97. Coleman, J.S., 1990: Foundations of Social Theory. Cambridge, Mass.. Dahrendorf, R., 1965: Нолю sociologicus: Ein Versuch zur Geschichte und Kritik der Kategorie der sozialen Rolle. Köln, Opladen. Doreian, P., 1987: Measuring Regular Equivalence in Symmetric Structures. Social Networks 9: 89-107. Doreian, P., 1988a: Borgatti Toppings on Doreian Splits: Reflections on Regular Equivalence. Social Networks 10: 273-285. Doreian, P., 1988b: Equivalence in a Social Network. Journal of Mathematical Sociology 13: 243-282. Dürkheim, Ε., 1988 (1893): Über soziale Arbeitsteilung. Frankfurt. Everett, M.G., 1985: Role Similarity and Complexity in Social Networks. Social Networks 7: 353-359. Faust, K., 1988: Comparison of Methods for Positional Analysis: Structural and General Equivalences. Social Networks 10: 313-341. Freeman, L.C., 1979: Centrality in Social Networks: Conceptual Clarification. Social Networks 1: 215-239. Homans, G.C., 1960 (zuerst 1950): Theorie der sozialen Gruppe. Köln, Opladen. Hummell, H.J./Sodeur, W., 1987: Triaden- und Triplettzensus als Mittel der Strukturbeschreibung. S. 129-161 in: F.U. Pappi (Hrsg.), Methoden der Netzwerkanalyse. München. Kappelhoff, P., 1987a: Evaluation von Verfahren zur Blockmodellanalyse: Methoden und erste Ergebnisse. Kiel. Kappelhoff, P., 1987b: Blockmodellanalyse: Positionen, Rollen und RoUenstrukturen. S. 101-128 in: F.U. Pappi (Hrsg.), Methoden der Netzwerkanalyse. München. Kappelhoff, P., 1987c: Cliquenanalyse: Die Bestimmung von intern verbundenen Teilgruppen in Netzwerken. S. 39-63 in: F.U. Pappi (Hrsg.), Methoden der Netzwerkanalyse. München. Kappelhoff, P., 1989: Netzwerk. S. 465-467 in: G. Endruweit/G. TrommsdorfT (Hrsg.), Wörterbuch der Soziologie. Stuttgart. Kappelhoff, P./Pappi, F.U., 1987: The Political Subsystem of a Community Elite: Blockmodelling the Power Structure. S. 231-264 in: Sosiologisk Arbok 1987. Oslo. Laumann, E.O./Marsden, P.V./Prensky, D., 1983: The Boundary Specification Problem in Network Analysis. S. 18-34 in: R.S. Burt/J. Minor (Hrsg.), Applied Network Analysis. Beverly Hills. Ldvi-Strauss, C., 1981: Die elementaren Strukturen der Verwandtschaft. Frankfurt. Linton, R., 1973: Rolle und Status. S. 310-315 in: H. Hartmann (Hrsg.), Moderne amerikanische Soziologie. Stuttgart. MacEvoy, B./Freeman, L., 1987: UCINET. A Micro-computer Package for Network Analysis. University of California.

268

Peter Kappelboff

Mandel, Μ., 1983: Local Roles and Social Networks. American Sociological Review 48: 376-378. Melbeck, С., 1989: SONIS PC-Version 2.0: Benutzerhandbuch. Kiel. Merton, R.K., 1973: Der Rollen-Set: Probleme der soziologischen Theorie. S. 316-333 in: H. Hertmann (Hrsg.), Moderne amerikanische Soziologie. Stuttgart. Nadel, S.F., 1957: A Theory of Social Structure. London. Pappi, F.U., 1984: Boundary Specification and Structural Models of Elite Systems: Social Circles Revisited. Social Networks 6: 79-95. Pappi, F.U./Stelck, K., 1987: SONIS: Ein Datenbanksystem zur Netzwerkanalyse. S. 253-265 in: F.U. Pappi (Hrsg.), Methoden der Netzwerkanalyse. München. Pappi, F.U./Kappelhoff, Р./Melbeck, С., 1987: Die Struktur der Unternehmensverpflechtungen in der Bundesrepublik Deutschland. Kölner Zeitschrift für Soziologie und Sozialpsychoiogie 39: 693-717. Sailer, L.D., 1978: Structural Equivalence: Meaning and Definition, Computation and Application. Social Networks 1: 73-90. Voss, Т., 1985: Rationale Akteure und soziale Institutionen. Beitrag zu einer endogenen Theorie des sozialen Tausches. München. White, D.R./Reitz, K.P., 1983: Graph and Semigroup Homomorphism on Networks of Relations. Social Networks 5: 193-234. White, H.C., 1963: An Anatomy of Kinship. Mathematical Models for Structures of Cumulated Roles. Englewood Cliffs. White, H.C./Boorman, S.C./Breiger, R.L., 1976: Social Structure from Multiple Networks: I. Blockmodels of Roles and Positions. American Journal of Sociology 81: 730-780. Winship, C./Mandel, Μ., 1983: Roles and Positions: A Critique and Extension of the Blockmodelling Approach. Sociological Metodology 1983/84: 314-344. Winship, C., 1988: Thoughts about Roles and Relations: An Old Document Revisited. Social Networks 10: 209-231. Wu, L.L., 1983: Local Blockmodel Algebras for Analyzing Social Networks. Sociological Methodology 1983/1984: 272-313. Ziegler, R., 1984: Das Netz der Personen- und Kapitalverflechtungen deutscher und österreichischer Wirtschaftsunternehmen. Kölner Zeitschrift für Soziologie und Sozialpsychologie 36: 585-614.

Hans J. Hummell und Wolfgang Sodeur

Multivariate Analyse von Struktureigenschaften auf mehreren Ebenen Netzwerkanalyse als »meßtheoretisches« Konzept

1.

Eigenschaften von Individuen und von Kollektiven

Im einführenden Kapitel zu dem von ihm herausgegebenen Buch über die »Methoden der Netzwerkanalyse« nennt Franz Urban Pappi die Gefahr, daß sich die Analyse sozialer (Gesamt-) Netzwerke zu einem eigenen Forschungsgebiet entwickeln könnte, »das mit den Schwerpunkten der heute praktizierten Sozialforschung nicht viele Gemeinsamkeiten hat« (1987, S. 25). Seine Zielsetzung ist unverkennbar auf Integration gerichtet und in einzelnen Bereichen, wie insbesondere der Analyse egozentrierter Netzwerke, stellt er fest, daß dieses Ziel weitgehend erreicht ist. Auch in dieser Arbeit wollen wir der von Pappi genannten Zielsetzung folgen und versuchen, bei der Beschreibung einiger Ansätze zur Netzwerkanalyse die Gemeinsamkeiten mit der übrigen Sozialforschung hervorzuheben, indem wir die Besonderheiten auf wenige Konzepte konzentrieren und im übrigen den bei anderen Forschungsansätzen üblichen Vorgehensweisen folgen. Dazu führen wir Konzepte zur Beschreibung von Netzeigenschaften als meßtheorische Hilfskonzepte ein, beziehen diese Konzepte auf Einheiten jeweils angemessener Ebenen und verwenden sie schließlich auf genau dieselbe Weise wie andere, d.h. keine Netzeigenschaften betreffenden Merkmale. Ausgangspunkt für diese Darstellung ist der häufig zitierte Aufsatz von Paul F. Lazarsfeld und Herbert Menzel (1961) »On the Relation between Individual and Collective Properties«. Auf der Ebene einzelner Elemente bzw. Einheiten (»properties of members«, »individual properties«, S. 43Iff.) unterscheiden die Autoren zwischen (ml) (m2)

absoluten Merkmalen (die das Element direkt betreffen), relationalen Merkmalen (die Beziehungen des Elements zu anderen betreffen), (m3) komparativen Merkmalen (die eine absolute oder relationale Eigenschaft des Elements im Vergleich zur Verteilung des Merkmals in der umgebenden Population (»Kollektiv«, s.u., cl-c2) betreffen) und (m4) kontextuellen Merkmalen (die eine Eigenschaft der umgebenden Population oder der sonstigen Umwelt (s.u. cl-c3) betreffen).

270

Hans }. Hummell/Wolfgang Sodeur

Auf der Ebene von Kollektiven (»collective properties«, S. 426ff.) wird unterschieden zwischen (cl)

(c2)

(c3)

analytischen Merkmalen (die aus den Eigenschaften (ml) aller einzelnen Mitglieder des Kollektivs durch Berechnung z.B. von Mittelwerten oder anderen Verteilungsmaßen erzeugt werden), strukturellen Merkmalen (die aus den Beziehungen (m2) aller Mitglieder zu einzelnen oder zu allen anderen Mitgliedern des Kollektivs erzeugt werden) und globalen Merkmalen (die das Kollektiv »als ganzes« betreffen).

Eine wesentliche Leistung des Lazarsfeld-Menzel-Schemas (LMS) ist, daß es auf eine sehr anschauliche Weise ordnet, — auf welch vielfältige Weise Einheiten und deren Merkmale, die unmittelbar von der Datenerhebung erfaßt werden, auf jene Einheiten und Merkmale verweisen können, auf die sich die beabsichtigten Aussagen beziehen sollen; und — welche Arten von Prozeduren nötig werden, um die gemeinten Sachverhalte nachvollziehbar durch die verfügbaren Daten zu beschreiben. Die von Lazarsfeld und Menzel gewählte Typologie stellt nur eine von vielen Möglichkeiten dar. Unter Verweis auf ihre pragmatischen Zielsetzungen lassen die Autoren erkennen, daß die Typologie in ihren Augen keinen Wert an sich darstellt, sondern diesen erst durch die Bewährung in Forschungsprozessen erhalte. Tatsächlich hat sie sich seither in zahlreichen Zusammenhängen als tragfähig erwiesen. Es wird zu prüfen sein, inwieweit dies auch für die Verwendung in Netzwerkanalysen gilt: Zwar nennen Lazarsfeld und Menzel als Hinweise auf relationale Merkmale von Individuen und auf daraus zu erzeugende individuelle und kollektive Merkmale schon einige Beispiele aus der Soziometrie (S. 428, 431f.). Diese umfassen aber bei weitem nicht das Spektrum heute bekannter Ansätze. Bevor wir die Verwendung des LMS zur Beschreibung einiger Konzepte der Netzwerkanalyse an Beispielen illustrieren, wollen wir die zentrale Kategorie der relationalen Merkmale (m2) etwas genauer fassen, als dies von Lazarsfeld und Menzel unter ihrer damaligen Verwendungsperspektive für nötig gehalten wurde: Lazarsfeld und Menzel beziehen relationale Merkmale auf einzelne Personen oder andere (einzelne) Einheiten (»Relational properties of members ...«, S. 431) anstatt z.B. auf das Paar aus zwei Einheiten, für welche eine Beziehung beschrieben werden soll. An anderer Stelle wird deutlich, daß ihnen diese Festlegung selbst als problematisch erscheint (»... if the elements of a proposition are pairs of individuals«, S. 440). Unter pragmatischen Gesichtspunkten entscheiden die Autoren jedoch, solchen Zweifeln nicht folgen zu wollen, was angesichts des damaligen Mangels entsprechender Verwendungen auch verständlich erscheint: »It would be artificial to call such notions > propositions about collectives
Ixl als Identifikation mit Gruppenwerten — deren Ablehnung für den Faktor »Aufgabenorientierung«. Durch alle möglichen Kombinationen der Dimensionspole ergeben sich die 26 Raumsektoren, die durch einen entsprechend kombinierten Richtungskode gekennzeichnet werden können, sowie das 27. averagt-Feld als nicht weiter definierter Durchschnitt aller Verhaltensweisen. Entsprechend kann jeder dieser Kombinationskodes auch durch Eigenschaftswörter beschrieben werden, die Ausdruck für die jeweilige Mischung von durch die Dimensionsachsen gekennzeichneten eindeutigem Verhalten sind. In Abb. 1 ist das SYMLOG-Raummodell, wie Bales/ Cohen (1982. S. 63) es darstellen, abgebildet samt möglichen Interpretationen der Raumfelder, wie sie Orlik (1986, 1987) verwendet. Das Würfelmodell ist ein theoretisches, d.h. nur für die Gesamtheit aller Gruppen wird davon ausgegangen, daß die Dimensionsachsen gleichgewichtet sind und senkrecht zueinander stehen. Die derzeitige Form hat sich konsequent auf induktivem Wege über die Praxis mit den erwähnten Vorläufermodellen entwikkelt. Insgesamt ist der SYMLOG-Ansatz als Integrationsversuch zu verstehen, in dem verschiedene meist sozialpsychologische Theorieansätze zumindest ein gemeinsames und empirisch praktikables Instrumentarium finden. Bales selbst verweist bei der theoretischen Einbindung seiner Kleingruppenforschung auf grund-

296

Gabriele Sturm

Vorwärts (•fomre·. КМ kШ on19Ш troM ri)Ч -

Ρ (ffwdbcK,ι

N

1

u UP UPF ütarmjgandfmrMnm leitand UF ziamreotgftnitialiv UNF zuractmuMMKi/autortir UN MIOMOUI ü MU« кУНотшотпа UNB UB ΜΜβΜΜπιρυΙήτ UPS hociig—liinml/uptimii Ρ Irvundlkti ^ unmtützand/kaoptrativ F ÜtwttgtfziMbmnKTit NF r*g«e«MatfpnnspM N abWwnd/alaw·—na NB В PS OB DPF DF DNF тьюышицщцу -π der Hertel Hr. Prlstdenten 3.3 Ipl

Aufgaben der Bundesregierung für die Blldur.gspolltlk In Proient der GesAnteusgaben pppp it Iii 6.0 • • « • ipppp * PPPP * * i pipp t i «