221 22 18MB
German Pages 194 [196] Year 1977
Techniken der empirischen Sozialforschung
Techniken der empirischen Sozialforschung Ein Lehrbuch in 8 Bänden Bearbeitet von G. Albrecht H. v. Alemann K.R. Allerbeck C. Besozzi D. Betz B. Biervert G. Brinkmann G. Buttler M.Dierkes R. Dollase PDrewe E. Erbslöh H. Esser E.Helten W. Herkner
Th. Herz P Höhmann H. Huber H. J. Hummell H. D. Klingemann K. Knorr J. v. Koolwijk H. Kreutz H.Lück W. Manz E. M o c h m a n n H. N o w o t n y G. Ortlieb FU.Pappi K. R o g h m a n n
K. R. Scherer E. K. Scheuch H. Schmerkotte W. Schulz I.Stelzl M. Sturm E.Timaeus S. Titscher Th. Vajna R. Wegner A.Weidmann K. Wieken G.Wiendieck H. Zehnpfennig R. Ziegler
Herausgegeben von Jürgen van Koolwijk und Maria Wieken-Mayser
(ûf)
R. Oldenbourg Verlag München Wien
Techniken der empirischen Sozialforschung 7. Band Datenanalyse
dargestellt von Peter Höhmann und Jürgen van Koolwijk/Günter Buttler/ Franz Urban Pappi/Meinolf Dierkes/Klaus Allerbeck
R. Oldenbourg Verlag München Wien
CIP-Kurztitelaufnahme der Deutschen Bibliothek Techniken der empirischen Sozialforschung : e. Lehrbuch in 8 Bd. / bearb. von G. Albrecht ... Hrsg. von Jürgen van Koolwijk u. Maria WiekenMayser. — München, Wien : Oldenbourg. NE: Albrecht, Günter [Mitarb.]; Koolwijk, Jürgen van [Hrsg.] Bd. 7. Datenanalyse / dargest. von Peter Höhmann ... - 1. Aufl. — 1977. ISBN 3-486-44911-7 NE: Höhmann, Peter [Mitarb.]
©
1977 R. Oldenbourg Verlag GmbH, München
Das Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, der Funksendung, der Wiedergabe auf photomechanischem oder ähnlichem Wege sowie der Speicherung und Auswertung in Datenverarbeitungsanlagen, bleiben auch bei auszugsweiser Verwertung vorbehalten. Werden mit schriftlicher Einwilligung des Verlages einzelne Vervielfältigungsstücke für gewerbliche Zwecke hergestellt, ist an den Verlag die nach § 54 Abs. 2 Urh.G. zu zahlende Vergütung zu entrichten, über deren Höhe der Verlag Auskunft gibt. Umschlagentwurf: Günter Mittermeier, München Druck: Grafik + Druck, München Bindearbeiten: R. Oldenbourg Graphische Betriebe GmbH, München
ISBN 3-486-44911-7
Inhaltsverzeichnis 1.
Deskriptive Methoden der quantitativen Sozialforschung
von Peter Höhmann und Jürgen van Koolwijk
9
1.1
Quantifizierung in der Sozialforschung
1.2
Univariate Verteilungen
12
1.3
Multivariate Verteilungen
18
1.4
Methoden der Sektorzerlegung
23
1.5
Differenzen zwischen Verteilungen
27
1.6
Korrelationen
32
Literaturverzeichnis
41
2.
9
Demographische Methoden
von Günter Buttler
45
2.1
Einführung
45
2.2 2.2.1 2.2.2 2.2.3
Methoden demographischer Forschung Datenbeschaffung Beurteilung, Korrektur und Schätzung Datenanalyse
47 48 49 50
2.3 2.3.1 2.3.2 2.3.3 2.3.4 2.3.5 2.3.6
Darstellung und Auswertung demographischer Daten Bevölkerungswachstum Bevölkerungsgliederung Geburten und Todesfälle Familienstand Erwerbstätigkeit und sozialer Status Wanderungen
51 51 54 57 61 61 65
2.4 2.4.1 2.4.2 2.4.3
Prognosen der Bevölkerungsentwicklung Die Prognose der Weltbevölkerung Die Prognose der Bevölkerungsentwicklung in der Bundesrepublik . . . . Die Prognose der Erwerbsbevölkerung
67 68 69 70
Literaturverzeichnis
71
6
3.
Inhaltsverzeichnis
Aggregatdatenanalyse von Franz Urban Pappi
78
3.1
Einleitung
78
3.2
Das Problem und seine Lösung
79
3.3
Nacherzählung und Generalisationen
84
3.4
Gruppierungseffekte
90
3.5
Die Schätzung individuellen Verhaltens mit Hilfe von Aggregatdaten . . .
95
3.6
Aggregatdaten- und Kontextanalyse als Varianten der Mehrebenenanalyse
3.7
101
Aggregatdaten und sozialwissenschaftliche Theoriebildung
105
Literaturverzeichnis
107
Die Analyse von Zeitreihen und Longitudinalstudien von Meinolf Dierkes
111
4.1
Begriff und Ziele
111
4.2
Zeit als Variable der empirischen Sozialforschung
113
4.3
Entwicklung und heutiger Stand der Zeitreihenforschung
116
4.
4.4 4.4.1 4.4.2 4.4.3
Quellen von Zeitreihen u n d Longitudinalstudien Möglichkeiten der Sekundäranalyse Allgemeine Verfahren der Primärerhebung in der Zeitreihenanalyse . . . . Spezielle Erhebungsverfahren und Forschungsansätze der Zeitreihenanalyse 4.4.3.1 Retrospektivinterviews 4.4.3.2 Panelstudien 4.4.3.3 Kohortenanalysen
119 120 121 125 125 127 131
4.4.4
Querschnittsanalysen als Substitute für Longitudinalstudien
133
4.5
Einige Grundprobleme bei der Analyse von Zeitreihen und Longitudinalstudien
135
4.6
Repräsentative Maße als Grundlagen vornehmlich intuitiver Interpretationsverfahren 4.6.1 Repräsentative Maße und ihre Berechnung 4.6.1.1 Veränderungsraten 4.6.1.2 Trendberechnungen
137 138 138 142
4.6.2 4.6.2.1 4.6.2.2 4.6.2.3
Auswertung repräsentativer Maße Interpretation durch Experten Extrapolation und Tendprojektion Analogieschlüße
148 149 150 152
4.6.3
Möglichkeiten und Grenzen der Auswertung repräsentativer Maße
152
Inhaltsverzeichnis
7
4.7 4.7.1 4.7.1.1 4.7.1.2
Zeitreihenzerlegung als erster Schritt zur systematischen Analyse Das grundlegende Modell Die Einflußfaktoren Die Verknüpfungshypothesen
153 154 154 156
4.7.2 4.7.3 4.7.4
Die Zerlegungsverfahren Neue Ansätze in der Zeitreihenzerlegung Möglichkeiten und Grenzen der Zeitreihenzerlegung
156 158 161
Literaturverzeichnis
162
Computerunterstützte Datenaufbereitung und Datenanalyse von Klaus Allerbeck
170
5.1 5.1.1 5.1.2 5.1.3 5.1.4 5.1.5 5.1.6 5.1.7
Datenaufbereitung Erhaltung der Informationen Zulässige Codes Fehlende Werte Identifikation aller Lochkarten Fachzählsortiermaschinen und Computer Datenfehler und Datenkontrolle Dokumentation
171 171 172 172 173 173 174 175
5.2 5.2.1 5.2.2 5.2.3 5.2.4
Datenanalyseprogramme Übernahme von Ein-Zweck-Programmen Programmpakete für Datenanalyse Datenanalysesysteme Neuentwicklung von Programmen
175 176 177 177 179
5.3 5.3.1 5.3.2 5.3.3 5.3.4 5.3.5 5.3.6
Neue Möglichkeiten der Datenanalyse Neuentwicklung und Weiterentwicklung von Analyseverfahren Einfügung der Analyseergebnisse in das Datenmaterial Datentransformation Stichprobengewichtung und-Zerlegung Automatische Textanalyse Veränderungen des Ablaufs von Primärerhebungen
180 180 181 181 182 183 183
5.4
Zukünftige Entwicklungen und Gefahren der Verfügbarkeit von Großrechenanlagen
184
Literaturverzeichnis
186
5.
Namenregister
189
Sachwortregister
193
1.
Deskriptive Methoden der quantitativen Sozialforschung von Peter Höhmann und Jürgen van Koolwijk
1.1
Quantifizierung in der Sozialforschung
Empirische Sozialforschung ist in der Regel quantitativ. Qualität und Quantität kommen allerdings dem Gegenstandsbereich der Sozialforschung nicht in einem ontologischen Sinne zu. Quantifizierung ist vielmehr ein forschungstechnisches Artefakt, das der Sozialforschung als Hilfsmittel dazu dient, Schlußfolgerungen aus empirischen Daten statistisch abzusichern. Statistik als Technik der Aufbereitung quantitativer Daten ist eine Kunstlehre, die einerseits die Bedingungen charakterisiert, unter denen das "Artefakt" Quantifizierung auf empirische Phänomene angewendet werden kann, und andererseits die Schlußfolgerungen festlegt, die durch das "Hilfsmittel" Quantifizierung ermöglicht werden. Unter Quantifizierung werden in der Sozialforschung im allgemeinen drei verschiedene Vorgehensweisen subsumiert. Quantifizierung wird erstens verstanden als Technik, qualitative Informationen über soziale Sachverhalte in numerische Informationen zu transformieren. Die Bedingungen, unter denen eine solche Transformation möglich ist, die Techniken der Transformation selbst und die Eigenschaften, die diesen transformierten Sachverhalten zukommen, sind Gegenstand der Meßtheorie (-»• Bd. V: Huber und Schmerkotte, Meßtheoretische Probleme). Quantifizierung wird zweitens verstanden als Technik, das Untersuchungsobjekt durch diejenige Anzahl an Untersuchungseinheiten zu repräsentieren, die für Aufbereitung und Interpretation der Daten notwendig ist. Die als notwendig angesehene Menge von Untersuchungseinheiten wird einerseits durch den erwünschten Genauigkeitsgrad bestimmt, mit dem Aussagen über den Objektbereich gemacht werden sollen, andererseits durch die Differenziertheit der Aussagen selbst. Für die Auswahl der Einheiten und die Analyse der erhobenen Daten liefert die Wahrscheinlichkeitsstatistik Techniken und Theorie (-»• Bd. VI: Helten, Wahrscheinlichkeitsrechnung). Schließlich versteht man unter Quantifizierung die Formalisierung oder sierung qualitativer Aussagesysteme.
Mathemati-
Da die Sozialwissenschaften das Ziel haben, die Realität in widerspruchsfreien Aussagesystemen abzubilden, sind quantifizierte Aussagen zur Theoriekonstruktion be-
10
7. Band: Datenanalyse
sonders geeignet. Denn bei der Konstruktion solcher Systeme müssen nicht nur die Eigenschaften der Realität, sondern auch die des abbildenden Systems bekannt sein. Da aber die Strukturprinzipien abstrakter Symbolsprachen, und unter diesen vor allem Logik, Mathematik und Statistik am besten bekannt sind, ist es verständlich, daß Aussagensysteme fortgeschrittener Zweige der Sozialforschung in diesen abstrakten Symbolsprachen ausgedrückt werden. Bildet die Quantifizierung einerseits die Basis für die Objektivierung der empirischen Sozialforschung, so ist sie andererseits an die Voraussetzungen gebunden, die durch die Realität sozialwissenschaftlicher Phänomene vorgegeben werden. Zwar läßt sich die Wirklichkeit in beschränktem Umfang so manipulieren, daß die A x i o m e einer formalen Theorie den Bedingungen der Realität entsprechen — z. B. in der Stichprobentheorie —, oder es gelingt der Nachweis, daß die Realität diesen A x i o m e n folgt — z. B. beim "natürlichen" Experiment —, in der Regel aber muß der Sozialforscher seine mathematischen oder statistischen Verfahren den sozialen Phänomenen und seinen unvollkommenen Meßtechniken anpassen, um eine Äquivalenz zwischen Realität und Aussagensystem postulieren zu können. Ausdruck der Quantifizierung in der Sozialforschung und Ausgangspunkt jeder statistisch-mathematischen Operation ist die Datenmatrix, die in tabellarischer Form die Rohwerte der empirisch gewonnenen Daten zusammenfaßt (GALTUNG 1967).
Merkmale, Stimuli
Darstellung 1 : Die Datenmatrix (O = Untersuchungseinheit, S = Merkmal, R = Merkmalsausprägung, Reaktion)
Einheiten
Ol O2
objekte
Om
Si
s2
S3
«11 R21
R J2
«13
«In
R2 2
«23
«2N
R31
«32
«33
«ml
«m2
«m3
..
• sH
.
•
«3»
D
MN
Jede Datenmatrix enthält drei Arten von Informationen, die als Basiseinheiten der empirischen Sozialforschung aufgefaßt werden können: Untersuchungseinheiten, Merkmale dieser Untersuchungseinheiten und Ausprägungen dieser Merkmale. Die Untersuchungseinheit bezeichnet das Objekt, das als Merkmalsträger Bezugspunkt des Forschungsprozesses ist. Man unterscheidet zwischen Einheiten der Erhebung, an denen die Messung vorgenommen wird, Einheiten der Analyse, die der statistischen Aufbereitung zugrundeliegen, und Einheiten der Aussage, auf die sich die theoretischen Schlußfolgerungen beziehen. Alle drei Arten von Einheiten fallen im konkreten Forschungsprozeß meist zusammen, werden aber auch nicht selten unterschiedlich definiert. So kann Erhebungseinheit eine Person sein, Analyseeinheit eine Aggregatgröße, z. B. Wahlbezirk, und Aussageeinheit eine Teilmenge dieses Aggregats, z. B. Parteiorganisation.
1. Kapitel: Deskriptive Methoden der quantitativen Sozialforschung
11
Erhebungs-, Analyse- und Aussageeinheit ist in der empirischen Sozialforschung in der Regel der Mensch. In der Umfrageforschung, bei der Beobachtung im Labor oder im sozialpsychologischen Experiment ist der Befragte, der Beobachtete oder die Versuchsperson die Einheit, deren Merkmale gemessen, tabellarisch erfaßt und interpretiert werden. Einheiten können aber auch Gruppen sein, wie Schulklassen, Ehepaare oder Experimentalgruppen. In der quantifizierenden Ethnologie dienen Stämme und Kulturen, in international vergleichenden Untersuchungen Gesellschaften als Untersuchungseinheiten. Untersuchungseinheiten werden aber auch durch künstliche Abgrenzungen, z. B. Wahlbezirke, Zeitungsseiten oder Zeiteinheiten, gebildet. Sie können schließlich gänzlich abstrakte Größen sein, z. B. Häufigkeitsverteilungen, Korrelationsmaße, durchschnittliche Preise oder Kontaktversuche von Interviewern. Das Merkmal oder die Variable ist die Eigenschaft, die der Untersuchungseinheit zugeordnet wird. Bei komplexen Merkmalen oder bei Merkmalen, die erst durch eine statistische Manipulation der Rohdaten ermittelt werden, spricht man von Faktoren und Dimensionen. Da jede Untersuchung nur eine beschränkte Anzahl von Merkmalen erfassen kann, wird die Untersuchungseinheit als Merkmalsträger notwendig unvollkommen gekennzeichnet. Die Erfassung einer Untersuchungseinheit in ihrer Gesamtheit ist aus praktischen und logischen Gründen unmöglich. Sie ist auch nicht notwendig, da meist nur eine beschränkte Anzahl von Merkmalen für das konkrete Forschungsvorhaben relevant ist. Mit fortschreitender Kenntnis eines Objektsbereiches wird die zunächst offene Klasse relevanter Merkmale geschlossen. Ein Wissenschaftsgebiet gilt als erforscht, wenn die relevanten Merkmale und ihre Beziehungen zueinander bekannt sind. Merkmale werden nach einer Vielzahl von Kriterien klassifiziert. In der Sozialforschung ist es üblich, Merkmale entweder nach der Struktur des Merkmals oder nach der Art der Untersuchungseinheiten zu unterscheiden. Im ersten Fall unterscheidet man zwischen qualitativen und quantitativen, diskreten und stetigen, eindimensionalen oder mehrdimensionalen Merkmalen. Allgemein durchgesetzt hat sich die meßtheoretische Unterscheidung in Nominal-, Ordinal-, Intervall- und Ratiomerkmale O Bd. V: Huber und Schmerkotte, Meßtheoretische Probleme 2.1 und 2.2). Im zweiten Fall wird zur Einteilung von Merkmalen die Art der Untersuchungseinheiten herangezogen. Eine bekannte Klassifikation unterscheidet zwischen Merkmalen, die Kollektiven, und Merkmalen, die Mitgliedern von Kollektiven zukommen können. So unterscheidet man bei den Kollektiven zwischen Globalmerkmalen, Aggregatmerkmalen und Strukturmerkmalen. Bei den Mitgliedern von Kollektiven werden analytische Merkmale, Kontextmerkmale, Relationsmerkmale und Komparativmerkmale getrennt (LAZARSFELD UND MENZEL 1 9 6 1 Bd. VII: Pappi, Aggregatdatenanalyse 3.2). Derartige Taxonomien, seien sie auf meßtheoretischen oder forschungstechnischen Überlegungen aufgebaut, dienen zur Klassifikation von empirischen Vorgehensweisen im Forschungsprozeß, deren Möglichkeiten und Begrenzungen (SCHEUCH 1 9 6 6 ) . So unterscheidet sich die Beweisstatistik bei Ordinalmerkmalen erheblich von der eines Intervallmerkmals. Aussagen, die aufgrund von Aggregatmerkmalen bestätigt wurden, müssen nicht auch auf individueller Ebene zutreffen. Und die Analyse von Merkmalen, die auf mehreren Ebenen erfaßt wurden, erfordert andere Forschungspläne als Erhebungen auf nur einer Ebene.
12
7. Band:
Datenanalyse
Merkmalsprägungen sind die einzelnen Klassen, in denen das Merkmal in der Realität in Erscheinung tritt. Art und Zahl der Ausprägungen eines Merkmals ist abhängig von der Meßoperation. Über die "Natürlichkeit" von Merkmalsklassen, z. B. die Dichotomie "Männlich-Weiblich" des Merkmals "Geschlecht", entscheidet nicht das Alltagsverständnis, sondern die Meßoperation, die ihrerseits wiederum theoriegebunden ist. So läßt sich aus der Variable "Geschlecht" durch einen "MännlichWeiblich-Test" eine Variable mit beliebig vielen Ausprägungen von "Sehr männlich" bis "Sehr weiblich" bilden. Eine mit empirischen Daten aufgefüllte Datenmatrix kann nach unterschiedlichen Gesichtspunkten ausgewertet werden. Eine spaltenweise Auswertung der Ausprägungen eines einzigen Merkmals bei allen Untersuchungseinheiten bezeichnet man als univariate Auswertung, die kombinierte spaltenweise Auswertung mehrerer Merkmale als multivariate Auswertung. Die Datenmatrix kann aber auch zeilenweise ausgewertet werden. Sie informiert dann über einzelne Untersuchungseinheiten. So ergibt sich eine Reihe von Testwerten einer Versuchsperson ihr spezifisches Testprofil, die Ergebnisse verschiedener Tests für dasselbe Individuum können verglichen werden. Im Rahmen der modernen Datentheorie (CATTELL 1 9 5 2 ; COOMBS 1 9 6 4 ) reicht allerdings die Konzeption einer zweidimensionalen Objekt-Stimulus Matrix nicht mehr aus. Als zusätzliche Dimensionen werden die Zeitdimension und die Situationsdimension als notwendig angesehen, um komplexe Auswertungsverfahren zu definieren. So wird z. B. als Q-Technik eine Methode bezeichnet, bei der die Objekt-StimulusZeit-Dimension als konstant angesehen wird und nur die Situationsdimension variiert wird. Unter R-Technik versteht man eine Methode, bei der nur die Zeitdimension variiert wird. Eine graphische Darstellung dieser generellen Konzeption wird durch den Cattell'schen Datenwürfel gegeben (Darstellung 2). In den folgenden Abschnitten werden wir die in der Sozialforschung gebräuchlichsten statistischen Verfahren im Zusammenhang darstellen. Für die Ableitung der Maßzahlen und Koeffizienten, auf die wir hier weitgehend verzichten, verweisen wir auf die im Literaturverzeichnis genannten Titel; speziell für Sozialwissenschaftler geschrieben und relativ preiswert sind z . B . BENNINGHAUS ( 1 9 7 4 ) und NEURATH ( 1 9 7 4 ) .
1.2
Univariate Verteilungen
Durch die Zuordnung der Untersuchungseinheiten zu den Ausprägungen eines einzigen Merkmals entsteht die Häufigkeitsverteilung dieses Merkmals. Derartige Häufigkeitsverteilungen werden eindimensionale oder univariate Verteilungen genannt. Bei diskreten Merkmalen ist die Bildung von Häufigkeitsverteilungen ohne Schwierigkeiten möglich, da nur bestimmte Merkmalsausprägungen vorkommen können. Bei stetigen Merkmalen müssen die Ausprägungen in Intervallen vorgegeben werden, wodurch das stetige Merkmal in ein diskretes transformiert wird. Auch bei diskreten Merkmalen mit vielen Ausprägungen, z. B. bei Skalen und Indizes, wird eine Intervallbildung häufig sinnvoll sein.
1. Kapitel: Deskriptive Methoden der quantitativen Sozialforschung
13
Darstellung 2 : Der Kovariationswürfel nach Cattell (Quelle: CATTELL 1952)
Die Zusammenfassung von Klassen oder Intervallen eines Merkmals zu größeren Gruppen ist in der Sozialforschung häufig ein Mittel, um die Auswertung zu erleichtern. Nicht selten erfolgt die Quantifizierung qualitativer Merkmale mit dem Ziel, eine für analytische Zwecke geeignetere Verteilung der Untersuchungseinheiten auf die einzelnen Merkmalsklassen zu erreichen. Fragt man z. B. einen Querschnitt der Bevölkerung nach dem besten Regierungssystem, so wird man nur einen geringen Prozentsatz von Personen finden, die sich explizit zu einem autoritären oder diktatorischen Regierungssystem bekennen. Eine Analyse dieser wenigen Fälle ist auch aus statistischen Gründen meist wenig sinnvoll. Man transformiert dann mit Hilfe einer entsprechend konstruierten Fragenbatterie das qualitative Merkmal in ein ordinales Merkmal und erhält dann in der Regel eine Häufigkeitsverteilung, die eine graduelle Abstufung zwischen autoritär und demokratisch eingestellten Personen zuläßt. Durch Zusammenfassung geeigneter Kategorien können dann jene analytischen Gruppen gebildet werden, die für die Auswertung sinnvoll sind. Allerdings ist es durchaus möglich, daß sich bei dieser Transformation eine Verschiebung des Variablengehaltes ergibt, so daß die nun gemessene Eigenschaft nicht mehr mit der Eigenschaft übereinstimmt, die eigentlich gemessen werden sollte. Prozentzahlen, Mittelwerte und Streuungsmaße sind die wichtigsten und gebräuchlichsten Charakteristiken, die aus den Rohwerten einer Häufigkeitsverteilung berechnet werden.
14
7. Band: Datenanalyse
Prozentzahlen sind die einfachsten deskriptiven Maßzahlen und werden bei der überwiegenden Zahl sozialwissenschaftlicher Häufigkeitsverteilungen berechnet. Prozentzahlen stellen die Umrechnung der Rohdaten auf einen allgemein akzeptierten und subjektiv leicht interpretierbaren Standard dar. Dieser Standard der "Hundert Fälle" ist eine Konvention, die je nach der Form der Häufigkeitsverteilung — besonders bei stark asymmetrischen Verteilungen — abgeändert werden kann. Um Prozentwerte eindeutig interpretieren zu können, sollten die Merkmalsausprägungen erschöpfend sein und sich gegenseitig ausschließen. Sind die Klassen nicht erschöpfend, wird eine Restkategorie eingeführt, deren Umfang die Interpretationsgenauigkeit entscheidend beeinflußt. Schließen sich die Merkmalsausprägungen gegenseitig nicht aus, so ist die Summe der Prozentwerte größer als 100. In der Sozialforschung kommen solche Mehrfachklassifikationen in Umfragen vor, bei denen auf eine Frage mehrere zulässige Antworten möglich sind. Analytisch lassen sich derartige Mehrfachklassifikationen leicht in entsprechend viele einklassige Merkmale überfuhren, empirisch ist das aber nicht immer ohne weiteres möglich, da dadurch der Charakter einer Variablen verändert werden kann (ZEISEL 1947). Bei der Prozentberechnung von Mehrfachklassifikationen stellt die vollständige Aufgliederung nach allen möglichen Merkmalsklassenkombinationen die statistisch beste Lösung dar. Das ist allerdings nur sinnvoll, wenn die Zahl der Klassen gering ist, da die Kominationsmöglichkeiten schnell wachsen. Ignoriert man die Zahl der Untersuchungseinheiten, kann man auf der Basis der Nennungen prozentuieren. Dieser Weg ist bei Vergleichen zwischen Subgruppen jedoch problematisch, wenn die Zahl der Nennungen mit einem Merkmal der entsprechenden Subgruppen korreliert, da dann der Effekt der unterschiedlichen Nennungshäufigkeiten nicht sichtbar wird. Behält man bei der Prozentuierung von Mehrfachklassifikationen die Zahl der Untersuchungseinheiten als Basis bei, wirkt die Prozentuierung als "Entflechtung" des Merkmals. Jede Merkmalsausprägung wird als eigenständige Variable bewertet, die in die beiden Ausprägungen "vorhanden" und "nicht vorhanden" zerfallt. Auch hier wird beim Subgruppenvergleich die unterschiedliche Nennungshäufigkeit nicht sichtbar. Mittelwerte beschreiben die Lage oder die Position einer Verteilung. Die beiden für die Sozialforschung wichtigsten Mittelwerte sind der Median und das arithmetische Mittel. Der Median ist definiert als derjenige Wert der Verteilung, der diese Verteilung halbiert. Bei gruppierten Werten hat der Median den Wert der Gruppe, in die die mittlere Einheit fällt. Ist diese Gruppe durch ein Intervall gekennzeichnet, so wird der Median durch jeden Wert repräsentiert, der zwischen den Intervallgrenzen liegt. Meist wird unterstellt, daß sich die Einheiten gleichmäßig über das Intervall verteilen, so daß durch Interpolation der genaue Wert der mittleren Einheit berechnet werden kann. Da oberhalb und unterhalb des Medians jeweils gleich viele Untersuchungseinheiten einer Verteilung liegen, läßt sich der Median als anschauliche Größe überall dort einsetzen, wo Aussagen über die Rangfolge der Einheiten gemacht werden sollen. Die Charakterisierung einer Verteilung durch den Median ist nur eine Möglichkeit, die Verteilung zu schneiden. Jeder andere Schnittpunkt kann für bestimmte Fragestellungen wichtig werden. Am bekanntesten sind Positionswerte, die die Verteilung
1. Kapitel: Deskriptive Methoden der quantitativen Sozialforschung
15
in der Proportion von 25 % zu 75 % schneiden. Beliebige Schnittpunkte bezeichnet man als Perzentile. Jede Merkmalsausprägung kann also durch ein Perzentil und jede Einheit, die diese Ausprägung besitzt, durch den entsprechenden Perzentilrang gekennzeichnet werden. Dadurch wird die absolute Auszeichnung der Einheit in eine relative transformiert. Die Relativierung von Merkmalsausprägungen wird Normierung bezeichnet und spielt z. B. bei der Eichung von Tests eine Rolle (-*• Bd. V: Lück, Testen und Messen 3.3.3). Als dimensionsloses Maß ist der Perzentilrang einer Einheit unmittelbar mit den Perzentilrängen dieser Einheit hinsichtlich anderer Merkmale vergleichbar. Sehr viel häufiger als der Median wird das arithmetische Mittel berechnet. Es ist definiert als der durchschnittliche Wert aller Einheiten einer Verteilung. Das arithmetische Mittel hat die Eigenschaft, daß die Summe der Abweichungen der Einzelwerte vom arithmetischen Mittel gleich Null und die Summe der quadrierten Abweichung ein Minimum ist. Die erste Tatsache wird bei der Konstruktion von Berechnungsvereinfachungen des arithmetischen Mittels benutzt, die zweite Tatsache spielt innerhalb der Inferenzstatistik eine Rolle. Wie beim Median kann auch der Berechnungsmodus des arithmetischen Mittels zur Relativierung von Merkmalsausprägungen herangezogen werden. Gegenüber der z-Transformation (s. u.) sind diese Maße aber ungebräuchlich. Nur im Falle einer symmetrischen Verteilung ist das arithmetische Mittel identisch mit dem Median. Da das arithmetische Mittel nicht nur die Rangfolge, sondern auch die Positionswerte der Einheiten berücksichtigt, ist es gegenüber Extremwerten anfälliger und weicht vom Median immer in der Richtung ab, in der die Extremwerte ein Übergewicht haben. Neben Median und arithmetischem Mittel spielen andere Maße der Position in der Sozialforschung kaum eine Rolle. Der Modus als der am häufigsten auftretende Wert einer Verteilung wird meist für qualitative Aussagen verwendet. Das geometrische, harmonische und antiharmonische Mittel findet in der Wirtschaftsstatistik Verwendung, und hier vornehmlich bei Problemen der Zeittrendberechnung. Arithmetisches Mittel und Median als wichtigste Positionswerte der empirischen Sozialforschung weisen unterschiedliche Eigenschaften auf, die für ihren Gebrauch von erheblicher Bedeutung sind. Der wichtigste Unterschied besteht darin, daß der Median im Gegensatz zum arithmetischen Mittel auch bei Ordinalmerkmalen Verwendung finden kann, eine Tatsache, die ihm bei dem meist ordinalen Charakter sozialwissenschaftlicher Daten eine Vorzugsstellung einräumt. Andererseits weist das arithmetische Mittel eine Reihe von Vorzügen auf; es ist genauer in dem Sinne, daß es auf den Werten aller Einheiten beruht, nicht nur auf deren Position. Zwar wird es dadurch anfälliger gegenüber Extremwerten, ist aber bei nicht allzu schiefen Verteilungen stabiler von einer Stichprobe zur anderen. Der wichtigste Vorteil des arithmetischen Mittels besteht aber darin, daß es in allen teststarken Signifikanztesten enthalten ist. Aufgrund dieser Vorteile wird das arithmetische Mittel auch bei Ordinalmerkmalen berechnet, obwohl es dort als Positionsmaß aus meßtheoretischen Gründen nicht berechnet werden dürfte. Hier wird ein Kompromiß zwischen den theoretischen Voraussetzungen und der Forschungspraxis geschlossen. In der deskriptiven Statistik ist dieser Kompromiß nicht gefahrlich; das arithmetische Mittel bildet hier nur die for-
16
7. Band: Datenanalyse
male Bildungsregel eines Positionsmaßes, dessen Struktur den emprischen Daten nicht angemessen ist. Wird das arithmetische Mittel zu Inferenzzwecken eingesetzt, muß man unterstellen, daß die Abstände zwischen den Ordinalklassen gleich groß sind. Sind sie ungleich, aber oberhalb und unterhalb des arithmetischen Mittels in gleicher Weise zufällig verteilt, so kann ein Fehlerausgleich stattfinden. Das dürfte im allgemeinen umso eher gelten, je größer die Zahl der Ordinalklassen ist, z. B. bei umfangreichen Tests und Einstellungsskalen. Bei häufig verwendeten, standardisierten Instrumenten hat das arithmetische Mittel bei Ordinalskalen zusätzlich eine empirische Bedeutung. Liegen die Ergebnisse umfangreicher Meßreihen derartig standardisierter Instrumente vor, so läßt sich die Stichprobenverteilung des arithmetischen Mittels empirisch feststellen. Dieser empirische Wert kann dann bei der Beurteilung von Differenzen zwischen Mittelwerten als Maßstab herangezogen werden. Da diese Annahmen und Voraussetzungen in der Praxis nur selten zutreffen, empfiehlt sich die Berechnung des arithmetischen Mittels bei Ordinalskalen nur in Ausnahmefällen. Streuungsmaße beschreiben eine Häufigkeitsverteilung hinsichtlich ihrer Ausdehnung. Streuungsmaße als Deskriptoren von Verteilungen spielen in der Sozialforschung eine sehr viel geringere Rolle als Mittelwerte. Sozialforschung ist im wesentlichen "mittelwertorientiert". Streuungsmaße dienen vor allem in der schließenden Statistik als Schätzwert zur Berechnung des Stichprobenfehlers (->• Bd. VI: Sturm und Vajna, Zufallsstichproben 2.6).
Durch die Angabe der Differenz zwischen zwei Perzentilen läßt sich die Streuung einer Verteilung anschaulich charakterisieren. Am bekanntesten sind Abstände zwischem dem 10. und 90. Perzentil und zwischen dem 25. und 75. Perzentil, letzterer wird mittlerer Quartilsabstand genannt. Da zwischen dem 25. Perzentil, dem ersten Quartil, und dem 75. Perzentil, dem 3. Quartil, 50% der Verteilung liegen, ist der Quartilabstand eine leicht interpretierbare Größe. Ein ebenfalls leicht interpretierbares Streuungsmaß ist die durchschnittliche Abweichung aller Einzelwerte vom arithmetischen Mittel. Da die Summe dieser Abweichungen definitionsgemäß Null ist, wird die durchschnittliche Abweichung ohne Berücksichtigung des Vorzeichens berechnet. Die durchschnittliche Abweichung wird heute nur noch selten berechnet. An ihre Stelle ist aus theoretischen Gründen die Varianz bzw. die Standardabweichung getreten. Die Varianz ist definiert als die durchschnittliche quadrierte Abweichung der Einzelwerte vom arithmetischen Mittel. Die Standardabweichung ist die Wurzel aus der Varianz. Varianz und Standardabweichung sind unanschauliche Größen, deren Eigenschaften sich allein aus der statistischen Theorie ableiten lassen. Ein wichtiges Charakteristikum der Standardabweichung ist es, daß sie zusammen mit dem arithmetischen Mittel die Normal Verteilung determiniert. Ein anderes Merkmal dieser Größe ist, daß die Wendepunkte der Normalverteilung jeweils eine Standardabweichung vom arithmetischen Mittel entfernt sind (-»• Bd. VI: Helten, Wahrscheinlichkeitsrechnung 1.3.9).
Da die Normalverteilung durch arithmetisches Mittel und Standardabweichung vollständig determiniert wird, kann jede annähernd normalverteilte empirische Verteilung dadurch standardisiert werden, daß man das arithmetische Mittel gleich Null
1. Kapitel: Deskriptive Methoden der quantitativen Sozialforschung
17
setzt und der Standardabweichung den Wert 1 gibt. Die so transformierte Verteilung wird Standardnormalverteilung genannt, die entsprechende Umrechnung z-Transformation. Der z-Wert einer Einheit entspricht damit dem Perzentilrang insofern, als die absoluten Werte in relative Werte übersetzt werden. Ebenso wie der Perzentilrang ist auch der z-Wert dimensionslos. Standardabweichung und Varianz werden bei Ordinalmerkmalsverteilungen ebenso berechnet wie das arithmetische Mittel. Die Bedingungen, unter denen diese Berechnung zu nicht allzu großen Fehlern fuhrt, gelten hier entsprechend. Allerdings sollte beachtet werden, daß bei Standardabweichung und Varianz der Fehler einerseits durch die Subtraktion, andererseits durch das Quadrieren erheblich erhöht werden kann, so daß ein Fehlerausgleich viel unwahrscheinlicher ist als beim arithmetischen Mittel. Mittelwerte und Streuungsmaße sind die wichtigsten Charakteristika von univariaten Verteilungen. Neben diesen beiden Größen spielen andere Kennwerte, wie die Schiefe (skewness) und die Steilheit (kurtosis) einer Verteilung, für die empirische Sozialforschung kaum eine Rolle. Charakteristische Kenngrößen von Verteilungen, wie Mittelwerte, Streuungsmaße, Maße der Schiefe oder Steilheit, stellen nur einen Ersatz für die Beschreibung aller Eigenschaften einer Verteilung dar. Insofern ist die Konstruktion u n d Verwendung derartiger Maße ein Problem der soziologischen Theorie, so daß die am häufigsten verwendeten Maßzahlen nur den theoretischen Stand der empirischen Sozialforschung widerspiegeln. Bei fortschreitender Kenntnis des untersuchten Gegenstandsbereiches wird dann immer deutlicher, welche der möglichen Kenngrößen einer Verteilung auch theoretisch bedeutsam ist. Die beste Beschreibung einer Verteilung erfolgt durch die Angabe ihrer mathematischen Funktion. Einige bedeutsame Verteilungen, deren Approximationen in der sozialen Realität häufig auftreten, sind in ihrer mathematischen F o r m berechnet worden. Dazu gehört als wichtigste die Normalverteilung und die ebenfalls häufig auftretende Poisson-Verteilung (-»• Bd. V I : Helten, Wahrscheinlichkeitsrechnung 1.3.3, 1.3.7 und 1.3.9). Derartige Verteilungen sind aber nur die theoretischen Gegenstücke realer Phänomene, die weniger zur Beschreibung einer empirischen Verteilung als zur Explikation der Verteilungsgesetze von empirischen Phänomenen herangezogen werden. In der empirischen Sozialforschung sind die Verteilungsgesetze sozialer Phänomene nur selten bekannt und, da sich eine bestimmte empirische Verteilung durch eine Fülle von theoretischen Gleichungen darstellen läßt, ist die Angabe einer mathematischen Gleichung immer dann willkürlich, wenn nicht die Theorie selbst Anhaltspunkte für die Berechnung eines Verteilungsgesetzes gibt. Für Ordinalmerkmale ist die Verteilungsform ohnehin theoretisch meist uninteressant, da sie ein forschungstechnisches Artefakt ist. Bekanntlich kann aus einer Verteilungsform durch Gruppierung von Merkmalsklassen nahezu jede andere Verteilungsform produziert werden. Häufig wird eine bestimmte Verteilungsform gerade mit dem Ziel produziert, eine der bekannten und berechneten Verteilungsformen zu approximieren. Bei Intervall- oder Ratiomerkmalen lassen sich solche Transformationen meist erkennen, bei Ordinalmerkmalen ist das aber nicht ohne weiteres möglich.
18
7. Band: Datenanalyse
Dies ist auch der Grund dafür, daß die Aussagefähigkeit univariater Verteilungen in der empirischen Sozialforschung begrenzt ist. Ihre Form ist zu sehr mit dem zugrundeliegenden Maßstab verbunden, dessen Konstruktionsprinzipien die Form der Verteilung bestimmen. Wie groß z. B. der Anteil der Befürworter der Todesstrafe in einer Population ist, hängt wesentlich von der Frageformulierung ab, die im Interview verwendet wird. Ob das Schichtungssystem in industrialisierten Gesellschaften "pyramidenförmig" ist, ist vor allem eine Frage der Konstruktion der Schichtskala. Die Flexibilität univariater Verteilungen hat aber für die Sozialforschung auch wesentliche Vorteile. Sind für analytische Zwecke bestimmte Verteilungsformen nötig, z. B. eine Gleichverteilung der Merkmalsklassen, so kann durch entsprechende Gruppierung oder durch die Konstruktion geeigneter Indikatoren eine brauchbare Verteilung konstruiert werden. Da die empirische Sozialforschung auf flexible und sensible Merkmale angewiesen ist, die man z. B. im experimentellen Versuch manipulieren kann, sind diese Merkmale in der Regel auch besonders anfällig gegenüber der Veränderung des Meßprozesses. Univariate Verteilungen sind deshalb in der Sozialforschung in der Regel unter dem Gesichtspunkt der Messung, weniger unter dem Gesichtspunkt der sachlichen Information über den Gegenstandsbereich relevant.
1.3
Multivariate Verteilungen
Multivariate Verteilungen sind Häufigkeitsverteilungen von Untersuchungseinheiten, die durch die Kombination mehrerer Merkmalsausprägungen charakterisiert sind. Multivariate Analyse ist das Kernstück der Auswertungstheorie sozialwissenschaftlicher Daten. Die einfachste Form der multivariaten Häufigkeitsverteilung ist die Vierfeldertabelle, die durch die Kombination zweier dichotomer Merkmale gebildet wird (Darstellung 3). Diese Grundform läßt sich nun durch zwei Überlegungen erweitern.
x
l
x
yi
a
b
a+b
Vi
c
d
c+d
a+c
Wohnungsgröße
2
b+d
N
Delinquenten
Kontrollgruppe
Gesamt
1 oder 2 Zimmer
170
160
330
3 oder mehr Zimmer
200
350
550
Gesamt
370
510
880
D a r s t e l l u n g 3 : Die Vierfeldertafel generell und im Beispiel
Einerseits kann durch die Vermehrung der Merkmalsausprägungen aus der 2 x 2-Tabelle eine zweidimensionale n x m-Tabelle und schließlich ein Koordinatensystem gebildet werden. Häufigkeitsverteilungen dieses Typs führen zu Punktdiagrammen,
1. Kapitel: Deskriptive Methoden der quantitativen Sozialforschung
19
die zur Demonstration und Berechnung von Regressions- und Korrelationskoeffizienten dienen (vgl. z. B. Darstellung 6). Andererseits kann die Zahl der Merkmale erhöht werden, so daß aus der zweidimensionalen eine fc-dimensionale Tabelle entsteht. Häufigkeitsverteilungen dieses Typs dienen zur Darstellung der Vorteile faktorieller Versuchsanordnungen und zur Demonstration komplexer multivariater Anal y s e v e r f a h r e n (-*• Bd. V I : Stelzl, Experimentelle Versuchsanordnungen).
Verallgemeinert man die Grundform der 2 x 2-Tabelle in beiden Richtungen, ergibt sich ein ^-dimensionales Koordinatensystem, das in der Sozialforschung als Eigenschaftsraum bezeichnet wird (BARTON 1955). Als generelle Konzeption umfaßt der Eigenschaftsraum alle multivariaten Verteilungen von der Vierfeldertabelle bis zum Faktorenraum, wobei dei Eigenschaften durch nominale, ordinale oder metrische Merkmale in jeder möglichen Kombination repräsentiert sein können. Werden die Merkmale, die an einem Untersuchungsobjekt gemessen werden sollen, als eine solche multidimensionale Konstruktion verstanden, so läßt sich jedes Untersuchungsobjekt in diesem Eigenschaftsraum durch den Schnittpunkt seiner Merkmalsausprägungen lokalisieren. Aus der Konzeption des Eigenschaftsraumes lassen sich die zwei wichtigsten Ziele der multivariaten Analyse entwickeln. Erstes Ziel der multivariaten Analyse ist die Zerlegung des Eigenschaftsraums in einzelne Sektoren, die durch die Intervalle oder Klassen der Merkmale gebildet werden. Hierdurch ist es nicht nur möglich, Informationen über Subgruppen der Untersuchungsgesamtheit zu gewinnen, darüber hinaus lassen sich Aussagen über die Entfernung zwischen verschiedenen Sektoren und den in ihnen lokalisierten Untersuchungseinheiten machen. Ein wichtiges Anwendungsgebiet dieser Sektorzerlegung ist die Indextheorie (-* Bd. VII: Besozzi und Zehnpfennig, Indexbildung).
Nun werden die Untersuchungseinheiten im Eigenschaftsraum nicht gleichmäßig verteilt sein, sondern Klumpen, Bänder oder andere empirische Anordnungen bilden, in denen sich die sozialen Gesetzmäßigkeiten widerspiegeln, die aufzudecken sich die multivariate Analyse als zweites und wichtigstes Ziel gesetzt hat. Im Rahmen dieses Analyseziels müssen Differenzmaße, Korrelationskoeffizienten und Regressionskoeffizienten entwickelt werden. Dieser Typ der multivariaten Analyse wird als Kausalanalyse im weiteren Sinne bezeichnet (-»• Bd. VIII: Hummell, Kausalanalyse).
Wird die Konzeption des Ar-dimensionalen Eigenschaftsraums allerdings in die Praxis der empirischen Sozialforschung übertragen, so stößt die Analyse multivariater Verteilungen schnell auf eine Grenze, die durch die Zahl der Untersuchungseinheiten bestimmt wird. Denn je größer die Zahl der gleichzeitig variierten Merkmale wird, desto größer wird auch die Anzahl der Merkmalskombinationen, d. h. der Felder der Häufigkeitstabelle. Bei einer durch praktische Erfordernisse begrenzte Zahl von Untersuchungseinheiten bedeutet die Aufgliederung nach zusätzlichen Ausprägungen und zusätzlichen Merkmalen eine starke Reduktion der durchschnittlichen Besetzungszahlen pro Kombinationsstelle. Bei vieldimensionalen Merkmalsverteilungen ergibt sich notwendig eine erhebliche Zahl von Leerstellen in der Tabelle. Die Vierfeldertabelle als einfache Form des Eigenschaftsraumes läßt bereits die wichtigsten Informationen und Probleme der multivariaten Analyse erkennen (Darstellung 3). Die Tabelle enthält drei unterschiedliche Arten von Informationen.
20
7. Band: Datenanalyse
Erstens spezifiziert sie den Anteil einer beliebigen Merkmalskombination an der Untersuchungsgesamtheit (b : N). Zweitens spezifiziert sie den Anteil einer beliebigen Merkmalskombination an der Untersuchungssubgesamtheit, die ein beliebiges Merkmal aufweist (b : (b + d)). Drittens liefert sie Informationen über die Differenz von Merkmalskombinationen, d. h. über die Korrelation zwischen den Merkmalen (a :(a + c) - b : (b+d)). Bezeichnet man die Häufigkeit in den Tabellenfeldern als Zellfrequenzen und die Zeilen- bzw. Spaltensummen als Marginalfrequenzen, so zeigt sich, daß die Marginalfrequenzen immer aus den Zellfrequenzen berechnet werden können. Ein n-Variat kann immer auf ein (n — 1)-Variat reduziert werden. Umgekehrt ist aber die Entwicklung des «-Variats aus einem (n — 1)-Variat nur unter bestimmten Bedingungen möglich. Darstellung 4 zeigt, daß bei konstanten Marginalfrequenzen eine Vielzahl von Zellfrequenzkombinationen gebildet werden können. Die Zahl der möglichen Verteilungen wird durch die Größe der Untersuchungsgesamtheit und die Form der Marginalfrequenzen begrenzt. In der Darstellung sind die beiden Extreme und die erwartete Verteilung wiedergegeben, d. h. diejenige Verteilung, die sich ergibt, wenn die Verteilung der Marginalfrequenzen denen der Zellfrequenzen entspricht.
x
i
yi yi
185 -
185
x
2 52
X
x
106
131
1
237
X
1
x
237
14
223
237
223
408
2
171
171
79
92
171
171
223
408
185
223
408
185
2 171
Darstellung 4 : Unbestimmtheit der Zellfrequenzen von den Randsummen
Die Unbestimmtheit der Zellfrequenzen durch die Marginalfrequenzen ist auch der Grund dafür, daß ökologische Korrelationen, d. h. Korrelationen, die aufgrund von Marginalfrequenzen ökologischer Einheiten berechnet wurden, individuellen Korrelationen, d. h. Korrelationen, die auf der Grundlage der Zellfrequenzen berechnet wurden, entgegengesetzt sein können. Der unreflektierte Schluß von der ökologischen Korrelation auf die individuelle Korrelation ist ein Fehlschluß, der in der einfachen Tatsache begründet liegt, daß die Zellfrequenzen einer Tabelle nicht eindeutig durch die Marginalfrequenzen bestimmt werden (vgl. DUNCAN, CUZZORT UND DUNCAN 1 9 6 1 ; ausführlich -»• Bd. VII: Pappi, Aggregatdatenanalyse). Die Darstellung multivariater Verteilungen kann nach drei verschiedenen Methoden erfolgen: die tabellarische Darstellung, die Darstellung durch ein Punktediagramm und die Darstellung durch ein Häufigkeitsdiagramm. Die Häufigkeitstabelle (z. B. Darstellung 4) ist die übliche Darstellungsweise multivariater Verteilungen. Für analytische Darstellungen findet man bei bivariaten Verteilungen in der Regel Aufteilungen, die nicht mehr als 20 Kombinationsstellen enthalten, also einer 4 x 5-TabelIe entsprechen. Bei der gleichzeitigen Variation von drei und mehr Merkmalen ist man, um ausreichende Besetzungszahlen zu erhalten, meist gezwungen, jedes der variierten Merkmale mit nicht mehr als drei Ausprägungen zu repräsentieren.
1. Kapitel: Deskriptive Methoden der quantitativen Sozialforschung
21
Bei mehrdimensionalen Tabellen ist es sinnvoll, im strukturellen Aufbau der Darstellung eine feste Reihenfolge einzuhalten. Im allgemeinen werden die Zeilen der Tabelle durch die Ausprägungen eines einzigen Merkmals — meist der "abhängigen" Variablen — gebildet. Die als unabhängig und intervenierend betrachteten Merkmale bilden die Spalten, wobei die intervenierenden Variablen den unabhängigen im Aufbau der Tabelle übergeordnet werden. Das hat den Vorteil, daß der Einfluß der unabhängigen Variablen durch den Vergleich benachbarter Felder unmittelbar sichtbar wird. Sollen Prozentwerte berechnet werden, empfiehlt es sich, nach der unabhängigen Variablen, d. h. spaltenweise zu prozentuieren. Häufigkeitsdiagramme (z.B. Darstellung 5) entstehen dadurch, daß die Zahl der Untersuchungseinheiten, die auf einen Punkt des Koordinatensystems, bzw. auf ein durch ein Intervall gebildetes Rechteck, entfallen, als Höhe in der dritten, räumlichen Dimension abgetragen werden. So ergibt sich für eine bivariate Verteilung ein dreidimensionales Hügelgebilde, das je nach den Häufigkeiten, die auf die Grundfläche des Koordinatensystems entfallen, verschiedene Formen annehmen kann.
Darstellung 5: Häufigkeitsdiagramme bivariater Verteilungen
Das bivariate Gegenstück zur Normalverteilung erscheint z. B. als gleichmäßig nach allen Seiten abfallender Hügel (Darstellung 5 b). Ein Schnitt parallel zu einer der Koordinaten x oder y ergibt dann die Form der Normalverteilung. Ein Schnitt parallel zur Koordinatenebene ergibt einen Kreis, wenn die beiden Merkmale unkorreliert, eine Ellipse, wenn sie korreliert sind. Je stärker die Korrelation, desto schmaler wird die Ellipse, die schließlich die Form einer Geraden annimmt, wenn die Korrelation vollständig ist. Dieses Modell liegt der Berechnung des Produkt-Moment-Korrelationskoeffizienten zugrunde.
22
7. Band: Datenanalyse
Punktdiagramme (z. B. Darstellung 6) können nur bei metrischen oder quasi-metrischen Merkmalen angefertigt werden. Zudem ist die Darstellung auf bivariate Verteilungen beschränkt. Dafür haben Punktdiagramme den Vorteil, daß sie erheblich anschaulicher sind als Häufigkeitstabellen und auf den ersten Blick die Verteilungsform erkennen lassen, was vor allem bei nicht-linearen Verteilungen von Vorteil ist. Durch das Punktdiagramm wird die Funktionsform der Verteilung anschaulich dargestellt und die Berechnung von Korrelations- und Regressionskoeffizienten erleichtert. Punktdiagramme werden in der Sozialforschung selten, Häufigkeitsdiagramme nur in Sonderfällen verwendet. Die übliche Darstellungsform multivariater Verteilungen ist die Häufigkeitstabelle. Bei allen tabellarischen Darstellungen müssen Intervalle gebildet werden, sofern die Merkmale nicht bereits als diskrete Merkmale in Erscheinung treten. Das Problem der Intervallbildung stellt sich bei multivariaten Verteilungen vor allem deshalb, weil die Zahl der Untersuchungseinheiten meist der Minimumfaktor ist, der für die kausalanalytische Beurteilung zu berücksichtigen ist. Bei einer fixierten Zahl von Untersuchungseinheiten und bei einer in der Regel durch die Theorie vorgeschriebenen maximalen Zahl gleichzeitig variierter Variablen wird die Zahl der Merkmalsausprägungen zu dem Faktor, der manipuliert werden muß, um ein Maximum an Information aus dem vorliegenden Material zu gewinnen. Der häufigste Fall der Zusammenlegung von Merkmalsklassen zu Intervallen ist die Dichotomisierung, die immer dann vorgenommen wird, wenn die Häufigkeiten in den Tabellenfeldern zu gering werden oder wenn die Vorteile von Vierfelderkorrelationsmaßen ausgenutzt werden sollen. Sind die inhaltlichen Voraussetzungen der Intervallbildung geklärt, hängt es von der Form der Verteilung ab, an welcher Stelle der optimale Dichotomierungsschnittpunkt liegt (Darstellung 6).
D a r s t e l l u n g 6 : Probleme der Dichotomisierung bei unterschiedlichen Formen des Zusammenhangs
Bei linearen Beziehungen (6A) ist es für die Analyse gleichgültig, an welcher Stelle die Verteilung geschnitten wird. Wird z. B. bei xly1 geschnitten, reproduziert die Vierfeldertabelle die gleiche positive Beziehung wie beim Schnittpunkt x2y2. Eine Veränderung ergibt sich lediglich bei den Marginalfrequenzen der Tabelle und entsprechend den Zellfrequenzen, was zwar die ökologische Korrelation, nicht aber die individuelle Korrelation beeinflussen kann.
1. Kapitel: Deskriptive Methoden der quantitativen Sozialforschung
23
Ein Sonderfall tritt beim Schnittpunkt xly2 auf. Die Vierfeldertabelle enthält dann ein leeres Feld. Aber auch hier wird die positive Beziehung deutlich, wenngleich in ungewöhnlicher Form. Einige Vierfelderkorrelationskoeffizienten bewerten eine solche Tabellenform als vollständige Korrelation. Da der Schnittpunkt häufig so gewählt werden kann, daß ein Feld leer bleibt, ist diese Form von Dichotomisierung nicht unproblematisch, da durch einen geeigneten Schnittpunkt die Tabelle immer so gestaltet werden kann, daß ein Feld leer ist, vorausgesetzt, es existiert eine hinreichend große Korrelation zwischen den beiden Merkmalen. Da es bei linearen Beziehungen gleichgültig ist, an welcher Stelle der Dichotomisierungsschnittpunkt gesetzt wird, wird in der Regel beim Median beider Verteilungen geschnitten. Das hat den Vorteil, daß der relative Fehler, der durch die Dichotomisierung entsteht, minimiert wird. Eine Dichotomisierung am Median ist aber nur dann sinnvoll, wenn die Beziehung linear ist. Bei «-förmigen, /'-förmigen oder anderen Verteilungen kann durch eine Mediandichotomierung die spezifische Verteilungsform verdeckt werden (vgl. 6B und 6C).
1.4
Methoden der Sektorzerlegung
Die Zerlegung des Eigenschaftsraumes in einzelne Sektoren und deren Analyse ist das erste Ziel der multivariaten Analyse. Die Vorgehensweisen innerhalb dieser Gruppe deskriptiver statistischer Methoden sind vielfältig und werden in der Literatur unter verschiedenen Themen abgehandelt. In allen Fällen wird der Eigenschaftsraum aufgefächert, um Informationen über die Verteilung der Merkmalskombinationen innerhalb der Untersuchungspopulation zu gewinnen. Notfalls wird der Eigenschaftsraum aufgrund dieser Informationen wieder zu univariaten Verteilungen zusammengefaltet. Unter diese Definition der Sektorzerlegung fallen Techniken der deskriptiven Subgruppenanalyse, der Skalen- und Indexbildung, der Analyse von Inkongruenzen, Inkonsistenzen und abweichenden Fällen, der Bildung von Relationsmerkmalen und der Analyse von Zeittrends und Longitudinaldaten. Für alle diese verschiedenen Techniken bildet die Sektorzerlegung die Grundlage, auf der die spezifischen Methoden und ihre Probleme aufbauen. 1. Techniken der deskriptiven Subgruppenanalyse stellen den einfachsten Fall der Sektorzerlegung dar. Gibt die univariate Verteilung Informationen über die Gesamtheit der Untersuchungseinheiten hinsichtlich eines Merkmals wieder, so kann die multivariate Verteilung als Instrument zur Gewinnung von Informationen über Teile dieser Population aufgefaßt werden. Dies ist die übliche Form, in der z. B. Bevölkerungsstatistiken für deskriptive Ziele eingesetzt werden. In der kommerziellen und akademischen Umfrageforschung repräsentativer Bevölkerungsquerschnitte ist die Analyse von Subgruppenverhalten die Regel. Im Laufe des sich kumulierenden Wissens über die Sozialstruktur von Industriegesellschaften hat sich ein kleiner Satz von Merkmalen herausgebildet, der bei allen Untersuchungen als Deskriptorkomplex für die Analyse von Subgruppen herange-
24
7. Band: Datenanalyse
zogen wird. Dieser Merkmalsatz besteht im wesentlichen aus den sog. demographischen Merkmalen "Geschlecht", "Alter", "Konfession", "Schicht", "Wohnortgröße" u. ä., sowie einigen Persönlichkeitsmerkmalen (z. B. "Konservativismus"), die teils untereinander korrelieren, teils wiederum von den demographischen Merkmalen abhängen. Der Grund für die relative Konstanz, mit der diese Merkmale immer wieder für Subgruppenanalysen herangezogen werden, liegt zunächst darin, daß für soziographische Zwecke diese Variablen als sichtbarer Ausdruck der Gliederung einer Gesellschaft schon immer eine besondere Bedeutung hatten. Wichtiger ist allerdings die Tatsache, daß diese Merkmale von besonderer korrelativer Durchschlagkraft sind, d. h. mit sehr vielen als abhängig definierten Merkmalen korrelieren. Dieses Phänomen rief zu Beginn der empirischen Sozialforschung zunächst Erstaunen hervor, erweist sich aber heute eher als Hindernis für die Überprüfung differenzierter Theorien mit Hilfe der Umfrageforschung, da durch das Einfuhren dieser Variablen bereits ein so großer Teil der Varianz der abhängigen Variablen erklärt wird, daß zusätzliche Faktoren die Restvarianz nur geringfügig beeinflussen können. Andererseits ist man gezwungen, diese Merkmale als intervenierende Variablen "konstant zu halten", sofern man mehr als nur soziographische Erklärungen liefern will. Tritt dieses Problem vornehmlich bei der Umfrageforschung in den Vordergrund, so ist es auch bei experimentellen Untersuchungen von Bedeutung, zumal sozialwissenschaftliche Experimente meist einer unkontrollierten Selbstselektion der Versuchspersonen unterworfen sind, die sich durch den Einfluß jener Deskriptoren in den Ergebnissen bemerkbar machen kann. Abgesehen davon hat diese Eigenschaft der demographischen Merkmale für die deskriptive Forschung, und hier vor allem für die kommerzielle Umfrageforschung, den Vorteil, daß sie mit einem relativ konstanten Satz von Deskriptoren auskommt und somit die Zerlegung der univariaten Verteilung auf eine begrenzte Zahl von Sektoren beschränkt bleibt. Die Zerlegung des Eigenschaftsraumes in einzelne Sektoren als Mittel der Deskription führt unmittelbar zur Kausalanalyse, da sich bereits aus den Differenzen zwischen den Verteilungen unterschiedlicher Subgruppen der Einfluß des differenzierenden Merkmalssatzes ablesen läßt. Subgruppenanalyse ist die notwendige Bedingung der Kausalanalyse, von ihr unterschieden nur durch die Zielsetzung, nicht durch die Form der statistischen Aufbereitung des Datenmaterials. 2. Techniken der Index- und Skalenbildung verfolgen das Ziel, die Informationen, die durch eine Sektoranalyse gewonnen wurden, für eine Transformation der ursprünglichen Merkmale in neue, komplexe Merkmale nutzbar zu machen. Der Eigenschaftsraum wird dabei in der Regel verkleinert (-> Bd. V: Besozzi und Zehnpfennig, Indexbildung 1.3).
Ein Beispiel ist die Transformation der Merkmale "Parteipräferenz" und "Politisches Interesse" in das Merkmal "Politischer Habitus" (Darstellung 7); die Zweidimensionalität bleibt dabei erhalten. Charakteristisch für die Bildung von Skalen ist der Versuch, die verschiedenen Dimensionen der Merkmale zu isolieren. Hierbei liegen Modellvorstellungen zugrunde, die sich in der multivariaten Verteilung empirisch wiederspiegeln sollen. So ist z. B. für die Skalogrammanalyse ein Eigenschaftsraum typisch, der nur für bestimmte
1. Kapitel: Deskriptive Methoden der quantitativen Sozialforschung
Parteipräferenz i | Republikaner > Demokraten j Unabhängige
Darstellung 7: Reduktion des Eigenschaftsraums nach Barton (Quelle: BARTON 1 9 5 5 )
25
politisches , . Interesse
hoch 7 T mittel
Parteigänger
gering
^ Unabhängige
Gewohnheitswähler t-
1
Gleichgültige
:
1
Merkmalskombinationen das Auftreten von Feldbesetzungen erlaubt (Darstellung 8). Der Grad, zu dem diese Bedingungen durch die empirischen Verteilungen erfüllt werden, entscheidet über Annahme oder Ablehnung des Modells und der Schlußfolgerungen, die man daraus ziehen kann (ausführlich hierzu -*• Bd. V: Betz, Skalierungsverfahren 5.4.2).
Darstellung 8: Eigenschaftsraum eines perfekten Skalogramms bei fünf Indikatoren mit dichotomer Merkmalsausprägung. ( x j - x 5 = Variablen; 0 oder 1 = Merkmalsausprägung; A = erlaubte Feldbesetzung)
1
*4 x
3
x
2
x
x
l
5
0
1
0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
1 A A 0
0
A
A
A A
3. Die Analyse von Inkongruenzen, Inkonsistenzen und abweichenden Fällen basiert auf der Tatsache, daß Korrelationen oder logische Verknüpfungen zwischen Merkmalen in der empirischen Forschung nie vollständig sind, sich also immer ein Teil der Untersuchungseinheiten als "inkonsistent" oder "abweichend" vom allgemeinen Korrelationstrend erweist. Je nach dem Typus des Zusammenhanges zwischen den untersuchten Variablen lassen sich verschiedene Arten der Inkongruenzanalyse unterscheiden, die in den letzten Jahren zu theoretisch und empirisch aufschlußreichen Untersuchungen geführt haben (BLALOCK 1967). Ergibt sich der Zusammenhang zwischen zwei oder mehreren Merkmalen eines Objekts aufgrund ihrer "logischen" Abhängigkeit voneinander, so spricht man von Konsonanz. Wird z. B. ein starker Raucher nach dem Zusammenhang zwischen Rauchen und Lungenkrebs befragt, so befindet er sich in einer dissonanten Situation, wenn er einen Zusammenhang bejaht. Übertragen auf den Kalkül der multivariaten Analyse liegt hier eine postulierte Verknüpfung zwischen zwei Merkmalen in einer Vierfelder-Tabelle vor, in der ein Feld als dissonante Merkmalskombination gekennzeichnet wird. Ein zweiter ähnlicher Inkonsistenztyp ergibt sich aus Dissonanzen, die aufgrund von Relationen zu anderen entstehen können. Wird eine Versuchsperson nach der Parteipräferenz ihrer Bekannten befragt, können sich Diskrepanzen zu der eigenen Präferenz ergeben. Übertragen auf die entsprechende multivariate Verteilung ergibt sich durch Einbeziehung von Informationen über andere Personen eine Dissonanztypo-
26
7. Band: Datenanalyse
logie, bei der die Merkmalskombinationen durch graduelle Abstufung ihres Konsistenzgrades ausgezeichnet werden. Ein dritter Typ ergibt sich aus der Inkonsistenz verschiedener Teile eines von den Untersuchungsobjekten als in der sozialen Realität zusammengehörig perzipierten Merkmalskomplexes. Hierunter fallen z. B. Maße der Statusinkongruenz und -inkonsistenz, bei denen einige Statusindikatoren von anderen oder von dem durchschnittlichen Statuswert erheblich abweichen. In die zeitliche Dimension übertragen ergibt sich als Spezialfall dieses Inkonsistenztyps die Mobilitätstabelle. Die Übernahme der Zeitdimension bringt einen vierten Inkonsistenztyp. Stellt man die zu zwei verschiedenen Zeitpunkten gemessenen Werte eines Untersuchungsobjektes in einer bivariaten Verteilung dar, so lassen sich die Diagonalfelder als konsistente, alle anderen als inkonsistente Merkmalskombinationen interpretieren. Ein Beispiel ist die Analyse von Wechselwählern. So sehr sich die einzelnen Inkonsistenzformen inhaltlich voneinander unterscheiden mögen, die Auffächerung des Eigenschaftsraumes durch die multivariate Analyse erlaubt die Identifizierung dieser Formen nach einem einheitlichen Schema, das sich nur hinsichtlich der Betonung unterschiedlicher Aspekte von anderen Arten der multivariaten Analyse unterscheidet. Die Sektorzerlegung im Rahmen der Kausalanalyse zeigt schließlich den generellen Typ inkonsistenter oder abweichender Fälle. Determinieren vier voneinander unabhängige Merkmale eine abhängige Variable, wird der Grad an Konsistenz durch die Zahl der kongruenten Merkmale bestimmt (Darstellung 9). Die empirische Relationen innerhalb der multivariaten Verteilung werden dabei in eine Klassifikation konsistenter bzw. abweichender Merkmalskombinationen umgedeutet.
Darstellung 9:
*1
Eigenschaftsraum zur Analyse von abweichenden, inkonsistenten oder inkongruenten Fällen bei dichotomer Merkmalsausprägung; 4 = vollständig kongruente,..., 0 = vollständig inkongruente Fälle
x
1
2
x
3 x4
0
1 1
0 0
1
1 0
1
0 0
1
0
1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 4 3 3 2 3 2 2 1 3 2 2 1 2 1 1 0
x
5
0 0 1 1 2 1 2 2 3 1 2 2 3 2 3 3 4
4. Die Analyse von Relationen wird als Sonderform der Sektorzerlegung dort eingesetzt, wo Merkmale durch ihren Bezug zueinander innerhalb eines Kollektivs als Relationsmerkmale interpretiert werden (COLEMAN 1961). Der bekannteste Anwendungsfall dieser Technik ist die soziometrische Methode. Die Soziomatrix ist der klassische Fall einer originären relationalen Datenmatrix, bei der die Merkmale eine Bewertung der Untersuchungseinheiten bilden. Sie bildet damit ein geschlossenes System, das das empirische Relationensystem der Untersuchungseinheiten widerspiegelt (ausführlich -*• Bd. V: Dollase, Soziometrische Verfahren 7.1.2).
1. Kapitel: Deskriptive Methoden der quantitativen Sozialforschung
27
Die Soziomatrix stellt aber nur einen Fall der Relationsverteilung dar. Jede multivariate Verteilung, deren Merkmale sich auf ein System oder dessen Teile beziehen, ist den Techniken der relationalen Sektorzerlegung zugänglich. In der Ökonometrie wird z. B. die Input-Output-Matrix als relationales System verwendet. Austauschmatrizen, z. B. bei der Analyse von Kommunikationsströmen innerhalb eines Systems, oder Mobilitätsmatrizen sind diesem Verteilungstyp ebenfalls zuzuordnen. 5. Die Analyse von Zeittrends und Longitudinalstudien stellen eine weitere Anwendung der Sektorzerlegung dar. Innerhalb dieser Methode unterscheidet man zwischen Verteilungen, die auf zwar vergleichbaren, aber nicht notwendig identischen Untersuchungseinheiten beruhen, und Verteilungen, die durch mehrfache Messung der gleichen Untersuchungseinheiten gewonnen werden. Im ersten Fall spricht man von Trendverteilungen, im zweiten Fall von Longitudinal- oder Panelverteilungen. Wie bereits dargestellt wurde, läßt sich die Trendverteilung immer aus der Longitudinalverteilung berechnen, die Longitudinalverteilung aber nicht aus der Trendverteilung. Denn jeder Trend ist mit einer Fülle von Panelverteilungen vereinbar. Tabellen in der Form von Longitudinalverteilungen werden Übergangstabellen genannt, da aus ihnen der Ubergang der univariaten Verteilung zum Zeitpunkt t in die univariate Verteilung zum Zeitpunkt t + 1 berechnet werden kann. Die generelle Analyse derartiger Übergangsmatrizen, ist in den letzten Jahren ein wichtiges Werkzeug der quantitativen Sozialforschung geworden (ausführlich -»• Bd. VII: Dierkes, Zeitreihen und Longitudinalstudien).
Die fünf dargestellten Arten der Sektorzerlegung sind die wichtigsten Typen der deskriptiven Analyse multivariater Verteilungen, die im Rahmen analytischer Untersuchungen den Ausgangspunkt für den Nachweis von Kausalzusammenhängen und damit die Grundlage für die Überprüfung von Theorien darstellen (->• Bd. VIII: Hummell, Kausalanalyse).
1.5
Differenzen zwischen Verteilungen
Da der empirische Beweisprozeß beim Überprüfen von Kausalbeziehungen zwischen Merkmalen auf dem Vergleich zwischen Häufigkeitsverteilungen aufbaut, stellen Differenzmaße und Differenztests die Grundform der Kausalanalyse dar. Aus ihnen lassen sich die Techniken der Korrelations- und Regressionsanalyse entwickeln. Die Logik des Differenztests als Grundlage der Kausalanalyse beruht auf den Regeln zur Ermittlung von Ursachen, die — bereits von John Stuart Mill formuliert — auch heute als logische Basis des empirischen Beweisprozesses Gültigkeit haben. Eine Kausalbeziehung zwischen zwei Merkmalen X und Y wird dann vermutet, wenn die empirische multivariate Verteilung von X und Y nicht der erwarteten Verteilung entspricht. Die erwartete Verteilung ist in der Regel diejenige Verteilung, die sich ergibt, wenn die Zellfrequenzen das gleiche Verhältnis aufweisen wie die Marginalfrequenzen. Entsprechen die empirisch gefundenen Zellhäufigkeiten den erwarteten nicht, so wird daraus geschlossen, daß X und Y nicht zufällig zusammen auftreten, sondern gemeinsam miteinander variieren. Ungeachtet der Komplizierung des Beweis-
28
7. Band: Datenanalyse
prozesses durch den stochastischen Charakter sozialwissenschaftlicher Daten gilt diese Differenzregel für alle Formen multivariater Verteilungen (grundlegende Ausf u h r u n g e n -»• Bd. V I : Helten, Wahrscheinlichkeitsrechnung).
Allerdings kann von einem beobachteten Unterschied zwischen zwei Meßreihen auf einen verursachenden Faktor nur dann eindeutig geschlossen werden, wenn die beiden Meßreihen auch miteinander vergleichbar sind. Diese Vergleichbarkeitsvoraussetzung hat einen formellen und einen materiellen Aspekt. Die formelle Gleichheitsbedingung bezieht sich auf die Gleichheit der Abgrenzung der Untersuchungseinheiten, der Konstruktion der Erhebungsinstrumente, sowie der Analyseverfahren. Insbesondere bei international vergleichenden Untersuchungen wird die formelle Vergleichbarkeit von Meßreihen zum Problem (-*• Bd. II: Biervert, Internationaler Vergleich).
Während die formelle Vergleichbarkeit die Voraussetzung für einen Vergleich zwischen den Meßreihen erst herstellt, bezieht sich die materielle Vergleichbarkeit auf den Beweisprozeß selbst. Soll eine Beziehung zwischen Merkmalen überprüft werden, so läßt sich eine echte Kovaration erst dann mit Sicherheit nachweisen, wenn sich die Meßreihen nur hinsichtlich der untersuchten Faktoren unterscheiden. Ist diese Voraussetzung nicht erfüllt, so können die beobachteten Differenzen auf andere als die untersuchten Faktoren zurückgeführt werden, während die Übereinstimmung von Meßreihen durch die Kompensation mehrerer Faktoren entstanden sein können. Im ersten Fall spricht man von Scheinkorrelationen, im zweiten von Scheingleichheiten (SIMON 1954). Bei Scheinkorrelationen wird zunächst eine Beziehung zwischen X und Y beobachtet, die aus der Differenz der beiden Meßreihen hervorgeht. Durch Einführen des Drittfaktors Z wird diese Differenz zum Verschwinden gebracht (Darstellung 10). Theoretisch lassen sich zwei Formen von Scheinkorrelationen unterscheiden, die zwar inhaltlich für die Kausalerklärung von sehr unterschiedlicher Bedeutung sind, sich aber tabellarisch nicht voneinander unterscheiden lassen. Im ersten Fall ist die Scheinkorrelation die Folge der Beziehung von X und Y jeweils mit Z; die Korrelation zwischen X und Y kommt durch den "Umweg" über Z zustande. Im zweiten Fall ist Z die Wirkung oder Folge von X und Y die Wirkung oder Folge von Z; X, Z und Y bilden eine echte Kausalkette. Beide Formen der Scheinkorrelation haben aber gemeinsam, daß ihnen immer eine echte Korrelation zugrundeliegen muß. Es läßt sich nur nicht feststellen, welche Korrelation echt ist, denn auch die neuen, durch das Einfuhren dritter Faktoren entstandenen Korrelationen können wiederum Scheinkorrelationen sein.
Zl 100 r2
60
60 100
Yl
z2
Xl
x2
xl
90
30
1-1
10
30
30
10
y2
30
90
+
x2
Darstellung 10: Beispiel für das Verschwinden der ursprünglich gefundenen Korrelation durch Einfuhren einer dritten Variablen
1. Kapitel: Deskriptive Methoden der quantitativen Sozialforschung
Bei Scheingleichheit besteht zunächst keine Beziehung zwischen X und Y\ die Differenz zwischen den Meßreihen ist Null. Erst das Einfuhren des dritten Faktors Z macht die Korrelation sichtbar. Die Teilkorrelationen müssen in diesem Fall einander immer entgegengesetzt sein, da erst durch die Kompensation die scheinbare Unabhängigkeit zwischen X und Y entstehen kann. Z ist weder mit X noch mit Y verbunden, sondern erfüllt tabellarisch die Funktion eines Katalysators. Im Gegensatz zu Scheinkorrelationen, denen immer echte Korrelationen zugrundeliegen müssen, sind Scheingleichheiten nicht determiniert, ein Grund dafür, daß sie viel schwerer aufzudecken sind als Scheinkorrelationen. Das Auflösen von Scheinbeziehungen ist eines der wichtigsten Probleme der quantitativen Sozialforschung. Befriedigend lösbar ist es nur durch echte experimentelle Versuchsanordnungen, bei denen ex ante die Untersuchungsgruppen durch zufälliges Aufteilen der Untersuchungseinheiten vergleichbar gemacht werden (->• Bd. VI: Stelzl, Experimentelle Versuchsanordnungen). Alle Ex-post-Analysen müssen durch "Konstanthalten" möglichst vieler Merkmale das experimentelle Beweismodell approximieren. Dieses Konstanthalten von Merkmalen erfolgt auf zwei verschiedene Arten: im Rahmen von Querschnittuntersuchungen durch Zerlegung der Population in die maximal mögliche Sektorzahl und im Rahmen von Längsschnittuntersuchungen durch Ausschaltung von intervenierenden Einflüssen. Querschnittuntersuchungen stehen vor dem Problem, möglichst viele Merkmale zu kontrollieren, von denen vermutet wird, daß sie Scheinkorrelationen oder Scheingleichheiten verursachen können. Nun hat man zwar meist eine recht gute Kenntnis von Faktoren, die Fehlinterpretationen hervorrufen; da aber die Zahl möglicher Drittfaktoren prinzipiell unbegrenzt ist, kann die Möglichkeit von Scheinbeziehungen nie vollständig ausgeschlossen werden. Überdies stößt das Einfuhren von Drittfaktoren schnell an die Grenze, die durch die Zahl der Untersuchungseinheiten gebildet wird. Bereits bei Konstanthalten der wichtigsten demographischen Merkmale, bei denen immer der Verdacht der Beeinflussung besteht, sind bei dem üblichen Umfang der Untersuchungsgesamtheit die Zellhäufigkeiten so gering, daß eine tabellarische Kausalanalyse kaum noch sinnvoll ist. In der empirischen Praxis sind drei verschiedene Methoden vorgeschlagen worden, die Vergleichsbasis bei der Einführung von Drittfaktoren abzusichern. Die erste Methode besteht darin, ohne Rücksicht auf die Zellfrequenzen so viele Drittfaktoren einzuführen, daß eine maximal große Zahl homogener Subgruppen entsteht. Diese Subgruppenbildung kann solange fortgesetzt werden, bis die resultierende multivariate Verteilung kaum noch Feldbesetzungen aufweist. Durch einfaches Auszählen der Merkmalskombinationen wird dann geprüft, ob in den vorausgesagten Feldern die Zellfrequenzen größer sind als in den entsprechenden Gegenfeldern. Durch einen einfachen statistischen Test kann dann festgestellt werden, ob die Abweichungen signifikant sind (KENDALL UND LAZARSFELD 1 9 5 0 ) . Die zweite Methode besteht in der paarweisen Ordnung von Untersuchungseinheiten, die sich in möglichst vielen Merkmalen gleichen, hinsichtlich des Testmerkmals aber unterschiedlich sind. Hier können beide Formen des matching, die Präzisionskontrolle und die Kontrolle der Häufigkeitsverteilung, angewendet werden. Der Test erfolgt dann in gleicher Weise wie bei der ersten Methode (FREEDMAN 1 9 4 9 ) . Die dritte Methode besteht darin, jene Drittfaktoren, deren Einfluß bekannt ist, zu einer Quasiskala zusammenzufassen. Eine solche "Skalierung" von Drittfaktoren
29
30
7. Band: Datenanalyse
führt nicht nur zu einer Reduktion der benötigten Felder, mit der Zahl der eingeführten Merkmale vergrößert sich auch die Chance des internen Fehlerausgleichs. Sind die Effekte der Drittfaktoren genau bekannt, können auch Interaktionseffekte berücksichtigt werden. Diese Form der Ausschaltung von Drittfaktoren nähert sich der Berechnung einer Funktion, die die Einflüsse relevanter Drittfaktoren durch ein Polynom wiedergibt. Alle drei Methoden werden in der Auswertungspraxis allerdings selten eingesetzt. In der Regel beschränkt man sich auf die einfache multivariate Aufgliederung, bei der einerseits möglichst viele Drittfaktoren konstant gehalten werden, andererseits aber in den Zellen noch genügend Untersuchungseinheiten enthalten sind, um geeignete Meßzahlen berechnen zu können. Längsschnittuntersuchungen sind auf diese Form der statistischen Manipulation nicht angewiesen, wenn allein die Veränderung untersucht werden soll, da hier die Einheiten jeweils mit sich selbst verglichen werden, mithin Drittfaktoren a priori konstant sind. Dagegen können Scheinbeziehungen durch allgemeine Trends, durch nicht kontrollierte Einflüsse zwischen den Messungen oder durch die Messung selbst hervorgerufen werden. Zwei Probleme sind für den Vergleich von Längsschnittwerten von besonderer Bedeutung: das Problem der Ausgangsbasis bzw. der Sättigungsgrenze und das Problem des Regressionseffekts (zur deskriptiven Zeitreihenbetrachtung -»• Bd. V I I : Dierkes, Zeitreihen und Longitudinalstudien 4.6).
Die Ausgangsbasis als Bezugspunkt für die Berechnung von Zuwachs und Abnahme spielt nur dann im Vergleichsprozeß keine Rolle, wenn Zuwachs und Abnahme linear erfolgen. So sagt z. B. der Zuwachs des Sozialprodukts um 10% bei einem Entwicklungsland etwas anderes aus, als bei einem Industrieland. Ähnlich ist eine Veränderung von 10 % auf einer Einstellungsskala unterschiedlich zu beurteilen, je nachdem wo der Verteilungsmittelwert liegt. Man spricht von "ceiling", wenn sich eine Verteilung einer empirischen Obergrenze nähert; eine prozentuale Veränderung zur Obergrenze hin sagt dann etwas anderes aus als die gleiche Veränderung in der entgegengesetzten Richtung. Ausgangsbasis und Sättigungsgrenze bestimmen daher die Bewertung von Veränderungsgrößen erheblich in der entgegengesetzten Richtung. Ausgangsbasis und Sättigungsgrenze bestimmen daher die Bewertung von Veränderungsgrößen erheblich. Der Regressionseffekt ist Ausdruck der Tatsache, daß sozialwissenschaftliche Daten mit Zufallsfehlern behaftet sind und diese sich bei wiederholten Messungen auszugleichen pflegen. So hat es den Anschein, als ob besonders hohe oder besonders niedrige Werte einer Verteilung, die zum Zeitpunkt Zx gemessen wurden, sich zum Zeitpunkt Z 2 mehr zur Verteilungsmitte verlagert hätten, obgleich die Verteilung selbst zu beiden Zeitpunkten gleich ist. Dieses Zusammenrücken hat zu dem Namen Regressionseffekt geführt. Sind formelle und materielle Gleichheit der Meßreihen gewährleistet und ist die Möglichkeit von Scheinbeziehungen und anderen Fehlschlüssen beseitigt, so läßt sich aus den Unterschieden zwischen den Meßreihen die Wirkung der diese Meßreihen differenzierenden Faktoren ablesen. Für einen solchen Vergleich greift man auf Maßzahlen zurück, die in der univariaten Statistik ermittelt wurden: Prozentwerte, Mittelwerte und Streuungsmaße.
1. Kapitel: Deskriptive Methoden der quantitativen Sozialforschung
31
Merkmal X zum Zeitpunkt Z j Merkmal X zum Zeitpunkt Z 2
1 - 10
1 - 10 11 - 2 0 21 - 3 0 31 - 4 0 41-50
2 1
11-20 1 4 6
21 - 3 0 31 - 4 0 4 1 - 5 0
DurchDurchschnitt Z j schnitt Z 2 8,3
6 12 6
6 4 1
1 2
19,6 25,0 30,5 41,6 25,0
Durchschnitt Z j
5,0
15,0
25,0
35,0
45,0
Durchschnitt Z 2
8,3
19,6
25,0
30,5
41,6
5,0 15,0 25,0 35,0 45,0
25,0
Darstellung 11: Regressionseffekt bei Longitudinalstudien
Die einfachste und zugleich am häufigsten verwendete Vergleichsmethode ist der Prozentvergleich. In der Regel begnügt man sich mit der qualitativen Aussage über das Vorliegen einer genügend großen Prozentdifferenz. Man hat versucht, die Prozentdifferenzen einer Meßreihe durch einen Gesamtwert, Ais Prozentpunktdifferenz, auszudrücken. Da dieser Wert aber eine Reihe von Schwächen aufweist, wird er selten berechnet. Wichtiger ist, daß der Binomialtest als statistisches Prüfverfahren auf der Differenz zwischen zwei Prozentwerten beruht. Um die Nachteile der Prozentdifferenzmaße zu vermeiden, wendet man meist ein Verfahren an, das in statistischer Praxis und Theorie eine ungleich größere Bedeutung hat. Bei diesem Verfahren geht man von der erwarteten Verteilung aus, die sich aus der Übertragung der Marginalfrequenzen auf die Zellfrequenzen ergibt. Diese erwartete Verteilung wird dann mit der tatsächlichen Verteilung verglichen. Aus der Differenz zwischen erwarteten (e) und tatsächlichen (o) Zellfrequenzen wird dann der sog. Chi-Quadrat-Wert berechnet: (1)
t
^ - i
X2 = ^
(o — e)2 • e
Der Vorteil dieser Maßzahl gegenüber der Prozentdifferenzberechnung liegt darin, daß sie für alle Merkmalsarten und Tabellengrößen berechnet werden kann. Die universelle Anwendbarkeit von Chi-Quadrat und die einfache Berechnungsweise hat dieses Differenzmaß zu der beliebtesten Maßzahl der empirischen Sozialforschung gemacht, die häufig auch dort unkritisch angewendet wird, wo ihre Brauchbarkeit fragwürdig ist (SELVIN 1 9 5 7 ; MORRISON UND HENKEL 1 9 6 9 ) . Liegen Ordinalmerkmale oder metrische Variablen vor, so wird die Differenz zwischen Meßreihen durch Median oder arithmetisches Mittel bzw. durch Quartilsabstand oder Standardabweichung festgestellt. Für alle Differenzmaße lassen sich Wahrscheinlichkeitsverteilungen berechnen, die angeben, ob eine tatsächliche Differenz noch innerhalb der vom Zufall bestimmten Grenzen liegt oder bereits signifikant ist (ausführlich ->• Bd. VI: Buttler, Statistische Testverfahren 4.3 bis 4.6).
32
7. Band:
Datenawlyse
Die tabellarischen Auswertungsverfahren werden heute zunehmend von neueren multivariaten Verfahren, z. B. der Pfadanalyse, verdrängt, die auf der multiplen Korrelations- und Regressionsrechnung aufbauen. Sie sind speziell für die Analyse sozialwissenschaftlicher Daten weiter entwickelt worden und nehmen auf die besonderen Probleme in der Struktur sozialwissenschaftlicher Daten Rücksicht (vgl. BLALOCK 1964; BOUDON 1968).
1.6
Korrelationen
Während Differenzmaße allein den Zusammenhang zwischen Merkmalen feststellen, geben Korrelationsmaße die Stärke dieses Zusammenhangs an. Nun ist zwar eine große Differenz auch mit einer starken Korrelation verbunden, jedoch beziehen sich Differenzteste und Korrelationsberechnungen auf verschiedene Dimensionen des Beweisprozesses. So ist es auch durchaus möglich, eine Korrelation bei einer nicht signifikanten Differenz zu erhalten, wie umgekehrt eine bedeutsame Differenz bei einer geringen Korrelation. Dieses Resultat ist nicht zuletzt auf die Eigenart statistischer Differenzteste zurückzuführen, nach der eine signifikante Beziehung bei einer großen Untersuchungsgesamtheit schon durch eine geringe Differenz zwischen den Meßreihen nachgewiesen wird, während die Korrelation nur schwach zu sein braucht (SELVIN 1957). Hierdurch lassen sich Differenzteste bei einer großen Fallzahl als Entscheidungshilfe dafür einsetzen, ob eine weitere Untersuchung sinnvoll ist und geben Hinweise über die Richtung, in der forschungstechnisch weiterzuarbeiten ist. Umgekehrt können bei einer geringen Fallzahl Korrelationsmaße als Entscheidungshilfe für die Frage nach einer Vergrößerung der Untersuchungsgesamtheit eingesetzt werden, um damit zu signifikanten Ergebnissen zu gelangen. Dieser Aspekt ist vor allem bei der Durchfuhrung von Pretesten von Bedeutung. Nach der allgemeinen Entscheidung über die Verwendung eines Korrelationstests ist auf einer spezifischeren Ebene Klarheit darüber zu gewinnen, welches der zahlreichen Korrelationsverfahren angewendet werden soll. Wird der Eigenschaftsraum einer bivariaten Verteilung als Koordinationssystem dargestellt, so lassen sich eine Reihe von generellen Überlegungen über Art, Form und Konsequenzen verschiedener Korrelationsmaße anstellen. y
y3 yi Darstellung 12: Voraussetzungen der Korrelationsberechnung
•''l
1. Kapitel: Deskriptive Methoden der quantitativen Sozialforschung
33
Die erste und wichtigste Überlegung bei der Berechnung von Korrelationskoeffizienten ist die Frage nach dem Meßniveau der zugrundeliegenden Merkmale, also ob die Merkmale nominalen, ordinalen oder metrischen Charakter haben. So kann es sein, daß beide Merkmale der gleichen Meßebene angehören, es ist aber auch möglich, daß die Merkmale auf unterschiedlichen Meßstufen stehen. Ein Sonderfall tritt auf, wenn ein Merkmal nominalen, das andere metrischen Charakter trägt. Für alle diese verschiedenen Fälle wurden spezifische Korrelationsmaße entwickelt. Die zweite Überlegung bezieht sich auf die Frage, in welcher Form die Ausprägungen der Merkmale vorliegen. Bei Nominalmerkmalen ist dieses Problem eindeutig. Bei allen nicht nominalen Merkmalen können die Merkmalsklassen in unterschiedlichen Ausprägungen auftreten. Ein Sonderfall ist hier z. B. eine Vierfeldertafel, die aus zwei metrischen Variablen gebildet wurde (in Darstellung 12 durch den Schnitt bei JCjj^). Eine dritte Überlegung bezieht sich auf die Form der Verteilung, für die eine Korrelation berechnet werden soll. Üblicherweise bauen Korrelationskoeffizienten auf linearen Beziehungen auf, aber auch nichtlineare Koeffizienten sind entwickelt worden. Eine vierte Überlegung bezieht sich auf die Größe des Merkmalsbereiches, der durch den Korrelationskoeffizienten erfaßt wird. Hier gilt generell, daß die Größe des Merkmalsbereiches bei konstanter Korrelation die Größe des Korrelationskoeffizienten bestimmt. Würde man in Darstellung 12 nur den Merkmalsbereich zwischen x l und x2 betrachten, wäre der Korrelationskoeffizient kleiner als bei der Einbeziehung des gesamten Merkmalsbereiches von X. Hieraus ergibt sich: Je größer die Varianz der Merkmale, desto größer ist ceteris paribus der Korrelationskoeffizient. Das ist gerade in der empirischen Sozialforschung von besonderer Bedeutung, da bei der Kontrolle bestimmter Merkmale die Varianz meist erheblich reduziert wird. Schließlich fuhrt die Betrachtung einer multivariaten Häufigkeitsverteilung zu der Frage nach den zusätzlichen Einflußfaktoren. Aus den Überlegungen zu dem Problem der Scheinkorrelation ergab sich bereits, daß das Vorliegen einer Beziehung zwischen zwei Merkmalen nicht zugleich die Ursächlichkeit dieser Beziehung beweist. Scheinkorrelationen und Scheingleichheiten können eine beobachtete Beziehung hervorgerufen haben; Fehlschlüsse in dieser Frage lassen sich mit Hilfe von Partialkorrelationen vermeiden oder doch zumindest in ihrer Wahrscheinlichkeit verringern. Aus diesen Überlegungen ergibt sich eine Vielzahl von Problemen, die bei der Ausgestaltung und Anwendung der Korrelationsmaße berücksichtigt werden müssen. Solche Probleme spiegeln sich in gewisser Weise auch in der sehr großen Anzahl von Koeffizienten wieder, die in der Literatur entwickelt wurden (GOODMAN UND KRUSKAL 1954; 1959). Der Versuch, die Verwendbarkeit der Koeffizienten in der empirischen Forschung abzuschätzen, zeigt jedoch ein Dilemma auf: Nur ein geringer Anteil der Koeffizienten erfüllt Kriterien, die bei der Ermittlung der Assoziation an solche Koeffizienten zu stellen sind, und häufig erfordern Korrelationskoeffizienten Voraussetzungen, wie sie bei sozialwissenschaftlichen Daten nur selten gegeben sind. Dies gilt besonders für den wichtigsten Korrelationskoeffizienten, den ProduktMoment-Koeffizienten r, dessen Anwendbarkeit in konkreten empirischen Forschungen nur selten geprüft wird und dessen Verwendung kaum durch Erfüllung seiner Voraussetzungen eine Rechtfertigung findet.
34
7. Band: Datenanalyse
Eine Aufgliederung von Korrelationskoeffizienten nach den Annahmen über die zugrundeliegenden Skalen zeigt Darstellung 13. Es handelt sich nicht um eine vollständige Ubersicht; die Auswahl orientiert sich an der Gebräuchlichkeit der Maße in der empirischen Forschung.
Meßniveau Meßniveau
Ratioskala, Intervallskala
Ratio-, Intervallskala
Produkt-MomentKoeffizient
Ordinal skala
Nominal skala
Spearmanscher Rangkorrelationskoeffizient Ordinal skala
Kendallscher Rangkorrelationskoeffizient Gamma-Koeffizient
Nominalskala
Biserialer Korrelationskoeffizient
Phi-Koeffizient
Punktbiserialer Korrelationskoeffizient
lationskoeffizient
Tetrachorischer KorreKontigenzkoeffizient Lambda-Koeffizient Assoziationskoeffizient
D a r s t e l l u n g 1 3 : Übersicht über die gebräuchlichsten Korrelationskoeffizienten
In dieser Übersicht bestehen durchaus Verbindungen zwischen den einzelnen Koeffizienten; so stellt der punktbiseriale Korrelationskoeffizient ebenso eine Variation des Produkt-Moment-Korrelationskoeffizienten dar, wie der Spearmansche Rangkorrelationskoeffizient, der Phi-Koeffizient und der tetrachorische Korrelationskoeffizient, die sich alle aus Ableitungen dieses Koeffizienten herbilden. Nicht nur diese Querverbindungen, sondern auch das dem Produkt-Moment-Korrelationskoeffizienten zugrundeliegende Modell, läßt die Bedeutung dieses Koeffizienten deutlich erkennen. Seine Ermittlung ist eng mit der Fragestellung der Regressionsanalyse verknüpft. Deren Ziel ist die Schätzung bestimmter Variablen durch andere Variablen, ein Problem, das nur dann zu lösen ist, wenn die zugrundeliegenden Variablen miteinander korrelieren. In diesem Sinne ist die Korrelationsberechnung eine Vorstufe zur Regressionsanalyse, da durch sie die relevanten Variablen für die Schätzung ermittelt werden können. In der Regressionsanalyse wird versucht, beobachtete Meßwerte durch eine Funktion — etwa linearer Art — zu approximieren, z.B. (2) X = a + bY.
1. Kapitel: Deskriptive Methoden der quantitativen Sozialforschung
Da prinzipiell nicht festgelegt ist, welche Variable abhängige und welche unabhängige ist, lassen sich zwei Regressionsgeraden ermitteln, eine von X auf Y, die andere von Y auf X.
Darstellung 14: Schema für die Regressionsgeraden von X auf Y und von Y auf X
Beide Geraden liegen dann eng zusammen, wenn die Werte nur in geringem Maße streuen. Dies wird ebenfalls ersichtlich durch den Produkt-Moment-Korrelationskoeffizienten, der als ein standardisiertes Maß für die Konzentration der Beobachtungswerte um die entsprechende Regressionsgerade aufgefaßt werden kann. Aus dieser Interpretation geht auch hervor, daß Voraussagen aufgrund der Regressionsanalyse um so zuverlässiger sind, je höher die ermittelte Korrelation ist. Die erwähnte Bedeutung des Produkt-Moment-Korrelationskoeffizienten wird durch seine Definition deutlich: 2 pc - x) (y - y)
(3)
Dabei ist der Zähler als Ausdruck für die Kovarianz von x und y und der Nenner als das geometrische Mittel aus den Varianzen der Meßreihen x und y bestimmt. Bei standardisierten Werten hat r eine weitere Interpretation: nämlich als ein Maß für die Steigung der Regressionsgeraden, die hier zusammenfallen. Bei nicht standardisierten Werten ist die Steigung definiert als: (4)
bxy
= r
S (x - x) 2 • N
wobei der Bruch die Standardabweichung der als abhängig und der als unabhängig bestimmten Variablen enthält. Durch Einsetzen von (3) in (4) erhält man für die Steigung der Regressionsgeraden auch: 2 (x - x) (y - y) b (5) xy = 2 (y — y) 2
35
36
7. Band: Datenanalyse
Annahmevoraussetzung war, daß zwischen den beiden Variablen ein linearer Zusammenhang besteht, der sich durch die Regressionsgerade ausdrücken läßt. Das lineare Modell bedeutet z.B., daß bei der Anordnung der Beobachtungswerte auf einem Kreisradius r = 0 wird. Ein solches Ergebnis kann jedoch nicht als ein fehlender Zusammenhang interpretiert werden; hier ist es sinnvoll, die Art der Beziehung mit nicht-linearen Modellen zu erfassen. Auf den Zusammenhang zwischen Korrelation und Regression weist auch die Deutung des Produkt-Moment-Korrelationskoeffizienten als geometrisches Mittel der Steigungen der beiden Regressionsgeraden hin: (6)
b xy =
(7)
byx
(8)
r=
— —r— 2 (y - y)2
und
2 (x - x) (y - y) 2 (x - 5c)2 \bxy-byx=]l
Z (x — 3c)2
X(x-x)(y-y) l/S(x-3c)2 E ( y - y ) 2 Eine solche, jeweils unterschiedliche Betrachtungsweise des Produkt-Moment-Korrelationskoeffizienten ist für die vier Korrelationskoeffizienten von Bedeutung, die sich unmittelbar aus diesem Koeffizienten herleiten lassen. Wird der Koeffizient durch den Winkel zwischen beiden Regressionsgeraden gedeutet (Darstellung 14), wobei ein kleiner Winkel eine starke, ein großer Winkel eine geringe Korrelation bedeutet, so ist hier der Ausgangspunkt für die Ermittlung des tetrachorischen Korrelationskoeffizienten gegeben, der sich bei Vierfelder-Tabellen berechnen läßt. Eine entsprechende Interpretation des Winkel leistet Cosinus-Werte, die in der am häufigsten verwendeten Näherungsformel für den Koeffizienten Verwendung finden.
Weitere Erleichterungen geben Tabellen, die allein aufgrund des Verhältnisses zwischen den Diagonalpunkten der Vierfelder-Tabelle ad und bc — wobei das jeweils größere Produkt im Zähler steht — die Ermittlung des Korrelationskoeffizienten ermöglichen (EDWARDS 1954). Der tetrachorische Korrelationskoeffizient wird wegen seiner schwierigen Interpretation und seiner einschneidenden Voraussetzungen in der empirischen Forschung nur selten berechnet; er darf nur dann verwandt werden, wenn man für die zugrunde liegenden Variablen Normalverteilung annehmen kann. Wie der tetrachorische Korrelationskoeffizient läßt sich auch derPhi-Koeffizient bei Vierfelder-Tabellen berechnen, den man aus dem Produkt-Moment Koeffizienten mit Hilfe der dichotomen Algebra herleiten kann; für diesen speziellen Fall wird das
1. Kapitel: Deskriptive Methoden der quantitativen Sozialforschung
Verhältnis der Kovarianz der Meßreihen x und y zum geometrischen Mittel aus den Varianzen von x und y (10)
r =
ad - b c f ^ f g h
= 12/;- eine Rolle. Diese von Boudon entwickelte Ableitung bringt aber gegenüber der ursprünglichen Beweisführung von Robinson nichts Neues. Würde man die Formel (17) durch e1e2 teilen, wäre das Ergebnis die manchem vertrautere Formel (8). Sowohl Formel (8) als auch Formel (17) sind nur besondere Fassungen des Kovarianz theorems. Dieses Grundtheorem der Kovarianzanalyse besagt, daß die Summe
3. Kapitel: Aggregatdatenanalyse
87
der Produkte in der Grundgesamtheit gleich ist der Summe der Produkte innerhalb der Gruppen plus der Summe der Produkte zwischen den Gruppen: (18)
2 2 i
(*,/ " X )
I
- Y J
= 2 2 i
i
+ 2
(Xij
~ X.j) (Yn
-
Yj) +
n/CXj-XJiYj-YJ.
i
In der Literatur findet man häufig die folgende abgekürzte Schreibweise: ( 1 9 )
C
-
x y
C
y J +
x
C
x
y
Z
.
Aus dieser Grundgleichung ergibt sich die von Robinson abgeleitete Formel (8) auf ganz einfache Weise (vgl. A L K E R 1969). Wir müssen nur beide Seiten der Gleichung mit dem Produkt der Insgesamtstreuung von X und Y teilen. Die Insgesamtvarianz bezeichnen wir dabei mit den Symbolen Cxx bzw. Cyy, die Varianz innerhalb der Gruppen mit Cxxl bzw. CyyI und die Varianz zwischen den Gruppen mit CxxZ bzw. CyyZ C
(20)
*v
=
r
V CXX Cyy
-
Cxy
'
\/ Cxx
Cyy
Wenn wir die Intra-Gruppen-Kovarianz und die Zwischen-Gruppen-Kovarianz mit den entsprechenden Produkten der Standardabweichungen teilen, erhalten wir die Korrelationskoeffizienten rz und rJt müssen aber zwei weitere Ausdrücke einführen, um weiterhin das Gleichheitszeichen schreiben zu können. f
C
xyI
+ C
xyZ
VCxxCyy
Cxyl
1
\JCxx[CyyI '
^xxfiyyl
Cxx^yy
|
^xyZ
1
V^xxZCyyZ '
^xxZCyyZ
CxxCyy
Diese Gleichung (21) ist identisch mit Robinsons Gleichung (8). Denn die Wurzel aus der Zwischengruppenvarianz geteilt durch die Insgesamtvarianz ist nichts anderes als das Korrelationsverhältnis rj X R bzw. r) YR und der entsprechende Gewichtungsfaktor für die Intragruppenkorrelation ist d e m e n t s p r e c h e n d y ^ l — ry^ R ) (1 - T)2yr ). Was bedeuten diese Gewichtungsfaktoren aber inhaltlich? Sie bringen zunächst in Erinnerung, daß noch eine dritte Variable bei der Beziehung der drei Korrelationskoeffizienten zwischen X und Y eine Rolle spielt, nämlich die Region. Fennessey erklärt die Neigung vieler Forscher, einen ökologischen Fehlschluß zu begehen, damit, daß sie in der Region häufig keinen kausalen Faktor sehen, der irgend etwas erklären kann (FENNESSEY 1967). Das Korrelationsverhältnis ist nun aber ein Maß, das genau diese eigene Erklärungskraft der Variablen Region berücksichtigt. Dieses aus der Varianzanalyse her vertraute Maß r}2XR besagt ja nichts anderes als, wieviel Prozent der Varianz des Merkmals X durch die Variable R, also Region, erklärt wird, ohne daß man diese Erklärungskraft durch Vorgabe einer linearen Regel wie bei der Korrelation oder linearen Regression einschränkt. 1 — ist dementsprechend der Teil der Varianz von X, der von der Region nicht erklärt wird. Bei der Korrelationsform des Kovarianztheorems (8) wird also die ökologische Korrelation mit einem Faktor gewichtet, der die Erklärungskraft der Region für X und Y ausdrückt, während die Intra-
88
7. Band: Datenanalyse
gruppenkorrelation mit dem umgekehrten Faktor gewichtet wird, der die Restvarianz berücksichtigt, die von R nicht erklärt wird. Je höher somit die Erklärungskraft der Region ist, umso näher wird die Insgesamtkorrelation der ökologischen Korrelation sein. Ist die Erklärungskraft der Region dagegen gleich 0, so ist die Insgesamtkorrelation gleich der Intragruppenkorrelation. Wenn man von der allgemeinen Form des Kovarianztheorems ausgeht (18), braucht man auch die Formel (17) nicht mehr so abzuleiten, wie Boudon das getan hat. Da man bekanntermaßen die Summe der Produkte auch dadurch erhalten kann, daß man einen Korrelationskoeffizienten mit seinem Nenner, dem Produkt der Standardabweichungen von X und Y, multipliziert, stellt die Formel (17) nur eine besondere Schreibweise für das allgemeine Kovarianztheorem dar. Alker demonstriert am Kovarianztheorem, welche Fehlschlußmöglichkeiten es neben dem ökologischen Fehlschluß noch gibt. Diese Typologie stellt eine Generalisierung der Inferenzproblematik bei der Mehrebenenanalyse dar. In Anlehnung an ALKER (1965; 1969) zerlegen wir die Intragruppenkovarianz in ihre /' regionalen Bestandteile (/ = 1,2 .. k) und gehen außerdem davon aus, daß die Regionen gleich groß sind ("l = «2 = •••• = "*). Alkers Fehlschlußparadigma (Formel 22) zeigt in etwas abgeänderter Form, wie die Insgesamtsumme der Produkte zerlegt werden kann. Ein Fehlschluß liegt immer dann vor, wenn man von einem Term der Gleichung auf einen anderen schließt. individualistischer Fehlschluß
ökologischer Fehlschluß Beim ökologischen Fehlschluß liegt ein solcher ungerechtfertigter Schluß vor und zwar von CxyZ auf C^. Den umgekehrten Schluß, von Cxy auf CxyZ, nennt Alker individualistischen Fehlschluß. Manchmal kann man diesen Fehlschluß auch als "Nosnibor-Fehlschluß" bezeichnet finden, zu Ehren von Robinson, dessen Namen sich ebenfalls zum Lesen in umgekehrter Richtung hervorragend eignet (vgl. STOKES 1969). Man würde in diesem Fall von einer Beziehung zwischen Individuen auf die entsprechende Beziehung zwischen Kollektiven schließen. Alker bringt dafür allerdings nur hypothetische Beispiele, die außerdem insofern noch sehr unrealistisch sind, als es sich bei den Kollektiven um Nationalstaaten handelt. Es dürfte kaum Forscher geben, die in mehreren Staaten erhobene Individualdaten ungeprüft so auswerten, als sei die Nation kein sinnvoller Kontext. In der Regel ist die Datenlage nicht so günstig und es stehen Individualdaten nur für einige Nationen zur Verfügung, während Aggregatdaten für viele Staaten vorliegen. Einen Schluß von einer individuellen Beziehung innerhalb einiger Kollektive auf eine generelle Zwischengruppenkorrelation bzw. von einer generellen Zwischengruppenbeziehung auf eine individuelle Beziehung innerhalb einiger Gruppen nennt Alker "cross-level fallacy". Es wäre dies die Inferenz von Cxy7 auf Çxy\ usw. oder umgekehrt.
3. Kapitel: Aggregatdatenanalyse
89
Wie Alker selbst hervorhebt, besteht die Nützlichkeit seines Fehlschlußparadigmas weniger darin, neben dem ökologischen Fehlschluß noch auf andere Fehlschlußmöglichkeiten aufmerksam zu machen, sondern mehr in den Hinweisen, die sich aus einem Verständnis des Kovarianztheorems für die Möglichkeiten und die Fruchtbarkeit von Mehrebenentheorien ergeben. Auf den ersten Blick paradoxe Forschungsergebnisse können auf diese Weise leichter erklärt werden. So ist z.B. bekannt, daß die politische Partizipation in einer Nation umso stärker ist, je höher der Grad der Verstädterung ist. N I E , POWELL UND PREWITT (1969) berichten aber als Ergebnis einer Sekundäranalyse der international vergleichenden Studie ' T h e Civic Culture" von ALMOND UND VERBA (1963), daß sie keinen durchgehend positiven Zusammenhang zwischen Wohnortgröße und politischer Partizipation in den fünf Staaten finden konnten. "... the tendency for urbanization and mass political activity to co-vary is not because city-dwellers are more active than country-dwellers." Im Gesamtdatensatz, d.h. ohne Berücksichtigung des nationalen Kontexts, läßt sich die erwartete positive Korrelation aber feststellen. Wenn die Summe der Produkte innerhalb der fünf Nationen somit vernachlässigt werden kann, ist der positive Zusammenhang zwischen den beiden Variablen im gesamten Datensatz allein auf die Zwischengruppenkovariation zurückzuführen. Bevor man in derartigen Fällen eine Mehrebenentheorie bemüht, die einen Einfluß des fraglichen Merkmals nur auf der Aggregatebene erklärt, ist auch hier zu prüfen, ob nicht eine Scheinkorrelation vorliegt. Im vorliegenden Beispiel erklären Nie u. a. das paradoxe Ergebnis mit dem Vorliegen einer Scheinkorrelation auf der Aggregatebene: Die wirtschaftliche Entwicklung als Hauptvariable führe sowohl zu größerer Verstädterung als auch zu stärkerer Beteiligung an freiwilligen Vereinigungen, wobei zwischen Wohnortgröße und Mitgliedschaft in Vereinen und Verbänden keine Beziehung bestehe. Unmittelbare Ursache einer verstärkten politischen Partizipation sei aber die Mitgliedschaft in freiwilligen Vereinigungen. Da die Kollektivebene in diesem Beispiel Nationalstaaten waren, wurde die Beziehung innerhalb der einzelnen Nationen selbstverständlich überprüft. Bei der Auswertung von nationalen Umfragen ist es dagegen üblich, Ergebnisse auf der Insgesamtebene so zu interpretieren, als seien die Einflüsse fraglos individueller Natur. Wie häufig hier Fehlinterpretationen vorkommen, weil eventuelle regionale Einflüsse ungeprüft bleiben, kann nur vermutet werden. Ob es ein empirisch vielversprechender Weg ist, über die einfache Aggregation von Individualmerkmalen zu Mehrebenentheorien zu kommen, ist noch eine offene Frage. Wenn es darum geht, den Einfluß von Gruppen, Regionen usw. auf das Verhalten von Individuen zu erklären (Fragestellung der Kontextanalyse) oder umgekehrt den Einfluß individuellen Verhaltens auf Strukturveränderungen von Gruppen, kommt man mit Aggregatmerkmalen wahrscheinlich nicht aus. So greift SCHEUCH (1966) eine Art des individualistischen Fehlschlusses auf, der weiter gefaßt ist als dieser Begriff bei Alker, in dieser Fassung aber auf einen für die Theoriebildung wichtigeren Tatbestand hinweist. ' T h e individualistic fallacy is ... the phrasing of explanations for properties of the collectivity entirely in terms of the individual units, whose aggregated values should be the 'true' value for the collectivity." Eine Gesellschaft sei auf der Systemebene z.B. nicht ohne weiteres als demokratisch zu bezeichnen, wenn die Mehrheit der Mitglieder demokratische Einstellungen besitze. Für eine strukturelle Betrachtungsweise erweisen sich mit anderen Worten reine
90
7. Band: Datenanalyse
Aggregatdaten häufig als nicht geeignet, man wird auf strukturelle und globale Merkmale der Gruppen zurückgreifen müssen. Man tut gut daran, sich diese umfassendere Problematik vor Augen zu halten, wenn man sich im Rahmen des Aggregationsproblems mit Mehrebenentheorien beschäftigt.
3.4
Gruppierungseffekte
Wenn wir Daten nach räumlichen oder zeitlichen Kriterien gruppieren, sind die so gewonnenen Analyseeinheiten häufig künstliche Einheiten, denen bei theoretischen Aussagen keine eigenständige Bedeutung zukommt. Soll z.B. in der ökologischen Wahlforschung der Zusammenhang zwischen Konfessionsstruktur und Parteiwahl geprüft werden, sind die kleinsten Einheiten, für die die entsprechenden Daten zur Verfügung stehen, in der Regel Gemeinden. Die Frage ist, ob man deshalb die Analyse mit den Gemeinden als Analyseeinheiten durchführen soll oder ob man denselben Zweck auch erreicht, wenn man sich für größere Einheiten wie z.B. Wahlkreise entscheidet. Sofern diese Entscheidung von der Theorie her beliebig ist, kann man die Analyseeinheiten für Aggregatdaten — im Gegensatz zu Individualdaten, deren Einheiten, nämlich Individuen, festliegen — als modifizierbar ansehen. In diesem Sinn sprechen YULE UND KENDALL bei den Einheiten für gruppierte Daten von "modifiable units" (1950, S. 310 ff.). Forscher, die mit Aggregatdaten arbeiten, haben häufig die Beobachtung gemacht, daß die Werte der Korrelationskoeffizienten größer werden, wenn man die Daten zu größeren Einheiten zusammenfaßt. So berichtet z.B. SAHNER (1971) einen Korrelationskoeffizienten zwischen Wahlbeteiligung und SPD-Anteil von r = . 10 mit den Gemeinden Schleswig-Holsteins als Untersuchungseinheiten. Wenn er dagegen die Stadtund Landkreise dieses Bundeslandes als Einheiten wählt, steigt der Korrelationskoeffizient auf r = .48. Diese Art Gruppierungseffekt wurde zum einen empirisch untersucht, zum anderen war sie Gegenstand mehr formaler modelltheoretischer Überlegungen. Für die Untersuchungen, die diesen Sachverhalt empirisch zu erhärten versuchten, ist typisch eine Untersuchung aus dem Jahr 1934. Gehlke und Biehl gruppierten ökologische Daten einmal nach der räumlichen Nähe und einmal nach dem Zufallsverfahren und stellten als Ergebnis fest, daß der Korrelationskoeffizient mit der Größe der verwendeten Einheit einen größeren Wert annimmt. Sie kamen zu folgender Schlußfolgerung: 'These results raise the question whether a correlation coefficient in census tract data has any value for causal analysis." (GEHLKE UND BIEHL 1934). Eine genauere Analyse der beiden Gruppierungsverfahren hätte allerdings gezeigt, daß der erwartete Trend eindeutig nur feststellbar ist, wenn man nach der räumlichen Nähe gruppiert. gehen bei der Erklärung des Gruppierungseffektes von der modelltheoretischen Überlegung aus, daß jede der beiden zu korrelierenden Variablen aus einem systematischen und einem Zufallselement besteht, wobei sie das systematische Element mit einem griechischen und das Zufallselement mit den lateinischen Buchstaben e und / bezeichnen YULE UND KENDALL ( 1 9 5 0 )
(23)
x = £ + e und y =
v+f.
3. Kapitel: Aggregatdatenanalyse
91
Die Korrelation zwischen x und y komme zustande, weil ein kausaler Faktor sowohl £ als auch v beeinflusse, während die Zufallselemente weder eine Beziehung zu % und v noch zueinander aufweisen. Wenn nun £ und e bzw. v und f voneinander unabhängig sind, ergibt sich die Varianz ihrer Summe, d.h. die Varianz von x bzw. von y, aus der Summe der Einzelvarianzen. Die Kovarianz zwischen x und y ist außerdem unter den hier gemachten Annahmen gleich der Kovarianz von £ und v. Yule und Kendall bezeichnen den Korrelationskoeffizienten zwischen x und y mit r und den zwischen £ und v mit r' und zeigen den folgenden Zusammenhang zwischen den beiden Koeffizienten auf: _
C xy l(C^C^y
(24)
_
Qu
_
Qu y(C
u
+ Cee)(Cvv
1
_ + Cff)
r
=
Wie aus dieser Formel hervorgeht, muß r' in jedem Fall größer sein als r, da der Ausdruck unter dem Bruchstrich von r' immer größer als 1 sein wird. Die Zufallsfehler e und / , mit denen die Messung von x und y behaftet ist, heben sich immer mehr gegenseitig auf, je größer die Einheiten werden. Dadurch wird der VerkleineC
C
rungseffekt ("attenuation effect"), der über den Ausdruck —^ bzw. die KorQ{ Cvv relation zwischen x und y beeinflußt, mit zunehmender Gruppierung geringer. Das heißt mit anderen Worten, daß bei konstantem r' die aus den empirischen Werten berechenbare Korrelation größer wird. Yule und Kendall weisen aber ausdrücklich darauf hin, daß es sich bei dieser Erklärung um eine Modellvorstellung handelt, die den Gruppierungseffekt erklären kann, ihn aber nicht in jedem Fall erklären muß. BLALOCK (1961, S. 97 ff.) geht bei seiner Erklärung der Gruppierungseffekte ebenfalls von der Modellvorstellung der Störvariablen aus. Da er aber in erster Linie an der asymmetrischen Fragestellung der Regression interessiert ist, nimmt er an, daß die Störvariablen (U, V, W) auf die abhängige Variable Y einwirken, daß sie aber mit der unabhängigen Variablen X nicht korreliert sind. Er umgeht damit das Problem der Multikollinearität. Zur Illustration verwendet er Aggregatdaten für 150 Kreise, die er nach dem Zufallsprinzip, nach der unabhängigen und nach der abhängigen Variablen und nach der räumlichen Nähe zu Gruppen von jeweils 2, 5, 10 und 15 Kreisen gruppiert. Als Erklärung für den Gruppierungseffekt wird manchmal angeführt, daß die Korrelationskoefflzienten deshalb größer würden, weil man durch die Zusammenlegung von Einheiten die Varianz verkleinere. Letzteres stimmt zwar, es wird aber übersehen, daß mit der Verkleinerung der Varianz der beiden Variablen auch die Kovarianz kleiner wird, so daß von der Gruppierung sowohl der Zähler als auch der Nenner des Korrelationskoeffizienten betroffen sind. Tatsächlich verändern sich in dem Beispiel, das Blalock zur Illustration verwendet, bei zufälligem Gruppierungsverfahren weder die Werte von r systematisch noch die Steigungsmaße byx bzw. bxy der Regressionsgeraden. Sahner replizierte dieses Verfahren von Blalock mit Daten der Gemeindestatistik von Schleswig-Holstein und berichtete für r dasselbe Ergebnis
92
7. Band: Datenanalyse
1970). Dagegen nehmen die Standardabweichungen der Variablen, wie erwartet, mit zunehmender Gruppierung ab.
(SAHNER
Bei einer Gruppierung der Einheiten nach der unabhängigen Variablen bleibt in Blalocks Beispiel byx konstant, während r kontinuierlich von .54 bis .95 steigt. Dadurch, daß jeweils Einheiten mit ungefähr gleichem X-Wert zusammengefaßt werden, wird die Varianz von X maximiert, während gleichzeitig — unter der Annahme, daß die Störvariablen nicht mit X korrelieren — die Varianz dieser Störvariablen und damit auch die Varianz von Y reduziert wird. Die verbleibende Streuung von Y kann dann mit X besser vorausgesagt werden. Die Regressionsgerade bleibt zwar gleich, die Streuung der Punkte um die Gerade ist aber nicht mehr so groß, was sich in einem höheren Wert für r2 ausdrückt. Wenn aus der häufig beobachtbaren Tatsache, daß die Korrelationskoeffizienten mit zunehmender Größe der ökologischen Einheiten einen höheren Wert annehmen, gefolgert wird, ökologische Korrelationen seien für kausale Aussagen wertlos, so ist diese Skepsis nur insofern berechtigt, als Korrelationen überhaupt für die asymmetrische Fragestellung von Kausalerklärungen irreführend sind. Das ist keine Besonderheit von ökologischen Korrelationen. Entscheidend ist in diesem Fall vielmehr der Regressionskoeffizient byx, und der hat sich in obigem Beispiel nicht verändert. Was sich verändert hat, ist die Fehlerstreuung um die Regressionsgerade, nicht die Regressionsgerade selbst. Der Unterschied zwischen r und b in der Reaktion auf die Bedingung: rux = bux = 0, d.h. auf die Annahme, daß die Störvariable U nicht mit X korreliert, läßt sich zeigen, wenn man diese Bedingung in die Gleichungen für die partielle Korrelation bzw. Regression einsetzt (vgl.BLALOCK 1961, S. 101): (25)
Ir x y . u I =
(26)
byx.u
' » « ^ j -
= b^X_,byuhb"X
~
=
K'
> I,
|
b
yx-
Je höher die Korrelation zwischen U und Y, umso höher wird die partielle Korrelation, während der Regressionskoeffizient unverändert bleibt. "Were the slope to change as controls for such variables are introduced, scientific generalization would be next to impossible." (BLALOCK 1961, S. 101). Bei der Gruppierung ökologischer Einheiten ändert sich allerdings manchmal auch die Neigung der Regressionsgeraden. Doch auch dieser Fall ist kein spezielles Problem der ökologischen Analyse, vielmehr handelt es sich hierbei um das generelle Problem derMultikollinearität. Gruppiert man z.B. nach der abhängigen Variablen, verändert byx seinen Wert. In dem Beispiel von Blalock nimmt byx ähnlich wie rxy mit zunehmender Gruppierung immer höhere Werte an. Unter der Annahme, daß die Störvariablen ursprünglich nicht mit der unabhängigen Variablen korrelieren, wird durch eine Gruppierung nach der abhängigen Variablen die Multikollinearität künstlich eingeführt. Da nach unseren Annahmen sowohl X als auch U mit Y positiv korrelieren, bekommt man z.B. durch die Zusammenfassung von Einheiten mit hohen K-Werten gleichzeitig hohe X- und U-, V- und W-Werte. "In grouping by Y, we are confounding the effects of all these variables, this being the very opposite of the direction in which we usually wish to move" (BLALOCK 1961, S. 108).
3. Kapitel: Aggregatdatenanalyse
93
In der Forschungspraxis ist es üblich, nach räumlicher Nähe zu gruppieren. Im Gegensatz zu den eben geschilderten Gruppierungsverfahren weiß man aber nicht, ob man damit eher nach der unabhängigen oder der abhängigen Variablen gruppiert. Wenn wir allerdings nach der unabhängigen Variablen gruppiert haben, sollte die Steigung der Regressionsgeraden gleich bleiben. In Blalocks Beispiel ist das der Fall. SHIVELY (1969) hat darauf aufmerksam gemacht, daß die von Blalock explizierten Modellvorstellungen nicht nur auf den Fall der Gruppierung ökologischer Einheiten zu größeren Einheiten zutreffen, sondern genauso auf die Aggregation von Individuen zu Gruppen irgendwelcher Art, vorausgesetzt, daß bereits auf der Individualebene metrische Daten vorliegen. Wenn wir z. B. den Einfluß der Schulbildung auf das Einkommen einer Person untersuchen wollten, würde die Neigung der Regressionsgeraden für die Individualdaten gleich der Neigung der Geraden für die räumlich gruppierten Daten sein, wenn wir annehmen könnten, daß ein Zusammenhang zwischen dem Wohnbezirk einer Person und ihrem Einkommen nur über die Schulbildung sich ergibt. Diese Annahme ist offensichtlich unrealistisch. Wenn man nach räumlicher Nähe gruppiert und auch inhaltlich an den Mechanismen interessiert ist, die die verschiedenen Koeffizienten verändern, m u ß man mehr über die Art der sich ergebenden Regionen wissen. Dazu gehört zumindest, daß man nicht nur die Unterschiede in den ökologischen Regressionen bzw. Korrelationen beachtet, sondern auch die sich verändernden Intragruppenkorrelationen und Korrelationsverhältnisse. So hat bereits ROBINSON (1950) darauf hingewiesen, daß mit zunehmender Gruppierung empirisch zwei Regelmäßigkeiten zu erwarten sind: (1) die durchschnittliche Intragruppenkorrelation werde größer, weil die Region zunehmend heterogener würde, und (2) die Korrelationsverhältnisse würden aus demselben Grund kleiner. Die Folgen dieser empirischen Regelmäßigkeiten für die ökologische Korrelation lassen sich aus Formel (27) ablesen:
(27)
=
1
VXR VYR
, _VE^VlZS VXR VYR
Eine Zunahme der Intragruppenkorrelation übt zwar auf rz einen Verkleinerungseffekt aus. Dieser E f f e k t wird aber mehr als ausgeglichen durch die Folgen, die eine Verkleinerung der Korrelationsverhältnisse für rz hat, so daß insgesamt mit einer Zunahme der ökologischen Korrelation gerechnet werden muß. Da die Frage, welche Gruppierungseffekte bei zunehmender Aggregation eintreten können, letzten Endes eine empirische Frage ist, kann man auch nur durch empirische Untersuchungen einen genaueren Aufschluß über die inhaltlichen Mechanismen gewinnen, die die Werte von r, R7, rz und R\XR bzw. 17YR verändern. SLATIN (1969) hat Ergebnisse einer derartigen Studie veröffentlicht. Er untersucht die Delinquenz von Jugendlichen in einer Stadt in Abhängigkeit von Variablen wie Alter, Intelligenzquotient, Beruf des Vaters und Wert des Hauses und Grundstücks. Die Individualdaten gruppierte er dann nach der räumlichen Nähe zu 47, 21 und 10 ökologischen Einheiten. Ein Ziel der Gruppierung war es, sozio-ökonomisch möglichst homogene Stadtteile zu erhalten. Wenn man bedenkt, daß die Schichtzusammensetzung von Nachbar-
94
7. Band: Datemnalyse
Schäften auch einen entscheidenden Faktor für die selektive Migration darstellt, überrascht es nicht, daß das Korrelationsverhältnis für Variablen, die zum Komplex soziale Schichtung gehören, größer ist als für die übrigen Merkmale. Die geringste regionale Klumpung ergibt sich für das Merkmal Alter. Durch die zunehmende Gruppierung ergeben sich die erwarteten Effekte: Die ökologische Korrelation wird größer und das Korrelationsverhältnis kleiner. Die Regressionskoeffizienten werden durch die Gruppierung weniger beeinflußt als die Korrelationen. Für die Variablenpaare, für die Slatin Ergebnisse mitteilt, ändern sich entgegen der Erwartung die Werte der zusammengefaßten Intragruppenkorrelationen kaum. Für die Fragestellung der Kontextanalyse ist allerdings der zusammengefaßte Intragruppenkoeffizient weniger relevant als die einzelnen Regressionskoeffizienten in den verschiedenen Regionen. Dabei zeigen sich für einzelne Regionen erhebliche Abweichungen. Slatin kann diese Abweichungen mit seinen Daten nicht mehr erklären. Wenn wir als Beispiel den Zusammenhang zwischen der Schichtzugehörigkeit des Vaters, gemessen mit Hollingsheads 2-Faktor-Index der sozialen Position, und dem Intelligenzquotienten des Jugendlichen wählen, zeigt sich, daß die ökologische Korrelation zwischen den ursprünglichen 47 Einheiten —.56 beträgt, während sie für die letzte Aggregationsstufe (10 Einheiten) den Wert von —.85 annimmt. Der ökologische Regressionskoeffizient b ändert sich dagegen kaum (von —.34 auf —.39). Tatsächlich beträgt b in der Grundgesamtheit —.33 und auch die zusammengefaßte Intragruppenregression weicht sowohl für die 47 als auch für die 10 Einheiten nicht stark von diesem Wert ab. Wir können also vermuten, daß nach der unabhängigen Variablen gruppiert worden ist. Ein Indiz dafür ist, daß das Korrelationsverhältnis für die Schichtzugehörigkeit des Vaters auf beiden Aggregationsstufen größer ist als das Korrelationsverhältnis für den Intelligenzquotienten und daß letzteres außerdem durch die Gruppierung weniger stark reduziert wird. Wenn man die Regressionskoeffizienten innerhalb der 10 ökologischen Einheiten vergleicht, zeigen drei Regionen signifikante Abweichungen. Diese Abweichungen können mit den Aggregatvariablen nicht geklärt werden. Wahrscheinlich müßte man die Erklärung in bestimmten Globalmerkmalen dieser Regionen suchen. Die Tatsache der Abweichungen allein reicht allerdings aus, um der Erklärung von Y durch X auf der individuellen Ebene, ohne Berücksichtigung des Kontexts, mit etwas mehr Skepsis zu begegnen. "Along with the familiar dictum about exercising caution in generalizing from ecological findings to the level of individuals, it is nessesary to add, in conclusion, that individual or total relationships are themselves not free of difficulty. If the relationship between X and Y is in any way dependent upon aggregate context,... this fact would be obscured by an analysis of total relationships"(SLATiN 1969).
3. Kapitel: Aggregatdatenanalyse
3.5
95
Die Schätzung individuellen Verhaltens mit Hilfe von Aggregatdaten
Seit dem Verdikt von Robinson, daß man aus ökologischen Daten nicht auf individuelles Verhalten schließen könne, sind einige Schätzverfahren entwickelt worden, die genau diesen Schluß erlauben. Man muß dabei allerdings einige Annahmen machen oder eine zum Teil erhebliche Bandbreite in Kauf nehmen, innerhalb derer die individuelle Korrelation schwanken kann. Diese Verfahren stehen nicht in Widerspruch zu den Aussagen von Robinson, da in keinem Fall ein direkter Schluß von rz auf r möglich ist. (1953) schlagen ein Verfahren für den Fall von Dichotomien auf der Individualebene vor, bei dem man keinerlei Annahmen machen muß. Sie gehen von der Überlegung aus, daß man in einer Vierfeldertafel mit Hilfe der Randverteilungen ein Minimum und ein Maximum für eine der vier Zellen der Tabelle errechnen kann. Wenn man die Minima bzw. die Maxima für die einzelnen regionalen Einheiten addiert, kann man den niedrigsten bzw. höchsten möglichen Wert für die Korrelation der zwei Merkmale berechnen. Die sich ergebende Bandbreite ist nicht im Sinn eines Konfidenzintervalls um den wahren Wert zu verstehen, sondern gibt feste Grenzen an, innerhalb derer der wahre Wert liegen muß. DUNCAN UND DAVIS
Wenn wir z.B. den Anteil der Katholiken schätzen wollen, der bei der Bundestagswahl 1961 in Nordrhein-Westfalen CDU gewählt hat, wird sofort eine praktische Schwierigkeit sichtbar. Die Populationen, für die die Angaben in der amtlichen Statistik für die beiden Merkmale mitgeteilt werden, decken sich nicht ganz. Der Katholikenanteil bezieht sich auf die Wohnbevölkerung, der CDU-Anteil auf die 1961 gültig abgegebenen Zweitstimmen. Wir wollen der Einfachheit halber annehmen, daß sich der Katholikenanteil unter den Wählern, die eine gültige Zweitstimme abgegeben haben, gegenüber der Wohnbevölkerung nicht verschoben hat. Minimum katholisch CDU nicht-CDU
Maximum
nicht-katholisch
katholisch
0
48
48
CDU
52
0
52
nicht-CDU
52
48
100
30 für a = 0,1) erfordert (MÜLLER-MERBACH 1969, S. 411). Mit der zu beobachtenden Zunahme längerer Zeitreihenstudien in den anderen Sozialwissenschaften dürfte jedoch auch das exponential smoothing als Verfahren der Trendberechnung an Bedeutung gewinnen. 4.6.2
A u s w e r t u n g repräsentativer M a ß e
Die Berechnung von Veränderungsraten und Trends hat die Aufgabe, die empirisch erhobenen Zeitreihendaten für die Auswertung zweckentsprechend aufzubereiten. Sie ist im wesentlichen darauf ausgerichtet, Strukturen (plattern), Zusammenhänge und Stabilitäten der Reihe, d.h. die ihren Verlauf bestimmenden "Gesetzmäßigkeit e n " aufzuzeigen, die sich sowohl in der Konstanz bestimmter Zustände als auch in "regelmäßigen Veränderungen, Schwankungen, Beschleunigungen von Veränderungen usw." (ROTHSCHILD 1969, S. 23) manifestieren können, um damit zwei Zielen zu dienen: 1. In Verfolgung vornehmlich historischer Interessen — der Beschreibung der Vergangenheit und dem Test von Hypothesen über vergangene Abläufe und die sie beeinflussenden Faktoren (WALLIS UND ROBERTS 1965, S. 559) sowie 2. zukunftsorientiert — und hier liegt der unumstrittene Schwerpunkt der Zeitreihenanalyse — auf der Basis der erkannten Zusammenhänge der historischen Reihe Anhaltspunkte für die zukünftige Entwicklung zu erhalten. Eine entwickelte Methodologie für die Vorgehensweise bei der Auswertung der repräsentativen Maße im Hinblick auf diese beiden Ziele ist jedoch — in krassem Gegensatz zu der Ausführlichkeit und Genauigkeit, mit der die Rechenverfahren und die ihnen zugrunde liegenden mathematischen statistischen Annahmen beschrieben werden, — bislang noch nicht entwickelt worden. Das Feld wird auch heute noch fast völlig von dem Einfühlungsvermögen und den Erfahrungen des Analytikers bestimmt, d.h. aber auch mehr als ein Problem des learning on the job denn als eine "lehrfähige" Tätigkeit angesehen — eine Einstellung, die sehr gut durch die Empfehlung von GEORGESCU-ROEGEN ( 1 9 5 8 ) " g e t all t h e f a c t s a n d u s e g o o d j u d g e m e n t " a u s g e d r ü c k t
wird. Die Mehrzahl der Abhandlungen zur Zeitreihenanalyse läßt daher eine Diskussion der Analysestrategien ganz vermissen und beschränkt sich auf die "exakteren" Probleme der Berechnungsmethoden oder verweist durch Hervorhebungen von "guten Gründen" für die der Analysestrategie zugrundeliegenden Annahmen, von "sachlo-
4. Kapitel: Die Analyse von Zeitreihen und Longitudinalstudien
149
gischen Überlegungen" für die Konstanz von Trends und anderes mehr (ROTHSCHILD 1969, S. 23 und 35) auf diese Bedeutung von human judgement (CHAMBERS U. A. 1971, S. 49) hin. Soweit versucht wurde, generelle Regeln aufzustellen, sind diese — basierend auf unterschiedlichen Erfahrungsbereichen — oft scheinbar widersprüchlich: So wird sowohl daraufhingewiesen, daß kurzfristige Prognosen einer Zeitreihe sicherer sind als Prognosen der Entwicklung über einen längeren Zeitraum (vgl. CHAMBERS U.A. 1971, S. 50), als auch betont, daß langfristige Prognosen mit größeren Unsicherheiten behaftet sind als Voraussagen der kurzfristigen Veränderungen (UN 1971, S. 8) Erst in den letzten Jahren sind Ansätze zu verzeichnen, durch Experten-Ratings und ähnliche Verfahren diese intuitiven Strategien für die Analyse von Zeitreihen im Hinblick auf die zukünftige Entwicklung systematisch einzusetzen und eine entsprechende Methodologie zu entwickeln (z. B. JOHNSTON 1970; ABT 1970). 4.6.2.1 Interpretation durch Experten Das älteste, immer noch weit verbreitete Verfahren der Analyse von Zeitreihen im Hinblick auf die zukünftige Entwicklung ist die Interpretation durch Experten (WOLFE 1966, S. 98), d.h. solche Personen, die aufgrund längerer und intensiver Beschäftigung über relativ große Erfahrungen im Hinblick auf die zu prognostizierende Zeitreihe — vor allem die diese in der Vergangenheit beeinflussenden Faktoren — verfügen. Da die Prognose von Zeitreihen anhand von Veränderungsraten und Trends der Vergangenheit — wie gezeigt — immer noch mehr eine Kunst als eine Wissenschaft ist, sind diese vielfach auch als "qualitative Analysen" bezeichneten Verfahren (UN 1971, S. 56) oft sehr effektiv (ABT 1970, S. 19), d.h. der vorausgesagte Wert y* entspricht relativ gut der später tatsächlich gemessenen Ausprägung y,. Experten-Interpretationen haben sich vor allem dort bewährt, wo größere Sprünge oder andere einschneidende Veränderungen der Reihe auftraten, bei denen die übrigen Methoden der Auswertung repräsentativer Maße in der Regel versagen (ABT 1970, S. 20). Experten-Interpretationen von Zeitreihen sind jedoch keineswegs Vorgänge im Bereich der Magie öder Hellseherei, obwohl sie nicht adäquat als Anwendung irgendeiner spezifischen "Methode" beschrieben werden können (JOHNSTON 1970, S. 180). Es handelt sich hierbei vielmehr um grundsätzlich nichts anderes als die Anwendung eines Modells, das den Zusammenhang zwischen den Ausprägungen der zu prognostizierenden Zeitreihe und den sie beeinflussenden Variablen erfaßt, welches jedoch nicht explizit beschrieben wird, sondern mehr oder weniger nur inkorporiert in den Erfahrungsschatz und den Vorstellungen des Experten existiert (BELL 1964, S. 851). Die Vorgehensweise von Experten bei diesem "armchair theorizing" (JOHNSTON 1970, S. 178) entspricht daher in der Regel genau der Analysestrategie eines Zeitreihenforschers, der ein Modell aufstellt und testet. Durch visuelle Inspektion (PARKER UND SEGURA 1971, S. 100), Interpretation der Veränderungsraten und Trends versuchen sie — oder haben es aufgrund vergangener Beschäftigung mit dem Phänomen bereits getan — die Faktoren zu bestimmen, die die Veränderungen verursachen oder zumindest eine hohe Korrelation mit ihnen aufweisen (UN 1971, S. 13). In gleicher Weise werden aus der Fülle solcher Faktoren diejenigen bestimmt, die wenigstens in der Vergangenheit einen großen Einfluß auf die zu prognostizierende Zeitreihe hatten (ROTHSCHILD 1969, S. 10) oder die - und das ist besonders wichtig — als 'leading indicators" (WOLFE 1966, S. 48 ff.) die Veränderungen der Reihe
150
7. Band:
Datenanalyse
vorzeitig ankündigten. Bestimmte Annahmen über die "Plausibilität" verschiedener zukünftiger Verläufe z.B. über Lebenszyklen von Produkten in Absatzprognosen (CHAMBERS U. A. 1971, S. 65 ff.), Grenzen von Wachstumsvorgängen in der Prognose von ökonomischen und sozialen Veränderungen (ROTHSCHILD 1969, S. 22), ermöglichen es dem Experten dann, wahrscheinlichere oder weniger wahrscheinliche Zukünfte (ROTHSCHILD 1969, S. 16) zu bestimmen. Da eine solche Experten-Interpretation — wie die Beschreibung der Vorgehensweise zeigt — im wesentlichen auf subjektiven Einschätzungen beruht, die - da sie in der Regel nicht explizit ausgesprochen werden — nur schwer überprüfbar sind, ist die Unsicherheit der Vorhersage eines einzelnen Experten relativ hoch. Es besteht daher das Bestreben, die Experten-Interpretation — ähnlich der Delphi-Methode — durch einen systematischen Einsatz der Schätzungen mehrerer Experten, d.h. also unterschiedlicher Modelle mit verschiedenen Erklärungszusammenhängen und Gewichtungsansätzen zu "objektivieren". Die Experten geben zunächst unabhängig voneinander Einzelprognosen ab, werden dann in einem Rückkoppelungsprozeß über die Unterschiede informiert, diskutieren die diese bestimmenden unterschiedlichen Modellvorstellungen (z.B. die Wahl unterschiedlicher Trendfunktionen) und versuchen, in mehreren Runden eines iterativen Prozesses durch Abstimmung und Überzeugung die wahrscheinlichste Entwicklung herauszuarbeiten (WOLFE 1966, S. 98; UN 1971, S. 12 ff.). Neuere Verfahren wie "cross impact-Matrizen"(C0ATES 1971, S. 229) streben an, diese Ausnutzung der Expertenkenntnisse noch weiter methodisch zu durchdringen, indem sie Wahrscheinlichkeiten des Auftretens einer Gruppe von Ereignissen, die die zu untersuchende Zeitreihe beeinflussen und miteinander verbunden sind, systematisch schätzen lassen. Diese Ansätze "verbessern" zwar die Prognose, indem sie die Experten zwingen, die ihrer Interpretation zugrunde liegenden Annahmen deutlich zu machen und die Entwicklungen systematischer zu schätzen, sie sind jedoch nur in der Lage, einen Teil der mit der Anwendung dieser "Methode" verbundenen Probleme zu lösen. Ungelöst ist vor allem die zentrale Frage nach der Definition und Auswahl eines "Experten", die vor allem bei Zeitreihen über solche Phänomene, die erst seit relativ kurzer Zeit als Forschungsobjekte untersucht werden, besonders relevant wird, da hierfür selten Experten gefunden werden können, die die eingangs erwähnten Qualifikationen besitzen. 4.6.2.2 Extrapolation
und
Trendprojektion
Während die Interpretationsverfahren die Intuition von Experten systematisch zur Vorhersage der zukünftigen Entwicklung einer Zeitreihe einsetzen, versuchen Extrapolationen und Trendprojektionen dieses subjektive Element weitgehend zu eliminieren: Die Zeitreihe wird hierbei "unter Heranziehung der bisherigen Entwicklung rechnerisch oder grafisch verlängert" (KELLERER 1967, S. 96), ohne die "covering laws" (JOHNSTON 1 9 7 0 , S. 1 7 6 ) im einzelnen zu spezifizieren (PARKER UND SEGURA 1971, S. 100). Die Trendprojektion liefert hierbei die zukünftigen Trendwerte, die die langfristige oder durchschnittliche Entwicklung der Reihe angeben. Sie erfolgt z.B. durch einfache grafische Verlängerung der Reihe gleitender Durchschnitte oder durch Einsetzen entsprechender Werte in die Regressionsfunktion. Sollen bei der Trendprojektion zukünftige Werte der tatsächlichen Reihe geschätzt werden, so müssen entsprechende Umrechnungsverfahren angewandt werden (ROTHSCHILD
4. Kapitel: Die Analyse
von Zeitreihen
und
Longitudinalstudien
151
1969, S. 35). Extrapolationen versuchen dagegen, die zukünftigen Werte der tatsächlichen Reihe vorauszuschätzen, indem z.B. die durchschnittlichen Veränderungsraten der letzten Perioden in die Zukunft projiziert werden (CHAMBERS U. A. 1971, S. 50) oder der Zukunftswert auf der Basis der exponentiell-geglätteten Vergangenheitswerte berechnet wird (MÜLLER-MERBACH 1969, S. 411 ff.). Die grundlegende Hypothese für die Anwendung beider Verfahren ist die Annahme, daß sich "die meisten Strukturelemente einer Zeitreihe nicht plötzlich und sprunghaft, sondern nur allmählich ändern" (ROTHSCHILD 1969, S. 15), so daß davon ausgegangen werden kann, daß der zukünftige Verlauf der Reihe der Entwicklung in der Vergangenheit entspricht (BROWN 1966, S. 4). Solange diese Annahme zutrifft, können Extrapolationen und Trendprojektionen als adäquate Ansätze zur Auswertung der für eine Zeitreihe repräsentativen Maße im Hinblick auf ihre zukünftige Entwicklung angesehen werden (JOHNSTON 1970, S. 181). Das zentrale Problem beider Vorgehensweisen ist jedoch die Frage, wie lange diese Annahme tatsächlich zutrifft, d.h. wie lange die beobachteten Regelmäßigkeiten andauern und wie weit demnach die Werte in die Zukunft extrapoliert werden können. Die lange Geschichte der Fehlschläge von kurz- wie langfristigen Prognosen auf der Basis von Extrapolationsverfahren in fast allen Bereichen der empirischen Sozialforschung (JOHNSTON 1970, S. 181) ist eine reichhaltige Fundgrube von Geboten und Verboten, die sich in der Zeitreihen-Literatur niedergeschlagen haben. Im wesentlichen handelt es sich hierbei um drei grundlegende Probleme: die Länge der erhobenen Zeitreihe, die Bedeutung von Zufallsschwankungen und den Einfluß grundlegender Strukturänderungen. Je kürzer die empirisch erhobene Zeitreihe ist, desto weniger Informationen über die Stabilitäten und Regelmäßigkeiten stehen dem Zeitreihenforscher zur Verfügung. Die Wahrscheinlichkeit, daß Änderungen in diesen Strukturen auftreten, ist daher relativ hoch, so daß empfohlen wird, auf der Basis recht kurzer Reihen nur kurzfristige Prognosen anhand von Extrapolationstechniken vorzunehmen. Die besondere Schwierigkeit der kurzfristigen Prognose ist jedoch, daß hier die Zufallsschwankungen eine große Rolle spielen können, so daß "gerade für sehr kurzfristige Prognosen die Trendextrapolationen relativ ungenau ist" (ROTHSCHILD 1 9 6 9 , S. 5 3 ) . Dieses Verfahren wird von vielen Autoren als eher für die langfristigen Trendprognosen geeignet angesehen, bei denen die Zufallseinflüsse von untergeordneter Bedeutung sind. Hier zeigt sich jedoch eine andere Schwierigkeit: Je weiter man sich bei der Prognose von den Grunddaten entfernt, desto größer wird in der Regel die Wahrscheinlichkeit, daß grundlegende strukturelle Änderungen auftreten, so daß die Prognose mit wachsender zeitlicher Entfernung von den Grunddaten an Genauigkeit verliert (CHAMBERS U.A. 1 9 7 0 , S. 5 0 ) - langfristige Prognosen des Bevölkerungswachstums und der ökonomischen Entwicklung sind hier bekannte Beispiele (JOHNSTON 1 9 7 0 , S. 1 7 3 ) . Hinzu kommt, daß bei langfristigen Prognosen auch die Wahl der Trendfunktion von relativ großer Bedeutung ist, die bei der kurzfristigen Prognose nur verhältnismäßig geringe Abweichungen verursachen kann (ROTHSCHILD 1969, S. 53). Nach den bisherigen Erfahrungen vor allem in der Vorausschätzung demographischer und makroökonomischer Größen wie auch des Datenkranzes für unternehmerische Aktivitäten dürfte das Hauptanwendungsgebiet von Extrapolationsverfahren daher in der mittelfristigen Prognose ( 2 - 5 Jahre) liegen (ABT 1970, S . 7 9 ; PARKER UND SEGURA 1 9 7 1 , S . 1 0 0 ) - eine Schlußfolgerung, die jedoch selbst wiederum nur sehr vorsichtig gezogen werden kann (ROTHSCHILD 1 9 6 9 , S. 2 4 ) .
152
7. Band:
Datenanalyse
Verschiedene Möglichkeiten zur Verbesserung der prognostischen Fähigkeit des Verfahrens werden diskutiert und auch angewandt: a) Modelle, die eine Schätzung der Verteilung des Vorhersage-Fehlers erlauben (BROWN 1 9 6 6 , S . 2 7 4 f f . ) ;
b) mehr pragmatisch ausgerichtete Kombinationen von Experten-Interpretation und Extrapolationsverfahren, die statt einer Punkt-Prognose ein Spektrum der Entwicklung, d.h. eine größere Zahl von zukünftigen Ausprägungen der Reihe angeben, deren Wahrscheinlichkeiten durch das Experten-Rating bestimmt wird; c) Modelle für Extrapolationen und Trendprojektionen, die in der Regel mit Hilfe von Computern einen ständigen Zufluß neuer Daten erlauben und auf dieser Basis eine ständige Revision der Prognose ermöglichen (JOHNSTON 1970, S. 82). 4.6.2.3
Analogieschlüsse
Ein drittes, in der Praxis der Zeitreihenanalyse häufig angewandtes Verfahren der Auswertung repräsentativer Maße für Zwecke der Vorhersage sind Analogieschlüsse (UN 1971, S. 13). Man bezieht sich hierbei auf den Verlauf von Zeitreihen ähnlicher Phänomene in anderen Regionen, auf anderen Märkten, zu anderen Zeiten oder auf anderen Stufen sozialer, politischer, ökonomischer oder kultureller Entwicklung, die über eine größere Anzahl von Datenpunkten verfügen, d.h. auch den Datenbereich erfassen, der bei dem untersuchten Phänomen prognostiziert werden soll. Soweit nicht "gute Gründe" gegen die Annahme sprechen, daß sich die in den anderen Bereichen beobachteten Strukturen bei der zu prognostizierenden Reihe wiederholen (WOLFE 1966, S. 92), werden die zukünftigen Ausprägungen der Reihe unter Annahme gleichen Kurvenverlaufes geschätzt. Bekannte Beispiele sind die Vorausschätzung des Absatzes von Farbfernsehgeräten anhand der Absatzkurve von Schwarzweiß-Geräten in der betrieblichen Marktforschung (CHAMBERS U.A. 1971, S. 65), die Prognose der Verbreitung technologischer Neuerungen in Volkswirtschaften unterschiedlicher ökonomischer Entwicklung z.B. USA — Europa, entwickelte Länder — Entwicklungsländer (UN 1971, S. 13) oder der Änderung des Konsumentenverhaltens unterer sozialer Schichten bei steigendem Einkommen anhand der Daten über das Konsumverhalten der Mittelschichten. Die Effektivität dieses Verfahrens wird im wesentlichen von den sozio-ökonomischen, politischen und kulturellen Rahmenbedingungen beider Zeitreihen bestimmt. Sind diese einigermaßen vergleichbar, so kann die Annahme eines analogen Verlaufes vor allem bei langfristigen Prognosen recht gute Voraussagen ermöglichen — eine naive Übertragung ohne Prüfung dieser Faktoren wird jedoch die Prognose zu einem methodisch verbrämten Ratespiel werden lassen.
4.6.3
Möglichkeiten und Grenzen der Auswertung repräsentativer Maße
Die Auswertung repräsentativer Maße zur Vorausschätzung der Entwicklung von Zeitreihen gilt im allgemeinen als relativ primitiver Ansatz der Zeitreihenforschung, der mit großen Unsicherheiten behaftet ist. Die allen Verfahren zugrundliegende Annahme, daß aus den Strukturen und Regelmäßigkeiten der Vergangenheit Annahmen über die zukünftige Entwicklung gewonnen werden können und der große Einfluß, den die subjektive Einschätzung des Analytikers auf das Ergebnis hat, sind
4. Kapitel: Die Analyse von Zeitreihen und Longitudinalstudien
153
stets die zentralen Kritikpunkte. Auf der anderen Seite muß jedoch hervorgehoben werden, daß es nur wenige Möglichkeiten gibt, Informationen über die zukünftige Entwicklung einer Variablen zu erhalten, die über die Analyse des bisherigen Verlaufes hinausgeht. Weiterhin fehlen bislang immer noch umfassende Modelle des sozio-ökonomischen, politischen und kulturellen Wandels, die diese Verfahren ersetzen könnten. Hinzu kommt, daß die neueren Ansätze, durch systematischen Einsatz von Experten-Ratings, cross impact Matrizen u.y.m. eine umfassendere Methodologie dieser Verfahren zu entwickeln, mit dazu beitragen dürften, einen Teil der Schwächen und Unsicherheiten dieser Ansätze zu beseitigen. Experten-Interpretationen repräsentativer Maße, Extrapolationen vergangener Trends und Analogieschlüsse sind daher auch heute immer noch grundlegende Analysestrategien fast aller Zeitreihenuntersuchungen, die von Regierungsstellen, Instituten (vgl. hierzu z.B. die Analysen der in vielen Ländern verwandten Verfahren zur Projektion der langfristigen sozio-ökonomischen Entwicklung in UN 1971, S. 56 ff:) oder privaten Unternehmungen zur Vorausschätzung zukünftiger Entwicklungen herangezogen werden, und dies wird wohl auch noch für eine absehbare Zeit so sein.
4.7
Zeitreihenzerlegung als erster S c h r i t t zur systematischen Analyse
Die Diskussion um die verschiedenen Verfahren der Auswertung repräsentativer Maße hat gezeigt, daß mit Ausnahme rein zufallsbedingter Fluktuationen davon ausgegangen werden muß, daß die Ausprägungen einer empirisch erhobenen Zeitreihe durch eine Fülle von Einflußfaktoren bestimmt werden. Die besondere Schwierigkeit der Analyse ist hierbei, daß die Zeitreihe selbst nur den gleichzeitigen Einfluß all dieser Faktoren wiederspiegelt, es aber sowohl fiir die Interpretation wie auch die Prognose der Reihe wünschenswert wäre, den Einfluß eines jeden Faktors zu isolieren und in seinem Zusammenwirken mit den anderen Variablen zu sehen (STEINER 1956, S. 8). Höchstes Ziel der Zeitreihenanalyse ist es daher, die einzelnen Einflußfaktoren zu isolieren und ihre Interaktionen mit der zu untersuchenden Reihe in einem umfassenden Modell aufzuzeigen (KELLERER 1967, S. 99). In vielen Fällen ist es jedoch — wie bereits dargelegt — heute noch nicht möglich, solche Modelle aufzustellen. Weder die theoretische Durchdringung des Phänomens noch die zur Verfügung stehenden mathematisch-statistischen Instrumente bieten eine ausreichende Basis hierfür (BROWN 1963, S. 58). Es hat sich gleichwohl gezeigt, daß es möglich zu sein scheint, den Verlauf von "Zeitreihen — a-kausal — als die rechnerische Resultante aus mehreren Bewegungserscheinungen oder Komponenten" (NULLAU 1968, S. 63) zu beschreiben. Die einzelne Ausprägung der zu untersuchenden Reihe wird dieser Annahme entsprechend — ohne in einer Kausalanalyse auf die Wirkungen bestimmter Ursachen zurückgeführt zu werden — durch das Zusammenwirken verschiedener idealtypischer Reihen unterschiedlicher mathematischer Konfiguration beschrieben. Ziel der Zeitreihenz erlegung ist es, einen Algorithmus oder eine Gruppe von Algorithmen zu finden, die die Ausprägungen der Reihe in diesem Sinne beschreiben (ROTHSCHILD 1969, S. 29). Ausgangspunkt ist hierbei die Annahme, daß sich der Verlauf vieler empirischer Zeitreihen durch den Einfluß dreier
154
7. Band:
Datenanalyse
Gruppen von Bewegungsabläufen beschreiben läßt (Box UND JENKINS 1970, S. 301; SISKIN 1968, S. 80): langfristige Bewegungen, kurzfristige, periodisch wiederkehrende Bewegungen und irreguläre Bewegungen. Die praktischen Erfahrungen mit der Analyse ökonomischer Zeitreihen haben gezeigt, daß diese Zerlegung von Vorteil für die Interpretation und Voraussage von Zeitreihen ist (BROWN 1963, S. 58). Es muß jedoch noch einmal betont werden, daß das "was man dann als langfristigen Trend, als mittelfristige Konjunktur oder kurzfristige Saisonbewegung herausgearbeitet hat, nicht unbedingt die 'Sache selbst' (ROTHSCHILD 1969, S. 30) ist — auch wenn sie mit recht deskriptiven, auf mögliche Ursachenkomplexe hindeutenden Bezeichnungen versehen wird, — sondern das Ergebnis einer im Einzelfall mehr oder weniger willkürlichen Trennung (KENDALL 1953, S. 11). 4.7.1
Das grundlegende Modell
Die Zerlegung von Zeitreihen in entsprechende Komponenten erfordert, daß der Zeitreihenforscher sich mit folgenden drei zentralen Problemen beschäftigt (STEINER 1956, S. 8):
1. der Bestimmung der Zahl und Art der Komponenten, durch die die empirisch gefundene Reihe beschrieben werden soll, 2. der Bestimmung der Art ihres Zusammenwirkens und 3. der Entwicklung von Methoden zur Identifikation der einzelnen Komponenten aus der empirisch gefundenen Reihe. Selbstverständlich ist die Antwort, die auf alle drei Fragen gefunden wird, wesentlich von der spezifischen Gegebenheit der einzelnen Zeitreihe abhängig. Es sind daher auch in der einschlägigen Literatur eine Fülle von methodischen Ansätzen für einzelne Forschungsbereiche zu finden (ROTHSCHILD 1969, S. 29), die hier nicht im Detail abgehandelt werden sollen. Die allen Verfahren gemeinsamen Grundprinzipien wie auch die wichtigsten Methoden der Zerlegung sollen jedoch dargestellt werden. Dabei wird auf die Erfahrungen, die in der national-ökonomischen Konjunkturforschung gewonnen wurden, Bezug genommen, da in diesem Bereich Zeitreihenzerlegungsverfahren seit einigen Jahrzehnten diskutiert und in der Forschungspraxis angewandt werden. Die Erkenntnisse können leicht auf ähnliche Phänomene in anderen Bereichen der empirischen Sozialforschung z.B. bei der Analyse von Fluktuationen und Zyklen des sozialen Wandels (MOORE 1968, S. 73) oder des Wählerverhaltens übertragen werden (TINTNER 1968, S. 47). 4.7.1.1 Die
Einflußfaktoren
Unter dem Begriff der langfristigen Veränderungen von Zeitreihen werden in der Regel zwei Erscheinungen subsummiert: Die glatte Komponente (NULLAU 1968, S. 63) oder der Trend (KELLERER 1967, S. 97), die die säkulare Grundrichtung einer Reihe angeben, und die konjunkturellen Schwankungen (WOLD 1968, S. 70 f.), die die längerfristigen, wiederkehrenden, aber nicht gleichmäßigen Oszillationen um diesen Trend darstellen sollen (BURNS 1968, S. 228). Als längerfristig werden in diesem Zusammenhang Erscheinungen angesehen, die über den Zeitraum eines Jahres hinausgehen. Inwieweit die Unterscheidung zwischen
4. Kapitel: Die Analyse von Zeitreihen und Longitudinalstudien
155
Trend und Konjunkturkomponente sinnvoll ist, muß im Einzelfall bei der Betrachtung der jeweiligen Zeitreihe festgestellt werden ( B U R E A U OF LABOR STATISTICS 1968, S. 227) und ist im wesentlichen vom theoretischen Konzept des Analytikers abhängig. In der Forschungspraxis hat es sich meist als sehr schwierig erwiesen, längerfristige konjunkturelle Veränderungen von der Trendentwicklung zu unterscheiden (TINTNER 1968, S. 49) oder auch konjunkturelle Verläufe überhaupt — vor allem im Unterschied zur irregulären Komponente — zu isolieren, da sie als äußerst unregelmäßig im Hinblick auf Verlaufsform, Amplitude und Dauer angesehen werd e n (BURNS
1 9 6 8 , S. 2 4 1 f.).
Als kurzfristige Veränderungen werden in der Regel solche Bewegungen einer Zeitreihe definiert, die kürzere Zeiträume als ein Jahr umfassen. Bei der Analyse ökonomischer Zeitreihen werden sie in der Regel als saisonale Schwankungen bezeichnet, die über einen längeren Zeitraum hinweg periodisch in jedem Jahr auftreten und bei denen die Amplituden in dieser Zeit annähernd gleich sind oder sich nur aufgrund äußerst langfristiger struktureller Verschiebungen ändern (SHISKIN 1 9 6 8 , S . 8 1 ; N U L LAU 1968, S. 64 f.). Sie werden vor allem im Gegensatz zu den längerfristigen, konjunkturellen Veränderungen dadurch abgegrenzt, daß sie eine relativ genau bestimmbare Periodenlänge haben. Die saisonalen Veränderungen können sowohl täglich, monatlich als auch vierteljährlich wiederkehren (KELLERER 1 9 6 7 , S. 9 8 ) . Es wird angenommen, daß sie einmal durch Natureinflüsse wie Erntezyklen in der Landwirtschaft, Tages- und Nachtrhythmus usw. verursacht werden, zum anderen den Einfluß bestimmter institutioneller Faktoren wie Festtage, Ferienordnung, Arbeitszeitordnung widerspiegeln (SHISKIN 1 9 6 8 , S . 6 1 ) . Da diese Faktoren verschiedene Zeitreihen in ganz unterschiedlicher Weise beeinflussen können (STEINER 1 9 5 6 , S . 1 0 ) , sind bei der Zerlegung der Reihen zunächst eine Fülle von theoretischen Vorüberlegungen erforderlich, die es ermöglichen, das Ausmaß dieses Einflusses wenigstens einigermaßen abzuschätzen ( B U R E A U OF LABOR STATISTICS 1 9 6 6 , S . 2 2 2 ) . Bei den irregulären Veränderungen handelt es sich um die Restkomponente der Zeitreihenzerlegung, d.h. hierunter werden alle diejenigen Veränderungen der empirisch erhobenen Zeitreihe subsummiert, die bei der Zerlegung in die Trend-, Konjunktur- und Saisonveränderungen nicht erfaßt wurden (STEINER 1 9 5 6 , S . 1 2 ; NULLAU 1968, S. 65). Da bei vielen ökonomischen Zeitreihen die konjunkturellen Veränderungen aufgrund ihrer starken Unregelmäßigkeiten nicht gesondert aus den empirischen Daten herausgeschält werden können ( B U R N S 1 9 6 8 , S. 2 3 0 ) bzw. diese Komponente im Hypothesenrahmen für nicht-ökonomische Zeitreihen oft nicht existiert, wird vielfach auf eine Zerlegung der Reihe in eine separate Zeitreihe der Konjunkturbewegung verzichtet, so daß die Komponente der irregulären Bewegung etwaig vorhandene konjunkturelle Einflüsse beinhaltet. Einige Zeitreihenanalytiker versuchen, auch den irregulären Veränderungen eine separate Gruppe von Erklärungsfaktoren zuzuschreiben und hervorzuheben, daß es sich dabei um den Einfluß rein zufälliger Schwankungen sowie um Auswirkungen einmaliger Ereignisse, Struktureinbrüche wie umwälzende technologische oder institutionelle Wandlungen usw. handelt (KELLERER 1 9 6 7 , S. 9 8 ) . Der methodischen Basis der Zeitreihenzerlegungsverfahren entsprechender ist jedoch die eindeutige Bestimmung der irregulären Veränderungen als Residuum des Zerlegungsprozesses ( B U R E A U OF LABOR STATISTICS 1 9 6 6 , S. 2 2 4 ) .
156
7. Band:
4.7.1.2 Die
Datenanalyse
Verknüpfungshypothesen
Jede Zerlegung von Zeitreihen in einzelne Komponenten setzt eine Modellvorstellung über die Struktur der Reihe (NULLAU 1968, S. 67), d.h. die Art des Zusammenhanges zwischen den gewählten Komponenten voraus. In rein mathematischer Hinsicht kann eine unbegrenzte Zahl von Verknüpfungsmöglichkeiten angenommen werden, die bei der Zerlegung zu ganz unterschiedlichen Funktionen für die einzelnen Komponenten führen. Es ist daher die Aufgabe des Analytikers, aus der Fülle dieser Möglichkeiten eine bestimmte Struktur der Reihe als Grundlage des Zerlegungsverfahrens anzunehmen. Überblickt man die wesentliche Literatur zur Zeitreihenzerlegung, so werden in der Regel nur multiplikative, additive oder gemischt-multiplikative-additive Verknüpfungen diskutiert (STEINER 1956, S. 14). Zum Beispiel Y, = Tt + Yt=
K,+St+R„
T, x K,*St
Yt = (Tt +
xä„ Kt)*StxRt.
Dabei Y, Tt Kt S, Rt
= = = = =
Werte der Originalreihe, Trend werte, Konjunkturkomponente, Saisonkomponente, irreguläre Komponente.
Die meisten tatsächlich angewandten Verfahren basieren auf der Annahme multiplik a t i v e r V e r k n ü p f u n g e n (BUREAU OF LABOR STATISTICS 1 9 6 6 , S. 2 2 2 ; STEINER
1956, S. 14), wobei ein "gründliches Studium der empirischen Reihe" (KELLERER 1967, S. 100) oder Plausibilitäten wie auch Probleme des Rechenprozesses (STEINER 1956, S. 14 f.) meist die Entscheidungsgrundlagen bilden. Rein additive Verknüpfungen gelten wenigstens für ökonomische Zeitreihen als nur wenig realistisch (vgl. z.B. die Diskussion in OECD o.J., S. 62 f.). Es muß jedoch hervorgehoben werden, daß die Möglichkeiten, eine unabhängige Schätzung für die Validität des gewählten Modells zu finden, äußerst beschränkt sind, so daß auch hier wiederum deutlich wird, wie artifiziell die Zerlegung einer empirischen Reihe sein kann und wie weit entfernt Zeitreihenzerlegungsverfahren von exakter Wissenschaft sind (STEINER 1 9 5 6 , S. 2 2 f.). 4.7.2
Die Zerlegungsverfahren
1. Berechnung der Trendkomponente. Die Mehrzahl der in der Forschungspraxis angewandte Zeitreihenzerlegungsverfahren verwendet die bereits dargestellten Verfahren der Trendberechnung, gleitende Durchschnitte oder Regressionsanalysen, als Methoden der Erfassung der Trendkomponenten. Regressionsansätze finden sich z.B. in den älteren Zerlegungsverfahren, wie sie von der Deutschen Bundesbank oder einer Arbeitsgemeinschaft deutscher Wirtschaftsforschungsinstituten (ASA) entwickelt wurden (DEUTSCHE BUNDESBANK 1970, S. 39). Darüber hinaus werden sie bei der Zerlegung solcher Reihen verwandt, von denen angenommen wird, daß die lang-
4. Kapitel: Die A nalyse von Zeitreihen und Longitudinalstudien
15 7
fristige zyklische Komponente entweder recht unbedeutend ist (WOLD 1968, S. 70) bzw. der irregulären Komponente zugerechnet wird(STEINER 1956, S. 23 f.). Die Methode gleitender Durchschnitte wird dagegen bei all denjenigen Verfahren angewandt, die den Trend und die langfristige zyklische Komponente in einem einzigen Ansatz als glatte Komponente schätzen. In der Regel handelt es sich hierbei um iterative Schätzverfahren, die die Bestimmung der Saisonkomponente einschließen und auf der Basis von gleitenden Zwölf-Monats-Durchschnitten aufgebaut sind. Beispiele s i n d h i e r d a s Z e i t r e i h e n z e r l e g u n g s v e r f a h r e n d e s BUREAU OF LABOR STATISTICS ( 1 9 6 6 , S. 2 2 2 f ) u n d d e s BUREAU OF CENSUS (SHISKIN 1 9 6 8 , S. 8 2 1 ) , d a s a u c h als X - l 1 Me-
thode bekannt wurde (DEUTSCHE BUNDESBANK 1970, S. 38). 2. Bestimmung der langfristigen zyklischen Komponente. Eine separate Schätzung der langfristigen Schwankungen des Trendverlaufes wird in keinem der genannten Verfahren der Zerlegung markroökonomischer Zeitreihen angewandt. Die bereits dargestellten Unregelmäßigkeiten der Konjunkturkomponente legen es nahe, diese entweder als Bestandteil des Trendverlaufs oder der irregulären Bewegungen zu erfassen. Unter einschränkenden Annahmen, die für andere als die hier im Mittelpunkt der Darstellung stehenden ökonomischen Zeitreihen realistisch sein können, ist jedoch eine separate Schätzung dieser Komponente möglich (BROWN 1963, S. 66 f.). Ein bekanntes Verfahren ist z.B. die Periodendiagramm-Analyse (TINTNER 1968, S. 51; Box UND JENKINS 1970, S. 36). Voraussetzung ist hier, daß die langfristige zyklische Komponente aus einer oder auch mehreren strikt-periodischen Reihen gebildet wird, bei denen also bei einer Periodenlänge von p der Wert der Reihe zum Zeitpunkt t + p gleich der Ausprägung zum Zeitpunkt t ist (Konzept der "hidden periodicities"), die durch Zufallselemente überlagert werden können (WOLD 1968, S. 72). Die Werte der Reihe werden dann als Fourier-Reihe verknüpft mit einem normal verteilten Zufallsglied bestimmt (TINTNER 1968, S. 51; BROWN 1963, S. 60 ff.). Zyklen, die — der Realität vieler Reihen eher entsprechend — nicht strikt-periodisch, sondern teilweise zufallsbedingt sind, können ebenfalls durch entsprechende Funktionen repräsentiert werden (WOLD 1968, S. 72), die jedoch unter die unten zu diskutierenden stochastischen Modelle subsummiert werden müssen. 3. Berechnung der kurzfristig zyklischen und der irregulären Komponenten. Für die Berechnung der kurzfristig zyklischen Komponente von Zeitreihen, die oft die Bestimmung der irregulären Bewegungen mit einschließt, liegen eine Fülle von verschiedenen Ansätzen vor, die als Saisonbereinigungsverfahren in der Konjunkturanalyse Anwendung finden (DEUTSCHE BUNDESBANK 1970, S. 39). Beispiele sind das bereits erwähnte Census-Verfahren und seine X-l 1-Variante oder das Saisonbereinigungsverfahren des Bureau of Labor Statistics, die sämtlich als Computerprogramme bei den entsprechenden Institutionen zu erhalten sind (BUREAU OF LABOR STATISTICS 1 9 6 6 , S. 2 2 4 ; CHAMBERS U.A. 1 9 7 1 , S. 7 2 ) .
Allen Verfahren ist gemeinsam, daß sie gleitende Durchschnitte als Schätzansatz verwenden und die Komponenten in iterativen Prozessen bestimmen. Wesentliche Unterschiede ergeben sich lediglich bei der Zahl der Iterationen und den für die gleitenden Durchschnitte verwandten Gewichtungskoeffizienten. Die generelle Vorgehensweise dieser Verfahren läßt sich wie folgt beschreiben: In einer ersten Stufe wird zunächst anhand gleitender Monatsdurchschnitte die erste Schätzung der glatten Komponente ( T K ) vorgenommen. Durch Division der Daten
158
7. Band: Datenanalyse
der Originalreihe durch die Werte der gleitenden Durchschnitte erhält man dann einen Quotienten, der den Einfluß der saisonalen Veränderungen und irregulären Komponenten (S, I) enthält. Diese Quotienten werden für mehrere Jahre berechnet (DEUTSCHE BUNDESBANK 1970, S. 41). Unter Heranziehung verschiedener Gewichtungskoeffizienten (z. B . BUREAU OF LABOR STATISTICS 1 9 6 6 , S . 2 2 5 ) werden dann aus der Zeitreihe der Quotienten gleitende Durchschnitte gebildet, die als erste Schätzung der kurzfristig-zyklischen oder Saisonkomponente (S) definiert werden. S I In einem nächsten Schritt wird dann der Quotient gebildet, der für die Schätzung der irregulären Komponente herangezogen wird. Da angenommen wird, daß diese jedoch noch Elemente der glatten Komponente enthält, wird auch hier wiederum ein gewichteter gleitender Durchschnitt gebildet, der in einer nächsten Stufe des iterativen Prozesses zu einer verbesserten Schätzung der glatten Komponente dient (BUREAU OF LABOR STATISTICS 1966, S . 2 2 5 ) . Mit diesen bereinigten Werten wird sodann eine neue Schätzung der saisonalen Veränderung und irregulären Komponente durchgeführt, die in manchen Verfahren (BUREAU OF LABOR STATISTICS) noch einmal einer dritten Iteration unterzogen wird und oft auch die Ausschaltung der Kalenderunregelmäßigkeiten einschließt (DEUTSCHE BUNDESBANK 1970, S. 41). Alle diese auf den ratio-to-moving-averages (BUREAU OF LABOR STATISTICS 1 9 6 6 , S. 225) aufbauenden Verfahren wurden in erster Linie für multiplikative Verknüpfungen der Komponenten entwickelt, lassen jedoch auch die Möglichkeit der Zerlegung auf der Basis additiver Strukturen zu (DEUTSCHE BUNDESBANK 1 9 7 0 , S. 4 0 ) . Gemischt-multiplikative und additive Verknüpfungen werden dagegen in diesen Ansätzen nicht erfaßt (SHISKIN 1 9 6 8 , S . 8 4 ) . Die graphische Darstellung der Ergebnisse eines mit Hilfe des Bureau Labor Statistics-Verfahrens vorgenommenen Bestimmung der saisonalen Veränderung und irregulären Komponente zeigt Darstellung 4.
4.7.3
Neuere Ansätze in der Zeitreihenzerlegung
Neben diese mehr aus der Forschungspraxis heraus entwickelten Verfahren der Zeitreihenzerlegung (DEUTSCHE BUNDESBANK 1970, S. 43) treten in den letzten Jahren immer mehr Ansätze, die aufbauend auf die Theorie schwach stationärer Prozesse versuchen, eine mehr integrierte Analyse solcher Zeitreihen vorzunehmen, von denen angenommen wird, daß sie durch das Zusammenwirken von längerfristigen, kurzfristigen und irregulären Komponenten sinnvoll dargestellt werden können. Einer der bekanntesten Ansätze ist die Anwendung der Spektral-Theorie (GERF I N 1964, S. 18; GRANGER 1964; JENKINS 1961; JENKINS UND WATTS 1968), die sich bei der Analyse physikalischer Daten ähnlicher Struktur bereits bewährt hat (SHISKIN 1968, S . 86). Das theoretische Konzept ähnelt hierbei in vielem der bereits erwähnten Periodiagramm-Analyse, basiert jedoch im Gegensatz zu dieser nicht auf der Annahme strikter Periodizität. Die Anwendung der Spektral-Theorie auf ökonomische Zeitreihen geht davon aus, daß eine Zeitreihe durch Schwingungen unterschiedlicher Frequenz gekennzeichnet ist; das zentrale Charakteristikum einer Reihe ist das Spektrum, in dem die Gesamtvarianz der Reihe auf einzelne Frequenzen oder Frequenzbereiche verteilt wird
4. Kapitel:
Die Analyse
von Zeitreihen
und Longitudinalstudien
15 9
3,5
3,0 _ a l ctuelle Date n
\ t
2,5 l 2,0
\
1,5
1
1H i
rend- Zyklu
,
» 'U
1
1,0
0,5
0
19481949 1950 1951 1952 1953 1954 1955 1956 1957 1958 1959 1960 1961 1962 1963 1964
( a ) Aktuelle Daten und glatte Komponente
140
1948 1949 1950 1951 1952 1953 1954 1955 1956 1957 1958 1959 1960 1961 1962 1963 1964 ( b ) Saisonale und irreguläre Komponente
Darstellung 4:
Z e i t r e i h e n z e r l e g u n g für m ä n n l i c h e A r b e i t s l o s e in d e n U S A 1 9 4 8 - 1 9 6 4 . ( Q u e l l e : B U R E A U OF LABOR STATISTICS,
1 9 6 6 , S. 2 2 3 f.)
160
7. Band: Datenanalyse
1968, S. 52; NULLAU 1969, S. 10). Eine weitere Annahme der Zeitreihenzerlegung mit Hilfe der Spektral-Theorie ist, daß die beiden Komponenten, glatte und Saison-Komponente, in die die Reihe zerlegt werden soll, unterschiedlichen Frequenzbereichen zugeordnet werden können: Die glatte Komponente dem niederen Frequenzbereich und die Saison-Komponente dem Hoch-Frequenzbereich (MEISNER 1969, S. 74). Die irreguläre Komponente wird hierbei — wie in den traditionellen Ansätzen der Zeitreihenzerlegung — als Restgröße angesehen (BROWN 1963, S. 396). (TINTNER
Die Trennung in die einzelnen Frequenzbereiche erfolgt anhand bestimmter Kriterien, sogenannter Filter (JENKINS 1961, S. 140), die in den meisten Ansätzen polynome und trigonometrische Funktionen (endliche Fourier-Reihen) sind, bei denen die Fourier-Koeffizienten als zufällige und von der Zeit abhängige Variable angesehen werden (HEILER 1969, S. 21). Für die Approximation der glatten Komponenten werden bei dieser Vorgehensweise gewogene gleitende Durchschnitte herangezogen, deren Gewichte mit Hilfe der Methode der kleinsten Quadrate bestimmt werden:
T.K
=
t p otj T, K
2 i=0
= = = =
Zeitfaktor, Grad des Polynoms, Koeffizienten des Polynoms, Trendkomponente.
Die Schätzung der Saison-Komponente eines Jahres, die bei einer Basisperiode von einem Monat z.B. durch das Zusammenwirken von Schwingungen der Frequenz: IL IL IL ^JL 6' 3' 2' 3 '
3
dargestellt werden kann (SISKIN 1968, S. 86), erfolgt mit Hilfe trigonometrischer P o l y n o m e (BROWN 1 9 6 3 , S. 7 0 ) :
?
s,
= 2 (ß/f 7=1
c o s
V
+
7/f
s i n
q = die Anzahl der Fourier-Koeffizienten, ßj, i j = Fourier-Koeffizienten, , X
. TT
'
=
>6-
Die Filter werden nach dem Kriterium "minimaler Varianzfaktor bei möglichst wenig Verzerrungen" (MEISNER 1969, S. 74) bestimmt, wobei die Länge des Stützbereichs, d.h. die Anzahl der Werte, aus denen ein gleitender Durchschnitt gebildet wird, der Grad des gewöhnlichen und trigonometrischen Polynoms sowie die Stelle des zu schätzenden Wertes der Zeitreihe im Stützbereiche variiert werden (MEISNER 1969, S. 74). Eine detaillierte Darstellung der spezifischen Vorgehensweise ist z.B. bei NULLAU U . A . ( 1 9 6 9 ) zu finden, während für generelle Fragen auf GRANGER ( 1 9 6 4 ) , HANNAN ( 1 9 6 0 ) und JENKINS UND WATTS ( 1 9 6 8 ) hingewiesen wird. Insgesamt läßt sich feststellen, daß spektralanalytische Ansätze bislang noch wenig Anwendung in den sozial-wissenschaftlichen Zeitreihenanalysen im Gegensatz zu den Naturwissenschaften und Life Sciences gefunden haben (SHISKIN 1968, S. 86;
4. Kapitel:
Die Analyse
von Zeitreihen
und
Longitudinalstudien
161
1970, S. 43) - ein Phänomen, das von den führenden Autoren (JENKINS 1965, S. 206) in erster Linie auf Kommunikationsschwierigkeiten zwischen den Disziplinen zurückgeführt wird. DEUTSCHE BUNDESBANK
Uber diese spezielle Anwendung der Spektral-Analyse hinaus wird versucht, weitere generelle Ansätze für die Analyse sozialwissenschaftlicher Zeitreihen, die eine kurzfristige zyklische und eine irreguläre Komponente enthalten, auf der Basis stochastischer Modelle zu entwickeln (z.B. Box UND JENKINS 1 9 7 0 , S . 3 0 0 ff.; CHIANG 1 9 6 8 ) , die im Rahmen der Modellanalyse behandelt werden.
4.7.4
Möglichkeiten und Grenzen der Zeitreihenzerlegung
Die Zerlegung von Zeitreihen in Komponenten unterschiedlicher mathematischer Konfiguration ist in erster Linie als recht pragmatischer Ansatz anzusehen, der dazu dienen soll, die Vorhersage der Entwicklung der Reihe zu erleichtern. Dies basiert auf der Annahme, daß die mit Hilfe der einzelnen Verfahren herausgeschälten Komponenten Strukturen aufweisen, die im Zeitablauf stabiler als die Originalreihe sind und die zukünftigen Werte daher besser vorauszusagen helfen. Die Vorteile, die diese Verfahren vor allem gegenüber dem Vergleich repräsentativer Maße, z.B. der Zuwachsraten, besitzen, haben sich recht deutlich bei der nationalökonomischen Analyse konjunktureller Entwicklungen gezeigt. Hier wurden jedoch auch gleichzeitig die wesentlichen Schwächen deutlich: Die Fehlschläge vieler, vor allem mittelfristiger Konjunkturvoraussagen scheinen bislang nur wenig Anlaß zu einem generellen Optimismus zu geben. Die Schwierigkeiten der Voraussage auf der Basis der Zeitreihenzerlegung dürften im wesentlichen dadurch bedingt sein, daß der mathematischstatistische Ansatz vieler angewandten Verfahren unzulänglich ist und daß allen Verfahren eine angemessene theoretische Basis fehlt, daß also — abgesehen von den erwähnten Erklärungsversuchen — keine ausreichende Information darüber vorhanden ist, was letzlich aus der Reihe herausgerechnet wird. So zeigen sorgfältige Analysen von Reihen und Zerlegungsverfahren, daß es oft gar nicht möglich ist, zwischen Zufallskomponenten und kurzfristig zyklischer Komponente zu unterscheiden. In solchen Fällen werden also durch die Saisonbereinigungsverfahren schlichte Zufallsergebnisse aus der Reihe herausgeschält (KENDALL 1 9 5 3 , S. 1 1 ; Box UND JENKINS 1 9 7 0 , S . 3 0 1 ) .
Die in der nationalökonomischen Konjunkturforschung angewandten Zerlegungsverfahren sollten daher nur nach sorgfaltiger Prüfung zur Analyse anderer sozialwissenschaftlicher Reihen herangezogen werden. Wieweit die geschilderten neueren Entwicklungen hier wesentlich bessere Möglichkeiten bieten, wird in der Zukunft zu überprüfen sein.
162
7. Band:
Datenanalyse
Literatu rverzeich n is R., Simulation of Social Behavior, in: G.LINDZEY UND E . ARONSON (Hrsg.), The Handbook of Social Psychology, Bd. 2, Reading, Mass. 1968, S. 274-356.
ABELSON,
ABT, C., An Approach to Methods of Combined Sociotechnological Forecasting, in: Technological Forecasting and Social Change, Bd. 2, 1, 1970, S. 17-22. Zeitreihenanalyse, in: Handwörterbuch der Sozialwissenschaften, Bd. 12, Stuttgart 1965, S. 4 0 7 - 4 1 0 .
ANDERSON, O . ,
J. CARLSMITH, Experimentation in Social Psychology in: G . LINDE. ARONSON (Hrsg.), The Handbook of Social Psychology, Bd. 2, Reading Mass. 1968, S. 1 - 7 9 .
ARONSON,
E.
UND
ZEY UND
K., Interaction Process Analysis, in: International Encyclopedia of Social Sciences, Bd. 7, New York 1968, S. 465-470.
BALES,
Observation of Behavior: Ecological Approaches, in: Journal Mount Sinai Hospital, 31, 1964, S. 268 - 284.
BARKER, R . ,
BASSIE, V . ,
Economic Forecasting, New York
BAUER, R . ,
Social Indicators, Cambridge, Mass.
BELL,
1958. 1966.
D., Twelve Modes of Prediction, in: Daedalus, Journal of the American Academy of Art and Science, 93, 1964, S. 8 4 5 - 8 8 0 .
W. M C P H E E , Voting: A Study of Opinion in a Presidential Election, Chicago 1954.
BERELSON, B . , P . LAZARSFELD UND
Industrial Relations, The Sociology of Work, in: International Encyclopedia of Social Sciences, Bd. 7, New York 1968, S. 230-238.
BERNOIT-GUILBOT, O . ,
P. HARLAND UND H . J. NIESSEN, Empirische Konsumforschung und Konjunkturprognose, Forschungsstelle für empirische Sozialökonomik, Köln 1972.
BIER VERT, B . , H .
H. 1968.
BLALOCK,
UND
A.
BLALOCK
(Hrsg.), Methodology in Social Research, New York
I., M . KOGAN UND P. MCCARTHY, The Industrial Mobility of Labor as a Probability Process, Ithaca, N. Y. 1955.
BLUMEN,
D., The Quantitative Study of Social Dynamics and Social Change, in: American Journal of Sociology, May 1952, S. 565-568.
BOGUE,
G., Wirtschaftswachstum, in: Handwörterbuch der Sozialwissenschaften, Bd. 12, Stuttgart 1965, S. 7 6 3 - 8 0 1 .
BOMBACH,
Box, G. UND G. JENKINS, Time Series Analysis, Forecasting and Control, San Francisco 1970. BRINKMANN,
G., Berufsausbildung und Arbeitseinkommen, Berlin 1967.
Smoothing, Forecasting and Prediction of Discrete Time Series, Englewood Cliffs, N. Y. 1963.
BROWN, R . ,
A., Business Cycles, in: International Encyclopedia of Social Sciences, Bd. 2, New York 1968, S. 226-245.
BURNS,
BURNS,
A.
UND
W. MITCHELL, Measuring Business Cycles, New York 1946.
D., Quasi-experimental Design, in: International Encyclopedia of Social Sciences, Bd. 5, New York 1968, S. 259-263.
CAMPBELL,
4. Kapitel:
Die Analyse
von Zeitreihen
und Longitudinalstudien
163
D., From Description to Experimentation: Interpreting Trends in QuasiExperiments in: CH. HARRIS (Hrsg.), Problems in Measuring Chance, Madison 1963, S. 212-242.
CAMPBELL,
Interviewing, in: G . LINDZEY UND E. ARONSON (Hrsg.), The Handbook of Social Psychology, Bd. 2, Reading, Mass. 1968, S. 526 - 595.
CANNELL, C H . UND R . KAHN,
CAWL, F . ,
The Continuing Panel Technique, in: Marketing Journal,
8, 1 9 4 3 , S. 4 5 - 4 9 .
T., S . MULLICK UND D. SMITH, How to Choose the Right Forecasting Technique, in: Harvard Business Review, July-August 1971, S. 45 - 74.
CHAMBERS,
H., Patterns of Industrial Growth, in: American Economic Review, September 1960, S. 624-654.
CHENERY,
V., Pooling of Time series and Cross-sectional Data, in: Ecconometrica 36, 1968, S. 279-290.
CHETTY,
Introduction to Stochastic Processes in Biostatistics, New York/London/Sidney 1968.
CHIANG, CH.,
J., Technology Assessment, in: The Futurist, December
COATES,
1 9 7 1 , S. 2 2 5 - 2 3 1 .
W., The Design of Experiments, in: International Encyclopedia of Social Sciences, Bd. 5, New York 1968, S. 245-254.
COCHRAN,
E., La "Konjunkturforschung" en Allemagne et en Autriche, 1925 -1933, Louvain-Paris 1964.
COENEN,
Subjective Time, in: 1968, S. 257-275.
COHEN, J . ,
J.
T.
FRÄSER
(Hrsg.), The Voice of Time, London
J. S., Introduction to Mathematical Sociology, Glencoe
COLEMAN,
1964.
G., Entwicklung in Konjunkturforschung und Konjunkturpolitik in den Vereinigten Staaten von Amerika, Kieler Vorträge, N.F. Nr. 6, Kiel 1954.
COLM,
P., Time-Budgets, in: International Encyclopedia of the Social Sciences, Bd. 16, New York 1968, S. 42-47.
CONVERSE,
R. UND G . MUELLER, Values Expressed in American Children's Readers, 1900-1950, in: Journal of Abnormal Social Psychology 46, 1962, S. 136-142.
DE CHARMS,
DE GRAZIA, S . ,
Of Time, Work and Leisure, New York
1962.
(Hrsg.), Saisonbereinigung nach dem Census-Verfahren, in: Monatsberichte der Deutschen Bundesbank, 22, März 1970.
DEUTSCHE BUNDESBANK
K., Neue Forschungsmethoden, Modelle und Theorien, in: W. Theorien des sozialen Wandels, Köln 1969, S. 188-208.
DEUTSCH,
DOOB , J . ,
Stochastic Processes, New York/London/Sidney
DURKHEIM,
ZAPF
(Hrsg.),
1967.
E., Les Formes Elémentaires de la Vie Religieuse, Paris
1912.
S., Social Institutions, in: International Encyclopedia of Social Sciences, Bd. 14, New York 1968, S. 408-428.
EISENSTADT,
ENNIS,
P., The Definition and Measurement of Leisure, in: E . SHELDON UND W. (Hrsg.), Indicatore of Social Change, New York 1968, S. 525 - 572.
MOORE
W., Cohort Analysis of Survey Data: A Procedure for Studying Long-Term Opinion Change, in: Public Opinion Quarterly 23, 1959, S. 63 - 72.
EVAN,
164
7. Band: Datenanalyse
M., Microeconomic Activity, Theory, Forecasting and Control — An Econometric Approach, New York/Evanston/London 1969.
EVANS,
FESTINGER, L . UND D . KATZ,
Research Methods in the Behavioral Sciences, New
York 1953. FORRESTER, J . ,
Industrial Dynamics, Cambridge, Mass.
1965.
J., Die große Hoffnung des 20. Jahrhunderts, Köln 1954.
FOURASTIE,
P., Time: Psychological Aspect, in: International Encyclopedia of the Social Sciences, Bd. 16, New York 1968, S. 25-30.
FRAISSE,
J. T., The Study of Time, in J. T. don 1958, S. 582-592.
FRÄSER,
FRÄSER
(Hrsg.), The Voice of Time, Lon-
B., Die Uberprüfung produktionstheoretischer Hypothesen für Deutschland, Tübingen 1968.
GAHLEN,
GALTUNG,
J., Theory and Methods of Social Research, Oslo/London/New York
1967.
N., The Nature of Expectation, and Uncertainty, in: E. BOWMAN (Hrsg.), Expectation, Uncertainty and Business Behavior, New York 1958, S. 11-29.
GEORGESCU-ROEGEN,
GERFIN,
H., Langfristige Wirtschaftsprognose, Tübingen/Zürich 1964.
T. W., A Social Psychology of Education in: G . LINDZEY UND E. ARONSON (Hrsg.), The Handbook of Social Psychology, Bd. 5, Reading, Mass. 1969, S. 459-538.
GETZELS,
GLASS,
D., Social Mobility in Britain, Glencoe 1954.
GOLD,
T., The Nature of Time, New York
1967.
N., An Introduction to Longitudinal Statistical Analysis, Glencoe 1960.
GOLDFARB,
GOLDHAMMER,H., Social Mobility, in: International Encyclopedia of Social Sciences, Bd. 14, New York 1968, S. 429-437. Time: Social Organization, in: International Encyclopedia of Social Sciences, Bd. 16, New York 1968, S. 30-46.
GOODY, T . ,
GOTKIN, L . UND L . GOLDSTEIN,
J., Natural and Political Observations, London
HANNAN, M . HARRIS, CH., HAUSER,
2,
München/Wien
C., Spectral Analysis of Economic Time Series, Princeton
GRANGER, GRAUNT,
Grundkurs in Statistik, Bd.
P.
T., Time Series Analysis, London
1964.
1662.
1960.
Problems in Measuring Change, Madison
UND O . DUNCAN,
1968.
1963.
The Study of Population, Chicago/London,
6.
Aufl.
1969.
S., Überlegungen zu einem statistischen Modell einer wirtschaftlichen Zeitreihe und einem daraus resultierenden Analysenverfahren, in: B. NULLAU U. A., Das "Berliner Verfahren" - Ein Beitrag zur Zeitreihenanalyse, DIW-Beiträge zur Strukturforschung, 7, Berlin 1969.
HEILER,
Content Analysis, in: G . LINDZEY UND E . ARONSON (Hrsg.), Handbook of Social Psychology, Bd. 2, Reading, Mass. 1968, S. 596-692.
HOLSTI, O . ,
4. Kapitel:
HOLSTI, O . ,
The
1914
Die Analyse
von Zeitreihen
und Longitudinalstudien
Case, in: American Political Science Review,
59, 1968,
165
S.
365-
378.
E., Index Numbers: Practical Applications, in: International Encyclopedia of Social Sciences, Bd. 7, New York 1968, S. 159-165.
HOOVER,
Ernst Engel, in: International Encyclopedia of Social Sciences, Bd. 5, New York 1968, S. 63-64.
HOUTHAKKER, H . ,
M., M. DEUTSCH York 1955.
JAHODA,
UND
S.
COOK,
Research Methods in Social Relations, New
M., The Study of Mass Communication, in: International Encyclopedia of Social Sciences, Bd. 3, New York 1968, S. 41 -55.
JANOWITZ,
G., Some Examples of and Comments on Spectral Analysis, in: Proceedings of the IBM Scientific Computing Symposium on Statistic, New York 1965, S. 205-240.
JENKINS,
G. 1968.
JENKINS,
UND D . WATTS,
Spectral Analysis and Its Applications, San Francisco
G., General Considerations in the Analysis of Spectra, in: Technometrics, Bd. 3 , 2 , 1970, S. 131-166.
JENKINS,
Forecasting Methods in the Social Sciences, in: Technological Forecasting and Social Change, 2, 1970, S. 173 -187.
JOHNSTON, D . ,
Anticipations and Purchases — An Analysis of Consumers Behavior, Princeton 1964.
JUSTER, T H . ,
KAPLAN,
A., Big Enterprise in the Competitive System, Washington
KATONA,
G., The Powerful Consumer, New York
KELLERER, H . ,
1960;
1954.
deutsch: Düsseldorf
1962.
Statistik im modernen Wirtschafts- und Sozialleben, Reinbek 1967.
The Analysis of Economic Time Series, in: Journal of the Royal Statistical Society, 116, 1953, S. 11 -34.
KENDALL, M . ,
M., The History of Statistical Methods, in: International Encyclopedia of Social Sciences, Bd. 15, New York 1968, S. 224-232.
KENDALL,
KENDALL,
M.
UND
A.
STUART,
The Advance Theory of Statistics, New York 1958.
G., Learning, in: International Encyclopedia of Social Sciences, Bd. 9, New York 1968, S. 114-126.
KIMBLE,
N., Die Langen Wellen der Konjunktur, in: Archiv für Sozialwissenschaft und Sozialpolitik, Bd. 56, 3, 1962, S. 28-64.
KONDRATIEFF,
Soviet News in the New York Times, in: Public Opinion Quarterly, 10, 1946-47, S. 540-564.
KREISBERG, M . ,
F., Time as Succession and the Problem of Duration, in: (Hrsg.), The Voice of Time, London 1968, S. 31 - 55.
KUMMEL,
J.
T.
FRASER
S., Income and Wealth in the United States, Trends and Structure, Cambridge 1952.
KUZNETS,
LANSING,
J.
UND
J.
MORGAN,
Economic Sutvey Methods, Ann Arbor
1971.
166
7. Band:
Datenanalyse
P., B. BERELSON UND H. GAUDET, The People's Choice: How the Voter Makes Up His Mind in a Presidential Campaign, New York 1944.
LAZARSFELD,
LAZARSFELD,P., The Use of Panels in Social Research, in: Proceedings of the American Philosophical Society, Bd. 92, 5, 1948, S. 405-410. LAZARSFELD,
P., Mathematical Thinking in the Social Sciences, Glencoe 1964.
A., Johann Heinrich von Thunen, in: International Encyclopedia of the Social Sciences, Bd. 16, New York 1968, S. 17-20.
LEIGH,
B., Panel Studies, in: International Encyclopedia of Social Sciences, Bd. 11, New York 1968, S. 341 -379.
LEVENSON,
G. UND D. BURNE, Measurement of Social Choice and Interpersonal Attractiveness, in: G. LINDZEY UND E. ARONSON (Hrsg.), The Handbook of Social Psychology, Bd. 2, Reading, Mass. 1968, S. 452 - 525.
LINDZEY,
LINK, R., English Theories of Economic Fluctuations, 1815-1848, New York 1959. S. UND E. LADD, College Generations from the 1930's to the 1960's, in: The • Public Interest, 25, Fall, 1971, S. 99 -113.
LIPSET,
The Development of Demography, in: P. HAUSER UND O. DUNCAN (Hrsg.), The Study of Population, Chicago/London 1969, S. 124-179.
LORIMER,F.,
MCCLELLAND,
D., Die Leistungsgesellschaft, Stuttgart 1966.
E., Pitfalls in the Analysis of Panel Data, in: The American Journal of Sociology, 1955-56,S. 359-362.
MACCOBY,
D., Cultural Anthropoloty, in: International Encyclopedia of Social Sciences, Bd. 1, New York 1968, S. 313-319.
MANDELBAUM,
MANNHEIM,
K., Essays on the Sociology of Knowledge, London 1952.
W., Time' in: The Encyclopedia Americana, Bd. 26, New York 1968, S.629-633.
MARKOWITZ,
MASON,
R., Statistical Techniques in Business and Economics, Homewood 1967.
B., Gleitende Durchschnitte und Transferfunktionen, in: B. NULLAU U.A., Das "Berliner Verfahren" — ein Betrag zur Zeitreihenanalyse, DIW — Beiträge zur Strukturforschung, 7, Berlin 1969.
MEISNER,
R., Nationenbildung: eine Fallstudie, in: W. sozialen Wandels, Köln 1969, S. 253 - 265.
MERRITT,
ZAPF
(Hrsg.), Theorien des
G., Adolf Wagner, in: International Encyclopedia of Social Sciences, Bd. 15, New York 1968, S. 429-432.
MEYER,
MÜLLER-MERBACH,H., Operations Research, Berlin/Frankfurt 1969. W., Business Cycles and Unemployment, National Bureau of Economic Research, New York 1923.
MITCHELL,
MOORE,
G., Business Cycle Indicators, Princeton 1961.
W., Social Change, in: International Encyclopedia of Social Sciences, Bd. 14, New York 1968, S. 365-375.
MOORE,
J., Survey Analysis, Applications in Economics, in: International Encyclopedia of Social Sciences, Bd. 15, New York 1968, S. 429-436.
MORGAN,
4. Kapitel:
Die Analyse
von Zeitreihen
und
Longitudinalstudien
167
Y., Cross-Section Analysis, in: International Encyclopedia of Social Sciences, Bd. 3, New York 1968, S. 522-527.
MUNDLACK,
NATIONAL BUREAU OF ECONOMIC RESEARCH,
Special Conference Series, Conference
on Business Cycles, New York 1951. Personality and Social Change: Attitude Formation in a Student Community, New York 1943. NEWCOMB, T H . U. A., Persistence and Change, New York 1 9 6 7 . NEWCOMB, T H . ,
Verfahren zur Zeitreihenanalyse, in: Vierteljahreshefte zur Wirtschaftsforschung, 1, 1968, S. 59-83.
NULLAU, B . ,
B. U. A., Das "Berliner Verfahren" — ein Beitrag zur Zeitreihenanalyse, DIW-Beiträge zur Strukturforschung, 7, 1969.
NULLAU,
OECD, Seasonal Adjustment on Electronic Computers, Paris o.J. G. UND E . SEGURA, How to Get a Better Forecast, in: Harvard Business Review, March-April, 1971, S. 99-109.
PARKER,
PFANZAGL, J . ,
Allgemeine Methodenlehre der Statistik, Bd.
2,
Berlin
1966.
E., Der Kohortenansatz in der Soziologie, in: Kölner Zeitschrift für Soziologie und Sozialpsychologie, 19, 1967, S. 645-657.
PFEIL,
POOL,
I.
DE SOLA,
The "Prestige Papers', A Survey of Their Editorials, Stanford 1932.
S., The Formal Theory of Social Mobility, in: Population Studies, 9, 1955, S. 72-81.
PRAIS,
QUENOUILLE,
M. H . , The Analysis of Multiple Time Series, London
1957.
Advertising Research Economic Aspects, in: International Encyclopedia of Social Sciences, Bd. l,New York 1968, S. 111-116.
RAMOND, C H . ,
M. UND W. STOLL, Content Analysis, in: International Encyclopedia of Social Sciences, Bd. 3, New York 1968, S. 371-377.
RILEY,
S., Mathematical Models of Social Behavior, in: G . LINDZEY UND E . ARONSON (Hrsg.), The Handbook of Social Psychology, Bd. 1, Reading, Mass. 1968, S. 179-244.
ROSENBERG,
ROTHSCHILD, K . ,
Wirtschaftsprognose, Methode und Probleme, Berlin
1969.
N., Cohort Analysis, in: International Encyclopedia of Social Sciences, Bd. 3, New York 1968, S. 546-550.
RYDER,
N., The Cohort as a Concept in the Study of Social Change, in: American Sociological Review, 30, 1965, S. 843-861.
RYDER,
SCHNEIDER, L . UND S . DORNBUSCH,
Popular Religion: Inspirational Books in America,
Chicago 1958. P., Methoden der Ökonometrie, Bd. Berlin/Frankfurt 1969.
SCHÖNFELD,
1
: Lineare Regressionsmodelle,
Political Behavior, in: G . LINDZEY UND E . ARONSON (Hrsg.), The Handbook of Social Psychology, Bd. 5, Reading, Mass. 1969, S. 315-458.
SEARS, D . ,
S. E . UND D . G . BOWERS, Changing the Structure and Functioning of an Organization, Ann Arbor 1963.
SEASHORE,
168
7. Band: Datenanalyse
SHELDON, E. UND W. MOORE, Indicators of Social Change, New York 1968. SHISKIN, T., Time Series: Seasonal Adjustment, in: International Encyclopedia of Social Sciences, Bd. 16, New York 1968, S. 80-88. SIMON, H., Administrative Behavior: A Study of Decision-making Processes in Administrative Organizations, New York 1961. SIMON, H., Models of Man, New York 1957. Administrative Behavior, In: International Encyclopedia of Social Sciences, Bd. 1, New York 1968, S. 74 - 79.
SIMON, H . ,
SOROKIN, P. UND C. BERGER, Time-Budgets and Human Behavior, Cambridge, Mass. 1939.
STEINER, P., An Introduction to the Analysis of Time Series, New York 1956. STOUFFER, S. U.A., The American Soldier, Bd. 1 und 2, Princeton 1949. STÜTZEL, W., Konjunkturpolitik, in: Enzyklopädisches Lexikon für das Geld-Bankund Börsenwesen, Frankfurt 1958. SZALAI, A .
(Hrsg.), The Use of Time, Den Hague 1972.
THEIL, H., Applied Economic Forecasting, Amsterdam/Chicago 1966. TINTNER, G., Time Series, in: International Encyclopedia of Social Sciences, Bd. 16, New York 1968, S. 4 7 - 5 9 . Long-Term Planning, Papers presented to the Seventh Meeting of Senior Economic Advisors to the ECE Governments, New York 1971.
UNITED NATIONS,
Handbook of Methods for Surveys and Studies, Bulletin No. 1458, October 1966.
U . S . DEPARTMENT OF LABOR, BUREAU OF LABOR STATISTICS,
Industrial Social Psychology, in: G . LINDZEY UND E . ARONSON (Hrsg.), Handbook of Social Psychology, Bd. 5, Reading, Mass. 1969, S. 196-268.
VROOM, V . ,
WALLIS, W. UND H . ROBERTS,
Statistics - A New Approach, Glencoe
1965.
WALTER, A., Production and Cost Analysis, in: International Encyclopedia of Social Sciences, Bd. 12, New York 1968, S. 519-523. K., Systematic Observational Methods, in: G. LINDZEY UND E. ARONSON (Hrsg.), The Handbook of Social Psychology, Bd. 2, Reading, Mass. 1968, S. 3 5 7 - 4 5 1 .
WEICK,
Consistency of Immediate and Delayed Report of Financial Data, Ann Arbor 1962.
WITHEY, S . ,
WITMER, E., Time'in: The Encyclopedia Americana, Bd. 26, New York 1968, S. 6 2 9 - 6 3 0 .
WOLD,H., Bibliography on Time Series and Stochastic Provesses, Edinburgh 1965. Time Series: Cycles, in: International Encyclopedia of Social Sciences, Bd. 16, New York 1968, S. 7 0 - 8 0 .
WOLD, H . ,
WOLFE, H . ,
Business Forecasting Methods, New York
1966.
Intellectual Development, in: International Encyclopedia of Social Sciences, Bd. 8, New York 1968, S. 387-399.
WRIGHT, J . ,
YOUNG, P . ,
Scientific Social Surveys and Research, Englewood Cliffs, N .
Y. 1966.
4. Kapitel: Die Analyse von Zeitreihen und
Longitudinalstudien
169
U., On a Method of Investigating Periodicities in Disturbed Series, Royals Society, Philosophical Transactions, Series A 226, S. 267 - 298.
YULE,
ZAPF, W .
(Hrsg.), Theorien des sozialen Wandels, Köln/Berlin
1969.
Socialization, in: G . L I N D Z E Y UND E . ARONSON (Hrsg.), The Handbook of Social Psychology, Bd. 3, Reading, Mass. 1969, S. 450-589.
ZIGLER, E . UND I . CHILD,
H., Say It With Figures, New York 1958, dtsch.: Die Sprache der Zahlen, Köln 1970.
ZEISEL,
ZIMMERMANN,
H., Programmstudie Regionalpolitik, Bonn 1969.
5.
Computerunterstützte Datenaufbereitung und Datenanalyse von Klaus Allerbeck
Die Konsequenzen der Verfügbarkeit moderner Datenaufbereitungsanlagen für die Sozialforschung sind derartig, daß zuweilen von einer Revolutionierung ihrer Methoden gesprochen wird (COLEMAN 1 9 6 9 ; MOSTELLER UND TUKEY 1 9 6 8 ; SELVIN 1 9 6 9 ) . Sie sind indes noch nicht mit der Selbstverständlichkeit in die betroffenen Methoden und ihre Darstellungen eingegangen, daß eine separate Darstellung einiger Konsequenzen des neuen Instrumentariums sich erübrigte. Eine Übersicht über Regeln der Aufbereitung von Daten und Instruktionen für ihre automatische Verarbeitung bedarf deshalb der Ergänzung um die Bezeichnung der Verbindungen von Instrumentarium und Methoden. Die folgende Darstellung beschränkt sich auf die Verwendung von Computern für die Analyse von Daten der Sozialforschung und die erforderliche Vorbereitung der Daten hierfür; andere Einsatzarten von Computern für die Sozialwissenschaften,wie z. B. die Verwendung von Prozeßrechnern zur Steuerung von Experimenten und Erfassung ihrer Ergebnisse, müssen hier ausgespart bleiben. Die Nutzung der von Computern gebotenen neuen Möglichkeiten der Analyse von Daten verlangt ein Verständnis der Implikationen des Instrumentariums. Das Mißverständnis von Computern als besonders großen, schnellen Rechenmaschinen, welche im wesentlichen den Umfang der handhabbaren Datenmengen vergrößern und die Berechnung der Ergebnisse beschleunigen, fördert die Beibehaltung auch längst obsoleter Praktiken, die ihr Zustandekommen einst dem damals modernsten verfügbaren technischen Instrumentarium verdankten, und verzichtet auf die Nutzung des Potentials moderner Datenverarbeitungsanlagen für Datenmanagement und Zeichenerkennung. Die Verfügbarkeit von Computern ermöglicht eine bessere Planung der Stichproben und Erhebungsinstrumente; dies setzt einen anderen als den herkömmlichen Arbeitsablauf voraus. Eine Reihe von neuen Techniken der Datenanalyse, die computerabhängig und für die Datentypen der Sozialforschung oft angemessener sind als traditionelle Verfahren, konnte entwickelt werden. Die Bedeutung von Computern für die Verbesserung und Verbreitung schon zuvor bekannter Verfahren ist nicht geringer. Schließlich hat sich unter den neuen Bedingungen das Forscherverhalten in der Analysephase verändert; die Reduktion der Kosten von Datenanalysen hat jedoch neben positiven auch einige überaus negative Konsequenzen für die Sozialforschung.
5. Kapitel: Computerunterstützte Datenaufbereitung und Datenanalyse
171
Einige der hier genannten Folgen der Computerverfügbarkeit werden im folgenden diskutiert, nachdem zunächst die wichtigsten Prinzipien der Aufbereitung von Daten und Instruktionen für die maschinelle Verarbeitung dargestellt sind.
5.1
Datenaufbereitung
Voraussetzung für die Analyse von Daten mit Hilfe von Computern ist, daß die Daten für die Datenverarbeitungsanlage faßbar sind: Die Daten müssen maschinenlesbar gemacht werden. Erfassung der Daten auf Belegen für optische Belegleser, auf Magnetbändern oder Magnetplatten kommt in Frage; die häufigste Form der Erfassung von Daten der Sozialforschung in maschinenlesbarer Form jedoch ist ihre Übertragung auf Lochkarten. Die Zuordnung der maschinenlesbaren Zeichenkombinationen zu den Kategorien der Merkmale bzw. den Werten der Variablen erfolgt durch ein Codebuch. Die Entscheidung über diese Zuordnung ist für ein Forschungsprojekt von zentraler Bedeutung. Die Art der Vercodung bestimmt die Grenzen der späteren Analysemöglichkeiten; da die Vercodung in beträchtlichem Umfang vorherbestimmt wird durch die Art der Datensammlung (z.B. Fragebogen beim Interview, Beobachtungsprotokoll bei Experimenten oder Feldstudien), sollte der erste Codeplan unbedingt gleichzeitig mit dem Entwurf des Erhebungsinstruments aufgestellt werden. Zunächst muß die Analyseeinheit definiert werden. Die meisten verfügbaren Analyseprogramme setzen voraus, daß jede Analyseeinheit durch eine oder mehrere Lochkarten (oder aufeinanderfolgende logische Sätze) repräsentiert wird, die die Werte dieser Einheit für alle Variablen der betreffenden Studie enthalten. Während die Entscheidung darüber, was Einheit der Analyse und was Variable ist, im Falle einer konventionellen Meinungsumfrage völlig problemlos ist (der einzelne Befragte ist Analyseeinheit), muß z.B. bei einer Untersuchung des Abstimmungsverhaltens von Abgeordneten je nach Analyseabsicht entschieden werden, ob Abgeordnete die Analyseeinheiten und Gesetzesvorlagen die Variablen sein sollen oder, ob umgekehrt die Gesetzesvorlagen Analyseeinheiten und die Abgeordneten Variablen sein sollen. Diese Entscheidung verlangt Klarheit des Analyseziels; die Bestimmung der Ähnlichkeit von Abgeordneten verlangt eine andere Datenorganisation als die Bestimmung der Ähnlichkeiten von Gesetzesvorlagen. Zwar ist die Entscheidung nicht unkorrigierbar; die Datenmatrix, deren Spalten den Variablen und deren Zeilen den Analyseeinheiten entsprechen, kann durch Computerprogramme transponiert werden. Der hierzu erforderliche Aufwand kann jedoch sehr groß sein, so daß es sich empfiehlt, rechtzeitig Klarheit über die eigenen analytischen Absichten zu gewinnen und dementsprechend diese Grundfrage beim Aufbau eines Codeplans festzulegen.
5.1.1
Erhaltung der Informationen
Bei der Aufbereitung von Daten zur Analyse unter Verwendung von Computern ist es zweckmäßig, alle in den Daten vorhandenen Informationen zu erhalten und bei der Vercodung weder Klassen- noch Indexbildungen vorzunehmen; die spätere Bil-
172
7. Band:
Datenanalyse
dung von Klassen und Indizes ist bei Verwendung von Datenanalysesystemen (siehe 5.3) einfach; dagegen ist es unmöglich, später die Ausgangswerte zu gewinnen, falls nur Codes für Klassen oder Indizes vorhanden sind. Merkmale von Individuen wie z.B. Lebensalter oder Geburtsjahr können ohne Schwierigkeiten explizit unter Verwendung mehrerer Lochkartenspalten abgelocht werden. Für tabellarische Darstellungen können diese später durch einfache Programmanweisungen zu Altersgruppen zusammengefaßt werden, ohne daß die Ausgangswerte zerstört werden; Auswertungen, die die genauen Angaben verlangen (Mittelwertsberechnungen, Korrelationen usw.), bleiben möglich. Werden anstelle der genauen Angaben nur Codes für Altersklassen abgelocht, wären solche Auswertungen ausgeschlossen. Da in der Analysephase vieler Forschungsprojekte Auswertungswünsche auftreten, die bei Beginn dieser Phase nicht antizipiert wurden, sollten die Analysemöglichkeiten nicht durch inhaltliche Vorentscheidungen bei der Vercodung eingeschränkt werden. 5.1.2
Zulässige Codes
Bereits bei der Zuweisung von Codes ist zu berücksichtigen, auf welchen Datenverarbeitungsanlagen unter Verwendung welcher Programme oder Programmsysteme die Analyse vorgenommen werden soll. Nur ein begrenzter Teil der 2 12 = 4096 möglichen Lochkombinationen innerhalb einer Spalte einer konventionellen Lochkarte ist zulässig. Welche Lochkombinationen zulässig sind, ist abhängig von Hersteller und Modell des verwendeten Computers. In der Regel ist zu empfehlen, ausschließlich numerische Codes, d.h. Ziffern von 0 bis 9, zu verwenden. Mehrfachiochungen die nicht dem Standardcode entsprechen, sind zu vermeiden; die Verarbeitung mehrfachgelochter Kartensätze ist in den meisten Rechenzentren schwierig oder gar ausgeschlossen; die Zahl der für derartig abgelochte Daten verfugbaren Programme und Programmsysteme ist gering. Dementsprechend ist für jede Variable mindestens eine Spalte vorzusehen; ist die Zahl der möglichen Ausprägungen größer als 10, sollten mehrspaltige numerische Codes vorgesehen werden, die in zusammenhängenden Spaltenbereichen abgelocht werden. Auch wenn Variablen mehrere Ausprägungen pro Analyseeinheit aufweisen können (z.B. Fragen mit zulässigen M.thii&chnennungeri), sind Mehrfachlochungen zu vermeiden. Entweder sind die Antwortkategorien zu sogenannten Dummy-Variablen zu transformieren (1 = bestimmte Vorgabe genannt; 0 = Vorgabe nicht genannt), oder es sind so viele neue Variablen zu bilden, wie maximal Nennungen zulässig sind (Variable n = 1. Antwort, « + 1 = 2. Antwort, n + i = j. Antwort). Welche dieser Möglichkeiten vorzuziehen ist, ist abhängig vom Programm, das benutzt werden soll, um die Daten zu analysieren; aus diesem Grunde ist die Entscheidung für ein bestimmtes Programm oder Datenanalysesystem zu treffen, bevor der Codeplan aufgestellt wird; die Konventionen und Annahmen dieses Programms oder Analysesystems sind bei der Aufstellung des Codeplans zu berücksichtigen. 5.1.3
Fehlende Werte
Häufig sind die Daten nicht für sämtliche Analyseeinheiten vollständig und ihre Ergänzung ist nicht möglich (z.B. ein Befragter antwortet "Weiß nicht", der Interviewer hat eine Frage ausgelassen, wegen Gebietsreformen sind bestimmte statistische
5. Kapitel: Computerunterstützte
Datenaufbereitung und Datenarmlyse
173
Zahlen für ein Gebiet nicht verfügbar usw.). Für solche "'fehlenden Werte" sind Codes vorzusehen, die die Tatsache und möglicherweise die Ursache des Fehlens von Angaben zuverlässig bezeichnen. Diese Codes sollten außerhalb des Bereiches legitimer Werte liegen. Für alle Variablen sollten einheitliche Konventionen gelten, welche Codes fehlende Werte kenntlich machen; möglich wären z.B. Leerspalten oder die jeweils maximalen Codes (9 bei einspaltigen, 99 bei zweispaltigen, 999 bei dreispaltigen Variablen usw.). Da die Ziffer 0 eine legitime Antwort sein kann (z.B. als Antwort auf die Frage "Wie viele Kinder haben Sie?"), ist die Verwendung von 0 als Code für fehlende Angaben zu vermeiden, um z.B. die Gleichsetzung kinderloser Befragter mit solchen Befragten zu vermeiden, die nicht bereit waren, ihre Kinderzahl zu nennen. Die Art der Konventionen für fehlende Werte ist gleichfalls abhängig vom zu verwendenden Analysesystem; die Konventionen dieses Systems sollten bei der Entscheidung, welche Werte fehlende Angaben signalisieren sollen, berücksichtigt werden.
5.1.4
Identifikation aller Lochkarten
Häufig können nicht alle Informationen über eine Analyseeinheit auf einer 80spaltigen Lochkarte erfaßt werden; die Verwendung mehrerer Lochkarten für jede Analyseeinheit wird erforderlich. In diesem Fall ist jede Lochkarte eindeutig zu kennzeichnen durch die laufende Nummer der Analyseeinheit und die Kartenidentifikation, die in sämtlichen Lochkarten einer Studie in jeweils den gleichen Spalten gelocht sein sollten. Nur hierdurch wird jede einzelne Lochkarte eindeutig als x te Lochkarte des Falls y identifiziert. Ohne eine solche eindeutige Identifikation sind die erforderlichen Prüfungen und Verbesserungen der Daten nicht möglich.
5.1.5
Fachzählsortiermaschinen und Computer
Bestimmte Traditionen der Übertragung von Daten auf Lochkarten, die so lange zweckmäßig waren, wie Fachzählsortiermaschinen für die Auswertung benutzt wurden, sind bei Verwendung von Computern zur Auswertung unter allen Umständen zu vermeiden. Obwohl die zu beachtenden Regeln bereits genannt wurden, sollen diese Unterschiede nochmals genannt werden, da erfahrene Sozialforscher, die ihre Ausbildung an derartigen Sortiermaschinen erhielten, dem Leser gewiß versichern werden, diese Regeln seien falsch bzw. unsinnig; in der Praxis werde anders vorgegangen. Stand zur Auswertung nur eine Fachzählsortiermaschine oder Tabelliermaschine ohne Speichermöglichkeit zur Verfügung, so kam es darauf an, ein Maximum an Informationen in den 80 Spalten einer Lochkarte zu speichern. Nach Möglichkeit sollte jede Analyseeinheit nur durch eine Lochkarte repräsentiert werden. Dementsprechend waren Mehrfachiochungen nicht nur nicht unzulässig, sondern im Gegenteil zweckmäßig. Ebenfalls war die Zusammenfassung der Merkmale zu wenigen diskreten Kategorien dem Prinzip der Erhaltung aller Informationen vorzuziehen. Demnach wurden alle Lochpositionen (0 bis 9 und die sogenannten "Überlöcher" X und Y) einer Spalte soweit wie möglich, entweder allein oder in Kombination, ausgenutzt.
174
7. Band: Datemnalyse
Für die Fachzählsortiermaschine aufbereitete Datensätze sind für die Analyse mit Computern nur unter größten Schwierigkeiten verwendbar. Umgekehrt gilt, daß die Analyse eines Datensatzes, der nach den obengenannten Regeln aufbereitet wurde, überaus aufwendig wäre, würde hierzu eine Fachzählsortiermaschine benutzt.
5.1.6
Datenfehler und Datenkontrolle
Bei der Übertragung von Daten in maschinenlesbare Form sind Fehler nicht auszuschließen. Um die Fehlerzahl möglichst gering zu halten, sind die zur Übertragung erforderlichen Schritte auf ein Minimum zu reduzieren und hinreichende Datenprüfungen vorzusehen. Dementsprechend ist — wenn immer möglich — das Datenmaterial bereits in maschinenlesbarer Form zu erfassen (maschinenlesbare Beobachtungsprotokolle, Fragebogen usw.); ist die Vercodung erforderlich, so sind o f t maschinenlesbare Belege für optische Belegleser einer Übertragung auf Codeblätter vorzuziehen, welche erst in einem weiteren Schritt Vorlage für das Ablochen mit Hilfe von Schreiblochern sind. In jedem Fall ist eine sorgfältige Datenprüfung erforderlich, um schwerwiegende Verzerrungen der Ergebnisse späterer Analysen zu vermeiden. Erforderlich ist die Prüfung auf formale Vollständigkeit der Analyseobjekte, "wilde Löcher" außerhalb des legitimen Lochbereichs, logische Inkonsistenzen und Fehllochungen innerhalb des legitimen Lochbereichs (MOSTELLER 1968a). Prüfung auf formale Vollständigkeit (Weisen alle Analyseobjekte die erforderliche Zahl von Kartenarten auf? Gibt es für irgendeine Analyseeinheit ein Doppel einer Kartenart?) ist Voraussetzung für die Benutzbarkeit vieler Analyseprogramme. "Wilde Löcher" können durch spezielle Programme bzw. spezielle Routinen in Analysesystemen erkannt werden. Voraussetzung dafür ist die Angabe des niedrigsten und des höchsten legitimen, d.h. im Codeplan vorgesehenen Wertes. Fehlen solche Programme oder handelt es sich um Merkmale, für die die einzelnen Ausprägungen im Codeplan nicht genannt sind, ist das Vorhandensein "wilder Löcher" durch Prüfung der Randverteilung der Variablen zu ermitteln. Die Prüfung auf Inkonsistenzen sollte das erste Auswertungsprogramm sein, das vor der eigentlichen Analyse benutzt wird. Dabei ist sowohl auf formale Stimmigkeit (ein Befragter, der auf die Frage nach seiner Wahlbeteiligung bei der letzten Wahl "nicht wahlberechtigt" angab, darf auf die Frage nach der Wahlentscheidung nicht mit einer Parteiangabe antworten) wie auf Plausibilität (Befragte im schulpflichtigen Alter sollten in der Regel keine eigenen Kinder haben) zu prüfen. Fehler innerhalb des legitimen Lochbereichs (Code für "nein" gelocht, obwohl Befragter mit " j a " antwortete) können nur durch Vergleich der maschinenlesbaren Daten mit dem Ausgangsmaterial ermittelt werden. Da derartige Vergleiche aufwendig sind, wird man sich oft mit der Überprüfung von Stichproben aus dem Datenmaterial begnügen. Werden Fehler festgestellt, ist zu untersuchen, ob es sich möglicherweise um systematische Fehler handelt (Hat ein bestimmter Vercoder eine bestimmte Anweisung mißverstanden?). Um Korrekturen derartiger Fehler zu erleichtern, sollten neben den Angaben über die Analyseeinheit selbst auch Angaben über all diejenigen ma-
5. Kapitel: Computerunterstützte Datenaufbereitung und Datenanalyse
17 5
schinenlesbar vorhanden sein, die an der Übertragung eines bestimmten Falles auf Lochkarten beteiligt waren (d.h. Ablochen von Interviewernummer, Codernummer usw.).
5.1.7
Dokumentation
Ebenso, wie es eindeutige Regeln für die Übersetzung der Daten in Codepositionen für Lochkarten geben muß, ist für eine Studie die Dokumentation der Bedeutung der Lochpositionen unerläßlich, damit eine Rückübersetzung von Lochpositionen zu inhaltlicher Bedeutung nicht allein demjenigen möglich ist, der die Vercodungsregeln entworfen hat. Das Codebuch einer Studie muß vollständig sein, d. h. die Bedeutung sämtlicher Variablen und ihrer möglichen Ausprägungen dokumentieren. Dies schließt selbstverständlich auch diejenigen Variablen ein, die erst während oder nach der ersten Verschlüsselung des Urmaterials gebildet wurden; wenn Umcodierungen vorgenommen wurden, müssen diese im Codebuch festgehalten sein. Zweckmäßig ist ein maschinenlesbares Codebuch oft aus mehreren Gründen: es ist leicht zu modifizieren, beliebig reproduzierbar und bei Verwendung bestimmter Datenanalysesysteme zugleich für die Datenbereinigung (automatische Erkennung wilder Löcher) und Datenanalyse (erhöhte Verständlichkeit der Computerausdrucke durch Beschriftung von Variablen und Werten) nützlich. Das maschinenlesbare Codebuch kann schon bei der Entscheidung über den Codeplan gemäß den Konventionen des später zu verwendenden Datenanalysesystems erstellt werden, also vor oder während der Datenerhebung.
5.2
Datenanalyseprogramme
Die Qualität von Datenaufbereitung und Datenanalyse wird durch die Verwendung von Computern weder notwendig gesteigert noch gemindert; Computer wenden bei Datenaufbereitung und -analyse nur die ihnen durch Programme vorgegebenen Regeln an. Die Verwendung von Computern steigert damit die Verantwortlichkeit des Forschers, der eindeutige Instruktionen geben muß und sich weder auf die richtige Interpretation allgemeiner Anweisungen durch seine erfahrenen Hilfskräfte verlassen noch mit der fehlerhaften Ausfuhrung seiner Anweisungen durch sein Personal entschuldigen kann. Die in Programmen zusammengefaßten Instruktionen für Computer müssen selbstverständlich maschinenlesbar sein; sie müssen entweder aus Maschinensprache bestehen oder in Maschinensprache übersetzt werden. Programmiersprachen werden oft danach unterschieden, in welcher Beziehung ihre Instruktionen zu denen der Maschinensprache stehen. Die Instruktionen maschinenorientierter Sprachen (Assembler) stehen zu den Instruktionen der Maschinensprache etwa in eins-zu-eins-Beziehung. Die Instruktionen problemorientierter Programmiersprachen werden durch sog. Compiler in eine beträchtlich größere Zahl von Anweisungen in Maschinensprache übersetzt; solche problemorientierten Programmiersprachen sind z.B. FORTRAN für mathematisch-technische, COBOL für kaufmännische, ALGOL für mathematische Anwendungen.
176
7. Band:
Datenanalyse
Sozialwissenschaftler, die bei ihrer Forschung Computer verwenden, sind häufig nicht darauf angewiesen, für jede Aufgabe neue Programme in maschinen- oder problemorientierten Programmiersprachen zu erstellen. Solche Programme liegen für die meisten auftretenden Probleme der Datenaufbereitung und Datenanalyse (Tabellen, Regressionen, Faktorenanalysen usw.) bereits vor. Zu unterscheiden sind hierbei von Computerherstellern zur Verfügung gestellte Unterprogramme (z.B. Scientific Subroutine Package (SSP) bei IBM), vom Autor oder von einer Programmbibliothek (vgl. ALLERBECK 1971a) überlassene Ein-Zweck-Programme, standardisierte Programme für bestimmte Arten von Analysen (z.B. multidimensionale Skalierung) und Datenanalysesysteme, die eine Vielzahl von Möglichkeiten der Datenaufbereitung, Datenbereinigung und -transformation und der üblichen Analyseverfahren enthalten. Die Verwendung fertiger Programme ist in vielen Fällen der Erstellung neuer Programme für ein einziges Projekt vorzuziehen; hierdurch werden sowohl Zeit wie Kosten gespart. Allerdings sind derartige Programme und Programmierhilfen nicht für alle Anwendungen in gleicher Weise verfügbar. Während für statistische Auswertungen herkömmlicher Art eine Vielzahl von Programmen zur Verfügung steht, sind neue statistische Verfahren oft auf eigene Programmierung angewiesen. Ebenso ist das Angebot an Programmen für Textanalysen, Retrieval oder Simulation weniger reichhaltig; die Möglichkeiten der Standardisierung auf diesen Gebieten sind wesentlich geringer. Die folgenden Hinweise gelten überwiegend für Programme, die Probleme der Datenanalyse lösen; dabei können nur Hinweise auf einige der zu erwartenden Schwierigkeiten gegeben werden.
5.2.1
Übernahme von Ein-Zweck-Programmen
Die Übernahme bereits fertiger Programme erspart die Mühe eigener Neuentwicklung. Ob der nach Übernahme entstehende Aufwand möglicherweise größer ist als die Entwicklung eines speziellen Programms, hängt von einer Reihe von Faktoren ab. Zunächst ist zu prüfen, ob die verfugbare Datenverarbeitungsanlage den Spezifikationen des Programms entspricht und die benutzte Programmiersprache tatsächlich mit der auf der eigenen Anlage unterstützten Version dieser Sprache kompatibel ist (daß nahezu alle Computerhersteller auch Programmiersprachen namens FORTRAN anbieten, bedeutet nicht, daß ein in dem FORTRAN-Dialekt des Computerherstellers A geschriebene Programm ohne Änderungen vom FORTRAN-Compiler des Herstellers B richtig übersetzt werden kann). Weiterhin sollte der Autor des Programms erreichbar und bereit sein, bei auftretenden Schwierigkeiten Hilfe zu leisten oder notwendige Hinweise zu geben. Das Programm sollte ein gewisses Maß an Allgemeinheit aufweisen (ein Korrelationsprogramm, das genau 30 Variablen voraussetzt, die miteinander korreliert werden sollen, ist meistens nicht der Übernahme wert). Die Dokumentation des Programms sollte zutreffend, vollständig und verständlich sein. Bevor ein übernommenes Programm zur Datenanalyse verwandt wird, sollte es sorgfältig geprüft werden. Zur Prüfung am besten geeignet sind Daten mit bekannten Eigenschaften. Eine Übereinstimmung der Ergebnisse garantiert zwar nicht, daß bei der Anwendung des Programms auf die zu analysierenden Daten nicht Bedingungen auftreten, unter denen das Programm falsche Ergebnisse liefert; sie kann aber zumindest eine Reihe denkbarer und nicht seltener Fehler eliminieren. Ebenfalls ist eine
5. Kapitel: Computerunterstützte Datenaufbereitung und Datenamlyse
17 7
Plausibilitätskontrolle zu empfehlen. Das Prestige eines Programmherstellers ist nicht Garantie seiner Fehlerfreiheit. So wies MUXWORTHY ( 1 9 7 2 ) z . B . darauf hin, daß der größte Computerkonzern der Welt mindestens sieben Jahre lang ein Programm für kanonische Korrelationen vertrieb, das in der Mehrzahl der Anwendungen falsche Ergebnisse lieferte.
5.2.2
Programmpakete für Datenanalyse
Grundsätzlich die gleichen Regeln gelten für die Verwendung von statistischen Programmpaketen wie z.B. diejenigen, die vom Deutschen Rechenzentrum Darmstadt entwickelt wurden, oder diejenigen der BMD-Serie (DIXON 1967). Die Wahrscheinlichkeit von Programmfehlern ist hier indes geringer. Die vorsorgliche sorgfältige Prüfung auf Richtigkeit ist jedoch auch bei Verwendung solcher Pakete unerläßlich, namentlich dann, wenn zur Anpassung der Programme an eine eigene Rechenanlage Programmänderungen vorgenommen werden müssen. Programmpakete, die nur Analyseprogramme enthalten, sind allerdings nur begrenzt zu empfehlen. In der Regel erwarten die Programme die Daten in einer bestimmten Form. Wenn die Daten nicht unter genauer Beachtung dieser Regeln abgelocht wurden oder wenn Datentransformationen erforderlich sind (Indexbildung, Umcodierungen, Normalisierung usw.), ist die Erstellung oft umfangreicher neuer Programme erforderlich. Dies erfordert gute Kenntnisse von Datenstrukturen und einer höheren Programmiersprache. Die Notwendigkeit der Zwischenschaltung neuer Programme bedeutet in der Praxis eine erhebliche Einschränkung der Analysemöglichkeiten. Die unten genannten Möglichkeiten der Datenanalyse werden hierdurch erschwert, wenn nicht verhindert.
5.2.3
Datenanalysesysteme
Der entscheidende Vorteil von Datenanalysesystemen gegenüber statistischen Programmpaketen liegt in der Integration von Datenmanagement (Aufbereitung, Datentransformationen) und Datenanalyse. Damit wird es für Sozialwissenschaftler möglich, eine Vielzahl von Analyseverfahren zu verwenden, ohne eine Programmiersprache erlernen zu müssen (ALLERBECK 1971b). Die Sprache, in der Anweisungen für die Datenanalysesysteme gegeben werden müssen, ist bei Systemen wie DATATEXT (ARMOR UND COUCH 1972), SPSS (NIE U.A. 1975) und BMDP (DIXON 1975) der normalen Sprache der Sozialforschung weitgehend ähnlich. Eine Faktorenanalyse von 50 Variablen einer hypothetischen Studie würde bewirkt durch die DATATEXT-Anweisungen * COMPUTE FACTORS (ITEM (1) ... ITEM (50)) * COMPUTE ROTATIONS oder die SPSS-Anweisung FACTOR
VARIABLES = VAR007 TO VAR056
Mit ähnlich einfachen Anweisungen können Auswertungen ebenso wie die üblichen multivariaten Analysetechniken verlangt werden. Weitere Kenntnisse (außer so elementaren wie etwa der Fähigkeit, Karten korrekt zu lochen und zu wissen, wo Programme abgegeben werden müssen, und wie die Ergebnisse abgeholt werden können)
178
7. Band: Datenawlyse
sind damit zur erfolgreichen Benutzung von Computern zur Datenanalyse nicht erforderlich unter der Voraussetzung, daß vom Rechenzentrum, das der Sozialforscher benutzt, die entsprechenden Analysesysteme angeboten und unterstützt v/erden (wie ein solches Analysesystem aufzurufen ist, wo die Daten gespeichert sind usw., ist von installationsspezifischen Regeln abhängig). Damit ist auch denjenigen Sozialforschern der Zugang zu modernen Analyseverfahren ermöglicht, die weder Computerexperten sind noch über die Ressourcen verfugen, Computerexperten zur Lösung ihrer Probleme zu verpflichten. Die Kombination von umfangreichen Datenmanagementfunktionen mit Datenanalyseroutinen, die durch wenige, einfache Instruktionen genutzt werden kann, erschließt die durch das neue technische Instrumentarium eröffneten neuen Möglichkeiten, statt, wie vielerorts üblich, nur die für nunmehr obsoletes technisches Instrumentarium konzipierten Verfahren, in Computerprogramme übersetzt, weiterhin mit Ausschließlichkeit anzubieten. Die Dokumentation der Analysesysteme ist in einer für Sozialwissenschaftler verständlichen Sprache geschrieben. Die Einfuhrungen in DATATEXT und SPSS verbinden Dokumentation des Systems und Einführung in Analysetechniken (NIE U. A. 1975; AMOR UND COUCH 1972). Dabei läßt jedoch häufig die Dokumentation der jeweils benutzten Algorithmen zu wünschen übrig. Von besonderer Bedeutung ist die Möglichkeit der Dokumentation der Ergebnisse durch Etikettierung (labels) von Variablen und Werten in solchen Analysesystemen, wodurch Dokumentationsprobleme im Rahmen größerer Datenanalysen entscheidend verringert werden können. Zwei Typen von Datenanalysesystemen sind zu unterscheiden: geschlossene Systeme wie SPSS und DATATEXT und offenere Systeme wie OSIRIS und BMDP; die letztgenannten Systeme sind Sammlungen von Einzelprogrammen, welche durch gemeinsame Datendefinition (in einem separaten dictionary wie bei OSIRIS oder einer Systemdatei wie bei BMDP) und ähnliche Befehlsprachen verbunden sind. Geschlossene Systeme bieten für den Benutzer etwas einfachere Benutzung, sind jedoch nur schwer durch andere Analyseverfahren zu ergänzen. Offene Systeme bieten relativ einfache Möglichkeiten der Hinzufügung weiterer Programme, stellen jedoch an den Benutzer etwas höhere Anforderungen hinsichtlich seiner Kenntnisse der Steuersprache des Betriebssystems; neuentwickelte Monitorsysteme (wie bei OSIRIS III) oder katalogisierte Prozeduren (BMDP) erleichtern die Benutzung allerdings erheblich. Obwohl im Fall von weitverbreiteten Datenanalysesystemen durch Benutzungshäufigkeit und laufende Wartung die besten Bedingungen zur Eliminierung von Programmfehlern gegeben sind, sind Fehler auch hier nicht ausgeschlossen. Insbesondere die laufende Erweiterung um neue Analyseverfahren, Hinzunahme von Optionen und Verbesserung erkannter Fehler bringen die Möglichkeit mit sich, daß als Konsequenz der Veränderungen neue Fehler auch in bewährten Teilen von Analysesystemen auftreten können. Dementsprechend sollte auch der Benutzer von Datenanalysesystemen vor der Verwendung seiner Ergebnisse nicht auf Plausibilitätskontrollen verzichten. Allerdings sind Benutzerfehler nicht-formaler Art (z.B. falsche Variablendefinition durch inkorrekte Spaltenangabe), die durch die von den Systemen vorgenommenen Syntaxprüfungen nicht entdeckt werden können, unendlich viel häufiger als Programmfehler in freigegebenen Versionen von Datenanalysesystemen. Erfahrungen deuten darauf hin, daß beim Auftreten offenkundig fehlerhafter Ergebnisse die Mehr-
5. Kapitel: Computerunterstützte Datenaufbereitung und Datenanalyse
179
zahl der Benutzer die Ursache beim System sucht, während die tatsächliche Ursache unzureichendes Studium der Regeln des Systems oder fehlerhafte Datendefinition durch den Benutzer ist. Die Benutzung der Analysesysteme wird erleichtert durch Standardoptionen (default options), die in Kraft sind, wenn der Benutzer nicht ausdrücklich andere Anweisungen gibt. Hierdurch wird die Zahl der erforderlichen Anweisungen wesentlich reduziert. Der Benutzer gibt hier gewissermaßen Anweisungen durch das Weglassen von Instruktionen. So wurde in dem oben gegebenen Beispiel der Instruktionen für Faktorenanalysen tatsächlich implizit spezifiziert, welches Extraktions- und Rotationsverfahren zu wählen, welches Konvergenzkriterium für die Kommunalitätenschätzung anzuwenden und welches die höchstzulässige Zahl von Iterationen war. Wenn die default options, die in den Handbüchern der Systeme genannt sind, nicht gelten sollen, müssen sie durch entsprechende Angaben ersetzt werden. Zur richtigen Benutzung der Systeme ist das Verständnis des zentralen Konzepts der default options unerläßlich. Die Anforderungen an Datenanalysesysteme sind vielfältig. Es ist aus der Struktur der Unterschiedlichkeit der Anforderungen heraus ausgeschlossen, daß ein System allen Anforderungen genügt. Aus diesem Grunde ist es auch nicht möglich, eindeutig anzugeben, welches der vorhandenen Datenanalysesysteme das beste sei. Dies kann nur für den jeweiligen Benutzer bei Kenntnis seiner Datenorganisation, Auswertungswünsche, materiellen Ausstattung und für ihn zugänglichen Datenverarbeitungsanlage geschehen. Einige der wichtigsten Kriterien für die Wahl eines Datenanalysesystems werden von ALLERBECK (1972) diskutiert. Die nicht seltene Überbetonung der in einem System enthaltenen Analyseverfahren führt zu Fehlentscheidungen, weil hierbei die Erfordernisse der Datenorganisation und -transformation und unterschiedliche Benutzerkenntnisse hinsichtlich der Betriebssysteme der zugänglichen Datenverarbeitungsanlagen oft unberücksichtigt bleiben. Einer der häufigsten Einwände gegen Datenanalysesysteme lautet, daß derartige Systeme doch gewiß den besonders gearteten Bedürfnissen des jeweils fragenden Benutzers nicht gerecht werden. Derartige Einwände lassen jedoch in den meisten Fällen nur auf mangelndes Studium des entsprechenden Handbuchs, das die Möglichkeiten des Datenanalysesystems darstellt, schließen. Gewichtiger sind demgegenüber Hinweise auf die Konsequenzen der Freigabe von komplizierten Auswertungsverfahren für Benutzer, die Rechenregeln, Logik und Voraussetzungen dieser Verfahren nicht verstehen, diese jedoch anwenden sobald sie die Syntax der Systeme erlernt haben.
5.2.4
Neuentwicklung von Programmen
Für viele Anwendungen ist die Neuentwicklung von Programmen nicht erforderlich, da es für sie bereits bewährte Lösungen in Form von Datenanalysesystemen, Programmpaketen oder generellen Programmen gibt. Daneben gibt es indessen eine Reihe von Analyseverfahren, die in dieser Form nicht zugänglich sind; neben einigen weniger gängigen herkömmlichen gehören hierzu insbesondere neuentwickelte Analyseverfahren. Es wäre für die Sozialforschung schädlich, wenn langfristig die Art der Probleme, die sie sich stellt, und die Art der Analyseverfahren, deren sie sich bedient,
180
7. Band:
Datenanalyse
vorwiegend durch die jeweils verfugbare Software bestimmt würden. Aus diesem Grunde ist es erforderlich, auf die Neuentwicklung von Programmen ebensowenig zu verzichten wie auf die Ausbildung von Sozialforschern, die zugleich kompetente Programmierer wie kundige Anwender statistischer Verfahren sind. Die Einführungen in die Programmierung im allgemeinen und die verschiedenen Programmiersprachen im besonderen sind zu zahlreich, als daß hier im einzelnen Hinweise gegeben werden könnten.
5.3
Neue Möglichkeiten der Datenanalyse
Das Potential des neuen Instrumentariums wird nicht genutzt, wenn lediglich traditionelle Vorgehensweisen in Computerprogramme umgesetzt werden, die angemessen waren, als Fachzählsortiermaschinen und Tischrechner zur Datenanalyse benutzt werden. Die Verfügbarkeit von Computern hat sowohl völlig neue Verfahren wie entscheidende Verbesserungen herkömmlicher Verfahren möglich gemacht.
5.3.1
Neuentwicklungen und Weiterentwicklungen von Analyseverfahren
Iterative Verfahren waren durch den prohibitiven Arbeitsaufwand kaum denkbar, bevor Computer als Hilfsmittel zur Verfügung standen. Im folgenden werden zwei dieser jetzt zugänglichen Verfahren exemplarisch genannt, ohne daß diese Verfahren an dieser Stelle ausführlich diskutiert werden könnten. Unter diesen Verfahren ist das der multidimensionalen Skalierung wohl das prominenteste Beispiel. Ziel der multidimensionalen Skalierung ist es, aus ordinalen Angaben über die Ähnlichkeit oder Unähnlichkeit von Objekten eine Konfiguration zu gewinnen, deren Inter-Punkt-Distanzen der Rangfolge der Unähnlichkeiten der Objekte entsprechen. Die von SHEPARD (1962), KRUSKAL (1964a, 1964b), GUTTMAN (1968) und anderen entwickelten Verfahren haben ihre Nützlichkeit für die dimensionale Analyse in einer Vielzahl von Anwendungsgebieten erwiesen (SHEPARD U. A. 1972). Mit diesem Verfahren sind so verschiedene Probleme wie Gruppenstrukturen in der Soziometrie, Ähnlichkeitsstrukturen ethnischer Gruppen, Macht-Netzwerke zwischen Banken und Industrie usw. untersucht worden. Daß mit diesem Verfahren neben Rohdaten auch solche Ähnlichkeitsmaße wie etwa Korrelationskoeffizienten analysiert werden können, macht es zu einer Alternative zur Faktorenanalyse namentlich dann, wenn z.B. wegen des Meßniveaus der Variablen die Voraussetzungen für die Berechnung von Produktmomentkorrelationskoeffizienten nicht gegeben sind. Neuere Techniken der Analyse von Kontingenztabellen wie loglineare Modelle (vgl. GOODMAN 1 9 7 2 ) und Normalisierung der Randverteilungen (MOSTELLER 1 9 6 8 ) , für die z.T. nur iterative Lösungsverfahren möglich sind, sind weitere Beispiele für statistische Verfahren, die erst durch die Verfügbarkeit von Computern weiterentwickelt und zur Anwendungsreife gebracht werden konnten. Während die Normalisierung der Randverteilungen eine in den Tabellenprogrammen von DATATEXT
5. Kapitel: Computerunterstützte Datenaufbereitung und Datenanalyse
und BMDP enthaltene Option ist, ist für loglineare Modelle derzeit noch die Verwendung standardisierter Einzelprogramme wie Goodman's ECTA (Everyman's Contingency Table Analysis Program) erforderlich. Von gleicher Bedeutung sind Verfahren, die den Computer nach vorgegebenen Kriterien zur automatischen Suche nach den wichtigsten unabhängigen Variablen oder nach möglichst homogenen Gruppen benutzen. Das bekannteste dieser Verfahren ist wahrscheinlich die Kontrastgruppenanalyse oder "tree analysis" (SONQUIST UND MORGAN 1 9 6 4 ) . Hierbei wird systematisch eine Datei so geteilt, daß die resultierenden, durch Kombination bestimmter Werte von maximal differenzierenden Variablen gebildeten Gruppen hinsichtlich einer vorgegebenen Variablen möglichst homogen sind. Während der Anspruch des Verfahrens, automatisch Interaktionseffekte zu entdecken, von dem Algorithmus zunächst nicht eingelöst wurde, gibt die in dem Programm AID III vorliegende Weiterentwicklung (SONQUIST U. A. 1 9 7 1 ) die Möglichkeit, tatsächlich die im Datenmaterial auftretenden Interaktionseffekte zweier oder dreier Variablen maschinell zu ermitteln. Nicht weniger wichtig als neuentwickelte Verfahren sind die Weiterentwicklung bekannter Verfahren und die erhöhte Verfügbarkeit von durch prohibitiven Rechenaufwand früher praktisch unzugänglichen Techniken unter Verwendung von Computerprogrammen. So ist in den meisten Anwendungen der Faktorenanalyse das Centroid-Verfahren der Faktorenextraktion durch das Hauptkomponentenverfahren nach Hotelling abgelöst worden, seit das Hindernis des hohen Rechenaufwands nicht mehr besteht. Alternative Verfahren wie die Image-Analyse (KAISER 1 9 6 3 ) oder die Maximum-Likelihood-Faktorenanalyse (LAWLEY UND MAXWELL 1 9 6 3 ) sind erst seit der Verfügbarkeit von Großrechenanlagen möglich. Die Möglichkeiten der Regressionsanalyse sind durch solche Techniken wie schrittweise multiple Regression (vgl. DRAPER UND SMITH 1 9 6 6 ) außerordentlich erweitert worden. 5.3.2
Einfügung der Analyseergebnisse in das Datenmaterial
Die Verfügbarkeit von Großrechenanlagen erlaubt es, die Distanz zwischen Daten und Modellen zu überbrücken. Die Ergebnisse der Analysen können als neue Variable den Daten für die Analyseeinheiten hinzugefugt (z.B. factor scores) und für weitere Analysen verwandt werden. So kann z.B. eine Faktorenanalyse der Skalenkonstruktion vorausgehen, um die Eindimensionalität von Skalen zu sichern. Durch Regressions- oder Faktorenanalysen können Schätzwerte für fehlende Werte gewonnen werden, um folgende Analysen zu erleichtern. Die Einfügung von Analyseergebnissen ins Ausgangsmaterial kann auch dazu dienen, die Angemessenheit von Modellen für das Datenmaterial zu überprüfen. Die Analyse der Residuen einer Regressionsanalyse kann Aufschluß darüber geben, ob z.B. die Linearitätsannahme berechtigt war, ob durch "Ausreißer" das Modell beeinträchtigt wurde usw. (vgl. ANSCOMBE UND TUKEY 1 9 6 3 ) . 5.3.3
Datentransformation
Die Möglichkeit der Datentransformation mit Computern erweitert die Analysemöglichkeiten beträchtlich. Werden kontinuierliche Variablen bzw. Variablen mit einer großen Zahl diskreter Werte als solche erfaßt, dann können sie sowohl für Zwecke
181
182
7. Band: Datewmlyse
der Tabellenanalyse gruppiert als auch für solche multivariaten Verfahren verwandt werden, welche durch den Informationsverlust vorheriger Gruppierungen beeinträchtigt würden. Werte vorhandener Variablen können leicht umcodiert werden; die Bildung neuer Variablen mit Hilfe arithmetischer oder logischer Ausdrücke ist ohne Schwierigkeiten möglich. Damit wird erreicht, daß viele für die Analyse relevante Entscheidungen erst in der Analysephase (und nicht während der Datenerhebung) getroffen werden müssen und auch korrigierbar sind, vorausgesetzt, daß bei der Datenerfassung die erforderlichen Informationen erhalten blieben. Von mindestens ebenso großer Bedeutung ist die Erweiterung der Anwendbarkeit jener multivariater Verfahren, die von linearen und additiven Beziehungen zwischen den ins Modell eingehenden Variablen ausgehen. Durch geeignete Datentransformationen wird es möglich, mit diesen Modellen auch solchen Beziehungen gerecht zu werden, die nicht linear und/oder additiv sind. So können z.B. multiplikative Beziehungen durch logarithmische Transformationen für ein additives Modell faßbar gemacht werden; durch Konstruktion geeigneter Variablen können Interaktionseffekte in derartige Modelle eingehen.
5.3.4
Stichprobengewichtung und -Zerlegung
Repräsentative Stichproben normaler Größe erlauben in der Regel keine zuverlässigen Aussagen über kleinere Teilgruppen der Bevölkerung. Eine Vergrößerung des Stichprobenumfangs derart, daß auch kleinere Teilgruppen mit hinreichend vielen Fällen vertreten sind, ist meistens zu kostspielig. Die Gewichtung der Fälle macht es möglich, das Ziel der Repräsentativität für eine Population mit dem Ziel der Analyse kleinerer Teilgruppen zu vertretbaren Kosten kompatibel zu machen. Bei Verwendung von Datenanalysesystemen ist es auf einfache Weise möglich, allen Fällen Gewichte zuzuweisen, die selbstverständlich nicht ganzzahlig sein müssen. (Mit dem Begriff "Gewichten" ist in der Markt- und Meinungsforschung häufig die Vorstellung des Doppeins oder Vernichtens der Lochkarten zufällig ausgewählter Befragter verbunden, wenn nur Fachzählsortiermaschinen als Instrumentarium der Analyse zur Verfügung stehen; diese Art von Gewichtung ist hier nicht gemeint.) Die Möglichkeit der Teilung von Stichproben nach Zufalls- oder logischen Kriterien löst eine Reihe anderer Analyseprobleme. Oft liegen zu Beginn der Datenanalyse zu wenig spezifische Hypothesen vor, so daß die Analyse notwendig explorativ ist und Signifikanztests wegen des Fehlens formulierter Hypothesen unangemessen sind (SELVIN UND S T U A R T 1966). Mehrere kleine Zufallsstichproben aus einer größeren Stichprobe erlauben es, mit einem Teil der Stichprobe spezifische Hypothesen zu entwickeln und diese am anderen Teil der Stichprobe zu überprüfen. Die Möglichkeit der Bildung von Teilsamples ist in allen Analysesystemen gegeben. Die Stichproben können ferner durch Filteranweisungen oder einen Dateiaufbau mit Unterdateistruktur (subfiles) zerlegt werden, wenn Grund zu der Vermutung vorhanden ist, daß die Beziehungen zwischen zu analysierenden Variablen in diesen Untergruppen verschiedenartig sein können.
5. Kapitel: Computerunterstützte Datenaufbereitung und Datenanalyse
5.3.5
183
Automatische Textanalyse
Das Potential von Computern für die Analyse von Texten ist mindestens ebenso bedeutsam wie ihr Potential für die Analyse numerischer Informationen. Hierdurch werden neue Möglichkeiten der Inhaltsanalyse geschaffen (-» Bd. III: Mochmann, Automatisierte Textverarbeitung). Es ist möglich, große Textmengen schnell zu analysieren sowie die Zuverlässigkeit der Anwendung der Verschlüsselungsregeln auf Texte zu prüfen. Das Instrument erzwingt überdies eindeutige Vercodungsregeln. Die Rolle der menschlichen Intervention bei der Anwendung der Vercodungsregeln ist auf ein Minimum reduziert, wenn Systeme wie z.B. General Inquirer über Routinen verfügen, die die maschinelle korrekte Zuordnung des Sinnes mehrdeutiger Wörter aus dem Kontext heraus erlauben (STONE 1972). Derartige Verfahren erschließen auch neue Möglichkeiten für die Umfrageforschung: Die Antworten der Befragten auf offene Fragen können im Klartext maschinenlesbar gemacht und maschinell verschlüsselt werden. Hierdurch wird die Analyse derart reichhaltigen Materials unter verschiedenen Gesichtspunkten praktisch durchführbar (KLINGEMANN U.A. 1976). Das Haupthindernis für derartige Verfahren sind gegenwärtig noch relativ hohe Anfangsinvestitionen, um größere Textmengen maschinenlesbar zu machen. Die Weiterentwicklung optischer Belegleser wird vermutlich diese Kosten senken und damit den Zugang zu Verfahren maschineller Inhaltsanalyse erleichtern. Verbindungen von Inhaltsanalyse und numerischer Analyse dürften sich als besonders fruchtbar erweisen, wenn die Ergebnisse der Inhaltsanalyse in einer Form maschinenlesbar ausgegeben werden, die den unmittelbaren Übergang zu verbreiteten Analysesystemen sichert. 5.3.6
Veränderungen des Ablaufs von Primärerhebungen
Der Ablauf einer Studie, die von den neuen Möglichkeiten Gebrauch macht, unterscheidet sich in vieler Hinsicht von dem einer traditionellen Studie; die Phasen eines Projekts sind nicht mehr voneinander getrennt, sondern vielfach verknüpft. Ohne daß die Dauer von Projekten hierdurch wesentlich verlängert würde, können Analyseergebnisse beim Entwurf der Erhebungsinstrumente berücksichtigt werden. Häufig kann nach der Operationalisierung der Fragestellung eine Sekundäranalyse von in Datenarchiven zugänglichen früheren Untersuchungen die Hypothesen spezifizieren, die Erfassung aller erforderlichen Variablen erleichtern und einen gezielten Stichprobenplan entwerfen helfen (HYMAN 1972; Bd. II: Klingemann und Mochmann, Sekundäranalyse). Ein Pretest des Erhebungsinstruments an einer kleineren Stichprobe (50 oder 100 Fälle) kann bei sorgfältiger Auswertung dazu dienen, redundante Fragen nach rationalen Kriterien zu entfernen und Skalen eindeutiger Dimensionalität zu konstruieren. Da sofort nach Definition des Codeplans die erforderlichen Auswertungsprogramme geschrieben und getestet werden können, noch bevor die Datenerhebungsphase abgeschlossen ist, wird der zeitliche Aufwand relativ gering im Vergleich zu dem Nutzen für die Anlage der Hauptstudie, deren Auswertung durch die bei der Sekundäranalyse und der Analyse der Pretestdaten gemachten Erfahrungen ohnehin beschleunigt wird. Die Qualität von Zufallsstichproben kann schon überprüft werden, wenn beim Ziehen der Stichprobe die Merkmale der ausgewählten Objekte maschinenlesbar erfaßt werden. Durch Kombination die-
184
7. Band: Datenanalyse
ser Daten mit den in der Studie erhobenen ist z.B. eine bessere Interviewerkontrolle ebenso möglich wie eine Untersuchung der Struktur der nicht erreichten Personen im Vergleich zur Struktur der Befragten, wodurch Verzerrungen durch Ausfälle erkennbar werden können.
5.4
Zukünftige Entwicklungen und Gefahren der Verfügbarkeit von Großrechenanlagen
Die Verfügbarkeit integrierter Datenanalysesysteme stellt einen gewissen Abschluß einer Entwicklung dar, die Datenverarbeitungssysteme für Stapelverarbeitung den Sozialforschern auf einfache Weise zugänglich machte. Die Entwicklungen, die hier in näherer Zukunft zu erwarten sind, sind im wesentlichen Verbesserung und Ergänzung vorhandener Analysesysteme. Indessen ist nicht zu erwarten, daß in nächster Zeit etwa ein neues Superdatenanalysesystem entsteht, das die Leistungen aller bisherigen aufweist und weitere zusätzliche Leistungen und wünschbare konzeptionelle Verbesserungen enthält. Angesichts der hohen Kosten solcher Entwicklungen und der beträchtlichen Dauer von der Konzipierung bis zur Freigabe neuer Systeme stünde zu erwarten, daß derartige Systeme obsolet sind, wenn sie freigegeben werden. Die entscheidenden Neuerungen sind vielmehr für den Dialogbetrieb von Computern zu erwarten: während bei Stapelverarbeitungssystemen der Benutzer ein vollständiges Programm abgibt und nach einer gewissen Zeit (vorausgesetzt, das Programm ist fehlerfrei) die gewünschten Ergebnisse erhält, ist im Dialogbetrieb der Forscher, der an seinem Terminal Instruktionen gibt und Antworten erhält, laufend direkt mit dem Computer verbunden. Dadurch wird der durch die Zwischenschaltung eines sich tendenziell verselbständigenden Instrumentariums gestörte Kontakt des Forschers zu seinen Daten wieder möglich; er kann mit seinen Daten tatsächlich im Dialog stehen; er erhält die Antworten auf seine Fragen zu einem Zeitpunkt, wo er sich an seine Frage noch selbst erinnert, weil die Korrektur seiner Fehler sofort möglich ist und es dadurch unwahrscheinlich wird, daß er denselben Fehler vielfach wiederholt, bevor er die Diagnose erhält. Auch für die Modellkonstruktion hat der Dialogbetrieb entscheidende Vorteile; Modifikationen des Modells sind laufend als Reaktion auf Zwischenergebnisse möglich. Entsprechende Datenverarbeitungssysteme sind derzeit vielerorts noch unzugänglich. Der Grad der Standardisierung der Systeme ist noch relativ niedrig; die Leistungsfähigkeit von Terminals und preiswerten Leitungen namentlich dann, wenn die Einoder Ausgabe größerer Datenmengen erforderlich ist, läßt noch zu wünschen übrig. Schließlich fehlt es an der erforderlichen Software für sozialwissenschaftliche Andungen, wie sie für Stapelverarbeitungsbetrieb zur Verfügung steht. Indessen ist aufgrund von Erfahrungen mit experimentellen oder nur lokal zugänglichen Systemen erkennbar, welch außerordentliches Entwicklungspotential auf diesem Gebiet vorhanden ist. Derartige Systeme ermöglichen die für Weiterentwicklungen und Neuentwicklungen eines interaktiven Analysesystems erforderlichen Unter-
5. Kapitel: Computerunterstützte Datenaufbereitung und Datenanalyse
18 5
suchungen des Benutzerverhaltens, die Voraussetzung einer solchen Entwicklung sind. Anders als Stapelverarbeitungssysteme, die legitimerweise vom Benutzer die sorgfältige Lektüre von Handbüchern verlangen können, müssen interaktive Systeme sich an den Benutzer anpassen. Die Erfahrungen mit Systemen für computerunterstützten Unterricht sind bei solchen Entwicklungen zu berücksichtigen. Die Erweiterung der Möglichkeiten der Sozialforschung durch die Verfügbarkeit von Großrechenanlagen und Datenanalysesystemen hat keineswegs nur Vorteile. Ebenso wie die Möglichkeiten sinnvoller Verwendung vervielfacht, sind auch die Möglichkeiten des Mißbrauchs dramatisch erweitert worden. Dies wird noch gesteigert durch nicht seltene Technikgläubigkeit, die irrige und unsinnige Ergebnisse in gleicher Weise akzeptiert wie richtige und sinnvolle, solange sie nur unter Verwendung eines ebenso unverständlichen wie leistungsfähigen Instrumentariums ermittelt wurden. Dabei ist die Fehlerquelle, daß durch falsche oder schlechte Programme unrichtige Ergebnisse errechnet werden, nicht zu unterschätzen, wie einige Versuche der Überprüfung zugänglicher Programme ergaben. Selbst bei so gängigen Aufgaben wie der Berechnung von Regressionskoeffizienten sind demnach nicht nur Rundungsfehler, sondern sogar Vorzeichenfehler nicht ausgeschlossen (LONGLEY 1 9 6 7 ; WAMPLER 1 9 7 0 ) . Noch bedeutsamer ist die falsche Anwendung von statistischen Verfahren durch Sozialwissenschaftler, die weder Voraussetzungen noch Logik dieser Verfahren verstehen. Derartige falsche Anwendung war schon vor dem Beginn des Computerzeitalters keineswegs unbekannt (vgl. LEWIS UND BURKE 1 9 4 9 ) . Die Verfügbarkeit von Computern aber schafft die Möglichkeit systematischen Mißbrauchs und Datenanalysesysteme, die kundigen wie unkundigen Konsumenten statistischer Verfahren gleichermaßen zur Verfügung stehen, überwinden für ihre Benutzer auch die Hürde einer minimalen Kenntnis von Rechenregeln. Wissenden wie Unwissenden sind gleichermaßen hochkomplizierte statistische Techniken zugänglich geworden; der Leser von Forschungsberichten und Publikationen, dem nicht dienstbare Computer zu diesem Zweck zur Verfügung stehen, hat kaum noch die Möglichkeit der Überprüfung der dargebotenen Ergebnisse, sondern nur noch die Alternative gläubigen Akzeptierens oder einer unspezifischen kritischen Attitüde. Der wohl häufigste Mißbrauch der gebotenen Möglichkeiten ist das Unterfangen, alle Variablen einer Untersuchung gegeneinander zu korrelieren und zu tabellieren und vom Computer Signifikanztests berechnen zu lassen, um alsdann die "signifikanten" Ergebnisse zu berichten. Das in solchem Vorgehen zum Ausdruck kommende fundamentale Mißverständnis der Bedeutung von Signifikanztests, das mit der Systematik und Geschwindigkeit moderner Computer sorglos Fehler des Typs I akkumuliert, sichert geradezu (angesichts der relativ seltenen Versuche der Replikation) die Aufnahme zufalliger Ergebnisse in die Literatur; die unverstandene Verwendung von Signifikanztests, die leider auch von Lehrbüchern (vgl. z.B. SCHRÄDER 1 9 7 1 ) nahegelegt wird, hat zum Ergebnis genau das, was Signifikanztests zu verhindern bestimmt waren (-»• Bd. VI: Buttler, Statistische Testverfahren). Gelegentlich vorgeschlagene Heilmittel, die den Mißbrauch der neuen Techniken mit den Mitteln eben dieser Technik verhindern wollen, indem der Computer die falsche Verwendung von Analysetechniken einfach unterbindet, sind reine Utopie. Wenn eine Datenverarbeitungsanlage tatsächlich richtige und falsche Verwendung von Analyseverfahren sicher und zuverlässig automatisch erkennt, ist es nicht mehr erforder-
186
7. Band:
Datenanalyse
lieh, die Analyseprogramme ahnungsloser Sozialforscher automatisch abzubrechen; wenn die Anlage derart kompetent ist, wird sie Datenanalysen ohne menschliche Intervention selbst durchfuhren können. Der Computer als kompetentester Datenanalytiker ist jedoch eine Vorstellung, die von aller Realität weit entfernt ist. Die durch die Verbreitung von Computern für die Sozialforschung entstehenden Gefahren können nur durch die Sozialforscher selbst verringert werden. Einige geeignete Mittel seien kurz erwähnt: eine verbesserte Methodenausbildung, die von den neuen Instrumenten Gebrauch macht, die 'Trockenschwimmkurse" in Statistik nicht mit Ausbildung in Datenanalyse verwechselt und Verständnis der statistischen Verfahren und ihrer Voraussetzungen mehr betont als Rechenfertigkeiten; die Förderung von Replikationsstudien; das Problem der Überprüfbarkeit der Ergebnisse wird nur dann überhaupt lösbar, wenn die Übergabe des Primärmaterials von Untersuchungen an Archive, die der wissenschaftlichen Öffentlichkeit allgemein zugänglich sind, zu einer Norm wird, die keinen geringeren Rang hat als die Forderung nach Publikation wissenschaftlicher Ergebnisse. Schließlich wird es darauf ankommen, wie Analysesysteme für den Dialogbetrieb konzipiert werden. Wenn diese den Benutzer in jeder Phase des Analyseprozesses den nächsten Schritt bestimmen lassen, werden sie dem Benutzer Entscheidungen abverlangen, die denjenigen überfordern, der das Verfahren nicht beherrscht, das er benutzt. Die sofortige Beantwortung der Benutzerfragen im Dialogbetrieb reduziert auch die Versuchung, durch die "alles gegen alles"-Strategie einen Vorrat an Ergebnissen zu produzieren, der alles potentiell Interessierende enthält und so die Wartezeit zwischen Fragestellung und Ergebnis vermeidet, die dem Stapelverarbeitungsbetrieb zu eigen ist. Ob derartige Hoffnungen auf den technischen Fortschritt berechtigt sind, bleibt indes abzuwarten.
Literaturverzeichnis K. R., Report on the Workshop on Computer Programming Systems for the Social Sciences, in: Social Science Information 10, 1971a, S. 39-46.
ALLERBECK,
K. R., Datenanalysesysteme für die Sozialwissenschaften, in: Soziale Welt 21/22, 1971b, S. 477-493.
ALLERBECK,
K. R., Datenverarbeitung in der empirischen Sozialforschung, Stuttgart
ALLERBECK,
1972. F. UND J. W. TUKEY, The Examination and Analysis of Residuals, in: Technometrics 5, 1963, S. 141-160.
ANSCOMBE,
ARMOR, D .
J.
UND A .
S.
COUCH,
The
DATATEXT
Primer, New York 1972.
S., The Methods of Sociology, in: R . BIERSTEDT (Hrsg.), A Design for Sociology: Scope, Objectives and Methods, The American Academy of Political and Social Science, Monograph 9, Philadelphia 1969, S. 86 -114.
COLEMAN, J .
5. Kapitel: Computerunterstützte Datenaufbereitung und Datenanalyse
18 7
(Hrsg.), BMD. Biomedical Computer Programs, Berkeley/Los Angeles 1967; 2. Auflage 1975.
DIXON, W . J .
DRAPER,
N. R.
UND H . SMITH,
Applied Regression Analysis, New York
1966.
L. A., A General Model for the Analysis of Surveys, in: American Journal of Sociology 77, 1972, S. 1035-1086.
GOODMAN,
General Nonmetric Technique for Finding the Smallest Coordinate Space for a Configuration of Points, in: Psychometrika 33, 1968, S. 469-506.
GUTTMAN, L . , A
HYMAN,H. H . ,
Secondary Analysis of Sample Surveys, New York 1972.
INTERUNIVERSITY CONSORTIUM FOR POLITICAL RESEARCH ( I C P R ) , O S I R I S
III
Vol. 1-5, Ann Arbor, Mich. 1973. F., Image Analysis, in: C. W . HARRIS (Hrsg.), Problems in Measuring Change, Madison 1963, S. 156- 166.
KAISER, H .
D., J . HÖHE UND K . RADEMACHER, TEXTPACK: A New Tool for Analysis of Free Response in Survey Research, in: S. DRAGHI UND E. MOCHMANN (Hrsg.), Computer Aided Content Analysis in the Social Sciences, Pisa 1976 (im Druck). KRUSKAL, J . B . , Multidimensional Scaling by Optimising Coodness of Fit to a Nonmetric Hypotheses, in: Psychometrika 29, 1964a, S. 1 - 27.
KLINGEMANN, H .
Nonmetric Multidimensional Scaling: Psychometrika 29, 1964b, S. 115-130.
KRUSKAL, J . B . ,
D. 1963.
LAWLEY,
L . UND
A. E.
MAXWELL,
A
Numerical Method, in:
Factor Analysis as a Statistical Method, London
C. J . BURKE, The Use and Misuse of the Chi-square Test, in: Psychological Bulletin 46, 1949, S. 433 -489.
LEWIS, D . UND
J. W., An Appraisal of Least Squares Programs for the Electronic Computer from the Point of View of the User, in: Journal of the American Statistical Association 62, 1967, S. 819-841.
LONGLEY,
F., Non-sampling Errors, in: International Encyclopedia of the Social Sciences, Bd. 5, New York 1968a, S. 113-132.
MOSTELLER,
F., Association and Estimation in Contingency Tables, in: Journal of the American Statistical Association 63, 1968b, S. 1-28.
MOSTELLER,
Data Analysis, Including Statistics, in: G . LINDZEY (Hrsg.), The Handbook of Social Psychology, Bd. 2 , Reading, Aufl. 1 9 6 8 , S. 8 0 - 2 0 3 .
MOSTELLER, F . UND J . W . TUKEY, UND E . ARONSON
Mass.
2.
Communication, in: BSA Mathematics and Computing Applications Group, Newsletter 8, 1972, S. 20- 21.
MUXWORTHY, D . T . ,
NIE, N. U.A., SPSS-Statistical Package for the Social Sciences, New York 2. Auflage 1975; deutsche Kurzfassung: SPSS — Statistik-Programmsystem fur die Sozialwissenschaften, Stuttgart 1976. SCHRÄDER,
A., Einführung in die empirische Sozialforschung, Stuttgart 1971.
H. C., Comment on Coleman's Paper, in: R . BIERSTEDT (Hrsg.), A Design for Sociology: Scope, Objectives and Methods, The American Academy of Political and Social Science, Monograph 9, Philadelphia 1969, S. 129-136.
SELVIN,
188
7. Band: Datemnalyse
A. STUART, Data-Dredging in Survey Analysis, in: The American Statistician 20, 1966, S. 20 -2S.
SELVIN, H . C . UND
R. N . , Analysis of Proximities: Multidimensional Scaling with an Unknown Distance Function, in: Psychometrika 27, 1962, S. 125-140 und S. 219-246.
SHEPARD,
SHEPARD,
R. N.
U.A.
J. UND J. Mich. 1964.
SONQUIST,
(Hrsg.), Multidimensional Scaling, New York 1972. N . MORGAN,
The Detection of Interaction Effects, Ann Arbor,
J. u. A. (Hrsg.), The Searching for Structure (ALIAS-AID III), Ann Arbor, Mich. 1971.
SONQUIST,
P. J. u. A., The General Inquirer: A Computer Approach to Content Analysis, Cambridge, Mass. 1966.
STONE,
STONE,
P. J., A Status Report on the General Inquirer, Cambridge, Mass. 1972.
R. H . , A Report on the Accuracy of some Widely Used Least Squares Computer Programs, in: Journal of the American Statistical Association 65, 1970, S. 549-565.
WAMPLER,
Namenregister
Abelson, R. A b t , C . 149,151 Ackennan, E. A. 45 Adolfsson, I. 51 Albrecht, G. 4 5 , 7 8 , 120,125 Alker, H. R. Jr. 79 Allerbeck, K. R. 1 7 0 - 1 8 6 Almond, G. 89 Anderson, O. 4 1 , 1 1 2 Anderson,T.W. 41 Anscombe, F. 181 Armor, D. J. 177 f. Aronson, E. 162 Back, K. 107 Baker, B. 0 . 41 Bales, K. 123 Barclay,G.W. 50 Barker, R. 126 Barton, A . H . 19,25 Bassie, V. 162 Bauer, R. 119 Bell, D. 117,149 Benninghaus, H. 12 Berelson, B. 128,140 Berger, C. 114 Bernoit-Guilbot, O. 123 Besozzi, C. 1 9 , 2 4 Betz, D. 25 Bickel, W. 46 Biehl, K. 90 Biervert, B. 2 8 , 1 2 8 Blalock, A. 111 Bialock, H. M. 2 5 , 3 2 , 91 f., 107, 111 Blanpain, H. 70 Blau, P.M. 101 Blumen,!. 128
Boeckh, R. 46 Bogue, D. J. 45 ff., 51 ff., 6 5 , 6 7 f., 128 Bohley, P. 100 Bolle, Th. 70 Bolte, K. M. 54 f. Bombach, G. 119 Borgatta, E. 42 Boudon, R. A. 3 2 , 3 7 , 79, 81 f., 85, 103 Boustedt, O. 66 Bowers, D. G. 123 Box, G. 111, 147, 154, 157, 161 Brewer, K. P. W. 49 Brinkmann, G. 127 Brown, R. 135, 141 f., 147, 152 f., 160 Burke, C. J. 185 Burne, D. 114,118 Burns, A. 144, 154 ff. Buttler, G. 3 1 , 4 5 - 7 1 , 185
Calot, G. 100 Campbell, D. T. 42, 123 ff. Cannell, Ch. 125 ff. Carismi th, J. 162 Carr-Saunders, A. M. 46 Cartwright, D. S. 97 Cattell, R. B. 12 f. Cawl, F. 129 Chambers,T. I l l , 148 ff., 157 Chandrasekaran, C. 49 Chenery, H. 117 Chetty, V. 136 Chiang, Ch. 137,161
Child, I. 122 Clauss, G. 37 Coates, J. 150 Cochran, W. 123 Coenen, E. 117 Cohen, J. Coleman, J. S. 26, 114 f., 170 Colm, G. 117 Converse, P. 114 Cook, S. 115, 121 ff. Cooley, W. W. 42 Coombs, C . H . 12 Couch, A. A. 177 f. Cuzzort, R. P. 2 0 , 7 2 , 8 5 Davis, B. 95 Davis, J. A. 40, 101 f. De Charms, R. 124 DeGrazia, S. 114 Deininger, R. 49 Deutsch, K.W. 106, 112 f. Deutsch, M. 115, 121 ff. Dierkes, M. 2 7 , 3 0 , 4 5 , 5 1 , 111-169 Dixon, W. J. 177 Doctor, K. C. 62 Dogan, M. 81 Dollase, R. 26 Doob, J. 136 Dornbusch, S. 124 Draper, N. R. 181 Dubin, R. 79 Dublin, L. D. 50 Dumont, A. 46 Duncan, B. 2 0 , 7 2 , 8 5 , 1 0 7 Duncan, O. D. 2 0 , 4 5 , 4 7 , 4 9 , 5 5 , 8 5 , 9 5 , 107, 132 Dürkheim, E. 8 1 , 9 6 , 114
190
Namenregister
Ebner, H. 37 Edwards, A. L. 37 Edwards, A. W. F. 43 Eisenstadt, S. 117 Eldridge, H. T. 66 Ennis, P. 163 Erbsloh, E. 126 Esser, H. 122,130 Evan, W. 121 f. 131 f. Evans, M. 114 Farr, W. 46 Featherman, D. L. 107 Feichtinger, G. 5 5 , 1 0 7 Fels, E. 106 Fennessey, J. 87 Festinger, L. 121,124, 126 Flaskamper, P. 46 ff. 54 ff., 65 Flieger, W. 74 Forrester, J. 135 Fourastie, J. 117 Fraisse,P. 114 Frank, P. W. 45 Fraser, J. F. 1 1 4 f . Freedman, R. 29 Gahlen, B. I l l Galtung, J. 10,38, 114 ff., 121 f., 124, 130 Gehlke, C. E. 90 Georgescu-Roegen, N. 148 Gerfin.H. 70, 111, 134, 158 Getzels, T. W. 123 Glass, D. 132 Gold, T. 113 Goldfarb, N. 1 1 1 , 1 1 6 , 1 2 1 , 123, 125 f., 128, 134, 138, 140,143 Goldhammer, H. 117 Goldstein, L. 146 Goodman, L. A. 33 ff., 96 ff., 180 Goody, T. 114 Gotkin, L. 146 Granger, C. 1 1 1 , 1 1 3 , 1 5 8 , 160 Grauman, J. V. 5 1 , 6 8 Graunt, J. 4 6 , 1 1 7 Greenberger, M. 74
Grenzdörfer, K. 59 Griesmeier, J. 50 Guttman, L. 180 Halley, E. 46 Hannan, M. T. 107,136, 160 Harder, Th. 79, 81, 103 ff. Hardyck, C. D. 41 Harland, H. P. 128 Harris,Ch. I l l Hawley, A. H. 4 5 , 5 5 , 6 6 Hauser, P. M. 4 5 , 4 7 , 4 9 , 107,132 Hays, W. L. 43 Heep, H. 49 Heiler, S. 160 Helten, E. 9, 16 f., 28, 136 Henkel, R.W. 31 Herberger, L. 4 9 , 5 7 , 6 1 , 64 Herkner, W. 125 Herz, T. A. 112 Höhe, J. 187 Höhmann, P. 9 - 4 1 , 5 0 , 134 Höhn, Ch. 69 Holm, K. 109 Holsti, O. 124 Hoover, E. 140 Horstmann, K. 4 8 , 5 5 , 65 f. Hoothakker, H. 165 Hübner, P. 109 Huber, H. 9 , 1 1 , 8 1 Hummell, H. J. 27, 106 f. Huson, C. 108 Hyman, H. H. 4 3 , 1 8 3 Hyrenius, H. 51 Iversen, G. 7 9 , 1 0 3 Jacoby, E. G. 58 Jahoda, M. 115, 121 ff. Jaffe, A. J. 50 Jahnke, G. 66 Janowitz, M. 124 Jenkins, G. 1 1 1 , 1 4 7 , 1 5 4 , 157 f., 160 f. Johnston, D. 119, 149 ff. Juster, T. 133 ff.
Kahn, R. 125 ff. Kaiser, H. F. 187 Kallmann, F. J. 45 Kaplan, A. 132,141 Katona, G. 122,125 Katz, D. 1 2 1 , 1 2 4 , 1 2 6 Kellerer, H. 111, 139 f., 142 f., 150, 153 ff. Kendall, D. G. 5 1 , 9 0 Kendall, M. 1 1 1 , 1 1 8 , 1 5 4 , 161 Kendall, P. 2 9 , 8 1 Keyfitz, N. 4 6 , 5 1 Kish, L. 43 Kitagawa, E. M. 50 Körösi, J. 46 Kimble, G. 123 Klingemann, H. D. 120,183 Kogan, M. 162 Koller, S. 49 Kondratieff, N. 117 Koolwijk, J. van 9 - 41, 50, 120, 134 Korbel, J. 74 Kreisberg, M. 124 Kreutz, H. 126 Kruskal, W. H. 33 ff. Kruskal, J. B. 180 Kummel, F. 114 Kuznets, S. 117 Ladd, E. 132 Lansing, J. 128 ff., 140 Larmon, E. E. 66 Lasswell, H. D. 110 Lawley, D. L. 181 Lazarsfeld, P. F. 11,29, 80 ff., 101,129, 130, 140 Lee, E. S. 65 Leigh, A. 117 Levenson, B. 127 f., 140 f. Lewis, D. 185 Lindzey, G. 114,118 Link, R. 117 Linke, W. 69 Lipset, S.M. 132 Lohnes, P. L. 42 Longley, J. W. 185 Lorimer, F. 46, 117 Lotka, A. J. 50 Lück, H. 15,126
Namenregister
McCarthy, P. 162 Maccoby, E. 129 Mackenroth, G. 45 ff., 60 McClelland, D. 118,124 McPhee, W. 162 Malthus, Th. R. 46 Mandelbaum, D. 123 Mannheim, K. 131 Markowitz, W. 114 Mason, R. I l l Maxwell, A. E. 181 Mayer, K. 46 Mayntz, R. 80 Meisner, B. 160 Menzel, H. 11, 80 f. Merritt, R. L. 106 Meyer, G. 166 Meyer, K. 59 Mitchell, W. 117,144 Mochmann, E. 120,125, 183 Moore, G. 120 Moore, W. E. 45, 118, 119,143,154 Morgan, J . N . 122, 128 ff., 140,181 Morris,R.N. 40 Morrison, D. E. 31 Mortara, G. 49 Mosteller, F. 170,174, 180 Mueller, G. 124 Miiller-Merbach, H. 146 ff. Mullick, S. 163 Mundlack, Y. 133 f. Muxworthy, D. T. 177 Neumann, C. 46 Neurath, P. 12 Newcomb, Th. 128, 132 Nie.N.H. 89,177 f. Niessen, H. J. 128 Notestein, F. W. 54 Nourney,M. 49 Novotny,H. 107 Nullau, B. 111,113, 153 ff.,
160 Olds, E. B. 106 Opp, K. D. 106 Orcutt, G. H. 4 5 , 5 1
Pappi, F. U. 11,20,45, 78 -107 Parker, G. 136,146, 149 f. Petrinovich, L. F. 41 Petty, W. 46 Pfanzagel, J. 4 4 , 4 7 , 58, 146 Pfeil, E. 132 Pool, I. de Sola 167 Powell, G. B. 89 Prais, S. 167 Prewitt, K. 89 Price, D. 78 Przeworski, A. 107 Quenouille, M. H. 167 Quetelet, A. 46 Rademacher, K. 187 Rainer, J. D. 45 Ramond, C. 123 Ranney, A. 78 Riley, M. 124 Rivlin, A. M. 74 Roberts, H. 112,135 f., 144 ff., 148 Robinson, W. S. 79,82, 84 ff., 93, 105 Rokkan, S. 81,106 Rosenberg, S. 167 Rothschild, K. 117, 134 ff., 142 ff., 148 ff. Rückert, G.-R. 59 Rüschemeyer, D. 64 Russett, B.M. 110 Ryder, N. 131 f. Sahner, H. 90 Salmon, D.W. 106 Schäffer, K. A. 48 Scheuch, E. K. 44, 64, 79 f., 89 Schmerkotte, H. 9 , 1 1 , 8 1 Schneider, L. 124 Schönfeld, P. 135 f., 145 Schräder, A. 185 Schubneil, H. 4 5 , 4 8 , 6 0 Schwarz, K. 50, 54, 57 ff., 66 ff. Schwidetzsky, I. 45 Scott, C. 49 Sears, D. 122
191
Seashore, S. E. 123 Segura, E. 136, 146, 149 f. Selvin, H. 31 f., 96 f., 170, 182 Sheldon, E. 119 Shepard, R. N. 180 Shiskin, T. 154 ff., 160 Shively, W. P. 9 3 , 9 9 Shryock, H. S. 66 Simon, H. 28, 116,123 Slatin, G. T. 93 f. Smith, D. 163 Smith, H. 181 Sonquist, J. 181 Sorokin, P. 114 Spaeth, J. L. 108 Spencer, H. 46 Spengler, J. J. 45 Sperling, H. 57 Spiegelman, M. 51 Spuhler, J. N. 45 Stanley, J. C. 42 Staubach, H. 66 Steiner, P. 143 ff., 153 ff. Stelzl, I. 1 9 , 2 9 , 4 7 , 1 2 4 Stinchcombe, A. L. 79 Stokes, D. F. 88,100 Stoll.W. 124 Stone, P. J. 183 Stouffer, S. 128 Stuart, A. 111,182 Stützel, W. 113 Sturm, M. 16,48 Süssmilch, J. P. 4 6 , 1 1 7 Szalai, A. 114 Taueber, I. 4 9 , 6 6 Taylor, C. L. 106 Telser, L. G. 99 ff. Theil, H. 106,114 Thomas, B. Thomlinson, R. 66 Thompson, W. S. 54 Thordike, E. L. 82 Timaeus, E. 47 Tintner, G., 106, 136 f., 154 ff., 160 Titscher, S. 126 Tukey, J.W. 170,181 Vajna, Th. 16,48 Valkonen, T. 79, 103
192
Namenregister
Verba, S. 89 Vroom, V. 123
Wallis, W. 112, 135 f., 144 ff., 148 Walter, A. Wampler, R. H. 185 Watts, D. 158,160 Weichselberger, K. 50 Weick, K. 1 1 4 , 1 1 8 , 1 2 3 Wermter, W. 73
Wetzel, W. 59 Whelpton, P. K. 5 0 , 5 8 , 67 Whittington, A. J. 49 Wiendieck, G. 126 Wilburg, G. Winkler, W. 46 Withey, S. 127 Witmer, E. 114 Wold, H. 154,157 Wolfe, H. 138, 149 f. Wright, J.
Yntema, L. 51 Young, P. 168 Yule, G. U. 90 Zapf, W. 111 Zehnpfennig, H. 19,24 Zeisel, H. 14,129 Zelditch, M. 41 Ziegler, R. 103 Zigler, E. 122 Zimmermann, H. 125 Zipf, G. K. 65
Sach Wortregister
Aggregatdaten 78 ff. Auswertung 12, 138 ff. Autokorrelation 135 Bevölkerungsdichte 54 Bevölkerungsprognose 51,67 ff. Bevölkerungsstatistik 45 Bevölkerungswanderung 65 ff. Chi-Quadrat 31 Datenanalysesystem 175 ff. Datenerhebung (bei Zeitreihen) 121 ff. Datenmatrix 10 ff., 171 Datenprüfung 174 ff. Datentransformation 181 Datenwürfel 12 f. Demographie 45 demographischer Übergang 54 Differenztest 27 ecological fallacy 79 ff. ECTA 181 Eigenschaftsraum 19 Einheit - der Analyse 10,171 - der Aussage 10,78,122 - der Erhebung 10,78 Erwerbsquote 62, 70 f. Expertenauswertung 149 ff. exponential smoothing 146 f. Extrapolation 150 ff. Fortschreibung 67 Geburtenhäufigkeit 53 Geburtenziffer 53, 57 ff. gleitender Durchschnitt 143 f. Gruppierungseffekt 22,90 ff.
Häufigkeitsdiagramm 21 Häufigkeitstabelle 20 Häufigkeitsverteilung 12 ff., 180 Heiratstafel 61 Indexbildung 24 f., 138 f., 171 Individualdaten 78 Kausal an alyse 27 Kohortenanalyse 50,131 ff. Komponentenanalyse 67, 153 ff. Kontextanalyse 94, 101 ff. Kontingenzkoeffizient 40 Kontigenztabelle 180 Kontrastgruppenanalyse 181 Korrelation 32 ff., 80 ff. Korrelationskoeffizient 34 ff., 40 Korrelationsverhältnis 84 Kovarianztheorem 84 Längsschnittuntersuchung bzw. Longitudinalstudien 27, 30, 50,66, 111 ff. Median 14 Mehrebenentheorem 89, 101 ff. Mehrfachklassifikation 14, 172 Merkmalsausprägung 12 Merkmalsdimension 11 Merkmalsträger 10 Merkmalstypologie 80 Meßniveau 15,33,81 Mikrozensus 49 missing values 172 f. Mittelwert 14 f. Modus 15 Multikollinearität 92, 133 f., 136 multiple time series 123 ökologischer Fehlschluß 79 ff.
194
Sachwortregister
Panelstudie 122,127 ff. Periodendiagramm 157 Perzentil 15 Phi-Koeffizient 36 Produkt-Moment-Koeffizient 34 Prozentzahl 14 Punktdiagramm 1 8 , 2 2 Q-Technik 12 Quantifizierung 9 ff., 13 Querschnittsanalyse 2 9 , 1 2 0 , 1 3 3 ff. R-Technik 12 Rangkorrelationskoeffizient 37 f. Regressionsanalyse 145 f. Regressionseffekt 30 f. Repräsentativerhebung 48 Retrospektivinterview 125 ff. Scheinkorrelation 28 f., 89 Sektorzerlegung 19, 23 ff. Sekundäranalyse 120 ff. serial correlation 135 Sexualproportion 56 Soziometrie 26 f. Spektralanalyse 158 Standardabweichung 16 Sterbetafel 59 Sterbeziffer 53, 57 ff. Streuungsmaß 16 Subgruppenanalyse 23 f., 29
Trend 154 f. Trendberechnung 142 ff. Trendprojektion 150 ff. Trendstudie 122
Übergangstabelle 27, 140 Untersuchungseinheit 10 f., 171
Variable 11 f. Varianz 16 Veränderungsraten 51 ff., 138 ff., 148 Vergleichbarkeit (von Meßreihen) 28 Verhaltensprognose 95 ff. Verteilungen Beschreibung von 1 8 - 2 3 Vergleich von - 2 7 - 3 2 Vierfeldertafel 18 ff., 36 Volkszählung 48 f.
Wachstumsrate 51 Wiederholungsinterview 122 f. Wohnbevölkerung 4 8 , 6 8 ff.
z-Transformation 17 Zeitmessung 113 ff. Zeitpunkterhebung 121 Zeitreihenzerlegung 153 ff.
Erhard Oeser
Wissenschaft und Information Systematische Grundlagen einer Theorie der Wissenschaftsentwicklung Reihe: Scientia Nova Mit dem vierbändigen Werk Oesers wird eine neue Entwicklungsphase der Wissenschaftstheorie eingeleitet. In enger Verbindung mit der empirischen Wissenschaftsforschung wird gezeigt, daß die Wissenschaft einem sich durch die Anwendung moderner Kommunikationsmittel ständig beschleunigenden Veränderungsprozeß unterliegt und als ein Informationssystem anzusehen ist, das durch einen der biologischen Evolution weitgehend ähnlichen, internen Entwicklungsmechanismus bestimmt wird. Band 1 Wissenschaftstheorie und empirische Wissenschaftsforschung 1976. 158 Seiten, DM 2 1 Band 2 Erkenntnis als Informationsprozeß 1976. 144 Seiten, DM 2 1 , Band 3 Struktur und Dynamik erfahrungswissenschaftlicher Systeme 1976. 160 Seiten, DM 2 1 , Band 4 Wissenschaftstheorie als Rekonstruktion der Wissenschaftsgeschichte In Vorbereitung
R.OIdenbourg Verlag München
Statistik in der Praxis
Oldenbourg
Helmuth Späth Cluster-Analyse-Algorithmen zur Objektklassifizierung und Datenreduktion 1975. 217 Seiten, 21 F O R T R A N - S u b r o u t i n e n , 15 Hauptprogramme, 36 Ergebnistafeln, 13 Tabellen, 48 Abbildungen, DM 64,Fallstudien Cluster-Analyse Herausgegeben von Helmuth Späth 1977. ca. 210 Seiten, ca. D M 4 0 , -
Heinrich Schwarz Stichprobenverfahren E i n Leitfaden zur Anwendung statistischer Schätzverfahren 1975. 194 Seiten, 2 3 Abbildungen, 22 Tabellen, D M 29,50 Manfred Reinfeldt / Ulrich Tränkle Signifikanztabellen statistischer Testverteilungen Binomial-, Poisson-, Normal-, x 2 - , t-, r-Tabellen, F-Tabellen für acht Signifikanzniveaus 1976. 151 Seiten, D M 4 4 , -
R.OIdenbourg Verlag München