227 44 46MB
German Pages 490 [492] Year 2000
Multivariate Statistische Methoden und ihre Anwendung in den Wirtschafts- und Sozialwissenschaften
Von
Prof. Dr. Hans Peter Litz Carl von Ossietzky Universität Oldenburg
R.Oldenbourg Verlag München Wien
Die Deutsche Bibliothek - CIP-Einheitsaufnahme Litz, Hans Peter: Multivariate statistische Methoden und ihre Anwendung in den Wirtschafts- und Sozialwissenschaften / von Hans Peter Litz. - München ; Wien : Oldenbourg, 2000 ISBN 3-486-24885-5
© 2 0 0 0 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0, Internet: http://www.oldenbourg.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Gedruckt auf säure- und chlorfreiem Papier Druck: Grafik + Druck, München Bindung: R. Oldenbourg Graphische Betriebe Binderei GmbH ISBN 3-486-24885-5
Vorwort
V
Vorwort Mit den
multivariaten statistischen Methoden werden die ein- und die zweidimensionale
statistische Deskription und Analyse auf mehrdimensionale Aufgabenstellungen ausgeweitet. Der Text knüpft deshalb sowohl inhaltlich als auch formal am Methodenkanon
des
wirtschafts- und sozialwissenschaftlichen Grundstudiums an. Weit mehr als für die uni- und bivariate Statistik ist es für die multivariate notwendig, ihren Stellenwert im empirischstatistischen Forschungsprozeß deutlich zu machen. Die Betonung des Anwendungsbezugs im Titel dieser Methodenlehre hat deshalb nicht nur eine didaktische Bedeutung sondern auch eine programmatische. Eine Erläuterung der Methoden anhand konstruierter Daten oder ein Bezug auf disparate Anwendungsfälle in der Literatur sind m.E. weder besonders gut geeignet, die faktische Komplexität empirischer Forschung zu vermitteln, noch können sie die Neugierde des Lesers auf einen inhaltlichen Erkenntnisgewinn mittels der vorgestellten Methoden wecken. Die im Text verwendeten (kursiv gesetzten) Beispiele folgen einer parallelen Entwicklung von formal-statistischer Methodik und inhaltlicher Fragestellung.
Anhand eines konkreten Datensatzes mit etwa 40 Variablen und ca. 300 Fällen, der einer Befragung der Mitarbeiter
eines Industriebetriebs
zu
den Dimensionen
betrieblicher
Entscheidungsprozesse und zu ihrer Partizipation entstammt, läßt sich sowohl die Relevanz eines,
wenn
auch
Methodeneinsatz
hier
wie
notgedrungenerweise
die Relevanz
eines
rudimentären
Theorierahmens
fundierten Methodenverständnisses
für den für die
Interpretation der Ergebnisse besser veranschaulichen. Dabei wird, so hoffe ich, sowohl die sich wechselseitig bedingende Komplexität von Theorie, Gegenstand und Methode, wie die Notwendigkeit einer multimethodalen Vorgehensweise in der empirischen Analyse deutlich. Ein
Anwendungsbezug,
der
dem
Methodeneinsatz
im
konkreten
empirischen
Forschungsprozeß möglichst nahekommen möchte, macht sowohl die Vermittlung der formalen, mathematisch-statistischen Struktur der multivariaten Algorithmen als auch die logisch-begriffliche Struktur des Objektbereiches notwendig. Hinter diesem didaktischen Konzept
steht
die
Idealvorstellung
eines
wirtschafts-
bzw.
sozialwissenschaftlichen
Fachwissenschaftlers mit einer statistisch-methodischen Kompetenz, die es ihm ermöglicht, sein Datenmaterial ohne einen „Statistikexperten" selbst zu analysieren und die Ergebnisse der Analyse selbst zu interpretieren. Dies bedeutete, keine
Programmpaket-orientierte
Rezeptbuchsammlung anzustreben, sondern eine Methodendarstellung, die es einerseits erlaubt, die formal-logische Struktur der statistischen Verfahren nachzuvollziehen, deren mathematischer und formaler Anspruch andererseits aber so gering wie möglich gehalten wird. Mathematische Ableitungen beschränken sich meist auf die einfacheren statistischen Verfahren. Ihre Ergebnisse werden dann im Analogieschluß auf komplexere Ansätze
VI
Vorwort
übertragen. Matrizenkalküle werden deshalb auch erst in der zweiten Hälfte eingesetzt und weiterhin von der einfachen algebraischen Schreibweise von Gleichungen begleitet. Die algorithmische Komplexität des statistischen Modell und die inhaltliche Komplexität der empirischen
Forschung
kontrastieren erfreulicherweise mit der inzwischen
Einfachheit des edv-gestützten, menue-gesteuerten
erreichten
Methodeneinsatzes, so daß es der
technische Aspekt zuletzt ist, der eine angemessene und vielseitige Verwendung multivariater statischer Verfahren be- oder verhindert. Alle Beispiele sind mit SPSS für Windows, Version 8.0 (u.U. auch noch 6.1.3) durchgeführt. Z.T. werden die Verfahren in verschiedene Varianten gerechnet. Die Outputs werden möglichst komplett wiedergegeben und interpretiert. Bei Bedarf wird die Befehlssyntax angegeben. Die
zunehmende
Kommunikation
Verbreitung
des
Internets
eröffnet
vielfältige
Möglichkeiten
zwischen Leser und Autor. Vollständige Ausdrucke der
der
Ergebnisse,
ergänzende Materialien und textliche Erweiterungen sowie die sicherlich notwendig werdende Fehlerliste finden sich deshalb unter: http://www.uni-oldenburg.de/vwl2/litz. Dieser Text
basiert auf einem Skript, das den Veranstaltungen
des Verfassers zur
multivariaten Statistik für Studierende sozial- und wirtschaftswissenschaftlicher Studiengänge in den letzten Jahren zugrunde lag. Im Verlauf der Zeit wurde es nicht zuletzt auf Anregungen und Kritik der Teilnehmer und der betreuenden Tutoren Zug um Zug vertieft und ausgeweitet. Allen die auf diese Weise an der Entstehung des Textes beteiligt waren, möchte ich dafür meinen Dank ausdrücken. Herrn Mag. Soz. Dubravko Dolic, Herrn Dipl. Soz. Michael Redenius und Herrn Dipl.Oek. Martin Wehmeyer verdanke ich die Anfertigung der Graphiken und die Edition der SPSS-Ausdrucke. Zu besonderem Dank bin ich Frau Christiane Seier verpflichtet, ohne die das Lehrbuch vermutlich nicht entstanden wäre. Sie hat über Jahre hinweg die verschiedenen
Versionen des schwierigen Textes mit
großer
Kompetenz, Geduld und Sorgfalt erstellt und in die gültige Form gebracht. In der Schlußphase wurde sie dabei von Herrn cand.soz. Henning Skiorz und Herrn Dipl.Oek. Martin Wehmeyer unterstützt. Herrn Martin Weigert und dem Oldenbourg-Verlag danke ich für ihre Bereitschaft, auch die „Multivariate Statistik" in ihr Sortiment aufzunehmen. Die Leser bitte ich um Nachsicht (und Nachricht) bei eventuellen sachlichen und redaktionellen Fehlern. Hans Peter Litz
Inhaltsverzeichnis
VII
Inhaltsverzeichnis 0
Einleitung
1
0.1
Die Datenbasis des empirisch-statistischen Forschungsprozesses
1
0.2
Chronologische und logische Strukturen des empirisch-statistischen For- 4 schungsprozesses
0.3
Die algorithmische Struktur der behandelten multivariaten Methoden
8
1
Das einfache lineare Regressions- und Korrelationsmodell
16
1.1
Die Regressionsmodelle der Grundgesamtheit und der Stichprobe
16
1.2
Das Korrelationsmodell der Grundgesamtheit und der Stichprobe
25
1.3
Regression und Korrelation bei standardisierten Variablen
32
1.4
Regression u. Korrelation bei einer dichotomen unabhängigen Variablen
33
1.5
Nicht-lineare Regressions-und Korrelationsanalyse
37
2
Inferenzstatistik im einfachen linearen Regressions- und Korrelationsmodell
44
Die Stichprobenverteilungen der Koeffizienten a, b und Su
44
2.1.1
Erwartungswerte und Varianzen der Koeffizienten
45
2.1.2
Die Verteilungen der Parameter a und b
50
2.2
Test- und Schätzverfahren bei der einfachen linearen Regression
54
2.2.1
Hypothesentests für A und B
54
2.2.2
Konfidenzintervalle für A und B
58
2.2.3
Das Konfidenzintervall für die Regressionsfunktion der GG
60
2.2.4
Das Konfidenzintervall für die Vorhersagewerte Xj
64
2.3
Hypothesentests bei der Korrelationsanalyse
66
2.1
2.3.1
Stichprobenverteilung und Hypothesentest für den Korrelationskoeffizi- 66 enten
2.3.2
Fischer's Z-Transformation
70
2.3.3
Der Likelihood-Quotiententest
73
3
Partielle Regressions- und Korrelationsanalyse
77
3.1
Von der bivariaten zur multiplen Analyse
77
VIII 3.2
Inhaltsverzeichnis
Einfache partielle Korrelation und Regression bei standardisierten Variablen
81
3.3
Einfache partielle Korrelation und Regression bei nicht-standardisierten Variablen
82
3.4
Mehrfache (multiple) partielle Korrelation
83
3.5
Semipartielle Korrelation und Regression
85
3.6
Statistische Inferenz im partiellen Regressions- und Korrelationsmodell
86
3.7
Beispiele zur partiellen Regression und Korrelation
87
4
Multiple Regressions- und Korrelationsanalyse
92
4.1
Das Regressionsmodell in der Stichprobe und in der Grundgesamtheit
92
4.2
Das Korrelationsmodell der Stichprobe und der Grundgesamtheit
97
4.3
Zur Strategie der multiplen Regressions- und Korrelationsanalyse
99
4.4
Statistische Inferenz bei der multiplen Regression und Korrelation
101
4.4.1
Konfidenzschätzung der partiellen Regressionskoeffizienten und Multikollinearität
101
4.4.2
Test der Korrelationskoeffizienten
104
4.5
Anwendungsbeispiele zur multiplen Regression und Korrelation
109
4.5.1
Der blockweise Ansatz
109
4.5.2
Der schrittweise Ansatz
115
4.5.3
Der hierarchische Ansatz
119
5
Die Varianz-/Kovarianzanalyse
122
5.1
Einführung in die Problemstellung
122
5.2
Die einfaktorielle Varianzanalyse
123
5.2.1
Graphische und tabellarische Darstellung
123
5.2.2
Das varianzanalytische Modell der GG
124
5.2.3
Korrelationsanalytische Aspekte der Varianzanalyse
127
5.2.4
Regressionsanalytische Aspekte der Varianzanalyse
128
5.2.5
Beispiel zur einfaktoriellen Varianzanalyse
132
5.3
Die mehrfaktorielle Varianzanalyse
136
5.3.1
Der experimentelle Ansatz
136
5.3.2
Der Stichproben-Ansatz
142
5.3.3
Beispiele zur mehrfaktoriellen Varianzanalyse und zur multiplen Klassi-
5.4
fikationsanal yse
142
Die Kovarianzanalyse
147
Inhaltsverzeichnis
IX
5.4.1
Der klassische Ansatz
147
5.4.2
Die Kovarianzanalyse als Regressionsanalyse
150
5.4.3
Exkurs: SPSS-Ansatz zur Trennung von Haupt- und Nebeneffekten in der Varianz-/Kovarianzanalyse
153
5.4.4
Beispiele zur Kovarianzanalyse
158
6
Die loglinearen Analyseansätze
163
6.1
Einführung in die Problemstellung
163
6.2
Regression und Korrelation bei einer dichotomen abhängigen Variablen (Probit-, Logit- und logistische Regressionsanalyse)
164
6.2.1
Entwicklung des Modellansatzes
164
6.2.2
Die Modellvarianten
166
6.2.3
Interpretation der Ergebnisse
171
6.2.4
Modellgüte und Hypothesentests
173
6.2.5
Beispielsrechnung zur Probit- und Logit-Analyse und zur logistischen Regression
178
6.2.6
Multiple Regressionsmodelle für dichotome abhängige Variablen
182
6.3
Das Loglineare Modell
184
6.3.1
Die Grundstruktur des zweidimensionalen loglinearen Modells
184
6.3.2
Die Schätzung der Modellkomponenten nach der Maximum-LikelihoodMethode
188
6.3.3
Interpretation und Bewertung der Ergebnisse
192
6.3.4
Das hierarchische loglineare Modell
194
6.3.5
Beispiele zum einfachen und multiplen loglinearen Modell
197
6.3.6
Das allgemeine loglineare Modell
204
6.3.7
Das Logit-Loglineare Modell
210
6.3.8
Loglineare Modelle für ordinale Daten
216
7
Das Allgemeine Lineare Modell
221
7.1
Die Bedeutung des Allgemeinen LinearenModells
221
7.2
Spezifikationsaspekte des Allgemeinen Linearen Modells
222
7.3
Die Modellvarianten
226
7.3.1
Die Vier-Felder-Kontingenztabelle
226
7.3.2
Die punkt-biseriale Korrelation
227
7.3.3
Der t-Test auf die Differenz zweier Mittelwerte
228
7.3.4
Die lineare Regression und Korrelation
228
X
Inhaltsverzeichnis
7.3.5
Die ein- und mehrfaktorielle Varianzanalyse
229
7.3.6
Die Kovarianzanalyse (saturiertes Modell)
230
7.3.7
Das verallgemeinerte Linear Modell
232
7.4
Multivariate Erweiterungen des ALM
234
7.4.1
Empirische uund methodische Aspekte des Multivariaten Linearen Mo- 234 dells
7.4.2
Exkurs: Algebraische und matrixalgebraische Aspekte des Multivariaten Linearen
Modells - Linearkombinationen
von Variablen
und
ihre
Schreibweise
237
7.4.3
Fundamentale konstruktive Aspekte des Multivariaten Linearen Modells
244
7.4.4
Korrelationsanalytische und inferenzstatistische Aspekte des Multivariaten Linearen Modells
250
7.4.5
Anwendungsbeispiele zum Multivariaten Linearen Modell
254
8.
Die Kanonische Korrelation
257
8.1
Einführung in die Problemstellung
257
8.2
Das kanonische Korrelationsmodell in Matrixdarstellung
260
8.3
Die statistische Signifikanz der kanonischen Korrelation
263
8.4
Die empirische Relevanz der kanonischen Korrelationen
265
8.4.1
Struktur-und Redundanzmatrizen
265
8.4.2
Die Extraktionsmaße
267
8.4.3
Die Redundanzmaße
270
8.4.4
Zusammenhänge zwischen Extraktions-und Redundanzmaßen
271
8.5
Anwendungsbeispiel zur kanonischen Korrelation
273
9
Die Faktorenanalyse
284
9.1
Einführung in die Problemstellung
284
9.2
Die Hauptkomponentenanalyse
286
9.2.1
Der Modellansatz
286
9.2.2
Der Algorithmus zur Bestimmung der Faktorgewichte
291
9.2.3
Das Eigenwertkriterium: statistische Signifikanz der Ausgangsvariablen
293
9.2.4
Die Image-Analyse: statistische Relevanz der Ausgangsvariablen
296
9.2.5
Der Scree-Test: empirische Relevanz der Faktoren
297
9.2.6
Erklärung der Variablen aus den Faktoren
298
9.2.7
Die empirische Interpretation der Faktoren anhand eines Beispiels
300
9.3
Die Faktorrotation
304
Inhaltsverzeichnis
XI
9.3.1
Die geometrische Darstellung von Faktoren und Variablen
304
9.3.2
Das Konzept der Faktorrotation
308
9.3.3
Die Rotationsalgorithmen
310
9.3.4
Die Verfahren der orthogonalen Rotation
314
9.3.5
Die Verfahren der schiefwinkeligen Rotation
316
9.3.6
Beispiele zur Faktorrotation im Hauptkomponentenansatz
319
9.4
Das Modell der gemeinsamen Faktoren
325
9.4.1
Das theoretische Modell der Grundgesamtheit
326
9.4.2
Die Bestimmung der Faktoren nach der Hauptachsenmethode
330
9.4.3
Die Bestimmung der Faktoren nach der Maximum-Likelihood-Methode
334
9.4.4
Alternative Verfahren zur Schätzung der Faktorladungen
339
9.4.5
Schätzung der Faktorenwerte
342
9.4.6
Beispiel zum Modell der gemeinsamen Faktoren
343
10
Die Diskriminanzanalyse
351
10.1
Einführung in die Problemstellung
351
10.2
Die einfache Diskriminanzanalyse
353
10.2.1
Die Diskriminanzfunktion der einfachen Diskriminanzanalyse
353
10.2.2
Ein Algorithmus zur Lösung des einfachen Diskriminanzproblems
355
10.2.3
Ergebnisse und Beispiele zur einfachen Diskriminanzanalyse
358
10.3
Die mehrfache Diskriminanzanalyse
365
10.3.1
Das Konzept der multiplen Diskriminanzanalyse
365
10.3.2
Die Matrixdarstellung der multiplen Diskriminanzanalyse
367
10.3.3
Die multiple Diskriminanzanalyse als kanonische Korrelationsanalyse
370
10.4
Diskriminanzanalytische Klassifikationsverfahren
370
10.5
Anlage und Ergebnisse der mehrfachen Diskriminanzanalyse
373
10.6
Beispiele zur mehrfachen Diskriminanzanalyse
376
11
Die Clusteranalyse
384
11.1
Einführung in die Problemstellung
384
11.2
Messung der Ähnlichkeit bzw. Distanz von Objekten
389
11.2.1
Die Quantifizierung der Distanz in einem nominalskalierten Datensatz
389
11.2.2
Die Quantifizierung der Distanz in einem metrisch-skalierten Datensatz
394
11.3
Die Zusammenfassung von Objekten zu Clustern
401
11.3.1
Distanzmatrix und hierarchische Clusteranalyse
401
11.3.2
Die Methode des „nächsten Nachbarn"
403
XII
Inhaltsverzeichnis
11.3.3
Die Methode des „entferntesten Nachbarn"
406
11.3.4
Clusterbildung auf der Basis durchschnittlicher Distanzen
408
11.3.5
Clusterbildung auf der Basis von Distanzen zwischen Durchschnitten
410
11.3.6
Clusterbildung nach der Ward-Methode
414
11.4
Die K-Means-Clusteranalyse
417
11.4.1
Der K-Means-Ansatz
417
11.4.2
Die Ermittlung der Clusterzentren und die Regruppierung der Fälle
418
11.4.3
Beurteilungskriterien und Strategien zur Clusterlösung
419
11.5
Beispielsrechnungen zur Clusteranalyse
420
12
Die Multidimensionale Skalierung
427
12.1
Einführung in die Problemstellung
427
12.2
Die Klassische Multidimensionale Skalierung (CMDS)
429
12.2.1
Die Lösungsansatz der CMDS
429
12.2.2
Anpassungsmaße der CMDS
433
12.2.3
Nichtmetrische klassische Multidimensionale Skalierung
438
12.3
Replizierte und gewichtete Multidimensionale Skalierung
442
12.4
Beispiele zur klassischen und gewichteten MDS
450
12.4.1
Klassische multidimensionale Skalierung mit SPSS
450
12.4.2
Gewichtete multidimensionale Skalierung mit SPSS
454
Anhang 1 Grundauszählung der Variablen
460
Anhang 2 Bereitstellung weiterer Informationen und Arbeitsmaterialien
464
Literaturverzeichnis
465
Stichwortverzeichnis
469
Einleitung
1
Einleitung 0.1
Die Datenbasis des empirisch-statistischen Forschungsprozesses
1. Mit dem fast schon selbstverständlichen Einsatz von EDV-gestützten statistischen Analyseprogrammen und der dementsprechenden elektronischen Erfassung von Auswertungsdaten ist der Einsatz multivariater statistischer Methoden wesentlich erleichtert worden. In den Programmpaketen wird im allgemeinen nicht zwischen den uni- bzw. bivariaten und den multivariaten Verfahren unterschieden. Der Begriff der multivariaten Statistik kommt dort oft noch nicht einmal explizit vor. Allerdings wird er auch in der Fachliteratur' nicht einheitlich verwendet (vgl. Kap. 7.1). Hier soll ein breites Verständnis des Begriffs zugrunde gelegt werden. Unter den multivariaten statistischen Verfahren verstehen wir deshalb ganz allgemein stochastische numerische Modelle zur Analyse von Interdependenzen in einer Menge von Variablen x\j.2--xk achtungen.
In
xj (j = 1 ... k)
den
Wirtschafts-
und
Sozialwissenschaften
sind
bei n die
Beob-
Variablen
Merkmale von Personen, Personengruppen (z.B. Haushalten) oder In-
stitutionen (z.B. Behörden, Unternehmen) und die Variablenwerte numerische Abbildungen von beobachteten Merkmalsausprägungen. Die Beobachtungen ergeben sich entweder als Messungen bzw. Beobachtungen im eigentlichen Sinn, als kodierte Antworten auf Interviewfragen oder als Ergebnisse statistischer Auszählungen. Die Gesamtheit der Beobachtungen bildet eine Datenmatrix X folgender Form:
Tabelle 0.1:
Datenmatrix Variablen x2
.... •
X11
xl2
•
x
x21
x22
•
X2V
X„1
x„2
X! 1
2
x
k
,k
Objekte
n
1
...
•
Xnk
Im folgenden sei auf einige Lehrbücher zur multivariaten Statistik hingewiesen, die als Ergänzung oder in Zweifelsfällen empfohlen werden: B a c k h a u s u.a. ( 1 9 9 6 ) , Bortz ( 1 9 9 3 ) , Fahrmeir u.a. ( 1 9 9 6 ) , Goldstein/Dillon ( 1 9 8 4 ) , Green ( 1 9 7 8 ) , H a i r u . a . ( 1 9 9 8 ) , Hartung/Elpelt ( 1 9 9 5 ) , Johnson/Wichern ( 1 9 9 2 ) und Morrison ( 1 9 7 6 ) .
Einleitung
Der Wert
xnk
stellt dabei die Merkmalsausprägung des Merkmals k für den Fall n
dar. Meinen wir die Merkmalsausprägung eines beliebigen Merkmals einer beliebigen Person, schreiben wir x¡j (i = 1... n).
3. Die formale Qualität der Daten ist in theoretischer Hinsicht 1 eine Frage der logischen Struktur der Eigenschaften der erfaßten Objekte, in der Praxis aber auch eine Frage der Differenziertheit der Beobachtungs- und Meßverfahren. Eine Nominalskala der Merkmalsausprägung ermöglicht nur die Feststellung gleicher oder ungleicher Merkmalsausprägungen. Die Abbildung der Merkmalsausprägungen, z.B. des Merkmals Familienstand in Zahlen (led. = 1, verh. = 2, gesch. = 3, verw. = 4) stellt zwischen den Zahlen keine numerischen Relationen etwa der Art „2 + 2 = 4" her. Eine Ordinalskala der Merkmalsprägungen erlaubt neben der Feststellung der Gleichheit bzw. Ungleichheit auch die Ordnung der Ausprägungen nach Intensitäten (z. B. Skala einer sozialen Schichtung). Auch hier ist eine Addition von Merkmalsausprägungen unzulässig. Die Intervallskala gestattet es zusätzlich, die Abstände zwischen den Merkmal sausprägungen exakt zu bestimmen. Jedoch fehlt der Skala ein sogenannter natürlicher Nullpunkt (Beispiel: Temperaturmessungen in Celsius, Geburtsdaten in Jahren unserer Zeitrechnung). Die Ratio- oder Verhältnisskala verfügt schließlich über einen absoluten Nullpunkt. Ihre Werte werden auch im Alltag direkt numerisch ausgedrückt (Beispiel: Gewicht, Einkommen, Entfernungen). Eine besondere Qualität weisen dichotome Merkmalsausprägungen auf. In den Kategorien „0" und „1" kodiert, werden sie auch als Dummy-Variablen bezeichnet. Diese meßtheoretisch nominalskalierten Daten können unter bestimmten Umständen statistisch wie metrische Variablen behandelt werden. Bei der statistischen Bearbeitung der Daten ist zu beachten, daß nicht alle multivariaten Analyseverfahren für beliebige Skalenqualitäten gültige Ergebnisse produzieren (vgl. dazu auch Tab 0.2 und 0.3). Bereits die Anwendung der Grundrechenarten bei der statistischen Bearbeitung der Daten setzt Verhältniszahlen voraus. In der Analysepraxis wird deshalb oft versucht, über die eigentlich nicht zulässige, rechnerische Zusammenfassung von ordinalskalierten Variablen zu sehr differenzierten Skalen zu kommen, für die metrische Relationen zwischen den Ausprägungen einfach unterstellt werden. Wie wir später sehen werden, stellt die Anwendung statistischer Verfahren, die eigentlich 1
Zur Darstellung der meßlheoretischen Grundlagen vgl. Orth (1974).
Einleitung
3
metrische Variablen voraussetzen, auf ordinalskalierte Daten den Versuch dar, zwei Hypothesen auf einmal zu prüfen, einmal die eines sachlogischen Zusammenhangs zwischen den Variablen und zum andern die einer latenten äquidistanten Struktur in der ordinalen Meßskala. Eine statistisch saubere Lösung wird durch die Möglichkeit eröffnet, dichotome Variablen in das lineare Regressionsmodell zu integrieren (vgl. Abschnitt 1.4). In Abschnitt 5.4 wird darüber hinaus ein Verfahren vorgestellt, beliebige nominal- (und ordinal-) skalierte Daten ohne Informationsverlust in diese Dummy-Variablen umzuwandeln. Dies ermöglicht die Integration einer Reihe von ursprünglich für nicht-metrische Variablen entwickelten Analysemethoden in das sogenannte Allgemeine Lineare Modell (vgl. Kap. 7).
4. Die inhaltliche Qualität der Daten ist eine Frage der Adäquatheit, mit der die oft komplexen, gesellschaftlichen Sachverhalte in den meist recht einfachen Merkmalen wiedergegeben werden. Statistische Daten bilden naturgemäß gesellschaftliche Realität mittels weniger Merkmale ab. Die Datenmatrix stellt demnach ein äußerst beschränktes numerisches Modell wirtschaftlicher bzw. sozialer Realität dar. Die Tauglichkeit dieses Modells bemißt sich nicht daran, wieviele Aspekte gesellschaftlicher Realität eingefangen werden, sondern danach, ob die zur Lösung eines praktischen Problems oder zur Bearbeitung einer wissenschaftlichen Fragestellung notwendigen Dimensionen erfaßt sind. Wie etwa bei der experimentellen Arbeit mit dem Strömungsmodell eines Flugkörpers kommt es für die Fruchtbarkeit der Arbeit mit einem statistischen Modell nicht nur darauf an, daß die relevanten Merkmale der Realität im Modell adäquat abgebildet werden, sondern auch darauf, daß die Arbeit mit dem Modell problemorientiert und objektgerecht durchgeführt wird. Der Begriff „objektgerecht" bedeutet, daß alle Informationen, die auf theoretischer und empirischer Ebene, einschließlich der auszuwertenden Erhebung, über die Objekte und ihre inneren Zusammenhänge zur Verfügung stehen, im Analyseansatz berücksichtigt werden müssen. Die Bearbeitung großer Datenmengen mit weitgehend vorprogrammierten statistischen Analysesystemen beinhaltet die Gefahr, alle Programmteile quasi automatisch durchlaufen zu lassen und dann die Ergebnisse auf konkrete empirische Aussagen mehr oder weniger voluntaristisch hininterpretieren zu müssen. Diese Gefahr besteht vor allem dann, wenn für die statistische Datenanalyse sogenannte Statistikexperten hinzugezogen werden, die zwar mit den statistischen Verfahren und den Programmpaketen umgehen können, jedoch von den zu untersuchenden wirtschaftlichen und sozialen Sachverhalten nur ein laienhaftes Verständnis haben, und umgekehrt, wenn die wirtschafts- und sozialwissenschaftlichen Forscher die statistischen Prozeduren nur vage durchschauen.
4
Einleitung
0 . 2 . C h r o n o l o g i s c h e und logische Strukturen des empirisch-statistischen Forschungsprozesses
1. Die konkrete Arbeit mit den multivariaten statistischen Methoden ist i. a. eingebettet in einen größeren Kontext wissenschaftlicher Analyse, den empirisch-statistischen Forschungsprozeß.
Dieser
Prozeß
durchläuft
verschiedene
Phasen,
deren
chronologische Abfolge in Abb. 0.1 skizziert sind.1 Ein angemessener Einsatz des statistischen Analyseinstrumentariums setzt einmal voraus, daß die statistische Analyse als Teil eines Gesamtprozesses verstanden wird und daß die statistische Komponente auf die anderen, z.B. auf das Erhebungsverfahren, abgestimmt wird. Ein angemessener Einsatz setzt aber auch voraus, daß er sich den erkenntnistheoretischen
und
forschungslogischen Strukturen des Gesamtprozesses unterwirft. Im folgenden sollen die wesentlichen Dimensionen und die logischen Aspekte des in Abb. 0.1 dargestellten Gesamtprozesses herausgearbeitet und in ihrer Bedeutung
für die Anwendung
multivariater Methoden nahegebracht werden.2
2.
Zu
den
erkenntnistheoretischen
Grundlagen
des
empirisch-statistischen
Forschungsprozesses gehört die Einsicht, daß jede Wahrnehmung gesellschaftlicher Realität, auch die wissenschaftliche, durch einen dreifachen Selektionsprozeß gesteuert ist: durch die selektive Zuwendung, die selektive Wahrnehmung und die selektive Verarbeitung des Wahrgenommenen. Im Alltag werden diese Prozesse durch unsere, uns bewußte oder unbewußte Vorerfahrung gelenkt. Im Falle wissenschaftlicher Forschung
sind
Vorerfahrung,
diese
d.h.
Selektionsprozesse
aufgrund der zu
aufgrund
den jeweiligen
unserer
wissenschaftlichen
Sachverhalten
relevanten
Hypothesen und Theorien bewußt zu gestalten. Diese Theorien und Hypothesen bestehen aus Begriffen unterschiedlicher Wahrnehmbaren
und
aus
kausalen
Nähe zum jeweils konkret
Verknüpfungen
zwischen
den
empirisch begrifflich
abgebildeten Sachverhalten.
3. Welchen konkreten Anlaß empirische Forschung auch haben mag, ihr erster und alles weitere
lenkender
Schritt
besteht
in
der
Erarbeitung
eines
theoretischen
Bezugrahmens. Wie wir sehen werden, gilt dieses Primat der Theorie für den gesamten Forschungsprozeß. 1 Eine ausführliche Darstellung des empirisch-statistischen Forschungsprozesses und seiner logischen Struktur findet sich in: Litz (1998) S. 10 ff. 2 Zu den theoretischen und empirischen Aspekten vgl. insbesondere die Lehrbücher zu den Methoden der empirischen Sozialforschung oder der Marktforschung, z.B. Atteslander (1995), Berekoven u.a. (1991), Friedrichs (1990) und Schnell u.a. (1988).
Einleitung
5
Abbildung 0.1: Phasen des empirisch-statistischen Forschungsprozesses
'£3 O
U'-B o c 4) o
-gw
6
Einleitung
Wenn wir unser Untersuchungsobjekt und dessen Handeln gedanklich vorstrukturieren, rekonstruieren wir die Realität durch Begriffe, Hypothesen und Theorien auf sehr hohem Abstraktionsniveau. Diese theoretisch entworfene Welt muß mit der real beobachtbaren in der Empirie konfrontiert werden, um sie entweder zu konkretisieren bzw. auszudifferenzieren oder zu falsifizieren. Dazu müssen die theoretischen Begriffe zuerst definiert und dann in solche der Beobachtungssprache überführt werden.
4. Dieser Prozeß der Operationalisierung ist ein Vorgang der logischen, begrifflichen Ableitung der konkret beobachtbaren Indikatoren oder abfragbaren Einstellungen, die etwa die abstrakte Eigenschaft „kooperativer Führungsstil" oder „Partizipationsbereitschaft" einer im Kontext betrieblicher Entscheidungsprozesse handelnden Person ausmachen. Das Spannungsverhältnis zwischen den abstrakten Konstruktionen der Theorie und den konkreten Beobachtungsbegriffen der Empirie konstituiert die vertikale Dimension der logischen Struktur des empirischen Forschungsprozesses (vgl. Abb. 02). In Anlehnung an Max Webers Begriff des Idealtypus kann diese Phase des Forschungsprozesses als Adäquation bezeichnet werden.
5. Mit dem nächsten Schritt in diesem Prozeß eröffnet sich die zweite (horizontale) Dimension seiner Logik: Im Kodieren oder Messen wird die Gesamtheit der in Beobachtungstermini ausgedrückten relevanten Relationen zwischen den Forschungsobjekten, das sog. empirische Relativ, eindeutig in ein in der Datenmatrix repräsentiertes numerisches Relativ abgebildet. Diese Transformation des Forschungsgegenstandes von einem Aggregatzustand, dem verbalen, in einen anderen, den numerischen, findet auf der konkreten Ebene statt. Dabei sind, um die Äquivalenz der beiden Konstrukte zu gewährleisten, die in Abschnitt 0.1 dargelegten meß-theoretischen Aspekte zu beachten.
6. So wie auf der sprachlichen Ebene Beobachtungstermini unmittelbar wahrnehmbare Erscheinungen und abstrakte Begriffe komplexe gesellschaftliche Sachverhalte bezeichnen, so bilden auf der numerischen die statistische Datenmatrix die beobachtbare Realität konkret und die statistischen Maßzahlen (z. B. Mittelwerte, Varianzen, Regressionsfunktionen, Faktoren, Cluster) die komplexe Realität abstrakt ab. Die statistische Analyse, als nächste Phase des Forschungsprozesses, ist deshalb logisch betrachtet ein Abstraktionsprozeß, in dem die Zusammenhänge in den Daten, von allen individuellen
Einleitung
7
Zufälligkeiten bereinigt, in statistischen Aggregaten und Koeffizienten ausgedrückt werden. Dieser Prozeß unterliegt zwei methodischen Prämissen: der formalen Adäquanz von Skalenniveau und rechnerischer Transformation der Daten und der inhaltlichen Adäquanz von parametrischer Struktur des statistischen Modells und kausaler Struktur des theoretischen Modells einschließlich der logischen Struktur des Operationalisierungsprozesses.
7. Mit der letzten Phase des Prozesses, der Interpretation der statistischen Ergebnisse, erfolgt die Rückübersetzung des numerischen Substrats unseres Forschungsgegenstandes in ein verbales Äquivalent und damit der Schluß des Zirkels. Mit der Interpretation der statistischen Konstrukte als theoretische sind wir wieder am Ausgangspunkt, dem theoretischen Bezugsrahmen des Gesamtprozesses angekommen.
8. Dieser ist, wie er in seinen verschiedenen Schritten in Abb. 0.1 skizziert wurde, ein zirkulärer Prozeß, bei dem der Forschungsgegenstand im Spannungsverhältnis seiner abstrakten vs. konkreten und verbalen vs. numerischen Darstellung einen Kreislauf über vier Positionen vollzieht (vgl. Abb. 0.2). Dabei werden die Zustandswechsel in der jeweils übernächsten Phase wieder rückgängig gemacht: Die verbale Deduktion von Beobachtungsbegriffen bei der Operationalisierung hat ihr Pendant in der statistischen Reduktion der individuellen Daten, die eindeutige Kodierung des empirischen im numerischen Relativ beim Messen wird durch die „eindeutige" Dekodierung des numerischen Subtrats im empirischen (theoretischen) Begriff beim Interpretieren aufgehoben. Die Gefahr dieses empirisch-statistischen Forschungsprozesses liegt darin, daß er Artefakte erzeugt. Es liegt auf der Hand, wodurch das geschehen könnte: wenn der Forschungsgegenstand beim Durchlauf durch die verschiedenen Aggregatzustände auch seine Substanz ändert, wenn mit dem Formwechsel ein inhaltlicher einhergeht.
Die Bewahrung der Substanz und der Struktur des Forschungsgegenstandes als Erkennungsobjekt kann nur gelingen, wenn die Logik des statistischen Algorithmus der Logik des verbalen Deduktionsprozesses entspricht. Nur dann lassen sich umgekehrt die statistischen Ergebnisse empirisch gültig interpretieren. So ergibt sich für alle Phasen des empirischen Forschungsprozesses, bei der Festlegung der Beobachtungsmerkmale, bei der Zuordnung der Beobachtungen zu numerischen Merkmalsausprägungen, bei der statistischen Bearbeitung der Daten und bei der Interpretation der Ergebnisse das ein-
8
Einleitung
deutige Primat der wirtschafts- und sozialwissenschaftlichen Theorie, gleichzeitig jedoch die Verpflichtung, die formale Struktur der Methode daraufhin zu überprüfen, ob sie zur logischen Struktur der Theorie kompatibel ist.
Abbildung 0.2: Logische Struktur des Forschungsprozesses Äquivalenz
Theorie: theoretisches Modell
Interpretation (begriffliche Abbildung)
Statistik: statistisches Modell àL
Operationalisierung (Konkretion)
statistische Analyse (Abstraktion)
1 Empirie: Interaktionsmodell
0.3
Messung • (numerische Abbildung)
Die algorithmische Struktur der behandelten multivariaten Modelle
Im folgenden werden die formalen Strukturen der verschiedenen Analysemethoden kurz vorgestellt, um den Aufbau der Darstellung und den Zusammenhang zwischen den Methoden aufzuzeigen. 1
1. Zu Beginn von Kap. 1 werden die Verfahren der einfachen linearen Regressionsund Korrelationsanalyse zwischen zwei Variablen xj und x2 knapp vorgestellt. Die Regressionsfunktion hat dabei die bekannte Form = / (x
2
) = a + bx2
mit
' G r u n d k e n n t n i s s e in d e r statistischen M e t h o d e n l e h r e , w i e sie e t w a in d e n L e h r b ü c h e r n von B a m b e r g / B a u r (1998), B e n n i n g h a u s ( 1 9 9 8 ) , B l e y m ü l l e r u.a. ( 1 9 9 8 ) , Litz (1998) o d e r S c h w a r z e ( 1 9 9 7 , 1998) präsentiert w e r d e n , sind f ü r den N a c h v o l l z u g d e s T e x t e s hilfreich a b e r nicht unbedingt notwendig.
Einleitung
X|
= xf
+ U\
9
,
wobei jtf die aufgrund der Regressionsbeziehung zu erwartende Ausprägung der Variablen x\ und u\ den Fehlerterm darstellt. Dabei wird i.a. metrische Skalenqualität der Variablen vorausgesetzt. Zusätzlich zu der aus dem Grundstudium bekannten Methode der kleinsten Quadrate wird die Maximum-Likelihood-Methode zur Parameterschätzung vorgestellt. Darüber hinaus wird das einfache lineare Modell durch Transformation der Variablen oder der Parameterstruktur für weitere Anwendungsbereiche erschlossen. Mit der Dummy-Regression (vgl. 1.4) wird die Verwendung einer dichotomen abhängigen Variablen diskutiert. Linearisierungsmöglichkeiten für nicht-lineare Ausgangsgleichungen schließen in 1.5 diese Erweiterungen des einfachen linearen Modells ab. In Kap. 2 werden die Ergebnisse der einfachen linearen Regressions- und Korrelationsanalyse hinsichtlich ihrer schätz- und testtheoretischen Aspekte vertieft. 2. Mit dem nächsten Schritt, der partiellen Regressions- und Korrelationsanalyse, wird in Kap. 3 ein Zusammenhang zwischen x\ und JC2 betrachtet, der durch eine dritte Variable XT, gestört ist. Damit wird es möglich, das einfache lineare Modell zum multiplen auszuweiten.
Abbildung 0.3:
Wirkung einer intervenierenden Variablen
Das Ausmaß der Störung durch X3 wird über eine einfache Regressionsanalyse zwischen und x 3 ermittelt x\ *2
Bezeichnet man mit JCJ_3 und x2.j Parti alvariablen:
=/i(*3) = / 2 ( *3)
die um den störenden Einfluß von x3 bereinigten
10
Einleitung
*l-3 = " 1
= xl
* 2 - 3 = "2
= x
=
= f
(x2-3)
= * l ~ f \ (x 3 )
2~x2
x
2~f2(x3)
so stellt die Funktion x
i-3
die Basis einer einfachen partiellen Regressions- und Korrelationsanalyse zwischen jq und
dar. D.h., die einfache partielle Regression ergibt sich als einfache Regression
der Partialvariablen und die Partialvariable als Fehler aus einer vorausgehenden Regressionsanalyse mit der Störvariablen.
3. Nun kann das einfache Regressionsmodell in Kap. 4 auf k Variablen zur multiplen Regressions- und Korrelationsanalyse erweitert werden: x\
=f(x
2
,x
3
...xk).
Dabei werden die Abweichungen der beobachteten Regressionsfunktion
f(x2)
X| von der ermittelten einfachen
über zusätzliche Variablen in deren partieller Form er-
klärt: Xj
=f (Jt2) + / (JC3_2) + / (*4_2,3) usw-
Das bisher vorgestellte Modell setzt sowohl bei der abhängigen wie bei den unabhängigen Variablen metrische Skalenqualität (zumindest jedoch Dichotomie) voraus.
4. Mit der in Kap. 5 dargestellten Varianzanalyse verfügen wir über ein Verfahren, das den Zusammenhang zwischen einer metrischen, abhängigen Variablen X] und ordinal oder nominal skalierten, unabhängigen Variablen A, B....K (den Faktoren) analysierbar macht. Bei der einfaktoriellen Varianzanalyse werden die abhängige metrische Variable (z.B. das Einkommen) nach der unabhängigen nicht metrischen Variablen (z.B. dem Schulabschluß) gruppiert und die Gruppenmittelwerte (Durchschnittseinkommen je Ausbildungsniveau) berechnet. Nun wird gefragt, ob die Gesamtvarianz der Einkommen eher auf die Varianz der Gruppendurchschnitte um das Gesamtmittel, d.h. der Varianz zwischen den Gruppen (= erklärte Varianz) oder auf die Varianz der Einkommen um die jeweiligen Gruppenmittelwerte, d.h. der Varianz innerhalb der Gruppen (= nicht erklärte Varianz) zurückzuführen ist.
Einleitung
11
In der Kovarianzanalyse wird die Varianzanalyse mit der Korrelations- bzw. Regressionsanalyse verknüpft, indem die durch die Varianzanalyse noch nicht erklärte Varianz durch die Hinzunahme von bisher ausgeschlossenen metrischen Variablen (den Kovariaten) weiter erklärt wird bzw. umgekehrt, indem die durch die Regressionsanalyse noch nicht erklärte Varianz durch eine Varianzanalyse weiter aufgeschlüsselt wird.
5. Mit dem in Kap. 6 vorgestellten loglinearen Modell verknüpfen wir die varianzanalytischen Ansätze mit der aus dem Grundstudium bekannten zweier nominalskalierter Variablen f jk
Aj und
% -Kontingenzanalyse
Bk . Ausgangspunkt sind die Felderwerte
einer zweidimensionalen Kreuztabelle, deren Betrag aus den beiden Merkmalen
A j und Bf, erklärt wird: fjk
=f(Aj,Bk)
Dieser Ansatz erlaubt es, Modelle der Abhängigkeit und Unabhängigkeit zwischen den Variablen
A j und
Bk
auf eine neue Weise zu formulieren und zu testen. Seine Be-
deutung liegt vor allem in der formal unkomplizierten Betrachtung der Zusammenhangsstruktur vieler nicht-metrischer Variablen
A j , B k , C i ...
Das loglineare Modell
weist eine Vielzahl von Varianten auf. In diesem Text wird davon nur das symmetrische Grundmodell des hierarchischen loglinearen Ansatzes für nominalskalierte Variablen bei ausreichender Felderbesetzung vorgestellt.
6. Die Umwandlung von nicht metrischen Variablen in (0,1)-Variablen (sog. DummyVariablen) führt zur vollständigen Integration der Varianz-/Kovarianzanalyse in die multiple Regressions- und Korrelationsanalyse. Damit wird in Kap. 7 die Formulierung eines Allgemeinen Linearen Modells (ALM) möglich, das neben den bisher hier behandelten Analyseansätzen auch eher der Grundausbildung zuzuordnende bivariate Modelle integriert. Der Logik eines allgemeinen linearen Modells werden dabei nicht nur die metrischen Strukturen der Variablen, sondern ebenso die Prüfverfahren zur Feststellung der Modellgüte wie zur Signifikanz der Modellkomponenten unterworfen. In seiner generalisierten Form subsumiert das ALM auch die Verfahren der logistischen Regression, der Logit- und Probitanalyse und das loglineare Modell. Kap. 7 stellt damit sowohl eine Zusammenfassung des bisher behandelten Stoffes dar, wie einen Ausblick auf den noch ausstehenden. Letzteres vor allem deshalb, weil sich ihm unter dem Be-
12
Einleitung
griff des multivariat erweiterten linearen Modells (MLM) eine Reihe der nachfolgend behandelten Ansätze zuordnen lassen.
7. Zur im engeren Sinne multivariaten Betrachtung leitet in Kap. 8 die kanonische Analyse über, die den Korrelationszusammenhang zwischen zwei metrischen Variablensätzen xi..„tpUnd Xp+i...x p+ q behandelt. Aus den beiden Sätzen (z.B. jeweils einer Menge von Indikatoren für zwei interdependente theoretische Variablen) wird je eine Linearkombination U bzw. V derart gebildet, daß sich
U = f(V)
mit maximalem
Korrelationskoeffizienten ergibt. Diese kanonischen Variablen können dann als statistische Repräsentanten miteinander korrelierter theoretischer Konstrukte interpretiert werden. 8. Die Faktorenanalyse kombiniert Elemente der Regressionsanalyse und der kanonischen Analyse. Dabei stellt sich für die im ersten Teil des Kap. 9 entwickelte Hauptkomponentenanalyse die Aufgabe, die Varianz des vollständigen Variablensatzes x\...xq
aus der Varianz einer geringeren Zahl von direkt nicht meßbaren bzw. nicht
gemessenen, voneinander unabhängigen komplexen Konstrukten
F A ,Fß...FQ
(den
Hauptkomponenten/Faktoren) zu erklären: xcj
=fj(FA,FB...FQ)
mit
Q
b
= Zwr (A + B x2i + Uj) = A Zw, + B Zw,- x2i +
x2
[aus (2-2) und (1-3)] Zw,t/,
Die folgenden Ableitungen haben vor allem exemplarischen Charakter. Der/die daran im einzelnen nicht interessierte Leser/in sei auf die Ergebnisse in den Formeln (2-10), (2-12), (2-14) und (2-15) sowie auf deren Kommentierungen verwiesen.
Einfache lineare Regression und Korrelation
(2-9)
(2-10)
= B + ZwiUi
E(b)
= B + JLwi E(Uj) = B
a
=Z(\/n-wix2)(A +
(2-11)
[aus (1-4)]
+ Bx2i
+ 1 / , ) [aus (2-6) u . (1-3)] ^wix2i
+ Ä*2 ~~ l.(\/n-x2wl)Ul
= A + E(l/n-x2wi E(a)
47
[aus (2-3) und (2-5)]
= A - A x2
(2-12)
(Inferenzslalislik)
)Ut
[aus (2-3) und (2-5)]
=A + H\/n-x2wi)E(Ui)
= A
[aus (1-4)]
3. Die Varianzen von a und b werden ebenfalls über die Linearformen abgeleitet: a\
= VAR
(b)
=E(b-B)2=E(ZwiUi)2
(2-13)
= ijw]2
uf
[aus [2-9)] U2
+ ...
]
+ E\2.wxW2UxU2
+~2wn_\wnUn_xVn\
= w2 E ( u f ) + ...w2n E(U2) 2w\w2E{U\U
+
2)+...Ylwn_^NnE(U
= 50 annähernd normalverteilt ist, mit (2-40)
E
1+ P
= Zp=-ln
(Zr)
U-P (2-41)
VAR ( Z r )
n-3 2
Daraus folgt,
und
2(n-l)
-Z
Z = -
- 3 ( Z r - Zp)
ist standard-normalverteilt.
a
Zr
Durch Berechnung von Zr und Z p auf der Basis der Stichprobenkorrelation und von p0
lassen sich Nullhypothesen p„ * 0
bei den folgenden Grenzen des Annahmebe-
reichs testen: (2-42)
Z_ _ W
= Zp ± "Po '
Bei einem Signifikanzniveau von a0
V ^
wird die Hypothese H0:p
= pa
angenommen,
wenn der empirisch ermittelte Z r -Wert - entweder nach (2-39) oder nach der Umrechnungstabelle im Anhang - innerhalb der Grenzen
Z^
für (2-42) errechnet sich aus der Hypothese
über (2-40) unter Verwendung des
Sie beruht auf der Areatangensfunktion von r Z=ar und zum Weiteren vgl. Hartung/Elpelt (1995) S. 154 ff.
p0
und Z ^
tanhr, beziehungsweise
liegt. Der Z p g Wert
auf
r
e
—
' +1
. Dazu
Einfache lineare Regression und Korrelation
natürlichen Logarithmus oder unter Verwendung von p0
(Inferenzstalistik)
71
aus der Umrechnungstabelle
im Anhang 3 (vgl. dazu auch nachstehendes Beispiel). Die Schätzung eines Konfidenzintervalls erfordert entweder ein aufwendiges iteratives Verfahren 1 oder man verwendet einen gegenüber (2-40) vereinfachten Erwartungswert Zp =
In ^
+ r
j . Unter dieser Bedingung und unter Verwendung der Umrechnungsta-
belle ergibt sich bei einem Konfidenzniveau von a0 ein Konfidenzintervall:
(2-43)
= Z_ ±
dessen Grenzen Z p i
Za o2 7 ^ 3
und Zp 2 jeweils über die Umrechnungstabelle zurückzutrans-
formieren sind in die Grenzen p\ und P2 des gesuchten Konfidenzintervalls für p . Sind die Sprünge in der Umrechnungstabelle nach persönlichem Dafürhalten zu groß, lassen sich die Grenzen des gesuchten Konfidenzintervalls auch direkt berechnen:
Aus
K
2
1+r In — 1—r
Z„ _ 1, 1+p 1 1+r , =a S £ = < - l n < - In - — - + , = \ - a 2 1-p 2 1 -r -Jn-1>
folgt unter Verwendung von a,b
(2-44)
=
1+r
In —
1—r
K a < In
±
l
-±P
1-P
2
Za -Jn^3
< b
= 1-a
und nach Auflösen der Ungleichung nach p , der gesuchte Konfidenzbereich für p mit
(2-45)
K
ea-X
r2 entspricht,
(r=0,6902) größer als
Ablehnungs-
ist die Hypothese zu verwerfen, weil der empirische
r\
ist. Aus den Daten ergibt sich also, daß der
koeffizient der Grundgesamtheit
r-Wert
Korrelations-
auf jeden Fall größer als 0,6 ist.
In welchem Bereich liegt nun vermutlich der wahre Wert der Grundgesamtheit?
Mit
einem Konfidenzniveau
der
Umrechnungstabelle
zpp Aus
von 90 % schätzen wir nach (2-43) und unter Verwendung
für das empirische r von 0,69
=0,848 ±
Zp| = 0,7509
und
/'65 V292-3
Zp2 = 0,9451
erhalten wir aus der Umrechnungstabelle
P\ = 0,635 und p 2 = 0,7375 die Grenzen des 95 Wenn die empirischen bzw. zu interpolieren
%-Konfidenzbereichs.
r-Werte nicht so günstig in der Umrechnungstabelle sind, bietet es sich an, den gesamten Rechenprozeß
zufuhren. Unter Bezug auf (2-44) bestimmen wir a und b mit
, 1 + 0,6902 1 a = In 1-0,6902
2 1,65 • = 1,5026 V292-3
, , 1+0,6902 2 1,65 t = In + , = 1,8908 1-0,6902 V292-3 Entsprechend
(2-45) erhalten wir
e ''
50
+l
J.89 + 1 = 0,9
mit
und
zu finden
selbst durch-
Einfache lineare Regression und Korrelation
K (0,6359 Die Berechnung
< p < 0,7377)
ohne Verwendung
der vorangegangenen
73
= 0,9 der Umrechnungstabelle
erbringt eine gegenüber
Ermittlung modifizierte, genauere Abschätzung des Korrelations-
koeffizienten der Grundgesamtheit
2.3.3
flnferenzslalislik)
im Bereich von 0,636 und 0,738.
Der Likelihood-Quotiententest
1. In Abschnitt 1.1(6) haben wir mit dem Maximum-Likelihood-Ansatz ein alternatives Schätzverfahren zur Bestimmung der Regressionsparameter kennengelernt. Damit fallen, im Gegensatz zur Methode der kleinsten Quadrate, die erklärte und die nichterklärte Summe der Abstandsquadrate nicht mehr automatisch als Bausteine für Signifikanztests entsprechend (2-36) an. Da m.l.-Schätzungen sowohl für linearisierte Regressionsmodelle entsprechend Abschnitt 1.5 und 6.2 wie generell für komplexere Analysen ab Kapitel 8 von großer Bedeutung sind, ergab sich eine Notwendigkeit, Testverfahren für derart geschätzte Modelle zu entwickeln. Der so begründete Bedarf wird mit dem Likelihood-Quotiententest abgedeckt.
2. Aus Gründen der Einfachheit und der Vergleichbarkeit mit dem F-Test nach (2-36) sollen die Grundprinzipien des Likelihood-Quotienten am linearen Modell entwickelt werden. Dieser Test zur Abschätzung der Modellgüte beruht unmittelbar auf den maximalen Mutmaßlichkeiten, die für eine Stichprobe auf der Basis zweier unterschiedlicher Modelle aus den jeweiligen Modellparametern resultieren. Im ersten, dem saturierten Modell
M\
werden die Beobachtungen
jq,
über die Regressionsfunktion
jcf = a + b X2 geschätzt, im zweiten, dem reduzierten Modell
Ma
über die Mittel-
werte X\. Das reduzierte Modellimpliziert die Hypothese ¿ 2 = 0 bzw. x[ =a = x\. Mit «,- = X\i - xft und d = x\-x\
sind die, den jeweiligen Modellen entsprechenden,
nicht-erklärten Abweichungen der Beobachtungen von ihren Erwartungswerten gegen J A 1 2 1 ben, mit ,2
=^(xii-xji)2
i—I = X (
x
l i ~a*~b*x
x
2
** f
=
m i n !
Damit die Summe der Abstandsquadrate der Residuen (SAQ-Res) größer null wird, muß n größer als k sein.
Multiple Regressions- und Korrelationsanalyse
93
Durch partielles Differenzieren dieser Funktion nach den k unbekannten multiplen Regressionskoeffizienten und Nullsetzen der partiellen Ableitungen erhalten wir k Normalgleichungen, aus denen sich die Formeln für a*,bj •••bji errechnen lassen:
SLuf
_ SLuf
_
_ SLuf
_
Als Bedingung für ein Minimum der SAQ-Res ist erforderlich, daß die zweiten Ableitungen nach den Regressionskoeffizienten positiv sind. 2. Mit Hilfe der Stichprobe und der Methode der kleinsten Quadrate wird das Regressionsmodell der Grundgesamtheit simultan geschätzt (4-3)
X1
=E(X1\X2...Xk)
(4-4)
E(Xj\X2...Xk)
= A* +
+U
und
B*2X2+...B*kXk
Im übrigen gelten die Gleichungen (1-4) bis (1-7) analog für das multiple Regressionsmodell. 3. Am Beispiel einer vierfachen multiplen Regression
*] = / (x2>
x4)
soll das
Regressionsmodell der Stichprobe veranschaulicht und ein formales Verfahren zur sukzessiven Entwicklung der Normalgleichungen demonstriert werden. Aus (4-1) und (4-2) ergibt sich X],
=a*
+ t£ x2j + th, x3i + b4 x4l + m,
Nach der Methode der kleinsten Quadrate erhalten wir folgende 4 Normalgleichungen: * = La *
Zjc\X2
=a*Lk2
+
I
b{Lx2
+ ¡h^i
*
j + b^Lx^
| x
£¿1*3
= a*Lx3
+ t^Lx2 3
¿¿1X4
= a * Z*4 + i^Zx2x4+
1 i
* +
+
|
+ t&x 3
! +
¿3^*3*4
+
b4Lx4
b4Lx2xA
+
blLx3x4
94
Multiple Regressions-
und
Korrelationsanalyse
Die gestrichelten Linien zeigen, wie die Normalgleichungen sowohl ihres Umfanges wie ihrer Zahl nach systematisch von der zweifachen über die dreifache zur vierfachen Regression erweitert werden. Durch Auflösen dieser Gleichungen nach den Koeffizienten b^, b3 und b*A ergeben sich Formeln, die die multiplen Regressionskoeffizienten als identisch mit den partiellen/semipartiellen Regressionskoeffizienten ausweisen: ¿>12-34 =¿>1(2-34) ¿>13-24 =¿>1(3-24)
und
¿>14-23 = ¿>1(4-23) Die multiplen Regressionskoeffizienten zeigen also an, um wieviel sich die abhängige Variable xf
verändert, wenn die unabhängige Variable Xj unter Konstanthalten der
übrigen unabhängigen Variablen
X2 ...
Xj+i,... xk
um eine Einheit wächst. Wir
notieren deshalb als Ausgangsform der multiplen Regressionsfunktion xj
Der berechnete Wert
=a*
jcf
+ b12-34
x2
+ bl3_24
x3
+ bl4_23
x4
ergibt sich also dem Betrage nach aus einer unabhängigen
Konstanten a * und den jeweiligen partiellen Wirkungen der unabhängigen Variablen ••• x 4 • Zum besseren Verständnis dieses multiplen Regressionszusammenhanges werden wir diese Funktion in verschiedenen Schreibweisen betrachten. Dazu ersetzen wir zunächste a*. Für a* erhalten wir aus den Normalgleichungen analog zur Mittelpunktsgleichung der einfachen Regression (1-16) a
*
= * / - b¡2-34X2
~ b 13-24X3
~
b14-23X4.
so daß wir x. in einer zweiten Variante wie folgt schreiben können: xj
=x,+
b12-34(x2
+ b]4-23(x4
- x - x4
2
) + bj3-24(x3
- x3 )
)
Danach weicht der berechnete bzw. vorhergesagte Wert x{ der abhängigen Variablen vom Mittelwert jcj dieser Variablen um den Betrag ab, um den die unabhängigen Variablen von ihren Mittelwerten abweichen und diese Abweichung über die jeweiligen multiplen Regressionskoeffizienten im Regressionszusammenhang zur Geltung bringen können.
Multiple Regressions- und Korrelationsanalyse
9 5
Eine dritte Variante ergibt sich aus der nachfolgenden Überlegung, vgl. dazu auch = /(*2> x 3> x 4) werden aus
Abb.41. Mit
X]
die Variablen
x2,
Xj
und
x4
auspartialisiert, so daß sich mit «,• = xu - x^ = *i_2,3,4 die Partialvariable dritter Ordnung ergibt. Diese Partialvariable läßt sich, wie oben, als Ergebnis einer simultanen multiplen Regression, aber auch als Ergebnis einer schrittweisen Auspartialisierung darstellen: *l-2,3,4
=*l-23
"/2(^4-23)
x
= l-2
-/l(*3-2)
x
x
= i-fo( 2)
-f2(x4~23)
-fl( 3-2)
x
a
x
x
x
x
a
= \ ~ \2 " b\2 2 ~ l(3-2) x
-
¿>l(3-2)*3-2
- a
l(4-23)
x
= \ ~ \ - b\2( 2~ 2)
Abbildung 4.1:
-/2(^4-23>
x
~ ¿>l(3-2) 3-2
-
¿>1(4-23) *4-23
~ ¿>1(4-23) *4-23
Schrittweiser Aufbau der multiplen Regressionsfunktion für die i-te Beobachtung
erklärte Teile
nicht erklärte Teile x
n -
—^ Xl-2.3,4 Xl-2,3
3. Stufe
f2(x4-2j)
2. Stufe
fi(x3.2)
1. Stufe
f0(x2)
,
> Xj-2
Daraus folgt als =
X
I + bn(x2
~x2)
+
bl(3-2)
x
3-2
+ bI(4-23)
x
4-23
Aus dieser Gleichung läßt sich die schrittweise Verbesserung eines Vorhersagewertes durch die sukzessive Berücksichtigung immer weiterer Vorhersagevariablen ablesen. Allerdings sind aus den nachfolgenden Variablen jeweils die bis dahin berücksichtigten Variablen auszupartialisieren. Der Erklärungsbeitrag der Variablen ergibt sich dann im Ausmaß der Abweichungen von ihren Mittelwerten, gewichtet mit den entsprechenden einfachen bzw. partiellen Regressionskoeffizienten.
96
Multiple Regressions-
und
Korrelationsanalyse
4. Für den Fall von k Variablen ergeben sich die Regressionsbeziehungen analog zur vierdimensionalen Aufgabenstellung. Wir schreiben die allgemeine Regressionsfunktion
••• *k) ' n den folgenden Formeln (4-5) bis (4-7) auf drei verschiedene
=/ 02,
Weisen, wodurch es möglich wird, die Regressionsbeziehung aus unterschiedlichen Perspektiven zu betrachten. Zu Beginn notieren wir (4-1) in der allgemeinen Fassung ': (4-5)
xj
= a* + bI2_3
mit
a*
= x, - ¿12-3,4...
4
kx2
+ bI3_2
4
kx3
blk_2,3,4...k_1xk
+...
hk-lXk^k
Dann ersetzen wir a* gemäß dieser Mittelpunktgleichung und schreiben: (4-6)
xci
=xj+
b12-3
...
k
(x2~x2)
+ ... b
] k
_
2 3 k j
(xk - xk )
In beiden Formen erscheinen die multiplen Regressionskoeffizienten als partielle Regressionskoeffizienten der Ordnung k-2. Drücken wir dagegen die xj7 als Funktion fortschreitender Partialvariablen aus, ist es adäquater, die Regressionskoeffizienten als semipartielle Koeffizienten zu sehen 2 . Die folgende Gleichung kann auch so interpretiert werden, daß mit der multiplen Regression die Vorhersage der individuellen Ausprägungen der abhängigen Variablen, beginnend mit einem einfachen Regressionsmodell, schrittweise durch die Hinzunahme weiterer Variablen in ihrer jeweils partiellen Form verbessert wird: (4-7)
xci
=X] + b,2(x2-x2)
+bI(2-3)X3-2-
erklärte
= einfache
+ semipartielle
Variable
Regression
Regr. 1. Ord.
+
b
l(k-2,3...k_i)xk-2,3...k_l
+ semipartielle Regression k-2. Ordnung
Die multiple Regressionsfunktion erscheint hierbei als Summe einfacher Regressionsfunktionen zwischen
Xj und fortschreitend höheren Partialvariablen, wobei die semi-
partielle Regressionskonstante
nur als Konstante der Funktion erster Ordnung vor-
kommt.
Zur Vermeidung von Mißverständnissen schreiben wir auf den nächsten Seiten bei j = k-1 statt „k-1" „k.,". Wie wir aus (3-17) wissen, sind beide gleich.
Multiple Regressions- und Korrelationsanalyse
9 7
Den Störterm Uj in dieser multiplen Regressionsfunktion können wir analog zum 4-Variablen-Fall als Partialvariable k-l-ter. Ordnung interpretieren: = Xli ~ xli
"i
4.2
=
x
l-2,3...k
Das Korrelationsmodell der Stichprobe und der Grundgesamtheit
1. Wir definieren den multiplen Determinationskoeffizienten R^ analog zum einfachen r als Verhältnis der durch die gesamte Regressionsfunktion, d.h. durch die Variablen jc2 ... xk erklärten Varianz in xxi zur Gesamtvarianz der Variablen x 1( .
(4-8)
R f
2
=R2k=
k
S A Q
~ R e SAQ-Ges
g
=
l
/nJL(xx-xx)2
Diese Definition setzt voraus, daß die Zerlegung der Gesamtvarianz der xu
in einen
durch die Regressionsfunktion erklärten Teil und in einen nicht-erklärten Teil auch für die multiple Regression möglich ist: S2
= \/nZ(xx-xx)2 = MriL(xx
=\lriL(xx-xcx - x , c ) 2 + l/nl(xc]
-xx)2
+ x\
- xx)2
+2lnY.(xx
- jtfXjtf -
x)
Das letzte Glied in dieser Gleichung stellt zweimal die Kovarianz zwischen u und xx dar. Diese Kovarianz ist auch im Falle der multiplen Regression vom Betrage null, da u = xx_2 3.jt a ' s Partialvariable k - 1. Ordnung keinen Einfluß der Variablen x^ ... Xf, enthält, wohingegen x^ den gesamten Einfluß der Variablen x 2 . . . x^ ausdrückt. Somit gilt auch hier: (4-9)
/ / nZ(xj
- xj )2
S
I
Gesamtvarianz
= 1 / nE(x!
- xci )2
+1 / n X f r i - x, )2
= Sl-2,3...k
+
S C
= nicht-erklärte Varianz
+ erklärte Varianz
1
2. Wir bestimmen nun die erklärte Varianz unter Verwendung der Gleichung (4-5): Sjc
=VAR(xj
) =
= 1 I n j . [bX2(x2-x2)
\lriL(xcx-xx)2
+ b\^2)x3-2
+
•••
+ b
l(k-2,l-.k-l)xk-2Xk-\
]
98
Multiple Regressions- und
= b\2 1 / nL(x2 2 +b \(k-2X-k-\)
Korrelationsanalyse
-X2)2+ 1/
¿¡(3-2) 11
3-2 + -
2
nYjC
k-2X.k-\
-2,Xk'xk
+
-2,3-*-l) ]
In dieser Gleichung sind sämtliche Kovarianzen vom Betrag null, da es sich u m Kovarianzen zwischen Partialvariablen fortschreitend höherer Ordnung handelt, die voneinander unabhängig sind, weil aus der zweiten Partialvariablen der Einfluß der ersten Partialvariablen bereits auspartialisiert wurde. Wir erhalten somit als Ergebnis, daß die erklärte Varianz sich als S u m m e der mit den jeweiligen quadrierten semipartiellen Regressionskoeffizienten gewichteten Varianzen von Partialvariablen fortschreitend höherer Ordnung der unabhängigen Variablen ergibt: ( 4 - 1 0 ) VAR(xCj
) = b?2 S22+bf(3_2)
Sj_2
+... + b21(k_23
k i )
S2k_23
k
i
3. Wir dividieren die erklärte Varianz in (4-10) durch die Gesamtvarianz und erhalten analog zu (1-27) f ü r 2 r2
,2
K
k
-
Sf
. ,2
Sl
2
S
k-lX.k-\
2
""2 + »1(3-2) —Ä j - + - + \k-2,3.Jfc_i) •->1 1
^2 ¿1
Für semipartielle Regressionen wie für die einfache Regression gilt, daß sich Regressionskoeffizienten von den Korrelationskoeffizienten durch das Verhältnis der Varianz der unabhängigen zur Varianz der abhängigen Variablen der Regressionsbeziehung unterscheiden. D e s h a l b erhalten wir den multiplen Determinationskoeffizienten als
Summe von semipartiellen Determinationskoeffizienten fortschreitend höherer Ordnung: (4-H)
R2k
= r/2 + rf(3_2)
+... + r/V2)3...*
,>
Gleichung (4-11) beantwortet nun die Frage, u m wieviel sich der Determinationskoeffizient erhöhen läßt, wenn eine weitere Variable in das Regressionsmodell aufgenommen wird. Diese V e r b e s s e r u n g wird als RQ-Änderung bezeichnet und entspricht dem semipartiellen Determinationskoeffizienten dieser weiteren Variablen
(4-12)
r
f(k-2,3...k_,)
= *fc -
—1.
K
( R Q- Änderung )
Multiple Regressions-
Bei Unabhängigkeit der Variablen x2...xk
und Korrelationsanalyse
ergibt sich nach (4-11) R k
99
als Sum-
me der einfachen Determinationskoeffizienten: (4-13)
R2k
=rh+rj3+...+rfk
4. Die Varianz der Fehler, d.h. des nicht erklärten Restes ist: (4-14)
S2
=-Zuf n
=sti...k=S21(l-R2k)
[aus (4-9)]
Diese Varianz ist, wie wir bereits aus 2.1.1 wissen, kein erwartungstreuer Schätzer für die Fehlervarianz o u
der Grundgesamtheit. Unter Berücksichtigung der Anzahl der
Freiheitsgrade n-k ergibt sich in Analogie zu (2-20) ein erwartungstreuer Schätzer
— l n-k
-
f
—
S n-k
22
mit
(4-15)
Sy
(4-16)
E(S2)
4.3
Zur Strategie der multiplen Regressions- und Korrelationsanalyse
=3
- J - ^ ( l - R n-k*
k
2
k
*~l > _
RS
, )
- L - ( 1 - R n-k*
Q
~
Change 2
k
, )
Nach (4-12) ist der semipartielle Korrelationskoeffizient identisch mit RSQ-Change. Dieser zusätzlich erklärte Varianzanteil wird ins Verhältnis gesetzt zum weiterhin nicht erklärten Varianzanteil Korrelation zwischen
1 - R^*, X\
vgl. (4-14). D a ein Koeffizient aus einer einfachen
und einer Partialvariablen (k*-2)-ter Ordnung getestet wird,
hat S A Q - R e s nur einen Freiheitsgrad und F deshalb nur einen Zählerfreiheitsgrad. Nach (2-38) ist yjF^-k*
t-verteilt mit
- Fn-k, aQ
(4-24)
F0
— -Reg 1
5
n
« NW.1,
s
Z
j=l Z ^nj(xj-x) j=l
2
Das varianzanalytische Modell der GG
1. Die Frage, o b der Faktor Bildung in der G G einen signifikanten E i n f l u ß auf kann über die N u l l h y p o t h e s e
x,
hat,
Die Varianz-ZKovarianzanalyse
125
getestet werden. Für Z = 2 gibt es einen einfachen t-Test des Vergleiches zweier Mittelwerte. Unter der 1 2. Bedingung, daß die Grundgesamtheit normalverteilt ist und 0\ = c 2 , wird die Nullhypothese abgelehnt, wenn:
n j + n2 mit = n\ + «2
_
- 2
2.
2. Für den Test mehrerer Mittelwerte entwickeln wir folgenden varianzanalytischen Ansatz am Beispiel Z = 3: Wir nehmen an, daß Xj in der Grundgesamtheit normalverteilt ist, ferner daß mit //,, die Mittelwerte der nach dem Faktor A unterschiedenen Gruppen gegeben sind und daß die Varianzen in den einzelnen Gruppen gleich sind:
2
0\ =
2
=
2=
a
2
(Homogenität der Varianzen). Für unser Beispiel heißt
das, daß die Einkommensstreuungen unabhängig vom Bildungsniveau sind. Die Nullhypothese lautet nun H 0 :ß\ =ß 2 =M3' Wenn die Nullhypothese zutreffend ist, kann jede dieser Gruppen unterschiedlichen Bildungsniveaus als Stichprobe aus der gleichen Grundgesamtheit gelten. Unter dieser Bedingung gibt es drei Wege, die unbekannte Varianz
a2
der Grundgesamtheit
zu schätzen: a) über die Gesamtvarianz der Stichprobe
s2
v - r X X ^ v - ) "
2
7=11=1
= —-— SAQ-gesamt b) durch Mittelung der Gruppenvarianzen der Stichprobe (5-2)
S2
=
n^+n2si+n3sj
=
J _ j .
2
7=1 1=1
Bei einer groben Verletzung dieser Annahmen, vor allem bei kleinen Stichproben und sehr unterschiedlichen Gruppengrößen empfiehlt es sich auf den verteilungsfreien Kruskal-Wallis-Test (vgl. z.B. Bosch (1992) S. 745ff.) auszuweichen.
126
Die Varianz-ZKovariamanalyse
SAQ-innerhalb
c) über die Varianz der Stichprobenmittelwerte (T
Aus d e m Grundstudium wissen wir: ö j = —
=> a
J
= n•
9
n Wir werden j e d e der Abweichungen der drei Gruppenmittelwerte vom Gesamtmittel als Punktschätzung für a
verwenden und die drei Punktschätzungen dann mittein:
2
-
—
2
CT
2 diese Testgröße auf beliebige Mittelwertunterschiede Xj - xj* anwendbar ist, wenn bei der F-Verteilung für den Zähler die Anzahl der Freiheitsgrade zugrunde gelegt wird, die sich aus der Anzahl der Ausprägungen des Faktors ergibt. Dazu wird der Zähler durch die Anzahl dieser Freiheitsgrade dividiert und die entsprechende F-Verteilung mit Z-l Zähler- und n-Z Nennerfreiheitsgraden zum Testen der Nullhypothese H0 : ßj = ßj* verwendet. Diese wird bei a0 abgelehnt, wenn 1
» •„.
Z-l 1
SAQ-in
n-Z Wenn wir diese Beziehung nach
l !— > F _ _!. _ n-z,aa 11, +«;.
9
(xj-xj*)
I
bzw. Lx^ ~xj*\
I
auflösen, erhalten wir
eine absolute kritische Differenz zweier Mittelwerte im Paarvergleich, deren Überschreitung zur Zurückweisung von H0 führt:
2
Wenn man
| — + —i— in einer allgemeinen Form als
schreibt, ist (5-9) auf
beliebige Kontraste D auszuweiten:
5.2.5
Beispiel zur einfaktoriellen Varianzanaiyse
In unserem Beispiel für die Varianz- und Kovarianzanalyse gressions-
und korrelationsanalytischen
Untersuchungen
wollen wir an unseren redes betrieblichen
Entschei-
dungsprozesses anknüpfen (vgl. S. 109) und dabei untersuchen, ob eine Behandlung der Variablen Status, Ausbildung und Geschlecht nicht wie bisher als metrische
Variablen,
sondern als nichtmetrische zu einer Verbesserung der Ergebnisse führt. Betrachten wir nun dazu zunächst die bisherigen Ergebnisse zu den zwischen der Variablen „Partprof"
und den Persönlichkeitsvariablen
dung und Geschlecht. Die Korrelationsmatrix tionskoeffizienten
Zusammenhängen Status,
Ausbil-
(Ausdruck 3.1, S. 88) weist dazu Korrela-
von 0.62, 0.41 und 0.33 aus. Dabei haben wir allerdings die ordinal-
Die
skalierten Variablen Status und Ausbildung Varianzanalyse
als quasi metrische Variable behandelt. Die
ist nun nicht nur das diesem Skalenniveau
sie erlaubt es auch, die Konsequenzen
133
Varianz-ZKovarianzanalyse
der vorherigen,
angemessenere
Verfahren,
etwas zweifelhaften
Annahme
aufzudecken. Für die einfaktorielle gleiche" Auf
Anova
(=Analysis
wählen wir als abhängige
eine
Kontrastgruppenanalyse
deskriptiven
wollen
verzichten,
für
die
Levene-Test
wir uns für die
Statistiken, die uns einen Einblick in die Verteilungsparameter gewähren
bei und anhand des Mittelwertdiagramms Gruppen weder gleichweit
Gruppen wesentlich sprechenden
unterscheiden.
sehen wir, daß die Gruppenmittelwerte entfernt sind, noch sich für
Die „homogenen"
Untergruppen
Die Annahme
Variablen „Status"
erweist sich deshalb eher als zweifelhaft. zu erkennen ist, überlappen
sind (vgl. Block
Ausdruck 5.1:
Struktur
Wie aus dem
der
folgenden
sich die 95 % Konfidenzintervalle
bei einigen Gruppen beträchtlich,
weisen Tests auf Mittelwertdifferenzen
der einige
sind in der ent-
einer metrischen
Teil des Ausdrucks
die Gruppenmittelwerte
der abhän-
(vgl. Ausdruck 5.1, erster Block). Da-
voneinander
Tabelle zusammengestellt.
aus1.
„Post-hoc"
und den
der Varianzen aus. Unter den Optionen entscheiden
gigen Variablen in den Statusgruppen einzelnen
wir
„Mittelwertver-
und als Faktor „Status"
wählen wir den Scheffe-Test2
(a-posteriori)-Mittelwertvergleiche auf Homogenität
of Variance) im Programm
Variable „Partprof"
für
so daß auch bei den paar-
einige nicht signifikante Ergebnisse zu erwarten
„Mehrfachvergleiche").
Einfaktorielle
Varianzanalyse Deskriptive Statistik
P A R T P R O F Partizipationsprofil
Obergrenze 8,4784 9,4152
Mittelwert 6,6818
1 angelernt
26
6,8462
6,3605
1,2474
4,2771
2 Fachkraft
113
7,5398
5,4577
,5134
6,5226
8,5571
3 qual. Angest.
33
13,8485
7,0228
1,2225
11,3583
16,3387
4 Teamleiter
29
16,5862
7,9171
1,4702
13,5747
19,5977
5 Gruppenleiter
32
21,6250
5,4993
,9721
19,6423
23,6077
15
23,0000
6,6225
1,7099
19,3326
26,6674
292
11,2979
8,3471
,4885
10,3366
12,2593
6 Bereichsleiter Gesamt
'
Untergrenze 4,8852
44
N 0 ungelernt
2
95%-Konfidenzintervall für den Mittelwert
Standar dfehler ,8909
Standardab weichung 5,9093
In früheren Versionen war darüber hinaus der Definitionsbereich seiner Merkmalsausprägungen (0-6) anzugeben. Von den mehr als zehn Testvarianten stellt der „LSD" (Least-Significant Difference)-Test einen Mittelwerttest ohne und „Bonferroni" einen mit Cft-Korrektur dar, vgl. (5-1) und (5-8). Zu den übrigens Tests vgl. z.B. Kirk (1968), S. 127.
134
Die
Varianz-ZKovarianzanalyse
ANOVA PARTPROF Partizipationsprofil
Zwischen den Gruppen Innerhalb der Gruppen Gesamt
Quadratsumme 9541,301 10733,778 20275.079
df 6 285 291
Mittel der Quadrate 1590,217 37,662
F 42,223
Signifikanz ,000
Test der Homogenität der Varianzen PARTPROF Partizipationsprofil Levene-Statistik 1,450
df2 285
df 1 6
Signifikanz ,196
homogene Untergruppen STATUS Hierarchischer Status im Betrieb 0 ungelernt 1 angelernt 2 Fachkraft 3 qual. Angest. 4 Teamleiter 5 Gruppenleiter 6 Bereichsleiter Signifikanz
N 44 26 113 33 29 32 15
1 6,6818 6,8462 7,5398
Untergruppe für Alpha = .05. 2 3
13,8485 16,5862
1.000
.809
16,5862 21,6250 .123
4
21,6250 23,0000 .993
Mehrfachvergleiche (I) STATUS Hierarchischer Status im Betrieb 0 ungelernt
1 angelernt
2 Fachkraft
3 gual. Angest.
4 Teamleiter 5 Gruppenleiter
(J) STATUS Hierarchischer Status im Betrieb 1 angelernt 2 Fachkraft 3 gual. Angest. 4 Teamleiter 5 Gruppenleiter 6 Bereichsleiter 2 Fachkraft 3 qual. Angest. 4 Teamleiter 5 Gruppenleiter 6 Bereichsleiter 3 qual. Angest. 4 Teamleiter 5 Gruppenleiter 6 Bereichsleiter 4 Teamleiter 5 Gruppenleiter 6 Bereichsleiter 5 Gruppenleiter 6 Bereichsleiter 6 Bereichsleiter
Mittlere Differenz (l-J) -,1643 -,8580 -7,1667 -9,9044 -14,9432 -16,3182 -,6937 -7,0023 -9,7401 -14,7788 -16,1538 -6,3087 -9,0464 -14,0852 -15,4602 -2,7377 -7,7765 -9,1515 -5,0388 -6,4138 -1,3750
Standar dfehler 1,518 1,091 1,413 1,468 1,426 1,835 1,335 1,609 1,657 1,620 1,990 1,214 1,277 1,229 1,686 1,562 1,523 1,911 1,573 1,952 1.920
Signif ikanz 1,000 ,996 ,000 ,000 ,000 ,000 1,000 ,005 ,000 ,000 ,000 ,000 ,000 ,000 ,000 ,799 ,000 ,001 ,119 ,099 .998
95%-Konfidenzintervall Obergrenze Untergrenze -5,5919 5,2632 3,0410 -4,7570 -12,2194 -2,1139 -4,6563 -15,1525 -20,0408 -9,8455 -9,7579 -22,8784 4,0788 -5,4662 -1,2486 -12,7560 -3,8141 -15,6660 -8,9857 -20,5720 -9,0397 -23,2680 -1,9671 -10,6502 -13,6138 -4,4790 -18,4789 -9,6914 -21,4897 -9,4306 2,8471 -8,3225 -13,2202 -2,3329 -15,9841 -2,3190 -10,6642 ,5866 ,5645 -13,3921 5.4908 -8.2408
Die Varianz-ZKovarianzanalyse
135
Mittelwert-Diagramm
ungelernt
Fachkraft angelernt
Teamleiter
Bereichsleite
qual. Angest.
Gruppenleiter
Hierarchischer Status im Betrieb
Bezüglich
der Aufteilung
der Varianz zeigt sich, daß diese zu fast 50 % gelingt.
2
rechnet SPSS den eta -Koeffizienten chen wir diesen beiden Variablen, Punkten zu
nach (5-4) nicht aus. Er liegt bei 0,4706.
Wert mit dem r2 (=0,4093)
der linearen Korrelation
so haben wir eine Verbesserung
Verglei-
zwischen
der Varianzerklärung
diesen
von fast 6 %-
konstatieren.
SPSS stellt die Ergebnisse „Mehrfachvergleiche")
des Schejfe-Tests
einmal für alle einzelnen
und für den Faktor „Status"
block) dar. Im ersten Fall finden sich im Ausdruck Mittelwertunterschiede werte spaltenweise Zusammenfassung
insgesamt
gruppiert.
entspricht
Ausgabe-
Mittelwertdiffe-
unterschiedlichen
Dabei ergeben sich die höchsten
der Ausprägungen
(siehe
für Tests auf
für diese
sind alle nicht-signifikant
Paare
(vgl. letzter
die Testergebnisse
von null bzw. Konfidenzschätzungen
renzen. Für die Zusammenfassung
Scheffe-Test'
Leider
Signifikanzen
Mittelfür eine
0-2, 3 und 4 sowie 5 und 6. Die Formel für den
(5-9).
Im Vergleich zu den anderen Tests, die von SPSS angeboten Test die Mittelwert-Unterschiede
am konservativsten.
allen Tests die größte Differenz der Mittelwerte
werden, testet der Scheffe-
Dies bedeutet,
zur Ablehnung
der
er verlangt
Ha.
Darüber
von hin-
F r ü h e r e n S P S S - V e r s i o n e n lag die f o l g e n d e M o d i f i k a t i o n z u g r u n d e :
bc.- - 3t J 1> c • R a n g e -
1 J
'
I— + —
Vnj
nj*
m i t c-J—^^—— V 2
n-Z
u n d Range = -¡2(Z
-1)
F„Z~Z'
136
Die Varianz-ZKovarianzanalyse
aus ist er relativ robust bei starken Unterschieden in der Besetzung der Gruppen und reagiert relativ unsensibel auf Verletzungen der Annahmen der Normalverteilung der Varianzenhomogenität.
Wie der Levene-Test zeigt, kann die Hypothese
Varianzen erfreulicherweise nicht zurückgewiesen
5.3
Die mehrfaktorielle Varianzanalyse
5.3.1
Der experimentelle Ansatz
und
homogener
werden.
1. Bei der mehrfaktoriellen Varianzanalyse gehen wir davon aus, daß die metrisch skalierte, abhängige Variable von mehreren nominal oder ordinal skalierten unabhängigen Faktoren A, B, ... K beeinflußt wird. Im experimentellen Ansatz vereinfachen wir das Analysemodell, indem wir die Erhebung so anlegen, daß die Untergruppen aller Kombinationen von Merkmalsausprägungen der Faktoren gleich stark besetzt sind. Damit schließen wir eine Beeinträchtigung der Analyse aufgrund von Interdependenzen zwischen den Faktoren aus. 2. Am Beispiel zweier Faktoren A (Bildungsniveau) und B (Geschlecht) soll im folgenden eine tabellarische Darstellung der Gruppen und Untergruppen das Problem der Varianzenzerlegung veranschaulichen. Bei drei Ausprägungen des Faktors Bildungsniveau Aj ( j = 1,2,3)
und zwei Ausprägungen des Faktors Geschlecht
B, (l = 1,2)
erhalten
wir sechs Untergruppen (Zellen), die alle gleich besetzt sind. nß=c
n = -
Die Darstellung der Beobachtungen der Variablen xjU erfolgt in einer dreidimensionalen Häufigkeitstabelle.
Die
Tabelle 5.2
Varianz-/Kovarian:analyse
137
Verteilung der Einkommen nach Bildungsniveau und Geschlecht
Zellen-
Bl
B2
mittel
Zellen-
Zeilen-
SAQ-
mittel
mittel
Haupteffekte
Xj
SAQa
x
\2\
A,
x
i
i —-
x
=
12c
\lc
2ì
- -
x
x x
n
1
x
221
X
x
21
x
22
2. """"
3
X "/'v/. 7=1
x
x
22c
2lc
x
311
x
321 a
x
32
x
3\c
32c
Spaltenmittel
.l
X
T 2
SAQ-
SAQB
Haupt-
SAQ-innerhalb= 3 j=l
Xji
= ^
ni(x,-x)
1=1
effekte
Mit
X2
. . . .
x
2 i=i
2
¥ SAQ - gesamt =
SAQ-zwischen =
tj
3
¿=1
X j=1
2 X "jliXjl-*) /=1
2
(! XX1 . " ;=i ;=i 1=1
werden in der Tabelle die jeweiligen Mittelwerte der Untergruppen (Zellen-
mittel) und mit
xj
bzw.
xj
die Mittelwerte der Gruppen (Zeilen- bzw. Spaltenmit-
tel) bezeichnet. Die Summe der Abstandsquadrate insgesamt (SAQ-gesamt) ergibt sich wie bisher als S u m m e der quadratischen Abweichungen der einzelnen Beobachtungen in den Zellen vom Gesamtmittel. Ebenso ergibt sich die Summe der Abstandsquadrate innerhalb der Zellen (nicht erklärte SAQ) wie bisher. Allerdings setzt sich, wie die folgende Varianzzerlegung zeigen wird, die erklärte Summe der Abstandsquadrate aus mehreren Komponenten zusammen, die als Ausdruck der jeweiligen Einzelwirkungen der Faktoren wie ihrer Wechselwirkung zu verstehen sind.
138
Die
Varianz-/Kovarianzanafyse
3. Die Varianzzerlegung im Falle der mehrfaktoriellen Varianzanalyse erfolgt analog zur einfachen Varianzanalyse. Die Abweichungen der zweifach klassifizierten metrischen Variablen x j n ( j = l . . Z , 1=1..S) vom Gesamtmittel werden dabei in einem ersten Schritt wie folgt zerlegt: x
jli ~
Gesamtabweichung
- ( X j ü - X ß )
+ ( x ß - x )
= nicht erklärte
+ erklärte Abweichung
In einem zweiten Schritt können wir die erklärte Abweichung, also die Abweichung zwischen den Zellenmittelwerten, weiter aufspalten und erhalten dann: x
x
jli ~
= ( * / / / - * / / )
Gesamtabweichung
+
= nicht erklärte Abweichungen + {xl-x)+{x-x)+
erklärte Abweichungen der Faktoren A und B + x
(Xjt -
j . ~ x.l +
x
)
erklärte Abweichung innerhalb der Faktoren (Wechselwirkung) 1 Durch Quadrieren und Summieren über alle n Beobachtungen erhalten wir die Summe der Abweichungsquadrate: Z
S
c
I
I
I
j=l
1=1 i=l
SAQ-gesamt
(tju-*)2
=
Y,ni(xt-x)2
>2
i=i
j=l
=
SAQB
SAQA
z (5-11)
x
-
s
X
Hnß(*ß
j=l
1=1
- Xj- - * l
+
X) 2
SAQAB Z
I
5
I
c
j=l /=/ i=l
L(*ßI
x-
ß )
SAQ-innerhalb. Voraussetzung für die vollständige Aufteilung ist, daß sämtliche S u m m e n
der
Kreuzpunkte zwischen den nicht erklärten Abweichungen und den erklärten Abweichungen ebenso null werden wie die Summe der Kreuzprodukte zwischen den AbweiDer Sachverhalt der Wechselwirkung wird auf den nächsten Seiten ausführlich erklärt.
Die
Varianz-/Kovarianzanafyse
139
chungen der Faktormittelwerte von Gesamtmittel und den Abweichungen der Zellenmittelwerte von den Faktormittelwerten. Diese Bedingungen sind bei Gleichheit der Fälle je Zelle erfüllt, da es sich bei den Abweichungen um Abweichungen vom jeweiligen Mittelwert handelt und innerhalb der Mehrfachsummation ein Summand bezüglich einer Summation immer konstant ist und ausgeklammert werden kann. In der dann zuerst auszuführenden Einzelsumme sind die Abweichungen der Zellenmittelwerte von ihrem Gruppenmittelwert zu berechnen. Aufgrund gleicher Zellenbesetzung summieren sie sich zu null auf. Somit gilt im Falle gleicher Zellenbesetzung auch (5-12)
SAQ-zwischen
4. SAQAB
=
SAQA
+ SAQB
+
SAQAB
drückt die Wechselwirkung der beiden Faktoren aus. Diese ist keine Fra-
ge der möglichen Abhängigkeiten zwischen beiden Faktoren, sondern dahingehend, ob beide Faktoren additiv wirken oder multiplikativ. Mit
SAQAB
werden die über die
additive Wirkung hinausgehenden Effekte erfaßt (vgl. etwa die potenzierten Auswirkungen eines gemeinsamen Genusses von Alkohol und Tabletten). 1 Zur genaueren Bestimmung der Natur dieser Wechselwirkung betrachten wir bei gleicher Zellenbesetzung ein fiktives Beispiel für die Beziehungen zwischen einer metrischen Variablen Einkommen, etwa dem Stundenlohn, und den Faktoren Ausbildung und Geschlecht. Der Einfachheit halber rechnen wir c = 1, so daß die Tabellenwerte sowohl als Einzelbeobachtungen wie als Mittelwerte auf der Basis gleich stark besetzter Zellen interpretiert werden können. 2 Tabelle 5.3:
Durchschnittliche Stundenlöhne nach Geschlecht und Ausbildung (relative gleiche Unterschiede)
Schulabschluß
männlich
weiblich
HS
Durchschnitt
12,5
7,5
10
MR
20
12
16
Abi
23,75
14,25
19
Durchschnitt
18,75
11,25
15
Zu beachten ist, daß bei mehr als zwei Faktoren nicht nur die paarweisen Interaktionen zu berücksichtigen sind, sondern auch die multiplen in allen möglichen Kombinationen. Lägen tatsächlich nur Einzelbeobachtungen vor, ließen sich die SAQ der Wechselwirkung und der Fehler nicht mehr trennen.
140
Die
Varian:-/Kovarianzanalyse
Tabelle 5.3 spiegelt gleiche geschlechtsspezifische Lohnrelationen wider, d.h. Frauen erhalten auf allen Bildungsstufen 60 % der Stundenlöhne der Männer. Auch wenn wir hier keine Wechselwirkung erwarten, ist sie dennoch gegeben. Berechnen wir für Tab. 5.3 analog zu den in (5-11) gegebenen Definitionen die Gleichung (5-12), so erhalten wir eine wenn auch geringe Wechselwirkung von 5,25: SAQAR
= SAQ
SAQ a
- zwischen -
^ n j i x j - x )
SAQA
-
SAQB
2
= 2 [ ( 1 0 - 1 5 ) 2 + ( 1 6 - 1 5 ) 2 + ( 1 9 - 1 5 ) 2 ] = 84, SAQB
= 2 > / ( * . / " * )
2
= 3[(18,75 - 1 5 ) 2 + (11,25 - 1 5 ) 2 ] = 84,375 SAQ- zwischen =
~~
= (12,5-15)2 + (7,5-15)2 + ( 2 0 - 1 5 ) 2 + (12 - 1 5 ) 2 + (23,75 - 1 5 ) 2 + (14,25 - 1 5 ) 2 = 173,625 SAQAB
= 1 7 3 , 6 2 5 - 8 4 - 8 4 , 3 7 5 = 5,25
Eine Wechselwirkung zwischen den Faktoren ist nur dann ausgeschlossen, wenn, wie in der folgenden Tabelle 5.4 die Unterschiede in den Zellenmittelwerten zwischen den Gruppen absolut gleich sind:
Tabelle 5.4:
Durchschnittliche Stundenlöhne nach Geschlecht und Ausbildung (absolut gleiche Unterschiede)
Schulabschluß
männlich
weiblich
Durchschnitt
HS
13
7
10
MR
19
13
16
Abi
22
16
19
Durchschnitt
18
12
15
Die
Varianz-/Kovarianzanalyse
141
Hier verdienen die Frauen auf allen Stufen 6 DM weniger als die Männer und die Lohnunterschiede zwischen den Stufen sind für Männer und Frauen absolut gleich. Zur besseren Vergleichbarkeit sind die Randverteilungen in etwa konstant gehalten worden. Für diese Tabelle läßt sich SAQ-zwischen vollständig auf die Haupteffekte SAQA SAQg
und
aufteilen (138 = 84 + 54).
5. Die Stärke des Zusammenhangs in der mehrfaktoriellen Varianzanalyse wird durch einen multiplen rj2 -Koeffizienten bestimmt: 2
SAQ-gesamt
SAQ -
SAQ-innerhalb gesamt
Signifikanztests für die Zusammenhänge in der Grundgesamtheit liegen sowohl für die Gesamtwirkung wie die Einzelwirkungen der Faktoren und ihre Wechselwirkung vor: a) Test der Gesamtwirkung von A, B, AB
(5-14)
F0(Ges.) mit
2 X2 + ¿>3
+ ••• bq xq
Die einzelnen Varianten des Allgemeinen Linearen Modells ergeben sich vor allem aus den Ausdifferenzierungen dieser Funktionsgleichung. Bezüglich der Anzahl der unabhängigen Variablen unterscheiden wir den Fall einer vom Fall mehrerer Unabhängigen.
Das Allgemeine Lineare Modell
223
Das zweite Kriterium betrifft die Skalenqualität der einbezogenen Variablen, wobei metrische bzw. intervallskalierte Variablen den nominal- bzw. ordinalskalierten gegenübergestellt werden. Letztere werden jeweils als Dummy-Variablen in das lineare Modell integriert. Als drittes Unterscheidungskriterium soll die den Parameterschätzungen zugrundegelegte Schätzfunktion dienen. Weisen die Variablen untereinander lineare oder einfach zu dichotomisierende Beziehungen auf, lassen sich die Parameter am einfachsten über die Methode der kleinsten Quadrate schätzen. In den Fällen multiplikativer Verknüpfung erfolgt die Linearisierung meist über den natürlichen Logarithmus, so daß zwischen den abhängigen Ausgangsvariablen und dem linearen Regressanden eine nicht-lineare Link-Funktion (vgl. Abschnitt 6.2) eingeschoben wird. Diese Vorgehensweise impliziert als Schätzfunktion für die Modellparameter die Maximum-LikelihoodMethode mit
Konsequenzen
hinsichtlich der Quantifizierung der Modellgüte und
-Signifikanz. Bei der Ausdifferenzierung der unterschiedlichen Modellvarianten schlagen wir den Bogen von der einfachen linearen Regression und Korrelation über die ein- und mehrfaktorielle Varianzanalyse bis hin zum sogenannten saturierten kovarianzanalytischen Modell, bei dem die unabhängigen Variablen sowohl aus metrischen, nicht-metrischen (dichotomisierten) Variablen und aus allen denkbaren Wechselwirkungen innerhalb und zwischen den Variablen unterschiedlichen Typs bestehen. Als Grenzfälle der einfachen Analyse beziehen wir auch die Modellvarianten ein, die sich ergeben, wenn auch die abhängige Variable X] eine dichotome, 0,1-skalierte Variable L\
ist.
Mit dem Begriff der verallgemeinerten linearen Modelle wird der Ausweitung des ALM auf die durch logistische oder probabilistische Links linearisierten Verfahren der Probitund Logit-Analyse, der logistischen Regression und der loglinearen Modelle und deren Verknüpfung mit der multiplen Regression sowie der mehrfaktoriellen Varianzanalyse oder mit beiden Komponenten. 3. Zur Quantifizierung der Erklärungskraft eines Modellzusammenhangs und zur Bestimmung der Signifikanz der Modellkomponenten stehen zwei unterschiedliche, wenn auch aufeinander beziehbare Verfahrensweisen zur Verfügung. Für metrische abhängige Variablen in originär linearen Beziehungen werden die Regressionsparameter nach der Methode der kleinsten (Fehler-)Quadrate geschätzt. Die Zusammenhangsmaße und die Signifikanztests basieren auf der vollständigen Aufteilung der Gesamtvarianz der abhängigen Variablen bzw. deren SAQ-Gesamt in einen erklärten und einen nicht erklärten (Fehler-)Teil: SAQ -
gesamt
-
SAQ-erklärt
+ SAQ-nicht
erklärt
224
Das Allgemeine Lineare Modell
- 3c, ) 2
(7-2)
=
+ £ < x, - xf ) 2
- xx 9
Als maßgebliches Kriterium zur Beurteilung der Stärke eines linearen Zusammenhangs im A L M ist der Korrelations- bzw. Determinationskoeffizient r
bzw.
r
nach Bra-
vais-Pearson herausgearbeitet worden. Diese basieren auf dem Verhältnis von erklärter Varianz zur Gesamt-Varianz der abhängigen Variablen. Konkret legen wir die jeweilige S u m m e der Abstandsquadrate (SAQ) nach (7-2) zugrunde:
(7
3)
r2
=
SAQ-erklärt
£(*f-*l)2
=
^(jcj-^)2
SAQ-gesamt
2 Nach dem gleichen Prinzip ist der 77 -Koeffizient der klassischen Varianzanalyse konstruiert. Für Regressionsmodelle, deren Parameter über die Maximum-LikelihoodMethode geschätzt wurden, steht i.a. keine Varianzzerlegung entsprechend (7-2) zur Verfügung. Gerade für linearisierte Modelle kann (7-2) oft nur für die linearen Formen und nicht für die Beobachtungen und die Funktionswerte der Ausgangsfunktionen formuliert
werden.
Für
die
Determinationskoeffizient
derartige Modelle Rh
läßt
sich
u.U.
der Beobachtungen auf der Basis der Funktionswerte
x\
Art
Pseudo-
(saturiertes Modell
gegenüber einer log-Likelihood auf der Basis des Mittelwertes x\ Ma)
eine
definieren, der die Verbesserung der log-Likelihood M\)
(reduziertes Modell
ausdrückt. Da das reduzierte Modell im saturierten Modell eingeschlossen ist
(M0 c i l / | ) ,
ist die Likelihood des saturierten Modells größer als die des reduzierten
(L0 < L], mit 0 < L0, L\ < 1).
(7-4)
RlL
J-)LL0-{-)LLx ( l
[vgl. (6-18)] o
Mit dem Likelihoodquotienten LQ n
(7-5)
LQ
SAQ - res SAQ-
ges
[vgl. (2-49) und (6-19)]
verfügen wir zudem über ein Maß, das sich ebenfalls auf Varianzverhältnisse zurückführen läßt.
Das Allgemeine Lineare Modell
225
4. Die induktiven Aspekte des Allgemeinen Linearen Modells liegen einmal in den Si-
gnifikanztests für das Gesamtmodell und seinen Komponenten und in der Bestimmung von Konfidenzbereichen f ü r seine Parameter. Analog zur Übertragung der Komponenten aus der Varianzzerlegung (7-2) auf die F-Tests zur einfachen bzw. multiplen Korrelation lassen sich auch die Likelihoods des saturierten und des reduzierten Modells zur Signifikanzprüfung Likelihood-geschätzter Modelle verwenden. F ist in den Signifikanzprüfungen ersten Typs definiert als Verhältnis der durch die zugehörigen Freiheitsgrade dividierten Summen der erklärten bzw. nicht erklärten Abstandsquadrate
(7-6)
/hSAQ-erklärt
r 02
__ } ^ ( x [ - x
1/ SAO SAQ- -nichterklärt nichterklärt 02
1/
x
-x{
)
2
)2
Die Verfahren zur Bestimmung der Modellgüte und zum Testen der Signifikanz über die Maximum-Likelihood-Methode greifen entweder auf das für die Kontingenzanalyse 2
entwickelte
% - K o n t i n g e n z m a ß bzw. den
2
% -Anpassungstest oder auf die den
Schätzverfahren kohärenten Likelihood-Quotiententests zurück. Sowohl der Likelihood-Quotient nach (7-5) wie der log-Likelihood-Quotient LLQ
(7-7)
LLQ
• 21n LQ = - 21n =S- = 2(ln La - In L, ) L \ = 21n
SAQ — res SAQ-ges
[vgl. (6-19), (6-20)]
•• «[lni^Aß - ges) - In (SAQ - res)]
stellen
- verteilte Größen dar, deren Freiheitsgrade sich aus der Differenz der An-
zahl der Modellparameter
q\ - q0
ergeben. Die Hypothese, daß das saturierte Modell
gegenüber dem reduzierten Modell keine Verbesserung darstellt, kann verworfen werden, wenn
LLQ >y
ist. Auf die Beziehung zwischen dem
% - u n d dem Likeli-
a
o
hood-basierten Ansatz und beider zu den Komponenten aus der Varianzzerlegung wurde in Abschnitt 2.4 ausführlich eingegangen.
226
Dan Allgemeine Lineare
7.3
Die Modellvarianten
7.3.1
Die Vier-Felder-Kontingenztabelle
Modell
Die einfachste Form der Darstellung eines Zusammenhangs zwischen zwei dichotomen Variablen A und B in der Vier-Felder-Tafel bildet den Ausgangspunkt einer Reihe von Zusammenhangsmaßen auf der Basis des x 2 - Koeffizienten, der aus den beobachteten Häufigkeiten der Kontingenztabelle ( f b ) und den bei Unabhängigkeit der Variablen zu erwartenden Häufigkeiten ( f e ) berechnet wird:
ZS
(7-8)
=
2
^(fb~fe) e,b= 1
mit
2,5 = 2
fe
Werden die dichotomen Variablen A und B in die 0,1 -Variablen
L\
und
D2
reko-
diert, so ergibt sich die 4-Felder-Kontingenzanalyse als einfachste Form des ALM in folgender linearen Beziehung: (7-9)
Df
= q+c2D
= /(D2)
2
Der aus der Formel zur einfachen Korrelationsanalyse [vgl. (1-24)] unter Verwendung der Variablen
D]
und
D2
errechnete Determinationskoeffizient
proportional zum nach obiger Formel errechneten £
- Wert
r2
verhält sich
1
_*2
r
(7-10)
2
Daraus folgt die Gleichheit zwischen dem Korrelations- und dem ® - Koeffizienten:
(7-11)
Irl
= 0 =
lX
Die Signifikanz des Zusammenhangs kann unter gewissen Annahmen durch einen 2
X - Unabhängigkeitstest bei
0 = (z-l)-(s-l)
Freiheitsgraden getestet werden. Die
Diese Entsprechungen lassen sich durch die Werte „ 0 " bzw. „1" in der Formel (1-25) durch Ersetzen der metrischen Variablen über das Zwischenergebnis
1 —X
n
2 (n\]-n22~n\2n2])
2 -
(nu+nn)(n2\
+«22 )( n l 1 +n21 Xnl 2+"22)
ableiten.
Das Allgemeine Lineare Modell
227
2 Ergebnisse des % - Tests bei
f = / ( x 2 ... x^) über eine Linkfunktion mit der Variablen
verknüpft wird. Die Linkfunktion erhält, je nach Modell, eine unterschiedli-
che Form. Für das bisherige ALM wird die identische Linkfunktion
>f = xf
ange-
nommen. Für die Probitanalyse hatten wir die Linkfunktion: yf
= F'* ( x )
[vgl. (6-5)]
für die Logitanalyse und die logistische Regression die Linkfunktion:
yf
= logit («) = In
1 — 7t
[vgl. (6-8)].
Die entsprechenden Response-Funktionen waren für die Probitanalyse k
=F(a+b2X2+...bkxk)
[vgl. (6-23)]
Das Allgemeine
Lineare
Modell
233
und für die Logitanalyse bzw. die logistische Regression a+b x
e
22
-bkxk
+
JZ 1+
[vgl. (6-25)]
a+b x
e
2 2+-bkxk
2. In der Literatur 1 finden sich darüber hinaus das komplementäre log-log-Modell mit der Linkfunktion c
(7-26)
= In [ - l n ( l - T T ) ]
und der Verteilungsfunktion der Extremwertverteilung 2 als Responsefunktion (7-27)
= 1 - exp(-exp(a + ¿>2*2 + ••• ^kxk ))
K
3. Ist die zu erklärende Variable
f ß , etwa wie in Abschnitt 6.3 die Zellenhäufigkeit
einer zweidimensionalen Kontingenztabelle, Poisson-verteilt mit ihrem Erwartungswert rrijk als Parameter, so kann m ^ über eine natürliche Linkfunktion mit einem linearen Prädiktor yc
verknüpft werden. c
(7-28) Stellen die
xj
= I n ( m j k ) = a + b2x2
+ ...
bkxk
die zu Dummy-Variablen rekodierten Faktoren und ihre Wechselwir-
kungen dar, so ist (7-28) die generalisierte lineare Schreibweise der loglinearen Modelle aus Abschnitt 6.4, vgl. (6-51) 3 . Das generalisierte lineare Modell unterscheidet sich von ALM außer durch eine „generalisierte" Linkfunktion - wofür jede monotone differenzierbare Funktion zugelassen ist - auch durch eine „generalisierte" Fehlerverteilung. Im Prinzip sind dazu alle Familien von Exponentialverteilungen zugelassen. Zu den wichtigsten zählen neben der Normalverteilung die Binomial-, die Poisson- und die Gammaverteilung. Für diese Verteilungen sind als natürliche oder als sog. kanonische Linkfunktionen diejenigen definiert, die den Verteilungsparameter als linearen Prädiktor verwenden, als Beispiel vgl. (7-28). Für die Bestimmung der Güte des multiplen Gesamtmodells und seiner Signifikanz gelten (unter Berücksichtigung entsprechend modifizierter Freiheitsgrade) die in Abschnitt. 6.2.4 und 6.3.5f. für die logistischen Ansätze beschriebenen Verfahren. 1 2 3
Vgl. z.B. Fahrmeir u.a.(1996) S. 248. Vgl. z.B. Rinne (1995) S. 306 ff. Zu den Einzelheiten vgl. Fahrmeir u.a. (1996) S. 253 ff. und 577 ff.
234
Das Allgemeine
Lineare
Modell
7.4
Multivariate Erweiterungen des ALM
7.4.1
Empirische und methodische Aspekte des Multivariaten Linearen Modells
1. Das Allgemeine Lineare Modell ist allgemein in dem Sinne, daß es alle möglichen Variablentypen und deren Kombination in einem einzigen Modell zusammenführt. Es ist in dem Sinne nicht allgemein, als dies nur für die rechte Seite der Gliederung, also für die unabhängigen Variablen, gilt. Nun kommt es in der Empirie so gut wie nie vor, daß ein betrachteter Ursachenkomplex nur eine einzige abhängige Größe tangiert. Das ALM, selbst in der zuletzt betrachteten generalisierten Form, kann diesem Sachverhalt nur dadurch Rechnung tragen, daß es die Gesamtwirkung eines Ursachenkomplexes bezüglich vieler abhängiger Variablen in separaten Analysen modelliert. Vom methodischen Aufwand vieler paralleler Rechnungen einmal abgesehen, erhebt sich die Frage, ob die Erfassung der Gesamtwirkung additiv möglich ist, oder ob nicht doch eine simultane Analyse der Strukturen im Satz abhängiger Variablen angemessener wäre. 2. In die multivariate Erweiterung des allgemeinen linearen Modells fließen auch Überlegungen ein, die aus der theoretischen und empirischen Konzeption des Untersuchungsmodells herrühren. Sowohl bei den unabhängigen wie bei den abhängigen Variablen gibt es welche, die singulär einen bestimmten Sachverhalt beschreiben, dazu sind vorallem die persönlichen Daten, wie Alter, Geschlecht, Bildungsniveau, Einkommen usw. zu nennen. Andere Variablen haben den Status von Indikatoren für einen abstrakten Sachverhalt, der i.A. als theoretisches Konstrukt konzipiert ist. Zu dessen Operationsalisierung werden dann in der Regel eine ganze Reihe von Variablen benötigt, um die verschiedenen Dimensionen dieses Sachverhalts empirisch zu erfassen. Da in der wirtschafts- und sozialwissenschaftlichen Theorie i.A. mit derart abstrakten und komplexen Begriffen gearbeitet wird, ist eine multivariate Erweiterung der abhängigen Komponente des Regressionsmodells naheliegend. Natürlich ist diese Überlegung vom Verhältnis der komplexen theoretischen Begriffe zu den Beobachtungsvariablen auch für die rechte der Seite der Regressionsgleichung relevant. Gerade der multiple Fall ist oft davon geprägt, daß eine Reihe von erklärenden Variablen sehr eng miteinander korreliert sind, weil sie den Status von Indikatorvariablen aufweisen. Es ist deshalb durchaus von Interesse, den gesamten Satz unabhängiger Variablen JCJ ... xr
unter dem Indi-
katorenaspekt zu strukturieren bzw. theoretisch vorgegebene Zuordnungen einzelner Indikatoren zu einem abstrakten Begriff statistisch zu überprüfen.
Die empirische Bedeutung von Variablensätzen resultiert aus der Schwierigkeit, die Begriffe der Theorie unmittelbar einer Messung zugänglich zu machen. Oft benötigt
Das Allgemeine Lineare Modell
235
man sogar mehrere Messungen auf unterschiedlichen Skalen, um einen theoretischen Begriff einigermaßen erschöpfend empirisch darzustellen. Die Beziehung zwischen den „latenten" theoretischen Variablen und den „manifesten" Meßvariablen wird in den Methodenlehren der empirischen Wirtschafts- bzw. Sozialforschung in ihren unterschiedlichen Nuancen auf der Operationalisierungsebene als Verhältnis einzelner Indikatoren zu einem Indikandum und auf der Ebene der Daten-Aufbereitung als Indexbildung thematisiert. Als oft angeführtes Beispiel sei hier auf das theoretische Konstrukt „sozialer Status" und die ihm empirisch zugewiesenen Statusvariablen Einkommen, Beruf, Bildungsabschluß, Lage und Größe der Wohnung, Hubraum des PKW u.a. verwiesen. Die statistische Behandlung der Beziehungen zwischen den latenten und den manifesten Variablen ist in der Praxis komplizierter als es auf den ersten Blick erscheint. Eigentlich sollten bereits bei der Operationalisierung des theoretischen Konstrukts die Korrespondenzregeln zwischen den beiden Variablentypen geklärt werden, insbesondere die Fragen, ob die Indikatoren als absolute oder als relative Größen auf das Indikandum bezogen werden, d.h. ob sie bei der Auswertung additiv oder multiplikativ miteinander verknüpft werden. Ist die theoretische Verknüpfung additiv, stellt die Linearkombination (vgl. 7.4.2) das adäquate Modell der statistischen Aufbereitung eines erhobenen Datenkomplexes dar. Die Gewichte der Variablen in der Linearkombination hängt einmal davon ab, ob die Meßvariablen für die latente Variable von gleicher theoretischer Bedeutung sind, zum anderen davon, ob sie auf den gleichen Skalen gemessen werden. Ist die Annahme der gleichen Bedeutung gerechtfertigt, müßten bei ungleichen Skalen die standardisierten Meßwerte der Indexbildung zugrunde gelegt werden. Die theoretischen Variablen sind i. A. eindimensional konzipiert, wohingegen die Indikatoren oft unterschiedlichen Dimensionen zugehören. So ist z.B. der Hubraum eines Pkw möglicherweise nicht nur aus Statusgründen etwas größer, sondern auch durch eine berufsbedingte überdurchschnittliche Jahresfahrleistung. Dies führt formal gesehen bei den Untersuchungsobjekten meist zu differierenden Skalenwerten bei den Indikatoren und unter inhaltlichen Aspekten zur Auflösung einfacher Beziehungen zwischen dem Indikator und dem Indikandum. Läge eine einfache Beziehung vor, würde ein Indikator ausreichen. So wie das theoretische Konstrukt empirisch vielfältige Facetten aufweist, zeigt sich der empirische Indikator nicht mehr nur noch von einer theoretischen Variablen geprägt. Die genannten Statusvariablen müssen also nicht nur auf der sozioökonomischen Ebene kontingent sein, sie könnten es etwa über das Geltungsbedürfnis des Haupternährers auch auf der psychologischen Ebene sein. Beide theoretischen Dimensionen könnten durch unterschiedliche Linearkombinationen der gleichen Ausgangsvariablen repräsentiert werden, in denen die einzelnen Meßvariablen mit diver-
236
Das Allgemeine
Lineare
Modell
genten Gewichten vertreten wären. Gerade dieser Aspekt wird bei den nachfolgend vorgestellten Methoden der kanonischen Korrelation und der Faktorenanalyse Bedeutung erhalten. 3. Die multivariate Erweiterung des ALM (MLM) besteht also darin, Variablensätze zum Gegenstand der Betrachtung zu machen. Diese quantitative Ausweitung konstituiert je nach Variablentyp unterschiedliche multivariate allgemeine Modelle, von denen die wichtigsten hier kurz angesprochen und in den folgenden Kapiteln ausführlich vorgestellt werden sollen: •
In der kanonischen Korrelationsanalyse stehen sich zwei metrische Variablensätze gegenüber: x\...xp=f (xp+\...xp+g). Sie ist damit der einfachste Fall der Analyse der Beziehung zwischen zwei durch Indikatorensätze operationalisierten theoretischen Konstrukten.
•
In der Faktorenanalyse wird ein Satz beobachteter metrischer Variablen x\... x^ aus einem Satz „künstlicher" Variablen F4 ... FQ erklärt: x\ ...x^ = f(FA ...FQ), wobei die künstlichen Variablen, die Faktoren, als Linearkombinationen aus dem Ausgangssatz abgeleitet werden und für die im Datensatz enthaltenen, theoretischen Dimensionen stehen.
•
In der multiplen Varianzanalyse (MANOVA) betrachten wir die Abhängigkeiten eines Satzes metrischer Variablen von einem Satz nichtmetrischer Variablen, die im ALM in Dummy-Variablen zu transformieren sind: x]...xk=f(Di...D
•
q
x\... x^ = f(A...
K)
bzw.
).
In der Diskriminanzanalyse schließlich stellen wir uns dem Problem, daß wir bisher noch kein Verfahren zur Hand haben, das es erlaubt, eine nominal- oder ordinalskalierte Variable mit mehr als zwei Ausprägungen als abhängige Variable zu analysieren:
At=f{xv..xk),
l =
\...g.
Wenn wir, wie bereits an anderer Stelle, die Variable A dichotomisieren, generieren wir auch hier ein lineares Modell aus zwei Variablensätzen: D\...Dq = f(x\,... x^) .Der Analogie zwischen kanonischer und Diskriminanzanalyse entspricht in etwa die zwischen der multiplen Regressions- und Korrelationsanalyse und der Varianzanalyse. Die Relevanz einer einzelnen Variablen im Gesamtmodell steht und fällt dann nicht mehr mit ihrem partiellen Beitrag zur Erklärung der Zielvariablen, sondern mit ihrem Gewicht innerhalb der jeweiligen Indikatorvariablen. Für die modelladäquate Behandlung des Verhältnisses von theoretischem Konstrukt und indizierenden Variablen ist der Begriff der Linearkombination von zentraler Bedeutung. Ihm sollen deshalb die folgenden Abschnitte gewidmet werden.
237
Das Allgemeine Lineare Modell
7.4.2
Exkurs: Algebraische und matrixalgebraische Aspekte des Multivariaten Linearen Modells - Linearkombinationen von Variablen und ihre Schreibweise
1. Die Analyse der Zusammenhänge zwischen Variablensätzen läßt sich formal und inhaltlich vereinfachen, wenn die Informationen der jeweiligen Variablensätze selbst konzentriert werden. Dazu bilden wir ein formales System aus einem Satz von Variablen. Wir nennen dieses formale System Linearkombination (LK) Ui und definieren es als Summe der gewichteten Ausgangsvariablen x\ ...x^ : (7-31)
Ui
=(al+blxu) = a0+bl
+ -(ak+bk
+ (a2+b2x2i) xu +¿2
x
ki)
x
i + - h
ki
k
= a0
+
^bjXjl
mit
7=1 k a
o
Die bj
=
werden als Gewichte der Variablen, die bj • xj
bezeichnet. Für
j = 2...k
als Komponenten der LK
läßt sich auch die multiple
Regressionsgleichung
k
x\ = a 0 + ^ b j Xj als LK auffassen, wobei die Gewichte b j nicht beliebig sind, 7=2 sondern über die Methode der kleinsten Quadrate ermittelt werden. 2. Hier interessieren wir uns vor allem für die statistischen Eigenschaften einer Linearkombination. So ergibt sich der Mittelwert einer Linearkombination kombination der Mittelwerte der Ausgangsvariablen
(7-32)
U
= - I Ui «/=1 1 " =- °L(a0+bxxli+b1x2i+..bk
«! = 1
= a0 + b{x 1 +¿>2*2 k
= a 0 + I bjXj 7=1 Für die Varianz einer Linearkombination erhalten wir:
xki ) +~hJk
U
als Linear-
238
(7-33)
Das Allgemeine Lineare Modell
VAR(U)
sh^-iiUi-ü) M
2
1=1
,2
n k :%b2jS]+2 H
k bjbj*
COV(Xj,Xj*)
JJ*=1
Die Varianz ergibt sich somit als Summe der mit den quadrierten Gewichten multiplizierten Varianzen und des Zweifachen der mit den Kreuzprodukten der Gewichte multiplizierten Kovarianzen der Ausgangsvariablen. 3. Betrachten wir den geteilten Variablensatz
x\ ...xp und xp+\...
xp+(j,
so ergeben
sich U und V als LK der Teilsätze. U
=au+b\X\
+ ...bpxp
V
=av +bp+]
xp+]
und
+ ...bp+q
xp+q
Die Kovarianz der Linearkombinationen ist dann: (7-34)
COV(U,V)
»/=i
[bp+1
( x
p +
1 -
X p
+
\ ) + ...bp+q
= blbp+l COV{x\,xp+\) + bpbp+q
( X
p +
q - X p
+
q ) ]
+...
COV(xp,xp+q)
Damit ergibt sich die Kovarianz der Linearkombinationen U und V als Summe der mit den jeweiligen Gewichten gewogenen Kovarianzen zwischen den einzelnen Variablen der Sätze.
Das Allgemeine Lineare Modell
239
Die K o r r e l a t i o n z w e i e r L i n e a r k o m b i n a t i o n e n U und V ist zuerst einmal eine e i n f a c h e lineare Korrelation zwischen d e n Variablen
{/,
und
Vj. Ihre Stärke ergibt sich über
den e i n f a c h e n Korrelationskoeffizienten n ™ (7-35)
ruv
=
COV(U,V) ¿u •V
Für den Fall der K o r r e l a t i o n einer e i n z e l n e n V a r i a b l e n m i t e i n e r L i n e a r k o m b i n a t i on (Fall der multiplen Korrelation) k ö n n e n wir den Korrelationskoeffizienten als einfaKorrelatic chen K o r r e l a t i o n s k o e f f i z i e n t e n zwischen einer Variablen x p + \ j und einer Variablen Uj
schreiben:
,7 (7-36)
ry
=
H
COV(Uj,xp+\) " ¿l/Jp+l
4. Als Spezialfall einer L i n e a r k o m b i n a t i o n betrachten wir L i n e a r k o m b i n a t i o n e n v o n s t a n d a r d i s i e r t e n V a r i a b l e n u n d dabei zuerst den Fall von mit „ 1 " gewichteten standardisierten V a r i a b l e n . U
_ n mit z j = 0 u n d S z . = 1
=Z\ + Z 2 + ••• z*
Für diesen Fall ergibt sich aus (7-32) und (7-33) (7-37)
U
=0
und
(7-38)
VAR(U)
k = k +2 £
rjj*
( j * j*)
j.J* D a m i t resultiert V A R ( U ) (vgl. Tabelle 7 . 2 ) als S u m m e der E l e m e n t e der Korrelationsmatrix des D a t e n s a t z e s
zv..zk
bzw.jc,...x t .
5. Als A u s g a n g s p u n k t f ü r die f o l g e n d e M a t r i x - B e t r a c h t u n g ' , dient die Matrix der einf a c h e n K o r r e l a t i o n s k o e f f i z i e n t e n über den Datensätzen
bzw. z\~.Zk'.
Die matrixanalytischen Sachverhalte werden dem mathematisch nicht so weit vorgebildeten Leser im folgenden anhand einfacher Operationen und Beispiele verdeutlicht. Darüber hinaus ist auf die mathematischen Einführungen, so z.B. auf die Lehrbücher zur „Mathematik für Wirtschaftswissenschaftler" hinzuweisen. Besonders empfehlenswert ist auch die Darstellung der „Grundbegriffe der Matrixalgebra von P. Kemeny, in: Fahrmeir u.a. (1996), S. 796-829.
240
Das Allgemeine Lineare Modell
Tabelle 7.2
Korrelationsmatrix
Zl
R =
22
z*
Zl
z
2
....
Zk
1
12
....
r
r
1
2\
r
\k
\k
r
2k
12
....
1
Die quadratische (k x k)-Korrelationsmatrix R mit den Elementen ßr j=j* ßrj*j*(j,j*
= l-k)
ergibt sich aus der standardisierten (n x k)-Datenmatrix Z mit den Elementen
Tabelle 7.3
zy
Datenmatrix aus standardisierten Variablen i
Zl
Z2
z*
1
zu
Z12
zu
2
Z21
Z22
z2;
n
Znl
Z«2
Znfc
Die einzelnen Korrelationskoeffizienten r^, resultieren als Produkt 2 des transponierten Zeilenvektors 3 z j mit dem Spaltenvektor Zj»:
(7-39)
rjj*
=z]-Zj*
= (Zj\
...Zjn) \
V
n — X zji • z j*i . ¡=1
Die Korrelationsmatrix R ergibt sich entsprechend aus der standardisierten Datenmatrix Z durch Vor-Multiplikation mit ihrer Transponierten Z 1
T
1 2
Im folgenden werden wir wieder auf den Index i verzichten. Wenn er der Eindeutigkeil wegen doch verwendet wird, ändert sich die Reihenfolge der Indizes in Zji •
2
3
Das Produkt eines Zeilenvektors mit einem Spaltenvektor ist definiert als S u m m e der Produkte der jeweils korrespondierenden Elemente. Der Zeilenvektor ZjT ergibt sich durch Transponieren (Schreiben einer Spalte als Zeile u.u.) des ursprünglichen (Spalten-) Vektors Zj.
Das Allgemeine
(7-40)
R
= - Z n
T
Lineare
Modell
241
[vgl. FN 1 , 2 ]
Z
Schreiben wir die Gewichte Wj in der LK {/,• aus standardisierten Variablen mit
u
=w\Zli
i
+w2z2i
- w
k
z
k i
als (k x 1 )-Spaltenvektor w, so ergibt sich £/,• als (n x 1) Spaltenvektor « als Produkt der Datenmatrix Z mit dem Spaltenvektor w: (7-41)
u
=Z w
(7-42)
Sjj
= - u n
T
mit 3
u =
-wT n
ZT
Z w=
wTRw
[nach (7-40)]
5. Wir betrachten nun den, für die später diskutierten Verfahren der kanonischen Korrelation und der Faktoranalyse wichtigen Fall einer Linearkombination U aus standardisierten Variablen zj... zp, deren Gewichte w\ ... wp so gewählt werden, daß U selbst eine standardisierte Variable mit U = 0 und VAR(U) = 1 ergibt. Für diese standardisierte Linearkombinationen interessieren uns vor allem die Relationen zwischen den einzelnen Variablen z\ ...Zp des Satzes und der LK U über diesem Satz sowie das Verhältnis zwischen den Variablen
Zj* ( j * = p + \,...p
+ q)
aus einem anderen Satz
von standardisierten Variablen und dieser LK. Diese Relationen lassen sich als einfache Korrelationen zwischen den Variablen z j bzw. zj* und der Linearkombination U darstellen:
(7-43)
rju
=
c
c
¿U • J j
=
n = W! rjx
n
[nach (1-26)] i=1
(W1Z1 +w2z2+...w
zp
}zJ
+ w2 r j 2 +... Wj • 1 + ... wp
• rjp
Analog ergibt sich:
1
Die transponierte Matrix entsteht aus der Augangsmatrix durch Vertauschen der Zeilen und Spalten
2
Der Multiplikation zweier Matrizen A • B = C Die Feldwerte Cjj*
3
Dabei gilt: ( Z • w)T
muß die Spaltenzahl von A der Zeilenzahl von B entsprechen.
von C ergeben sich aus dem Produkt der j-ten Zeile von A mit der j*-ten Spalte von B. = wT • ZT
.
242
Das Allgemeine Lineare Modell
(7-44)
= W! rj*j + W2 rj*,2
rj,tU
+-wprj*,p,
d.h. der Korrelationskoeffizient für die Korrelation zwischen
zj
bzw. zj*
und der LK
U ergibt sich selbst wieder als Linearkombination der einfachen Korrelationskoeffizienten
zwischen
den
Ausgangsvariablen,
gewichtet
mit
den
Ausgangsgewichten
u»!... w p . Stellt man den Gedanken aus Abschnitt 7.4.1 in Rechnung, daß ein Indikator nicht nur von einer theoretischen Dimension geprägt ist, dann ist nicht nur das Gewicht dieses Indikators in der Linearkombination zu beachten, sondern auch die Stärke der Korrelationsbeziehung zwischen dem Indikator (=Zj) und dem Indikandum (=U), wie sie in (7-43) zum Ausdruck kommt. Dabei zeigt sich in der folgenden Beispielsrechnung für standardisierte Ausgangsvariablen (vgl. Punkt 6), daß diejenigen Indikatoren mit dem theoretischen Konstrukt hoch korrelieren, die selbst hochgewichtet sind und zudem mit anderen, ebenfalls hoch gewichteten Variablen eng korreliert sind. Betrachten wir alle Variablen Zj* (j*-p
+ \ ...p + q)
Zj (j = 1 ••• p) der Datenmatrix
der Datenmatrix
Zp
bzw. die Variablen
, so schreiben sich die Gleichungen
(7-43) und (7-44) in Matrixschreibweise (7-45)
ru
(7-46)
rj*u
Dabei stellen rju und rj*u
(p x 1)- bzw. (q x 1 )-Spaltenvektoren und
die (p x p)- bzw. (p x q)-Korrelationsmatrizen über den Variablen den Variablen
zj
und zj* dar. wp
Rp
Zj
und
Rp(/
und zwischen
ist der (p x 1) Spaltenvektor der Gewichte
wj.
Setzen wir nun die Analyse der Beziehungen zwischen zwei Linearkombinationen U und V auf der Basis standardisierter Ausgangsvariablen Zj und zj* fort und gewichten 9 9 wir so, daß S(j = Sy = 1, so erhalten wir entsprechend zu (7-35):
(7-47)
hjV
6. Bereits in der ersten Beispielsrechnung hatten wir, ohne dies explizit anzusprechen, beiden Variablen
„Partprof"
dete Linearkombinationen
und „Partpot"
zur einfachen
Regression-
und
mit Linearkombinationen waren ja mit den Gewichten
der Ausgangsvariablen
V01-V05
Korrelation
gearbeitet. „Eins"
und V11-VI5
Die gebil-
über den
Das Allgemeine
beiden Datensätzen
zur tatsächlichen
Entscheidungsbereichen.
und gewünschten
Lineare
Beteiligung
Modell
in
243
ausgewählten
Voraussetzung für dieses Vorgehen waren einmal
gleiche
Meßskalen und zum anderen unterstellte gleiche Relevanzen der einzelnen Bereiche für die theoretischen Konstrukte „Partizipationsprofil"
und „Partizipationspotential".
trachten
die Korrelationskoeffizienten
wir uns dazu nun, wie unterschiedlich
Gleichgewichtung
ausfallen und welche Indikatorvariablen
den empirisch
Betrotz
abgeleiteten,
theoretischen Konstrukten am intensivsten assoziiert sind. Ausdruck 7.1:
Korrelationsbeziehungen zwischen Ausgangs variablen und Linearkombinationen PARTPROF Partizipationsprofil
PARTPROF Partizipationsprofil V01 Reale Beteil: Personalentscheidungen V02 Reale Beteil: Anschaffung Arbeitsmittel V03 Reale Beteil: Arbeitsverteilung V04 Reale Beteil: Arbeitsausfuehrung V05 Reale Beteil: ArbeitsprozessAblauf
0,71426956
1
0,56766685
0,60222878
0,33752875
0,29434759
0,73105773
0,56766685
1
0,54779096
0,41437578
0,30075645
0,82424217
0,60222878
0,54779096
1
0,52300565
0,38103722
0,77184173
0,33752875
0,41437578
0,52300565
1
0,51929856
0,68945021
0,29434759
0,30075645
0,38103722
0,51929856
1
V12 V13 Beteilwunsch: Beteilwunsch: ArbeitsverteiAnschaffung lung Arbeitsmittel 0,85030753 0,76367634
V14 Beteilwunsch: Arbeitsausfuehrung 0,79619442
V15 Beteilwunsch: Arbeitsprozess-Ablauf 0,7819857
PARTPOT Partizipationspotential PARTPOT Partizipationspotential V11 Beteilwunsch: Personalentscheidungen V12 Beteilwunsch: Anschaffung Arbeitsmittel V13 Beteilwunsch: Arbeitsverteilung V14 Beteilwunsch: Arbeitsausfuehrung V15 Beteilwunsch: ArbeitsprozessAblauf
V02 V04 V01 V03 V05 Reale Beteil: Reale Beteil: Reale Beteil: Reale Beteil: Reale Beteil: Personalent- Anschaffung Arbeitsvertei- Arbeitsaus- Arbeitsproscheidungen Arbeitsmittel lung fuehrung zess-Ablauf 1 0,71426956 0,73105773 0,82424217 0,77184173 0,68945021
V11 Beteilwunsch: Personalentscheidungen 1 0,77215267
0,77215267
1
0,58147774
0,58800635
0,45740675
0,46440444
0,76367634
0,58147774
1
0,54418596
0,4955821
0,47637259
0,85030753
0,58800635
0,54418596
1
0,62744233
0,57253273
0,79619442
0,45740675
0,4955821
0,62744233
1
0,55824395
0,7819857
0,46440444
0,47637259
0,57253273
0,55824395
1
244
Das Allgemeine Lineare Modell
Als Ergebnis erhalten wir Korrelationskoeffizienten gangsvariablen,
zwischen den LK's und den Aus-
die durchweg höher sind als die zwischen den Ausgangsvariablen.
zweites zeigt sich, wie schon in Abb. 1.4 und 1.5, daß vor allem die mit der assoziierten
Entscheidungsbereiche
Arbeitsprozesses)
(Arbeitsverteilung,
Ablauf
von Bedeutung
sind. Dies sollte Rückwirkungen
des Ent-
auf unser Ver-
ständnis der Variablen „Partprof"
und „Partpot" haben, indem bei deren
on die Aspekte der Mitbestimmung
am Arbeitsplatz stärker bedacht werden.
7.4.3
Produktion
Arbeitsausführung,
für die tatsächliche bzw. gewünschte Integration in betriebliche
scheidungsprozesse
Als
Interpretati-
Fundamentale konstruktive Aspekte des Multivariaten Linearen Modells
1. Wie schon für das nicht-multivariat erweiterte ALM, lassen sich für das erweiterte Modell allgemeine Prinzipien zur Beurteilung der Stärke des Zusammenhangs zwischen den analysierten Variablensätzen und zur Prüfung der Signifikanz des Zusammenhangs entwickeln. Dies soll am Beispiel zweier metrischer Datensätze, einem Satz abhängiger Variablen
{x\...xk)
(x^+i ... x/(+r)
und
dem unabhängigen
Datensatz
aus den
Variablen
aufgezeigt werden. Dabei zielt das MLM letztlich nicht darauf, die
Struktur der einzelnen abhängigen Variablen zu analysieren, sondern die Struktur des gesamten Satzes (multivariates lineares Regressionsmodell). Statistisch gesehen manifestiert sich die Struktur einer einzelnen Variablen in ihrer Verteilung, charakterisiert durch die Verteilungsparameter, und die Struktur eines ganzen Variablensatzes in den Verhältnissen der einzelnen Variablen zueinander, die wir üblicherweise durch die einfachen Korrelationskoeffizienten bzw. deren Vorstufen, die Kovarianzen oder die Summe der Kreuzprodukte ausdrücken. Die Korrelationsmatrix
R
über den zu analysierenden Variablen ( JCJ ... JC^. ) bzw.
(z\ ••• z^)
bildet demnach
den Hauptansatzpunkt für die Beurteilung der Relevanz und Signifikanz des multiplen linearen Gesamtmodells. 2. Im ALM basierte sowohl das statistische Zusammenhangsmaß wie der Testansatz auf der Zerlegung der Varianz der zu analysierenden Variablen in einen erklärten und einen nicht erklärten Teil. Im MLM wird dieser Gedanke auf die Korrelationsmatrix bzw. auf ihre Komponenten, die Korrelationskoeffizienten übertragen. Gefragt wird danach, wie weit
die
Korrelation
( j t j* = 1... k) bestimmt (xk+\... xk+r).
rjj*
zwischen
zwei
abhängigen
ist durch die Variablen
Variablen
des unabhängigen
xj
und xj*
Datensatzes
Damit stellt sich die Frage, ob wir den Korrelationskoeffizienten rjj*
in einen autonomen Teil und einen bedingten Teil zerlegen können. Der bedingte Teil resultiert aus den Einflüssen der erklärenden Variablen und deren internen Korrelationen. Der autonome Teil wird getragen von der Korrelation der Partialvariablen
Das Allgemeine Lineare Modell
xj-(k+1
ur,d
••• k+r)
245
••• k+r) • Diese Überlegung soll am Beispiel zweier
xj*-(k+\
konträrer Sachverhalte verdeutlicht werden. Im einen Extrem könnte j e d e einzelne Variable xk+1
x j . . . xk
von den anderen Variablen
unabhängig sein. Die obigen Partialvariablen entsprächen dann den Aus-
••• xk+r
gangsvariablen. W i e auch immer die unabhängigen Variablen untereinander korreliert sein mögen, dies hätte keinen Einfluß auf die Korrelationsmatrix R. Deren einzelne Koeffizienten ergeben sich völlig autonom. Im anderen Extrem soll die gesamte Korrelation im ersten Datensatz durch den zweiten Datensatz bestimmt sein. Das wäre dann der Fall, wenn die obigen Partialvariablen nicht korreliert, d.h. ihre partiellen Korrelationskoeffizienten alle Null wären. Die Korrelationen im Datensatz resultierten dann erstens xk+1
aus
den
••• xk+r
Interdependenzen
ur)d
im
unabhängigen
Datzensatz
der
Variablen
aus den Korrelationen zwischen den Variablen der beiden Sätze. Es
liegt auf der Hand, daß sich für den ersten Fall keine statistische Basis für ein multiples lineares Modell ergibt. 3. Aus inferenzstatistischen Gründen sollen diese Überlegungen nicht anhand der Korrelationsmatrix, sondern anhand der Matrix der Summe der Abstandsquadrate und Kreuzprodukte ( S A Q K P - M a t r i x ) formuliert werden. Diese erhält auf der Hauptdiagonalen die Summe der Abstandsquadrate der einzelnen Variablen des Satzes (SAQ). Auf den anderen Positionen befinden sich die S K P , d.h. die Summe der Kreuzprodukte der Abstände eines Variablenpaares
(xj, xj*)
von ihren jeweiligen Mittelwerten. Die Ma-
trix T hat k x k Felder und ist um die Hauptdiagonale symmetrisch. Damit besteht T aus den folgenden Elementen:
n x
(7-48)
7>
, (.Xj-xjr
für j = j*(= Gesamt—SAQ)
. i=l 1 n
£ (xj-xj)(xj*-xj*)
für
j*(= Gesamt-SKP)
.¿=1
Tabelle 7.2
Matrix der Summe der Abstandsquadrate und Kreuzprodukte (SAQKP-Matrix) x\
x\
X(*1
x2
I ( * 2 -*2)(*1
xk
Xk
x2 x\
I
)(x2 --x2)
•
(x2
Z ( * 1 ~ x i X x k -Xk) I(x
Xk )(*2 - * 2 )
•
2
~x2)(xk
I (Xk - x k ) 2
-Xk)
246
Das Aligemeine Lineare Modell
Die SAQKP-Matrix ist somit die Vorstufe für die Varianz-VKovarianzmatrix, die sich aus der Division aller Felderwerte durch n ergibt, und für die Korrelationsmatrix, die aus der Division aller Kovarianzen durch die Standardabweichungen der beiden Variablen
xj
und
xj* bzw. in der Hauptdiagonalen durch die Varianzen selbst resultiert.
Zu den Elementen r.y der Korrelationsmatrix R bestehen also folgende Beziehungen:
-T...
(7-49)
rjj*
4. Im multivariat erweiterten Allgemeinen Linearen Modell wird die Matrix T aufgespalten in einen durch den Satz von unabhängigen Variablen xk+\ •••X/(+r bedingten Teil D und in einen autonomen, nicht abhängigen Teil S. Diese Aufspaltung wird als F u n d a m e n t a l t h e o r e m der multivariaten Varianzanalyse bezeichnet'. (7-50)
T
=D+S
Was bedeutet diese Aufspaltung für die einzelnen Elemente der Matrizen? In der Hauptdiagonalen von T stehen die SAQ-gesamt für die Variablen Xj(j = \...k). Diese können, wenn die abhängigen und unabhängigen Variablen metrisch skaliert sind, durch multiple Regression- und Korrelationsanalysen zwischen den Datensätzen auf der Basis (7-51)
xcj
=f(xk+v..xk+r),
(j=l..k)
in jeweils durch den anderen Variablensatz ( x k + \ . . . x k + r ) erklärte und nicht-erklärte Teile aufgespalten werden: (7-52)
2
= 1 (Xcj-Xj)2
+l(Xj-xCj)2
SAQ- gesamt
= SAQ-erklärt
+ SAQ-nicht-erklärt
l(xj-xj)
Die erklärten Teile der SAQ-gesamt bilden die Hauptdiagonale der Matrix D, die nicht-erklärten Teile die Hauptdiagonale der Matrix S. Nach dem gleichen Prinzip erfolgt die Aufteilung der Summe der Kreuzprodukte der Variablen xj und xj* mit ( j , j* = l... k):2
V g l . M a r i n e l l ( 1 9 8 6 ) , S. 3 2 f . D i e A b l e i t u n g e n t s p r i c h t d e r A b l e i t u n g von (1-21).
Das Allgemeine Lineare Modell
l ( X j - X j ) ( x
- X j * )
r
SKP - gesamt
= J1(xcj-xj)(x = SKP
c
j t
247
-xj*)+1(xj-xcj)(xj* -x
_ erklärt
+ SKP
_
nicht.
c
erklärt
Wieder werden die erklärten Teile der SKP zu Elementen der Matrix D und die nichterklärten Teile der SKP zu Elementen der Matrix S, jeweils außerhalb deren Hauptdiagonalen. Damit ergeben sich die einzelnen Elemente D .-.•* der Matrix D wie folgt:
Y ^ i x j - xj)2 (7-54)
für j = j *(= erklärte SAQ)
1=1
Djj*
n
- x j ) (xcj* - xj*)
für j * j *(= erklärte SKP)
i'=l
und entsprechend die Elemente s;;* der Matrix S:
£ ( X j - xcj)2
für j = j *(= nicht - erklärte
SAQ)
Sjj* =• /= 1
(7-55)
n X (x ; - xc; ){x :* - xct) 1 i=1
für j * j *(= nicht -
erklärteSKP)
Zieht man zum weiteren Verständnis dieser Matrixaufspaltung die korrespondierenden Korrelationsmatrizen heran, so enthält die zur S-Matrix kongruente Korrelationsmatrix außerhalb r
jj*-{k+U..Jc+r)
der
Hauptdiagonalen
die
partiellen
Korrelationskoeffizienten
während die zur D-Matrix kongruente Korrelationsmatrix
RD
auf
der Hauptdiagonalen die Determinationskoeffizienten zu (7-51) und außerhalb die Differenzen zwischen den partiellen und den einfachen Korrelationskoeffizienten rjj* ausweist. Die Matrix D wird als Hypothesenmatrix bezeichnet, weil mit ihr die Hypothese belegt werden soll, daß die Differenzen xCj - xj
nicht nur zufällig von Null ab-
weichen, sondern durch signifikante Beiträge der Variablen x . . . xk+r
bedingt sind.
Analog dazu wird die Matrix S als Fehlermatrix bezeichnet, weil in ihr der nicht aus den Variablen
xk+\ ... xk+r
erklärbare (autonome) Zusammenhang im Satz der parti-
ellen abhängigen Variablen r-ter Ordnung enthalten ist. Im Sinne des multiplen regressionsanalytischen Zusammenhangs von (7-51) können diese partiellen Variablen als Fehler bezeichnet werden.
r
)
248
Das Allgemeine Lineare Modell
5. Im obigen Beispiel, das wir später im Modell der kanonischen Korrelation genauer kennenlernen werden, war die Hypothese durch eine multiple Regressionsfunktion ausformuliert. Wenn, wie in der multivariaten Varianzanalyse, die unabhängigen Variablen nicht-metrischer Natur sind, erfolgt die Aufspaltung der SAQKP-Matrix T analog zur mehrfaktoriellen Varianzanalyse. Die xcj werden ersetzt durch die Zellenmittelwerte
Xß(l = 1... q), so daß die Matrix
D die Quadrate und Kreuzprodukte der Abweichungen der Zellenmittelwerte vom Gesamtmittel enthält, mit:
(7-56)
Djj* =•
q - 7 X ni(xji ~ x j ) /=1 q
X /=1
-Xj)(x:*i-Xj*)
für j = j*
(=SAQ-zwischen)
für
{=SKP-zwischen)
und entsprechend die Matrix S die Quadrate und Kreuzprodukte der Abweichungen der Zellenwerte vom jeweiligen Zellenmittel, mit: 1 "/ 2 I I.(Xßi-Xjl)
(7-57)
S j j*
-
für j = j* (= SAQ - innerhalb)
1=1 1=1 I
I (x
1=1 /=!
n i
-xji)(x
j n i
- x j * i ) f ü r ; * ; * {= SKP - innerhalb)
Dieses Modell läßt sich auch gut graphisch veranschaulichen. Dazu gehen wir von seiner einfachsten Variante, d.h. von einer nominalskalierten Variablen
A/ mit / = 1... 3
Ausprägungen aus. Dies ergibt drei Gruppen von Wertepaaren (in den waagerechten Ellipsen), für die sich die Zusammenhänge zwischen zwei beliebigen Variablen x j und x j* aus dem Satz von abhängigen Variablen wie folgt darstellen mögen:
249
Das Allgemeine Lineare Modell
Abbildung 7.2: Multivariate Yarianzanalyse (Regressionsbeziehungen zwischen zwei Variablen und einem Faktor) 1
X/1
X
Legende
j2
X;3
X;
gepoolte Varianz/Kovarianz gesamte Varianz/Kovarianz erklärte Varianz/Kovarianz
In den Matrix T repräsentieren die Tjj* xj*,
die Kreuzprodukte zweier Variablen
x j und
so wie sie in der einfachen Regressions- und Korrelationsanalyse ausgewiesen
werden. Der Sachverhalt, daß die Gesamtpunktewolke drei deutliche Zusammenballungen der Beobachtungen ausweist und daß diese noch dazu von der nominalskalierten Variablen
A;
verursacht werden, spielt dabei in der T-Matrix keine Rolle. Wohl aber
in der D-Matrix, w o auf der Hauptdiagonalen die mit den Gruppengrößen gewogenen S A Q ' s zwischen den Gruppenmittelwerten und dem Gesamtmittel und an den übrigen Stellen die Summen der ebenfalls mit den Gruppengrößen gewogenen Kreuzprodukte dieser Abstände zu finden sind. In der S-Matrix sind die Summen der mit den Gruppengrößen gewichteten gruppenspezifischen Varianzen und Kovarianzen dargestellt. Man
Der Unterschied zur entsprechenden Graphik einer mehrfaktoriellen Varianzanalyse besteht nur in der Ausdifferenzierung der Punktwolke in weitere Segmente.
250
Das Allgemeine Lineare Modell
spricht deshalb bei ihrem Inhalt auch von den gepoolten SAQ's bzw. SKP's der Ausgangsvariablen. Nach der Graphik gibt es zwischen den beiden Variablen
Xj und xj* keinen auto-
nomen Zusammenhang. Die Ergebnisse der einfachen linearen Regression und Korrelation sind ausschließlich auf das Wirken des Faktors A/ gegründet. Das hat zur Folge, daß sich die SKP-gesamt aus der T-Matrix vollständig in den SKP-zwischen
der
D-Matrix wiederfinden, während die SKP's innerhalb derS-Matrix einen Wert von Null haben. Die SAQ-Werte teilen sich wie in der einfachen Korrelationsrechnung auf die Dund S-Matrix im Verhältnis von erklärter und nicht-erklärter (=gepoolter) Varianz auf. 7.4.4
Korrelationsanalytische und inferenzstatistische Aspekte des Multivariaten Linearen Modells 1
1. Zur Beurteilung der Stärke und Signifikanz des Zusammenhangs zwischen den beiden Variablensätzen werden wir uns auf Maßzahlen stützen, die einerseits die bisherige Logik der Korrelationsmaße und ihrer Tests aufgreifen, andererseits aber in Betracht ziehen, daß die Verhältnis von Variablensätzen simultan beurteilt werden sollen. Dies erfordert es, die Matrizen selbst als statistische Größen zu analysieren. Die Darstellung des MLM in Matrixschreibweise (ab dem nächsten Abschnitt) parallel zur weiterverfolgten Schreibweise in Einzelgleichungen, dient deshalb nicht nur der Vereinfachung, sondern ist notwendige Voraussetzung für die Ableitung der zur Abschätzung der Modellgüte und zum Testen der Signifikanz benötigten statistischen Größen. Im wesentlichen handelt es sich dabei um die Determinanten und Eigenwerte der Matrizen und der Relationen von Matrizen, die wir gerade betrachtet haben. Unter statistischen Aspekten kann die Determinante als Maß der „generalisierten" Varianz einer Matrix 2 und ein Eigenwert als Teil dieser generalisierten Varianz interpretiert werden. 3 2. Ein Maß zur Betrachtung der Stärke des Zusammenhangs wird, analog zur Logik bisheriger Maße, insbesondere des Determinationskoeffizienten
R , auf der Relation
von erklärter und Gesamtvarianz aufbauen, also sich auf das Verhältnis der Hypothe1
2 3
Dieser Abschnitt behandelt sehr abstrakt übergreifende Kriterien zur Beurteilung der Güte und Signifikanz Multivariater linearer Modelle. U.U. empfiehlt es sich, die Lektüre bis zur Behandlung der Abschnitte 8.2 und 8.3 bzw. 9.2.2 und 9.2.3 oder 10.3.2 und 10.3.5 zurückzustellen. Norusis (1993) S. 82. Die Determinante det (A) oder | a |
und die Eigenwerte
die alle Elemente der Matrix einbezieht. Es gilt dabei
I I
Xj
|A| =
einer (p x /?)-Matrix A sind numerische Größen, P
FI
j=1 8.3 und 9.6.
A-j . Vgl. dazu vor allem auch die Abschnitte
Das Allgemeine
Lineare
Modell
senmatrix D zur Ausgangsmatrix T beziehen. Die Determinante det (T
251
1
D)
sowohl über das Verhältnis der Determinanten der beiden Matrizen
läßt sich
wie über das |r|
Produkt der Eigenwerte 0
l
der Matrix ( T ~ D )
ermitteln.'Die Algorithmen beziehen
sich entweder auf 0 oder auf das Verhältnis der Hypothesenmatrix D zur Fehlermatrix S auf der Basis und der Eigenwerte von
( S - 1 D). Die verfügbaren statistischen Prüf-
kriterien nehmen jeweils verschiedene Relationen zum Ausgangspunkt: •
das Maß A von Wilks basiert auf dem Produkt der Eigenwerte
X
von
( S - 1 D),
genauer auf: (7-58)
A
= n ( l + A;)-' i=i
Es stellt somit das Verhältnis von „generalisierter" erklärter Varianz zur „generalisierten" nicht-erklärten Varianz der T-Matrix der abhängigen Variablen dar. •
das Maß des größten Eigenwerts nach Roy legt den größten Eigenwert 0 m a x Matrix ( T ^ D )
•
der
zugrunde und
die Spurkriterien von Hoteiiing (HT) und Pillai (PT) rekurrieren auf eine Summe unter Verwendung der Eigenwerte der Matrix ( S - 1 D), genauer auf:
(7-59)
HT
(7-60)
PT
k = I Xj 7=1 k i = I (1 + Xj P
Alle diese statistischen Priifkriterien und die Analogien ihrer Priifkonzepte zu den bisherigen werden, ebenso wie die Kenngrößen „Determinante" und „Eigenwerte" einer Matrix, in den folgenden Abschnitten ausführlich behandelt. 3. Wie in Abschnitt 7.2 ausgeführt, basieren die Tests zur Modellgüte im ALM auf der t- bzw. F-Verteilung und im VLM auf der
- Verteilung. Die Tests im MLM stützen
sich entsprechend auf die multivariaten Verallgemeinerungen dieser Verteilungen. Zu
1
stellt die Inverse einer (p x p) Matrix A dar. In der Matrix-Algebra ist die Multiplikation mit einer Inversem die matrixalgebraisch nicht definierten Division. Es gilt A
^A = A A
' = /.
/ stellt die
Einheitsmatrix dar, mit „Einsen" auf der Hauptdiagonalen und „Nullen" an den übrigen Stellen.
(p x p)-
252
Das Allgemeine
Lineare
Modell
ihrer Darstellung 1 beziehen wir uns auf eine (ti x fc)-Datenmatrix y als Stichprobe aus einer multinormalverteilten Grundgesamtheit mit einem Vektor der Erwartungswerte ß=
0 und eine Varianz-/Kovarianzmatrix Z. Damit sind die einzelnen Variablen
y j ( j = 1... k)
bei beliebiger Varianz aj
Die SAQKP-Matrix tenmatrix Y (7-61) Für
auf die Erwartungswerte ßj=0
normiert.
T der Stichprobe ergibt sich als Produkt der transponierten Da-
mit der Ausgangsmatrix Y: =YTY
T
j* = j
erhalten wir die Hauptdiagonalelemente T;j von T, die a* • x1 -verteilt
sind. 2 Die Wahrscheinlichkeitsdichte der Matrix
T
insgesamt folgt einer Wishart-
Verteilung 3 mit (p = n Freiheitsgraden. Diese stellt die multivariate Verallgemeine9 rung der % - Verteilung dar. als Verhältnis einer Standardnormalvertei-
Im Abschnitt 2.1 (2b) war die t-Verteilung
lung zu einer % - V e r t e i l u n g bestimmt worden. Die der t-Verteilung
adäquate multiva-
2
riate Verteilung ist die Hotelling's T -Verteilung. Für unabhängige y
und T, mit y
multinormal-verteilt nach N (0, Z) und T Wishart-verteilt nach W (X, n), ist: T2
(7-62)
T',yi
= n y]
T 2 - (Hotelling's T 2 -) verteilt mit p und n Freiheitsgraden. Sind zwei Matrizen D bzw. S Wishart-verteilt mit r bzw. (n-r-1) Freiheitsgraden, folgt das Verhältnis der Determinanten ]s| und |S + D\ einer Wilks- A -Verteilung mit k, Freiheitsgraden 4
n-r-1 undr (7-63)
A
1 1
=, \S
= n
+
.=
,
I +S
1/
i-l
D
D\
a+^-r
1
M
Dabei stellen die
Xj die Eigenwerte der Matrix
mulierungen von
A
' 2
sind aus der Ausgangsdefinition des Verhältnisses der „generali-
zü
=
1 Oj
y ji
ist standardnormalverteilt und somit ist
J
"
X ,=1
graden X ^ — verteilt. 4
dar. Die verschiedenen For-
Vgl. dazu z.B. Fahrmeir u.a. (1996) S. 37ff.
1
3
S~'ü
Ihre Dichtefunktion ist in Abschnitt 9.9.3 (9-89) wiedergegeben. Vgl. Fahrmeir (1996) S. 136.
2
Z .. J'
1
"
2
= — X y ji Oj 1=1
mit
= n
Freiheits-
Das Allgemeine Lineare Modell
253
zierten" Fehler-SSKP-Matrix zur „generalisierten" Gesamt-SSKP-Matrix abgeleitet. A ist demnach nicht die multivariate Entsprechung des Determinationskoeffizienten
R
sondern dessen Komplement 1 — R . 4. Betrachten wir statt der Determinanten bzw. Eigenwerte die Likelihoods der Datenmatrix
Y unter der Hypothese der Relevanz bzw. Irrelevanz eines unabhängigen Da-
tensatzes
(yk+\ ••• yk+r) >
Wilks'schen A (7-64)
' s t der Likelihood-Quotient, analog zu (2-48), dem
äquivalent 1 :
A
=
LQlln
9 Da -2ln LQ nach (2-50) einer
% - Verteilung folgt, läßt sich die Verteilung von
A
auch durch eine % - Verteilung approximieren: 2 = — In LQ n
In A
(7-65)
- 2 In LQ
und somit
=-«lnA 2
Diese sogenannte Bartlett-Approximation -n In A testspezifischen Freiheitsgraden.
(7-66)
0 3;
D
können auch ins Verhältnis gesetzt werden
der Matrix T~lD mit: A: =—J— 1 + A;
A;
~ verteilt mit den jeweils
2
Die Xj als Eigenwerte der Matrix zu den Eigenwerte 6
ist x
bzw.
1-0j
Oj ist nun als Verhältnis der „generalisierten" erklärten Varianz eines Datensatzes zur „generalisierten" Gesamtvarianz eines Datensatzes eher im Sinne eines „generalisierten" Determinationskoeffizienten zu interpretieren 3 . Eine besondere Bedeutung hat der größte Eigenwert
0max
der Matrix T~'D,
da sich mit ihm die Hypothese eines Zu-
sammenhangs zwischen zwei Variablensätzen am unmittelbarsten testen läßt. Seine Verteilung ist ebenfalls bekannt. Sie wird als 0 -Verteilung bezeichnet. Vgl. Fahrmeir (1996) S. 89f und S. 138. Vgl. z.B. (8-20), (9-99) und (10-24). Z.B. in der Kanonischen Korrelation, vgl. etwa (8-24).
254
7.4.5
Das Allgemeine Lineare Modell
Anwendungsbeispiele zum Multivariaten linearen Modell
/. SPSS bietet zur allgemeinen Analyse multipler Zusammenhänge
zwei
unterschiedli-
che Konzepte an. Das multivariate varianzanalytische Modell „MANOVA", das seit der Version 7.0 aus dem Syntax-Editor
heraus gestartet werden muß, erlaubt
vielfältige
multivariate Analysen von metrischen und nichtmetrischen Datenblöcken, die z.T. - wie die nachfolgend behandelte kanonische Korrelation - nur noch mit MANOVA
durch-
geführt werden können. Die zweite Möglichkeit bietet die neue menügesteuerte
Proze-
dur „GLM-Multivariat",
die auf den Strukturprinzipien des multivariaten linearen Mo-
dells beruht; allerdings mit einem tabellarisch aufwendigem und oft redundanten Output aufwartet. Da sich die wesentlichen Basisinformationen,
insbesondere die Hypothe-
sen- und und die Fehlermatrix, leicht über MANOVA gewinnen lassen, stützen sich die folgenden Ausdrucke auf diese Prozedur. Parallel dazu sollen die entsprechenden grammschritte
Pro-
und Ergebnisse von GLM mit vorgestellt werden.
2.Anknüpfend an das Eingangsbeispiel
zur einfachen linearen Regression und Korrela-
tion wollen wir die hinter den Aggregatvariablen pationspotential"
„Partizipationsprofil"
stehenden Variablensätze VOl ... V 05 und VII
und „Partizi-
... V 15 nun unmit-
telbar aufeinander beziehen. Mit: MANOVA v11 v 12 v13 v14 v15 WITH v01 v 0 2 v 0 3 v 0 4 v 0 5 /PRINT SIGNIF(MULT UNIV HYPOTH ) SIGNIF(EFSIZE) CELLINFO(SSCP) ERROR(SSCP) /NOPRINT PARAM(ESTIM) /METHOD=UNIQUE /ERROR WITHIN+RESIDUAL /DESIGN .
werden über PRINT eine Reihe univariater und multivariater Tests durchgeführt die Hypothesenmatrix Einschlusses
sowie
„ERROR (SSCP)" angefordert. Die Definition der Methode des
und des Fehlerterms entsprechen den bereits bekannten
varianzanalyti-
schen Optionen Die Werte der T-Matrix der abhängigen Variablen nach Tab. 7.2 sind hier nicht wiedergegeben.
Sie lassen sich Uber das Menü zur bivariaten
Option „Kreuzproduktabweichungen
und Kovarianz" aufrufen. Als
von MANOVA führt SPSS multiple Regressionsanalysen
Korrelation,
Standardprogramm
zwischen jeder der abhängigen
Variablen und dem Satz von unabhängigen Variablen durch - z.B. also: VII
=f(V0I
TO V05) usw., entsprechend (7-51). Diese werden im SPSS-Ausdruck unter der Überschrift „Regression analysis for WITHIN + RESIDUAL hier aber nicht wiedergegeben den über „univariate
error term" präsentiert,
sollen
werden. Die entsprechenden Korrelationsanalysen
wer-
Tests" angefordert
WITHIN + RESIDUAL Regression/Univariate
und in Ausdruck F-Tests"
7.2 unter „EFFECT ...
vorgelegt.
Das AHgemeine Lineare Modell Ausdruck 7.2:
255
Tests der multiplen Regression auf die abhängigen Variablen
E F F E C T .. C O N S T A N T (Cont.) Univariate F-tests with (1;286) D. F. Variable
Hypoth. S S Error S S
Hypoth. M S
Error MS F
Sig. Of F
ETA Square
V11
177,5401
728,5272
177,5401
2,54730
69,69742
0,000
0,19595
V12
274,71196
614,26278
274,71196
2,14777
127,90555
0,000
0,30902
V13
203,76758
804,48383
203,76758
2,81288
72,44089
0,000
0,20210
V14
263,62531
854,46567
263,62531
2,98764
88,23858
0,000
0,23578
V15
224,39702
951,00645
224,39702
3,3252
67,48382
0,000
0,19091
Aus diesen Hintergrundanalysen
ergeben sich die ersten Hinweise auf die abhängigen
Variablen, die besonders eng mit dem Satz der unabhängigen Variablen verknüpft sind. Gleichzeitig liefern sie die Informationen für die Aufspaltung der SAQ- und SKP-gesamt nach (7-52) und (7-53). Die Resultate bezüglich der Djj* und Sjj* nach (7-54) und (7-55) finden sich in der Hypothesen- und Fehlermatrix (vgl. Ausdruck 7.3). Ausdruck 7.3
Fehler- und Hypothesenmatrix im multivariaten linearen Modell
Adjusted Hypothesis Sum-of-Squares and Cross-Products V11 V11
V12
V14
V13
V15
396,332
V12
313,206
314,734
V13
466,037
382,748
V14
302,158
275,807
457,209
398,613
V15
322,896
301,285
431,385
312,648
669,252 381,853
Adjusted WITHIN+RESIDUAL Sum-of-Squares and Cross-Products V11
V12
V14
V13
V15
V11
728,527
V12
281,209
614,263
V13
291,041
253,995
804,484
V14
240,893
258,895
395,445
854,466
V15
245,744
228,800
371,036
408,800
951,006
Multivariate Tests of Significance (S = 5, M = -1/2, N = 140 ) Test Name
Approx. F
Value
Error DF
Hypoth. DF
Sig. Of F 0,000
Pillais
0,95176
13,44797
25
1430,00
Hotellings
1,54546
17,33391
25
1402,00
0,000
Wilks
0,3055
15,77973
25
1049,09
0,000
Roys
0,50783
0,000
256
Das Allgemeine Lineare Modell
Die im dritten Segment des Ausdrucks wiedergegebenen
multivariaten
Tests folgen den
im letzten Abschnitt vorgestellten Ansätzen, vgl. (7-58) bis (7-60). Wählt man für die beiden Variablensätze Multivariat",
allem die Parameterschätzungen hier nicht präsentierten der zentralen
die menügesteuerte
und die beiden SSCP-Matrizen
Tabelle „Tests der Zwischensubjekteffekte"
dort als „korrigierte
Gesamtvariation"
I x f
Beobachtungen
werden die Beobachtungen Summe der quadrierten der Beobachtungen hängigen
„GLM-
anzufordern.
eingegangen
vor
Von den
Outputs soll vor allem auf die Spezifik der Quadratsummen
Ansatz der GLM setzt nämlich nicht an der
drierten
Analysevariante
empfiehlt es sich im Optionsdialog neben den deskriptiven Statistiken
werden.
in Der
an - diese wird
SAQ-ges
geführt - sondern an den Summen der qua-
, die in der Rubrik „Gesamt" verzeichnet ist. Damit
generell unter der Hypothese
Beobachtungen
Ho: po = 0 analysiert.
Die
stellen unter diesem Aspekt die Streuung
der
um den Nullpunkt dar. Die Untersuchung des Einflusses der unab-
Variablen
...
rende Regressionsfunktionen.
Xjc+r
verläuft in zwei Etappen und über zwei
Dabei wird der Erklärungsbeitrag
den
tionen nach (7-51) nicht nur bezüglich der einzelnen unabhängigen ebenso bezüglich der Regressionskonstanten
konkurrie-
Regressionsfunk-
Variablen
spezifiziert. Die Leistung dieses
sondern „konstan-
ten Terms" wird aus der Verbesserung der SAQ-reg abgeleitet, der sich ergibt, wenn von einer, der Ho: Ho = 0 entsprechenden, laufenden Regressionsfunktion Term übergangen
modellimmanent
zur herkömmlichen
wird. Im übrigen entsprechen
durch den Ursprung ver-
Regressionsfunktion
mit
konstantem
sich die Outputs von MANOVA
GLM zwar nicht in der Form, wohl aber weitgehend im Inhalt.
und
Die Kanonische
8
Die kanonische Korrelation
8.1
Einführung in die Problemstellung
Korrelation
257
1. Bei der kanonischen Korrelation fragen wir nach dem Zusammenhang zwischen zwei Variablenblöcken x, ...x und x ,...x , die in der Regel aus metrib 1
p
p+1
p+q
1
sehen Variablen bestehen. Aus diesen beiden Variablenblöcken bilden wir die Linearkombinationen U und V, deren Korrelation als einfache Korrelation zwischen zwei „künstlichen" Variablen betrachtet werden kann. Nehmen wir z.B. einen Satz von Belastungsfaktoren beim Autofahren, wie z.B. momentane Geschwindigkeit, Verkehrsdichte, Straßenverhältnisse, Fahrgeräusche und bisherige Fahrleistung in km und Stunden sowie einen Satz von physiologischen Variablen, die den Fahrstreß erfassen, wie z.B. Atem- und Pulsfrequenz, Blutdruck, Hauttemperatur usw., mittels derer der Zusammenhang zwischen auslösenden Faktoren und körperlicher Reaktion untersucht werden soll. Die Variablen der Sätze können jeweils als empirische Indikatoren für die theoretischen Konstrukte ,J3elastungsfaktoren" und „Fahrstreß" verstanden werden. Die Frage bei der Konstruktion komplexer Variabler ist die nach den angemessenen Gewichten, mit denen die Variablen hinsichtlich des Konstruktes in Relation gesetzt werden. Unter der Ausgangshypothese eines starken Zusammenhangs zwischen Reiz und Reaktion werden die Gewichte der Variablen in der Linearkombination bei der kanonischen Korrelation so gewählt, daß der statistische Zusammenhang zwischen U und V maximal wird. Dies wird im allgemeinen dazu führen, daß eine höhere Korrelation zu verzeichnen ist als bei der üblichen Gleichgewichtung, weil die Indikatoren, die das theoretische Konstrukt besonders gut repräsentieren, ein höheres Gewicht erhalten als die, die dies weniger gut tun. Auf den Algorithmus, der die Gewichte derart bestimmt, gehen wir später ein. 2. Vorerst ist maßgeblich, daß es sich um eine lineare Einfachregression zwischen den beiden „kanonischen" Variablen i / j undV ; handelt. (8-1)
Ui
Dabei wird mit
=f ' n der alle Elemente
294
Die
Faktorenanalyse
0 für
j*
1für j =
die Einheitsmatrix / darstellt:
sind, d.h. die
j*
R ~ bzw. / ? , . = / j*
q*
Bilden wir aus diesen voneinander unabhängigen, standardisierten (Rest-)Variablen z* den Faktor FJt = w]Jt • zj" +... wqJ, z* , so folgt für dessen Varianz: 2 Sjt
1 n 2 = — Y , F j * i =
w
2 \ J * +
w
2 2 J *
+
—
2 qJ*
w
=1 Nun resultiert aus R ^
[aus (7-33)]
bzw. R j * = I und aus (9-3): a]Jt = WjJt , also ist i
Vj*
= X j=i
i a
)j*
=
w
X
)J*
=
1
j=i
Wenn ein Faktor FJt einen Eigenwert von 1 hat, heißt dies, daß er aus dem ganzen Variablensatz der Stichprobe nicht mehr an Information extrahieren kann als in einer einzigen Variablen z j der Stichprobe selbst enthalten ist. Dieses Ergebnis führt zum sog. Eigenwertkriterium für Faktoren, nach dem nur solche Faktoren als statistisch sinnvoll akzeptiert werden können, deren Eigenwerte größer als „Eins" sind. 3. Anknüpfend an diese Überlegungen besteht ein erster statistischer Test darin, die Nullhypothese zu prüfen, daß die Korrelationsmatrix der Grundgesamtheit der Einheitsmatrix entspricht. (9-27)
Ho:pg
=/.
Diese Hypothese wird unter der Annahme normalverteilter Ausgangsvariablen mit Hilfe des sogenannten Sphärentests von Bartlett abgelehnt, wenn: (9-28)
xl
= - [ # i - ( 2 ß + ll)/6]ln bei r* =
A
ist das Produkt der Eigenwerte
Vj
A
^
2
der Korrelationsmatrix
damit gleichzeitig der Determinanten der Korrelationsmatrix.
Rq
und entspricht
1
Die Bedeutung der Eigenwerte der Korrelationsmatrix für den Testansatz und der Zusammenhang mit Abschnitt 7.4.4 ergibt sich im Abschnitt 9.4.3.
Die Faktorenanalyse
(9-29)
A
= 11 j=A
295
V j = | Rq
Eine Determinante nahe Null ist ein Indikator f ü r lineare Abhängigkeiten in der Korrelationsmatrix, die wiederum auf lineare Abhängigkeiten in den Ausgangsvariablen verweisen. Die Nullhypothese wird deshalb bei kleinem A
zurückgewiesen.
4. Steht der in (9-28) formulierte Test vor der Faktoranalyse, so erfolgt der statistische Signifikanztest f ü r die Restkorrelation der Variablen nach jeder einzelnen M Faktorextraktion. Die Nullhypothese besagt: H0
Pq-A,B...M
=
/
d.h., daß die Korrelationen zwischen den Restvariablen
der M-ten Ordnung alle
null sind und die Rest-Korrelationsmatrix nur noch die Korrelationen der Restvariablen mit sich selbst ausweist. Diese Hypothese wird abgelehnt, wenn (9-30)
Xo
(9-31)
A
= («-l)(ß-M)
——
f
Q-M
J =N
a
.wobei
V
J
1 Q-M
Q n
In A > x
und
Vj
somit dem Quotienten aus dem arithmetischen und dem geometrischen Mittel der N . Q kleinsten Eigenwerte entspricht. Die
- Verteilung hat 1 Freiheitsgrade, wobei
= - ( ß - M + 2 ) ( ß - M + l) ist. n
' Vgl. Marineil (1986) S. 1365 f.
296
Die
Faklorenanalyse
9.2.4
Die Image-Analyse: statistische Relevanz der Ausgangsvariablen
1. Empirisch und statistisch sinnvolle Faktoren lassen sich also nur bilden, wenn innerhalb des Variablensatzes Abhängigkeiten bestehen. Allerdings läßt sich eine deutliche Reduktion der Dimensionen nur erreichen, wenn die Faktoren nicht nur paarweise Korrelationen induzieren, sondern auf alle Variablen oder zumindest auf eine ganze Reihe einwirken. Beruhen die Interdependenzen also vorwiegend auf multiplen Verknüpfungen, und nur diese rechtfertigen die Faktorenanalyse, sollten die partiellen Determinationskoeffizienten zwischen je zwei Variablen - die jeweils anderen konstant gehalten wesentlich geringer sein als die einfachen Determinationskoeffizienten. Ein deskriptives Maß zur Bestimmung des Ausmaßes der Interdependenzen im Ausgangsdatensatz stellt das Kaiser-Meyer-Olkin-Maß dar. Es ist eine einfache Statistik zur Abschätzung der Hintergründe der Korrelationen im Datensatz. Das Maß bezieht nun die Summe der einfachen Determinationskoeffizienten zwischen allen Variablenpaaren auf die zusammengefaßten Summen der einfachen wie partiellen Determinationskoeffizienten: k
k
I
(9-32)
KMO
1
= -j—j
X X rjj* ;=i J*=i
r
I
'
jj*
1
+
\
(j*j*)
k
X X j=i ;'*='
r
jj*-2-k
Ein Wert von über 0,9 gilt als hervorragend, einer unter 0,5 als unakzeptabel. 2. Analog zum KMO-Maß für Korrelationsmatrizen bestimmt das MSA-Maß der Sampling-Adäquanz das Verhältnis von partiellen Determinationskoeffizienten zu einfachen Determinationskoeffizienten für jede der Variablen z .:
k
(9-33)
MSA.
J
=—k y
—k
r?,+
y
U*j*) 2
r .t
MSA.
bezieht sich also nicht auf alle Variablenpaare, sondern nur auf die aus der Va-
riablen
Zj
und den Variablen
Zj* (j* = 1... k). Auch hier sollten die Werte wieder
2 9 7
Die Faktorenanalyse
möglichst über 0,7 liegen. U.U. können Variablen mit niedrigen Werten aus dem Variablensatz eliminiert werden.
3. In der Image- bzw. Anti-Image-Analyse lassen sich die partiellen KorrelationsKoeffizienten bzw. ihre Komplemente direkt untersuchen. Als Image einer Variablen wird der Teil bezeichnet, der durch die anderen Variablen erklärt werden kann, als AntiImage dann ihr autonomer Teil. Unter der Anti-Image-Korrelation versteht man dann die autonome Korrelation zweier Variablen, deren Ausmaß durch die in den obigen Formeln verwendeten partiellen Korrelationskoeffizienten r jj*_2 k bestimmt wird. Diese sollten bei multiplen Interdependenzen nahe bei Null liegen, so daß ihr Komplement zum einfachen Korrelationskoeffizienten, der Anti-Image-Korrelation, möglichst groß ist.
9.2.5
Der Scree-Test: empirische Relevanz der Faktoren
Da vermutlich nicht alle statistisch bedeutsamen Faktoren auch empirisch relevant sein werden, bedient man sich einer graphischen Darstellung der Eigenwerte als Funktion der Rangordnungszahl des Faktors Vj
F j . Man prüft dabei im sog. Scree-Test, welche
auf einer gedachten Geraden liegen, und wählt nur die Faktoren FA --FM , die deut-
lich darüber liegen, für die empirische Analyse aus. Abbildung 9.2:
Scree T e s t 1
Screeplot 8
6
4
0)
CD Lu
-B-
o 3
5
7
9
11
13
15
17
19
Faktornummer
1
Die Bezeichnung folgt dem bildlichen Eindruck einer Geröllhalde (scree = Geröll).
21
23
25
27
298
Die Faklorenanalyse
In Abbildung 9.2 liegen
FA bis FD
deutlich über der Geraden durch die übrigen
Faktoren. 9.2.6
Erklärung der Variablen aus den Faktoren
1. Für die Güte der Faktorenanalyse ist bedeutsam, wie weit die M empirisch relevanten Faktoren den Variablenraum ausschöpfen. Für die einzelnen Variablen wird deshalb ermittelt, wie weit sie durch
FA ... FM
erklärt werden. Dies geschieht über die „Be-
stimmungsgleichung" der Variablen zj •
(9-34)
z)
=f{FA...FM) = a
jA ' FA+ajB
' Fß + -
a
jM ' Fu
2. Die Bestimmungsgleichung eröffnet der Faktorenanalyse die Möglichkeit einer Va2 rianzzerlegung von S . in einen erklärten und in einen nicht-erklärten Teil, analog zum Allgemeinen Linearen Modell. Man bezeichnet dabei den multiplen Determinati2 onskoeffizienten zur Gleichung (9-34) als „Kommunalität" hj der Variablen Zj:
(9-35)
hj
h)
M M = I rjj = X a]j J=A J—A
=R)a..M
stellt den kommunalen Teil der Varianz der Variablen
Zj dar und ergibt sich als
Zeilensumme der quadrierten Werte der Matrix der Faktorladungen (vgl. Tab. 9.3). Variablen mit geringer Kommunalität können u.U. aus dem Variablensatz ausgeschlossen werden. Die Residualvarianz
sj_A
M
läßt sich auch als Differenz zwischen dem Wert der Ge-
samtvarianz und der Kommunalität schreiben:
(9-36)
sj_A_u
=1 -hj
M = 1 - X a]j J=A
=S2U
Sie wird auch als spezifische Varianz oder Uniqueness bezeichnet. 3. Die durch die Faktoren
FA ... FM
insgesamt in z, ... zq
erklärte Varianz ergibt sich
aus der Summe der „Kommunalitäten" oder der Summe der „Eigenwerte" der Faktoren
Die Faktorenanalyse
q
(9-37)
V
299
M
= £ A? s j=l
£
V,
J=A
V/n gibt an, welcher Anteil der Gesamtvarianz des Variablensatzes durch die M empirisch relevanten Faktoren erklärt wird und bildet damit ein Maß zur Gesamtbeurteilung der Faktorenanalyse. Diese ist umso besser zu bewerten, je kleiner die Anzahl der empirisch relevanten Faktoren ist. Bezieht man alle möglichen Faktoren
FA ... FQ in die Erklärung des Variablensatzes
mit ein, so lassen sich die Variablen zj ... zq über die Q Faktoren vollständig erklären: (9-38)
= ajA Fa + ajB FB +... ajQ FQ
Zj
In dieser multiplen Regressionsgleichung wird nun die Variable
z j als Linearkombi-
nation der Faktoren dargestellt, wobei die Faktorladungen als Gewichte dienen. 4. Schreiben wir die Bestimmungsgleichung (9-38) in Matrixschreibweise mit zj der j-ten Spalte der Beobachtungsmatrix
Z, aj
als
als der j-ten Zeile der Faktorla-
dungsmatrix A und F als (n x M) Faktorwertematrix, so erhalten wir (9-39)
zj
=Fa]
Folglich ergibt sich die Beobachtungsmatrix Z als (9-40)
Z
=F
At
Die bedeutet die „Rekonstruktion" der Beobachtungen aus den Faktoren und ihren Ladungen. Als nächstes setzen wir Z in (9-16) ein:
(9-41)
R
In Analogie zu (9-16) stellt
=-A n 1
T
— F F
FT
F
AT
die Matrix der Korrelationen der einzelnen
Faktoren miteinander dar. Aufgrund der Voraussetzungen der Orthogonalität der Faktoren entspricht diese Matrix der Einheitsmatrix I. So folgt aus (9-41) das sog. Funda-
300
Die
Faklorenanalvse
mentaltheorem der Faktorenanalyse, das folgenden Zusammenhang zwischen den Faktorladungen und der Korrelationsmatrix der Ausgangsvariablen feststellt: (9-42)
R
= AI At = A AJ
Dieses Resultat wird als Reproduktion der Korrelationsmatrix aus der Faktorladungsmatrix bezeichnet. 9.2.7 Die empirische Interpretation der Faktoren anhand eines Beispiels 1. Die Faktoranalyse ist, soweit wir sie bisher in Form des Hauptkomponenten-Ansatzes kennengelernt haben, ein formales Verfahren der Aufteilung eines möglichst großen Teils der Gesamtvarianz eines Variablensatzes auf eine geringe Anzahl von Strukturkomponenten, die als Linearkombination der Variablen des Satzes gebildet werden. Die Ermittlung der Gewichte der Variablen erfolgt nach einem rein formalen, statistischen Kriterium der Maximierung der auszuschöpfenden (Rest)-Varianz des Variablensatzes. Als Ergebnis der Faktorenanalyse erhalten wir die Gewichte der Variablen im Faktor und die Korrelationskoeffizienten (= Regressionskoeffizienten) des Zusammenhangs zwischen den Variablen und dem Faktor. Diese beiden Informationen sind Ausgangspunkt für die empirische Interpretation der Faktoren. Im allgemeinen arbeitet man bei der Faktorenanalyse - anders als bei der kanonischen Korrelation - nicht mit Variablensätzen, die als Indikatoren für nur eine theoretische Dimension der Analyse stehen. Nehmen wir etwa das Beispiel zur kanonischen Analyse, bei der zwei Variablensätze den Zusammenhang zwischen Belastungsfaktoren und physischer Belastung widerspiegeln sollten, und geben wir etwa noch einen Variablensatz zur psychischen Belastung hinzu, so wird die Faktorenanalyse i. a. über den gesamten Variablensatz durchgeführt. Welche der drei Dimensionen wird der erste Faktor ausdrücken? Wird der erste Faktor sich überhaupt eindeutig einem der Teilsätze zuordnen lassen? Was ist bei der Zuordnung maßgeblich, die Gewichte der Variablen im Faktor oder die Ladungen der Variablen im Faktor? Wie wäre ein Faktor zu interpretieren, bei dem sich deutliche Bezüge zu Variablen aus allen drei Teilsätzen ergeben?
Unabhängig von einer konkreten Problemstellung und einem konkreten Datensatz lassen sich diese Fragen nicht beantworten, so daß die Interpretation der Faktoren selbst keine eigentlich statistische Aufgabe ist, sondern eine fachwissenschaftlich-theoretische. Die Statistik legt hierzu nur die Rahmenbedingungen fest, so z.B., daß die Faktoren nicht ohne Berücksichtigung der Konstitutionsvoraussetzung ihrer gegenseitigen Unabhängigkeit interpretiert werden dürfen.
Die Faktorenanalyse
301
Besteht unser Datensatz aus drei Segmenten, etwa „Belastungsvariablen", „Variablen der physischen Belastbarkeit" und „Variablen der psychischen Belastbarkeit", so ist eine gegenseitige Abhängigkeit der Variablensätze zu vermuten. Der Bedeutungsgehalt der Faktoren kann deshalb nicht mit dem Bedeutungsgehalt je eines der Variablensätze identisch sein. Möglicherweise strukturieren die Faktoren den gesamten Variablensatz in anderer Hinsicht, vielleicht auf der Ebene der Belastungsarten (Dauerbelastung, momentane Belastung) und den mit ihnen eng korrelierten psychischen und physischen Belastungen. In diesem
Fall könnten alle drei Faktoren höhere Ladungen in jeweils
einigen Variablen aller drei Variablensätze aufweisen. 2. Um das gesamte empirische Potential der Faktorenanalyse uns noch einige wichtige Methodenkenntnisse. wendung der Hauptkomponentenanalyse
kennenzulernen,
Es handelt sich bei der folgenden
(vgl. S. 273 f f . ) zurückgreifen.
Korrelation
Dort hatten wir zwei Sätze von Variablen
einander
in denen jeweils die tatsächliche Beteiligung an betrieblichen
scheidungsprozessen unterschiedene
An-
also um ein eher einführendes Beispiel. Dazu
wollen wir auf die Variablen und Ergebnisse des Beispiels zur kanonischen gegenübergestellt,
fehlen
und die gewünschte Beteiligung daran für verschiedene
Entscheidungsbereiche die das
festgehalten
kanonische
Variablen,
gewünschter
Teilhabe auf einer entscheidungslogisch
chisch/organisatorisch/technischen
Ent-
sachlich
wurde. Als Ergebnis erhielten wir
Spannungsverhältnis
zwischen
tatsächlicher
und
anderen Ebene, der der hierar-
Dimension betrieblicher Entscheidungsprozesse
neu
strukturiert. Jetzt wollen wir die Trennung in zwei Variablensätze aufheben und sehen, ob die Hauptkomponenten
der Faktorenanalyse
diesen logischen
Bezugsrahmen
bestä-
tigen. Wir rufen die Hauptkomponentenmethode nü „Datenreduktion,, ein und verwenden
über das Fenster „Faktorenanalyse"
weitgehend
die Voreinstellungen'.
stiken" wählen wir zusätzlich die Determinante, die Anti-Image-Matrix.
Bei den „Werten"
Bei den „Deskriptiven
den Screeplot
anzeigen.
Ergebnisse der Hauptkomponentenanalyse KMO- und Bartlett-Test
Maß der Stichprobeneignung nach Kaiser-Meyer-Olkin. Bartlett-Test auf Sphärizität
1
Zur Syntax zu diesen Befehlen siehe Anhang 2.
Stati-
den KMO- und den Bartlett-Test, sowie
lassen wir uns die Koeffizientenmatrix
Faktorwerte und über das „Extraktions"-Fenster Ausdruck 9.1:
im Me-
von SPSS auf, geben die Variablen V01 bis V05 und VI 1 bis VI5
Ungefähres Chl-Quadrat df Signifikanz nach Bartlett
,858 1395,642 45 ,000
der
302
Die Faklorenanafyse
Ausdruck 9.1:
(Fortsetzung) Erklärte Gesamtvarianz Summen von quadrierten Faktorladunqen für Extraktion
Anfängliche Eigenwerte Komponente 1 2 3 4
Gesamt 5,040 1,070 ,891 ,711
5 6 7 8 9 10
% der Varianz 50,401 10,702
Kumulierte % 50,401 61,104
8,906 7,113
70,010
,596 ,473 ,311 ,271 ,238
Kumulierte % 50,401 61,104
77,123 83,084 87,812
5,961 4,728 3,984 3,112 2,714
,398
% der Varianz 50,401 10,702
Gesamt 5,040 1,070
91,796 94,908 97,622
2,378
100,000
Extraktionsmethode: Hauptkomponentenanalyse.
Kommunaiitäten
Koeffizientenmatrix
Komponentenmatrix
Komp
v
aA
=raA
=
v
= cos
vbB
=rbB
=
v
= c o s CT
vaB
=raB=M
vbB
l - v
= rbB = ^ / l - v
a
= s i n CT 2
= sin CT
Wir schreiben deshalb (9-47) neu:
(9-49)
- ^/l - v 2 FB = c o s A
FA
= V F
FB
= TJ\ - v 2
A
FA+V
FB=
sin
FACT
s i n A FB + sin CT F^
Wie man aus der Graphik entnehmen kann, sind FA und FB negativ korreliert. Es läßt sich auch algebraisch leicht zeigen, daß diese Gewichte sowohl die gegenseitige Unabhängigkeit der beiden rotierten Faktoren wie deren Standardisierung gewährleisten. 2. Die Gewichte der Variablen in den rotierten Faktoren ergeben sich bei zwei Faktoren aus (9-49) wie folgt: F
a
(9-50)
V l - v 2 ( w ] ß z, +... wqB
= v ( w M z, +... wqA zq)~ = (v w M -
Zl
Allgemein erhalten wir die neuen Gewichte
Zq)
+... (v wqA - V T V wqB) zq w^* als Linearkombinationen der al-
ten Gewichte WJJ entsprechend (9-49):
(9-51)
wja
= v WjA -
wjb
=-\jl — v2
- v2 Wß w
j A
-
und analog
wjB
3. Ebenso ergeben sich die Korrelationen r^* zwischen den rotierten Faktoren und den Ausgangsvariablen als Linearkombinationen nach (9-49) der alten Korrelationen
ajA.
Somit sind auch die neuen Faktorladungen Linearkombinationen der alten Faktorladungen.
312
Die
Faktorenanalyse
a
J a = ^
Z
j
F
a
{Y,z}{vFA-
>A-v2
2
aja a
v a]A - -Jl - v aß V1-y2
jb
taus
b>
(9
~49)]
n
n
(9-52)
F
und entsprechend
+v«yi
(9-52) zeigt eine gegenüber a ; i 4 zunehmende Faktorladung aja
zwischen einer Va-
riablen zj und einem Faktor Fa, der in das Variablencluster hineingedreht wird, dem Zj
angehört und eine gegenüber
a]B
abnehmende Faktorladung
ajb. Da v bzw.
-y/l-v 2 , entsprechend (9-48), dem Kosinus bzw. dem Sinus des Drehwinkels o
ent-
sprechen, ist bei der Situation von Abbildung 9.8 und einem Drehwinkel zwischen 45° - v2
und 0° ein v von etwa 0,7 - 1,0 und ein
von etwa 0,0 - 0,7 zu erwarten. In
Abbildung 9.8 ist Zj positiv mit FA und negativ mit FB korreliert, so daß a j a > a j A wird und a j b
gegen Null tendiert, weil die Komponenten der LK nach (9-51) gegen-
läufig wirken. 4. Die wichtigste Frage bei der Faktorrotation ist die nach der Kommunalität der Variablen nach der Rotation, d.h. danach, ob die rotierten Faktoren Fa ... Fm dasselbe zur Erklärung des Variablensatzes Z]... zq leisten wie die nicht rotierten Faktoren. Den Betrag an „erklärter" Varianz überprüfen wir anhand der Kommunalität der Variablen bei rotierten Faktoren: h)
= Ä? ab = a]a + a]b = (v ajA
(9-53)
- ^ v
2
[aus (9-52)] ajA)2
+( V T V
= v 2 a]A + (1 - v 2 ) a)B - 2 v ajA +
(l-v2)a2.A
= a]A +
a
+
v
2
a
2
B +
2 v a
a
ß
+ v a
yjl-v2 j A
f i ^ a
ß
f
ajB 2
j B
ß
Dies bedeutet, daß die Kommunalität der Variablen nach der Rotation unverändert erhalten bleibt. Nach der Rotation haben sich allerdings die Eigenwerte der Faktoren verändert, d.h. Va*VAvndVb*VB.
Die Faktorenanalyse
313
5. Formulieren wir die in Punkt 2. - 4. für zwei Faktoren gezeigten Ergebnisse für m empirisch relevante Faktoren, so lassen sich erst einmal die rotierten Faktoren analog zu (9-47) als Linearkombinationen der nicht rotierten Faktoren ausdrücken. Das Gewicht des Faktors Fj im rotierten Faktor Fj* ( J = A,... M, j * = a ... m) wird mit vjtj bezeichnet. (9-54)
Fj*
= Vj*A Fa + V j»B FB + ... vfM
FM
Nun können wir analog zu (9-50) die rotierten Faktoren als Linearkombinationen der Ausgangsvariablen schreiben: (9-55)
Fj»
wobei sich das Gewicht
= u>1;-. z, + w2j» z2 +... Wqj* zq, w^* der Variable
Z\ z.B. entsprechend (9-51) als Linear-
kombination der alten Variablengewichte w u (9-56)
wXj*
mit den Faktorgewichten v ; *j ergibt:
= Vj,A w]A + vj*g w l ß + ... vJtM
w]M
Entsprechend (9-52) ergibt sich auch die Faktorladung der Variablen
z,
im Faktor
V (9-57)
aljt
=^j*Aa\A
+ vj*Ba\B
+ -vj*M
a
\M
Ebenso gilt die Konstanz der Kommunalität auch für die m rotierten Faktoren: (9-58)
tf,2^
= R j A,B..M
1,2 = a„2 + ...a hj ja im 6. Ein Rotationsergebnis wird dann ausreichen, wenn die so erreichte Faktorlösung eine sog. Einfachstruktur hat, d.h. wenn alle Faktoren möglichst zentral in ihren Variablenclustern liegen. Zur Beurteilung des Vorliegens einer derartigen Struktur hat Thurstone fünf Kriterien entwickelt: • Jede Zeile der neuen Faktorladungsmatrix hat wenigstens eine Null. •
Bei m empirisch sinnvollen Faktoren soll jede Spalte der Matrix mindestens m Nullen haben.
314 •
Die
Faktorenanalyse
In j e d e m Spaltenpaar der Matrix sollte es eine Reihe von Variablen geben, die in einem Faktor kaum, in dem anderen hoch laden. Bei vier oder mehr Faktoren sollte in jedem Spaltenpaar eine Reihe von Variablen
•
überhaupt nicht laden. •
In einem Spaltenpaar sollte nur eine geringe Anzahl von Variablen vorhanden sein, die in beiden Faktoren laden.
Ein von B a r g m a n n entwickeltes Testverfahren sieht bei einem Signifikanzniveau von (XQ
die Ablehnung der Nullhypothese, Faktor
Fj
habe keine Einfachstruktur, dann V
vor, wenn die Anzahl seiner Ladungen, für die gilt
< 0 , 1 , einen tabellierten kriti-
sehen Wert übersteigt.
9.3.4
Die Verfahren der orthogonalen Rotation
1. Die Verfahren zur Bestimmung des Drehwinkels bei der orthogonalen Rotation setzen bei den Kriterien von Thurstone zur Bestimmung einer Einfachstruktur an, d.h. bei der Faktorladungsmatrix der rotierten Faktoren. Allerdings sind diese Kriterien nicht eindeutig und oft nicht gleichzeitig zu erreichen, so daß ein einheitliches, nicht umstrittenes Rotationsprinzip fehlt. Die Quartimax-Rotation operationalisiert das erste Kriterium der maximalen Unterschiedlichkeit der Ladung einer Variablen ren
z\
in den Fakto-
Fa ... Fm , d.h. der maximalen Unterschiedlichkeit innerhalb der Zeilen der Faktor-
ladungsmatrix. Dies ist identisch mit der Minimierung der Quadrate der Kreuzprodukte der Faktorladungen in den Zeilen:
(9-59)
SKP (y*, j * *)
=£ 7=1
(öi/*^y«02=min!0-^;**)
X j*,j**=a
Minimiert wird hier die Komplexität der Variablen ren
Fj* ( j * = a ... m)insgesamt.
zj ( j = 1 ...q)
bezüglich der Fakto-
Dies bedeutet, daß die Variablen nicht mehr gleichmä-
ßig, sondern maximal unterschiedlich in den Faktoren laden. Es bedeutet i.a. nicht, daß die Variablen nur noch in einem der rotierten Faktor hoch laden. Zur Herleitung des Algorithmus aus der Zielsetzung der maximalen Heterogenität der Zeilen
greifen
wir
auf
die
Konstanz
der
Kommunalität
h ] = konstant, also auch h* = konstant.
1
E i n e T a b e l l e d e r k r i t i s c h e n W e r t e f i n d e t sich bei H a r t u n g / E l p e k (1986) S. 549.
zurück.
Es
gilt:
Die Faktorenanalyse
(9-60)
h4j
I
1 4 * + 2
«
s
2 jj*
315
2 jj**
r - r
= konstant,
**)
In (9-60) bedeutet, bei Unabhängigkeit des Ergebnisses vom Rotationswinkel, eine Minimierung der Kreuzpunkte die Maximierung der Summe der vierten Potenzen der Faktorladungen, daher die Bezeichnung des Verfahrens als Quartimax-Rotation. Ein absolutes Minimum der Kreuzprodukte ergibt sich dann, wenn jede Variable nur in einem Faktor lädt. Faktisch läuft das Verfahren aber darauf hinaus, daß der erste rotierte Faktor dazu tendiert, Faktorladungen in allen Variablen zu erzeugen. Er wird deshalb als genereller Faktor bezeichnet. 2. Das gebräuchlichste Rotationsverfahren ist die Varimax-Rotation, die eine maximale Unterschiedlichkeit der Spalten der Faktorladungsmatrix herstellt. Maximiert wird die Varianz der Spalten der mittels
hj
zeilenweise normierten Faktorladungs-
quadrate. Tabelle 9.4:
Normierte Faktorladungsmatrix Fa
Fh
«1 a
a\b
• ••
Fm a\m
h
h
fH
a2a
a2b
a2m
h
h2
aqa
aqb
\
>
aqm
hq
X
Für die erste Spalte ergibt sich die Varianz Qa :
1 Qa
q
"ja ,2
^
ja
20 in der Praxis als gleichwertig erweisen: a) über den multiplen Determinationskoeffizienten aus der Korrelation der Variablen Zj mit allen anderen Variablen des Satzes:
(9-82)
1
hj
=
Vgl. Gaensslen/Schubö (1973) S. 279 ff. und JohnsonAVichem (1992) S. 415.
Die Faktorenanalyse
333
Dahinter steht die in Abschnitt 9.4.1 entwickelte Überlegung, daß die Kommunalität hj die durch die gemeinsamen Faktoren bestimmte Korrelation der Variablen Zj mit sich selbst ist. Dieser Korrelation kommt eine Korrelation von
z j mit allen anderen
Variablen, die ja ebenfalls vom Wirken der gemeinsamen Faktoren getragen wird, noch am nächsten. b) Uber den höchsten einfachen Determinationskoeffizienten, den die Variable
z;
mit einer Variable zk aus dem Satz hat: (9-83)
h2
Dahinter steht, daß die Berechnung von q multiplen Korrelationskoeffizienten sehr aufwendig ist und daß der größte einfache Determinationskoeffizient oft schon sehr nahe beim multiplen Determinationskoeffizienten liegt. c) Der dritte Ansatz verwendet statt dem Determinationskoeffizienten den höchsten einfachen Korrelationskoeffizienten: (9-84)
hj2
(rjk
)max
Dabei kann allerdings die Kommunalität überschätzt werden. d) In der Praxis hat sich heute, dank der Rechner und der statistischen Analysesysteme, ein iteratives Verfahren durchgesetzt, bei dem im ersten Schritt die Kommunalitäten nach a) oder b) geschätzt werden. Im zweiten Schritt werden die Faktoren nach der Hauptkomponentenmethode extrahiert und die Kommunalitäten unter Berücksichtigung der empirisch relevanten/statistisch signifikanten Faktoren in die Hauptdiagonale von RK
eingesetzt. Dieses Verfahren wird in weiteren Schritten wiederholt, bis die berech-
neten Kommunalitäten gegeneinander konvergieren. Die Nullhypothese, es gibt G gemeinsame Faktoren, kann unter der Voraussetzung normalverteilter gemeinsamer, spezifischer und Fehlerfaktoren auf der Basis einer Zufallsstichprobe näherungsweise über einen %2 - Test geprüft werden. Schrittweise werden, beginnend mit ÜA, immer weitere Faktoren UB...Uj bezogen, bis
mitein-
334
Die Faktorenanalyse
(9-85)
(9-86)
4
"
=
Tj
3
3
6
k-UAJJB.
f jf= 1
T j — %0,05 .
ver-
so gut zu reproduzieren, daß nun in 56
Hätte man es bei der
Hauptkomponentenanalyse
belassen, hätte ihr Anteil hingegen 27,9% (=98 Fälle) betragen. 5. Kommen wir nun zu den inhaltlichen Aspekten des 4-Faktoren-Modells: stellten Faktoren stellen schiefwinkelig folgte anhand der „Muster-Matrix",
die die partiellen Faktorladungen
partiellen
zwischen einer Variablen und dem
Korrelationskoeffizienten
Die vorge-
rotierte Faktoren dar. Ihre Interpretation
Faktor, wobei die übrigen Faktoren „konstant"
er-
enthält, also die betrachteten
gehalten werden (vgl. Ausdruck
9.9).
Die vorab „theoretisch" bestimmten Faktoren fassen die Variablen, bei in der „MusterMatrix" ausgedruckten Ladungen von äp > 0 , 3 5 , setweise so zusammen, daß sich die logisch strukturierten
Sets und die statistisch konstruierten Faktoren eindeutig
chen. Die Variable V06, die logisch zur Gruppe der Zufriedenheitsvariablen gehört, wird statistisch auch eindeutig dem entsprechenden
entspreV25-V32
Faktor zugeordnet.
Eindeutigkeit
erlaubt es, sich mehr auf die Aussagen der Ergebnisse zu
als auf ihre
Interpretation.
Diese
konzentrieren,
1
V g l . J o h n s o n / W i e h e r n ( 1 9 9 2 ) S. 4 2 2 , u n d M o n i s o n ( 1 9 7 6 ) S. 3 1 7 .
2
D e r e n 1. S p a l t e e n t h ä l t als A u s g a n g s s c h ä t z u n g e n der K o m m u n a l i t ä t e n die multiplen D e t e r m i n a t i o n s k o e f f i z i e n t e n der j e w e i l i g e n V a r i a b l e n .
Die Faktorenanalyse
Ausdruck 9.9:
347
Ergebnisse einer m.l.-Schätzung der gemeinsamen Faktoren Kommunalitäten
V01 Reale Beteil: Personalentscheidunqen V02 Reale Beteil: Anschaffung Arbeitsmittel V03 Reale Beteil: Arbeitsverteilung V04 Reale Beteil: Arbeitsausfuehrung V05 Reale Beteil: ArbeitsprozessAblauf V06 Hat der Vorgesetzte ein offenes Ohr? V07 Koll.Gespraech: Einsatz Arbeitsmittel V08 Koll.Gespraech: Arbeitsverteilung V09 Koll. Gespraech: Arbeitsausfuehrung V10 Koll.Gespraech: ArbeitsprozessAblauf V11 Beteilwunsch: Personalentscheidunqen V12 Beteilwunsch: Anschaffung Arbeitsmittel V13 Beteilwunsch: Arbeitsverteilunq V14 Beteilwunsch: Arbeitsausfuehrunq V15 Beteilwunsch: ArbeitsprozessAblauf V18 Koordinations- u. Planungsfähigkeit V21 Entscheidungsfreudigkeit V22 Durchsetzunqvermoeqen V23 Menschenkenntnis V24 Fuehrungsqualitaeten V25 Zufriedenheit mit gegenw. Arb.Bedinqunq V27 Zufr: Verhaeltnis zu Vorgesetzten V28 Zufr: Sozialverhalten d Geschaeftsleitg V29 Zufr: Moeqlichk fuer eiqene Initiativen V30 Zufr: Partnerschaft! Verhalt d Manageme V31 Zufr: Aufstieqsmoeqlichkeiten V32 Betriebsklima