Multivariate Statistische Methoden und ihre Anwendung in den Wirtschafts- und Sozialwissenschaften [Reprint 2018 ed.] 9783486798708, 9783486248852

Mit den multivarianten statistischen Methoden, unter stetem Anwendungsbezug, wird der Methodenkanon des wirtschafts- und

197 42 46MB

German Pages 490 [492] Year 2000

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Vorwort
Inhaltsverzeichnis
Einleitung
1. Das einfache lineare Regressions- und Korrelationsmodell
2. Inferenzstatistik im einfachen linearen Regressions- und Korrelationsmodell
3. Partielle Regressions- und Korrelationsanalyse
4. Multiple Regressions- und Korrelationsanalyse
5. Die Varianz-/Kovarianzanalyse
6. Die loglinearen Analyseansätze
7. Das Allgemeine Lineare Modell
8. Die kanonische Korrelation
9. Die Faktorenanalyse
10. Die Diskriminanzanalyse
11. Die Clusteranalyse
12. Die Multidimensionale Skalierung
Anhang 1: Grundauszählung der Variablen
Anhang 2: Bereitstellung weiterer Informationen und Arbeitsmaterialien
Literaturverzeichnis
Stichwortverzeichnis
Recommend Papers

Multivariate Statistische Methoden und ihre Anwendung in den Wirtschafts- und Sozialwissenschaften [Reprint 2018 ed.]
 9783486798708, 9783486248852

  • 1 1 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Multivariate Statistische Methoden und ihre Anwendung in den Wirtschafts- und Sozialwissenschaften

Von

Prof. Dr. Hans Peter Litz Carl von Ossietzky Universität Oldenburg

R.Oldenbourg Verlag München Wien

Die Deutsche Bibliothek - CIP-Einheitsaufnahme Litz, Hans Peter: Multivariate statistische Methoden und ihre Anwendung in den Wirtschafts- und Sozialwissenschaften / von Hans Peter Litz. - München ; Wien : Oldenbourg, 2000 ISBN 3-486-24885-5

© 2 0 0 0 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0, Internet: http://www.oldenbourg.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Gedruckt auf säure- und chlorfreiem Papier Druck: Grafik + Druck, München Bindung: R. Oldenbourg Graphische Betriebe Binderei GmbH ISBN 3-486-24885-5

Vorwort

V

Vorwort Mit den

multivariaten statistischen Methoden werden die ein- und die zweidimensionale

statistische Deskription und Analyse auf mehrdimensionale Aufgabenstellungen ausgeweitet. Der Text knüpft deshalb sowohl inhaltlich als auch formal am Methodenkanon

des

wirtschafts- und sozialwissenschaftlichen Grundstudiums an. Weit mehr als für die uni- und bivariate Statistik ist es für die multivariate notwendig, ihren Stellenwert im empirischstatistischen Forschungsprozeß deutlich zu machen. Die Betonung des Anwendungsbezugs im Titel dieser Methodenlehre hat deshalb nicht nur eine didaktische Bedeutung sondern auch eine programmatische. Eine Erläuterung der Methoden anhand konstruierter Daten oder ein Bezug auf disparate Anwendungsfälle in der Literatur sind m.E. weder besonders gut geeignet, die faktische Komplexität empirischer Forschung zu vermitteln, noch können sie die Neugierde des Lesers auf einen inhaltlichen Erkenntnisgewinn mittels der vorgestellten Methoden wecken. Die im Text verwendeten (kursiv gesetzten) Beispiele folgen einer parallelen Entwicklung von formal-statistischer Methodik und inhaltlicher Fragestellung.

Anhand eines konkreten Datensatzes mit etwa 40 Variablen und ca. 300 Fällen, der einer Befragung der Mitarbeiter

eines Industriebetriebs

zu

den Dimensionen

betrieblicher

Entscheidungsprozesse und zu ihrer Partizipation entstammt, läßt sich sowohl die Relevanz eines,

wenn

auch

Methodeneinsatz

hier

wie

notgedrungenerweise

die Relevanz

eines

rudimentären

Theorierahmens

fundierten Methodenverständnisses

für den für die

Interpretation der Ergebnisse besser veranschaulichen. Dabei wird, so hoffe ich, sowohl die sich wechselseitig bedingende Komplexität von Theorie, Gegenstand und Methode, wie die Notwendigkeit einer multimethodalen Vorgehensweise in der empirischen Analyse deutlich. Ein

Anwendungsbezug,

der

dem

Methodeneinsatz

im

konkreten

empirischen

Forschungsprozeß möglichst nahekommen möchte, macht sowohl die Vermittlung der formalen, mathematisch-statistischen Struktur der multivariaten Algorithmen als auch die logisch-begriffliche Struktur des Objektbereiches notwendig. Hinter diesem didaktischen Konzept

steht

die

Idealvorstellung

eines

wirtschafts-

bzw.

sozialwissenschaftlichen

Fachwissenschaftlers mit einer statistisch-methodischen Kompetenz, die es ihm ermöglicht, sein Datenmaterial ohne einen „Statistikexperten" selbst zu analysieren und die Ergebnisse der Analyse selbst zu interpretieren. Dies bedeutete, keine

Programmpaket-orientierte

Rezeptbuchsammlung anzustreben, sondern eine Methodendarstellung, die es einerseits erlaubt, die formal-logische Struktur der statistischen Verfahren nachzuvollziehen, deren mathematischer und formaler Anspruch andererseits aber so gering wie möglich gehalten wird. Mathematische Ableitungen beschränken sich meist auf die einfacheren statistischen Verfahren. Ihre Ergebnisse werden dann im Analogieschluß auf komplexere Ansätze

VI

Vorwort

übertragen. Matrizenkalküle werden deshalb auch erst in der zweiten Hälfte eingesetzt und weiterhin von der einfachen algebraischen Schreibweise von Gleichungen begleitet. Die algorithmische Komplexität des statistischen Modell und die inhaltliche Komplexität der empirischen

Forschung

kontrastieren erfreulicherweise mit der inzwischen

Einfachheit des edv-gestützten, menue-gesteuerten

erreichten

Methodeneinsatzes, so daß es der

technische Aspekt zuletzt ist, der eine angemessene und vielseitige Verwendung multivariater statischer Verfahren be- oder verhindert. Alle Beispiele sind mit SPSS für Windows, Version 8.0 (u.U. auch noch 6.1.3) durchgeführt. Z.T. werden die Verfahren in verschiedene Varianten gerechnet. Die Outputs werden möglichst komplett wiedergegeben und interpretiert. Bei Bedarf wird die Befehlssyntax angegeben. Die

zunehmende

Kommunikation

Verbreitung

des

Internets

eröffnet

vielfältige

Möglichkeiten

zwischen Leser und Autor. Vollständige Ausdrucke der

der

Ergebnisse,

ergänzende Materialien und textliche Erweiterungen sowie die sicherlich notwendig werdende Fehlerliste finden sich deshalb unter: http://www.uni-oldenburg.de/vwl2/litz. Dieser Text

basiert auf einem Skript, das den Veranstaltungen

des Verfassers zur

multivariaten Statistik für Studierende sozial- und wirtschaftswissenschaftlicher Studiengänge in den letzten Jahren zugrunde lag. Im Verlauf der Zeit wurde es nicht zuletzt auf Anregungen und Kritik der Teilnehmer und der betreuenden Tutoren Zug um Zug vertieft und ausgeweitet. Allen die auf diese Weise an der Entstehung des Textes beteiligt waren, möchte ich dafür meinen Dank ausdrücken. Herrn Mag. Soz. Dubravko Dolic, Herrn Dipl. Soz. Michael Redenius und Herrn Dipl.Oek. Martin Wehmeyer verdanke ich die Anfertigung der Graphiken und die Edition der SPSS-Ausdrucke. Zu besonderem Dank bin ich Frau Christiane Seier verpflichtet, ohne die das Lehrbuch vermutlich nicht entstanden wäre. Sie hat über Jahre hinweg die verschiedenen

Versionen des schwierigen Textes mit

großer

Kompetenz, Geduld und Sorgfalt erstellt und in die gültige Form gebracht. In der Schlußphase wurde sie dabei von Herrn cand.soz. Henning Skiorz und Herrn Dipl.Oek. Martin Wehmeyer unterstützt. Herrn Martin Weigert und dem Oldenbourg-Verlag danke ich für ihre Bereitschaft, auch die „Multivariate Statistik" in ihr Sortiment aufzunehmen. Die Leser bitte ich um Nachsicht (und Nachricht) bei eventuellen sachlichen und redaktionellen Fehlern. Hans Peter Litz

Inhaltsverzeichnis

VII

Inhaltsverzeichnis 0

Einleitung

1

0.1

Die Datenbasis des empirisch-statistischen Forschungsprozesses

1

0.2

Chronologische und logische Strukturen des empirisch-statistischen For- 4 schungsprozesses

0.3

Die algorithmische Struktur der behandelten multivariaten Methoden

8

1

Das einfache lineare Regressions- und Korrelationsmodell

16

1.1

Die Regressionsmodelle der Grundgesamtheit und der Stichprobe

16

1.2

Das Korrelationsmodell der Grundgesamtheit und der Stichprobe

25

1.3

Regression und Korrelation bei standardisierten Variablen

32

1.4

Regression u. Korrelation bei einer dichotomen unabhängigen Variablen

33

1.5

Nicht-lineare Regressions-und Korrelationsanalyse

37

2

Inferenzstatistik im einfachen linearen Regressions- und Korrelationsmodell

44

Die Stichprobenverteilungen der Koeffizienten a, b und Su

44

2.1.1

Erwartungswerte und Varianzen der Koeffizienten

45

2.1.2

Die Verteilungen der Parameter a und b

50

2.2

Test- und Schätzverfahren bei der einfachen linearen Regression

54

2.2.1

Hypothesentests für A und B

54

2.2.2

Konfidenzintervalle für A und B

58

2.2.3

Das Konfidenzintervall für die Regressionsfunktion der GG

60

2.2.4

Das Konfidenzintervall für die Vorhersagewerte Xj

64

2.3

Hypothesentests bei der Korrelationsanalyse

66

2.1

2.3.1

Stichprobenverteilung und Hypothesentest für den Korrelationskoeffizi- 66 enten

2.3.2

Fischer's Z-Transformation

70

2.3.3

Der Likelihood-Quotiententest

73

3

Partielle Regressions- und Korrelationsanalyse

77

3.1

Von der bivariaten zur multiplen Analyse

77

VIII 3.2

Inhaltsverzeichnis

Einfache partielle Korrelation und Regression bei standardisierten Variablen

81

3.3

Einfache partielle Korrelation und Regression bei nicht-standardisierten Variablen

82

3.4

Mehrfache (multiple) partielle Korrelation

83

3.5

Semipartielle Korrelation und Regression

85

3.6

Statistische Inferenz im partiellen Regressions- und Korrelationsmodell

86

3.7

Beispiele zur partiellen Regression und Korrelation

87

4

Multiple Regressions- und Korrelationsanalyse

92

4.1

Das Regressionsmodell in der Stichprobe und in der Grundgesamtheit

92

4.2

Das Korrelationsmodell der Stichprobe und der Grundgesamtheit

97

4.3

Zur Strategie der multiplen Regressions- und Korrelationsanalyse

99

4.4

Statistische Inferenz bei der multiplen Regression und Korrelation

101

4.4.1

Konfidenzschätzung der partiellen Regressionskoeffizienten und Multikollinearität

101

4.4.2

Test der Korrelationskoeffizienten

104

4.5

Anwendungsbeispiele zur multiplen Regression und Korrelation

109

4.5.1

Der blockweise Ansatz

109

4.5.2

Der schrittweise Ansatz

115

4.5.3

Der hierarchische Ansatz

119

5

Die Varianz-/Kovarianzanalyse

122

5.1

Einführung in die Problemstellung

122

5.2

Die einfaktorielle Varianzanalyse

123

5.2.1

Graphische und tabellarische Darstellung

123

5.2.2

Das varianzanalytische Modell der GG

124

5.2.3

Korrelationsanalytische Aspekte der Varianzanalyse

127

5.2.4

Regressionsanalytische Aspekte der Varianzanalyse

128

5.2.5

Beispiel zur einfaktoriellen Varianzanalyse

132

5.3

Die mehrfaktorielle Varianzanalyse

136

5.3.1

Der experimentelle Ansatz

136

5.3.2

Der Stichproben-Ansatz

142

5.3.3

Beispiele zur mehrfaktoriellen Varianzanalyse und zur multiplen Klassi-

5.4

fikationsanal yse

142

Die Kovarianzanalyse

147

Inhaltsverzeichnis

IX

5.4.1

Der klassische Ansatz

147

5.4.2

Die Kovarianzanalyse als Regressionsanalyse

150

5.4.3

Exkurs: SPSS-Ansatz zur Trennung von Haupt- und Nebeneffekten in der Varianz-/Kovarianzanalyse

153

5.4.4

Beispiele zur Kovarianzanalyse

158

6

Die loglinearen Analyseansätze

163

6.1

Einführung in die Problemstellung

163

6.2

Regression und Korrelation bei einer dichotomen abhängigen Variablen (Probit-, Logit- und logistische Regressionsanalyse)

164

6.2.1

Entwicklung des Modellansatzes

164

6.2.2

Die Modellvarianten

166

6.2.3

Interpretation der Ergebnisse

171

6.2.4

Modellgüte und Hypothesentests

173

6.2.5

Beispielsrechnung zur Probit- und Logit-Analyse und zur logistischen Regression

178

6.2.6

Multiple Regressionsmodelle für dichotome abhängige Variablen

182

6.3

Das Loglineare Modell

184

6.3.1

Die Grundstruktur des zweidimensionalen loglinearen Modells

184

6.3.2

Die Schätzung der Modellkomponenten nach der Maximum-LikelihoodMethode

188

6.3.3

Interpretation und Bewertung der Ergebnisse

192

6.3.4

Das hierarchische loglineare Modell

194

6.3.5

Beispiele zum einfachen und multiplen loglinearen Modell

197

6.3.6

Das allgemeine loglineare Modell

204

6.3.7

Das Logit-Loglineare Modell

210

6.3.8

Loglineare Modelle für ordinale Daten

216

7

Das Allgemeine Lineare Modell

221

7.1

Die Bedeutung des Allgemeinen LinearenModells

221

7.2

Spezifikationsaspekte des Allgemeinen Linearen Modells

222

7.3

Die Modellvarianten

226

7.3.1

Die Vier-Felder-Kontingenztabelle

226

7.3.2

Die punkt-biseriale Korrelation

227

7.3.3

Der t-Test auf die Differenz zweier Mittelwerte

228

7.3.4

Die lineare Regression und Korrelation

228

X

Inhaltsverzeichnis

7.3.5

Die ein- und mehrfaktorielle Varianzanalyse

229

7.3.6

Die Kovarianzanalyse (saturiertes Modell)

230

7.3.7

Das verallgemeinerte Linear Modell

232

7.4

Multivariate Erweiterungen des ALM

234

7.4.1

Empirische uund methodische Aspekte des Multivariaten Linearen Mo- 234 dells

7.4.2

Exkurs: Algebraische und matrixalgebraische Aspekte des Multivariaten Linearen

Modells - Linearkombinationen

von Variablen

und

ihre

Schreibweise

237

7.4.3

Fundamentale konstruktive Aspekte des Multivariaten Linearen Modells

244

7.4.4

Korrelationsanalytische und inferenzstatistische Aspekte des Multivariaten Linearen Modells

250

7.4.5

Anwendungsbeispiele zum Multivariaten Linearen Modell

254

8.

Die Kanonische Korrelation

257

8.1

Einführung in die Problemstellung

257

8.2

Das kanonische Korrelationsmodell in Matrixdarstellung

260

8.3

Die statistische Signifikanz der kanonischen Korrelation

263

8.4

Die empirische Relevanz der kanonischen Korrelationen

265

8.4.1

Struktur-und Redundanzmatrizen

265

8.4.2

Die Extraktionsmaße

267

8.4.3

Die Redundanzmaße

270

8.4.4

Zusammenhänge zwischen Extraktions-und Redundanzmaßen

271

8.5

Anwendungsbeispiel zur kanonischen Korrelation

273

9

Die Faktorenanalyse

284

9.1

Einführung in die Problemstellung

284

9.2

Die Hauptkomponentenanalyse

286

9.2.1

Der Modellansatz

286

9.2.2

Der Algorithmus zur Bestimmung der Faktorgewichte

291

9.2.3

Das Eigenwertkriterium: statistische Signifikanz der Ausgangsvariablen

293

9.2.4

Die Image-Analyse: statistische Relevanz der Ausgangsvariablen

296

9.2.5

Der Scree-Test: empirische Relevanz der Faktoren

297

9.2.6

Erklärung der Variablen aus den Faktoren

298

9.2.7

Die empirische Interpretation der Faktoren anhand eines Beispiels

300

9.3

Die Faktorrotation

304

Inhaltsverzeichnis

XI

9.3.1

Die geometrische Darstellung von Faktoren und Variablen

304

9.3.2

Das Konzept der Faktorrotation

308

9.3.3

Die Rotationsalgorithmen

310

9.3.4

Die Verfahren der orthogonalen Rotation

314

9.3.5

Die Verfahren der schiefwinkeligen Rotation

316

9.3.6

Beispiele zur Faktorrotation im Hauptkomponentenansatz

319

9.4

Das Modell der gemeinsamen Faktoren

325

9.4.1

Das theoretische Modell der Grundgesamtheit

326

9.4.2

Die Bestimmung der Faktoren nach der Hauptachsenmethode

330

9.4.3

Die Bestimmung der Faktoren nach der Maximum-Likelihood-Methode

334

9.4.4

Alternative Verfahren zur Schätzung der Faktorladungen

339

9.4.5

Schätzung der Faktorenwerte

342

9.4.6

Beispiel zum Modell der gemeinsamen Faktoren

343

10

Die Diskriminanzanalyse

351

10.1

Einführung in die Problemstellung

351

10.2

Die einfache Diskriminanzanalyse

353

10.2.1

Die Diskriminanzfunktion der einfachen Diskriminanzanalyse

353

10.2.2

Ein Algorithmus zur Lösung des einfachen Diskriminanzproblems

355

10.2.3

Ergebnisse und Beispiele zur einfachen Diskriminanzanalyse

358

10.3

Die mehrfache Diskriminanzanalyse

365

10.3.1

Das Konzept der multiplen Diskriminanzanalyse

365

10.3.2

Die Matrixdarstellung der multiplen Diskriminanzanalyse

367

10.3.3

Die multiple Diskriminanzanalyse als kanonische Korrelationsanalyse

370

10.4

Diskriminanzanalytische Klassifikationsverfahren

370

10.5

Anlage und Ergebnisse der mehrfachen Diskriminanzanalyse

373

10.6

Beispiele zur mehrfachen Diskriminanzanalyse

376

11

Die Clusteranalyse

384

11.1

Einführung in die Problemstellung

384

11.2

Messung der Ähnlichkeit bzw. Distanz von Objekten

389

11.2.1

Die Quantifizierung der Distanz in einem nominalskalierten Datensatz

389

11.2.2

Die Quantifizierung der Distanz in einem metrisch-skalierten Datensatz

394

11.3

Die Zusammenfassung von Objekten zu Clustern

401

11.3.1

Distanzmatrix und hierarchische Clusteranalyse

401

11.3.2

Die Methode des „nächsten Nachbarn"

403

XII

Inhaltsverzeichnis

11.3.3

Die Methode des „entferntesten Nachbarn"

406

11.3.4

Clusterbildung auf der Basis durchschnittlicher Distanzen

408

11.3.5

Clusterbildung auf der Basis von Distanzen zwischen Durchschnitten

410

11.3.6

Clusterbildung nach der Ward-Methode

414

11.4

Die K-Means-Clusteranalyse

417

11.4.1

Der K-Means-Ansatz

417

11.4.2

Die Ermittlung der Clusterzentren und die Regruppierung der Fälle

418

11.4.3

Beurteilungskriterien und Strategien zur Clusterlösung

419

11.5

Beispielsrechnungen zur Clusteranalyse

420

12

Die Multidimensionale Skalierung

427

12.1

Einführung in die Problemstellung

427

12.2

Die Klassische Multidimensionale Skalierung (CMDS)

429

12.2.1

Die Lösungsansatz der CMDS

429

12.2.2

Anpassungsmaße der CMDS

433

12.2.3

Nichtmetrische klassische Multidimensionale Skalierung

438

12.3

Replizierte und gewichtete Multidimensionale Skalierung

442

12.4

Beispiele zur klassischen und gewichteten MDS

450

12.4.1

Klassische multidimensionale Skalierung mit SPSS

450

12.4.2

Gewichtete multidimensionale Skalierung mit SPSS

454

Anhang 1 Grundauszählung der Variablen

460

Anhang 2 Bereitstellung weiterer Informationen und Arbeitsmaterialien

464

Literaturverzeichnis

465

Stichwortverzeichnis

469

Einleitung

1

Einleitung 0.1

Die Datenbasis des empirisch-statistischen Forschungsprozesses

1. Mit dem fast schon selbstverständlichen Einsatz von EDV-gestützten statistischen Analyseprogrammen und der dementsprechenden elektronischen Erfassung von Auswertungsdaten ist der Einsatz multivariater statistischer Methoden wesentlich erleichtert worden. In den Programmpaketen wird im allgemeinen nicht zwischen den uni- bzw. bivariaten und den multivariaten Verfahren unterschieden. Der Begriff der multivariaten Statistik kommt dort oft noch nicht einmal explizit vor. Allerdings wird er auch in der Fachliteratur' nicht einheitlich verwendet (vgl. Kap. 7.1). Hier soll ein breites Verständnis des Begriffs zugrunde gelegt werden. Unter den multivariaten statistischen Verfahren verstehen wir deshalb ganz allgemein stochastische numerische Modelle zur Analyse von Interdependenzen in einer Menge von Variablen x\j.2--xk achtungen.

In

xj (j = 1 ... k)

den

Wirtschafts-

und

Sozialwissenschaften

sind

bei n die

Beob-

Variablen

Merkmale von Personen, Personengruppen (z.B. Haushalten) oder In-

stitutionen (z.B. Behörden, Unternehmen) und die Variablenwerte numerische Abbildungen von beobachteten Merkmalsausprägungen. Die Beobachtungen ergeben sich entweder als Messungen bzw. Beobachtungen im eigentlichen Sinn, als kodierte Antworten auf Interviewfragen oder als Ergebnisse statistischer Auszählungen. Die Gesamtheit der Beobachtungen bildet eine Datenmatrix X folgender Form:

Tabelle 0.1:

Datenmatrix Variablen x2

.... •

X11

xl2



x

x21

x22



X2V

X„1

x„2

X! 1

2

x

k

,k

Objekte

n

1

...



Xnk

Im folgenden sei auf einige Lehrbücher zur multivariaten Statistik hingewiesen, die als Ergänzung oder in Zweifelsfällen empfohlen werden: B a c k h a u s u.a. ( 1 9 9 6 ) , Bortz ( 1 9 9 3 ) , Fahrmeir u.a. ( 1 9 9 6 ) , Goldstein/Dillon ( 1 9 8 4 ) , Green ( 1 9 7 8 ) , H a i r u . a . ( 1 9 9 8 ) , Hartung/Elpelt ( 1 9 9 5 ) , Johnson/Wichern ( 1 9 9 2 ) und Morrison ( 1 9 7 6 ) .

Einleitung

Der Wert

xnk

stellt dabei die Merkmalsausprägung des Merkmals k für den Fall n

dar. Meinen wir die Merkmalsausprägung eines beliebigen Merkmals einer beliebigen Person, schreiben wir x¡j (i = 1... n).

3. Die formale Qualität der Daten ist in theoretischer Hinsicht 1 eine Frage der logischen Struktur der Eigenschaften der erfaßten Objekte, in der Praxis aber auch eine Frage der Differenziertheit der Beobachtungs- und Meßverfahren. Eine Nominalskala der Merkmalsausprägung ermöglicht nur die Feststellung gleicher oder ungleicher Merkmalsausprägungen. Die Abbildung der Merkmalsausprägungen, z.B. des Merkmals Familienstand in Zahlen (led. = 1, verh. = 2, gesch. = 3, verw. = 4) stellt zwischen den Zahlen keine numerischen Relationen etwa der Art „2 + 2 = 4" her. Eine Ordinalskala der Merkmalsprägungen erlaubt neben der Feststellung der Gleichheit bzw. Ungleichheit auch die Ordnung der Ausprägungen nach Intensitäten (z. B. Skala einer sozialen Schichtung). Auch hier ist eine Addition von Merkmalsausprägungen unzulässig. Die Intervallskala gestattet es zusätzlich, die Abstände zwischen den Merkmal sausprägungen exakt zu bestimmen. Jedoch fehlt der Skala ein sogenannter natürlicher Nullpunkt (Beispiel: Temperaturmessungen in Celsius, Geburtsdaten in Jahren unserer Zeitrechnung). Die Ratio- oder Verhältnisskala verfügt schließlich über einen absoluten Nullpunkt. Ihre Werte werden auch im Alltag direkt numerisch ausgedrückt (Beispiel: Gewicht, Einkommen, Entfernungen). Eine besondere Qualität weisen dichotome Merkmalsausprägungen auf. In den Kategorien „0" und „1" kodiert, werden sie auch als Dummy-Variablen bezeichnet. Diese meßtheoretisch nominalskalierten Daten können unter bestimmten Umständen statistisch wie metrische Variablen behandelt werden. Bei der statistischen Bearbeitung der Daten ist zu beachten, daß nicht alle multivariaten Analyseverfahren für beliebige Skalenqualitäten gültige Ergebnisse produzieren (vgl. dazu auch Tab 0.2 und 0.3). Bereits die Anwendung der Grundrechenarten bei der statistischen Bearbeitung der Daten setzt Verhältniszahlen voraus. In der Analysepraxis wird deshalb oft versucht, über die eigentlich nicht zulässige, rechnerische Zusammenfassung von ordinalskalierten Variablen zu sehr differenzierten Skalen zu kommen, für die metrische Relationen zwischen den Ausprägungen einfach unterstellt werden. Wie wir später sehen werden, stellt die Anwendung statistischer Verfahren, die eigentlich 1

Zur Darstellung der meßlheoretischen Grundlagen vgl. Orth (1974).

Einleitung

3

metrische Variablen voraussetzen, auf ordinalskalierte Daten den Versuch dar, zwei Hypothesen auf einmal zu prüfen, einmal die eines sachlogischen Zusammenhangs zwischen den Variablen und zum andern die einer latenten äquidistanten Struktur in der ordinalen Meßskala. Eine statistisch saubere Lösung wird durch die Möglichkeit eröffnet, dichotome Variablen in das lineare Regressionsmodell zu integrieren (vgl. Abschnitt 1.4). In Abschnitt 5.4 wird darüber hinaus ein Verfahren vorgestellt, beliebige nominal- (und ordinal-) skalierte Daten ohne Informationsverlust in diese Dummy-Variablen umzuwandeln. Dies ermöglicht die Integration einer Reihe von ursprünglich für nicht-metrische Variablen entwickelten Analysemethoden in das sogenannte Allgemeine Lineare Modell (vgl. Kap. 7).

4. Die inhaltliche Qualität der Daten ist eine Frage der Adäquatheit, mit der die oft komplexen, gesellschaftlichen Sachverhalte in den meist recht einfachen Merkmalen wiedergegeben werden. Statistische Daten bilden naturgemäß gesellschaftliche Realität mittels weniger Merkmale ab. Die Datenmatrix stellt demnach ein äußerst beschränktes numerisches Modell wirtschaftlicher bzw. sozialer Realität dar. Die Tauglichkeit dieses Modells bemißt sich nicht daran, wieviele Aspekte gesellschaftlicher Realität eingefangen werden, sondern danach, ob die zur Lösung eines praktischen Problems oder zur Bearbeitung einer wissenschaftlichen Fragestellung notwendigen Dimensionen erfaßt sind. Wie etwa bei der experimentellen Arbeit mit dem Strömungsmodell eines Flugkörpers kommt es für die Fruchtbarkeit der Arbeit mit einem statistischen Modell nicht nur darauf an, daß die relevanten Merkmale der Realität im Modell adäquat abgebildet werden, sondern auch darauf, daß die Arbeit mit dem Modell problemorientiert und objektgerecht durchgeführt wird. Der Begriff „objektgerecht" bedeutet, daß alle Informationen, die auf theoretischer und empirischer Ebene, einschließlich der auszuwertenden Erhebung, über die Objekte und ihre inneren Zusammenhänge zur Verfügung stehen, im Analyseansatz berücksichtigt werden müssen. Die Bearbeitung großer Datenmengen mit weitgehend vorprogrammierten statistischen Analysesystemen beinhaltet die Gefahr, alle Programmteile quasi automatisch durchlaufen zu lassen und dann die Ergebnisse auf konkrete empirische Aussagen mehr oder weniger voluntaristisch hininterpretieren zu müssen. Diese Gefahr besteht vor allem dann, wenn für die statistische Datenanalyse sogenannte Statistikexperten hinzugezogen werden, die zwar mit den statistischen Verfahren und den Programmpaketen umgehen können, jedoch von den zu untersuchenden wirtschaftlichen und sozialen Sachverhalten nur ein laienhaftes Verständnis haben, und umgekehrt, wenn die wirtschafts- und sozialwissenschaftlichen Forscher die statistischen Prozeduren nur vage durchschauen.

4

Einleitung

0 . 2 . C h r o n o l o g i s c h e und logische Strukturen des empirisch-statistischen Forschungsprozesses

1. Die konkrete Arbeit mit den multivariaten statistischen Methoden ist i. a. eingebettet in einen größeren Kontext wissenschaftlicher Analyse, den empirisch-statistischen Forschungsprozeß.

Dieser

Prozeß

durchläuft

verschiedene

Phasen,

deren

chronologische Abfolge in Abb. 0.1 skizziert sind.1 Ein angemessener Einsatz des statistischen Analyseinstrumentariums setzt einmal voraus, daß die statistische Analyse als Teil eines Gesamtprozesses verstanden wird und daß die statistische Komponente auf die anderen, z.B. auf das Erhebungsverfahren, abgestimmt wird. Ein angemessener Einsatz setzt aber auch voraus, daß er sich den erkenntnistheoretischen

und

forschungslogischen Strukturen des Gesamtprozesses unterwirft. Im folgenden sollen die wesentlichen Dimensionen und die logischen Aspekte des in Abb. 0.1 dargestellten Gesamtprozesses herausgearbeitet und in ihrer Bedeutung

für die Anwendung

multivariater Methoden nahegebracht werden.2

2.

Zu

den

erkenntnistheoretischen

Grundlagen

des

empirisch-statistischen

Forschungsprozesses gehört die Einsicht, daß jede Wahrnehmung gesellschaftlicher Realität, auch die wissenschaftliche, durch einen dreifachen Selektionsprozeß gesteuert ist: durch die selektive Zuwendung, die selektive Wahrnehmung und die selektive Verarbeitung des Wahrgenommenen. Im Alltag werden diese Prozesse durch unsere, uns bewußte oder unbewußte Vorerfahrung gelenkt. Im Falle wissenschaftlicher Forschung

sind

Vorerfahrung,

diese

d.h.

Selektionsprozesse

aufgrund der zu

aufgrund

den jeweiligen

unserer

wissenschaftlichen

Sachverhalten

relevanten

Hypothesen und Theorien bewußt zu gestalten. Diese Theorien und Hypothesen bestehen aus Begriffen unterschiedlicher Wahrnehmbaren

und

aus

kausalen

Nähe zum jeweils konkret

Verknüpfungen

zwischen

den

empirisch begrifflich

abgebildeten Sachverhalten.

3. Welchen konkreten Anlaß empirische Forschung auch haben mag, ihr erster und alles weitere

lenkender

Schritt

besteht

in

der

Erarbeitung

eines

theoretischen

Bezugrahmens. Wie wir sehen werden, gilt dieses Primat der Theorie für den gesamten Forschungsprozeß. 1 Eine ausführliche Darstellung des empirisch-statistischen Forschungsprozesses und seiner logischen Struktur findet sich in: Litz (1998) S. 10 ff. 2 Zu den theoretischen und empirischen Aspekten vgl. insbesondere die Lehrbücher zu den Methoden der empirischen Sozialforschung oder der Marktforschung, z.B. Atteslander (1995), Berekoven u.a. (1991), Friedrichs (1990) und Schnell u.a. (1988).

Einleitung

5

Abbildung 0.1: Phasen des empirisch-statistischen Forschungsprozesses

'£3 O

U'-B o c 4) o

-gw

6

Einleitung

Wenn wir unser Untersuchungsobjekt und dessen Handeln gedanklich vorstrukturieren, rekonstruieren wir die Realität durch Begriffe, Hypothesen und Theorien auf sehr hohem Abstraktionsniveau. Diese theoretisch entworfene Welt muß mit der real beobachtbaren in der Empirie konfrontiert werden, um sie entweder zu konkretisieren bzw. auszudifferenzieren oder zu falsifizieren. Dazu müssen die theoretischen Begriffe zuerst definiert und dann in solche der Beobachtungssprache überführt werden.

4. Dieser Prozeß der Operationalisierung ist ein Vorgang der logischen, begrifflichen Ableitung der konkret beobachtbaren Indikatoren oder abfragbaren Einstellungen, die etwa die abstrakte Eigenschaft „kooperativer Führungsstil" oder „Partizipationsbereitschaft" einer im Kontext betrieblicher Entscheidungsprozesse handelnden Person ausmachen. Das Spannungsverhältnis zwischen den abstrakten Konstruktionen der Theorie und den konkreten Beobachtungsbegriffen der Empirie konstituiert die vertikale Dimension der logischen Struktur des empirischen Forschungsprozesses (vgl. Abb. 02). In Anlehnung an Max Webers Begriff des Idealtypus kann diese Phase des Forschungsprozesses als Adäquation bezeichnet werden.

5. Mit dem nächsten Schritt in diesem Prozeß eröffnet sich die zweite (horizontale) Dimension seiner Logik: Im Kodieren oder Messen wird die Gesamtheit der in Beobachtungstermini ausgedrückten relevanten Relationen zwischen den Forschungsobjekten, das sog. empirische Relativ, eindeutig in ein in der Datenmatrix repräsentiertes numerisches Relativ abgebildet. Diese Transformation des Forschungsgegenstandes von einem Aggregatzustand, dem verbalen, in einen anderen, den numerischen, findet auf der konkreten Ebene statt. Dabei sind, um die Äquivalenz der beiden Konstrukte zu gewährleisten, die in Abschnitt 0.1 dargelegten meß-theoretischen Aspekte zu beachten.

6. So wie auf der sprachlichen Ebene Beobachtungstermini unmittelbar wahrnehmbare Erscheinungen und abstrakte Begriffe komplexe gesellschaftliche Sachverhalte bezeichnen, so bilden auf der numerischen die statistische Datenmatrix die beobachtbare Realität konkret und die statistischen Maßzahlen (z. B. Mittelwerte, Varianzen, Regressionsfunktionen, Faktoren, Cluster) die komplexe Realität abstrakt ab. Die statistische Analyse, als nächste Phase des Forschungsprozesses, ist deshalb logisch betrachtet ein Abstraktionsprozeß, in dem die Zusammenhänge in den Daten, von allen individuellen

Einleitung

7

Zufälligkeiten bereinigt, in statistischen Aggregaten und Koeffizienten ausgedrückt werden. Dieser Prozeß unterliegt zwei methodischen Prämissen: der formalen Adäquanz von Skalenniveau und rechnerischer Transformation der Daten und der inhaltlichen Adäquanz von parametrischer Struktur des statistischen Modells und kausaler Struktur des theoretischen Modells einschließlich der logischen Struktur des Operationalisierungsprozesses.

7. Mit der letzten Phase des Prozesses, der Interpretation der statistischen Ergebnisse, erfolgt die Rückübersetzung des numerischen Substrats unseres Forschungsgegenstandes in ein verbales Äquivalent und damit der Schluß des Zirkels. Mit der Interpretation der statistischen Konstrukte als theoretische sind wir wieder am Ausgangspunkt, dem theoretischen Bezugsrahmen des Gesamtprozesses angekommen.

8. Dieser ist, wie er in seinen verschiedenen Schritten in Abb. 0.1 skizziert wurde, ein zirkulärer Prozeß, bei dem der Forschungsgegenstand im Spannungsverhältnis seiner abstrakten vs. konkreten und verbalen vs. numerischen Darstellung einen Kreislauf über vier Positionen vollzieht (vgl. Abb. 0.2). Dabei werden die Zustandswechsel in der jeweils übernächsten Phase wieder rückgängig gemacht: Die verbale Deduktion von Beobachtungsbegriffen bei der Operationalisierung hat ihr Pendant in der statistischen Reduktion der individuellen Daten, die eindeutige Kodierung des empirischen im numerischen Relativ beim Messen wird durch die „eindeutige" Dekodierung des numerischen Subtrats im empirischen (theoretischen) Begriff beim Interpretieren aufgehoben. Die Gefahr dieses empirisch-statistischen Forschungsprozesses liegt darin, daß er Artefakte erzeugt. Es liegt auf der Hand, wodurch das geschehen könnte: wenn der Forschungsgegenstand beim Durchlauf durch die verschiedenen Aggregatzustände auch seine Substanz ändert, wenn mit dem Formwechsel ein inhaltlicher einhergeht.

Die Bewahrung der Substanz und der Struktur des Forschungsgegenstandes als Erkennungsobjekt kann nur gelingen, wenn die Logik des statistischen Algorithmus der Logik des verbalen Deduktionsprozesses entspricht. Nur dann lassen sich umgekehrt die statistischen Ergebnisse empirisch gültig interpretieren. So ergibt sich für alle Phasen des empirischen Forschungsprozesses, bei der Festlegung der Beobachtungsmerkmale, bei der Zuordnung der Beobachtungen zu numerischen Merkmalsausprägungen, bei der statistischen Bearbeitung der Daten und bei der Interpretation der Ergebnisse das ein-

8

Einleitung

deutige Primat der wirtschafts- und sozialwissenschaftlichen Theorie, gleichzeitig jedoch die Verpflichtung, die formale Struktur der Methode daraufhin zu überprüfen, ob sie zur logischen Struktur der Theorie kompatibel ist.

Abbildung 0.2: Logische Struktur des Forschungsprozesses Äquivalenz

Theorie: theoretisches Modell

Interpretation (begriffliche Abbildung)

Statistik: statistisches Modell àL

Operationalisierung (Konkretion)

statistische Analyse (Abstraktion)

1 Empirie: Interaktionsmodell

0.3

Messung • (numerische Abbildung)

Die algorithmische Struktur der behandelten multivariaten Modelle

Im folgenden werden die formalen Strukturen der verschiedenen Analysemethoden kurz vorgestellt, um den Aufbau der Darstellung und den Zusammenhang zwischen den Methoden aufzuzeigen. 1

1. Zu Beginn von Kap. 1 werden die Verfahren der einfachen linearen Regressionsund Korrelationsanalyse zwischen zwei Variablen xj und x2 knapp vorgestellt. Die Regressionsfunktion hat dabei die bekannte Form = / (x

2

) = a + bx2

mit

' G r u n d k e n n t n i s s e in d e r statistischen M e t h o d e n l e h r e , w i e sie e t w a in d e n L e h r b ü c h e r n von B a m b e r g / B a u r (1998), B e n n i n g h a u s ( 1 9 9 8 ) , B l e y m ü l l e r u.a. ( 1 9 9 8 ) , Litz (1998) o d e r S c h w a r z e ( 1 9 9 7 , 1998) präsentiert w e r d e n , sind f ü r den N a c h v o l l z u g d e s T e x t e s hilfreich a b e r nicht unbedingt notwendig.

Einleitung

X|

= xf

+ U\

9

,

wobei jtf die aufgrund der Regressionsbeziehung zu erwartende Ausprägung der Variablen x\ und u\ den Fehlerterm darstellt. Dabei wird i.a. metrische Skalenqualität der Variablen vorausgesetzt. Zusätzlich zu der aus dem Grundstudium bekannten Methode der kleinsten Quadrate wird die Maximum-Likelihood-Methode zur Parameterschätzung vorgestellt. Darüber hinaus wird das einfache lineare Modell durch Transformation der Variablen oder der Parameterstruktur für weitere Anwendungsbereiche erschlossen. Mit der Dummy-Regression (vgl. 1.4) wird die Verwendung einer dichotomen abhängigen Variablen diskutiert. Linearisierungsmöglichkeiten für nicht-lineare Ausgangsgleichungen schließen in 1.5 diese Erweiterungen des einfachen linearen Modells ab. In Kap. 2 werden die Ergebnisse der einfachen linearen Regressions- und Korrelationsanalyse hinsichtlich ihrer schätz- und testtheoretischen Aspekte vertieft. 2. Mit dem nächsten Schritt, der partiellen Regressions- und Korrelationsanalyse, wird in Kap. 3 ein Zusammenhang zwischen x\ und JC2 betrachtet, der durch eine dritte Variable XT, gestört ist. Damit wird es möglich, das einfache lineare Modell zum multiplen auszuweiten.

Abbildung 0.3:

Wirkung einer intervenierenden Variablen

Das Ausmaß der Störung durch X3 wird über eine einfache Regressionsanalyse zwischen und x 3 ermittelt x\ *2

Bezeichnet man mit JCJ_3 und x2.j Parti alvariablen:

=/i(*3) = / 2 ( *3)

die um den störenden Einfluß von x3 bereinigten

10

Einleitung

*l-3 = " 1

= xl

* 2 - 3 = "2

= x

=

= f

(x2-3)

= * l ~ f \ (x 3 )

2~x2

x

2~f2(x3)

so stellt die Funktion x

i-3

die Basis einer einfachen partiellen Regressions- und Korrelationsanalyse zwischen jq und

dar. D.h., die einfache partielle Regression ergibt sich als einfache Regression

der Partialvariablen und die Partialvariable als Fehler aus einer vorausgehenden Regressionsanalyse mit der Störvariablen.

3. Nun kann das einfache Regressionsmodell in Kap. 4 auf k Variablen zur multiplen Regressions- und Korrelationsanalyse erweitert werden: x\

=f(x

2

,x

3

...xk).

Dabei werden die Abweichungen der beobachteten Regressionsfunktion

f(x2)

X| von der ermittelten einfachen

über zusätzliche Variablen in deren partieller Form er-

klärt: Xj

=f (Jt2) + / (JC3_2) + / (*4_2,3) usw-

Das bisher vorgestellte Modell setzt sowohl bei der abhängigen wie bei den unabhängigen Variablen metrische Skalenqualität (zumindest jedoch Dichotomie) voraus.

4. Mit der in Kap. 5 dargestellten Varianzanalyse verfügen wir über ein Verfahren, das den Zusammenhang zwischen einer metrischen, abhängigen Variablen X] und ordinal oder nominal skalierten, unabhängigen Variablen A, B....K (den Faktoren) analysierbar macht. Bei der einfaktoriellen Varianzanalyse werden die abhängige metrische Variable (z.B. das Einkommen) nach der unabhängigen nicht metrischen Variablen (z.B. dem Schulabschluß) gruppiert und die Gruppenmittelwerte (Durchschnittseinkommen je Ausbildungsniveau) berechnet. Nun wird gefragt, ob die Gesamtvarianz der Einkommen eher auf die Varianz der Gruppendurchschnitte um das Gesamtmittel, d.h. der Varianz zwischen den Gruppen (= erklärte Varianz) oder auf die Varianz der Einkommen um die jeweiligen Gruppenmittelwerte, d.h. der Varianz innerhalb der Gruppen (= nicht erklärte Varianz) zurückzuführen ist.

Einleitung

11

In der Kovarianzanalyse wird die Varianzanalyse mit der Korrelations- bzw. Regressionsanalyse verknüpft, indem die durch die Varianzanalyse noch nicht erklärte Varianz durch die Hinzunahme von bisher ausgeschlossenen metrischen Variablen (den Kovariaten) weiter erklärt wird bzw. umgekehrt, indem die durch die Regressionsanalyse noch nicht erklärte Varianz durch eine Varianzanalyse weiter aufgeschlüsselt wird.

5. Mit dem in Kap. 6 vorgestellten loglinearen Modell verknüpfen wir die varianzanalytischen Ansätze mit der aus dem Grundstudium bekannten zweier nominalskalierter Variablen f jk

Aj und

% -Kontingenzanalyse

Bk . Ausgangspunkt sind die Felderwerte

einer zweidimensionalen Kreuztabelle, deren Betrag aus den beiden Merkmalen

A j und Bf, erklärt wird: fjk

=f(Aj,Bk)

Dieser Ansatz erlaubt es, Modelle der Abhängigkeit und Unabhängigkeit zwischen den Variablen

A j und

Bk

auf eine neue Weise zu formulieren und zu testen. Seine Be-

deutung liegt vor allem in der formal unkomplizierten Betrachtung der Zusammenhangsstruktur vieler nicht-metrischer Variablen

A j , B k , C i ...

Das loglineare Modell

weist eine Vielzahl von Varianten auf. In diesem Text wird davon nur das symmetrische Grundmodell des hierarchischen loglinearen Ansatzes für nominalskalierte Variablen bei ausreichender Felderbesetzung vorgestellt.

6. Die Umwandlung von nicht metrischen Variablen in (0,1)-Variablen (sog. DummyVariablen) führt zur vollständigen Integration der Varianz-/Kovarianzanalyse in die multiple Regressions- und Korrelationsanalyse. Damit wird in Kap. 7 die Formulierung eines Allgemeinen Linearen Modells (ALM) möglich, das neben den bisher hier behandelten Analyseansätzen auch eher der Grundausbildung zuzuordnende bivariate Modelle integriert. Der Logik eines allgemeinen linearen Modells werden dabei nicht nur die metrischen Strukturen der Variablen, sondern ebenso die Prüfverfahren zur Feststellung der Modellgüte wie zur Signifikanz der Modellkomponenten unterworfen. In seiner generalisierten Form subsumiert das ALM auch die Verfahren der logistischen Regression, der Logit- und Probitanalyse und das loglineare Modell. Kap. 7 stellt damit sowohl eine Zusammenfassung des bisher behandelten Stoffes dar, wie einen Ausblick auf den noch ausstehenden. Letzteres vor allem deshalb, weil sich ihm unter dem Be-

12

Einleitung

griff des multivariat erweiterten linearen Modells (MLM) eine Reihe der nachfolgend behandelten Ansätze zuordnen lassen.

7. Zur im engeren Sinne multivariaten Betrachtung leitet in Kap. 8 die kanonische Analyse über, die den Korrelationszusammenhang zwischen zwei metrischen Variablensätzen xi..„tpUnd Xp+i...x p+ q behandelt. Aus den beiden Sätzen (z.B. jeweils einer Menge von Indikatoren für zwei interdependente theoretische Variablen) wird je eine Linearkombination U bzw. V derart gebildet, daß sich

U = f(V)

mit maximalem

Korrelationskoeffizienten ergibt. Diese kanonischen Variablen können dann als statistische Repräsentanten miteinander korrelierter theoretischer Konstrukte interpretiert werden. 8. Die Faktorenanalyse kombiniert Elemente der Regressionsanalyse und der kanonischen Analyse. Dabei stellt sich für die im ersten Teil des Kap. 9 entwickelte Hauptkomponentenanalyse die Aufgabe, die Varianz des vollständigen Variablensatzes x\...xq

aus der Varianz einer geringeren Zahl von direkt nicht meßbaren bzw. nicht

gemessenen, voneinander unabhängigen komplexen Konstrukten

F A ,Fß...FQ

(den

Hauptkomponenten/Faktoren) zu erklären: xcj

=fj(FA,FB...FQ)

mit

Q

b

= Zwr (A + B x2i + Uj) = A Zw, + B Zw,- x2i +

x2

[aus (2-2) und (1-3)] Zw,t/,

Die folgenden Ableitungen haben vor allem exemplarischen Charakter. Der/die daran im einzelnen nicht interessierte Leser/in sei auf die Ergebnisse in den Formeln (2-10), (2-12), (2-14) und (2-15) sowie auf deren Kommentierungen verwiesen.

Einfache lineare Regression und Korrelation

(2-9)

(2-10)

= B + ZwiUi

E(b)

= B + JLwi E(Uj) = B

a

=Z(\/n-wix2)(A +

(2-11)

[aus (1-4)]

+ Bx2i

+ 1 / , ) [aus (2-6) u . (1-3)] ^wix2i

+ Ä*2 ~~ l.(\/n-x2wl)Ul

= A + E(l/n-x2wi E(a)

47

[aus (2-3) und (2-5)]

= A - A x2

(2-12)

(Inferenzslalislik)

)Ut

[aus (2-3) und (2-5)]

=A + H\/n-x2wi)E(Ui)

= A

[aus (1-4)]

3. Die Varianzen von a und b werden ebenfalls über die Linearformen abgeleitet: a\

= VAR

(b)

=E(b-B)2=E(ZwiUi)2

(2-13)

= ijw]2

uf

[aus [2-9)] U2

+ ...

]

+ E\2.wxW2UxU2

+~2wn_\wnUn_xVn\

= w2 E ( u f ) + ...w2n E(U2) 2w\w2E{U\U

+

2)+...Ylwn_^NnE(U

= 50 annähernd normalverteilt ist, mit (2-40)

E

1+ P

= Zp=-ln

(Zr)

U-P (2-41)

VAR ( Z r )

n-3 2

Daraus folgt,

und

2(n-l)

-Z

Z = -

- 3 ( Z r - Zp)

ist standard-normalverteilt.

a

Zr

Durch Berechnung von Zr und Z p auf der Basis der Stichprobenkorrelation und von p0

lassen sich Nullhypothesen p„ * 0

bei den folgenden Grenzen des Annahmebe-

reichs testen: (2-42)

Z_ _ W

= Zp ± "Po '

Bei einem Signifikanzniveau von a0

V ^

wird die Hypothese H0:p

= pa

angenommen,

wenn der empirisch ermittelte Z r -Wert - entweder nach (2-39) oder nach der Umrechnungstabelle im Anhang - innerhalb der Grenzen

Z^

für (2-42) errechnet sich aus der Hypothese

über (2-40) unter Verwendung des

Sie beruht auf der Areatangensfunktion von r Z=ar und zum Weiteren vgl. Hartung/Elpelt (1995) S. 154 ff.

p0

und Z ^

tanhr, beziehungsweise

liegt. Der Z p g Wert

auf

r

e



' +1

. Dazu

Einfache lineare Regression und Korrelation

natürlichen Logarithmus oder unter Verwendung von p0

(Inferenzstalistik)

71

aus der Umrechnungstabelle

im Anhang 3 (vgl. dazu auch nachstehendes Beispiel). Die Schätzung eines Konfidenzintervalls erfordert entweder ein aufwendiges iteratives Verfahren 1 oder man verwendet einen gegenüber (2-40) vereinfachten Erwartungswert Zp =

In ^

+ r

j . Unter dieser Bedingung und unter Verwendung der Umrechnungsta-

belle ergibt sich bei einem Konfidenzniveau von a0 ein Konfidenzintervall:

(2-43)

= Z_ ±

dessen Grenzen Z p i

Za o2 7 ^ 3

und Zp 2 jeweils über die Umrechnungstabelle zurückzutrans-

formieren sind in die Grenzen p\ und P2 des gesuchten Konfidenzintervalls für p . Sind die Sprünge in der Umrechnungstabelle nach persönlichem Dafürhalten zu groß, lassen sich die Grenzen des gesuchten Konfidenzintervalls auch direkt berechnen:

Aus

K

2

1+r In — 1—r

Z„ _ 1, 1+p 1 1+r , =a S £ = < - l n < - In - — - + , = \ - a 2 1-p 2 1 -r -Jn-1>

folgt unter Verwendung von a,b

(2-44)

=

1+r

In —

1—r

K a < In

±

l

-±P

1-P

2

Za -Jn^3

< b

= 1-a

und nach Auflösen der Ungleichung nach p , der gesuchte Konfidenzbereich für p mit

(2-45)

K

ea-X

r2 entspricht,

(r=0,6902) größer als

Ablehnungs-

ist die Hypothese zu verwerfen, weil der empirische

r\

ist. Aus den Daten ergibt sich also, daß der

koeffizient der Grundgesamtheit

r-Wert

Korrelations-

auf jeden Fall größer als 0,6 ist.

In welchem Bereich liegt nun vermutlich der wahre Wert der Grundgesamtheit?

Mit

einem Konfidenzniveau

der

Umrechnungstabelle

zpp Aus

von 90 % schätzen wir nach (2-43) und unter Verwendung

für das empirische r von 0,69

=0,848 ±

Zp| = 0,7509

und

/'65 V292-3

Zp2 = 0,9451

erhalten wir aus der Umrechnungstabelle

P\ = 0,635 und p 2 = 0,7375 die Grenzen des 95 Wenn die empirischen bzw. zu interpolieren

%-Konfidenzbereichs.

r-Werte nicht so günstig in der Umrechnungstabelle sind, bietet es sich an, den gesamten Rechenprozeß

zufuhren. Unter Bezug auf (2-44) bestimmen wir a und b mit

, 1 + 0,6902 1 a = In 1-0,6902

2 1,65 • = 1,5026 V292-3

, , 1+0,6902 2 1,65 t = In + , = 1,8908 1-0,6902 V292-3 Entsprechend

(2-45) erhalten wir

e ''

50

+l

J.89 + 1 = 0,9

mit

und

zu finden

selbst durch-

Einfache lineare Regression und Korrelation

K (0,6359 Die Berechnung

< p < 0,7377)

ohne Verwendung

der vorangegangenen

73

= 0,9 der Umrechnungstabelle

erbringt eine gegenüber

Ermittlung modifizierte, genauere Abschätzung des Korrelations-

koeffizienten der Grundgesamtheit

2.3.3

flnferenzslalislik)

im Bereich von 0,636 und 0,738.

Der Likelihood-Quotiententest

1. In Abschnitt 1.1(6) haben wir mit dem Maximum-Likelihood-Ansatz ein alternatives Schätzverfahren zur Bestimmung der Regressionsparameter kennengelernt. Damit fallen, im Gegensatz zur Methode der kleinsten Quadrate, die erklärte und die nichterklärte Summe der Abstandsquadrate nicht mehr automatisch als Bausteine für Signifikanztests entsprechend (2-36) an. Da m.l.-Schätzungen sowohl für linearisierte Regressionsmodelle entsprechend Abschnitt 1.5 und 6.2 wie generell für komplexere Analysen ab Kapitel 8 von großer Bedeutung sind, ergab sich eine Notwendigkeit, Testverfahren für derart geschätzte Modelle zu entwickeln. Der so begründete Bedarf wird mit dem Likelihood-Quotiententest abgedeckt.

2. Aus Gründen der Einfachheit und der Vergleichbarkeit mit dem F-Test nach (2-36) sollen die Grundprinzipien des Likelihood-Quotienten am linearen Modell entwickelt werden. Dieser Test zur Abschätzung der Modellgüte beruht unmittelbar auf den maximalen Mutmaßlichkeiten, die für eine Stichprobe auf der Basis zweier unterschiedlicher Modelle aus den jeweiligen Modellparametern resultieren. Im ersten, dem saturierten Modell

M\

werden die Beobachtungen

jq,

über die Regressionsfunktion

jcf = a + b X2 geschätzt, im zweiten, dem reduzierten Modell

Ma

über die Mittel-

werte X\. Das reduzierte Modellimpliziert die Hypothese ¿ 2 = 0 bzw. x[ =a = x\. Mit «,- = X\i - xft und d = x\-x\

sind die, den jeweiligen Modellen entsprechenden,

nicht-erklärten Abweichungen der Beobachtungen von ihren Erwartungswerten gegen J A 1 2 1 ben, mit ,2

=^(xii-xji)2

i—I = X (

x

l i ~a*~b*x

x

2

** f

=

m i n !

Damit die Summe der Abstandsquadrate der Residuen (SAQ-Res) größer null wird, muß n größer als k sein.

Multiple Regressions- und Korrelationsanalyse

93

Durch partielles Differenzieren dieser Funktion nach den k unbekannten multiplen Regressionskoeffizienten und Nullsetzen der partiellen Ableitungen erhalten wir k Normalgleichungen, aus denen sich die Formeln für a*,bj •••bji errechnen lassen:

SLuf

_ SLuf

_

_ SLuf

_

Als Bedingung für ein Minimum der SAQ-Res ist erforderlich, daß die zweiten Ableitungen nach den Regressionskoeffizienten positiv sind. 2. Mit Hilfe der Stichprobe und der Methode der kleinsten Quadrate wird das Regressionsmodell der Grundgesamtheit simultan geschätzt (4-3)

X1

=E(X1\X2...Xk)

(4-4)

E(Xj\X2...Xk)

= A* +

+U

und

B*2X2+...B*kXk

Im übrigen gelten die Gleichungen (1-4) bis (1-7) analog für das multiple Regressionsmodell. 3. Am Beispiel einer vierfachen multiplen Regression

*] = / (x2>

x4)

soll das

Regressionsmodell der Stichprobe veranschaulicht und ein formales Verfahren zur sukzessiven Entwicklung der Normalgleichungen demonstriert werden. Aus (4-1) und (4-2) ergibt sich X],

=a*

+ t£ x2j + th, x3i + b4 x4l + m,

Nach der Methode der kleinsten Quadrate erhalten wir folgende 4 Normalgleichungen: * = La *

Zjc\X2

=a*Lk2

+

I

b{Lx2

+ ¡h^i

*

j + b^Lx^

| x

£¿1*3

= a*Lx3

+ t^Lx2 3

¿¿1X4

= a * Z*4 + i^Zx2x4+

1 i

* +

+

|

+ t&x 3

! +

¿3^*3*4

+

b4Lx4

b4Lx2xA

+

blLx3x4

94

Multiple Regressions-

und

Korrelationsanalyse

Die gestrichelten Linien zeigen, wie die Normalgleichungen sowohl ihres Umfanges wie ihrer Zahl nach systematisch von der zweifachen über die dreifache zur vierfachen Regression erweitert werden. Durch Auflösen dieser Gleichungen nach den Koeffizienten b^, b3 und b*A ergeben sich Formeln, die die multiplen Regressionskoeffizienten als identisch mit den partiellen/semipartiellen Regressionskoeffizienten ausweisen: ¿>12-34 =¿>1(2-34) ¿>13-24 =¿>1(3-24)

und

¿>14-23 = ¿>1(4-23) Die multiplen Regressionskoeffizienten zeigen also an, um wieviel sich die abhängige Variable xf

verändert, wenn die unabhängige Variable Xj unter Konstanthalten der

übrigen unabhängigen Variablen

X2 ...

Xj+i,... xk

um eine Einheit wächst. Wir

notieren deshalb als Ausgangsform der multiplen Regressionsfunktion xj

Der berechnete Wert

=a*

jcf

+ b12-34

x2

+ bl3_24

x3

+ bl4_23

x4

ergibt sich also dem Betrage nach aus einer unabhängigen

Konstanten a * und den jeweiligen partiellen Wirkungen der unabhängigen Variablen ••• x 4 • Zum besseren Verständnis dieses multiplen Regressionszusammenhanges werden wir diese Funktion in verschiedenen Schreibweisen betrachten. Dazu ersetzen wir zunächste a*. Für a* erhalten wir aus den Normalgleichungen analog zur Mittelpunktsgleichung der einfachen Regression (1-16) a

*

= * / - b¡2-34X2

~ b 13-24X3

~

b14-23X4.

so daß wir x. in einer zweiten Variante wie folgt schreiben können: xj

=x,+

b12-34(x2

+ b]4-23(x4

- x - x4

2

) + bj3-24(x3

- x3 )

)

Danach weicht der berechnete bzw. vorhergesagte Wert x{ der abhängigen Variablen vom Mittelwert jcj dieser Variablen um den Betrag ab, um den die unabhängigen Variablen von ihren Mittelwerten abweichen und diese Abweichung über die jeweiligen multiplen Regressionskoeffizienten im Regressionszusammenhang zur Geltung bringen können.

Multiple Regressions- und Korrelationsanalyse

9 5

Eine dritte Variante ergibt sich aus der nachfolgenden Überlegung, vgl. dazu auch = /(*2> x 3> x 4) werden aus

Abb.41. Mit

X]

die Variablen

x2,

Xj

und

x4

auspartialisiert, so daß sich mit «,• = xu - x^ = *i_2,3,4 die Partialvariable dritter Ordnung ergibt. Diese Partialvariable läßt sich, wie oben, als Ergebnis einer simultanen multiplen Regression, aber auch als Ergebnis einer schrittweisen Auspartialisierung darstellen: *l-2,3,4

=*l-23

"/2(^4-23)

x

= l-2

-/l(*3-2)

x

x

= i-fo( 2)

-f2(x4~23)

-fl( 3-2)

x

a

x

x

x

x

a

= \ ~ \2 " b\2 2 ~ l(3-2) x

-

¿>l(3-2)*3-2

- a

l(4-23)

x

= \ ~ \ - b\2( 2~ 2)

Abbildung 4.1:

-/2(^4-23>

x

~ ¿>l(3-2) 3-2

-

¿>1(4-23) *4-23

~ ¿>1(4-23) *4-23

Schrittweiser Aufbau der multiplen Regressionsfunktion für die i-te Beobachtung

erklärte Teile

nicht erklärte Teile x

n -

—^ Xl-2.3,4 Xl-2,3

3. Stufe

f2(x4-2j)

2. Stufe

fi(x3.2)

1. Stufe

f0(x2)

,

> Xj-2

Daraus folgt als =

X

I + bn(x2

~x2)

+

bl(3-2)

x

3-2

+ bI(4-23)

x

4-23

Aus dieser Gleichung läßt sich die schrittweise Verbesserung eines Vorhersagewertes durch die sukzessive Berücksichtigung immer weiterer Vorhersagevariablen ablesen. Allerdings sind aus den nachfolgenden Variablen jeweils die bis dahin berücksichtigten Variablen auszupartialisieren. Der Erklärungsbeitrag der Variablen ergibt sich dann im Ausmaß der Abweichungen von ihren Mittelwerten, gewichtet mit den entsprechenden einfachen bzw. partiellen Regressionskoeffizienten.

96

Multiple Regressions-

und

Korrelationsanalyse

4. Für den Fall von k Variablen ergeben sich die Regressionsbeziehungen analog zur vierdimensionalen Aufgabenstellung. Wir schreiben die allgemeine Regressionsfunktion

••• *k) ' n den folgenden Formeln (4-5) bis (4-7) auf drei verschiedene

=/ 02,

Weisen, wodurch es möglich wird, die Regressionsbeziehung aus unterschiedlichen Perspektiven zu betrachten. Zu Beginn notieren wir (4-1) in der allgemeinen Fassung ': (4-5)

xj

= a* + bI2_3

mit

a*

= x, - ¿12-3,4...

4

kx2

+ bI3_2

4

kx3

blk_2,3,4...k_1xk

+...

hk-lXk^k

Dann ersetzen wir a* gemäß dieser Mittelpunktgleichung und schreiben: (4-6)

xci

=xj+

b12-3

...

k

(x2~x2)

+ ... b

] k

_

2 3 k j

(xk - xk )

In beiden Formen erscheinen die multiplen Regressionskoeffizienten als partielle Regressionskoeffizienten der Ordnung k-2. Drücken wir dagegen die xj7 als Funktion fortschreitender Partialvariablen aus, ist es adäquater, die Regressionskoeffizienten als semipartielle Koeffizienten zu sehen 2 . Die folgende Gleichung kann auch so interpretiert werden, daß mit der multiplen Regression die Vorhersage der individuellen Ausprägungen der abhängigen Variablen, beginnend mit einem einfachen Regressionsmodell, schrittweise durch die Hinzunahme weiterer Variablen in ihrer jeweils partiellen Form verbessert wird: (4-7)

xci

=X] + b,2(x2-x2)

+bI(2-3)X3-2-

erklärte

= einfache

+ semipartielle

Variable

Regression

Regr. 1. Ord.

+

b

l(k-2,3...k_i)xk-2,3...k_l

+ semipartielle Regression k-2. Ordnung

Die multiple Regressionsfunktion erscheint hierbei als Summe einfacher Regressionsfunktionen zwischen

Xj und fortschreitend höheren Partialvariablen, wobei die semi-

partielle Regressionskonstante

nur als Konstante der Funktion erster Ordnung vor-

kommt.

Zur Vermeidung von Mißverständnissen schreiben wir auf den nächsten Seiten bei j = k-1 statt „k-1" „k.,". Wie wir aus (3-17) wissen, sind beide gleich.

Multiple Regressions- und Korrelationsanalyse

9 7

Den Störterm Uj in dieser multiplen Regressionsfunktion können wir analog zum 4-Variablen-Fall als Partialvariable k-l-ter. Ordnung interpretieren: = Xli ~ xli

"i

4.2

=

x

l-2,3...k

Das Korrelationsmodell der Stichprobe und der Grundgesamtheit

1. Wir definieren den multiplen Determinationskoeffizienten R^ analog zum einfachen r als Verhältnis der durch die gesamte Regressionsfunktion, d.h. durch die Variablen jc2 ... xk erklärten Varianz in xxi zur Gesamtvarianz der Variablen x 1( .

(4-8)

R f

2

=R2k=

k

S A Q

~ R e SAQ-Ges

g

=

l

/nJL(xx-xx)2

Diese Definition setzt voraus, daß die Zerlegung der Gesamtvarianz der xu

in einen

durch die Regressionsfunktion erklärten Teil und in einen nicht-erklärten Teil auch für die multiple Regression möglich ist: S2

= \/nZ(xx-xx)2 = MriL(xx

=\lriL(xx-xcx - x , c ) 2 + l/nl(xc]

-xx)2

+ x\

- xx)2

+2lnY.(xx

- jtfXjtf -

x)

Das letzte Glied in dieser Gleichung stellt zweimal die Kovarianz zwischen u und xx dar. Diese Kovarianz ist auch im Falle der multiplen Regression vom Betrage null, da u = xx_2 3.jt a ' s Partialvariable k - 1. Ordnung keinen Einfluß der Variablen x^ ... Xf, enthält, wohingegen x^ den gesamten Einfluß der Variablen x 2 . . . x^ ausdrückt. Somit gilt auch hier: (4-9)

/ / nZ(xj

- xj )2

S

I

Gesamtvarianz

= 1 / nE(x!

- xci )2

+1 / n X f r i - x, )2

= Sl-2,3...k

+

S C

= nicht-erklärte Varianz

+ erklärte Varianz

1

2. Wir bestimmen nun die erklärte Varianz unter Verwendung der Gleichung (4-5): Sjc

=VAR(xj

) =

= 1 I n j . [bX2(x2-x2)

\lriL(xcx-xx)2

+ b\^2)x3-2

+

•••

+ b

l(k-2,l-.k-l)xk-2Xk-\

]

98

Multiple Regressions- und

= b\2 1 / nL(x2 2 +b \(k-2X-k-\)

Korrelationsanalyse

-X2)2+ 1/

¿¡(3-2) 11

3-2 + -

2

nYjC

k-2X.k-\

-2,Xk'xk

+

-2,3-*-l) ]

In dieser Gleichung sind sämtliche Kovarianzen vom Betrag null, da es sich u m Kovarianzen zwischen Partialvariablen fortschreitend höherer Ordnung handelt, die voneinander unabhängig sind, weil aus der zweiten Partialvariablen der Einfluß der ersten Partialvariablen bereits auspartialisiert wurde. Wir erhalten somit als Ergebnis, daß die erklärte Varianz sich als S u m m e der mit den jeweiligen quadrierten semipartiellen Regressionskoeffizienten gewichteten Varianzen von Partialvariablen fortschreitend höherer Ordnung der unabhängigen Variablen ergibt: ( 4 - 1 0 ) VAR(xCj

) = b?2 S22+bf(3_2)

Sj_2

+... + b21(k_23

k i )

S2k_23

k

i

3. Wir dividieren die erklärte Varianz in (4-10) durch die Gesamtvarianz und erhalten analog zu (1-27) f ü r 2 r2

,2

K

k

-

Sf

. ,2

Sl

2

S

k-lX.k-\

2

""2 + »1(3-2) —Ä j - + - + \k-2,3.Jfc_i) •->1 1

^2 ¿1

Für semipartielle Regressionen wie für die einfache Regression gilt, daß sich Regressionskoeffizienten von den Korrelationskoeffizienten durch das Verhältnis der Varianz der unabhängigen zur Varianz der abhängigen Variablen der Regressionsbeziehung unterscheiden. D e s h a l b erhalten wir den multiplen Determinationskoeffizienten als

Summe von semipartiellen Determinationskoeffizienten fortschreitend höherer Ordnung: (4-H)

R2k

= r/2 + rf(3_2)

+... + r/V2)3...*

,>

Gleichung (4-11) beantwortet nun die Frage, u m wieviel sich der Determinationskoeffizient erhöhen läßt, wenn eine weitere Variable in das Regressionsmodell aufgenommen wird. Diese V e r b e s s e r u n g wird als RQ-Änderung bezeichnet und entspricht dem semipartiellen Determinationskoeffizienten dieser weiteren Variablen

(4-12)

r

f(k-2,3...k_,)

= *fc -

—1.

K

( R Q- Änderung )

Multiple Regressions-

Bei Unabhängigkeit der Variablen x2...xk

und Korrelationsanalyse

ergibt sich nach (4-11) R k

99

als Sum-

me der einfachen Determinationskoeffizienten: (4-13)

R2k

=rh+rj3+...+rfk

4. Die Varianz der Fehler, d.h. des nicht erklärten Restes ist: (4-14)

S2

=-Zuf n

=sti...k=S21(l-R2k)

[aus (4-9)]

Diese Varianz ist, wie wir bereits aus 2.1.1 wissen, kein erwartungstreuer Schätzer für die Fehlervarianz o u

der Grundgesamtheit. Unter Berücksichtigung der Anzahl der

Freiheitsgrade n-k ergibt sich in Analogie zu (2-20) ein erwartungstreuer Schätzer

— l n-k

-

f



S n-k

22

mit

(4-15)

Sy

(4-16)

E(S2)

4.3

Zur Strategie der multiplen Regressions- und Korrelationsanalyse

=3

- J - ^ ( l - R n-k*

k

2

k

*~l > _

RS

, )

- L - ( 1 - R n-k*

Q

~

Change 2

k

, )

Nach (4-12) ist der semipartielle Korrelationskoeffizient identisch mit RSQ-Change. Dieser zusätzlich erklärte Varianzanteil wird ins Verhältnis gesetzt zum weiterhin nicht erklärten Varianzanteil Korrelation zwischen

1 - R^*, X\

vgl. (4-14). D a ein Koeffizient aus einer einfachen

und einer Partialvariablen (k*-2)-ter Ordnung getestet wird,

hat S A Q - R e s nur einen Freiheitsgrad und F deshalb nur einen Zählerfreiheitsgrad. Nach (2-38) ist yjF^-k*

t-verteilt mit

- Fn-k, aQ

(4-24)

F0

— -Reg 1

5

n

« NW.1,

s

Z

j=l Z ^nj(xj-x) j=l

2

Das varianzanalytische Modell der GG

1. Die Frage, o b der Faktor Bildung in der G G einen signifikanten E i n f l u ß auf kann über die N u l l h y p o t h e s e

x,

hat,

Die Varianz-ZKovarianzanalyse

125

getestet werden. Für Z = 2 gibt es einen einfachen t-Test des Vergleiches zweier Mittelwerte. Unter der 1 2. Bedingung, daß die Grundgesamtheit normalverteilt ist und 0\ = c 2 , wird die Nullhypothese abgelehnt, wenn:

n j + n2 mit = n\ + «2

_

- 2

2.

2. Für den Test mehrerer Mittelwerte entwickeln wir folgenden varianzanalytischen Ansatz am Beispiel Z = 3: Wir nehmen an, daß Xj in der Grundgesamtheit normalverteilt ist, ferner daß mit //,, die Mittelwerte der nach dem Faktor A unterschiedenen Gruppen gegeben sind und daß die Varianzen in den einzelnen Gruppen gleich sind:

2

0\ =

2

=

2=

a

2

(Homogenität der Varianzen). Für unser Beispiel heißt

das, daß die Einkommensstreuungen unabhängig vom Bildungsniveau sind. Die Nullhypothese lautet nun H 0 :ß\ =ß 2 =M3' Wenn die Nullhypothese zutreffend ist, kann jede dieser Gruppen unterschiedlichen Bildungsniveaus als Stichprobe aus der gleichen Grundgesamtheit gelten. Unter dieser Bedingung gibt es drei Wege, die unbekannte Varianz

a2

der Grundgesamtheit

zu schätzen: a) über die Gesamtvarianz der Stichprobe

s2

v - r X X ^ v - ) "

2

7=11=1

= —-— SAQ-gesamt b) durch Mittelung der Gruppenvarianzen der Stichprobe (5-2)

S2

=

n^+n2si+n3sj

=

J _ j .

2

7=1 1=1

Bei einer groben Verletzung dieser Annahmen, vor allem bei kleinen Stichproben und sehr unterschiedlichen Gruppengrößen empfiehlt es sich auf den verteilungsfreien Kruskal-Wallis-Test (vgl. z.B. Bosch (1992) S. 745ff.) auszuweichen.

126

Die Varianz-ZKovariamanalyse

SAQ-innerhalb

c) über die Varianz der Stichprobenmittelwerte (T

Aus d e m Grundstudium wissen wir: ö j = —

=> a

J

= n•

9

n Wir werden j e d e der Abweichungen der drei Gruppenmittelwerte vom Gesamtmittel als Punktschätzung für a

verwenden und die drei Punktschätzungen dann mittein:

2

-



2

CT

2 diese Testgröße auf beliebige Mittelwertunterschiede Xj - xj* anwendbar ist, wenn bei der F-Verteilung für den Zähler die Anzahl der Freiheitsgrade zugrunde gelegt wird, die sich aus der Anzahl der Ausprägungen des Faktors ergibt. Dazu wird der Zähler durch die Anzahl dieser Freiheitsgrade dividiert und die entsprechende F-Verteilung mit Z-l Zähler- und n-Z Nennerfreiheitsgraden zum Testen der Nullhypothese H0 : ßj = ßj* verwendet. Diese wird bei a0 abgelehnt, wenn 1

» •„.

Z-l 1

SAQ-in

n-Z Wenn wir diese Beziehung nach

l !— > F _ _!. _ n-z,aa 11, +«;.

9

(xj-xj*)

I

bzw. Lx^ ~xj*\

I

auflösen, erhalten wir

eine absolute kritische Differenz zweier Mittelwerte im Paarvergleich, deren Überschreitung zur Zurückweisung von H0 führt:

2

Wenn man

| — + —i— in einer allgemeinen Form als

schreibt, ist (5-9) auf

beliebige Kontraste D auszuweiten:

5.2.5

Beispiel zur einfaktoriellen Varianzanaiyse

In unserem Beispiel für die Varianz- und Kovarianzanalyse gressions-

und korrelationsanalytischen

Untersuchungen

wollen wir an unseren redes betrieblichen

Entschei-

dungsprozesses anknüpfen (vgl. S. 109) und dabei untersuchen, ob eine Behandlung der Variablen Status, Ausbildung und Geschlecht nicht wie bisher als metrische

Variablen,

sondern als nichtmetrische zu einer Verbesserung der Ergebnisse führt. Betrachten wir nun dazu zunächst die bisherigen Ergebnisse zu den zwischen der Variablen „Partprof"

und den Persönlichkeitsvariablen

dung und Geschlecht. Die Korrelationsmatrix tionskoeffizienten

Zusammenhängen Status,

Ausbil-

(Ausdruck 3.1, S. 88) weist dazu Korrela-

von 0.62, 0.41 und 0.33 aus. Dabei haben wir allerdings die ordinal-

Die

skalierten Variablen Status und Ausbildung Varianzanalyse

als quasi metrische Variable behandelt. Die

ist nun nicht nur das diesem Skalenniveau

sie erlaubt es auch, die Konsequenzen

133

Varianz-ZKovarianzanalyse

der vorherigen,

angemessenere

Verfahren,

etwas zweifelhaften

Annahme

aufzudecken. Für die einfaktorielle gleiche" Auf

Anova

(=Analysis

wählen wir als abhängige

eine

Kontrastgruppenanalyse

deskriptiven

wollen

verzichten,

für

die

Levene-Test

wir uns für die

Statistiken, die uns einen Einblick in die Verteilungsparameter gewähren

bei und anhand des Mittelwertdiagramms Gruppen weder gleichweit

Gruppen wesentlich sprechenden

unterscheiden.

sehen wir, daß die Gruppenmittelwerte entfernt sind, noch sich für

Die „homogenen"

Untergruppen

Die Annahme

Variablen „Status"

erweist sich deshalb eher als zweifelhaft. zu erkennen ist, überlappen

sind (vgl. Block

Ausdruck 5.1:

Struktur

Wie aus dem

der

folgenden

sich die 95 % Konfidenzintervalle

bei einigen Gruppen beträchtlich,

weisen Tests auf Mittelwertdifferenzen

der einige

sind in der ent-

einer metrischen

Teil des Ausdrucks

die Gruppenmittelwerte

der abhän-

(vgl. Ausdruck 5.1, erster Block). Da-

voneinander

Tabelle zusammengestellt.

aus1.

„Post-hoc"

und den

der Varianzen aus. Unter den Optionen entscheiden

gigen Variablen in den Statusgruppen einzelnen

wir

„Mittelwertver-

und als Faktor „Status"

wählen wir den Scheffe-Test2

(a-posteriori)-Mittelwertvergleiche auf Homogenität

of Variance) im Programm

Variable „Partprof"

für

so daß auch bei den paar-

einige nicht signifikante Ergebnisse zu erwarten

„Mehrfachvergleiche").

Einfaktorielle

Varianzanalyse Deskriptive Statistik

P A R T P R O F Partizipationsprofil

Obergrenze 8,4784 9,4152

Mittelwert 6,6818

1 angelernt

26

6,8462

6,3605

1,2474

4,2771

2 Fachkraft

113

7,5398

5,4577

,5134

6,5226

8,5571

3 qual. Angest.

33

13,8485

7,0228

1,2225

11,3583

16,3387

4 Teamleiter

29

16,5862

7,9171

1,4702

13,5747

19,5977

5 Gruppenleiter

32

21,6250

5,4993

,9721

19,6423

23,6077

15

23,0000

6,6225

1,7099

19,3326

26,6674

292

11,2979

8,3471

,4885

10,3366

12,2593

6 Bereichsleiter Gesamt

'

Untergrenze 4,8852

44

N 0 ungelernt

2

95%-Konfidenzintervall für den Mittelwert

Standar dfehler ,8909

Standardab weichung 5,9093

In früheren Versionen war darüber hinaus der Definitionsbereich seiner Merkmalsausprägungen (0-6) anzugeben. Von den mehr als zehn Testvarianten stellt der „LSD" (Least-Significant Difference)-Test einen Mittelwerttest ohne und „Bonferroni" einen mit Cft-Korrektur dar, vgl. (5-1) und (5-8). Zu den übrigens Tests vgl. z.B. Kirk (1968), S. 127.

134

Die

Varianz-ZKovarianzanalyse

ANOVA PARTPROF Partizipationsprofil

Zwischen den Gruppen Innerhalb der Gruppen Gesamt

Quadratsumme 9541,301 10733,778 20275.079

df 6 285 291

Mittel der Quadrate 1590,217 37,662

F 42,223

Signifikanz ,000

Test der Homogenität der Varianzen PARTPROF Partizipationsprofil Levene-Statistik 1,450

df2 285

df 1 6

Signifikanz ,196

homogene Untergruppen STATUS Hierarchischer Status im Betrieb 0 ungelernt 1 angelernt 2 Fachkraft 3 qual. Angest. 4 Teamleiter 5 Gruppenleiter 6 Bereichsleiter Signifikanz

N 44 26 113 33 29 32 15

1 6,6818 6,8462 7,5398

Untergruppe für Alpha = .05. 2 3

13,8485 16,5862

1.000

.809

16,5862 21,6250 .123

4

21,6250 23,0000 .993

Mehrfachvergleiche (I) STATUS Hierarchischer Status im Betrieb 0 ungelernt

1 angelernt

2 Fachkraft

3 gual. Angest.

4 Teamleiter 5 Gruppenleiter

(J) STATUS Hierarchischer Status im Betrieb 1 angelernt 2 Fachkraft 3 gual. Angest. 4 Teamleiter 5 Gruppenleiter 6 Bereichsleiter 2 Fachkraft 3 qual. Angest. 4 Teamleiter 5 Gruppenleiter 6 Bereichsleiter 3 qual. Angest. 4 Teamleiter 5 Gruppenleiter 6 Bereichsleiter 4 Teamleiter 5 Gruppenleiter 6 Bereichsleiter 5 Gruppenleiter 6 Bereichsleiter 6 Bereichsleiter

Mittlere Differenz (l-J) -,1643 -,8580 -7,1667 -9,9044 -14,9432 -16,3182 -,6937 -7,0023 -9,7401 -14,7788 -16,1538 -6,3087 -9,0464 -14,0852 -15,4602 -2,7377 -7,7765 -9,1515 -5,0388 -6,4138 -1,3750

Standar dfehler 1,518 1,091 1,413 1,468 1,426 1,835 1,335 1,609 1,657 1,620 1,990 1,214 1,277 1,229 1,686 1,562 1,523 1,911 1,573 1,952 1.920

Signif ikanz 1,000 ,996 ,000 ,000 ,000 ,000 1,000 ,005 ,000 ,000 ,000 ,000 ,000 ,000 ,000 ,799 ,000 ,001 ,119 ,099 .998

95%-Konfidenzintervall Obergrenze Untergrenze -5,5919 5,2632 3,0410 -4,7570 -12,2194 -2,1139 -4,6563 -15,1525 -20,0408 -9,8455 -9,7579 -22,8784 4,0788 -5,4662 -1,2486 -12,7560 -3,8141 -15,6660 -8,9857 -20,5720 -9,0397 -23,2680 -1,9671 -10,6502 -13,6138 -4,4790 -18,4789 -9,6914 -21,4897 -9,4306 2,8471 -8,3225 -13,2202 -2,3329 -15,9841 -2,3190 -10,6642 ,5866 ,5645 -13,3921 5.4908 -8.2408

Die Varianz-ZKovarianzanalyse

135

Mittelwert-Diagramm

ungelernt

Fachkraft angelernt

Teamleiter

Bereichsleite

qual. Angest.

Gruppenleiter

Hierarchischer Status im Betrieb

Bezüglich

der Aufteilung

der Varianz zeigt sich, daß diese zu fast 50 % gelingt.

2

rechnet SPSS den eta -Koeffizienten chen wir diesen beiden Variablen, Punkten zu

nach (5-4) nicht aus. Er liegt bei 0,4706.

Wert mit dem r2 (=0,4093)

der linearen Korrelation

so haben wir eine Verbesserung

Verglei-

zwischen

der Varianzerklärung

diesen

von fast 6 %-

konstatieren.

SPSS stellt die Ergebnisse „Mehrfachvergleiche")

des Schejfe-Tests

einmal für alle einzelnen

und für den Faktor „Status"

block) dar. Im ersten Fall finden sich im Ausdruck Mittelwertunterschiede werte spaltenweise Zusammenfassung

insgesamt

gruppiert.

entspricht

Ausgabe-

Mittelwertdiffe-

unterschiedlichen

Dabei ergeben sich die höchsten

der Ausprägungen

(siehe

für Tests auf

für diese

sind alle nicht-signifikant

Paare

(vgl. letzter

die Testergebnisse

von null bzw. Konfidenzschätzungen

renzen. Für die Zusammenfassung

Scheffe-Test'

Leider

Signifikanzen

Mittelfür eine

0-2, 3 und 4 sowie 5 und 6. Die Formel für den

(5-9).

Im Vergleich zu den anderen Tests, die von SPSS angeboten Test die Mittelwert-Unterschiede

am konservativsten.

allen Tests die größte Differenz der Mittelwerte

werden, testet der Scheffe-

Dies bedeutet,

zur Ablehnung

der

er verlangt

Ha.

Darüber

von hin-

F r ü h e r e n S P S S - V e r s i o n e n lag die f o l g e n d e M o d i f i k a t i o n z u g r u n d e :

bc.- - 3t J 1> c • R a n g e -

1 J

'

I— + —

Vnj

nj*

m i t c-J—^^—— V 2

n-Z

u n d Range = -¡2(Z

-1)

F„Z~Z'

136

Die Varianz-ZKovarianzanalyse

aus ist er relativ robust bei starken Unterschieden in der Besetzung der Gruppen und reagiert relativ unsensibel auf Verletzungen der Annahmen der Normalverteilung der Varianzenhomogenität.

Wie der Levene-Test zeigt, kann die Hypothese

Varianzen erfreulicherweise nicht zurückgewiesen

5.3

Die mehrfaktorielle Varianzanalyse

5.3.1

Der experimentelle Ansatz

und

homogener

werden.

1. Bei der mehrfaktoriellen Varianzanalyse gehen wir davon aus, daß die metrisch skalierte, abhängige Variable von mehreren nominal oder ordinal skalierten unabhängigen Faktoren A, B, ... K beeinflußt wird. Im experimentellen Ansatz vereinfachen wir das Analysemodell, indem wir die Erhebung so anlegen, daß die Untergruppen aller Kombinationen von Merkmalsausprägungen der Faktoren gleich stark besetzt sind. Damit schließen wir eine Beeinträchtigung der Analyse aufgrund von Interdependenzen zwischen den Faktoren aus. 2. Am Beispiel zweier Faktoren A (Bildungsniveau) und B (Geschlecht) soll im folgenden eine tabellarische Darstellung der Gruppen und Untergruppen das Problem der Varianzenzerlegung veranschaulichen. Bei drei Ausprägungen des Faktors Bildungsniveau Aj ( j = 1,2,3)

und zwei Ausprägungen des Faktors Geschlecht

B, (l = 1,2)

erhalten

wir sechs Untergruppen (Zellen), die alle gleich besetzt sind. nß=c

n = -

Die Darstellung der Beobachtungen der Variablen xjU erfolgt in einer dreidimensionalen Häufigkeitstabelle.

Die

Tabelle 5.2

Varianz-/Kovarian:analyse

137

Verteilung der Einkommen nach Bildungsniveau und Geschlecht

Zellen-

Bl

B2

mittel

Zellen-

Zeilen-

SAQ-

mittel

mittel

Haupteffekte

Xj

SAQa

x

\2\

A,

x

i

i —-

x

=

12c

\lc



- -

x

x x

n

1

x

221

X

x

21

x

22

2. """"

3

X "/'v/. 7=1

x

x

22c

2lc

x

311

x

321 a

x

32

x

3\c

32c

Spaltenmittel

.l

X

T 2

SAQ-

SAQB

Haupt-

SAQ-innerhalb= 3 j=l

Xji

= ^

ni(x,-x)

1=1

effekte

Mit

X2

. . . .

x

2 i=i

2

¥ SAQ - gesamt =

SAQ-zwischen =

tj

3

¿=1

X j=1

2 X "jliXjl-*) /=1

2

(! XX1 . " ;=i ;=i 1=1

werden in der Tabelle die jeweiligen Mittelwerte der Untergruppen (Zellen-

mittel) und mit

xj

bzw.

xj

die Mittelwerte der Gruppen (Zeilen- bzw. Spaltenmit-

tel) bezeichnet. Die Summe der Abstandsquadrate insgesamt (SAQ-gesamt) ergibt sich wie bisher als S u m m e der quadratischen Abweichungen der einzelnen Beobachtungen in den Zellen vom Gesamtmittel. Ebenso ergibt sich die Summe der Abstandsquadrate innerhalb der Zellen (nicht erklärte SAQ) wie bisher. Allerdings setzt sich, wie die folgende Varianzzerlegung zeigen wird, die erklärte Summe der Abstandsquadrate aus mehreren Komponenten zusammen, die als Ausdruck der jeweiligen Einzelwirkungen der Faktoren wie ihrer Wechselwirkung zu verstehen sind.

138

Die

Varianz-/Kovarianzanafyse

3. Die Varianzzerlegung im Falle der mehrfaktoriellen Varianzanalyse erfolgt analog zur einfachen Varianzanalyse. Die Abweichungen der zweifach klassifizierten metrischen Variablen x j n ( j = l . . Z , 1=1..S) vom Gesamtmittel werden dabei in einem ersten Schritt wie folgt zerlegt: x

jli ~

Gesamtabweichung

- ( X j ü - X ß )

+ ( x ß - x )

= nicht erklärte

+ erklärte Abweichung

In einem zweiten Schritt können wir die erklärte Abweichung, also die Abweichung zwischen den Zellenmittelwerten, weiter aufspalten und erhalten dann: x

x

jli ~

= ( * / / / - * / / )

Gesamtabweichung

+

= nicht erklärte Abweichungen + {xl-x)+{x-x)+

erklärte Abweichungen der Faktoren A und B + x

(Xjt -

j . ~ x.l +

x

)

erklärte Abweichung innerhalb der Faktoren (Wechselwirkung) 1 Durch Quadrieren und Summieren über alle n Beobachtungen erhalten wir die Summe der Abweichungsquadrate: Z

S

c

I

I

I

j=l

1=1 i=l

SAQ-gesamt

(tju-*)2

=

Y,ni(xt-x)2

>2

i=i

j=l

=

SAQB

SAQA

z (5-11)

x

-

s

X

Hnß(*ß

j=l

1=1

- Xj- - * l

+

X) 2

SAQAB Z

I

5

I

c

j=l /=/ i=l

L(*ßI

x-

ß )

SAQ-innerhalb. Voraussetzung für die vollständige Aufteilung ist, daß sämtliche S u m m e n

der

Kreuzpunkte zwischen den nicht erklärten Abweichungen und den erklärten Abweichungen ebenso null werden wie die Summe der Kreuzprodukte zwischen den AbweiDer Sachverhalt der Wechselwirkung wird auf den nächsten Seiten ausführlich erklärt.

Die

Varianz-/Kovarianzanafyse

139

chungen der Faktormittelwerte von Gesamtmittel und den Abweichungen der Zellenmittelwerte von den Faktormittelwerten. Diese Bedingungen sind bei Gleichheit der Fälle je Zelle erfüllt, da es sich bei den Abweichungen um Abweichungen vom jeweiligen Mittelwert handelt und innerhalb der Mehrfachsummation ein Summand bezüglich einer Summation immer konstant ist und ausgeklammert werden kann. In der dann zuerst auszuführenden Einzelsumme sind die Abweichungen der Zellenmittelwerte von ihrem Gruppenmittelwert zu berechnen. Aufgrund gleicher Zellenbesetzung summieren sie sich zu null auf. Somit gilt im Falle gleicher Zellenbesetzung auch (5-12)

SAQ-zwischen

4. SAQAB

=

SAQA

+ SAQB

+

SAQAB

drückt die Wechselwirkung der beiden Faktoren aus. Diese ist keine Fra-

ge der möglichen Abhängigkeiten zwischen beiden Faktoren, sondern dahingehend, ob beide Faktoren additiv wirken oder multiplikativ. Mit

SAQAB

werden die über die

additive Wirkung hinausgehenden Effekte erfaßt (vgl. etwa die potenzierten Auswirkungen eines gemeinsamen Genusses von Alkohol und Tabletten). 1 Zur genaueren Bestimmung der Natur dieser Wechselwirkung betrachten wir bei gleicher Zellenbesetzung ein fiktives Beispiel für die Beziehungen zwischen einer metrischen Variablen Einkommen, etwa dem Stundenlohn, und den Faktoren Ausbildung und Geschlecht. Der Einfachheit halber rechnen wir c = 1, so daß die Tabellenwerte sowohl als Einzelbeobachtungen wie als Mittelwerte auf der Basis gleich stark besetzter Zellen interpretiert werden können. 2 Tabelle 5.3:

Durchschnittliche Stundenlöhne nach Geschlecht und Ausbildung (relative gleiche Unterschiede)

Schulabschluß

männlich

weiblich

HS

Durchschnitt

12,5

7,5

10

MR

20

12

16

Abi

23,75

14,25

19

Durchschnitt

18,75

11,25

15

Zu beachten ist, daß bei mehr als zwei Faktoren nicht nur die paarweisen Interaktionen zu berücksichtigen sind, sondern auch die multiplen in allen möglichen Kombinationen. Lägen tatsächlich nur Einzelbeobachtungen vor, ließen sich die SAQ der Wechselwirkung und der Fehler nicht mehr trennen.

140

Die

Varian:-/Kovarianzanalyse

Tabelle 5.3 spiegelt gleiche geschlechtsspezifische Lohnrelationen wider, d.h. Frauen erhalten auf allen Bildungsstufen 60 % der Stundenlöhne der Männer. Auch wenn wir hier keine Wechselwirkung erwarten, ist sie dennoch gegeben. Berechnen wir für Tab. 5.3 analog zu den in (5-11) gegebenen Definitionen die Gleichung (5-12), so erhalten wir eine wenn auch geringe Wechselwirkung von 5,25: SAQAR

= SAQ

SAQ a

- zwischen -

^ n j i x j - x )

SAQA

-

SAQB

2

= 2 [ ( 1 0 - 1 5 ) 2 + ( 1 6 - 1 5 ) 2 + ( 1 9 - 1 5 ) 2 ] = 84, SAQB

= 2 > / ( * . / " * )

2

= 3[(18,75 - 1 5 ) 2 + (11,25 - 1 5 ) 2 ] = 84,375 SAQ- zwischen =

~~

= (12,5-15)2 + (7,5-15)2 + ( 2 0 - 1 5 ) 2 + (12 - 1 5 ) 2 + (23,75 - 1 5 ) 2 + (14,25 - 1 5 ) 2 = 173,625 SAQAB

= 1 7 3 , 6 2 5 - 8 4 - 8 4 , 3 7 5 = 5,25

Eine Wechselwirkung zwischen den Faktoren ist nur dann ausgeschlossen, wenn, wie in der folgenden Tabelle 5.4 die Unterschiede in den Zellenmittelwerten zwischen den Gruppen absolut gleich sind:

Tabelle 5.4:

Durchschnittliche Stundenlöhne nach Geschlecht und Ausbildung (absolut gleiche Unterschiede)

Schulabschluß

männlich

weiblich

Durchschnitt

HS

13

7

10

MR

19

13

16

Abi

22

16

19

Durchschnitt

18

12

15

Die

Varianz-/Kovarianzanalyse

141

Hier verdienen die Frauen auf allen Stufen 6 DM weniger als die Männer und die Lohnunterschiede zwischen den Stufen sind für Männer und Frauen absolut gleich. Zur besseren Vergleichbarkeit sind die Randverteilungen in etwa konstant gehalten worden. Für diese Tabelle läßt sich SAQ-zwischen vollständig auf die Haupteffekte SAQA SAQg

und

aufteilen (138 = 84 + 54).

5. Die Stärke des Zusammenhangs in der mehrfaktoriellen Varianzanalyse wird durch einen multiplen rj2 -Koeffizienten bestimmt: 2

SAQ-gesamt

SAQ -

SAQ-innerhalb gesamt

Signifikanztests für die Zusammenhänge in der Grundgesamtheit liegen sowohl für die Gesamtwirkung wie die Einzelwirkungen der Faktoren und ihre Wechselwirkung vor: a) Test der Gesamtwirkung von A, B, AB

(5-14)

F0(Ges.) mit

2 X2 + ¿>3

+ ••• bq xq

Die einzelnen Varianten des Allgemeinen Linearen Modells ergeben sich vor allem aus den Ausdifferenzierungen dieser Funktionsgleichung. Bezüglich der Anzahl der unabhängigen Variablen unterscheiden wir den Fall einer vom Fall mehrerer Unabhängigen.

Das Allgemeine Lineare Modell

223

Das zweite Kriterium betrifft die Skalenqualität der einbezogenen Variablen, wobei metrische bzw. intervallskalierte Variablen den nominal- bzw. ordinalskalierten gegenübergestellt werden. Letztere werden jeweils als Dummy-Variablen in das lineare Modell integriert. Als drittes Unterscheidungskriterium soll die den Parameterschätzungen zugrundegelegte Schätzfunktion dienen. Weisen die Variablen untereinander lineare oder einfach zu dichotomisierende Beziehungen auf, lassen sich die Parameter am einfachsten über die Methode der kleinsten Quadrate schätzen. In den Fällen multiplikativer Verknüpfung erfolgt die Linearisierung meist über den natürlichen Logarithmus, so daß zwischen den abhängigen Ausgangsvariablen und dem linearen Regressanden eine nicht-lineare Link-Funktion (vgl. Abschnitt 6.2) eingeschoben wird. Diese Vorgehensweise impliziert als Schätzfunktion für die Modellparameter die Maximum-LikelihoodMethode mit

Konsequenzen

hinsichtlich der Quantifizierung der Modellgüte und

-Signifikanz. Bei der Ausdifferenzierung der unterschiedlichen Modellvarianten schlagen wir den Bogen von der einfachen linearen Regression und Korrelation über die ein- und mehrfaktorielle Varianzanalyse bis hin zum sogenannten saturierten kovarianzanalytischen Modell, bei dem die unabhängigen Variablen sowohl aus metrischen, nicht-metrischen (dichotomisierten) Variablen und aus allen denkbaren Wechselwirkungen innerhalb und zwischen den Variablen unterschiedlichen Typs bestehen. Als Grenzfälle der einfachen Analyse beziehen wir auch die Modellvarianten ein, die sich ergeben, wenn auch die abhängige Variable X] eine dichotome, 0,1-skalierte Variable L\

ist.

Mit dem Begriff der verallgemeinerten linearen Modelle wird der Ausweitung des ALM auf die durch logistische oder probabilistische Links linearisierten Verfahren der Probitund Logit-Analyse, der logistischen Regression und der loglinearen Modelle und deren Verknüpfung mit der multiplen Regression sowie der mehrfaktoriellen Varianzanalyse oder mit beiden Komponenten. 3. Zur Quantifizierung der Erklärungskraft eines Modellzusammenhangs und zur Bestimmung der Signifikanz der Modellkomponenten stehen zwei unterschiedliche, wenn auch aufeinander beziehbare Verfahrensweisen zur Verfügung. Für metrische abhängige Variablen in originär linearen Beziehungen werden die Regressionsparameter nach der Methode der kleinsten (Fehler-)Quadrate geschätzt. Die Zusammenhangsmaße und die Signifikanztests basieren auf der vollständigen Aufteilung der Gesamtvarianz der abhängigen Variablen bzw. deren SAQ-Gesamt in einen erklärten und einen nicht erklärten (Fehler-)Teil: SAQ -

gesamt

-

SAQ-erklärt

+ SAQ-nicht

erklärt

224

Das Allgemeine Lineare Modell

- 3c, ) 2

(7-2)

=

+ £ < x, - xf ) 2

- xx 9

Als maßgebliches Kriterium zur Beurteilung der Stärke eines linearen Zusammenhangs im A L M ist der Korrelations- bzw. Determinationskoeffizient r

bzw.

r

nach Bra-

vais-Pearson herausgearbeitet worden. Diese basieren auf dem Verhältnis von erklärter Varianz zur Gesamt-Varianz der abhängigen Variablen. Konkret legen wir die jeweilige S u m m e der Abstandsquadrate (SAQ) nach (7-2) zugrunde:

(7

3)

r2

=

SAQ-erklärt

£(*f-*l)2

=

^(jcj-^)2

SAQ-gesamt

2 Nach dem gleichen Prinzip ist der 77 -Koeffizient der klassischen Varianzanalyse konstruiert. Für Regressionsmodelle, deren Parameter über die Maximum-LikelihoodMethode geschätzt wurden, steht i.a. keine Varianzzerlegung entsprechend (7-2) zur Verfügung. Gerade für linearisierte Modelle kann (7-2) oft nur für die linearen Formen und nicht für die Beobachtungen und die Funktionswerte der Ausgangsfunktionen formuliert

werden.

Für

die

Determinationskoeffizient

derartige Modelle Rh

läßt

sich

u.U.

der Beobachtungen auf der Basis der Funktionswerte

x\

Art

Pseudo-

(saturiertes Modell

gegenüber einer log-Likelihood auf der Basis des Mittelwertes x\ Ma)

eine

definieren, der die Verbesserung der log-Likelihood M\)

(reduziertes Modell

ausdrückt. Da das reduzierte Modell im saturierten Modell eingeschlossen ist

(M0 c i l / | ) ,

ist die Likelihood des saturierten Modells größer als die des reduzierten

(L0 < L], mit 0 < L0, L\ < 1).

(7-4)

RlL

J-)LL0-{-)LLx ( l

[vgl. (6-18)] o

Mit dem Likelihoodquotienten LQ n

(7-5)

LQ

SAQ - res SAQ-

ges

[vgl. (2-49) und (6-19)]

verfügen wir zudem über ein Maß, das sich ebenfalls auf Varianzverhältnisse zurückführen läßt.

Das Allgemeine Lineare Modell

225

4. Die induktiven Aspekte des Allgemeinen Linearen Modells liegen einmal in den Si-

gnifikanztests für das Gesamtmodell und seinen Komponenten und in der Bestimmung von Konfidenzbereichen f ü r seine Parameter. Analog zur Übertragung der Komponenten aus der Varianzzerlegung (7-2) auf die F-Tests zur einfachen bzw. multiplen Korrelation lassen sich auch die Likelihoods des saturierten und des reduzierten Modells zur Signifikanzprüfung Likelihood-geschätzter Modelle verwenden. F ist in den Signifikanzprüfungen ersten Typs definiert als Verhältnis der durch die zugehörigen Freiheitsgrade dividierten Summen der erklärten bzw. nicht erklärten Abstandsquadrate

(7-6)

/hSAQ-erklärt

r 02

__ } ^ ( x [ - x

1/ SAO SAQ- -nichterklärt nichterklärt 02

1/

x

-x{

)

2

)2

Die Verfahren zur Bestimmung der Modellgüte und zum Testen der Signifikanz über die Maximum-Likelihood-Methode greifen entweder auf das für die Kontingenzanalyse 2

entwickelte

% - K o n t i n g e n z m a ß bzw. den

2

% -Anpassungstest oder auf die den

Schätzverfahren kohärenten Likelihood-Quotiententests zurück. Sowohl der Likelihood-Quotient nach (7-5) wie der log-Likelihood-Quotient LLQ

(7-7)

LLQ

• 21n LQ = - 21n =S- = 2(ln La - In L, ) L \ = 21n

SAQ — res SAQ-ges

[vgl. (6-19), (6-20)]

•• «[lni^Aß - ges) - In (SAQ - res)]

stellen

- verteilte Größen dar, deren Freiheitsgrade sich aus der Differenz der An-

zahl der Modellparameter

q\ - q0

ergeben. Die Hypothese, daß das saturierte Modell

gegenüber dem reduzierten Modell keine Verbesserung darstellt, kann verworfen werden, wenn

LLQ >y

ist. Auf die Beziehung zwischen dem

% - u n d dem Likeli-

a

o

hood-basierten Ansatz und beider zu den Komponenten aus der Varianzzerlegung wurde in Abschnitt 2.4 ausführlich eingegangen.

226

Dan Allgemeine Lineare

7.3

Die Modellvarianten

7.3.1

Die Vier-Felder-Kontingenztabelle

Modell

Die einfachste Form der Darstellung eines Zusammenhangs zwischen zwei dichotomen Variablen A und B in der Vier-Felder-Tafel bildet den Ausgangspunkt einer Reihe von Zusammenhangsmaßen auf der Basis des x 2 - Koeffizienten, der aus den beobachteten Häufigkeiten der Kontingenztabelle ( f b ) und den bei Unabhängigkeit der Variablen zu erwartenden Häufigkeiten ( f e ) berechnet wird:

ZS

(7-8)

=

2

^(fb~fe) e,b= 1

mit

2,5 = 2

fe

Werden die dichotomen Variablen A und B in die 0,1 -Variablen

L\

und

D2

reko-

diert, so ergibt sich die 4-Felder-Kontingenzanalyse als einfachste Form des ALM in folgender linearen Beziehung: (7-9)

Df

= q+c2D

= /(D2)

2

Der aus der Formel zur einfachen Korrelationsanalyse [vgl. (1-24)] unter Verwendung der Variablen

D]

und

D2

errechnete Determinationskoeffizient

proportional zum nach obiger Formel errechneten £

- Wert

r2

verhält sich

1

_*2

r

(7-10)

2

Daraus folgt die Gleichheit zwischen dem Korrelations- und dem ® - Koeffizienten:

(7-11)

Irl

= 0 =

lX

Die Signifikanz des Zusammenhangs kann unter gewissen Annahmen durch einen 2

X - Unabhängigkeitstest bei

0 = (z-l)-(s-l)

Freiheitsgraden getestet werden. Die

Diese Entsprechungen lassen sich durch die Werte „ 0 " bzw. „1" in der Formel (1-25) durch Ersetzen der metrischen Variablen über das Zwischenergebnis

1 —X

n

2 (n\]-n22~n\2n2])

2 -

(nu+nn)(n2\

+«22 )( n l 1 +n21 Xnl 2+"22)

ableiten.

Das Allgemeine Lineare Modell

227

2 Ergebnisse des % - Tests bei

f = / ( x 2 ... x^) über eine Linkfunktion mit der Variablen

verknüpft wird. Die Linkfunktion erhält, je nach Modell, eine unterschiedli-

che Form. Für das bisherige ALM wird die identische Linkfunktion

>f = xf

ange-

nommen. Für die Probitanalyse hatten wir die Linkfunktion: yf

= F'* ( x )

[vgl. (6-5)]

für die Logitanalyse und die logistische Regression die Linkfunktion:

yf

= logit («) = In

1 — 7t

[vgl. (6-8)].

Die entsprechenden Response-Funktionen waren für die Probitanalyse k

=F(a+b2X2+...bkxk)

[vgl. (6-23)]

Das Allgemeine

Lineare

Modell

233

und für die Logitanalyse bzw. die logistische Regression a+b x

e

22

-bkxk

+

JZ 1+

[vgl. (6-25)]

a+b x

e

2 2+-bkxk

2. In der Literatur 1 finden sich darüber hinaus das komplementäre log-log-Modell mit der Linkfunktion c

(7-26)

= In [ - l n ( l - T T ) ]

und der Verteilungsfunktion der Extremwertverteilung 2 als Responsefunktion (7-27)

= 1 - exp(-exp(a + ¿>2*2 + ••• ^kxk ))

K

3. Ist die zu erklärende Variable

f ß , etwa wie in Abschnitt 6.3 die Zellenhäufigkeit

einer zweidimensionalen Kontingenztabelle, Poisson-verteilt mit ihrem Erwartungswert rrijk als Parameter, so kann m ^ über eine natürliche Linkfunktion mit einem linearen Prädiktor yc

verknüpft werden. c

(7-28) Stellen die

xj

= I n ( m j k ) = a + b2x2

+ ...

bkxk

die zu Dummy-Variablen rekodierten Faktoren und ihre Wechselwir-

kungen dar, so ist (7-28) die generalisierte lineare Schreibweise der loglinearen Modelle aus Abschnitt 6.4, vgl. (6-51) 3 . Das generalisierte lineare Modell unterscheidet sich von ALM außer durch eine „generalisierte" Linkfunktion - wofür jede monotone differenzierbare Funktion zugelassen ist - auch durch eine „generalisierte" Fehlerverteilung. Im Prinzip sind dazu alle Familien von Exponentialverteilungen zugelassen. Zu den wichtigsten zählen neben der Normalverteilung die Binomial-, die Poisson- und die Gammaverteilung. Für diese Verteilungen sind als natürliche oder als sog. kanonische Linkfunktionen diejenigen definiert, die den Verteilungsparameter als linearen Prädiktor verwenden, als Beispiel vgl. (7-28). Für die Bestimmung der Güte des multiplen Gesamtmodells und seiner Signifikanz gelten (unter Berücksichtigung entsprechend modifizierter Freiheitsgrade) die in Abschnitt. 6.2.4 und 6.3.5f. für die logistischen Ansätze beschriebenen Verfahren. 1 2 3

Vgl. z.B. Fahrmeir u.a.(1996) S. 248. Vgl. z.B. Rinne (1995) S. 306 ff. Zu den Einzelheiten vgl. Fahrmeir u.a. (1996) S. 253 ff. und 577 ff.

234

Das Allgemeine

Lineare

Modell

7.4

Multivariate Erweiterungen des ALM

7.4.1

Empirische und methodische Aspekte des Multivariaten Linearen Modells

1. Das Allgemeine Lineare Modell ist allgemein in dem Sinne, daß es alle möglichen Variablentypen und deren Kombination in einem einzigen Modell zusammenführt. Es ist in dem Sinne nicht allgemein, als dies nur für die rechte Seite der Gliederung, also für die unabhängigen Variablen, gilt. Nun kommt es in der Empirie so gut wie nie vor, daß ein betrachteter Ursachenkomplex nur eine einzige abhängige Größe tangiert. Das ALM, selbst in der zuletzt betrachteten generalisierten Form, kann diesem Sachverhalt nur dadurch Rechnung tragen, daß es die Gesamtwirkung eines Ursachenkomplexes bezüglich vieler abhängiger Variablen in separaten Analysen modelliert. Vom methodischen Aufwand vieler paralleler Rechnungen einmal abgesehen, erhebt sich die Frage, ob die Erfassung der Gesamtwirkung additiv möglich ist, oder ob nicht doch eine simultane Analyse der Strukturen im Satz abhängiger Variablen angemessener wäre. 2. In die multivariate Erweiterung des allgemeinen linearen Modells fließen auch Überlegungen ein, die aus der theoretischen und empirischen Konzeption des Untersuchungsmodells herrühren. Sowohl bei den unabhängigen wie bei den abhängigen Variablen gibt es welche, die singulär einen bestimmten Sachverhalt beschreiben, dazu sind vorallem die persönlichen Daten, wie Alter, Geschlecht, Bildungsniveau, Einkommen usw. zu nennen. Andere Variablen haben den Status von Indikatoren für einen abstrakten Sachverhalt, der i.A. als theoretisches Konstrukt konzipiert ist. Zu dessen Operationsalisierung werden dann in der Regel eine ganze Reihe von Variablen benötigt, um die verschiedenen Dimensionen dieses Sachverhalts empirisch zu erfassen. Da in der wirtschafts- und sozialwissenschaftlichen Theorie i.A. mit derart abstrakten und komplexen Begriffen gearbeitet wird, ist eine multivariate Erweiterung der abhängigen Komponente des Regressionsmodells naheliegend. Natürlich ist diese Überlegung vom Verhältnis der komplexen theoretischen Begriffe zu den Beobachtungsvariablen auch für die rechte der Seite der Regressionsgleichung relevant. Gerade der multiple Fall ist oft davon geprägt, daß eine Reihe von erklärenden Variablen sehr eng miteinander korreliert sind, weil sie den Status von Indikatorvariablen aufweisen. Es ist deshalb durchaus von Interesse, den gesamten Satz unabhängiger Variablen JCJ ... xr

unter dem Indi-

katorenaspekt zu strukturieren bzw. theoretisch vorgegebene Zuordnungen einzelner Indikatoren zu einem abstrakten Begriff statistisch zu überprüfen.

Die empirische Bedeutung von Variablensätzen resultiert aus der Schwierigkeit, die Begriffe der Theorie unmittelbar einer Messung zugänglich zu machen. Oft benötigt

Das Allgemeine Lineare Modell

235

man sogar mehrere Messungen auf unterschiedlichen Skalen, um einen theoretischen Begriff einigermaßen erschöpfend empirisch darzustellen. Die Beziehung zwischen den „latenten" theoretischen Variablen und den „manifesten" Meßvariablen wird in den Methodenlehren der empirischen Wirtschafts- bzw. Sozialforschung in ihren unterschiedlichen Nuancen auf der Operationalisierungsebene als Verhältnis einzelner Indikatoren zu einem Indikandum und auf der Ebene der Daten-Aufbereitung als Indexbildung thematisiert. Als oft angeführtes Beispiel sei hier auf das theoretische Konstrukt „sozialer Status" und die ihm empirisch zugewiesenen Statusvariablen Einkommen, Beruf, Bildungsabschluß, Lage und Größe der Wohnung, Hubraum des PKW u.a. verwiesen. Die statistische Behandlung der Beziehungen zwischen den latenten und den manifesten Variablen ist in der Praxis komplizierter als es auf den ersten Blick erscheint. Eigentlich sollten bereits bei der Operationalisierung des theoretischen Konstrukts die Korrespondenzregeln zwischen den beiden Variablentypen geklärt werden, insbesondere die Fragen, ob die Indikatoren als absolute oder als relative Größen auf das Indikandum bezogen werden, d.h. ob sie bei der Auswertung additiv oder multiplikativ miteinander verknüpft werden. Ist die theoretische Verknüpfung additiv, stellt die Linearkombination (vgl. 7.4.2) das adäquate Modell der statistischen Aufbereitung eines erhobenen Datenkomplexes dar. Die Gewichte der Variablen in der Linearkombination hängt einmal davon ab, ob die Meßvariablen für die latente Variable von gleicher theoretischer Bedeutung sind, zum anderen davon, ob sie auf den gleichen Skalen gemessen werden. Ist die Annahme der gleichen Bedeutung gerechtfertigt, müßten bei ungleichen Skalen die standardisierten Meßwerte der Indexbildung zugrunde gelegt werden. Die theoretischen Variablen sind i. A. eindimensional konzipiert, wohingegen die Indikatoren oft unterschiedlichen Dimensionen zugehören. So ist z.B. der Hubraum eines Pkw möglicherweise nicht nur aus Statusgründen etwas größer, sondern auch durch eine berufsbedingte überdurchschnittliche Jahresfahrleistung. Dies führt formal gesehen bei den Untersuchungsobjekten meist zu differierenden Skalenwerten bei den Indikatoren und unter inhaltlichen Aspekten zur Auflösung einfacher Beziehungen zwischen dem Indikator und dem Indikandum. Läge eine einfache Beziehung vor, würde ein Indikator ausreichen. So wie das theoretische Konstrukt empirisch vielfältige Facetten aufweist, zeigt sich der empirische Indikator nicht mehr nur noch von einer theoretischen Variablen geprägt. Die genannten Statusvariablen müssen also nicht nur auf der sozioökonomischen Ebene kontingent sein, sie könnten es etwa über das Geltungsbedürfnis des Haupternährers auch auf der psychologischen Ebene sein. Beide theoretischen Dimensionen könnten durch unterschiedliche Linearkombinationen der gleichen Ausgangsvariablen repräsentiert werden, in denen die einzelnen Meßvariablen mit diver-

236

Das Allgemeine

Lineare

Modell

genten Gewichten vertreten wären. Gerade dieser Aspekt wird bei den nachfolgend vorgestellten Methoden der kanonischen Korrelation und der Faktorenanalyse Bedeutung erhalten. 3. Die multivariate Erweiterung des ALM (MLM) besteht also darin, Variablensätze zum Gegenstand der Betrachtung zu machen. Diese quantitative Ausweitung konstituiert je nach Variablentyp unterschiedliche multivariate allgemeine Modelle, von denen die wichtigsten hier kurz angesprochen und in den folgenden Kapiteln ausführlich vorgestellt werden sollen: •

In der kanonischen Korrelationsanalyse stehen sich zwei metrische Variablensätze gegenüber: x\...xp=f (xp+\...xp+g). Sie ist damit der einfachste Fall der Analyse der Beziehung zwischen zwei durch Indikatorensätze operationalisierten theoretischen Konstrukten.



In der Faktorenanalyse wird ein Satz beobachteter metrischer Variablen x\... x^ aus einem Satz „künstlicher" Variablen F4 ... FQ erklärt: x\ ...x^ = f(FA ...FQ), wobei die künstlichen Variablen, die Faktoren, als Linearkombinationen aus dem Ausgangssatz abgeleitet werden und für die im Datensatz enthaltenen, theoretischen Dimensionen stehen.



In der multiplen Varianzanalyse (MANOVA) betrachten wir die Abhängigkeiten eines Satzes metrischer Variablen von einem Satz nichtmetrischer Variablen, die im ALM in Dummy-Variablen zu transformieren sind: x]...xk=f(Di...D



q

x\... x^ = f(A...

K)

bzw.

).

In der Diskriminanzanalyse schließlich stellen wir uns dem Problem, daß wir bisher noch kein Verfahren zur Hand haben, das es erlaubt, eine nominal- oder ordinalskalierte Variable mit mehr als zwei Ausprägungen als abhängige Variable zu analysieren:

At=f{xv..xk),

l =

\...g.

Wenn wir, wie bereits an anderer Stelle, die Variable A dichotomisieren, generieren wir auch hier ein lineares Modell aus zwei Variablensätzen: D\...Dq = f(x\,... x^) .Der Analogie zwischen kanonischer und Diskriminanzanalyse entspricht in etwa die zwischen der multiplen Regressions- und Korrelationsanalyse und der Varianzanalyse. Die Relevanz einer einzelnen Variablen im Gesamtmodell steht und fällt dann nicht mehr mit ihrem partiellen Beitrag zur Erklärung der Zielvariablen, sondern mit ihrem Gewicht innerhalb der jeweiligen Indikatorvariablen. Für die modelladäquate Behandlung des Verhältnisses von theoretischem Konstrukt und indizierenden Variablen ist der Begriff der Linearkombination von zentraler Bedeutung. Ihm sollen deshalb die folgenden Abschnitte gewidmet werden.

237

Das Allgemeine Lineare Modell

7.4.2

Exkurs: Algebraische und matrixalgebraische Aspekte des Multivariaten Linearen Modells - Linearkombinationen von Variablen und ihre Schreibweise

1. Die Analyse der Zusammenhänge zwischen Variablensätzen läßt sich formal und inhaltlich vereinfachen, wenn die Informationen der jeweiligen Variablensätze selbst konzentriert werden. Dazu bilden wir ein formales System aus einem Satz von Variablen. Wir nennen dieses formale System Linearkombination (LK) Ui und definieren es als Summe der gewichteten Ausgangsvariablen x\ ...x^ : (7-31)

Ui

=(al+blxu) = a0+bl

+ -(ak+bk

+ (a2+b2x2i) xu +¿2

x

ki)

x

i + - h

ki

k

= a0

+

^bjXjl

mit

7=1 k a

o

Die bj

=

werden als Gewichte der Variablen, die bj • xj

bezeichnet. Für

j = 2...k

als Komponenten der LK

läßt sich auch die multiple

Regressionsgleichung

k

x\ = a 0 + ^ b j Xj als LK auffassen, wobei die Gewichte b j nicht beliebig sind, 7=2 sondern über die Methode der kleinsten Quadrate ermittelt werden. 2. Hier interessieren wir uns vor allem für die statistischen Eigenschaften einer Linearkombination. So ergibt sich der Mittelwert einer Linearkombination kombination der Mittelwerte der Ausgangsvariablen

(7-32)

U

= - I Ui «/=1 1 " =- °L(a0+bxxli+b1x2i+..bk

«! = 1

= a0 + b{x 1 +¿>2*2 k

= a 0 + I bjXj 7=1 Für die Varianz einer Linearkombination erhalten wir:

xki ) +~hJk

U

als Linear-

238

(7-33)

Das Allgemeine Lineare Modell

VAR(U)

sh^-iiUi-ü) M

2

1=1

,2

n k :%b2jS]+2 H

k bjbj*

COV(Xj,Xj*)

JJ*=1

Die Varianz ergibt sich somit als Summe der mit den quadrierten Gewichten multiplizierten Varianzen und des Zweifachen der mit den Kreuzprodukten der Gewichte multiplizierten Kovarianzen der Ausgangsvariablen. 3. Betrachten wir den geteilten Variablensatz

x\ ...xp und xp+\...

xp+(j,

so ergeben

sich U und V als LK der Teilsätze. U

=au+b\X\

+ ...bpxp

V

=av +bp+]

xp+]

und

+ ...bp+q

xp+q

Die Kovarianz der Linearkombinationen ist dann: (7-34)

COV(U,V)

»/=i

[bp+1

( x

p +

1 -

X p

+

\ ) + ...bp+q

= blbp+l COV{x\,xp+\) + bpbp+q

( X

p +

q - X p

+

q ) ]

+...

COV(xp,xp+q)

Damit ergibt sich die Kovarianz der Linearkombinationen U und V als Summe der mit den jeweiligen Gewichten gewogenen Kovarianzen zwischen den einzelnen Variablen der Sätze.

Das Allgemeine Lineare Modell

239

Die K o r r e l a t i o n z w e i e r L i n e a r k o m b i n a t i o n e n U und V ist zuerst einmal eine e i n f a c h e lineare Korrelation zwischen d e n Variablen

{/,

und

Vj. Ihre Stärke ergibt sich über

den e i n f a c h e n Korrelationskoeffizienten n ™ (7-35)

ruv

=

COV(U,V) ¿u •V

Für den Fall der K o r r e l a t i o n einer e i n z e l n e n V a r i a b l e n m i t e i n e r L i n e a r k o m b i n a t i on (Fall der multiplen Korrelation) k ö n n e n wir den Korrelationskoeffizienten als einfaKorrelatic chen K o r r e l a t i o n s k o e f f i z i e n t e n zwischen einer Variablen x p + \ j und einer Variablen Uj

schreiben:

,7 (7-36)

ry

=

H

COV(Uj,xp+\) " ¿l/Jp+l

4. Als Spezialfall einer L i n e a r k o m b i n a t i o n betrachten wir L i n e a r k o m b i n a t i o n e n v o n s t a n d a r d i s i e r t e n V a r i a b l e n u n d dabei zuerst den Fall von mit „ 1 " gewichteten standardisierten V a r i a b l e n . U

_ n mit z j = 0 u n d S z . = 1

=Z\ + Z 2 + ••• z*

Für diesen Fall ergibt sich aus (7-32) und (7-33) (7-37)

U

=0

und

(7-38)

VAR(U)

k = k +2 £

rjj*

( j * j*)

j.J* D a m i t resultiert V A R ( U ) (vgl. Tabelle 7 . 2 ) als S u m m e der E l e m e n t e der Korrelationsmatrix des D a t e n s a t z e s

zv..zk

bzw.jc,...x t .

5. Als A u s g a n g s p u n k t f ü r die f o l g e n d e M a t r i x - B e t r a c h t u n g ' , dient die Matrix der einf a c h e n K o r r e l a t i o n s k o e f f i z i e n t e n über den Datensätzen

bzw. z\~.Zk'.

Die matrixanalytischen Sachverhalte werden dem mathematisch nicht so weit vorgebildeten Leser im folgenden anhand einfacher Operationen und Beispiele verdeutlicht. Darüber hinaus ist auf die mathematischen Einführungen, so z.B. auf die Lehrbücher zur „Mathematik für Wirtschaftswissenschaftler" hinzuweisen. Besonders empfehlenswert ist auch die Darstellung der „Grundbegriffe der Matrixalgebra von P. Kemeny, in: Fahrmeir u.a. (1996), S. 796-829.

240

Das Allgemeine Lineare Modell

Tabelle 7.2

Korrelationsmatrix

Zl

R =

22

z*

Zl

z

2

....

Zk

1

12

....

r

r

1

2\

r

\k

\k

r

2k

12

....

1

Die quadratische (k x k)-Korrelationsmatrix R mit den Elementen ßr j=j* ßrj*j*(j,j*

= l-k)

ergibt sich aus der standardisierten (n x k)-Datenmatrix Z mit den Elementen

Tabelle 7.3

zy

Datenmatrix aus standardisierten Variablen i

Zl

Z2

z*

1

zu

Z12

zu

2

Z21

Z22

z2;

n

Znl

Z«2

Znfc

Die einzelnen Korrelationskoeffizienten r^, resultieren als Produkt 2 des transponierten Zeilenvektors 3 z j mit dem Spaltenvektor Zj»:

(7-39)

rjj*

=z]-Zj*

= (Zj\

...Zjn) \

V

n — X zji • z j*i . ¡=1

Die Korrelationsmatrix R ergibt sich entsprechend aus der standardisierten Datenmatrix Z durch Vor-Multiplikation mit ihrer Transponierten Z 1

T

1 2

Im folgenden werden wir wieder auf den Index i verzichten. Wenn er der Eindeutigkeil wegen doch verwendet wird, ändert sich die Reihenfolge der Indizes in Zji •

2

3

Das Produkt eines Zeilenvektors mit einem Spaltenvektor ist definiert als S u m m e der Produkte der jeweils korrespondierenden Elemente. Der Zeilenvektor ZjT ergibt sich durch Transponieren (Schreiben einer Spalte als Zeile u.u.) des ursprünglichen (Spalten-) Vektors Zj.

Das Allgemeine

(7-40)

R

= - Z n

T

Lineare

Modell

241

[vgl. FN 1 , 2 ]

Z

Schreiben wir die Gewichte Wj in der LK {/,• aus standardisierten Variablen mit

u

=w\Zli

i

+w2z2i

- w

k

z

k i

als (k x 1 )-Spaltenvektor w, so ergibt sich £/,• als (n x 1) Spaltenvektor « als Produkt der Datenmatrix Z mit dem Spaltenvektor w: (7-41)

u

=Z w

(7-42)

Sjj

= - u n

T

mit 3

u =

-wT n

ZT

Z w=

wTRw

[nach (7-40)]

5. Wir betrachten nun den, für die später diskutierten Verfahren der kanonischen Korrelation und der Faktoranalyse wichtigen Fall einer Linearkombination U aus standardisierten Variablen zj... zp, deren Gewichte w\ ... wp so gewählt werden, daß U selbst eine standardisierte Variable mit U = 0 und VAR(U) = 1 ergibt. Für diese standardisierte Linearkombinationen interessieren uns vor allem die Relationen zwischen den einzelnen Variablen z\ ...Zp des Satzes und der LK U über diesem Satz sowie das Verhältnis zwischen den Variablen

Zj* ( j * = p + \,...p

+ q)

aus einem anderen Satz

von standardisierten Variablen und dieser LK. Diese Relationen lassen sich als einfache Korrelationen zwischen den Variablen z j bzw. zj* und der Linearkombination U darstellen:

(7-43)

rju

=

c

c

¿U • J j

=

n = W! rjx

n

[nach (1-26)] i=1

(W1Z1 +w2z2+...w

zp

}zJ

+ w2 r j 2 +... Wj • 1 + ... wp

• rjp

Analog ergibt sich:

1

Die transponierte Matrix entsteht aus der Augangsmatrix durch Vertauschen der Zeilen und Spalten

2

Der Multiplikation zweier Matrizen A • B = C Die Feldwerte Cjj*

3

Dabei gilt: ( Z • w)T

muß die Spaltenzahl von A der Zeilenzahl von B entsprechen.

von C ergeben sich aus dem Produkt der j-ten Zeile von A mit der j*-ten Spalte von B. = wT • ZT

.

242

Das Allgemeine Lineare Modell

(7-44)

= W! rj*j + W2 rj*,2

rj,tU

+-wprj*,p,

d.h. der Korrelationskoeffizient für die Korrelation zwischen

zj

bzw. zj*

und der LK

U ergibt sich selbst wieder als Linearkombination der einfachen Korrelationskoeffizienten

zwischen

den

Ausgangsvariablen,

gewichtet

mit

den

Ausgangsgewichten

u»!... w p . Stellt man den Gedanken aus Abschnitt 7.4.1 in Rechnung, daß ein Indikator nicht nur von einer theoretischen Dimension geprägt ist, dann ist nicht nur das Gewicht dieses Indikators in der Linearkombination zu beachten, sondern auch die Stärke der Korrelationsbeziehung zwischen dem Indikator (=Zj) und dem Indikandum (=U), wie sie in (7-43) zum Ausdruck kommt. Dabei zeigt sich in der folgenden Beispielsrechnung für standardisierte Ausgangsvariablen (vgl. Punkt 6), daß diejenigen Indikatoren mit dem theoretischen Konstrukt hoch korrelieren, die selbst hochgewichtet sind und zudem mit anderen, ebenfalls hoch gewichteten Variablen eng korreliert sind. Betrachten wir alle Variablen Zj* (j*-p

+ \ ...p + q)

Zj (j = 1 ••• p) der Datenmatrix

der Datenmatrix

Zp

bzw. die Variablen

, so schreiben sich die Gleichungen

(7-43) und (7-44) in Matrixschreibweise (7-45)

ru

(7-46)

rj*u

Dabei stellen rju und rj*u

(p x 1)- bzw. (q x 1 )-Spaltenvektoren und

die (p x p)- bzw. (p x q)-Korrelationsmatrizen über den Variablen den Variablen

zj

und zj* dar. wp

Rp

Zj

und

Rp(/

und zwischen

ist der (p x 1) Spaltenvektor der Gewichte

wj.

Setzen wir nun die Analyse der Beziehungen zwischen zwei Linearkombinationen U und V auf der Basis standardisierter Ausgangsvariablen Zj und zj* fort und gewichten 9 9 wir so, daß S(j = Sy = 1, so erhalten wir entsprechend zu (7-35):

(7-47)

hjV

6. Bereits in der ersten Beispielsrechnung hatten wir, ohne dies explizit anzusprechen, beiden Variablen

„Partprof"

dete Linearkombinationen

und „Partpot"

zur einfachen

Regression-

und

mit Linearkombinationen waren ja mit den Gewichten

der Ausgangsvariablen

V01-V05

Korrelation

gearbeitet. „Eins"

und V11-VI5

Die gebil-

über den

Das Allgemeine

beiden Datensätzen

zur tatsächlichen

Entscheidungsbereichen.

und gewünschten

Lineare

Beteiligung

Modell

in

243

ausgewählten

Voraussetzung für dieses Vorgehen waren einmal

gleiche

Meßskalen und zum anderen unterstellte gleiche Relevanzen der einzelnen Bereiche für die theoretischen Konstrukte „Partizipationsprofil"

und „Partizipationspotential".

trachten

die Korrelationskoeffizienten

wir uns dazu nun, wie unterschiedlich

Gleichgewichtung

ausfallen und welche Indikatorvariablen

den empirisch

Betrotz

abgeleiteten,

theoretischen Konstrukten am intensivsten assoziiert sind. Ausdruck 7.1:

Korrelationsbeziehungen zwischen Ausgangs variablen und Linearkombinationen PARTPROF Partizipationsprofil

PARTPROF Partizipationsprofil V01 Reale Beteil: Personalentscheidungen V02 Reale Beteil: Anschaffung Arbeitsmittel V03 Reale Beteil: Arbeitsverteilung V04 Reale Beteil: Arbeitsausfuehrung V05 Reale Beteil: ArbeitsprozessAblauf

0,71426956

1

0,56766685

0,60222878

0,33752875

0,29434759

0,73105773

0,56766685

1

0,54779096

0,41437578

0,30075645

0,82424217

0,60222878

0,54779096

1

0,52300565

0,38103722

0,77184173

0,33752875

0,41437578

0,52300565

1

0,51929856

0,68945021

0,29434759

0,30075645

0,38103722

0,51929856

1

V12 V13 Beteilwunsch: Beteilwunsch: ArbeitsverteiAnschaffung lung Arbeitsmittel 0,85030753 0,76367634

V14 Beteilwunsch: Arbeitsausfuehrung 0,79619442

V15 Beteilwunsch: Arbeitsprozess-Ablauf 0,7819857

PARTPOT Partizipationspotential PARTPOT Partizipationspotential V11 Beteilwunsch: Personalentscheidungen V12 Beteilwunsch: Anschaffung Arbeitsmittel V13 Beteilwunsch: Arbeitsverteilung V14 Beteilwunsch: Arbeitsausfuehrung V15 Beteilwunsch: ArbeitsprozessAblauf

V02 V04 V01 V03 V05 Reale Beteil: Reale Beteil: Reale Beteil: Reale Beteil: Reale Beteil: Personalent- Anschaffung Arbeitsvertei- Arbeitsaus- Arbeitsproscheidungen Arbeitsmittel lung fuehrung zess-Ablauf 1 0,71426956 0,73105773 0,82424217 0,77184173 0,68945021

V11 Beteilwunsch: Personalentscheidungen 1 0,77215267

0,77215267

1

0,58147774

0,58800635

0,45740675

0,46440444

0,76367634

0,58147774

1

0,54418596

0,4955821

0,47637259

0,85030753

0,58800635

0,54418596

1

0,62744233

0,57253273

0,79619442

0,45740675

0,4955821

0,62744233

1

0,55824395

0,7819857

0,46440444

0,47637259

0,57253273

0,55824395

1

244

Das Allgemeine Lineare Modell

Als Ergebnis erhalten wir Korrelationskoeffizienten gangsvariablen,

zwischen den LK's und den Aus-

die durchweg höher sind als die zwischen den Ausgangsvariablen.

zweites zeigt sich, wie schon in Abb. 1.4 und 1.5, daß vor allem die mit der assoziierten

Entscheidungsbereiche

Arbeitsprozesses)

(Arbeitsverteilung,

Ablauf

von Bedeutung

sind. Dies sollte Rückwirkungen

des Ent-

auf unser Ver-

ständnis der Variablen „Partprof"

und „Partpot" haben, indem bei deren

on die Aspekte der Mitbestimmung

am Arbeitsplatz stärker bedacht werden.

7.4.3

Produktion

Arbeitsausführung,

für die tatsächliche bzw. gewünschte Integration in betriebliche

scheidungsprozesse

Als

Interpretati-

Fundamentale konstruktive Aspekte des Multivariaten Linearen Modells

1. Wie schon für das nicht-multivariat erweiterte ALM, lassen sich für das erweiterte Modell allgemeine Prinzipien zur Beurteilung der Stärke des Zusammenhangs zwischen den analysierten Variablensätzen und zur Prüfung der Signifikanz des Zusammenhangs entwickeln. Dies soll am Beispiel zweier metrischer Datensätze, einem Satz abhängiger Variablen

{x\...xk)

(x^+i ... x/(+r)

und

dem unabhängigen

Datensatz

aus den

Variablen

aufgezeigt werden. Dabei zielt das MLM letztlich nicht darauf, die

Struktur der einzelnen abhängigen Variablen zu analysieren, sondern die Struktur des gesamten Satzes (multivariates lineares Regressionsmodell). Statistisch gesehen manifestiert sich die Struktur einer einzelnen Variablen in ihrer Verteilung, charakterisiert durch die Verteilungsparameter, und die Struktur eines ganzen Variablensatzes in den Verhältnissen der einzelnen Variablen zueinander, die wir üblicherweise durch die einfachen Korrelationskoeffizienten bzw. deren Vorstufen, die Kovarianzen oder die Summe der Kreuzprodukte ausdrücken. Die Korrelationsmatrix

R

über den zu analysierenden Variablen ( JCJ ... JC^. ) bzw.

(z\ ••• z^)

bildet demnach

den Hauptansatzpunkt für die Beurteilung der Relevanz und Signifikanz des multiplen linearen Gesamtmodells. 2. Im ALM basierte sowohl das statistische Zusammenhangsmaß wie der Testansatz auf der Zerlegung der Varianz der zu analysierenden Variablen in einen erklärten und einen nicht erklärten Teil. Im MLM wird dieser Gedanke auf die Korrelationsmatrix bzw. auf ihre Komponenten, die Korrelationskoeffizienten übertragen. Gefragt wird danach, wie weit

die

Korrelation

( j t j* = 1... k) bestimmt (xk+\... xk+r).

rjj*

zwischen

zwei

abhängigen

ist durch die Variablen

Variablen

des unabhängigen

xj

und xj*

Datensatzes

Damit stellt sich die Frage, ob wir den Korrelationskoeffizienten rjj*

in einen autonomen Teil und einen bedingten Teil zerlegen können. Der bedingte Teil resultiert aus den Einflüssen der erklärenden Variablen und deren internen Korrelationen. Der autonome Teil wird getragen von der Korrelation der Partialvariablen

Das Allgemeine Lineare Modell

xj-(k+1

ur,d

••• k+r)

245

••• k+r) • Diese Überlegung soll am Beispiel zweier

xj*-(k+\

konträrer Sachverhalte verdeutlicht werden. Im einen Extrem könnte j e d e einzelne Variable xk+1

x j . . . xk

von den anderen Variablen

unabhängig sein. Die obigen Partialvariablen entsprächen dann den Aus-

••• xk+r

gangsvariablen. W i e auch immer die unabhängigen Variablen untereinander korreliert sein mögen, dies hätte keinen Einfluß auf die Korrelationsmatrix R. Deren einzelne Koeffizienten ergeben sich völlig autonom. Im anderen Extrem soll die gesamte Korrelation im ersten Datensatz durch den zweiten Datensatz bestimmt sein. Das wäre dann der Fall, wenn die obigen Partialvariablen nicht korreliert, d.h. ihre partiellen Korrelationskoeffizienten alle Null wären. Die Korrelationen im Datensatz resultierten dann erstens xk+1

aus

den

••• xk+r

Interdependenzen

ur)d

im

unabhängigen

Datzensatz

der

Variablen

aus den Korrelationen zwischen den Variablen der beiden Sätze. Es

liegt auf der Hand, daß sich für den ersten Fall keine statistische Basis für ein multiples lineares Modell ergibt. 3. Aus inferenzstatistischen Gründen sollen diese Überlegungen nicht anhand der Korrelationsmatrix, sondern anhand der Matrix der Summe der Abstandsquadrate und Kreuzprodukte ( S A Q K P - M a t r i x ) formuliert werden. Diese erhält auf der Hauptdiagonalen die Summe der Abstandsquadrate der einzelnen Variablen des Satzes (SAQ). Auf den anderen Positionen befinden sich die S K P , d.h. die Summe der Kreuzprodukte der Abstände eines Variablenpaares

(xj, xj*)

von ihren jeweiligen Mittelwerten. Die Ma-

trix T hat k x k Felder und ist um die Hauptdiagonale symmetrisch. Damit besteht T aus den folgenden Elementen:

n x

(7-48)

7>

, (.Xj-xjr

für j = j*(= Gesamt—SAQ)

. i=l 1 n

£ (xj-xj)(xj*-xj*)

für

j*(= Gesamt-SKP)

.¿=1

Tabelle 7.2

Matrix der Summe der Abstandsquadrate und Kreuzprodukte (SAQKP-Matrix) x\

x\

X(*1

x2

I ( * 2 -*2)(*1

xk

Xk

x2 x\

I

)(x2 --x2)



(x2

Z ( * 1 ~ x i X x k -Xk) I(x

Xk )(*2 - * 2 )



2

~x2)(xk

I (Xk - x k ) 2

-Xk)

246

Das Aligemeine Lineare Modell

Die SAQKP-Matrix ist somit die Vorstufe für die Varianz-VKovarianzmatrix, die sich aus der Division aller Felderwerte durch n ergibt, und für die Korrelationsmatrix, die aus der Division aller Kovarianzen durch die Standardabweichungen der beiden Variablen

xj

und

xj* bzw. in der Hauptdiagonalen durch die Varianzen selbst resultiert.

Zu den Elementen r.y der Korrelationsmatrix R bestehen also folgende Beziehungen:

-T...

(7-49)

rjj*

4. Im multivariat erweiterten Allgemeinen Linearen Modell wird die Matrix T aufgespalten in einen durch den Satz von unabhängigen Variablen xk+\ •••X/(+r bedingten Teil D und in einen autonomen, nicht abhängigen Teil S. Diese Aufspaltung wird als F u n d a m e n t a l t h e o r e m der multivariaten Varianzanalyse bezeichnet'. (7-50)

T

=D+S

Was bedeutet diese Aufspaltung für die einzelnen Elemente der Matrizen? In der Hauptdiagonalen von T stehen die SAQ-gesamt für die Variablen Xj(j = \...k). Diese können, wenn die abhängigen und unabhängigen Variablen metrisch skaliert sind, durch multiple Regression- und Korrelationsanalysen zwischen den Datensätzen auf der Basis (7-51)

xcj

=f(xk+v..xk+r),

(j=l..k)

in jeweils durch den anderen Variablensatz ( x k + \ . . . x k + r ) erklärte und nicht-erklärte Teile aufgespalten werden: (7-52)

2

= 1 (Xcj-Xj)2

+l(Xj-xCj)2

SAQ- gesamt

= SAQ-erklärt

+ SAQ-nicht-erklärt

l(xj-xj)

Die erklärten Teile der SAQ-gesamt bilden die Hauptdiagonale der Matrix D, die nicht-erklärten Teile die Hauptdiagonale der Matrix S. Nach dem gleichen Prinzip erfolgt die Aufteilung der Summe der Kreuzprodukte der Variablen xj und xj* mit ( j , j* = l... k):2

V g l . M a r i n e l l ( 1 9 8 6 ) , S. 3 2 f . D i e A b l e i t u n g e n t s p r i c h t d e r A b l e i t u n g von (1-21).

Das Allgemeine Lineare Modell

l ( X j - X j ) ( x

- X j * )

r

SKP - gesamt

= J1(xcj-xj)(x = SKP

c

j t

247

-xj*)+1(xj-xcj)(xj* -x

_ erklärt

+ SKP

_

nicht.

c

erklärt

Wieder werden die erklärten Teile der SKP zu Elementen der Matrix D und die nichterklärten Teile der SKP zu Elementen der Matrix S, jeweils außerhalb deren Hauptdiagonalen. Damit ergeben sich die einzelnen Elemente D .-.•* der Matrix D wie folgt:

Y ^ i x j - xj)2 (7-54)

für j = j *(= erklärte SAQ)

1=1

Djj*

n

- x j ) (xcj* - xj*)

für j * j *(= erklärte SKP)

i'=l

und entsprechend die Elemente s;;* der Matrix S:

£ ( X j - xcj)2

für j = j *(= nicht - erklärte

SAQ)

Sjj* =• /= 1

(7-55)

n X (x ; - xc; ){x :* - xct) 1 i=1

für j * j *(= nicht -

erklärteSKP)

Zieht man zum weiteren Verständnis dieser Matrixaufspaltung die korrespondierenden Korrelationsmatrizen heran, so enthält die zur S-Matrix kongruente Korrelationsmatrix außerhalb r

jj*-{k+U..Jc+r)

der

Hauptdiagonalen

die

partiellen

Korrelationskoeffizienten

während die zur D-Matrix kongruente Korrelationsmatrix

RD

auf

der Hauptdiagonalen die Determinationskoeffizienten zu (7-51) und außerhalb die Differenzen zwischen den partiellen und den einfachen Korrelationskoeffizienten rjj* ausweist. Die Matrix D wird als Hypothesenmatrix bezeichnet, weil mit ihr die Hypothese belegt werden soll, daß die Differenzen xCj - xj

nicht nur zufällig von Null ab-

weichen, sondern durch signifikante Beiträge der Variablen x . . . xk+r

bedingt sind.

Analog dazu wird die Matrix S als Fehlermatrix bezeichnet, weil in ihr der nicht aus den Variablen

xk+\ ... xk+r

erklärbare (autonome) Zusammenhang im Satz der parti-

ellen abhängigen Variablen r-ter Ordnung enthalten ist. Im Sinne des multiplen regressionsanalytischen Zusammenhangs von (7-51) können diese partiellen Variablen als Fehler bezeichnet werden.

r

)

248

Das Allgemeine Lineare Modell

5. Im obigen Beispiel, das wir später im Modell der kanonischen Korrelation genauer kennenlernen werden, war die Hypothese durch eine multiple Regressionsfunktion ausformuliert. Wenn, wie in der multivariaten Varianzanalyse, die unabhängigen Variablen nicht-metrischer Natur sind, erfolgt die Aufspaltung der SAQKP-Matrix T analog zur mehrfaktoriellen Varianzanalyse. Die xcj werden ersetzt durch die Zellenmittelwerte

Xß(l = 1... q), so daß die Matrix

D die Quadrate und Kreuzprodukte der Abweichungen der Zellenmittelwerte vom Gesamtmittel enthält, mit:

(7-56)

Djj* =•

q - 7 X ni(xji ~ x j ) /=1 q

X /=1

-Xj)(x:*i-Xj*)

für j = j*

(=SAQ-zwischen)

für

{=SKP-zwischen)

und entsprechend die Matrix S die Quadrate und Kreuzprodukte der Abweichungen der Zellenwerte vom jeweiligen Zellenmittel, mit: 1 "/ 2 I I.(Xßi-Xjl)

(7-57)

S j j*

-

für j = j* (= SAQ - innerhalb)

1=1 1=1 I

I (x

1=1 /=!

n i

-xji)(x

j n i

- x j * i ) f ü r ; * ; * {= SKP - innerhalb)

Dieses Modell läßt sich auch gut graphisch veranschaulichen. Dazu gehen wir von seiner einfachsten Variante, d.h. von einer nominalskalierten Variablen

A/ mit / = 1... 3

Ausprägungen aus. Dies ergibt drei Gruppen von Wertepaaren (in den waagerechten Ellipsen), für die sich die Zusammenhänge zwischen zwei beliebigen Variablen x j und x j* aus dem Satz von abhängigen Variablen wie folgt darstellen mögen:

249

Das Allgemeine Lineare Modell

Abbildung 7.2: Multivariate Yarianzanalyse (Regressionsbeziehungen zwischen zwei Variablen und einem Faktor) 1

X/1

X

Legende

j2

X;3

X;

gepoolte Varianz/Kovarianz gesamte Varianz/Kovarianz erklärte Varianz/Kovarianz

In den Matrix T repräsentieren die Tjj* xj*,

die Kreuzprodukte zweier Variablen

x j und

so wie sie in der einfachen Regressions- und Korrelationsanalyse ausgewiesen

werden. Der Sachverhalt, daß die Gesamtpunktewolke drei deutliche Zusammenballungen der Beobachtungen ausweist und daß diese noch dazu von der nominalskalierten Variablen

A;

verursacht werden, spielt dabei in der T-Matrix keine Rolle. Wohl aber

in der D-Matrix, w o auf der Hauptdiagonalen die mit den Gruppengrößen gewogenen S A Q ' s zwischen den Gruppenmittelwerten und dem Gesamtmittel und an den übrigen Stellen die Summen der ebenfalls mit den Gruppengrößen gewogenen Kreuzprodukte dieser Abstände zu finden sind. In der S-Matrix sind die Summen der mit den Gruppengrößen gewichteten gruppenspezifischen Varianzen und Kovarianzen dargestellt. Man

Der Unterschied zur entsprechenden Graphik einer mehrfaktoriellen Varianzanalyse besteht nur in der Ausdifferenzierung der Punktwolke in weitere Segmente.

250

Das Allgemeine Lineare Modell

spricht deshalb bei ihrem Inhalt auch von den gepoolten SAQ's bzw. SKP's der Ausgangsvariablen. Nach der Graphik gibt es zwischen den beiden Variablen

Xj und xj* keinen auto-

nomen Zusammenhang. Die Ergebnisse der einfachen linearen Regression und Korrelation sind ausschließlich auf das Wirken des Faktors A/ gegründet. Das hat zur Folge, daß sich die SKP-gesamt aus der T-Matrix vollständig in den SKP-zwischen

der

D-Matrix wiederfinden, während die SKP's innerhalb derS-Matrix einen Wert von Null haben. Die SAQ-Werte teilen sich wie in der einfachen Korrelationsrechnung auf die Dund S-Matrix im Verhältnis von erklärter und nicht-erklärter (=gepoolter) Varianz auf. 7.4.4

Korrelationsanalytische und inferenzstatistische Aspekte des Multivariaten Linearen Modells 1

1. Zur Beurteilung der Stärke und Signifikanz des Zusammenhangs zwischen den beiden Variablensätzen werden wir uns auf Maßzahlen stützen, die einerseits die bisherige Logik der Korrelationsmaße und ihrer Tests aufgreifen, andererseits aber in Betracht ziehen, daß die Verhältnis von Variablensätzen simultan beurteilt werden sollen. Dies erfordert es, die Matrizen selbst als statistische Größen zu analysieren. Die Darstellung des MLM in Matrixschreibweise (ab dem nächsten Abschnitt) parallel zur weiterverfolgten Schreibweise in Einzelgleichungen, dient deshalb nicht nur der Vereinfachung, sondern ist notwendige Voraussetzung für die Ableitung der zur Abschätzung der Modellgüte und zum Testen der Signifikanz benötigten statistischen Größen. Im wesentlichen handelt es sich dabei um die Determinanten und Eigenwerte der Matrizen und der Relationen von Matrizen, die wir gerade betrachtet haben. Unter statistischen Aspekten kann die Determinante als Maß der „generalisierten" Varianz einer Matrix 2 und ein Eigenwert als Teil dieser generalisierten Varianz interpretiert werden. 3 2. Ein Maß zur Betrachtung der Stärke des Zusammenhangs wird, analog zur Logik bisheriger Maße, insbesondere des Determinationskoeffizienten

R , auf der Relation

von erklärter und Gesamtvarianz aufbauen, also sich auf das Verhältnis der Hypothe1

2 3

Dieser Abschnitt behandelt sehr abstrakt übergreifende Kriterien zur Beurteilung der Güte und Signifikanz Multivariater linearer Modelle. U.U. empfiehlt es sich, die Lektüre bis zur Behandlung der Abschnitte 8.2 und 8.3 bzw. 9.2.2 und 9.2.3 oder 10.3.2 und 10.3.5 zurückzustellen. Norusis (1993) S. 82. Die Determinante det (A) oder | a |

und die Eigenwerte

die alle Elemente der Matrix einbezieht. Es gilt dabei

I I

Xj

|A| =

einer (p x /?)-Matrix A sind numerische Größen, P

FI

j=1 8.3 und 9.6.

A-j . Vgl. dazu vor allem auch die Abschnitte

Das Allgemeine

Lineare

Modell

senmatrix D zur Ausgangsmatrix T beziehen. Die Determinante det (T

251

1

D)

sowohl über das Verhältnis der Determinanten der beiden Matrizen

läßt sich

wie über das |r|

Produkt der Eigenwerte 0

l

der Matrix ( T ~ D )

ermitteln.'Die Algorithmen beziehen

sich entweder auf 0 oder auf das Verhältnis der Hypothesenmatrix D zur Fehlermatrix S auf der Basis und der Eigenwerte von

( S - 1 D). Die verfügbaren statistischen Prüf-

kriterien nehmen jeweils verschiedene Relationen zum Ausgangspunkt: •

das Maß A von Wilks basiert auf dem Produkt der Eigenwerte

X

von

( S - 1 D),

genauer auf: (7-58)

A

= n ( l + A;)-' i=i

Es stellt somit das Verhältnis von „generalisierter" erklärter Varianz zur „generalisierten" nicht-erklärten Varianz der T-Matrix der abhängigen Variablen dar. •

das Maß des größten Eigenwerts nach Roy legt den größten Eigenwert 0 m a x Matrix ( T ^ D )



der

zugrunde und

die Spurkriterien von Hoteiiing (HT) und Pillai (PT) rekurrieren auf eine Summe unter Verwendung der Eigenwerte der Matrix ( S - 1 D), genauer auf:

(7-59)

HT

(7-60)

PT

k = I Xj 7=1 k i = I (1 + Xj P

Alle diese statistischen Priifkriterien und die Analogien ihrer Priifkonzepte zu den bisherigen werden, ebenso wie die Kenngrößen „Determinante" und „Eigenwerte" einer Matrix, in den folgenden Abschnitten ausführlich behandelt. 3. Wie in Abschnitt 7.2 ausgeführt, basieren die Tests zur Modellgüte im ALM auf der t- bzw. F-Verteilung und im VLM auf der

- Verteilung. Die Tests im MLM stützen

sich entsprechend auf die multivariaten Verallgemeinerungen dieser Verteilungen. Zu

1

stellt die Inverse einer (p x p) Matrix A dar. In der Matrix-Algebra ist die Multiplikation mit einer Inversem die matrixalgebraisch nicht definierten Division. Es gilt A

^A = A A

' = /.

/ stellt die

Einheitsmatrix dar, mit „Einsen" auf der Hauptdiagonalen und „Nullen" an den übrigen Stellen.

(p x p)-

252

Das Allgemeine

Lineare

Modell

ihrer Darstellung 1 beziehen wir uns auf eine (ti x fc)-Datenmatrix y als Stichprobe aus einer multinormalverteilten Grundgesamtheit mit einem Vektor der Erwartungswerte ß=

0 und eine Varianz-/Kovarianzmatrix Z. Damit sind die einzelnen Variablen

y j ( j = 1... k)

bei beliebiger Varianz aj

Die SAQKP-Matrix tenmatrix Y (7-61) Für

auf die Erwartungswerte ßj=0

normiert.

T der Stichprobe ergibt sich als Produkt der transponierten Da-

mit der Ausgangsmatrix Y: =YTY

T

j* = j

erhalten wir die Hauptdiagonalelemente T;j von T, die a* • x1 -verteilt

sind. 2 Die Wahrscheinlichkeitsdichte der Matrix

T

insgesamt folgt einer Wishart-

Verteilung 3 mit (p = n Freiheitsgraden. Diese stellt die multivariate Verallgemeine9 rung der % - Verteilung dar. als Verhältnis einer Standardnormalvertei-

Im Abschnitt 2.1 (2b) war die t-Verteilung

lung zu einer % - V e r t e i l u n g bestimmt worden. Die der t-Verteilung

adäquate multiva-

2

riate Verteilung ist die Hotelling's T -Verteilung. Für unabhängige y

und T, mit y

multinormal-verteilt nach N (0, Z) und T Wishart-verteilt nach W (X, n), ist: T2

(7-62)

T',yi

= n y]

T 2 - (Hotelling's T 2 -) verteilt mit p und n Freiheitsgraden. Sind zwei Matrizen D bzw. S Wishart-verteilt mit r bzw. (n-r-1) Freiheitsgraden, folgt das Verhältnis der Determinanten ]s| und |S + D\ einer Wilks- A -Verteilung mit k, Freiheitsgraden 4

n-r-1 undr (7-63)

A

1 1

=, \S

= n

+

.=

,

I +S

1/

i-l

D

D\

a+^-r

1

M

Dabei stellen die

Xj die Eigenwerte der Matrix

mulierungen von

A

' 2

sind aus der Ausgangsdefinition des Verhältnisses der „generali-



=

1 Oj

y ji

ist standardnormalverteilt und somit ist

J

"

X ,=1

graden X ^ — verteilt. 4

dar. Die verschiedenen For-

Vgl. dazu z.B. Fahrmeir u.a. (1996) S. 37ff.

1

3

S~'ü

Ihre Dichtefunktion ist in Abschnitt 9.9.3 (9-89) wiedergegeben. Vgl. Fahrmeir (1996) S. 136.

2

Z .. J'

1

"

2

= — X y ji Oj 1=1

mit

= n

Freiheits-

Das Allgemeine Lineare Modell

253

zierten" Fehler-SSKP-Matrix zur „generalisierten" Gesamt-SSKP-Matrix abgeleitet. A ist demnach nicht die multivariate Entsprechung des Determinationskoeffizienten

R

sondern dessen Komplement 1 — R . 4. Betrachten wir statt der Determinanten bzw. Eigenwerte die Likelihoods der Datenmatrix

Y unter der Hypothese der Relevanz bzw. Irrelevanz eines unabhängigen Da-

tensatzes

(yk+\ ••• yk+r) >

Wilks'schen A (7-64)

' s t der Likelihood-Quotient, analog zu (2-48), dem

äquivalent 1 :

A

=

LQlln

9 Da -2ln LQ nach (2-50) einer

% - Verteilung folgt, läßt sich die Verteilung von

A

auch durch eine % - Verteilung approximieren: 2 = — In LQ n

In A

(7-65)

- 2 In LQ

und somit

=-«lnA 2

Diese sogenannte Bartlett-Approximation -n In A testspezifischen Freiheitsgraden.

(7-66)

0 3;

D

können auch ins Verhältnis gesetzt werden

der Matrix T~lD mit: A: =—J— 1 + A;

A;

~ verteilt mit den jeweils

2

Die Xj als Eigenwerte der Matrix zu den Eigenwerte 6

ist x

bzw.

1-0j

Oj ist nun als Verhältnis der „generalisierten" erklärten Varianz eines Datensatzes zur „generalisierten" Gesamtvarianz eines Datensatzes eher im Sinne eines „generalisierten" Determinationskoeffizienten zu interpretieren 3 . Eine besondere Bedeutung hat der größte Eigenwert

0max

der Matrix T~'D,

da sich mit ihm die Hypothese eines Zu-

sammenhangs zwischen zwei Variablensätzen am unmittelbarsten testen läßt. Seine Verteilung ist ebenfalls bekannt. Sie wird als 0 -Verteilung bezeichnet. Vgl. Fahrmeir (1996) S. 89f und S. 138. Vgl. z.B. (8-20), (9-99) und (10-24). Z.B. in der Kanonischen Korrelation, vgl. etwa (8-24).

254

7.4.5

Das Allgemeine Lineare Modell

Anwendungsbeispiele zum Multivariaten linearen Modell

/. SPSS bietet zur allgemeinen Analyse multipler Zusammenhänge

zwei

unterschiedli-

che Konzepte an. Das multivariate varianzanalytische Modell „MANOVA", das seit der Version 7.0 aus dem Syntax-Editor

heraus gestartet werden muß, erlaubt

vielfältige

multivariate Analysen von metrischen und nichtmetrischen Datenblöcken, die z.T. - wie die nachfolgend behandelte kanonische Korrelation - nur noch mit MANOVA

durch-

geführt werden können. Die zweite Möglichkeit bietet die neue menügesteuerte

Proze-

dur „GLM-Multivariat",

die auf den Strukturprinzipien des multivariaten linearen Mo-

dells beruht; allerdings mit einem tabellarisch aufwendigem und oft redundanten Output aufwartet. Da sich die wesentlichen Basisinformationen,

insbesondere die Hypothe-

sen- und und die Fehlermatrix, leicht über MANOVA gewinnen lassen, stützen sich die folgenden Ausdrucke auf diese Prozedur. Parallel dazu sollen die entsprechenden grammschritte

Pro-

und Ergebnisse von GLM mit vorgestellt werden.

2.Anknüpfend an das Eingangsbeispiel

zur einfachen linearen Regression und Korrela-

tion wollen wir die hinter den Aggregatvariablen pationspotential"

„Partizipationsprofil"

stehenden Variablensätze VOl ... V 05 und VII

und „Partizi-

... V 15 nun unmit-

telbar aufeinander beziehen. Mit: MANOVA v11 v 12 v13 v14 v15 WITH v01 v 0 2 v 0 3 v 0 4 v 0 5 /PRINT SIGNIF(MULT UNIV HYPOTH ) SIGNIF(EFSIZE) CELLINFO(SSCP) ERROR(SSCP) /NOPRINT PARAM(ESTIM) /METHOD=UNIQUE /ERROR WITHIN+RESIDUAL /DESIGN .

werden über PRINT eine Reihe univariater und multivariater Tests durchgeführt die Hypothesenmatrix Einschlusses

sowie

„ERROR (SSCP)" angefordert. Die Definition der Methode des

und des Fehlerterms entsprechen den bereits bekannten

varianzanalyti-

schen Optionen Die Werte der T-Matrix der abhängigen Variablen nach Tab. 7.2 sind hier nicht wiedergegeben.

Sie lassen sich Uber das Menü zur bivariaten

Option „Kreuzproduktabweichungen

und Kovarianz" aufrufen. Als

von MANOVA führt SPSS multiple Regressionsanalysen

Korrelation,

Standardprogramm

zwischen jeder der abhängigen

Variablen und dem Satz von unabhängigen Variablen durch - z.B. also: VII

=f(V0I

TO V05) usw., entsprechend (7-51). Diese werden im SPSS-Ausdruck unter der Überschrift „Regression analysis for WITHIN + RESIDUAL hier aber nicht wiedergegeben den über „univariate

error term" präsentiert,

sollen

werden. Die entsprechenden Korrelationsanalysen

wer-

Tests" angefordert

WITHIN + RESIDUAL Regression/Univariate

und in Ausdruck F-Tests"

7.2 unter „EFFECT ...

vorgelegt.

Das AHgemeine Lineare Modell Ausdruck 7.2:

255

Tests der multiplen Regression auf die abhängigen Variablen

E F F E C T .. C O N S T A N T (Cont.) Univariate F-tests with (1;286) D. F. Variable

Hypoth. S S Error S S

Hypoth. M S

Error MS F

Sig. Of F

ETA Square

V11

177,5401

728,5272

177,5401

2,54730

69,69742

0,000

0,19595

V12

274,71196

614,26278

274,71196

2,14777

127,90555

0,000

0,30902

V13

203,76758

804,48383

203,76758

2,81288

72,44089

0,000

0,20210

V14

263,62531

854,46567

263,62531

2,98764

88,23858

0,000

0,23578

V15

224,39702

951,00645

224,39702

3,3252

67,48382

0,000

0,19091

Aus diesen Hintergrundanalysen

ergeben sich die ersten Hinweise auf die abhängigen

Variablen, die besonders eng mit dem Satz der unabhängigen Variablen verknüpft sind. Gleichzeitig liefern sie die Informationen für die Aufspaltung der SAQ- und SKP-gesamt nach (7-52) und (7-53). Die Resultate bezüglich der Djj* und Sjj* nach (7-54) und (7-55) finden sich in der Hypothesen- und Fehlermatrix (vgl. Ausdruck 7.3). Ausdruck 7.3

Fehler- und Hypothesenmatrix im multivariaten linearen Modell

Adjusted Hypothesis Sum-of-Squares and Cross-Products V11 V11

V12

V14

V13

V15

396,332

V12

313,206

314,734

V13

466,037

382,748

V14

302,158

275,807

457,209

398,613

V15

322,896

301,285

431,385

312,648

669,252 381,853

Adjusted WITHIN+RESIDUAL Sum-of-Squares and Cross-Products V11

V12

V14

V13

V15

V11

728,527

V12

281,209

614,263

V13

291,041

253,995

804,484

V14

240,893

258,895

395,445

854,466

V15

245,744

228,800

371,036

408,800

951,006

Multivariate Tests of Significance (S = 5, M = -1/2, N = 140 ) Test Name

Approx. F

Value

Error DF

Hypoth. DF

Sig. Of F 0,000

Pillais

0,95176

13,44797

25

1430,00

Hotellings

1,54546

17,33391

25

1402,00

0,000

Wilks

0,3055

15,77973

25

1049,09

0,000

Roys

0,50783

0,000

256

Das Allgemeine Lineare Modell

Die im dritten Segment des Ausdrucks wiedergegebenen

multivariaten

Tests folgen den

im letzten Abschnitt vorgestellten Ansätzen, vgl. (7-58) bis (7-60). Wählt man für die beiden Variablensätze Multivariat",

allem die Parameterschätzungen hier nicht präsentierten der zentralen

die menügesteuerte

und die beiden SSCP-Matrizen

Tabelle „Tests der Zwischensubjekteffekte"

dort als „korrigierte

Gesamtvariation"

I x f

Beobachtungen

werden die Beobachtungen Summe der quadrierten der Beobachtungen hängigen

„GLM-

anzufordern.

eingegangen

vor

Von den

Outputs soll vor allem auf die Spezifik der Quadratsummen

Ansatz der GLM setzt nämlich nicht an der

drierten

Analysevariante

empfiehlt es sich im Optionsdialog neben den deskriptiven Statistiken

werden.

in Der

an - diese wird

SAQ-ges

geführt - sondern an den Summen der qua-

, die in der Rubrik „Gesamt" verzeichnet ist. Damit

generell unter der Hypothese

Beobachtungen

Ho: po = 0 analysiert.

Die

stellen unter diesem Aspekt die Streuung

der

um den Nullpunkt dar. Die Untersuchung des Einflusses der unab-

Variablen

...

rende Regressionsfunktionen.

Xjc+r

verläuft in zwei Etappen und über zwei

Dabei wird der Erklärungsbeitrag

den

tionen nach (7-51) nicht nur bezüglich der einzelnen unabhängigen ebenso bezüglich der Regressionskonstanten

konkurrie-

Regressionsfunk-

Variablen

spezifiziert. Die Leistung dieses

sondern „konstan-

ten Terms" wird aus der Verbesserung der SAQ-reg abgeleitet, der sich ergibt, wenn von einer, der Ho: Ho = 0 entsprechenden, laufenden Regressionsfunktion Term übergangen

modellimmanent

zur herkömmlichen

wird. Im übrigen entsprechen

durch den Ursprung ver-

Regressionsfunktion

mit

konstantem

sich die Outputs von MANOVA

GLM zwar nicht in der Form, wohl aber weitgehend im Inhalt.

und

Die Kanonische

8

Die kanonische Korrelation

8.1

Einführung in die Problemstellung

Korrelation

257

1. Bei der kanonischen Korrelation fragen wir nach dem Zusammenhang zwischen zwei Variablenblöcken x, ...x und x ,...x , die in der Regel aus metrib 1

p

p+1

p+q

1

sehen Variablen bestehen. Aus diesen beiden Variablenblöcken bilden wir die Linearkombinationen U und V, deren Korrelation als einfache Korrelation zwischen zwei „künstlichen" Variablen betrachtet werden kann. Nehmen wir z.B. einen Satz von Belastungsfaktoren beim Autofahren, wie z.B. momentane Geschwindigkeit, Verkehrsdichte, Straßenverhältnisse, Fahrgeräusche und bisherige Fahrleistung in km und Stunden sowie einen Satz von physiologischen Variablen, die den Fahrstreß erfassen, wie z.B. Atem- und Pulsfrequenz, Blutdruck, Hauttemperatur usw., mittels derer der Zusammenhang zwischen auslösenden Faktoren und körperlicher Reaktion untersucht werden soll. Die Variablen der Sätze können jeweils als empirische Indikatoren für die theoretischen Konstrukte ,J3elastungsfaktoren" und „Fahrstreß" verstanden werden. Die Frage bei der Konstruktion komplexer Variabler ist die nach den angemessenen Gewichten, mit denen die Variablen hinsichtlich des Konstruktes in Relation gesetzt werden. Unter der Ausgangshypothese eines starken Zusammenhangs zwischen Reiz und Reaktion werden die Gewichte der Variablen in der Linearkombination bei der kanonischen Korrelation so gewählt, daß der statistische Zusammenhang zwischen U und V maximal wird. Dies wird im allgemeinen dazu führen, daß eine höhere Korrelation zu verzeichnen ist als bei der üblichen Gleichgewichtung, weil die Indikatoren, die das theoretische Konstrukt besonders gut repräsentieren, ein höheres Gewicht erhalten als die, die dies weniger gut tun. Auf den Algorithmus, der die Gewichte derart bestimmt, gehen wir später ein. 2. Vorerst ist maßgeblich, daß es sich um eine lineare Einfachregression zwischen den beiden „kanonischen" Variablen i / j undV ; handelt. (8-1)

Ui

Dabei wird mit

=f ' n der alle Elemente

294

Die

Faktorenanalyse

0 für

j*

1für j =

die Einheitsmatrix / darstellt:

sind, d.h. die

j*

R ~ bzw. / ? , . = / j*

q*

Bilden wir aus diesen voneinander unabhängigen, standardisierten (Rest-)Variablen z* den Faktor FJt = w]Jt • zj" +... wqJ, z* , so folgt für dessen Varianz: 2 Sjt

1 n 2 = — Y , F j * i =

w

2 \ J * +

w

2 2 J *

+



2 qJ*

w

=1 Nun resultiert aus R ^

[aus (7-33)]

bzw. R j * = I und aus (9-3): a]Jt = WjJt , also ist i

Vj*

= X j=i

i a

)j*

=

w

X

)J*

=

1

j=i

Wenn ein Faktor FJt einen Eigenwert von 1 hat, heißt dies, daß er aus dem ganzen Variablensatz der Stichprobe nicht mehr an Information extrahieren kann als in einer einzigen Variablen z j der Stichprobe selbst enthalten ist. Dieses Ergebnis führt zum sog. Eigenwertkriterium für Faktoren, nach dem nur solche Faktoren als statistisch sinnvoll akzeptiert werden können, deren Eigenwerte größer als „Eins" sind. 3. Anknüpfend an diese Überlegungen besteht ein erster statistischer Test darin, die Nullhypothese zu prüfen, daß die Korrelationsmatrix der Grundgesamtheit der Einheitsmatrix entspricht. (9-27)

Ho:pg

=/.

Diese Hypothese wird unter der Annahme normalverteilter Ausgangsvariablen mit Hilfe des sogenannten Sphärentests von Bartlett abgelehnt, wenn: (9-28)

xl

= - [ # i - ( 2 ß + ll)/6]ln bei r* =

A

ist das Produkt der Eigenwerte

Vj

A

^

2

der Korrelationsmatrix

damit gleichzeitig der Determinanten der Korrelationsmatrix.

Rq

und entspricht

1

Die Bedeutung der Eigenwerte der Korrelationsmatrix für den Testansatz und der Zusammenhang mit Abschnitt 7.4.4 ergibt sich im Abschnitt 9.4.3.

Die Faktorenanalyse

(9-29)

A

= 11 j=A

295

V j = | Rq

Eine Determinante nahe Null ist ein Indikator f ü r lineare Abhängigkeiten in der Korrelationsmatrix, die wiederum auf lineare Abhängigkeiten in den Ausgangsvariablen verweisen. Die Nullhypothese wird deshalb bei kleinem A

zurückgewiesen.

4. Steht der in (9-28) formulierte Test vor der Faktoranalyse, so erfolgt der statistische Signifikanztest f ü r die Restkorrelation der Variablen nach jeder einzelnen M Faktorextraktion. Die Nullhypothese besagt: H0

Pq-A,B...M

=

/

d.h., daß die Korrelationen zwischen den Restvariablen

der M-ten Ordnung alle

null sind und die Rest-Korrelationsmatrix nur noch die Korrelationen der Restvariablen mit sich selbst ausweist. Diese Hypothese wird abgelehnt, wenn (9-30)

Xo

(9-31)

A

= («-l)(ß-M)

——

f

Q-M

J =N

a

.wobei

V

J

1 Q-M

Q n

In A > x

und

Vj

somit dem Quotienten aus dem arithmetischen und dem geometrischen Mittel der N . Q kleinsten Eigenwerte entspricht. Die

- Verteilung hat 1 Freiheitsgrade, wobei

= - ( ß - M + 2 ) ( ß - M + l) ist. n

' Vgl. Marineil (1986) S. 1365 f.

296

Die

Faklorenanalyse

9.2.4

Die Image-Analyse: statistische Relevanz der Ausgangsvariablen

1. Empirisch und statistisch sinnvolle Faktoren lassen sich also nur bilden, wenn innerhalb des Variablensatzes Abhängigkeiten bestehen. Allerdings läßt sich eine deutliche Reduktion der Dimensionen nur erreichen, wenn die Faktoren nicht nur paarweise Korrelationen induzieren, sondern auf alle Variablen oder zumindest auf eine ganze Reihe einwirken. Beruhen die Interdependenzen also vorwiegend auf multiplen Verknüpfungen, und nur diese rechtfertigen die Faktorenanalyse, sollten die partiellen Determinationskoeffizienten zwischen je zwei Variablen - die jeweils anderen konstant gehalten wesentlich geringer sein als die einfachen Determinationskoeffizienten. Ein deskriptives Maß zur Bestimmung des Ausmaßes der Interdependenzen im Ausgangsdatensatz stellt das Kaiser-Meyer-Olkin-Maß dar. Es ist eine einfache Statistik zur Abschätzung der Hintergründe der Korrelationen im Datensatz. Das Maß bezieht nun die Summe der einfachen Determinationskoeffizienten zwischen allen Variablenpaaren auf die zusammengefaßten Summen der einfachen wie partiellen Determinationskoeffizienten: k

k

I

(9-32)

KMO

1

= -j—j

X X rjj* ;=i J*=i

r

I

'

jj*

1

+

\

(j*j*)

k

X X j=i ;'*='

r

jj*-2-k

Ein Wert von über 0,9 gilt als hervorragend, einer unter 0,5 als unakzeptabel. 2. Analog zum KMO-Maß für Korrelationsmatrizen bestimmt das MSA-Maß der Sampling-Adäquanz das Verhältnis von partiellen Determinationskoeffizienten zu einfachen Determinationskoeffizienten für jede der Variablen z .:

k

(9-33)

MSA.

J

=—k y

—k

r?,+

y

U*j*) 2

r .t

MSA.

bezieht sich also nicht auf alle Variablenpaare, sondern nur auf die aus der Va-

riablen

Zj

und den Variablen

Zj* (j* = 1... k). Auch hier sollten die Werte wieder

2 9 7

Die Faktorenanalyse

möglichst über 0,7 liegen. U.U. können Variablen mit niedrigen Werten aus dem Variablensatz eliminiert werden.

3. In der Image- bzw. Anti-Image-Analyse lassen sich die partiellen KorrelationsKoeffizienten bzw. ihre Komplemente direkt untersuchen. Als Image einer Variablen wird der Teil bezeichnet, der durch die anderen Variablen erklärt werden kann, als AntiImage dann ihr autonomer Teil. Unter der Anti-Image-Korrelation versteht man dann die autonome Korrelation zweier Variablen, deren Ausmaß durch die in den obigen Formeln verwendeten partiellen Korrelationskoeffizienten r jj*_2 k bestimmt wird. Diese sollten bei multiplen Interdependenzen nahe bei Null liegen, so daß ihr Komplement zum einfachen Korrelationskoeffizienten, der Anti-Image-Korrelation, möglichst groß ist.

9.2.5

Der Scree-Test: empirische Relevanz der Faktoren

Da vermutlich nicht alle statistisch bedeutsamen Faktoren auch empirisch relevant sein werden, bedient man sich einer graphischen Darstellung der Eigenwerte als Funktion der Rangordnungszahl des Faktors Vj

F j . Man prüft dabei im sog. Scree-Test, welche

auf einer gedachten Geraden liegen, und wählt nur die Faktoren FA --FM , die deut-

lich darüber liegen, für die empirische Analyse aus. Abbildung 9.2:

Scree T e s t 1

Screeplot 8

6

4

0)

CD Lu

-B-

o 3

5

7

9

11

13

15

17

19

Faktornummer

1

Die Bezeichnung folgt dem bildlichen Eindruck einer Geröllhalde (scree = Geröll).

21

23

25

27

298

Die Faklorenanalyse

In Abbildung 9.2 liegen

FA bis FD

deutlich über der Geraden durch die übrigen

Faktoren. 9.2.6

Erklärung der Variablen aus den Faktoren

1. Für die Güte der Faktorenanalyse ist bedeutsam, wie weit die M empirisch relevanten Faktoren den Variablenraum ausschöpfen. Für die einzelnen Variablen wird deshalb ermittelt, wie weit sie durch

FA ... FM

erklärt werden. Dies geschieht über die „Be-

stimmungsgleichung" der Variablen zj •

(9-34)

z)

=f{FA...FM) = a

jA ' FA+ajB

' Fß + -

a

jM ' Fu

2. Die Bestimmungsgleichung eröffnet der Faktorenanalyse die Möglichkeit einer Va2 rianzzerlegung von S . in einen erklärten und in einen nicht-erklärten Teil, analog zum Allgemeinen Linearen Modell. Man bezeichnet dabei den multiplen Determinati2 onskoeffizienten zur Gleichung (9-34) als „Kommunalität" hj der Variablen Zj:

(9-35)

hj

h)

M M = I rjj = X a]j J=A J—A

=R)a..M

stellt den kommunalen Teil der Varianz der Variablen

Zj dar und ergibt sich als

Zeilensumme der quadrierten Werte der Matrix der Faktorladungen (vgl. Tab. 9.3). Variablen mit geringer Kommunalität können u.U. aus dem Variablensatz ausgeschlossen werden. Die Residualvarianz

sj_A

M

läßt sich auch als Differenz zwischen dem Wert der Ge-

samtvarianz und der Kommunalität schreiben:

(9-36)

sj_A_u

=1 -hj

M = 1 - X a]j J=A

=S2U

Sie wird auch als spezifische Varianz oder Uniqueness bezeichnet. 3. Die durch die Faktoren

FA ... FM

insgesamt in z, ... zq

erklärte Varianz ergibt sich

aus der Summe der „Kommunalitäten" oder der Summe der „Eigenwerte" der Faktoren

Die Faktorenanalyse

q

(9-37)

V

299

M

= £ A? s j=l

£

V,

J=A

V/n gibt an, welcher Anteil der Gesamtvarianz des Variablensatzes durch die M empirisch relevanten Faktoren erklärt wird und bildet damit ein Maß zur Gesamtbeurteilung der Faktorenanalyse. Diese ist umso besser zu bewerten, je kleiner die Anzahl der empirisch relevanten Faktoren ist. Bezieht man alle möglichen Faktoren

FA ... FQ in die Erklärung des Variablensatzes

mit ein, so lassen sich die Variablen zj ... zq über die Q Faktoren vollständig erklären: (9-38)

= ajA Fa + ajB FB +... ajQ FQ

Zj

In dieser multiplen Regressionsgleichung wird nun die Variable

z j als Linearkombi-

nation der Faktoren dargestellt, wobei die Faktorladungen als Gewichte dienen. 4. Schreiben wir die Bestimmungsgleichung (9-38) in Matrixschreibweise mit zj der j-ten Spalte der Beobachtungsmatrix

Z, aj

als

als der j-ten Zeile der Faktorla-

dungsmatrix A und F als (n x M) Faktorwertematrix, so erhalten wir (9-39)

zj

=Fa]

Folglich ergibt sich die Beobachtungsmatrix Z als (9-40)

Z

=F

At

Die bedeutet die „Rekonstruktion" der Beobachtungen aus den Faktoren und ihren Ladungen. Als nächstes setzen wir Z in (9-16) ein:

(9-41)

R

In Analogie zu (9-16) stellt

=-A n 1

T

— F F

FT

F

AT

die Matrix der Korrelationen der einzelnen

Faktoren miteinander dar. Aufgrund der Voraussetzungen der Orthogonalität der Faktoren entspricht diese Matrix der Einheitsmatrix I. So folgt aus (9-41) das sog. Funda-

300

Die

Faklorenanalvse

mentaltheorem der Faktorenanalyse, das folgenden Zusammenhang zwischen den Faktorladungen und der Korrelationsmatrix der Ausgangsvariablen feststellt: (9-42)

R

= AI At = A AJ

Dieses Resultat wird als Reproduktion der Korrelationsmatrix aus der Faktorladungsmatrix bezeichnet. 9.2.7 Die empirische Interpretation der Faktoren anhand eines Beispiels 1. Die Faktoranalyse ist, soweit wir sie bisher in Form des Hauptkomponenten-Ansatzes kennengelernt haben, ein formales Verfahren der Aufteilung eines möglichst großen Teils der Gesamtvarianz eines Variablensatzes auf eine geringe Anzahl von Strukturkomponenten, die als Linearkombination der Variablen des Satzes gebildet werden. Die Ermittlung der Gewichte der Variablen erfolgt nach einem rein formalen, statistischen Kriterium der Maximierung der auszuschöpfenden (Rest)-Varianz des Variablensatzes. Als Ergebnis der Faktorenanalyse erhalten wir die Gewichte der Variablen im Faktor und die Korrelationskoeffizienten (= Regressionskoeffizienten) des Zusammenhangs zwischen den Variablen und dem Faktor. Diese beiden Informationen sind Ausgangspunkt für die empirische Interpretation der Faktoren. Im allgemeinen arbeitet man bei der Faktorenanalyse - anders als bei der kanonischen Korrelation - nicht mit Variablensätzen, die als Indikatoren für nur eine theoretische Dimension der Analyse stehen. Nehmen wir etwa das Beispiel zur kanonischen Analyse, bei der zwei Variablensätze den Zusammenhang zwischen Belastungsfaktoren und physischer Belastung widerspiegeln sollten, und geben wir etwa noch einen Variablensatz zur psychischen Belastung hinzu, so wird die Faktorenanalyse i. a. über den gesamten Variablensatz durchgeführt. Welche der drei Dimensionen wird der erste Faktor ausdrücken? Wird der erste Faktor sich überhaupt eindeutig einem der Teilsätze zuordnen lassen? Was ist bei der Zuordnung maßgeblich, die Gewichte der Variablen im Faktor oder die Ladungen der Variablen im Faktor? Wie wäre ein Faktor zu interpretieren, bei dem sich deutliche Bezüge zu Variablen aus allen drei Teilsätzen ergeben?

Unabhängig von einer konkreten Problemstellung und einem konkreten Datensatz lassen sich diese Fragen nicht beantworten, so daß die Interpretation der Faktoren selbst keine eigentlich statistische Aufgabe ist, sondern eine fachwissenschaftlich-theoretische. Die Statistik legt hierzu nur die Rahmenbedingungen fest, so z.B., daß die Faktoren nicht ohne Berücksichtigung der Konstitutionsvoraussetzung ihrer gegenseitigen Unabhängigkeit interpretiert werden dürfen.

Die Faktorenanalyse

301

Besteht unser Datensatz aus drei Segmenten, etwa „Belastungsvariablen", „Variablen der physischen Belastbarkeit" und „Variablen der psychischen Belastbarkeit", so ist eine gegenseitige Abhängigkeit der Variablensätze zu vermuten. Der Bedeutungsgehalt der Faktoren kann deshalb nicht mit dem Bedeutungsgehalt je eines der Variablensätze identisch sein. Möglicherweise strukturieren die Faktoren den gesamten Variablensatz in anderer Hinsicht, vielleicht auf der Ebene der Belastungsarten (Dauerbelastung, momentane Belastung) und den mit ihnen eng korrelierten psychischen und physischen Belastungen. In diesem

Fall könnten alle drei Faktoren höhere Ladungen in jeweils

einigen Variablen aller drei Variablensätze aufweisen. 2. Um das gesamte empirische Potential der Faktorenanalyse uns noch einige wichtige Methodenkenntnisse. wendung der Hauptkomponentenanalyse

kennenzulernen,

Es handelt sich bei der folgenden

(vgl. S. 273 f f . ) zurückgreifen.

Korrelation

Dort hatten wir zwei Sätze von Variablen

einander

in denen jeweils die tatsächliche Beteiligung an betrieblichen

scheidungsprozessen unterschiedene

An-

also um ein eher einführendes Beispiel. Dazu

wollen wir auf die Variablen und Ergebnisse des Beispiels zur kanonischen gegenübergestellt,

fehlen

und die gewünschte Beteiligung daran für verschiedene

Entscheidungsbereiche die das

festgehalten

kanonische

Variablen,

gewünschter

Teilhabe auf einer entscheidungslogisch

chisch/organisatorisch/technischen

Ent-

sachlich

wurde. Als Ergebnis erhielten wir

Spannungsverhältnis

zwischen

tatsächlicher

und

anderen Ebene, der der hierar-

Dimension betrieblicher Entscheidungsprozesse

neu

strukturiert. Jetzt wollen wir die Trennung in zwei Variablensätze aufheben und sehen, ob die Hauptkomponenten

der Faktorenanalyse

diesen logischen

Bezugsrahmen

bestä-

tigen. Wir rufen die Hauptkomponentenmethode nü „Datenreduktion,, ein und verwenden

über das Fenster „Faktorenanalyse"

weitgehend

die Voreinstellungen'.

stiken" wählen wir zusätzlich die Determinante, die Anti-Image-Matrix.

Bei den „Werten"

Bei den „Deskriptiven

den Screeplot

anzeigen.

Ergebnisse der Hauptkomponentenanalyse KMO- und Bartlett-Test

Maß der Stichprobeneignung nach Kaiser-Meyer-Olkin. Bartlett-Test auf Sphärizität

1

Zur Syntax zu diesen Befehlen siehe Anhang 2.

Stati-

den KMO- und den Bartlett-Test, sowie

lassen wir uns die Koeffizientenmatrix

Faktorwerte und über das „Extraktions"-Fenster Ausdruck 9.1:

im Me-

von SPSS auf, geben die Variablen V01 bis V05 und VI 1 bis VI5

Ungefähres Chl-Quadrat df Signifikanz nach Bartlett

,858 1395,642 45 ,000

der

302

Die Faklorenanafyse

Ausdruck 9.1:

(Fortsetzung) Erklärte Gesamtvarianz Summen von quadrierten Faktorladunqen für Extraktion

Anfängliche Eigenwerte Komponente 1 2 3 4

Gesamt 5,040 1,070 ,891 ,711

5 6 7 8 9 10

% der Varianz 50,401 10,702

Kumulierte % 50,401 61,104

8,906 7,113

70,010

,596 ,473 ,311 ,271 ,238

Kumulierte % 50,401 61,104

77,123 83,084 87,812

5,961 4,728 3,984 3,112 2,714

,398

% der Varianz 50,401 10,702

Gesamt 5,040 1,070

91,796 94,908 97,622

2,378

100,000

Extraktionsmethode: Hauptkomponentenanalyse.

Kommunaiitäten

Koeffizientenmatrix

Komponentenmatrix

Komp

v

aA

=raA

=

v

= cos

vbB

=rbB

=

v

= c o s CT

vaB

=raB=M

vbB

l - v

= rbB = ^ / l - v

a

= s i n CT 2

= sin CT

Wir schreiben deshalb (9-47) neu:

(9-49)

- ^/l - v 2 FB = c o s A

FA

= V F

FB

= TJ\ - v 2

A

FA+V

FB=

sin

FACT

s i n A FB + sin CT F^

Wie man aus der Graphik entnehmen kann, sind FA und FB negativ korreliert. Es läßt sich auch algebraisch leicht zeigen, daß diese Gewichte sowohl die gegenseitige Unabhängigkeit der beiden rotierten Faktoren wie deren Standardisierung gewährleisten. 2. Die Gewichte der Variablen in den rotierten Faktoren ergeben sich bei zwei Faktoren aus (9-49) wie folgt: F

a

(9-50)

V l - v 2 ( w ] ß z, +... wqB

= v ( w M z, +... wqA zq)~ = (v w M -

Zl

Allgemein erhalten wir die neuen Gewichte

Zq)

+... (v wqA - V T V wqB) zq w^* als Linearkombinationen der al-

ten Gewichte WJJ entsprechend (9-49):

(9-51)

wja

= v WjA -

wjb

=-\jl — v2

- v2 Wß w

j A

-

und analog

wjB

3. Ebenso ergeben sich die Korrelationen r^* zwischen den rotierten Faktoren und den Ausgangsvariablen als Linearkombinationen nach (9-49) der alten Korrelationen

ajA.

Somit sind auch die neuen Faktorladungen Linearkombinationen der alten Faktorladungen.

312

Die

Faktorenanalyse

a

J a = ^

Z

j

F

a

{Y,z}{vFA-

>A-v2

2

aja a

v a]A - -Jl - v aß V1-y2

jb

taus

b>

(9

~49)]

n

n

(9-52)

F

und entsprechend

+v«yi

(9-52) zeigt eine gegenüber a ; i 4 zunehmende Faktorladung aja

zwischen einer Va-

riablen zj und einem Faktor Fa, der in das Variablencluster hineingedreht wird, dem Zj

angehört und eine gegenüber

a]B

abnehmende Faktorladung

ajb. Da v bzw.

-y/l-v 2 , entsprechend (9-48), dem Kosinus bzw. dem Sinus des Drehwinkels o

ent-

sprechen, ist bei der Situation von Abbildung 9.8 und einem Drehwinkel zwischen 45° - v2

und 0° ein v von etwa 0,7 - 1,0 und ein

von etwa 0,0 - 0,7 zu erwarten. In

Abbildung 9.8 ist Zj positiv mit FA und negativ mit FB korreliert, so daß a j a > a j A wird und a j b

gegen Null tendiert, weil die Komponenten der LK nach (9-51) gegen-

läufig wirken. 4. Die wichtigste Frage bei der Faktorrotation ist die nach der Kommunalität der Variablen nach der Rotation, d.h. danach, ob die rotierten Faktoren Fa ... Fm dasselbe zur Erklärung des Variablensatzes Z]... zq leisten wie die nicht rotierten Faktoren. Den Betrag an „erklärter" Varianz überprüfen wir anhand der Kommunalität der Variablen bei rotierten Faktoren: h)

= Ä? ab = a]a + a]b = (v ajA

(9-53)

- ^ v

2

[aus (9-52)] ajA)2

+( V T V

= v 2 a]A + (1 - v 2 ) a)B - 2 v ajA +

(l-v2)a2.A

= a]A +

a

+

v

2

a

2

B +

2 v a

a

ß

+ v a

yjl-v2 j A

f i ^ a

ß

f

ajB 2

j B

ß

Dies bedeutet, daß die Kommunalität der Variablen nach der Rotation unverändert erhalten bleibt. Nach der Rotation haben sich allerdings die Eigenwerte der Faktoren verändert, d.h. Va*VAvndVb*VB.

Die Faktorenanalyse

313

5. Formulieren wir die in Punkt 2. - 4. für zwei Faktoren gezeigten Ergebnisse für m empirisch relevante Faktoren, so lassen sich erst einmal die rotierten Faktoren analog zu (9-47) als Linearkombinationen der nicht rotierten Faktoren ausdrücken. Das Gewicht des Faktors Fj im rotierten Faktor Fj* ( J = A,... M, j * = a ... m) wird mit vjtj bezeichnet. (9-54)

Fj*

= Vj*A Fa + V j»B FB + ... vfM

FM

Nun können wir analog zu (9-50) die rotierten Faktoren als Linearkombinationen der Ausgangsvariablen schreiben: (9-55)

Fj»

wobei sich das Gewicht

= u>1;-. z, + w2j» z2 +... Wqj* zq, w^* der Variable

Z\ z.B. entsprechend (9-51) als Linear-

kombination der alten Variablengewichte w u (9-56)

wXj*

mit den Faktorgewichten v ; *j ergibt:

= Vj,A w]A + vj*g w l ß + ... vJtM

w]M

Entsprechend (9-52) ergibt sich auch die Faktorladung der Variablen

z,

im Faktor

V (9-57)

aljt

=^j*Aa\A

+ vj*Ba\B

+ -vj*M

a

\M

Ebenso gilt die Konstanz der Kommunalität auch für die m rotierten Faktoren: (9-58)

tf,2^

= R j A,B..M

1,2 = a„2 + ...a hj ja im 6. Ein Rotationsergebnis wird dann ausreichen, wenn die so erreichte Faktorlösung eine sog. Einfachstruktur hat, d.h. wenn alle Faktoren möglichst zentral in ihren Variablenclustern liegen. Zur Beurteilung des Vorliegens einer derartigen Struktur hat Thurstone fünf Kriterien entwickelt: • Jede Zeile der neuen Faktorladungsmatrix hat wenigstens eine Null. •

Bei m empirisch sinnvollen Faktoren soll jede Spalte der Matrix mindestens m Nullen haben.

314 •

Die

Faktorenanalyse

In j e d e m Spaltenpaar der Matrix sollte es eine Reihe von Variablen geben, die in einem Faktor kaum, in dem anderen hoch laden. Bei vier oder mehr Faktoren sollte in jedem Spaltenpaar eine Reihe von Variablen



überhaupt nicht laden. •

In einem Spaltenpaar sollte nur eine geringe Anzahl von Variablen vorhanden sein, die in beiden Faktoren laden.

Ein von B a r g m a n n entwickeltes Testverfahren sieht bei einem Signifikanzniveau von (XQ

die Ablehnung der Nullhypothese, Faktor

Fj

habe keine Einfachstruktur, dann V

vor, wenn die Anzahl seiner Ladungen, für die gilt

< 0 , 1 , einen tabellierten kriti-

sehen Wert übersteigt.

9.3.4

Die Verfahren der orthogonalen Rotation

1. Die Verfahren zur Bestimmung des Drehwinkels bei der orthogonalen Rotation setzen bei den Kriterien von Thurstone zur Bestimmung einer Einfachstruktur an, d.h. bei der Faktorladungsmatrix der rotierten Faktoren. Allerdings sind diese Kriterien nicht eindeutig und oft nicht gleichzeitig zu erreichen, so daß ein einheitliches, nicht umstrittenes Rotationsprinzip fehlt. Die Quartimax-Rotation operationalisiert das erste Kriterium der maximalen Unterschiedlichkeit der Ladung einer Variablen ren

z\

in den Fakto-

Fa ... Fm , d.h. der maximalen Unterschiedlichkeit innerhalb der Zeilen der Faktor-

ladungsmatrix. Dies ist identisch mit der Minimierung der Quadrate der Kreuzprodukte der Faktorladungen in den Zeilen:

(9-59)

SKP (y*, j * *)

=£ 7=1

(öi/*^y«02=min!0-^;**)

X j*,j**=a

Minimiert wird hier die Komplexität der Variablen ren

Fj* ( j * = a ... m)insgesamt.

zj ( j = 1 ...q)

bezüglich der Fakto-

Dies bedeutet, daß die Variablen nicht mehr gleichmä-

ßig, sondern maximal unterschiedlich in den Faktoren laden. Es bedeutet i.a. nicht, daß die Variablen nur noch in einem der rotierten Faktor hoch laden. Zur Herleitung des Algorithmus aus der Zielsetzung der maximalen Heterogenität der Zeilen

greifen

wir

auf

die

Konstanz

der

Kommunalität

h ] = konstant, also auch h* = konstant.

1

E i n e T a b e l l e d e r k r i t i s c h e n W e r t e f i n d e t sich bei H a r t u n g / E l p e k (1986) S. 549.

zurück.

Es

gilt:

Die Faktorenanalyse

(9-60)

h4j

I

1 4 * + 2

«

s

2 jj*

315

2 jj**

r - r

= konstant,

**)

In (9-60) bedeutet, bei Unabhängigkeit des Ergebnisses vom Rotationswinkel, eine Minimierung der Kreuzpunkte die Maximierung der Summe der vierten Potenzen der Faktorladungen, daher die Bezeichnung des Verfahrens als Quartimax-Rotation. Ein absolutes Minimum der Kreuzprodukte ergibt sich dann, wenn jede Variable nur in einem Faktor lädt. Faktisch läuft das Verfahren aber darauf hinaus, daß der erste rotierte Faktor dazu tendiert, Faktorladungen in allen Variablen zu erzeugen. Er wird deshalb als genereller Faktor bezeichnet. 2. Das gebräuchlichste Rotationsverfahren ist die Varimax-Rotation, die eine maximale Unterschiedlichkeit der Spalten der Faktorladungsmatrix herstellt. Maximiert wird die Varianz der Spalten der mittels

hj

zeilenweise normierten Faktorladungs-

quadrate. Tabelle 9.4:

Normierte Faktorladungsmatrix Fa

Fh

«1 a

a\b

• ••

Fm a\m

h

h

fH

a2a

a2b

a2m

h

h2

aqa

aqb

\

>

aqm

hq

X

Für die erste Spalte ergibt sich die Varianz Qa :

1 Qa

q

"ja ,2

^

ja

20 in der Praxis als gleichwertig erweisen: a) über den multiplen Determinationskoeffizienten aus der Korrelation der Variablen Zj mit allen anderen Variablen des Satzes:

(9-82)

1

hj

=

Vgl. Gaensslen/Schubö (1973) S. 279 ff. und JohnsonAVichem (1992) S. 415.

Die Faktorenanalyse

333

Dahinter steht die in Abschnitt 9.4.1 entwickelte Überlegung, daß die Kommunalität hj die durch die gemeinsamen Faktoren bestimmte Korrelation der Variablen Zj mit sich selbst ist. Dieser Korrelation kommt eine Korrelation von

z j mit allen anderen

Variablen, die ja ebenfalls vom Wirken der gemeinsamen Faktoren getragen wird, noch am nächsten. b) Uber den höchsten einfachen Determinationskoeffizienten, den die Variable

z;

mit einer Variable zk aus dem Satz hat: (9-83)

h2

Dahinter steht, daß die Berechnung von q multiplen Korrelationskoeffizienten sehr aufwendig ist und daß der größte einfache Determinationskoeffizient oft schon sehr nahe beim multiplen Determinationskoeffizienten liegt. c) Der dritte Ansatz verwendet statt dem Determinationskoeffizienten den höchsten einfachen Korrelationskoeffizienten: (9-84)

hj2

(rjk

)max

Dabei kann allerdings die Kommunalität überschätzt werden. d) In der Praxis hat sich heute, dank der Rechner und der statistischen Analysesysteme, ein iteratives Verfahren durchgesetzt, bei dem im ersten Schritt die Kommunalitäten nach a) oder b) geschätzt werden. Im zweiten Schritt werden die Faktoren nach der Hauptkomponentenmethode extrahiert und die Kommunalitäten unter Berücksichtigung der empirisch relevanten/statistisch signifikanten Faktoren in die Hauptdiagonale von RK

eingesetzt. Dieses Verfahren wird in weiteren Schritten wiederholt, bis die berech-

neten Kommunalitäten gegeneinander konvergieren. Die Nullhypothese, es gibt G gemeinsame Faktoren, kann unter der Voraussetzung normalverteilter gemeinsamer, spezifischer und Fehlerfaktoren auf der Basis einer Zufallsstichprobe näherungsweise über einen %2 - Test geprüft werden. Schrittweise werden, beginnend mit ÜA, immer weitere Faktoren UB...Uj bezogen, bis

mitein-

334

Die Faktorenanalyse

(9-85)

(9-86)

4

"

=

Tj

3

3

6

k-UAJJB.

f jf= 1

T j — %0,05 .

ver-

so gut zu reproduzieren, daß nun in 56

Hätte man es bei der

Hauptkomponentenanalyse

belassen, hätte ihr Anteil hingegen 27,9% (=98 Fälle) betragen. 5. Kommen wir nun zu den inhaltlichen Aspekten des 4-Faktoren-Modells: stellten Faktoren stellen schiefwinkelig folgte anhand der „Muster-Matrix",

die die partiellen Faktorladungen

partiellen

zwischen einer Variablen und dem

Korrelationskoeffizienten

Die vorge-

rotierte Faktoren dar. Ihre Interpretation

Faktor, wobei die übrigen Faktoren „konstant"

er-

enthält, also die betrachteten

gehalten werden (vgl. Ausdruck

9.9).

Die vorab „theoretisch" bestimmten Faktoren fassen die Variablen, bei in der „MusterMatrix" ausgedruckten Ladungen von äp > 0 , 3 5 , setweise so zusammen, daß sich die logisch strukturierten

Sets und die statistisch konstruierten Faktoren eindeutig

chen. Die Variable V06, die logisch zur Gruppe der Zufriedenheitsvariablen gehört, wird statistisch auch eindeutig dem entsprechenden

entspreV25-V32

Faktor zugeordnet.

Eindeutigkeit

erlaubt es, sich mehr auf die Aussagen der Ergebnisse zu

als auf ihre

Interpretation.

Diese

konzentrieren,

1

V g l . J o h n s o n / W i e h e r n ( 1 9 9 2 ) S. 4 2 2 , u n d M o n i s o n ( 1 9 7 6 ) S. 3 1 7 .

2

D e r e n 1. S p a l t e e n t h ä l t als A u s g a n g s s c h ä t z u n g e n der K o m m u n a l i t ä t e n die multiplen D e t e r m i n a t i o n s k o e f f i z i e n t e n der j e w e i l i g e n V a r i a b l e n .

Die Faktorenanalyse

Ausdruck 9.9:

347

Ergebnisse einer m.l.-Schätzung der gemeinsamen Faktoren Kommunalitäten

V01 Reale Beteil: Personalentscheidunqen V02 Reale Beteil: Anschaffung Arbeitsmittel V03 Reale Beteil: Arbeitsverteilung V04 Reale Beteil: Arbeitsausfuehrung V05 Reale Beteil: ArbeitsprozessAblauf V06 Hat der Vorgesetzte ein offenes Ohr? V07 Koll.Gespraech: Einsatz Arbeitsmittel V08 Koll.Gespraech: Arbeitsverteilung V09 Koll. Gespraech: Arbeitsausfuehrung V10 Koll.Gespraech: ArbeitsprozessAblauf V11 Beteilwunsch: Personalentscheidunqen V12 Beteilwunsch: Anschaffung Arbeitsmittel V13 Beteilwunsch: Arbeitsverteilunq V14 Beteilwunsch: Arbeitsausfuehrunq V15 Beteilwunsch: ArbeitsprozessAblauf V18 Koordinations- u. Planungsfähigkeit V21 Entscheidungsfreudigkeit V22 Durchsetzunqvermoeqen V23 Menschenkenntnis V24 Fuehrungsqualitaeten V25 Zufriedenheit mit gegenw. Arb.Bedinqunq V27 Zufr: Verhaeltnis zu Vorgesetzten V28 Zufr: Sozialverhalten d Geschaeftsleitg V29 Zufr: Moeqlichk fuer eiqene Initiativen V30 Zufr: Partnerschaft! Verhalt d Manageme V31 Zufr: Aufstieqsmoeqlichkeiten V32 Betriebsklima