Multivariate Statistik: Lehr- und Handbuch der angewandten Statistik 9783486710793, 9783486582345

Diese umfassende Darstellung multivariater statistischer Methoden ist nicht nur ein Lehrbuch der Statistik im klassische

225 28 29MB

German Pages [832] Year 2006

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Multivariate Statistik: Lehr- und Handbuch der angewandten Statistik
 9783486710793, 9783486582345

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Multivariate Statistik Lehr- und Handbuch der angewandten Statistik

von

o. Prof. Dr. Joachim Härtung Fachbereich Statistik der Universität Dortmund und

Dr. Bärbel Elpelt

7., unveränderte Auflage

R. Oldenbourg Verlag München Wien

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.

© 2007 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0 oldenbourg.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere fur Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Lektorat: Wirtschafts- und Sozialwissenschaften, [email protected] Herstellung: Anna Grosser Satz: DTP-Vorlagen des Autors Coverentwurf: Kochan & Partner, München Coverausführung: Gerbert-Satz, Grasbrunn Gedruckt auf säure- und chlorfreiem Papier Gesamtherstellung: Druckhaus „Thomas Müntzer" GmbH, Bad Langensalza ISBN 3-486-58234-8 ISBN 978-3-486-58234-5

Kapitelverzeichnis

EINLEITUNG UND ÜBERBLICK

1

KAPITEL

I:

Einführung und Grundlagen

17

KAPITEL

II:

Die Regressionsanalyse

77

KAPITEL

III:

Die Korrelationsanalyse

143

KAPITEL

IV:

Multivariate Ein- und Zweistichprobenprobleme; Diskriminanzanalyse, Reduktion von Merkmalen

221

K A P I T E L V:

Aufbereitung und Auswertung qualitativer und gemischter Daten - Skalierung kategorieller Merkmale (Skalierung in Kontingenztafeln)

269

KAPITEL V I :

Die Multidimensionale Skalierung (MDS)

377

KAPITEL V I I :

Die Clusteranalyse

443

KAPITEL V I I I :

Die Faktorenanalyse

505

KAPITEL

Graphische Verfahren

593

IX:

K A P I T E L X:

Das Multivariate Lineare Modell

(Multivariate

Regressions-, Varianz-, Kovarianz- und P r o f i l analyse, Multivariate Varianzkomponentenmodelle, Präzisionsbestimmung bei Meßinstrumenten)

655

ANHANG

741 Ende

815

Inhaltsverzeichnis VORWORT

XIII

E I N L E I T U N G UND ÜBERBLICK KAPITEL

I:

EINFÜHRUNG UND GRUNDLAGEN

1 Grundlegende B e g r i f f e und elementare Datenbeschreibung 1.1 Merkmalstypen und Klassenbildung

1 17 18 18

1.2 Häufigkeiten, Summenhäufigkeiten und empirische V e r t e i l u n g s funktion

19

1.3 Empirische Lagemaße

21

1.4 Empirische Streuungsmaße

23

2 Grundlagen der Wahrscheinlichkeitsrechnung 2.1 Wahrscheinlichkeiten und bedingte Wahrscheinlichkeiten

25 26

2.2 Zufal 1 svariabl e und Verteilungen

28

2.3 Kenngrößen von Z u f a l l s v a r i a b l e n

32

3 P r i n z i p i e n des Schätzens und Testens; t - , χ 2 - und F - V e r t e i l u n g

38

4 Vektor- und Matrizenrechnung

48

5 Mehrdimensionale und m u l t i v a r i a t e Verteilungen

64

6 Daten- und Distanzmatrix

70

KAPITEL

77

II:

DIE

REGRESSIONSANALYSE

1 M u l t i p l e Regressionsanalyse für q u a n t i t a t i v e Daten 2 Das Gemischte Lineare Modell

81 118

3 Diskrete Regressionsanalyse für q u a l i t a t i v e Daten; Lineares Wahrs c h e i n l i c h k e i t s m o d e l l , P r o b i t - , Logitanalyse KAPITEL

III:

DIE

KORRELAT IONSANALYSE

1 Die K o r r e l a t i o n normal v e r t e i l t e r Merkmale 1.1 Die K o r r e l a t i o n zweier normal v e r t e i l t e r Merkmale

128 143 144 144

1.1.1 Tests und K o n f i d e n z i n t e r v a l l e f ü r ρ

153

1.1.2 Vergleich von Korrelationen mehrerer Merkmalspaare

159

1.2 Zusammenhangsanalyse mehrerer Merkmale

162

1.3 Die multiple K o r r e l a t i o n

167

1.4 Die kanonische K o r r e l a t i o n

172

1.5 Die p a r t i e l l e K o r r e l a t i o n

181

1.6 Die b i - p a r t i e l l e K o r r e l a t i o n

186

VIII

Inhaltsverzeichnis

2 Die Korrelation von nicht-normal verteilten Zufall svariabl en 2.1 Der Spearmansche Rangkorrelationskoeffizient

190 191

2.2 Der Kendall sehe Korrelationskoeffizient

199

2.3 Korrelationskoeffizienten bei ordinalen Merkmalen

201

3 Assoziationsmaße und loglineares Modell für Kontingenztafeln

206

4 Ein zusammenfassendes Beispiel

212

KAPITEL

I V : MULTIVARIATE E I N - UND ZWEISTICHPROBENPROBLEME; D I SKR I MI NANZANALYSEj REDUKTION VON MERKMALEN

1 Das Multivariate Einstichprobenproblem

221 223

1.1 Schätzen des Mittelwertvektors μ und der Kovarianzmatrix $

223

1.2 Test über den Mittelwertvektor μ bei bekannter Kovarianzmatrix

225

1.3 Test über den Mittelwertvektor μ bei unbekannter Kovarianzmatrix $

227

1.4 Ein Symmetrietest

228

2 Das Multivariate Zweistichprobenproblem

230

2.1 Mittelwertvergleich bei unverbundenen Stichproben

230

2.2 Mittelwertvergleich bei verbundenen Stichproben

232

3 Die Prüfung von Kovarianzhypothesen

234

3.1 Ein Test über die Struktur einer Kovarianzmatrix $

234

3.2 Ein Test auf Gleichheit mehrerer Kovarianzmatrizen

236

3.3 Ein simultaner Test über Mittelwertvektor und Kovarianzmatrix im Einstichprobenproblem

238

4 Die Diskriminanzanalyse ( I d e n t i f i k a t i o n von Objekten) 4.1 Der Zweigruppenfall

240 242

4.2 Der Mehrgruppenfal 1

245

4.3 Ein Beispiel

247

4.4 Ein Trennmaß und die Reduktion von Merkmalen

251

5 Ein zusammenfassendes Beispiel

258

K A P I T E L V: AUFBEREITUNG UND AUSWERTUNG QUALITATIVER UND GEMISCHTER DATEN - SKALIERUNG MERKMALE (SKALIERUNG

KATEGORIELLER

IN KONTINGENZTAFELN)

1 Skalierung ordinaler und nominaler Merkmalsausprägungen 1.1 Skalierung ordinaler Merkmalsausprägungen

269 276 277

1.2 Skalierung nominaler Merkmalsausprägungen in zweidimensionalen Kontingenztafeln - kategorielle Skalierung, Lancaster - Skalierung

282

Inhaltsverzeichnis

IX

2 Multivariate Analyseverfahren in skalierten Kontingenztafeln mit einer Kriteriumsvariablen (Calibration Patterns)

290

2.1 Beste Diskriminatoren zwischen den Stufen der Kriteriumsvariablen 2.2 Methoden der Güteprüfung einer Skalierung

296 300

2.2.1 Die Güteprüfung mittels Diskriminanzfunktionen

301

2.2.2 Die Güteprüfung mittels Mahalanobisdistanzen

304

2.3 Die Klassifizierung neuer Objekte

307

2.4 Gewinnung einer Daten- und Distanzmatrix zur weiteren multivariaten Analyse

309

3 Ein Beispiel aus der Marktforschung zur Analyse multivariater kategorieller Daten 4 Skalierung kategorieller Merkmalsausprägungen von ρ Merkmalen

313 322

4.1 Bestimmung der empirischen Korrelationsmatrix für ρ kategorielle Merkmale

323

4.2 Das Kriterium der maximalen Maximum-Exzentrizität und der minimalen Determinante

331

4.3 Das Kriterium der maximalen multiplen Korrelation

334

4.4 Das Kriterium der maximalen kanonischen Korrelation

347

5 Skalierung kategorieller Merkmalsausprägungen bei gemischten Datentypen

350

6 Korrespondenzanalyse, Guttmansche Skalierung und die ALS-Verfahren ... 369

KAPITEL VI: DIE MULTIDIMENSIONAL^ SKALIERUNG (MDS)

377

1 Nonlinear Mapping

384

2 Die Haupt-Koordinaten-Methode

393

3 Das Verfahren von Kruskal

405

4 Die Unfolding-Technik

420

4.1 Die Methode der Dreiecksanalyse

421

4.2 Der Goode-Phil1ips-Algorithmus

426

KAPITEL VII: DIE CLUSTERANALYSE

443

1 Klassifikationstypen

447

2 ßewertungskriterien für Klassifikationen 2.1 Maße für die Homogenität einer Klasse

454 454

2.2 Maße für die Heterogenität zwischen den Klassen

456

2.3 Maße für die Güte einer Klassifikation

458

X

Inhaltsverzeichnis

3 Konstruktionsverfahren für Überdeckungen

460

3.1 Ein exhaustives Verfahren für kleine Objektmengen

461

3.2 Ein iteratives Konstruktionsverfahren

463

4 Konstruktionsverfahren für Partitionen

465

4.1 Ein iteratives Verfahren

465

4.2 Ein rekursives Verfahren

469

5 Ein Verfahren zur Konstruktion einer Quasihierarchie

473

6 Ein Verfahren zur Konstruktion einer Hierarchie

478

7 Klassenzuordnung neuer Objekte - Diskrimination, Identifikation

489

8 Ein zusammenfassendes Beispiel

494

KAPITEL VIII: DIE FAKTORENANALYSE

505

1 Die Bestimmung der Faktorladungen

518

1.1 Die Maximum-Likelihood-Methode und ein Test über die Anzahl der Faktoren 1.2 Die kanonische Faktorenanalyse

519 525

1.3 Die Hauptkomponenten- und die Hauptfaktorenanalyse

527

1.4 Die Zentroidmethode

534

1.5 Die Jöreskog-Methode

541

2 Die Rotation der Faktoren 2.1 Die orthogonale Rotation der Faktoren

546 548

2.1.1 Die Varimax-Methode

551

2.1.2 Die Quartimax-Methode

559

2.2 Schiefwinkel ige Rotation - Die Methode der Primärfaktoren

561

3 Schätzen von Faktorenwerten

568

4 Ein zusammenfassendes Beispiel

576

KAPITEL IX: GRAPHISCHE VERFAHREN

593

1 Gemeinsame Repräsentation von Objekten und (oder) Merkmalen

595

1.1 Graphische Darstellung ein- und zweidimensionaler Daten

596

1.1.1 Stern and Leaves und Box-Plot

597

1.1.2 Graphische Darstellung zweidimensionaler Daten am Beispiel eines Produkt-Markt-Portfolios

600

1.2 Die Probability-Plotting-Technik: Oberprüfung auf multivariate Normal Verteilung und multivariate Ausreißer (Q-Q-Plot)

602

1.3 Gleichzeitige Repräsentation von Merkmalen und Objekten: Der Bi-Plot

605

1.4 Weitere Graphische Repräsentationsformen für Objekte und Merkmale

608

Inhaltsverzeichnis

2 Repräsentation 2.1

einzelner Objekte oder Merkmale

E i n f a c h e D a r s t e l l u n g s f o r m e n bei

XI

610

Repräsentation

von

Merkmals-

werten durch Strecken

612

2.1.1

613

Profile, Streifen

2.1.2 Polygonzüge

613

2.1.3 Sterne

614

Sonnen

614

2.1.5 Glyphs

2.1.4

616

2.2 Darstellung

von O b j e k t e n v e r m i t t e l s D i a m a n t e n

617

2.3 D a r s t e l l u n g

von O b j e k t e n m i t t e l s G e s i c h t e r n

618

2.4 D a r s t e l l u n g

von Objekten durch trigonometrische

Funktionen

622

2.4.1 A n d r e w s - P l o t s

622

2.4.2 Blumen

623

2.5 Darstellung

von O b j e k t e n u n t e r B e r ü c k s i c h t i g u n g

der

Merkmals-

ähnlichkeiten

626

2.5.1

628

Quader

2.5.2 Bäume

629

2.5.3 Burgen 2.6 D a r s t e l l u n g

633 von Objekten unter Berücksichtigung

nationsgüte der Merkmale: 2.7 Darstellung

3 Bilanzkennzahlen Ein B e i s p i e l zeitlicher

Diskrimi-

der

Merkmals-

Facetten

636

von Objekten unter Berücksichtigung

korrelationen:

der

Bi-Plot-Sonnen

der chemischen

638

Industrie zwischen

für die Anwendung g r a p h i s c h e r

1965 u n d

Verfahren

zur

1980:

Darstellung

Entwicklungen

639

KAPITEL X: DAS MULTIVARIATE LINEARE MODELL

(MULTIVARIATE

REGRESS IONS-, VARIANZ-, KOVARIANZ- UND PROFILANALYSE, MULTIVARIATE

VARIANZKOMPONENTENMODELLE,

PRÄZISIONSBESTIMMUNG BEI MEßINSTRUMENTEN) 1 Das M u l t i v a r i a t e 1.1

L i n e a r e Modell

mit festen

Effekten

(Modell

655 I)

Das a l l g e m e i n e r e s t r i n g i e r t e M u l t i v a r i a t e L i n e a r e Modell

1.2 T e s t v e r f a h r e n

im a l l g e m e i n e n

restringierten

Multivariaten

L i n e a r e n Modell 1.3 M u l t i v a r i a t e

664

Regressions- und Kovarianzanalyse

1.4 E i n i g e M o d e l l e d e r M u l t i v a r i a t e n V a r i a n z a n a l y s e festen 1.4.1

667 (MANOVA)

mit

Effekten

692

Die e i n f a k t o r i e l l e m u l t i v a r i a t e

Varianzanalyse

(Vergleich

von r u n a b h ä n g i g e n S t i c h p r o b e n ) 1.4.2 Die m u l t i v a r i a t e Wechselwirkungen

656 659

zweifache Kreuzklassifikation

693 mit 700

XII

Inhaltsverzeichnis

1.4.3 Die multivariate zweifache Kreuzklassifikation mit einer Beobachtung pro Zelle (Das einfache multivariate Blockexperiment)

705

1.4.4 Die multivariate zweifach hierarchische K l a s s i f i k a t i o n

707

1.5 Die Profilanalyse zur Untersuchung von Wachstums- und Verlaufskurven im Multivariaten Linearen Modell mit festen Effekten

710

1.5.1 Normal verteilungsverfahren

713

1.5.2 Ein nichtparametrisches Verfahren

717

2 Das Multivariate Lineare Modell mit zufälligen Effekten (MANOVA Modelle I I , Multivariate Varianzkomponentenmodelle)

719

2.1 Die balancierte multivariate Einfachklassifikation mit zufälligen Effekten

723

2.2 Das balancierte zweifach hierarchische Modell mit zufälligen Effekten

725

2.3 Das balancierte dreifach hierarchische Modell mit zufälligen Effekten

727

2.4 Die balancierte zweifache Kreuzklassifikation mit zufälligen Effekten

731

2.5 Ein Modell zur Präzisionsbestimmung von Meßinstrumenten bei zerstörenden Prüfungen

736

ANHANG

741

1 Tabellenanhang

741

- Verteilungsfunktion Φ(χ) der Standardnormal Verteilung N(0;1) [Tab. 1]

742

- Quantile u^ der Standardnormal Verteilung N(0;1) [Tab.2]

743

- Quantile t nn .

744

»Y

der t-Verteilung [Tab.3]

- Quantile χ* der x 2 -Verteilung [Tab.4] η ,γ - Quantile F der F-Verteilung [Tab.5]

747

- Nomogramme von D.L. Heck zum Roy-Test [Chart I b i s Chart X I I ]

754

745

ni ,i\2 ,y

2 Erläuterungen zu den multivariaten Testverfahren

756

2.1 Zum Roy-Test

766

2.2 Zum Wilks-Test

767

2.3 Zum Hotel! ing-Lawley-Test

768

2.4 Zum P i l l a i - B a r t l e t t - T e s t

769

3 Griechisches Alphabet

770

4 Literaturverzeichnis

771

5 Stichwortverzeichnis

785

6 Symbolverzeichnis

807 Ende

815

Vorwort zur 6. Auflage Nachdem auch die 5. Auflage dieses Buches recht schnell vergriffen war, liegt hier nun bereits die 6. Auflage vor. Da der Text in den Vorauflagen überarbeitet wurde, konnte er hier weitgehend unverändert bleiben. Auch weiterhin sind wir für Anregungen der Leser dankbar. Joachim Härtung Bärbel Elpelt

Aus dem Vorwort zur 1. Auflage Die Statistik und insbesondere die Multivariate Statistik wird überall dort eingesetzt, wo es gilt, komplexes Datenmaterial auszuwerten. In allen Bereichen der Wissenschaft aber auch in Wirtschaft, Handel, Technik und Administration werden im Zuge der fortschreitenden Technisierung vielfältige Informationen erhoben, gemessen, beobachtet und registriert, aus denen es gilt, relevante Schlüsse zu ziehen.

Dieses Buch, in dem die wohl wichtigsten Verfahren der Multivariaten Statistik dargestellt werden, wendet sich sowohl an den im Beruf stehenden Praktiker als auch an Wissenschaftler und Studenten aller Fachrichtungen. Es ist somit nicht nur ein Lehrbuch sondern vornehmlich auch ein praktisches Handbuch und Nachschlagewerk für jeden, der mit der Auswertung umfangreicher Daten konfrontiert wird.

Um diesem Anspruch gerecht werden zu können, werden die einzelnen Verfahren bzw. die mit ihnen beantwortbaren Fragestellungen anhand von Beispielen aus den verschiedensten Anwendungsgebieten erläutert. An die Darstellung der Methoden respektive ihrer Voraussetzungen und ihrer Durchführung schließt sich stets ein konkretes, nachvollziehbares Zahlenbeispiel an; bis auf ganz wenige Ausnahmen wurden die zahlreichen Beispiele ausschließlich mit Taschenrechnern (TI 51111 und HP 15C) durchgerechnet und alle Zwischenschritte aufgeführt, so daß man einen tieferen Einblick in die Wirkungsweisen der Verfahren erlangt.

Man kann sich fragen, wozu eine solche Darstellung im Zeitalter der Fertigprogramme überhaupt notwendig ist. Wir sind der Meinung, daß eine Anwendung von Fertigprogrammen nur dann sinnvoll erfolgen kann, wenn die implementierten Verfahren zumindest in ihren Grundzügen dem Benutzer bekannt sind.

XIV

Vorwort

Insbesondere ist nur dann eine sachgerechte Interpretation der Ergebnisse möglich.

Das Buch ist so weit wie möglich derart gehalten, daß es eigenständig

und

ohne große mathematische Vorkenntnisse gelesen und verstanden werden kann. Die unbedingt benötigten Grundlagen aus Statistik, Wahrscheinlichkeitsrechnung und Matrizenrechnung sind daher im ersten Kapitel des Buches noch einmal kurz dargestellt. Abgesehen von der erforderlichen Kenntnis der dort eingeführten Grundbegriffe können die einzelnen Kapitel weitgehend unabhängig voneinander gelesen und erarbeitet werden, was den Handbuchcharakter unterstreicht.

An dieser Stelle möchten wir nachstehenden Personen für ihre Unterstützung bei der Erstellung des Buches unseren Dank aussprechen. Frau Dipl.-Stat. BaAbaAa Htine. erstellte das gesamte Typoskript einschließlich der Tuschezeichnungen und war uns durch ihr sorgfältiges Mitlesen sowie das Nachrechnen einiger Beispiele sehr behilflich.

Das Programm zur Erstellung der Flury-Riedwyl-Faces

in Kapitel IX wurde uns

dankenswerter Weise von Herrn Dr. Bernhard Flury und Herrn Prof. Dr. Hans Riedwyl, Universität Bern, zur Verfügung gestellt und konnte unter Verwendung des Graphiksystems Disspla des Hochschulrechenzentrums der Universität Dortmund angewandt werden. In diesem Zusammenhang möchten wir auch die Herren cand. stat. Manfred Jutzi und cand. stat. Thomas Nawrath erwähnen, die sich bei der Implementierung und der Erstellung einiger ComputerAbbildungen, von denen 15 im Text aufgenommen wurden, einsetzten.

Mit Herrn Prof. Dr. Rolf E. Bargmann, University of Georgia, haben wir während seiner von der Deutschen Forschungsgemeinschaft unterstützten Gastprofessur im Sommersemester 1980 an der Universität Dortmund aufschlußreiche Gespräche geführt. Herr Priv.-Doz. Dr. Peter Pflaumer, z.Zt. Universität Dortmund, hat durch anregende Diskussionen während der Entstehungszeit des Buches dessen Ausrichtung

beeinflußt. Joachim Härtung Bärbel Elpelt

Einleitung und Überblick

In v i e l e n Bereichen der WiA&en&cha.$t, z . B .

in den W i r t s c h a f t s - und S o z i a l -

wissenschaften, den Ingenieurwissenschaften, der P s y c h o l o g i e , der Pädagogik, der Umweltforschung, den Agrarwissenschaften, der B i o l o g i e , der Medizin, der Chemie, der A r c h ä o l o g i e , der Astronomie, der Physik, der Geographie, der Geodäsie, der Geologie oder der I n f o r m a t i k , s p i e l e n Auswertung und Int e r p r e t a t i o n großer Datenmengen eine entscheidende R o l l e ; i n zunehmenden Maße der F a l l

i s t dies aber auch in W-crf-icfaxfi, Handel,

XdminiA&iaXion

und

Technik.

Die S t a t i s t i k

und insbesondere d i e Multivan-iaXz

Statistik

und Verfahren zur Verfügung, d i e der A u f b e r e i t u n g ,

s t e l l t Methoden

t a b e l l a r i s c h e n und gra-

phischen Repräsentation und Aufwertung komplexer Datensituationen dienen. Zum B e i s p i e l

ermöglichen gutpfr-oic/ie Repsiäi&n£ation4ioAjnen

wie d i e in A b b . l

abgebildeten F l u r y - Riedwyl - Faces, K l e i n e r - Hartigan - Trees und B i p l o t Suns

Flury-Riedwyl-Face

Kleiner- Hartigan-Tree

Biplot-Sun

A b b . l : Drei B e i s p i e l e zur Graphischen Repräsentation komplexer Datensituationen n i c h t nur einen s c h n e l l e n und klaren ü b e r b l i c k über komplexe Strukturen sondern erlauben auch eine d i r e k t e Analyse und I n t e r p r e t a t i o n der Daten;

2

Einleitung und Überblick

da graphsiche Repräsentationen von Datenraengen oftmals e r s t Ergebnis anderer multivariater Verfahren sind bzw. andere Verfahren benutzt werden, um graphische Darstellungen zu gewinnen, werden wir uns e r s t im neunten Kapitel ausführlich mit ihnen beschäftigen. Die Gewinnung

von Voten,

die der s t a t i s t i s c h e n Analyse natürlich stets vor-

aus geht, e r f o l g t in einem Expe/Ument g e n und M e i n u n g e n , die an Objekten,

oder einer Erhebung

durch B e o b a c h t u n vorgenormien wer-

UnteAiuchangielnhextm

den. Objekte können in diesem Zusammenhang etwa Firmen, Werkstücke, Personen, T i e r e , Länder e t c . sein. Beobachtet bzw. gemessen werden dann an den Objekten die Ausprägungen

verschiedener interessierender MerknaZe.

Bei Per-

sonen können etwa die Ausprägungen von Merkmalen wie Größe, Gewicht, Famil i e n s t a n d , A l t e r , Blutdruck, Beruf, Parteizugehörigkeit i n t e r e s s i e r e n ; bei Firmen sind z . B . Bilanzkennzahlen wie Kapital Umschlag,

Eigenkapitalanteil,

dynamischer Verschuldungsgrad und L i q u i d i t ä t wichtig für die Beurteilung ihrer Kreditwürdigkeit; bei PKW's sind Hubraum, Leistung, Höchstgeschwindigkeit, Preis,

Reparaturanfäl1igkeit,

Kraftstoffverbrauch wesentlich zum

Vergleich verschiedener Typen; Länder lassen sich b z g l . ihrer Einwohnerdichte, ihrer F e r t i l i t ä t s r a t e ,

ihrem Altersaufbau, ihrem I n d u s t r i a l i s i e -

rungsgrad, ihrem Prokopfeinkommen, ihrer landwirtschaftlichen Nutzfläche usw. untersuchen.

In einem Experiment oder einer Erhebung können nun oftmals nicht a l l e Objekte aus einer interessierenden Grundge^amthexX

sondern nur einige s t i c h -

probenartig, z u f ä l l i g ausgewählte Objekte berücksichtigt werden.

Beispiels-

weise können nicht a l l e Werkstücke aus einer Produktion überprüft werden (insbesondere bei zerstörenden Prüfungen) und in einer Meinungsumfrage zur nächsten Wahl können nicht a l l e Wähler befragt werden. Man begnügt sich dann mit einer möglichst repräsentativen Stichprobe

von Objekten aus der

Grundgesamtheit, a n a l y s i e r t diese Stichprobe und möchte dann auch ausgehend von dieser Stichprobe "gültige" Rückschlüsse auf die

interessierenden

Merkmale in der Gesamtheit a l l e r Objekte ziehen.

Bzgl. der Grundlagen von "vernünftigen" Experimenten und Erhebungen sowie der geschichtlichen und philosophischen Begründung des Einsatzes

statisti-

scher Analyseverfahren sei hier auf die ausführliche Einleitung in Härtung et a l .

(1982) hingewiesen.

Multivariate

itatistliche

VeA&ahren

sind nun dadurch ausgezeichnet, daß

sie die gemeinsame, g l e i c h z e i t i g e Analyse mehrerer Merkmale bzw. deren Ausprägungen erlaubt. Werden an Objekten (aus einer Grundgesamtheit) also die

3

Einleitung und Überblick

Ausprägungen von mehreren Merkmalen beobachtet, so können alle Beobachtungsdaten mit Hilfe der Multivariaten Statistik gemeinsam ausgewertet werden. Der Vorteil gegenüber einzelnen, univariaten Analysen für jedes Merkmal

be-

steht darin, daß auf diese Art die Abhängigkeiten zwischen den beobachteten Merkmalen berücksichtigt werden.

Wir werden uns in den Kapiteln I bis X dieses Buches mit den verschiedenen multivariaten Verfahren beschäftigen, wobei insbesondere auch ihre konkrete Anwendung auf Beobachtungsdaten im Vordergrund steht, und die benötigten Grundlagen aus Statistik und Mathematik bereitstellen. Hier soll

zunächst

ein kurzer Oberblick über die behandelten Methoden gegeben werden, wobei die jeweils zu beantwortenden Fragestellungen - also das inhaltliche Ziel der Verfahren - im Vordergrund stehen sollen. Der detaillierter an den Voraussetzungen und Möglichkeiten multivariater statistischer

Verfahren

interessierte Leser sei auf die ausführlichen E - c n l i ^ X u n g i n d&fi Kapitel

bzw.

vzuchizdiimi

Im Kapitel

AbichniXte

hingewiesen, die auch zahVvLichz

A nuiendung ig ebneten

e-inzeln&n

8 e x ^ p l e Z z aus den

enthalten.

I werden wir zunächst in knapper Form die wesentlichen Grund-

lagen der Multivariaten Statistik behandeln. Wir beschäftigen uns mit der Beschreibung von Datenmaterial

durch Kenngrößen (deskriptive

Statistik),

mit Elementen der Wahrscheinlichkeitsrechnung, als da sind Wahrscheinlichkeiten, bedingte Wahrscheinlichkeiten, Zufallsvariablen, Verteilungen, Verteilungsfunktionen, Dichten und Kenngrößen von Verteilungen,und mit der induktiven, schließenden Statistik, d.h. mit den Prinzipien von Punkt- und Bereichsschätzungen für unbekannte Parameter einer Verteilung und mit statistischen Tests über solche Parameter; dabei werden insbesondere die Normal- und die Binomialverteilung berücksichtigt. Weiterhin werden wir uns mit der Vektor- und Matrizenrechnung auseinandersetzen, die ein wesentliches Hilfsmittel

der Multivariaten Statistik

ist. Sodann werden mehrdimen-

sionale und multivariate Normal verteilungen eingeführt, die bei vielen statistischen Verfahren eine große Rolle spielen. Abschließend beschäftigen wir uns noch mit der Gewinnung von Daten- und Distanzmatrix;

Datenmatrizen

enthalten die an Objekten beobachteten Ausprägungen mehrerer Merkmale und Distanzmatrizen beschreiben die Ähnlichkeiten von Objekten.

Das Kapitel

II ist der RigKeAi-iomanatyie.

gewidmet; die dort beschriebenen

Vorgehensweisen sind zwar selbst nicht im eigentlichen Sinne multivariat, jedoch ist ihre Bedeutung in den Anwendungen und für andere multivariate Verfahren so groß, daß wir sie nicht vernachlässigen wollten. Die Regressionsanalyse untersucht den iunktionatin

Zuiammenhang

zwischen einem ein-

4

Einleitung und Überblick

zelnen Merkmal, das an Objekten beobachtet w i r d , und e i n e r R e i h e r w e i t e r e r von den Objekten g e t r a g e n e r Merkmale. Wir b e s c h ä f t i g e n uns mit der S p e z i f i k a t i o n der f u n k t i o n a l e n Beziehung und mit Untersuchungen über d i e

Ein-

den. Μexkmate: Welche der Merkmale s i n d w e s e n t l i c h zur E r k l ä r u n g des

Hiiiit

beobachteten Merkmals, welche der Merkmale können bei B e r ü c k s i c h t i g u n g

der

übrigen v e r n a c h l ä s s i g t werden? Ein w e i t e r e s Z i e l der R e g r e s s i o n s a n a l y s e n a t ü r l i c h d i e Pnognoie

BeiAp-iel:

ist

z u k ü n f t i g e r Werte.

Bei der A n g e b o t s e r s t e l l u n g fUr Produkte i s t d i e K a l k u l a t i o n der

P r o d u k t i o n s k o s t e n von entscheidender Bedeutung. Diese Kosten hängen von verschiedenen E i n f l u ß g r ö ß e n

wie etwa den Rohmaterial k o s t e n , der zur Pro-

d u k t i o n benötigten A r b e i t s z e i t , der zu produzierenden Menge e t c . ab. Bestimmt man aufgrund der bekannten P r o d u k t i o n s k o s t e n f r ü h e r e r Waren m i t t e l s R e g r e s s i o n s a n a l y s e den f u n k t i o n a l e n Zusammenhang zwischen sten und solchen E i n f l u ß g r ö ß e n , so l a s s e n s i c h d i e d i e

Produktionsko-

Produktionskosten

w e s e n t l i c h bestimmenden E i n f l u ß g r ö ß e n e r m i t t e l n und d i e

Produktionskosten

f ü r e i n neues Produkt p r o g n o s t i z i e r e n . Bei der R e g r e s s i o n s a n a l y s e werden nun verschiedene F ä l l e u n t e r s c h i e d e n . wie im obigen B e i s p i e l

es b e l i e b i g e Werte in einem B e r e i c h annehmen, so s p r i c h t man von tiven

quantita-

R e g n e n i o n A a n a l y i e . Werden dann die E i n f l ü s s e der ü b r i g e n Merkmale

durch f e s t e Parameter b e s c h r i e b e n , so l a s s e n s i c h d i e Methoden der plen

multi-

anwenden; s i n d hingegen zumindest e i n i g e der E i n -

RegieMionianalyie

f l ü s s e a l s z u f ä l l i g anzunehmen, so kommt man zu Gemischten ten.

Line.an.zn

Model-

Im F a l l e e i n e s q u a l i t a t i v e n , beobachteten Merkmals, d . h . e i n e s

kreten Merkmals mit nur e i n i g e n möglichen Ausprägungen, kommt d i e Regnebiionianalyie lyie)

Ist

das i n t e r e s s i e r e n d e Merkmal q u a n t i t a t i v , d . h . kann

(Linea/iei

Wahmcheinliahkeitimodell,

Logit-,

disdi&kneXe

Pnobitana-

zur Anwendung.

Wird in der R e g r e s s i o n s a n a l y s e e i n f u n k t i o n a l e r Zusammenhang zwischen v e r schiedenen Merkmalen h e r g e s t e l l t , so dient d i e in K a p i t e l

III

dargestellte

der Bestimmung e i n e r Maßzahl f ü r d i e Stänke

KonnetatlonAanalyie

eines

Zu-

Aa.mmenh.angi. H i e r werden s o l c h e Korrelationsmaße f ü r verschiedene Merkmalstypen v o r g e s t e l l t . Dabei kann der Zusammenhang zwischen zwei Merkmalen (einlache

Komelation),

Merkmale {mxltiple

der zwischen einem Merkmal und e i n e r Gruppe anderer

Konnelation)

Merkmalen ( k a n o n i s c h e Konnelation)

oder auch der zwischen zwei Gruppen von von I n t e r e s s e s e i n . M i t u n t e r i s t

eine

K o r r e l a t i o n z . B . zwischen zwei Merkmalen nur dadurch b e d i n g t , daß beide Merkmale mit w e i t e r e n , noch g a r n i c h t b e r ü c k s i c h t i g t e n Merkmalen s i n d ; der A u s s c h a l t u n g s o l c h e r E i n f l ü s s e dienen d i e pantielle

und

korreliert bi-pan-

Einleitung und Überblick

tiette

KofiAeiatlomanalyie.

5'

Neben Maßen für die Stärke eines Zusammenhangs

werden in diesem Kapitel z.B. auch s t a t i s t i s c h e Tests angegeben, mit denen s i c h etwa überprüfen l ä ß t , ob solche Zusammenhänge auch s i g n i f i k a n t

vor-

handen s i n d . B e s p i e l : Um die Eignung eines Bewerbers f ü r eine bestimmte P o s i t i o n zu prüfen, werden oftmals Eignungstests durchgeführt. Solche Tests müssen nat ü r l i c h so g e s t a l t e t s e i n , daß s i e die t a t s ä c h l i c h e Eignung eines· Bewerbers möglichst gut widerspiegeln. Aufgrund der Testergebnisse f r ü h e r e r , b e r e i t s im Betrieb arbeitender Personen, deren t a t s ä c h l i c h e Eignung s i c h inzwischen erwiesen hat, l ä ß t s i c h mit H i l f e der K o r r e l a t i o n s a n a l y s e die Stärke des Zusammenhangs zwischen Test und t a t s ä c h l i c h e r Eignung ermitteln. Werden an jeweils einer Reihe von Objekten aus r verschiedenen, v e r g l e i c h baren Grundgesamtheiten (Bewohner verschiedener Länder, Betriebe aus verschiedenen Branchen oder Regionen, Tiere oder Pflanzen g l e i c h e r Gattung aber verschiedener A r t , Produkte aus verschiedenen Produktionslosen ρ Merkmale beobachtet, so s p r i c h t man vom multivaA.Xaten Im Kapitel

Stichpiobenpioblem. tivcuujxXm

Ein-

und

IV

beschäftigen wir uns zunächst mit

hMeJj>tJjihpn.obenpKob

lernen

usw.)

(p-variaten)

rmul-

im F a l l e g e m e i n s a m i n d e r

je-

weiligen Grundgesamtheit normal v e r t e i l t e r Merkmale. Von I n t e r e s s e sind dann die Schätzung T e i i i über

den Vcwxmeteh.

dieie

Parameter.

in den ein bzw. zwei Grundgesamtheiten sowie Im E i n s t i c h p r o b e n f a l l überprüft man, ob die

Parameter s i g n i f i k a n t von vorgegebenen Werten verschieden sind,und im F a l l e zweier Stichproben testet man die Gleichheit der Parameter in beiden Grundgesamtheiten. Für den Fall

von r>2

Stichproben

behandeln wir im Kapitel

IV

zudem den Vergleich der Streuungsmatrizen in den r zugrundeliegenden Grundgesamtheiten sowie die Zuordnung "neuer" Objekte zu einer der Grundgesamtheiten; der M i t t e l w e r t v e r g l e i c h im r - Stichprobenproblem wird im Zusammenhang mit der multivariaten Varianzanalyse e r s t im Kapitel X behandelt. Die Zuordnung "neuer" Objekte, an denen die ρ Merkmale beobachtet werden, zu einer von r Grundgesamtheiten nennt man auch O-Uktiminatlon ordnungivorichriften uahZ

oder

Identifi-

Wir werden uns im Rahmen der Diskriminanzanalyse n i c h t nur mit Zu-

kation.

weienttccher

Beispiel:

£ÜA "neue." Objekte Merkmale

für

sondern vielmehr auch mit der Ααό-

die Diskrimination

beschäftigen.

In einem metal 1 verarbeitenden Betrieb werden Werkstücke aus ver-

schiedenen Legierungen g e f e r t i g t . Beobachtet man an einigen Werkstücken, von denen man weiß, zu welchem von zwei unterschiedlichen Gefügen s i e gehören, nun Merkmale wie F e s t i g k e i t , s p e z i f i s c h e s Gewicht usw., so kann a u f grund der Verfahren für m u l t i v a r i a t e Zweistichprobenprobleme überprüft wer-

6

Einleitung und Überblick

den, ob Unterschiede bzgl. Mittelwert und Streuung der Merkmale zwischen den Gefügen bestehen. Basierend auf den Zuordnungsvorschriften der Diskriminanzanalyse kann aufgrund der Beobachtungen der Merkmale an weiteren Werkstücken überprüft werden, welchem der Gefüge diese Werkstücke zuzuordnen sind. Außerdem können die für Unterschiede zwischen den Gefügen wesentlich verantwortlichen Merkmale bestimmt werden. Die nicht oder kaum zwischen den Gefügen trennenden Merkmale werden bei der Zuordnung "neuer" Werkstücke dann oft gar nicht mehr berücksichtigt. Viele (multivariate) statistische Verfahren lassen sich nur anwenden, wenn die an einer Reihe von Objekten beobachteten Merkmale quantitativer Natur sind. Sind die Ausprägungen der interessierenden Merkmale (z.T.) qualitativer Art (z.B. Farben, Bewertungen, Nationalitäten, Berufe usw.) so müssen entweder qualitative Verfahren angewandt werden oder die Daten müssen für die statistische Analyse zunächst aufbereitet werden. Ein universelles Instrumentarium stellt hier die SkcJU.znu.Yi3 quailtaXlvzn. gzn

MzKkmaliauApn.ägun-

dar, die im Kapitel V ausführlich behandelt wird; der Vorteil einer

derartigen VaXznauibznexXung

gegenüber direkten Verfahren für qualitative

Merkmale liegt insbesondere auch darin, daß die Anforderungen an die Datenbasis sehr viel geringer sind. Skalierungsverfahren ordnen den qualitativen, kategoriellen Merkmalsausprägungen Zahlen derart zu, daß die skalierten Daten dem vorgesehenen Auswertungsverfahren möglichst gut angepaßt sind. Wir beschäftigen uns zunächst mit der SkaJLlzMing

zlnu

zinzzlnzn

Mznk-

mxli , dessen qualitative Ausprägungen einer natürlichen Rangfolge unterliegen (moLKginatz tcLtivox

NonmatLilzAung),

Mznkmx&z,

und dann mit der SkaLLznung

ζMzLzn

quaLL-

wobei die Ausprägungen des einen Merkmals derart skaliert

werden, daß sie das andere Merkmal möglichst gut erklären, und umgekehrt, d.h. die Korrelation der skalierten Merkmale wird maximiert. Ausgehend von diesen Skalierungsverfahren werden einige spezielle statistische Verfahren wie z.B. die Güteprüfung solcher Skalierungen, die Diskrimination neuer Objekte zu den Ausprägungen eines der beiden Merkmale den mzh>1 ati

zuizi

quaJUtcutivz

MzAkmalz

usw. behandelt. Wer-

beobachtet, so empfiehlt es sich,

sie alle gemeinsam zu skalieren; ähnlich wie im Fall zweier Merkmale kann die gemeinsame Skalierung derart erfolgen, daß der Gesamtzusammenhang zwischen allen skalierten Merkmalen möglichst groß ist. Oftmals ist es nun so, daß eines oder mehrere der beobachteten Merkmale eine Sonderstellung einnehmen: Wie bei der Regressionsanalyse möchte man diese ausgezeichneten Merkmale, die auch KnJXe.nMimivafUa.blzn

genannt werden, möglichst gut durch

die übrigen Merkmale erklären. In diesem Fall kann eine Skalierung nach dem Kriterium der maximalen multiplen bzw. kanonischen Korrelation erfolgen. Schließlich werden wir im Kapitel V noch Skalierungsverfahren behandeln,

7

Einleitung und Überblick

d i e gemeinsam mit den q u a l i t a t i v e n Merkmalen beobachtete, Merkmale {gmlichtz

Oatmtypzn)

quantitative

berücksichtigen.

ΒίΛΔρ-ίίΖ: ( a ) Im A b s c h n i t t 3 des K a p i t e l s V werden w i r uns a u s f ü h r l i c h mit einem Problem der Produktforschung b e s c h ä f t i g e n . Von der "Consumers Union of the United S t a t e s " wurde eine Befragung von 391 A u t o b e s i t z e r n über d i e Reparat u r a n f ä l l i g k e i t v e r s c h i e d e n e r T e i l e i h r e r PKW's d u r c h g e f ü h r t , um U n t e r s c h i e de zwischen den verschiedenen PKW - H e r s t e l l e r n aufzudecken. Wir b e r ü c k s i c h t i g e n bei der S k a l i e r u n g der insgesamt 14 R e p a r a t u r a n f ä l l i g k e i t s m e r k m a l e ( z . B . Bremsen, A u t o m a t i k g e t r i e b e , innere und äußere K a r o s s e r i e , H e i z u n g s und Bei Leitungssystem) die K r i t e r i u m s v a r i a b l e

" H e r s t e l l e r " auf 5 Stufen

(American M o t o r s , C h r y s l e r , F o r d , General M o t o r s , ( b z g l . des US - Marktes) a u s l ä n d i s c h e H e r s t e l l e r ) , überprüfen d i e Güte der S k a l i e r u n g ,

bestimmen

d i e sieben f ü r d i e Unterschiede zwischen den H e r s t e l l e r n w e s e n t l i c h

ver-

a n t w o r t l i c h e n Merkmale usw. Ausgehend von den sieben w e s e n t l i c h e n Merkmalen wird dann eine Datenmatrix und eine D i s t a n z m a t r i x f ü r d i e f ü n f Hers t e l l e r e r s t e l l t ; d i e Datenmatrix e n t h ä l t m i t t l e r e Skalenwerte der sieben R e p a r a t u r a n f ä l l i g k e i t s m e r k m a l e bei jedem H e r s t e l l e r und die

Distanzmatrix

b e s c h r e i b t b a s i e r e n d auf diesen m i t t l e r e n Skalenwerten d i e Ä h n l i c h k e i t e n der H e r s t e l l e r

zueinander.

(b) Um zu einem optimalen E i n s a t z von Werbung zu g e l a n g e n , werden bei 10 Produkten d i e Werbekosten, d i e A r t der Werbung ( a g g r e s s i v , erlebnisweckend)

einschmeichelnd,

sowie der d a r a u f h i n zu verzeichnende Gewinn und der Ge-

s c h ä f t s t y p mit r e l a t i v höchstem Absatz (Kaufhaus, Supermarkt,

Kleingeschäft)

erhoben. S k a l i e r t man bei diesen gemischt q u a l i t a t i v e n und q u a n t i t a t i v e n Beobachtungsdaten die Merkmale Werbeart und G e s c h ä f t s t y p mit r e l a t i v stem A b s a t z , so l a s s e n s i c h h i e r z u die Methoden des M u l t i v a r i a t e n

höch-

Linearen

M o d e l l s , das wir i n Kapitel X behandeln, e i n s e t z e n . N a t ü r l i c h wird man bei der S k a l i e r u n g so vorgehen w o l l e n , daß aufgrund der Merkmale Werbeetat und Werbeart dann m ö g l i c h s t gut Gewinn und G e s c h ä f t s t y p mit r e l a t i v

höchstem

Absatz f ü r "neue" Produkte p r o g n o s t i z i e r t werden können.

Einen g ä n z l i c h anderen Zweck a l s die in Kapitel V d a r g e s t e l l t e von Ausprägungen q u a l i t a t i v e r Merkmale v e r f o l g t d i e sogenannte s ton ale

SkatieAung

Skalierung Mu&tidimzn-

(MPS), die wir im Kapitel VI behandeln. Ausgehend von

Ä h n l i c h k e i t s i n f o r m a t i o n e n über eine Reihe i n t e r e s s i e r e n d e r Objekte wird bei der M u l t i d i m e n s i o n a l e n S k a l i e r u n g eine (q - dimensionale)

S k a l a bestimmt,

auf der d i e Objekte d a r s t e l l b a r s i n d ; d.h. zu jedem der Objekte wird ein q - dimensionaler Datenvektor d e r a r t bestimmt, daß d i e Distanzen zwischen den Objekten durch d i e Abstände zwischen den Datenvektoren m ö g l i c h s t gut

8

Einleitung und Oberblick

approximiert werden. Ist die gewählte Dimension q des Repräsentationsraumes kleiner als vier, so lassen sich die Objekte als Ergebnis der Multidimensional en Skalierung auch graphisch darstellen. Bei der meVÜAchen rnemionalen

Skalierung

mjJUÄdi-

wird ausgehend von einer Distanzmatrix für die in-

teressierenden Objekte eine q - dimensionale Konfiguration so bestimmt, daß die ursprünglichen Distanzen zwischen je zwei Objekten möglichst gut durch die Distanzen der Skalenvektoren (zahlenmäßig) approximiert werden. Beim klassischen Verfahren, der Haupt - Koordinaten rein algebraische fahren,

- Methode,

Art und Weise, wohingegen das Nonlinear

- Mapping

Ver-

multidimen&ionaZen

Ska-

werden konkrete Zahlenangaben für den Grad der Ähnlichkeit bzw.

Verschiedenheit der interessierenden Objekte nicht benötigt. Das von

-

dessen Zielsetzung die Erhaltung lokaler Strukturen in den Distan-

zen ist, iterativ arbeitet. Bei der nic.hXmeVUAc.hzn lierung

geschieht dies auf

Kruikal

VeA^ahren

geht von der Rangfolge der Ähnlichkeiten von je zwei Objekten

aus und konstruiert eine Skala derart, daß diese Rangfolge möglichst exakt beibehalten wird. Die Unfolding

- Technik

hingegen benötigt sogenannte I - Ska-

len für jedes der Objekte; die I - Skala für ein Objekt gibt dabei die Rangfolge der Ähnlichkeiten der übrigen Objekte zu diesem Objekt an. Davon ausgehend wird dann eine (eindimensionale) Skala bestimmt, die möglichst gut die I - S k a l a wiedergibt.

Will man sich die Ähnlichkeiten

den. an Objekten beobachteten Merkmale

ver-

anschaulichen, so kann z.B. basierend auf den Korrelationen der Merkmale auch hierzu ein Verfahren der Multidimenionalen Skalierung verwandt werden.

Beispiel:

Wir kommen hier noch einmal auf das Beispiel

(a) zu Kapitel V

zurück. Dort wurden Reparaturanfälligkeitsmerkmale von PKW's gegen die Kriteriumsvariable Hersteller skaliert und aufgrund der sieben wesentlichen Merkmale konnten eine Daten- und eine Distanzmatrix für die fünf betrachteten Hersteller bestimmt werden. Ausgehend von einer Distanzmatrix für die fünf Hersteller, die ja Informationen über die Ähnlichkeiten bzgl. der Reparaturanfälligkeitsmerkmale enthält, ist in Abb.2 eine dreidimensionale Konfiguration für die Hersteller graphisch dargestellt, die mittels eines MDS - Verfahrens gewonnen wurde. Umgekehrt können basierend auf den Korrelationen der Reparaturanfälligkeitsmerkmale auch diese repräsentiert werden. |

Im Kapitel VII beschäftigen wir uns dann mit der Cluiteranalyie, Klaiii^ikation

von Objekten

(Taxonomie,

patte/in

recognition).

d.h. der Ausgehend von

einer Datenmatrix oder einer Distanzmatrix werden bei der Clusteranalyse die interessierenden Objekte in Klassen, Gruppen eingeteilt, und zwar derart, daß die Objekte, die zur selbea Klasse gehören, einander möglichst

9

Einleitung und Überblick

General

Abb.2: Dreidimensionale MDS - Konfiguration für fünf Autohersteiler basierend auf Reparaturanfälligkeiten verschiedener P K W - T e i l e

ähnlich sind und Objekte aus verschiedenen Klassen sich möglichst stark unterscheiden, d.h. die Klassen sollen in sich homogen und untereinander heterogen sein. Wir werden Verfahren zur Konstruktion von vier verschiedenen Klaa^lkcutlonitypin

behandeln. Die Klassen einer übzid&ckung

können sich

überschneiden, jedoch darf keine Klasse von Objekten vollständig in einer anderen Klasse enthalten sein. Eine Pcwtction

ist ein

Spezialfall

des

Klassifikationstyps Überdeckung;hier werden die Objekte in disjunkte Klassen von Objekten, also Klassen, die sich auch nicht teilweise eingeteilt. Quai-ihuvic.hlzn

überschneiden,

sind Verfeinerungen der beiden

vorgenannten Klassifikationstypen. Eine Quasihierachie wird gebildet durch eine Folge von Überdeckungen; ausgehend von einer feinsten Überdeckung (Überdeckung mit den meisten Klassen) werden auf jeder Stufe der Quasihierarchie Vergröberungen vorgenommen, indem einander ähnliche Klassen von Objekten zu einer einzigen Klasse zusammengefaßt werden. Ebenso wird eine Hierarchie durch eine Folge von immer gröber werdenden Partitionen gebildet. Quasihierarchien und Hierarchien lassen sich in Form von Hierarchien auch durch sogenannte Vnndnogiamme. man auch Pcuit-it-Lonzn

odeA

übe-Ίdzckung&n gnaphLtch

"Stammbäumm",

veranschaulichen. doaustzJUizn,

Möchte

so kann man

mittels Multidimensionaler Skalierung, vgl. Kapitel VI, zunächst eine etwa zweidimensionale Konfiguration für die interessierenden Objekte bestimmen und in diese dann die Klassen der Partitionen bzw. Überdeckungen

einzeich-

nen. Wie schon bei der Multidimensionalen Skalierung sind auch die Verfahren der C1usteranalyse auf an Objekten beobachtete Merkmale anwendbar, wenn man etwa von den Korrelationen der Merkmale ausgeht. Betrachtet man

10

Einleitung und Überblick

die mittels Clusterarialyse k l a s s i f i z i e r t e n Objekte a l s Lernstichprobe aus einer größeren Gesamtheit, so können m i t t e l s s p e z i e l l e r auf K l a s s i f i k a t i o n zugeschnittener Diskriminationsverfahren auch weitere, "neue" Objekte den Klassen der K l a s s i f i k a t i o n zugeordnet werden. BeXip-ceX: Aufgrund der Evolution, d.h. der stammesgeschichtlichen Entwicklung von Lebenwesen, sind heute existierende T i e r - und Pflanzenarten mehr oder weniger verwandt. Basierend auf einer hierarchischen Clusteranalyse kann man versuchen .diese Entwicklung zu rekonstruieren ( " E v o l u t i o n * - Bäume"). Jede Stufe der Hierarchie entspricht dann einer Evolutionsphase·und die Klassen der feinsten P a r t i t i o n werden gerade durch die heute existierenden, interessierenden Arten gebildet. Je gröber die P a r t i t i o n wird, desto wei-

ι

ter bewegt man sich in die Vergangenheit der Stammesgeschichte.

|

Die an Objekten beobachteten Merkmale sind in der Regel miteinander korrel i e r t und lassen sich auf lat&nte.,

"kümti^iche"

HeAkmxtz

( F a k t o i m ) , die

s e l b s t nicht beobachtet werden können, zurückführen. Beispielsweise dienen Eignungstests für Bewerber zur Feststellung der charakterlichen Eignung, der Fiihrungsqual itäten usw. Solche Eigenschaften sind nicht direkt meßbar oder beobachtbar und werden daher basierend auf speziellen Frage- bzw. Aufgabenstellungen überprüft. Die FaktoA&nancUyi&, mit der wir uns im Kapitel V I I I beschäftigen wollen, dient nun der Reduktion einer Vielzahl beobachteter Merkmale auf wenige latente, s i e beschreibende Merkmale. Zunächst werden orthogonale, unkorrel ierte Faktoren derart bestimmt, daß durch s i e ein möglichst großer Teil der Korrelationen der Merkmale e r k l ä r t wird. Hier g i b t es die verschiedensten Verfahren, die zu diesem Zwecke eine Ladung-imcUAix konstruieren, welche die Korrelationen der beobachteten Merkmale mit den latenten Faktoren enthält; bei höchstens drei extrahierten Faktoren lassen s i c h , basierend auf einer solchen Ladungsmatrix, die beobachteten Μe/ikmaJLe. auch gmpkLich

Im Raum deA Vaktoim

daMtzltm.

Es g i b t

unendlich v i e l e in obigem Sinne optimale Ladungsmatrizen; daher s t e l l e n die verschiedenen KonitnuktioniveAiafaim,

von denen wir die Maximum - L i k e -

lihood - Methode, die kanonische Faktorenanalyse, die Hauptfaktorenanalyse, die Zentroidmethode und das Jöreskog - Verfahren v o r s t e l l e n wollen, stets zusätzliche Bedingungen. Sie l i e f e r n keine im Sinne bestmöglicher Interpret i e r b a r k e i t der latenten Faktoren in Bezug auf die Merkmale optimale Lösung. Daher werden im Anschluß an die. Konstruktion von Ladungsmatrizen zumeist noch FaktowiotAtlcmm

durchgeführt, deren a l l e r Ziel das Erreichen

einer möglichst guten I n t e r p r e t i e r b a r k e i t der Faktoren im Sinne des von Thurstone geprägten B e g r i f f e s der Ein&a.c.ki>tmxktun i s t . Man unterscheidet bei den Rotationsverfahren zwischen orthogonalen und schiefwinkligen Rota-

Einleitung und Überblick

t i o n e n . Bei e i n e r Oitkogonattotation

11

wie z . B . der Variamx- und der Q u a r t i -

max - R o t a t i o n b l e i b t d i e O r t h o g o n a l i t a t der l a t e n t e n Faktoren e r h a l t e n , wohingegen 6ciUeiwj.nkLige

RotcLtLoniveA^alvizn,

von denen w i r d i e Methode

der Primärfaktoren behandeln, auf k o r r e l i e r t e , s c h i e f w i n k l i g e

Faktoren

f ü h r e n . S c h l i e ß l i c h w i r d im Rahmen der F a k t o r e n a n a l y s e noch das von sogenannten F a k t o f i i m u n t & n behandelt. Das Z i e l h i e r b e i

Schätzzn

i s t , einem Ob-

j e k t , an dem die zugrundegelegten Merkmale beobachtet wurden, einen n i e d e r dimensionalen Datenvektor b z g l . der Faktoren zuzuordnen. N a t ü r l i c h

lassen

s i c h bei weniger a l s v i e r Faktoren dann die Objekte aufgrund d i e s e r Datenvektoren im Koordinatensystem der Faktoren auch g r a p h i s c h

veranschaulichen.

Grundvoraussetzung der Faktorenanalyse i s t , daß d i e Zahl der b e t r a c h t e t e n Objekte größer i s t a l s d i e Zahl der an ihnen beobachteten Merkmale. d i e s n i c h t der F a l l , so wird d i e Faktoiznanalyie. a n s t e l l e der Merkmale angewandt,

o f t auch aufi die

was zwar im strengen Sinne n i c h t

Ist Objekte.

erlaubt

i s t , h ä u f i g jedoch zu g u t i n t e r p r e t i e r b a r e n E r g e b n i s s e n f ü h r t , v g l . auch d i e E i n l e i t u n g des K a p i t e l s

VIII.

6eJjspitl: An verschiedenen K l i m a s t a t i o n e n in Europa werden Merkmale wie m i t t l e r e Monatstemperatur, m i t t l e r e Jahrestemperatur,

Temperaturschwankung,

Zahl von F r o s t - und Sonnentagen, r e l a t i v e L u f t f e u c h t i g k e i t ,

Niederschlags-

menge, Zahl der Regen-, G e w i t t e r - , Schneefal1 tage usw. erhoben. Führt man nun eine F a k t o r e n a n a l y s e d u r c h , so l ä ß t s i c h f e s t s t e l l e n , daß a l l e d i e s e Merkmale im wesentlichen durch v i e r l a t e n t e Faktoren beschrieben werden können: d i e thermischen V e r h ä l t n i s s e , die H u m i d i t ä t , die thermische und h y g r i s c h e K o n t i n e n t a l i t ä t bzw. O z e a n i t ä t . S c h ä t z t man nun d i e zugehörigen Faktorenwerte f ü r die einzelnen K l i m a s t a t i o n e n , so i s t es m ö g l i c h , f e s t z u s t e l l e n , welche Regionen b z g l . d i e s e r Faktoren einander ä h n l i c h s i n d ,

ι

a l s o eine K l i m a r e g i o n b i l d e n .

I

Wie b e r e i t s eingangs d i e s e r E i n l e i t u n g erwähnt, dienen gnaph-Liche

VeA^ahAen

der Veranschaulichung komplexer D a t e n s i t u a t i o n e n bzw. der D a r s t e l l u n g von Ergebnissen (multivariater) im K a p i t e l

s t a t i s t i s c h e r A n a l y s e n ; s o l c h e Verfahren werden

IX a u s f ü h r l i c h behandelt. Zunächst werden zwei s p e z i e l l e

ren zur ü b e r s i c h t l i c h e n D a r s t e l l u n g eindimeni-Lonalei und "Box - Plot", Paten

am B e i s p i e l

Voten,

sowie eine M ö g l i c h k e i t zur R e p r ä s e n t a t i o n e i n e s P^iodufei - Maikt

dienen der übexpid^ung

- Poit&olioi

von VenteÄJtangiannahmen

dem Etfceimeji i « n Auiieißein

"Stem

Verfah-

and

Leauei"

zuieldUmenilonalen.

vorgestellt.

Q-Q-Ploti

f ü r mehrere Merkmale sowie

in mul t i v a r i a t e n Daten. In den ü b r i g e n K a p i t e l n

des Buches werden immer wieder g r a p h i s c h e Verfahren zur R e p r ä s e n t a t i o n von Objekten oder den an ihnen beobachteten Merkmalen a l s E r g e b n i s e i n e r m u l t i v a r i a t e n s t a t i s t i s c h e n Analyse angegeben; im B-ί - Plot

l a s s e n s i c h nun Merk-

12

Einleitung und Überblick

male und Objekte g l e i c h z e i t i g zweidimensional

v e r a n s c h a u l i c h e n , und zwar

werden d i e Objekte b a s i e r e n d auf ihren Ä h n l i c h k e i t e n und den konkret an ihnen beobachteten Merkmalswerten, die Merkmale b a s i e r e n d auf i h r e n K o r r e l a t i o n e n und Streuungen r e p r ä s e n t i e r t . Bei den b i s h e r angesprochenen V e r f a h r e n werden a l l e i n t e r e s s i e r e n d e n Objekte und/oder an ihnen beobachtete Merkmale g l e i c h z e i t i g

in einem B i l d d a r g e s t e l l t . Andere g r a p h i s c h e Reprä-

sentationsformen s t e l l e n je.de,6 Objekt

in

ebenem iepanaten

dar, natür-

Βild

l i c h ausgehend von den. an ihm beobachteten Merkmalsausprägungen. Die e i n f a c h s t e n D a r s t e l l u n g s f o r m e n s i n d d i e , bei denen nur d i e Ausprägungen jedes Merkmals durch Streckungen oder Winkel d a r g e s t e l l t werden: Pn.o{ile, gonzüge,

Glyphi

, SteAne,

Sonnen,

Vla.im.nten.

Poly-

Bei den Fluny - Rleduiyl

- FaceA ,

v g l . auch Abb.1, wird jedes Objekt durch e i n G e s i c h t r e p r ä s e n t i e r t . Ton.m von Gei-ichtit&tl&n

Die

wie G e s i c h t s l i n i e , Mund, Nase, Augenbraue, Auge,

P u p i l l e , H a a r s c h r a f f u r usw. hängt dabei von den beobachteten Merkmalswerten ab. Andnem

- Ploti

tAlgonometnliche

und Blumen Funktionen,

dienen der R e p r ä s e n t a t i o n von Objekten durch deren K o e f f i z i e n t e n durch d i e beobachteten

Merkmalsausprägungen bestimmt s i n d . Bei den b i s h e r angesprochenen g r a p h i schen Verfahren i s t d i e Merkmalsanordnung b e l i e b i g . Dagegen e r f o l g t bei QuadeAn,

Bäumen und Bungen,

Hantxgan-Tn.ee, ten.

die Anondnung

v g l . z . B . den in Abb.1 d a r g e s t e l l t e n deA HeAkmale

im B i l d gemäß, ihneA

Kletnen.Ähnlichkei-

Für a l l e Objekte w i r d zunächst ausgehend von diesen Ä h n l i c h k e i t e n eine

gemeinsame S t r u k t u r bestimmt, die dann je nach beobachteten Merkmalsausprägungen f ü r jedes Objekt v a r i i e r t . Bei den Facetten anon.dnu.ng

nach

den Wichtigkeit

e r f o l g t d i e Μesikmali-

f ü r d i e D i s k r i m i n a t i o n zwischen den Objek-

ten. Die W i c h t i g k e i t der Merkmale wird durch f ü r a l l e Objekte g l e i c h e Winkel , d i e konkreten Ausprägungen durch Strecken b e s c h r i e b e n . werden bei den Bi-Plot-Sonnen

Schließlich

d i e K o r r e l a t i o n e n der Merkmale mit d a r g e -

s t e l l t . Ausgehend von der Bi - P l o t - D a r s t e l l u n g der Merkmale werden die an den Objekten beobachteten Merkmalswerte durch Strecken r e p r ä s e n t i e r t ,

vgl.

auch d i e Abb.1.

Beispiel:

Die w i r t s c h a f t l i c h e Entwicklung e i n e s B e t r i e b e s oder e i n e r B r a n -

che l ä ß t s i c h anhand der Beobachtung von B i l a n z k e n n z a h l e n über mehrere Jahre hinweg b e u r t e i l e n .

Im l e t z t e n A b s c h n i t t des K a p i t e l s IX wird m i t t e l s

g r a p h i s c h e r Verfahren die Entwicklung der chemischen I n d u s t r i e der Bundesr e p u b l i k Deutschland in den Jahren 1965 b i s 1980 d a r g e s t e l l t .

Basierend

auf A n l a g e n i n t e n s i t ä t , E i g e n k a p i t a l a n t e i l , E i g e n k a p i t a l r e n d i t e (Return on I n v e s t m e n t ) , Umsatzrendite, L i q u i d i t ä t , dynamischem V e r s c h u l d u n g s g r a d und Kapitalumschlag werden die J a h r e , die h i e r d i e R o l l e der Objekte übernehmen, durch F l u r y - Riedwyl - Faces, Andrews - P l o t s , Burgen, Bäume und Facetten repräsentiert.

Einleitung und Überblick

13

Im abschließenden K a p i t e l X b e s c h ä f t i g e n w i r uns s c h l i e ß l i c h noch mit dem Muttiva^AxU&n

Llnexuizn

H i e r wird der Zusammenhang von m E i n f l u ß -

ttodzll.

v a r i a b l e n und ρ beobachteten Merkmalen u n t e r s u c h t . G r u n d s ä t z l i c h wird dabei zwischen Μod.eZle.ri mit

^eAten

EHekten

und ΜodeJULzn mit

ΕRekten

zu.iöJUU.Qm

u n t e r s c h i e d e n ; bei e r s t e r e n werden die E i n f l u ß g r ö ß e n a l s f e s t , bei

letzte-

ren a l s z u f ä l l i g angenommen. Wir b e s c h ä f t i g e n uns zunächst mit den

atigz-

meinm

bei f e s t e n E i n f l u ß v a r i a b l e n , wie

UaA.gehemmiien

Parameterschätzun-

gen, V e r t r a u e n s i n t e r v a l l e n f ü r die Parameter und f ü r z u k ü n f t i g e Beobachtungen (Piagnoiin),

Tests über die Parameter und entsprechende

Testver-

f a h r e n , usw. Sodann werden zwei s p e z i e l l e M o d e l l k l a s s e n behandelt. Bei der mxttlvaAAJxtm quantitativ

sind alle Einflußvariablen

K&gn&ii-Loniamilyie

A r t , bei der imltivaKiaXen

KovafUanzancUy6e

sind einige

quantitativer

Einflußfaktoren

( K o v a r i a b l e n ) , andere q u a l i t a t i v e r A r t (Faktoren auf e n d l i c h

v i e l e n S t u f e n , d i e mit 0 und 1 k o d i e r t werden, j e nachdem ob die e n t s p r e chende S t u f e e i n e s F a k t o r s v o r l i e g t oder n i c h t ) .

BeXi.pi&t: Wir haben im B e i s p i e l

(b) zum Kapitel V die S k a l i e r u n g der Merk-

male Gewinn und G e s c h ä f t s t y p mit r e l a t i v höchstem Absatz gegen d i e

Einfluß-

v a r i a b l e n Werbeetat und Werbeart angesprochen. Verwendet man d i e Skalenwerte f ü r die Werbeart, so l ä ß t s i c h der E i n f l u ß der Werbung auf die beiden i n t e r e s s i e r e n d e n Merkmale in einem m u l t i v a r i a t e n Regressionsmodell

unter-

suchen. B e t r a c h t e t man hingegen die Werbeart a l s q u a l i t a t i v e n Faktor auf den d r e i Stufen a g g r e s s i v , einschmeichelnd und erlebnisweckend, so wird d i e Analyse in einem Kovarianzanalysemodel 1 mit der K o v a r i a b l e n Werbeetat durchgeführt.

Weiterhin b e s c h ä f t i g e n w i r uns mit Modellen der muZtiva.'Uate.n tijsc

sowie der Pioi-ilanalyie,

VcuUanzana-

bei denen a l l e E i n f l u ß f a k t o r e n

qualitativer

A r t s i n d . Im Zusammenhang mit der m u l t i v a r i a t e n V a r i a n z a n a l y s e werden das Modell mit nur einem E i n f l u ß f a k t o r , dessen Wirkung auf die ρ i n t e r e s s i e r e n den Merkmale u n t e r s u c h t w i r d , sowie verschiedene z w e i f a k t o r i e l 1 e anlagen ( e i n f a c h e s m u l t i v a r i a t e s Blockexperiment, zweifache

Versuchs-

Kreuzklassifi-

k a t i o n mit Wechselwirkungen, zweifach h i e r a r c h i s c h e K l a s s i f i k a t i o n ) d e l t . Bei der P r o f i l a n a l y s e s t e h t n i c h t der g e n e r e l l e E i n f l u ß

behan-

des-qualita-

t i v e n F a k t o r s auf ρ Merkmale im Vordergrund sondern vielmehr d i e U n t e r s u chung e i n e s z e i t l i c h e n V e r l a u f s (Ven£a.txf s i>ku.n\je.n); dazu wird nur e i n e i n z e l nes Merkmal, d i e s e s aber zu ρ verschiedenen Zeitpunkten beobachtet und mit den Stufen eines q u a l i t a t i v e n E i n f l u ß f a k t o r s

BeLspi&l:

in Verbindung

gebracht.

Um den E i n f l u ß des F a k t o r s " R e g i o n " auf den SO^ - Gehalt in der

L u f t zu untersuchen, werden in m Gebieten ( S t u f e n des F a k t o r s

"Region")

14

Einleitung und Überblick

an verschiedenen Stellen (Wiederholungen) die SOg - Gehaltswerte gemessen und zwar am selben Tag jeweils a l l e zwei Stunden (ρ = 12). Mittels einfakt o r i e l l e r multivariater Varianzanalyse kann nun untersucht werden, ob der Faktor "Region" eine generellen Einfluß auf die S0 2 - Gehaltswerte zu verschiedenen Tageszeiten hat. Die Profilanalyse ermöglicht zudem die Untersuchung von Fragestellungen wie z.B.: Sind die Verläufe der Gehaltswerte in den Regionen wesentlich verschieden oder verlaufen sie weitgehend gleichl ä u f i g , nur auf unterschiedlichem Niveau; sind die Tagesmittel werte des SO2 - Gehalts in den Regionen a l s gleich anzusehen, d.h. sind die durchschnittlichen Umweltbelastungen durch S0 2 in den Regionen praktisch gleich? Schließlich behandeln wir im Kapitel X dann spezielle Modelle mit z u f ä l l i gen Effekten, wobei hier die Untersuchung des Einflußes qualitativer Variablen im Vordergrund steht. Erstrecken sich in Modellen mit festen Effekten die Aussagen nur auf die konkret im Experiment betrachteten Stufen qualitativer Einflußvariablen, so geht man nun davon aus, daß die konkreten Stufen nur eine Auswahl aus allen möglichen Faktorstufen darstellen, eine Aussage sich aber auf sämtliche Stufen beziehen s o l l . Die Beantwortung s o l cher Fragestellungen ermöglichen nuttcv(uUat&

VaA-La.nzkompon&ntznmodeZl&,

in denen die auf die Einflußfaktoren zurückzuführenden Streuungsanteile def- ρ beobachteten Merkmale geschätzt werden. Ein hoher Streuungsanteil i s t dann mit einem starken Einfluß des Faktors gleichzusetzen. Wir behandeln hier Modelle der einfach, zweifach und dreifach hierarchischen K l a s s i fikation (ein, zwei bzw. drei hierarchisch angeordnete Faktoren) sowie Modelle der zweifachen Kreuzklassifikation (zwei Einflußfaktoren, deren Stufen kreuzweise kombiniert betrachtet werden). Außerdem beschäftigen wir uns noch mit einem speziellen M&ßmodett zur VnäzliiombutLntnung und

AnatyieveAiahfLzn

faex.

ζz/utöKzndzn

Plu^ung&n

bzu).

von Meß-

P^ioduktva^uab^i-ität.

ΒexApleZ: In einem Erzlager werden aus einigen Bohrlöchern Bodenproben entnommen und bzgl. ihres Gehalts an Metall und an taubem Gestein analysiert. Betrachtet man hier ein Modell mit festen Effekten, so kann sich eine Aussage nur über die speziellen Bohrlöcher erstrecken. Möchte man aber die Streuung von Metallgehalt und Gehalt an taubem Gestein im gesamten Erzlager beurteilen, so kommt man zu einem Modell mit zufälligen Effekten und betrachtet dann die konkreten Bohrlöcher als z u f ä l l i g ausgewählt aus der Gesamtheit a l l e r möglichen Bohrlöcher im Erzlager.

Am Ende dieser Einleitung wollen wir noch kurz auf zwei Unterscheidungsmerkmale hinweisen, die häufig zur K l a s s i f i k a t i o n (multivariater)

statisti-

15

Einleitung und Überblick

s c h e r V e r f a h r e n verwandt werden. Zunächst einmal sogenannten dependenten schen R-Tic.hiu.kzn

Vependente

und inteAdependenten

und Q-

u n t e r s c h e i d e t man zwischen und dann noch

Methoden

zwi-

Techniken.

V e r f a h r e n s i n d dadurch a u s g e z e i c h n e t , daß der E i n f l u ß

einer

Gruppe von V a r i a b l e n a u f e i n e Reihe i n t e r e s s i e r e n d e r , b e o b a c h t e t e r Merkmale u n t e r s u c h t w i r d , wie d i e s b e i der R e g r e s s i o n s - , V a r i a n z - , a n a l y s e und der P r o f i l a n a l y s e

der F a l l

schen zwei Merkmalsgruppen im Vordergrund des I n t e r e s s e s den V e r f a h r e n der K o r r e l a t i o n s a n a l y s e z u t r i f f t . ( i n t r a - dependenten)

statistischen

Kovarianz-

i s t , oder daß der Zusammenhang

zwi-

s t e h t , was b e i

Bei den

inteidependewten

V e r f a h r e n hingegen s i n d a l l e an Objekten

beobachteten bzw. erhobenen Merkmale g l e i c h b e r e c h t i g t s i c h Aussagen und A n a l y s e e r g e b n i s s e

i n dem S i n n e , daß

s t e t s a u f a l l e d i e s e Merkmale i n

glei-

c h e r A r t und Weise e r s t r e c k e n ; s o l c h e interdependenten V e r f a h r e n s i n d etwa die Multidimensionale

Skalierung, die Clusteranalyse,

und d i e meisten g r a p h i s c h e n

Die A u f t e i l u n g scheidung

in R -

die

Faktorenanalyse

Methoden.

und Q - T e c h n i k e n b e z i e h t s i c h n i c h t a u f eine U n t e r -

i n den Merkmalen. V i e l m e h r s p r i c h t man von R - T e e h n i k t n , wenn

Aussagen über d i e i n einem Experiment beobachteten Merkmale g e t r o f f e n werden, und von Q _ - T e c h n i k e n , wenn s i c h A n a l y s e e r g e b n i s s e d i r e k t a u f d i e im Experiment b e r ü c k s i c h t i g t e n Objekte beziehen. H i e r i s t e i n e s t a r r e l u n g der v e r s c h i e d e n e n m u l t i v a r i a t e n da v i e l e Methoden wahlweise a l s R -

Eintei-

s t a t i s t i s c h e n V e r f a h r e n kaum m ö g l i c h , oder Q - T e c h n i k angewandt werden kön-

nen. So i s t z . B . d i e C l u s t e r a n a l y s e an und f ü r s i c h eine Q - T e c h n i k d i e O b j e k t e ; s i e kann jedoch auch a l s

R - T e c h n i k f ü r d i e Merkmale

s e t z t werden, was z . B . bei den im K a p i t e l f a h r e n t e i l w e i s e der F a l l

einge-

IX b e s c h r i e b e n e n g r a p h i s c h e n

i s t ( B u r g e n , Bäume, Q u a d e r ) . D i e

i s t e i n e R - T e c h n i k f ü r d i e Merkmale, so l a n g e das I n t e r e s s e

i n der B e -

s i c h a n s c h l i e ß e n d e Schätzen von Faktorenwerten h i n g e g e n i s t e i n e

z u g e o r d n e t . Zudem w i r d - wie b e r e i t s erwähnt - d i e F a k t o r e n a n a l y s e m i t durchaus g u t i n t e r p r e t i e r b a r e n

Ergebnissen a l s Q - T e c h n i k

wenn d i e Zahl

i s t a l s d i e Zahl

Das

Q-Technik,

denn h i e r w i r d den Objekten j e e i n D a t e n v e k t o r b z g l . der l a t e n t e n

der Objekte g e r i n g e r

Ver-

Faktorenanalyse

stimmung l a t e n t e r F a k t o r e n , welche d i e Merkmale b e s c h r e i b e n , l i e g t .

ten Merkmale.

für

Faktoren häufig

angesetzt,

der an ihnen b e o b a c h t e -

Kapitel I: Einführung und Grundlagen

In diesem ersten Kapitel werden die f ü r die m u l t i v a r i a t e S t a t i s t i k lichen

unerläß-

Grundlagen aus der Wahrscheinlichkeitsrechnung, S t a t i s t i k und M a t r i -

zenrechnung kurz zusammengestellt, um es dem Leser zu ermöglichen, dieses Buch selbständig zu lesen. Im Abschnitt 1 werden zunächst e i n i g e grundlegende B e g r i f f e im Zusammenhang mit Datenmaterial und die wesentlichen Elemente der d e s k r i p t i v e n

(beschrei-

benden) S t a t i s t i k , wie Häufigkeiten, empirische Kenngrößen und empirische Verteilungsfunktion,

dargestellt.

Der zweite Abschnitt i s t der Wahrscheinlichkeitsrechnung gewidmet. Hier werden Wahrscheinlichkeiten, bedingte Wahrscheinlichkeiten,

Zufallsvariablen,

Verteilungen, Verteilungsfunktionen, Dichten und Kenngrößen von V e r t e i l u n gen behandelt. Im d r i t t e n Abschnitt beschäftigen wir uns dann mit den P r i n z i p i e n der i n duktiven (schließenden) S t a t i s t i k . Die B e g r i f f e Punktschätzer und K o n f i denzintervall Schätzung sowie s t a t i s t i s c h e r Test werden einneführt und Kons t r u k t i o n s p r i n z i p i e n f ü r Punkt- und Interval 1 Schätzer sowie s t a t i s t i s c h e Tests werden e r l ä u t e r t . Der v i e r t e Abschnitt dieses K a p i t e l s b e s c h ä f t i g t s i c h mit der Vektor- und Matrizenrechnung. Elemente dieser Gebiete, die f ü r das Verständnis m u l t i v a r i a t e r Verfahren u n e r l ä ß l i c h s i n d , werden in einem kurzen Abriß behandelt. Im fünften Abschnitt werden dann die Grundlagen der W a h r s c h e i n l i c h k e i t s rechnung f ü r mehrdimensionale Z u f a l l s v a r i a b l e n ( Z u f a l l s v e k t o r e n ,

Zufalls-

matrizen) b e r e i t g e s t e l l t . Insbesondere werden die mehrdimensionale und die m u l t i v a r i a t e Normal v e r t e i l u n g sowie die Wishartverteilung

betrachtet.

S c h l i e ß l i c h werden wir uns im sechsten Abschnitt mit einigen elementaren Begriffen im Zusammenhang mit Daten- und Distanzmatrizen f ü r mehrdimens i o n a l e Beobachtungsvektoren auseinandersetzen. Es werden Distanzmaße f ü r

18

Kapitel I: Einßhrung und Grundlagen

beliebig s k a l i e r t e Merkmale untersucht.

1 GRUNDLEGENDE BEGRIFFE UND ELEMENTARE

DATENBESCHREIBUNG

Die S t a t i s t i k beschäftigt sich mit der Beschreibung und Analyse umfangreicher Datenmengen, die z.B. durch Befragungen oder Messungen gewonnen werden Die Objekte.,

an denen Messungen vorgenommen werden, bzw. die Personen, die

befragt werden, nennt man auch UnteA&uchungieinhe-iten. messen bzw. nach denen gefragt wird, heißen Uenkmale,

Die Größen, die geund die an den Unter-

suchungseinheiten f e s t g e s t e l l t e n Werte der Merkmale heißen ΜeAkmat&uieAte oder

MeAkmaliauApiägungen.

BeXApiel:

Um die Altersstruktur in einer Gemeinde zu erfassen, werden a l l e

Einwohner (Objekte, Untersuchungseinheiten) nach ihrem A l t e r (Merkmal) bef r a g t . Die Altersangaben der Personen sind dann die Merkmalsausprägungen. Oft kann man nicht a l l e interessierenden Objekte untersuchen, sondern muß sich mit einem T e i l von einer Stichprobe

(z.B. η Objekten) von ihnen begnügen. Man spricht dann von η Objekten aus der GmndgiiamtheAX

der interes-

sierenden Objekte. Wie man Stichprobenuntersuchungen anlegt, damit sie ein möglichst genaues B i l d der Grundgesamtheit widerspiegeln,wird ausführlich in Härtung et

Bespiel:

a l . ( 1982, Kap.V) d a r g e s t e l l t .

In einem Land ohne Meldepflicht i s t es kaum möglich a l l e Einwoh-

ner (Grundgesamtheit) nach ihrem A l t e r zu befragen. Man muß sich mit einer

ι

Stichprobe von Einwohnern begnügen.

|

1.1

MERKMALSTYPEN

UND

ΚL A SS Ε Ν Β I L D UΝ G

Merkmale werden nach der Art ihrer Ausprägungen k l a s s i f i z i e r t . Zum einen unterscheidet man quantitative und q u a l i t a t i v e Merkmale und zum anderen stetige und diskrete Merkmale. Die Ausprägungen quantitativen.

Menkmxle

(z.B. A l t e r und Gewicht von Personen,

Lebensdauern von Bauelementen) unterscheiden sich in ihrer Größe und die Ausprägungen qualitativΟΛ

Merkmale

(z.B. Farbe, Rasse, Fabrikat, Beruf) in

ihrer A r t . Geht man von der Zahl der möglichen Ausprägungen eines Merkmals aus, so

Kapitel I: Einführung und Grundlagen

gelangt man zur A u f t e i l u n g in d i s k r e t e und s t e t i g e Merkmale. Vliktizti malt

19

HeAk-

( z . B . Geschlecht, Anzahlen) können nur abzählbar v i e l e Werte annehmen, ΜzukmaZz ( z . B . Längenmessungen, Lebensdauern) können b e l i e b i g e Werte

itetigc

in einem bestimmten Bereich annehmen. Eine weitere Unterscheidung von Merkmalstypen e r h ä l t man dadurch, daß man die zugrundeliegende Meß - Skala betrachtet. Die Werte einer

Nominatikala

unterliegen keiner Reihenfolge und s i n d n i c h t v e r g l e i c h b a r , die einer nalikata

Qidi-

unterscheiden s i c h in i h r e r I n t e n s i t ä t und unterliegen einer Rang-

f o l g e und die einer mz£>cü>c.he.n Skala

s i n d d e r a r t , daß s i c h zudem Abstände

zwischen den Werten i n t e r p r e t i e r e n l a s s e n . UomlnaJLz Μn/ikmaJLe. s i n d a l s o z.B. Beruf oder Rasse, o r d i n a l e MeAkmali haben z.B. Ausprägungen wie g u t , m i t t e l , schlecht (etwa Zensuren) und meX/Uichi

MeAkmale. s i n d z.B. Größe

oder Gewicht. Mitunter werden auch, wenn ein Merkmal v i e l e Ausprägungen b e s i t z t , mehrere Merkmalsausprägungen in Klassen zusammengefaßt. Dadurch e r r e i c h t man etwa bei der graphischen D a r s t e l l u n g von Datenmaterial, daß die D a r s t e l l u n g ü b e r s i c h t l i c h i s t . Durch eine solche Kt&iiinbiZdung

gelangt man dann z.B.

zur D i s k r e t i s i e r u n g eines s t e t i g e n Merkmals ( z . B . Gewichtsklassen bei Hühnereiern) . In den folgenden Teilen des A b s c h n i t t s 1 werden e i n i g e wesentliche M ö g l i c h keiten der Beschreibung von Datenmaterial d a r g e s t e l l t . Der s t ä r k e r an Methoden der beschreibenden ( d e s k r i p t i v e n ) S t a t i s t i k i n t e r e s s i e r t e Leser sei auf Härtung et

1.2

a l . (1982, Kap.I)

HÄUFIGKEITEN,

hingewiesen.

SUΜΜ Ε Ν Η A U F I G Κ Ε I Τ Ε Ν

UND

EMPIRISCHE

VERTEILUNGSFUNKTION Bezeichnet man die möglichen Ausprägungen eines Merkmals X mit und beobachtet das Merkmal X dann an η Untersuchungseinheiten, so bezeichnet man mit H

n(

a

j)

=

"Anzahl der F ä l l e , in denen a^. a u f t r i t t "

f ü r j = 1 , . . . , k die abiolute,

Häufigkeit

des Auftretens der Ausprägung aj

und mit

w für j = 1 , . . . , k die κeJi&tLvz Häuilgk&-U

der Ausprägung a j . Die r e l a t i v e

H ä u f i g k e i t von a^· i s t a l s o der prozentuale Anteil der Untersuchungseinhei-

20

Kapitel I: Einßhrung und Grundlagen

ten, die die Ausprägung a^ tragen. Daher nimmt h n U j ) unabhängig von η stets Werte zwischen 0 und 1 an und es gilt:

J>1 natürlich ist

i J=

=

W

H

n(a1)

+

+



=

W

n

Bei ordinalen und metrischen Merkmalen lassen sich die Ausprägungen der
Uable. Ζ = (Χ - μ ) / σ :

Var(Z) = 1

Varianz bzw. Standardabweichung sind Maße für die absolute Größe der Streuung um den Erwartungswert. Dagegen mißt der VaxiaXixinikozi^zlznt VK (für positive Zufallsvariablen) die Streuung relativ zum Erwartungswert: VK = v" Var(X)/E(X)

BeXi

.

plel:

(a) Die Varianz der Standardnormal Verteilung, Z ^ N ( 0 ; 1 ) , ergibt sich mit Hilfe des Satzes von Steiner wegen E(Z) =0 und

E(Z ) =

z2·——»e

— CO

\ΓΉ

-

1 1

72 dz.-i\/ 2π

-

2

ζ «e

1

1

72 dz = 1

2

2

zu 1. Bei der Ν(μ;σ ) - Verteilung sind μ der Erwartungswert und σ die Va2 rianz der Verteilung und nach der 3σ - Regei. für Χ^Ν(μ;σ ) i s t , vgl. Härtung et a l . (1982), Ρ ( μ - 3 σ < Χ < μ + 3σ) = 0.9973 = 99.73%

.

(b) Bei einer B(n,p) - verteilten Zufallsvariablen X ergibt sich zunächst E(X2)=

I i 2 f t ) p ^ l - p ) " " 1 » I (1(i-1)+1) w i=0 i=0

ft) w

pVi-p)""1

Kapitel I: Einßhrung und Grundlagen

- I 111-1) i=0 - j

=i

v

'

ftWii-P)"-1'*

37

Σ i (·) ρ\ι-ρ)""1 v i=0 '

K i - 1 ) ( • ) P 1 ( 1 - P j n " i + EIX)

2

Ι Μ - υ τ η ^ Λ ΐ - ρ Λ ^ η ρ

= n(n-1)p2J^

= n ( n

-1)p2·?

(l-2)lfn-i)!

1! (n-i-2)!

= η{η-υρ2·ηϊ2 ( n T 2 ) i=0 v 1 >

^

^

+ "P

P^I-PJ^'^nP

1-p) n ~ 2 "^ + np

2

= n(n-1)p + np und somit nach dem Satz von Steiner Var(X) =E(X 2 ) - ( E ( X ) ) 2 = n(n-1)p 2 + np - n 2 p 2 = n 2 p 2 - np2 + np - n 2 p 2 = np - np2 = np( 1-p)

.

|

ts sei hier noch erwähnt, daß die Größen E(X ) k-£z Mom&ntz und die Grössen E ( X - E ( X ) )



k-te.

z&ntAale.

Mommte. der Zufallsvariablen X genannt wer-

den, die im folgenden bei Verwendung auch existieren mögen. Abschließend seien hier noch zwei Größen eingeführt, die den Zusammenhang zwischen 2 Zufallsvariablen X und Y kennzeichnen. Die Kova/Uanζ von X und V ist Cov(X,Y) =E(X - E ( X ) ) ( Y - E ( Y ) )

;

sie ändert sich durch eine lineare Transformation in folgender Weise CovfcxX + β,γΥ + ε) Eine solche Schätzfunktion,

·η —• >

0

d i e aiymptotlich

für jedes

e>0

r i c h t i g e Werte l i e f e r t ,

heißt

koni'Cste.nt. Ein K r i t e r i u m f ü r d i e Güte eines Schätzers θ f ü r θ i s t der mUXleAi.

quadsiatUAchz

TzhJLvi

(mean iquaAed

sogenannte

MSE):

eJitoh.,

MSE(6,§) = Ε(θ - θ ) 2 = V a r ( § ) + ( Ε ( θ ) - θ ) 2 D i e G r ö ß e Ε ( θ ) - θ n e n n t man a u c h ßlca

o d e r VeAzeAAung

des S c h ä t z e r s

θ.

B e i e i n e m e r w a r t u n g s t r e u e n S c h ä t z e r θ f ü r θ i s t d e r MSE n a t ü r l i c h

gerade

d i e V a r i a n z des S c h ä t z e r s .

natür-

B e i k o n k r e t e n S c h ä t z u n g e n i s t man d a n n

l i c h b e m ü h t , d e n MSE m ö g l i c h s t k l e i n zu

Kommen w i r n u n z u d e n S c h ä t z v e r f a h r e n . d i e s o g e n a n n t e Mcmtn£e.vme£hode.

halten.

Eine einfache Vorgehensweise

ist

D a b e i w i r d d e r zu s c h ä t z e n d e P a r a m e t e r θ

d u r c h d i e Momente d e r V e r t e i l u n g a u s g e d r ü c k t .

D i e s e werden dann d u r c h

e n t s p r e c h e n d e n e m p i r i s c h e n Momente g e s c h ä t z t :

Das k-te

der Stichprobe χ . , . , . , χ

i s t gegeben

Ein Schätzer f ü r die Varianz σ

Momentenmethode

2

Sind

der

ist

1

η

Σ

ι

Σ Vn i i i

Ό V

2



Σ x 1? - x i =i

2



Σ -j = i

( χ 1, · - χ ) 2

X n > so i s t d e r S c h ä t z e r f ü r d e n P a r a m e t e r θ d e r

l u n g n a c h d e r Maximum - Llketihood die

2 d e r Ν(μ;σ ) - V e r t e i l u n g nach

R e a l i s a t i o n e n von η unabhängig i d e n t i s c h v e r t e i l t e n

v a r i a b l e n X1

die

Moment

durch

2 BexApleZ:

emplniiche

- Methode

·

ZufallsVertei-

gerade d e r j e n i g e Wert Θ,

der

Likelihood Γ P(X1 = χ 1 ) · . . . · Ρ ( Χ L(x,

=x

]= I

fY

(χ.)·...·ί

X1

1

γ

*n

(x ) n

)

, bei diskreten teilungen , bei s t e t i g e n teilungen'

VerVer-

i n A b h ä n g i g k e i t von θ m a x i m i e r t .

ßelip-iel:

Seien

unabhängig i d e n t i s c h Ν(μ;1) - v e r t e i l t .

Dann

ist

I

Kapitel I: Einführung und Grundlagen

L(xr....xn)=f

x

1

(x,)-....^

η

(Χη)-

η Π i=l

, --5-U,· - y ) - l - . e v2ir

D i e s e L i k e l i h o o d w i r d m a x i m a l , wenn es d i e z u g e h ö r i g e log - L-LkeZihood

lnL(x1,...,xn)=ln

/ η ι ~ ( Π - L e ν ιi = 1l ν\/Ύπ 2π

1 {

Χ

i

_

41

wird:

\

Vi J \ '

1/

\2

= l 1 η (—— i =1 VT?

'

= Σ Ο ^ - ^ χ τ - μ ) 1 1=1 ν \/Ή '

2

)

'

·

η η 2 2 d . h . wenn - \ (χ.-μ) maximal bzw. \ (χ.-μ) minimal i n Abhängigkeit 1 1 i=1 1=1 von μ w i r d . Wegen d e r M i n i m u m e i g e n s c h a f t des a r i t h m e t i s c h e n M i t t e l s χ , vgl. Abschnitt

1 , e r g i b t s i c h χ a l s Maximum - L i k e l i h o o d - S c h ä t z e r f ü r



den P a r a m e t e r μ .

|

A l l g e m e i n i s t d i e L i k e l i h o o d a l s d i e W a h r s c h e i n l i c h k e i t f ü r das V o r l i e g e n d e r S t i c h p r o b e b z w . im s t e t i g e n F a l l a l s d e r W e r t d e r gemeinsamen für die vorliegende Stichprobe d e f i n i e r t , vgl. Abschnitt

5.

A l s l e t z t e s S c h ä t z v e r f a h r e n w o l l e n w i r h i e r d i e MttXhodt deA Quadiate.

vorstellen.

kleXmtzn

D a b e i g e h t man d a v o n a u s , daß d e r E r w a r t u n g s w e r t

zu b e o b a c h t e n d e n u n a b h ä n g i g i d e n t i s c h v e r t e i l t e n Χ^,.,.,Χ

Dichte

der

Zufallsvariablen

i n b e k a n n t e r W e i s e vom i n t e r e s s i e r e n d e n P a r a m e t e r θ a b h ä n g t : E(Xi)=g(9)

und b e s t i m m t

,

d i e Schätzung θ =

, . . . ,x ) f ü r θ s o , daß g i l t :

Σ (χ,·-g(§>)2< I (x. - g(θ))2 1 1 i =1 " i =1 f ü r a l l e m ö g l i c h e n P a r a m e t e r w e r t e θ . Dieses V e r f a h r e n l ä ß t s i c h auch a u f b e l i e b i g e Z u f a l l s v a r i a b l e n X 1 > . . . , X n übertragen, v g l . Härtung e t al . (1982, Kap. I I I ) . B e x A p i e X : A u f g r u n d d e r M i n i m u m e i g e n s c h a f t des a r i t h m e t i s c h e n M i t t e l s x , _ 2 v g l . A b s c h n i t t 1 , i s t χ e i n S c h ä t z e r f ü r den P a r a m e t e r μ e i n e r Ν ( μ ; σ ) V e r t e i l u n g nach der Methode d e r k l e i n s t e n

Quadrate.

42

Kapitel I: Einführung und Grundlagen

2 x n Realisationen aus einer Ν(μ;σ ) -Verteilung, so werden die

Sind x^

Parameter μ und σ^ in der Reael vermittels des arithmetischen Mittels x4(x

1

...+xn)

+

bzw. der empirischen Varianz (für η _>2)

s2 =

(x

F=T

i

geschätzt. (Diese Schätzer für erste und zweite Momente einer Zufallsvariablen werden zumeist auch dann benutzt, wenn nichts über den Verteilungstyp bekannt ist.) Wie wir gesehen haben ist

ein Schätzer für σ

2

nach der Momentenmethode; der aleiche Schätzer eraibt 2 sich auch nach der Maximum - Likelihood - Methode. Weitere Schätzer für σ

findet man in Hartunq et al. (1982, Kap.IV, Abschnitt 1.3). 2 Sind χ,,,.,,χ und y.,...,y Realsiationen aus Normal verteilunqen Ν ( μ ν ; σ ν ; ι 2 Η ι π Λ Λ bzw. Ν(νγ;σγ), so wird deren Kovarianz σ^γ (für η >_Z) durch

s

x v

=

A

i,

(x

i

"^^i

geschätzt, und deren Korrelation Ρ = d u r c h η _ _ I (xi-x)(yi-y) 1 1 i=1 /η η ? / I Ui - χ Λ I 1 y i=1 i=1

ρ (y. - y ) 1

geschätzt. Fehlen in Fällen anderer stetiger Verteilungen weitere Informationen, so werden diese Schätzer häufig ebenfalls verwandt, vgl. jedoch für Korrelationsschätzer auch Abschnitt 2 in Kap.III.

Anstatt den Parameter θ möglichst "gut" durch einen einzigen Wert θ η = θ η ( χ 1 , . . . , x n ) zu schätzen, möchte man oft einen "kleinen" Bereich angeben, in dem θ liegt. Da man Informationen über θ aus einem Zufallsexperiment gewinnt, ist dies i.a. nicht möglich. Wohl aber gibt es Methoden, die nur mit geringer Wahrscheinlichkeit Bereiche liefern, die den Parame-

Kapitel I: Einführung und Grundlagen

ter θ nicht enthalten. Ist diese l M £ u m m k M , c h e A . n L L c h k e A £ höchstens α , so ergibt sich ein Bereich, der θ mit Wahrscheinlichkeit 1-a enthält; ein solcher Bereich heißt auch VeAt>iaue.nA

- oder Kon^ldinzbeAeMih

zum

Niveau

Handelt es sich hierbei um ein Intervall auf der Zahlengerade, so

1-a.

spricht man auch von einem Koni-idmz-LvUeAvcLti (/-α)

-

zum U-ivzau.

oder kurz

1-a

Konildinz-LntztvaZZ.

Bei der Konstruktion von Konfidenzintervallen geht man häufig so vor, daß man sich zunächst einen Punktschätzer θ

n

für den interessierenden 2

Parame-

ter θ beschafft und dessen Erwartungswert μ(θ) und Varianz σ (θ), die meist vom Parameter θ abhängen, bestimmt. Dann bildet man die standardisierte

Zufallsvariable θη-μ(θ) σ(θ)

Hängt deren Verteilung nicht mehr von θ a b , so bestimmt man Zahlen u^ und derart, daß gilt

Ρ

(u.

V

V

• (-5)J

1 •(-3)J

+

+

sich 4 8 x 3 - 9 x 4 = 39

, d.h.

x

4

4 8 x , - 39 = ^ =

und s o m i t 5x 2 - 8X 3 - 6 x 4 = 5X 2 - 8X 3 - 4 8 x 3 + 39 = 1 56x d.h.

x2

-38 5

38

-5-X3-X

und s c h l i e ß l i c h 3x

+ 4x

+ 2x

-3x

Ά

-

, 5 2

+

?x

-

+

2 3 4

«

-

1 5 2

-?

58

Kapitel I: Einßhrung und Grundlagen

Für jede Wahl von x, ist also 30 10 (* y 2 ,χ Ϊ 3 ,χ y 4 ;\ --ν(."τ, y3 +ΊΓ' ^ ΊίΓ ν 3 X38 VX1 ,χ Ί Γ ,γΧ 3 ' Τ y 3- 3

J

eine Lösung unseres Gleichungssystems.

Ein wichtiger Teil der Matrizenrechnung ist die Berechnung von Eigenwerten und Eigenvektoren. Die ELgmuizKtz

einer quadratischen n«n - Matrix Α werden

bestimmt als die Null stellen des chaAakteA^iiCichcn d.h. die η Eigenwerte λ^,.,.,λ det(A-Xln)=0

Polynom

det(A-XI),

von Α sind die Lösungen der Gleichung

.

Die zum Eigenwert λ^ gehörigen Elgenvcktoizn

χ sind dann die Lösungen des

Gleichungssystems (x f 0) Α χ = Χ .χ Es gilt λ^ + ... + λ η = trΑ und für symmetrisches Α auch X^ · ... · λ η = det A. Βζύ,ρίίΖ: Wir wollen die Eigenwerte und die zugehörigen Eigenvektoren der Matrix Α= Ρ 1 berechnen.

3

) 5

Das charakteristische Polynom von Α ergibt sich zu

= (7-λ)(5-λ) - 1·3=35-7λ-5λ + λ 2 - 3 = Χ 2 - 12Χ + 32 = Χ 2 - 1ΖΧ + 36 - 36 + 32 = ( λ - 6 ) 2 - 4 = ( Χ - 6 - 2 ) ( Χ - 6 + 2) = (X - 8) (X - 4)

.

Da für X = 8 oder X = 4 gilt (X - 8) (X - 4) =0 sind X ^ = 8 und X^ = 4 die Eigenwerte von A. Die zu X^ = 8 gehörigen Eigenvektoren sind die Lösungen des Systems Αχ = 8χ

, d.h.

7χ^ + 3Xg = 8χ χ, + 5χ 0 = 8χ, '2

Damit ergeben sich die Eigenvektoren zum Eigenwert X. = 8 zu

59

Kapitel I: Einßhmng und Grundlagen

( x ^ , X 2 ) T = (3x2,X2) T ,und genauso erhalten wir a l s Eigenvektoren zum Eigenwert >>2 = 4 die Vektoren ( x j , x 2 ) T = ( - x 2 » x 2 ) T

mit

x

2 ) i 0 J e w e i l s beliebig.

_

Ein weiteres wichtiges Element der Matrizenrechnung i s t die Bestimmung von inversen Matrizen. Für eine quadratische η χ η - M a t r i x Α mit rg Α = η (äquivalent dazu i s t det A i 0; A l e g o l ä A z Ma&Ux)

i s t die zu A inveue

ΜΟΧΛΛ,Χ.

A ^ bestimmt durch AA" 1 = I

I s t Α eine reguläre Matrix, so i s t jedes Gleichungssystem der Art Ax = b lösbar, und zwar eindeutig. Die Lösung läßt sich angeben a l s x = A ^b. Im folgenden werden wir bei der Vzwendung

eXneA JnveAim

immer i m p l i z i t

unterstellen, daß eine solche auch i x l i t i z i t , ohne dies in den Voraussetzungen immer e x p l i z i t zu erwähnen. Bei der Bestimmung von inversen Matrizen kann man sich wiederum das Gauß'sche Eliminationsverfahren zunutze machen. Man notiert die reguläre Matrix Α und daneben die η - dimensionale Einheitsmatrix I

und m u l t i p l i n z i e r t dann einzelne Zeilen mit Zahlen und addiert Zeilen von Α solange

bis man Α in eine Einheitsmatrix verwandelt hat. Parallel dazu führt man die gleichen Multiplikationen und Additionen ausgehend von I durch. I s t Α dann in eine Einheitsmatrix verwandelt, so i s t I in die inverse Matrix -1 Α verwandelt. 6 (UApitl·. Wir wollen die zur regulären 3*3 - M a t r i x 4 A = 2 1

7

-3

6

1

5

9

„-1 inverse Matrix Α bestimmen. Dazu verwenden wir das Schema aus tab.5, in dem rechts die durchgeführten Multiplikationen und Additionen angegeben sind. Die zu A inverse Matrix ergibt sich also zu .-1

1 τς

49 -17 4

-78 39 -13

25 -10 10

Dieses Ergebnis kann dadurch k o n t r o l l i e r t werden, daß man AA Hat man korrekt gerechnet, so muß gelten AA

-1

Hier ergibt sich

I-

ausrechnet.

60

Kapitel I: Einßhmng und Grundlagen

AA

-1

4

1

2

1

7 - 3 6

5

1

9

49 -17 4

-78 39 -13

25' 65 1 -10 = 0 10 0

0 65 0

τς

0 0 65

wir haben also richtig gerechnet. Cah.5: Berechnung einer inversen Matrix

A =

4 2 1

7 - 3 6 1 5 9

1 0 0

0 1 0

0 0 1

•(-2)>

> (- 4 Η

4 0 0

-5 -13

7 - 3 -5 -39

1 1 1

0 -2 0

0 0 -4

4 0 0

-5 0

7 - 3 -5 130

1 1 8

0 -2 -26

0 0 20

520 0 0

910 -130 0

0 0 130

154 34 8

-78 -78 -26

60 20 20

'520 0 0

0 -130 0

0 0 130

392 34 8

-624 -78 -26

200 20 20

1 0 0

0 1 0

0 0 1

49/65 -17/65 4/65

-78/65 39/65 -13/65

25/65 -10/65 10/65

·13 1+ • (- 5 Η •130η ·

2 6

>

·3

J

+

·7> •1/520 •(-1/130) • 1/130 = A~

,

I s t eine Matrix Α nicht regulär, so läßt sich keine Inverse bestimmen. Stattdessen muß man sich mit sogenannten generalisierten Inversen von A begnügen. Α

heißt eine gweAtili!>.Lzfcte. JnveAie

zur nxm - Matrix A, f a l l s

gilt AAA = A

.

Hat man ein lösbares Gleichungssystem A x = b gegeben, so i s t eine Lösung angebbar a l s x = A b.

Die nxm-Matrix A~ i s t allerdings i . a . nicht e i n -

deutig. Um Eindeutigkeit zu erreichen, wird daher häufig die sogenannte PimdolnveAbz

oder Ikion.z-Vtinft.ot.z-'lnvzKAz

die folgenden 4 Bedingungen bestimmt: AA+A = A A + AA + = A + (A + A) = (A + A) T (AA + ) = (AA + ) T

.

A + von Α verwandt. A + i s t durch

J

Kapitel I: Einßhrung und Grundlagen

61

Da die e r s t e Bedingung gerade der f ü r g e n e r a l i s i e r t e Inverse e n t s p r i c h t , i s t A+ eine s p e z i e l l e g e n e r a l i s i e r t e Inverse, die in F ä l l e n regulärer Mat r i z e n Α mit A - 1 Ubereinstimmt. Zur Berechnung von A+ g i b t es v i e l e Verfahren, v g l . z.B. Albert (1972), B e n - I s r a e l / G r e v i l l e (1980); ein s p e z i e l l e s wollen w i r h i e r angeben. (Dies eignet sich im F a l l e der Existenz auch zur Berechnung einer Inversen.) Wir bezeichnen die Spaltenvektoren einer nxmMatrix Α mit a ^ , . . . , a m und die Matrix der ersten k Spalten von Α mit A^, d.h. A=(a^

a m ) und A^ = (a^

a^) f ü r k=1,...,m. Für k=2

m de-

f i n i e r e n w i r weiter dk=Ak-1ak

Ck = a k

- A k-1 d k

Dann g i l t f ü r k = 2 , . . . ,m

Ak

=

V r

d

k

b

k

L.T

mit , falls j T . \-1jT.+ (1 + d ^ d k ) • d j f t . , Benutzt man, daß die Pimdo-inveAU x+ = xT χ χ

c^O

, falls ck = 0 zinz& ί/zktou

, f a l 1 s χ φ 0 , und

χ durch

x+ = 0

, fal 1 s χ = 0

,

gegeben i s t , so kann man ausgehend von «+ + 1 = a1 sukzessive A^, A * , . . . , A * = A+ bestimmen. I s t Α eine n*m-Matrix mit n 1k Jk kf{i,...,p}

Kapitel I: Einßhrung und Grundlagen

I n A h h . l l s i n d d i e s e s p e z i e l l e n Abstände f ü r d i e Vektoren

B&lbpizZ: y i = (2,1)

T

und y^· = ( 6 , 4 ) T g r a p h i s c h angegeben. Es e r g i b t H

Ahb.ll:

y

i"

y

j ll2=/(2-6)Z

+

(1-4)Z = 5

sich:

,

II Y i - y j II, = | 2 - 6 | + |1 - 4 | = 7

und

||yi-yj IL =

.

raax{|2-6|,|1-4|}=4

E u k l i d i s c h e r Abstand, C i t y - B1ock - Abstand und T s c h e b y s c h e f f s c h e r Abstand im zweidimensionalen Raum

Ein w e i t e r e r h ä u f i g benutzter D i s t a n z i n d e x t r i z e n i s t die (emp^tciciie)

d(i,j) = / (

y i

im F a l l e q u a n t i t a t i v e r Datenma-

Mahalanob-Ud-Utanz

- y j ) T s " 1 ( y i - y j ) = II y,· - y j ll M

Hierbei bezeichnet S ^ d i e I n v e r s e der impVUichzn beobachteten Merkmale

·

KovaAMinzmafUx

der ρ

73

74

Kapitel I: Einßhmng und Grundlagen

S

2 1

s

12 .

s

1p

S=

S

12

S

1p

s

S

2p .

S

2

2p

···

i

Für k = 1 . . ,p i s t dabei (yik-y.k)2

S k ^ die mpituAchi

mit

y . K ^ . I ^ k

VaJvLanz des k-teri beobachteten Merkmals und für k , £ = 1 , . . . ,p

ist

die emp-uuAche KovtvUanz

zwischen dem k-ten und ί,-ten beobachteten Merkmal. -1

Für n > p i s t die Existenz von S

theoretisch mit Wahrscheinlichkeit 1 ge-

sichert. Bei den L - Metriken hängt ein Distanzindex also l e d i g l i c h von den Beobachtungsvektoren y.j und y . ab, wohingegen die empirische Mahalanobisdistanz, die ein gewichteter euklidischer Abstand i s t , auch die Kovarianzen (d.h. Abhängigkeiten) der ρ beobachteten Merkmale berücksichtigt. I s t Y eine qwxZJJjxtive.

so wird überprüft, ob die Merkmalsaus-

VatmmaX^ix,

prägungen jedes der ρ beobachteten Merkmale s t r u k t u r i e r t werden können. Wird durch eine Struktur dann z.B. ein V-Utanz-cnd&K d^ au.& deA Menge de-t MeAknat&auApiägungzn

du

k-tm

ΜeAkmati erzeugt, so kann dieser Distanz-

index für die Ausprägungen des k-ten Merkmals am i-ten und j-ten Objekt a l s Distanzindex d^C i d

) der beiden Objekte bzgl. des k-ten Merkmals

k(i'j)=äk(yik·^^

'

i ,j = 1 , . . . ,n

,

betrachtet werden. Aus den ρ verschiedenen Distanzindizes (bzgl. der einzelnen Merkmale) der Objekte i und j läßt sich dann ein einziger Distanzindex z.B. durch d(i,j)=

min k = l ,.,.,ρ

d.(i,j) K

oder d(i,j)=-i p

Ε d.(i,j) k=1 K

Kapitel 1: Einflhmng und Grundlagen

kombinieren. Eine andere Möglichkeit besteht hier darin, die qualitative Datenmatrix vermittels Skatie/uing

-in KoniLngznztaieZn,

vgl. Kap.V, zu quan-

t i f i z i e r e n , und dann diese quantitative Datenmatrix zur Bestimmung der Distanzindizes heranzuziehen. I s t Y eine gemischte

Ocutmmatriix,

so kann man zunächst getrennt für quan-

titativen und qualitativen Teil von Y Distanzindizes bestimmen. Diese beiden Teilindizes werden dann zu einem einzigen Distanzindex kombiniert. Beispielsweise kann a l s Distanzindex das Maximum, das Minimum oder der M i t t e l wert der beiden Teilindizes gewählt werden; vgl. aber auch Kap.V,5. I s t es zu aufwendig oder zu schwierig ρ Merkmale zu finden, welche die Objekte einer Grundgesamtheit charakterisieren, so kann man Distanzindizes für je zwei Objekte i und j aus der Grundgesamtheit auch durch glz-Lch bestimmen. Dazu sucht man eine Vi/ackLzdinheÄti'ieZatA.on

PcuvwinV in der

Menge a l l e r Paare aus η Objekten. Die Beziehung { i ,j} V {k,«J bedeutet dann gerade, daß sich die Objekte k und l mindestens so stark unterscheiden wie die Objekte i und j . Bei der Festlegung einer solchen Verschiedenheitsrelation V muß man darauf achten, daß a l l e Objektpaare miteinander verglichen werden und daß die Verschiedenheitsrelation widerspruchsfrei i s t , d.h. i s t { i , j } V { k , { , } und {k,i.} V {k' ,SL'}, so i s t { i , j} V {k' ,2.'}. Eine Relation mit dieser Eigenschaft heißt auch eine voZZitäncLige

Vhäondnanq.

Hat man eine solche Verschiedenheitsrelation für eine Menge von η Objekten bestimmt, so legt man eine Funktion f f e s t , welche jedem Objektpaar ( i , j ) eine positive Zahl zuordnet, die um so größer i s t , je verschiedener i und j sind, und setzt dann , falls i = j

Mittels mutXA.cUmini-ioncLte.K SkaZ-ieAung (MVS), vgl. Kap. VI ,

läßt sich dann

aus der so entstandenen Distanzmatrix eine quantitative Datenmatrix für die η interessierenden Objekte aus einer Grundgesamtheit konstruieren.

75

76

Kapitel 1: Einßhrung und Grundlagen

Aus den obigen Ausführungen ergibt sich, daß es möglich i s t , aus jeder beliebigen Datenmatrix eine Distanzmatrix und aus jeder, wie auch immer gewonnenen Distanzmatrix eine quantitative Datenmatrix zu gewinnen.

Kapitel II: Die Regressionsanalyse

Die Regi&ii-wmcLnaJiijie. funktionalen

i s t e i n Instrumentarium zur S p e z i f i k a t i o n

eines

Zusammenhang* zwischen einem Merkmal y , das auch R e g A z u a n d

oder endogene V&rUable. genannt w i r d , und Merkmalen X^ ten Reg/te^o-ten oder exogenen l> . . . , X h die Ausprägung y i des Regressanden y. Aufgrund dieser Daten kann dann der funktionale Zusammenhang zwischen endogener Variable und den exogenen Variablen geschätzt werden. Im Abschnitt 1 wird zunächst die multiple.

R&gnnAi-LonianalyAe.,dargestellt,

wobei eine lineare Regressionsfunktion u = B

o + ß1x1 + ' · ·

+e

hxh

zwischen einem quantitativen Merkmal y (Regressand) und h Einflußgrößen X^

X^ (Regressrren) mit festen aber unbekannten Parametern

ß^,

zugrundegelegt wird; die Regressoren können hier quantitative Merkmale oder Stufen qualitativer Merkmale, die mit 0 und 1 kodiert sind, darstellen. Es g i l t dann aufgrund von Beobachtungen an η Objekten, die Parameter der Regressionsfunktion zu schätzen, Konfidenzintervalle sowie Tests für sie anzugeben und zukünftige Werte oder fehlende Zwischenwerte des Regressanden zu prognostizieren bzw. zu schätzen. Außerdem werden wir uns mit der Reduktion der Anzahl der Regressoren (Multikollinearität), der Modell Überprüfung mittels Residualanalyse und der Behandlung numerisch instabiler Probleme z.B. mittels Ridge - Regression beschäftigen.

ßilip-izl:

(a) Die einfachste Form einer Regressionsfunktion i s t die a =fVBixi

RzgAznion&geMidz

;

die gesamtwirtschaftliche Konsumfunktion für die Bundesrepublik Deutschland i s t eine solche Gerade, die die Regression von privatem Konsum y auf das verfügbare private Einkommen X^ beschreibt. Die Daten für die Jahre 1960 bis 1970 (Quelle: Statistisches Bundesamt) ergeben folgende Schätzung für die Regressionsgerade (in Millionen DM): Η = 18784.341 +0.8227039x 1 An der Steigung der Geraden laßt sich ablesen, daß der private Konsum in geringerem Maße steigt als das verfügbare private Einkommen: Steigt das verfügbare private Einkommen um 1 Million DM, so steigt der private Konsum lediglich um 0.8227039 Millionen DM. (b) Um den Einfluß verschiedener Beimischungen Χ^,.,.,Χ^ auf die Festigkeit von Eisen y zu untersuchen, wird eine multiple Regressionsanalyse durchgeführt. Dazu werden η Eisenproben, welche die einzelnen Beimischungen in

79

Kapitel II: Die Regressionsanalyse

unterschiedlichen Mengen enthalten, analysiert. Von Interesse ist dann insbesondere auch die Frage, welche der Beimischungen die Festigkeit des Eisens wesentlich beeinflußen und welche (bei Berücksichtigung der anderen)

ver-

nachlässigt werden können. (c) Polynomials

RigAeA6-ioni^unk^tUinen

y = ß 0 + ß1x + ß 2 x 2 +... + ß h x h 2 können durch einfache Umbenennungen χ = χ ^ , χ

h = X2>

... , χ

= x ^ in die mul-

tiple Regressionsanalyse eingebettet werden; andere nichttineaA.z Reg-te/SiloM^anktAjontn können häufig durch Transformationen in lineare Regressionsfunktionen überführt werden. Ein Beispiel

ß



hierfür ist die Cobb - Vouglxii

-

der Art

PfioduktioniSanktion

Jl J2

o

!J = e

· Χ ι ·χ2

A

•••••X h

die durch die logarithmische In Η = ß 0

+

Transformation

ß 1 ' l n X 1 + ... + ß h - l n x h

und die Umbenennung ij = In § , x ^ = l n x ^ , ... ,

=

*h ™

e



e

'

ßj lineare multiple Regressionsfunktion verwandelt werden kann. Für die österreichische Landwirtschaft schätzte Tintner (1960) anhand des Wirtschaftsjahres

1954/55 mittels Regressionsanalyse eine Cobb - Douglas -

Produktionsfunktion

y =e

ßQ



ß, ßo '.Β ·Κ

mit den P/iodaktiom^aktoim

J

A = Arbeit (Mill. Arbeitstage), Β = Boden

zierte landwirtschaftliche Nutzfläche in 1000 ha) und Κ = Kapital in Mill. öS) und der zu erklärenden Größe S = E r t r a g

(redu-

(Aufwand,

(Rohertrag, in Mill

öS)

zu c 1.84589 .0.28801 „0.13985 „0.59717 a = e ·Α ·Β ·κ = 6.33373.Α°·28801.Β°·13985.Κ0·59717

,

so daß sich für die Summe ε der PAoduktionielMtiz-iXätin

ß^^.ßg

die Schät-

zung ε = 0.28801 + 0.13985 + 0.59717 = 1.02503 ergab.

Die Größe ε, die man auch Skalmelaitiz-UcU duktion

oder tlg-izblgkeJjthQHad

nennt, wird dann zur Bewertung des Einsatzes der

diu

Pro-

Produktionsfaktoren

80

Kapitel II: Die Regressiomanalyse

herangezogen. Aufgrund der Überlegung, daß eine prozentuale Erhöhung der Produktionsfaktoren um a% die Produktion von μ auf a(1 +a/100) e

erhöht,

s c h l i e ß t man im F a l l e e> 1 auf einen unteroptimalen E i n s a t z der

Produktions-

f a k t o r e n , da h i e r eine überproportionale Steigerung der Produktion möglich i s t (nach der Produktionsfunktion), F a l l e ε < 1 auf einen

'überoptimalen

im F a l l e e = 1 auf einen optimalen und im 1

steigerung) der Produktionsfaktoren,

E i n s a t z (unterproportionale vgl.

z.B. Krelle

Produktions-

(1969).

N a t ü r l i c h muß in der Regel ε empirisch bestimmt werden, so daß dann z . B . e r s t anhand eines K o n f i d e n z i n t e r v a l l s Aussagen mit e i n e r p r ä z i s i e r t e n S i -

.

c h e r h e i t gewonnen werden können.

]

Bei der multiplen Regressionsanalyse, wie s i e im Abschnitt

1 behandelt wird

(man v g l . aber auch insbesondere im F a l l e mehrerer Regressanden y^

J}p

die Ausführungen in Kap.X), werden a l l e unbekannten Größen ß Q

der

Regressionsfunktion a l s f e s t e Parameter a n g e s e t z t . I s t d i e s n i c h t der d.h.

sind e i n i g e d i e s e r ReQUeMlomkoe^lzlenten

kommt man zu den im Abschnitt 2 behandelten Ge.mc0c.kten

Fall,

so

Zuiallivtvuablen, Lln.eM.en.

Jodetten.

Hier möchte man dann d i e f e s t e n Parameter und die Realisationen der Zuf a l l s v a r i a b l e n oder auch Linearkombinationen derselben, die z . B .

in der

T i e r - und Pflanzenzüchtung sowie in der Ökonometrie von entscheidender Bedeutung s i n d , schätzen bzw. p r o g n o s t i z i e r e n ; außerdem werden Konfidenzund P r o g n o s e i n t e r v a l l e f ü r solche Linearkombinationen

In den Abschnitten ein quantitatives

angegeben.

1 und 2 s i n d wir davon ausgegangen, daß der Regressand y Merkmal i s t ; bei q u a l i t a t i v e n

insbesondere bei nominalen

Merkmalen y sind diese Verfahren n i c h t mehr anwendbar, es sei denn, man i k a LLenZ

y

zunächst m i t t e l s der in Kap.V d a r g e s t e l l t e n Methoden.

Die in Abschnitt 3 abgehandelte cLii>k>iete Hegiealomanalyie keiten zur Behandlung von Problemen mit qualitativen

bietet

Möglich-

RegieAAandm,ohr\e

Ska-

l i e r u n g s v e r f a h r e n zu verwenden. Hier g i b t es u n t e r s c h i e d l i c h e Ansätze, von denen wir das Pn.obltle. Uakuchelnllchkextimodell Wahuckelnlichkelten

oder Ν o n m i t - Modell,

das Loglt-Modell

und das

ansprechen w o l l e n , die a l l e dazu dienen, zu ichätzen,

Lineadie

mit denen bei vorgegebenen Werten der Re-

gressoren die einzelnen q u a l i t a t i v e n Ausprägungen des Regressanden y a u f treten.

Kapitel II: Die Regressionsanalyse

81

1 MULTIPLE REGRESSIONSANALYSE FÜR QUANTITATIVE DATEN D i e multiple

i s t ein

Regie^i-Lonianalyie

des funktionalen

Instrumentarium zur

Untersuchung

Zusammenhangύ zwischen einem q u a n t i t a t i v e n Merkmal y m i t

A u s p r ä g u n g s v a r i a b l e a und Merkmalen Χ ^ , . , . , Χ ^ m i t A u s p r ä g u n g s v a r i a b l e n x^

x ^ ; X j s t e h t dabei f ü r j = 1 , . . . , h f ü r e i n q u a n t i t a t i v e s Merkmal X j

oder auch f ü r e i n e S t u f e e i n e s q u a l i t a t i v e n Merkmals. ( S e i n e Ausprägung w i r d dann m e i s t m i t 1 oder 0 k o d i e r t , j e nachdem ob d i e s e S t u f e

vorliegt

oder n i c h t ; v g l . auch d i e B e i s p i e l e im A b s c h n i t t 2 und i n den A b s c h n i t t e n 1 . 3 , 1.4 des K a p . X . ) N a t ü r l i c h kann im F a l l e e i n e s q u a l i t a t i v e n Merkmals y d i e s e s auch z u n ä c h s t m i t den Methoden aus Kap.V s k a l i e r t werden. Der m u l t i p l e n R e g r e s s i o n l i e g t nun e i n e » = e 0 ' + ß i * i + •·· zwischen

dem s o g e n a n n t e n

nen (exogene

Regneawmiunkiion

+ eh*h

Regneaanden

(endogene

y u n d den

Va/Uable)

Χ ^ , . , . , Χ ^ zugrunde. A l l e r d i n g s sind die

Vaniablen)

Regneao-

RegneM-iom-

d i e s e r F u n k t i o n unbekannt und müssen daher ge-

koeü-iz-ientm s c h ä t z t werden.

Man b e s c h a f f t s i c h dazu nun j e w e i l s η Beobachtungen ( n > h + 1 ) d e r Merkmale y,xr...,xh yi ,χ^ ,... ,xih

f ü r i = 1 , . . . ,n

;

s t r e n g genommen b e o b a c h t e t man zu den f e s t vorgegebenen Ausprägungen von X 1 5 . . . , X h ( i = 1 , . . . , n ) d i e Z u f a l l s v a r i a b l e y i bzw. deren A u s p r ä g u n g e n , d i e w i r h i e r e b e n f a l l s m i t y^ b e z e i c h n e n w o l l e n . Ausgehend von d i e s e n Beobachtungen l e g t man dann e i n Modell d e r Form y

i



o

+ ß1xi1 +

···



hxih

+ e

i

z u g r u n d e , wobei d i e Z u f a l l s v a r i a b l e n

f ü r

1= 1"

····'"

v o n e i n a n d e r unabhängig s i n d

m i t E r w a r t u n g s w e r t 0 und ( i n d e r Regel u n b e k a n n t e r ) V a r i a n z σ 2 , d . h . E(yi) =B0 + ß 1 x i 1 + · · · und b e s t i m m t für

0j

so,

die

n a c h d e r Gauß'ichen

daS m i t 2 =

+

V

§

i

ReA-idual- o d e r

ßhxitl Methode

d e r geichätzten x

i

+

-

Fehlen

+

-

V h Quadnatiumme

Var(yi)=o2 den. klemmten RegnenionifunktLoη

f ü r i = 1 , . . . ,n ,

Quadnate

Schätzer

iL

82

Kapitel II: Die Regressionsanalyse

SSE

=X

( y

i-?i)2

minimal (bzgl. ß Q

=

j,

δ

ι

χ

h

x

i h

< * Γ ν

ι Γ · · · Λ

χ

ι ι /

ß h ) wird; die Größen

V y i - y ^ r

V

§

x

i

i r - " -

g

nennt man dann auch Rei-tdaen. Dieses Vorgehen führt zunächst auf die folgenden Bestimmungsgleichungen, die auch Honjralmghiic.kangen g

1SQX,

+ S

2

S P

genannt werden, für ß^ *1*

,SP. Χ , Χ ^ ^

2 +

+

-

-"

+ S h S

+ 0

h

Vh"

S

V

h

'

S P j t

S P

ß^:

ie

*2»

wobei mit 77

1 Γ i=1

'

77 1 " VJ n "i i, =X1 i j

'

f ü r j = 1

h

gilt

V i , " « - « ; '

2

*

II SP = SP = l (x..-x.)(x.,,-χ.,) und X J J J J j V *j'Xj i=1 η _ _ SP„,,= ι (χ,, -x,)(y,· - y ) für j , j ' = 1 , . . . , h Xjö i = 1 1J J 1

.

Hieraus ergibt sich dann a l s Schätzer für das Absolutglied ßQ gerade

und die Varianz σ 2 der Zufallsvariablen s

2

^

M y r ^ )

2

wird geschätzt durch

^ . ! ^ ?

.

Zur Beurteilung der Güte der Anpassung wird häufig das multiple. htitimaß B = B

y,0,...,h)

=B

u,(xr...,xh)

= s

2

2

y/sy

Butimmt-

83

Kapitel II: Die Regressionsanalyse

= 1-j=i

2

( y r V ¥ i r - - ¥ i h )

η

9

/

n

,

/

i=1 n

9

/ Σ (y-j-y) 2 = 1 - Σ 1 ' i=1 i=1

= ι - Ι i=1

< ^ >

2

n

/

9

ή / l 1 ' i=1

^ - y )

2

1

verwandt, das angibt, welcher Teil der Varianz des Merkmals y durch die Regressoren X^

X^ erklärt wird; die Größe U = 1 - Β nennt man auch UwbeWerden die Regresionskoeffizienten ß Q > ß j

itimmtheA-timaß.

ß^ wie hier

nach der Methode der kleinsten Quadrate geschätzt, so stimmt das multiple Bestimmtheitsmaß mit dem Quadrat des mpOU^chen

mttipten

KoiA.eXa£tonAkoe6-

vgl. Abschnitt 1.3 in Kap.III, überein, d.h. es gilt dann

ilzizntzn,

y

..,x h

Wir wollen im folgenden das multiple Regressionsmodell

in Matrixschreibweise

darstellen und dann auch Tests, Konfidenz- und Prognoseintervalle angeben, wobei wir allerdings dann verlangen müssen, daß die Fehler e^,...,e n sind.

nofwulveAtzitt

Setzt man 1 ,

x,, .

1

y = Xß + e E(y)=Xß,

e

1h ,

X

n1 ·

so erhält man die ikUnXxichxtlbMOMie-

I

x

X =

•yn

wobei



1

e =

ß

,

1

ß =

,

• x nh> du

multiplen



o

ß

1

ß



ß =

RnQKZM-LoMmodMA:

mit E(e)=0,

Cov(y) = Cov(e) = σ 2 I n

,

die ηχη - dimensionale Einheitsmatrix, vgl. Abschnitt 4 in Kap.I,

bezeichnet.

Weiterhin wollen wir hier annehmen, daß X T X invertierbar ist; allgemeinere Modelle werden im folgenden Abschnitt 2 und im Kap.X (man setze dort ledig1 ich ρ = 1) betrachtet.

Das Noimale.nglUxicli>ieibweii£

84

Kapitel II: Die Regressionsanalyse

6 = (XTX)"1XTy und der Sc.hä£zeA

VCLHAAYIZ σ 2 kann auch geschrieben werden als

^CU die.

sz=ii=HrryT(in-x(xTx)"1xT)y

·

Setzt man nun C

C .... C u o1 oh

oo

c

o1

C

11

"1h

c

oh

c

1h

L

C = (X T X)" 1

so lassen sich die Va/Uanzin, Quadrate. j=0,1

-

hh

Kovcuiianzm

und KoMelaXlon&n

für

Schätzzn

dvi

KleÄ-nitz



β. , die natürlich für

ο 1 o*1'"· h h den Erwartungswert E(ßj) = 3 j besitzen, wie folgt angeben. Für

j,j '=0,1.... ,h, jjij 1 , ist Var(gj)

, Cov(ßj

Corr(ßj >ßj ι) =

C

,) = a 2 c ^ ,

und

jj'

Neben den bisher behandelten Punktschätzern für die Parameter V P 1 ·""' ' p h des multiplen Regressionsmodells können auch Kon^ldenzlnteAuatie. ^ü/i dlue. VajuamoXeA bestimmt werden.

Zunächst erhält man als IndividuetteA für den Parameter ßj (j=0,1 ±

wobei t

Konh-Ldznz-inX.2AvaJLl

zum Niveau 1-γ

h) ein Intervall mit den Grenzen

Vh-iii-Y/z-^^jj

·

das α-Quantil der t - Verteilung mit ν Freiheitsgraden bezeich-

net; diese Quantile sind im Anhang vertafelt. Ein solches Konfidenzintervall für ß. überdeckt den wahren Parameter ßj mit Wahrscheinlichkeit 1-γ; man sagt auch kurz: Mit Wahrscheinlichkeit 1-γ liegt ß^ in diesem Intervall.

Möchte man für alle Parameter ß Q

ß^ gleichzeitig Intervalle angeben,

die die Parameter mit einer Wahrscheinlichkeit von insgesamt 1-γ überdekken, so kommt man zu den ihruliamn

(1-γ) - Kon{,idznzinte.>ivatttn,

Grenzen für j=0,1,...,h nach Scheffe gegeben sind als

deren

85

Kapitel II: Die Regressionsanalyse

2 c ---F, !0- ± v ρ

Hat man zwei sich durchaus Uberschneidende Sätze von Regressoren zur Erklärung des Regressanden y ausgewählt, so kann man sich beim Vergleich der beiden Regressionsmodelle des adjuiJU&nXm

Ba>t*jmvth.eAZinußeA

bedienen:

wobei ν die Anzahl der berücksichtigten Regressoren bezeichnet; man wählt dann das Modell mit höherem Wert F aus, vgl. Ezekiel (1930) und auch Seber (1977, §12) für weitere Kriterien zum Modell vergleich und zur Modellauswahl. Der Sinn der adjustierten Bestimmtheitsmaße wird an folgender Überlegung deutlich. Ist der eine Satz von Regressoren vollständig im anderen enthalten, so ergibt sich stets für ersteren Satz ein geringeres Bestimmtheitsmaß B. Jedoch ist nicht unbedingt die Regression "schlechter" etwa in dem Sinne, daß die Prognosequalität (Kürze von Prognoseintervallen) verringert wird, denn die Länge eines Prognoseintervalls für einen zukünftigen Wert y* hängt von der Anzahl der berücksichtigten Regressoren ab, was beim adjustierten Bestimmtheitsmaß berücksichtigt wird.

88

Kapitel II: Die Regressionsanalyse

An d i e s e r S t e l l e w o l l e n w i r noch kurz a u f d i e Problematik der necvUtät

MuttlkoUl-

der Regressoren e i n g e h e n ; a l l g e m e i n l ä ß t s i c h sagen, daß e i n e hohe

K o r r e l a t i o n zwischen den Schätzern Bj und ß^ f ü r d i e Parameter ß j und ß v (j,v=1

h) auf e i n e ' K o r r e l a t i o n ' zwischen den Regressoren X j und

schließen l ä ß t . Man s p r i c h t von M u l t i k o l l i n e a r i t ä t der Regressoren, wenn d i e Spalten der M a t r i x X " f a s t " l i n e a r abhängig sind bzw. wenn XTX i n der "Nähe" der S i n g u l a r i t ä t l i e g t ( d e t (X T X) " k l e i n " ) ; in diesem F a l l ü b e r l a g e r n s i c h d i e E i n f l ü s s e der Regressoren ( S p a l t e n von X) oder - wie man auch sagt - d i e E i n f l u ß f a k t o r e n sind "vermengt". Eine InteipietaXlon

del einzelnen

i s t dann p r o b l e m a t i s c h , z . B .

Schätzet,

läßt

s i c h e i n e Aussage w i e : "Erhöht sich der Wert des j - t e n Regressors um e i n e E i n h e i t x^ a u f x ^ + 1 , so e r h ö h t sich der e r w a r t e t e Wert des Regressanden um ß j E i n h e i t e n . " nur dann a u f r e c h t e r h a l t e n , wenn ß j p r a k t i s c h

unkorreliert

mit den anderen Parameterschätzern s i n d . Lehnt man beim oben angegebenen Rextuktioniteit

d i e Hypothese n i c h t ab und'

" s c h l i e ß t " , daß d i e E i n f l u ß v a r i a b l e n * ( j ) >· • · »*(f,-q) gressanden a u s r e i c h e n , so sei davor gewannt, d i e r e s t l i c h e n , e l i m i n i e r t e n q Regressoren

zur

K l ä r u n g des Re-

g l e i c h z e i t i g zu f o l g e r n , daß x

(h_q+i)>···keinen

f l u ß auf y haben. Aufgrund der in der Regel hohen ' K o r r e l a t i o n e n ' Multikollinearität)

Ein(bzw.

zwischen den Regressoren i s t vielmehr nur der f o l g e n d e

Schluß e r l a u b t : Die e l i m i n i e r t e n Regressoren bringen bei g l e i c h z e i t i g e r Ber ü c k s i c h t i g u n g von

j

*(h-q)

zu.icitztlc.hen

Beltnag

zur E r k l ä -

rung des Regressanden y . Der B e i t r a g der r e s t l i c h e n Regressoren w i r d von den m i t ihnen hoch ' k o r r e l i e r t e n ' Regressoren z . T . übernommen. Dies w i r d auch d e u t l i c h bei einem V e r g l e i c h der ' a l t e n ' Schätzungen f ü r d i e Regress i o n s k o e f f i z i e n t e n m i t den 'neuen' ( u n t e r der Reduktions - Hypothese gewonnenen) Schätzungen im r e d u z i e r t e n M o d e l l . Der 'Grad der Veränderung' der Schätzungen f ü r d i e v e r b l i e b e n e n R e g r e s s i o n s k o e f f i z i e n t e n g i b t e i n e n H i n w e i s a u f d i e Stänke

mlnienten.

den. Abhängigkeit

den. venbtlebenen

Menkmale

zu den

D e u t l i c h e r t r i t t d i e s z u t a g e , wenn hoch ' k o r r e l i e r t e '

w e c h s e l s e i t i g e l i m i n i e r t werden, und d i e s umso mehr, j e höher d i e

eZl-

Merkmale 'Korre-

l a t i o n ' m i t dem Regressanden i s t . N a t ü r l i c h haben vorgenannte Ergebnisse i n der Regressionsanalyse nur u n t e r der Bedingung i h r e G ü l t i g k e i t , daß d i e x ^ f ü r i = 1 , . . . , n und j = 1 , . . . , h

die

w i r k l i c h e n V e r h ä l t n i s s e i n der i n t e r e s s i e r e n d e n Grundgesamtheit von Objekten ohne größere F e h l e r w i d e r s p i e g e l n , d . h . d i e Ergebnisse sind

bedingt

Kapitel II: Die Regressionsanalyse

89

durch die x ^ · . I s t generell die Bestimmung der Schätzer β

i r u t a b M . , d.h. geringe

Änderungen in X T X bewirken größere Veränderungen von β (man sagt XTX i s t schlecht k o n d i t i o n i e r t ) und insbesondere auch schnelle

Voiztick&nuiechiel.

bei den Komponenten von ß, so bedient man s i c h mitunter der sogenannten R-tdge - RzgAeAi-ion, v g l . Hoerl/Kennard (1970). Man berechnet hierbei f ü r e i n i g e Zahlen k ^ O den Schätzer ß(k) = (X T X + k - I h + 1 ) _ 1 X T y für β und beobachtet die Veränderung in ß ( k ) ; n a t ü r l i c h i s t ß(0) = ß gerade der gewöhnliche K l e i n s t e - Quadrate - Schätzer f ü r ß. M i t t e l s der sogenannten R-idge.- Tnace. kann man s i c h die Veränderungen graphisch veranschaulichen, v g l . auch nachfolgendes B e i s p i e l ; h i e r werden neben den Veränderungen in ß(k) f ü r k e [Ο,ω] zweckmäßigerweise auch noch die Kenngrößen n ? SSE(k) = ^

( y . - ß Q (k) - β , Μ χ . , - . . . - ß h ( k ) x i h )

Q(k) = SS $ E s ( E k)

mit

und

SSE = SSE(O)

abgetragen; f ü r die zugehörigen Bestimmtheitsmaße B(k) e r h ä l t man B(k) = 1 - Q ( k ) ( 1 - B ) = 1 - Q ( k ) - U

mit

B(0)=B

so daß Q(k) auch den Quotienten der Unbestimmtheitsmaße angibt Ofkl Qlk) _ 1 -pBr (gk ) _ U (gk-) Eine grobe Faustregel

.

i s t , daß s i c h die ß(k) a l s Schätzer f ü r β verwenden

lassen (unter Angabe der zugehörigen Bestimmtheitsmaße), solange Q(k)_< 1.1 g i l t , d.h. solange die zugehörige Fehlerquadratsumme SSE(k) bzw. die entsprechende Unbestimmtheit U(k) um höchstens 10% größer i s t a l s SSE bzw. U. Diese Faustregel s c h l i e ß t i n d i v i d u e l l e Vorgehensweisen n a t ü r l i c h nicht aus. Zur übeApA.ü^ung

zineA

R&g/i 3

ist (Faustregel). Schließlich kann überprüft

werden, ob einer gestellten Normal Verteilungsannahme offensichtlich etwas entgegenspricht. Hier lassen sich auf die e " o r m (i=1

n), die unter

Gültigkeit der Normal Verteilungsannahme als approximativ

N(0;1)-verteilt

angesehen werden können und deren Korrelationen in der Regel wenig Einfluß haben, vgl. Seber ( 1977), Verfahren zur Prüfung auf Standardnormal Verteilung anwenden, z.B. der Kolmogoroff - Smirnov - , der χ 2 - Anpassungstest oder das Einzeichnen in Wahrscheinlichkeitspapier, vgl. Härtung et al. (1982, Kap.IV). Alternativ zum Uakuck&^ntichkeXtißip-iz/L

läßt sich der

Q-Q-Plot,

vgl. Kap.IX und X, anwenden; allerdings trägt man hier im univariaten Fall in einem Koordinatensystem direkt die geordneten normierten Residuen inorm ~norm ~norm e ( 1 ) — (2) ± " - ± e ( n ) gegen die i/(n+1) - Quantile

u

- j / ( n + u der Standardnormal Verteilung ab, die

im Anhang vertafelt sind. Die Punkte ( u -j/( n+ i) » e " " ™ ) sollten dann praktisch auf der Geraden durch den Punkt (0,0) mit Steigung 1 (Winkelhalbierende) liegen. Größere Abweichungen von dieser Geraden deuten auf eine Ve.lZ&tzu.ng

d f i HonmatveAteAZangiannahmi

hin, allerdings kann eine in etwa

konstante Drehung der Punkte - 'Geraden' nach rechts auch dadurch entstehen, 2 daß n - h - 1 zu klein ist; s sollte dann durch SSE/(n-1) oder SSE/n ersetzt werden. Liegt ein Punkt im Q - Q - P l o t sehr weit weg von den übrigen, so deutet dies zusätzlich noch auf einen ΑιαΛζίββΛ oder eine Beobachtung

hin.

Natürlich bietet die Residualanalyse noch viele weitere Möglichkeiten; man kann etwa die Residuen auch gegen einen V>uXthaktoK oder einen der Regressoren abtragen. Sind die Daten z.B. nicht gleichzeitig sondern zeitabhängig erhoben worden, so kann als Drittfaktor die Zeit gewählt werden und am Residual plot läßt sich ablesen, ob systematische Abhängigkeiten von der Zeit vorhanden sind; ist dies der Fall, so ist vielleicht eher ein Modell mit koumZJ-zntzn ΐzhlifw angebracht.

Kapitel II: Die Regressionsanalyse

BeÄAp-ieZ: Ausgehend von η = 10 Beobachtungen

soll

plen Regressionsmodell der E i n f l u ß d r e i e r Regressoren

X ^ X g . X j (z.B.

91

in einem m u l t i -

G i f t e ) auf einen Regressanden y (z.B. Lebensdauer nach Giftgabe)

h=3

untersucht

werden. D.h. wir betrachten die Regressionsfunktion U ' ß o + Β,Χ, + ß 2 x 2

+ ß

3*3

und das zugehörige Modell = ß

o

+ ß

1Xi1

+ ß

2xi2

+ ß

3xi3

wobei die Beobachtungsfehler e^

+ e

i

für 1 = 1,...,10

,

e ^ a l s voneinander unabhängig mit E r -

wartungswert 0 und Varianz σ 2 sowie (im F a l l e von T e s t s , Konfidenz- und Prognoseintervallen) normal v e r t e i l t angenommen werden. In der Cab.l s i n d f ü r i = 1 , . . . , 1 0 die Beobachtungswerte y ^ , die zugehörigen Werte x-j ι * x i 2 * x i 3

cler

Regressoren sowie e i n i g e e r s t später bestimmte Größen

angegeben. i a b . l : Beobachtete Werte y^, Werte der Regressoren x - j ι ' x - j 2 , x i 3 ' Modellprognosen y·,Residuen e. und normierte Residuen £ " o r m f ü r i = 1 , . . . , 1 0 im J i ι ι B e i s p i e l zur multiplen Regression i 1 2

3 4 5 6 7 8 9 10

y

i

24 28 25 13 27 14 15 32 14 28

X

i1

31 3 7 29 27 18 28 17 8 12

x

i 2

x

4 6 5 3 5 3 3 6 4 5

i3 22 29 23 15 28 12 14 33 16 24

29 2 6 30 26 19 25 20 6 13

h

e. = y . - y . 1

17467 14899 34740 35956 11520 73727 56541 04221 69170 81723

1 -1 1 -2 -1 1 0 -1 -2 3

82533 14899 65260 35956 11520 26273 43459 04221 69170 18277

~norm e i 0.76189 -0.47959 0.68979 -0.98487 -0.46548 0.52706 0.18140 -0.43502 -1.12351 1.32848

Aus der Tab.1 e r g i b t s i c h dann zunächst unser Modell in Matrixschreibweise (yr

X=

31 3 7 29 27 18 28 17 8 12

"1'

·*10 4 6 5 3 5 3 3 6 4 5

29' 2 6 30 26 19 25 20 6 13

und

β=

'' 'en

92

Kapitel II: Die Regressionsanalyse

und σ 2 des Modells ichätzw;

Wir wollen nun zunächst die Parameter

hier

erhalten wir wegen 180 4194 731 4105

10 180 X X = 44 176 T

C=

o1

C

o1

C

02

c

o3

c

00

c

44 731 206 719

220' yT _ 3773 * y - 1038 3723

176' 4105 719 » 4048

o2

c

11

C

12

C

13

12

c

22

C

23

13

c

23

c

33

und

o3 (X T X)

-1

-385552 87158 60646 -82394

9873050 1 -385552 2246148" -1597232 245416

-1597232 60646 287126 -43054

245416 -82394 -43054 81086

zunächst T

T

1

T

ß = ( ß 0 , § 1 , ß 2 , ß 3 ) = (X X)" X y =

-11.95814 0.09945 6.75515 0.13894

als Schätzung für ß. Die resultierenden Modell - Prognosen -11.95814 + 0.09945/^ + 6.75515x i 2 + 0.13894x i 4



sowie die Residuen e

y

ι

-y.

i

sind für i = 1

10 bereits in der Tab.1 angegeben, so daß wir nun den

Schätzer für σ

2

berechnen können:

(y

i-yi)2

=

1 10-3-1

10

Σ

i=1

e? =1-34.43912 = 5.73985 l b

Hierzu erhalten wir nun sofort das Bestimmtheitsmaß B, das Unbestimmtheitsmaß U und das adjustierte Bestimmtheitsmaß F der Regression. Mit 1 n

n

l i=1

1

1 =1TU V 2 2 0

10 = 22

-

d

-h·

l ( y1| - y ) i=1

9

=468

ergibt sich Β = 1 - Σ° i=1

Λ /

i=1

(yry)2

Β = 1 " T I R F T (1 " ß ) = 1

1

= 1

-341r912 4bö

= 0

·92641

> U = 1-B= 0.07359,

= 1 - ^ ' 0 . 0 7 3 5 9 = 0.87735

;

das (adjustierte) Bestimmtheitsmaß der Regression von y auf Χ.,Χ,,,Χ, ist

93

Kapitel II: Die Regressionsanalyse

h i e r a l s o sehr hoch. Bevor w i r uns mit der Prognose z u k ü n f t i g e r Beobachtungen, mit B e r e i c h s s c h ä t zungen und Tests b e s c h ä f t i g e n , wollen w i r unser Regressionsmodell

mittels

R e s i d u a l a n a l y s e überprüfen. Dazu s i n d in den A b b . 1 - 3 d i e KuldaaZploti

der

beobachteten Werte y^ gegen die b e r e i t s geschätzten Werte y^ und der n o r mierten Residuen e " o r m = e^/s , d i e b e r e i t s in Tab.1 mitangegeben s i n d , g e gen y.j sowie der Q - Q - P l o t der geordneten, normierten Residuen e " ° j m gegen die Q u a n t i l e

u

i/(n+i)

= u

-j/i 1 der S t a n d a r d n o r m a l v e r t e i l u n g , v g l . auch C a b . 2 ,

dargestellt. l a b . 2 : Geordnete, normierte Residuen e " ° ) m > v g l . auch Tab.1, und Q u a n t i l e u · , . . der Standardnormal V e r t e i l u n g f ü r i = 1

i

^norrn e (i)

1 2 3 4 5

-1.12351 -0.98487 -0.47959 -0.46548 -0.43502

u

i/11

-1.34 -0.91 -0.605 -0.35 -0.115

i

ftnorm β

6 7 8 9 10

0.18140 0.52706 0.68979 0.76189 1.32848

(ΐ)

u

10

i/11

0.115 0.35 0.605 0.91 1.34

Keine der d r e i Abbildungen g i b t Anlaß zu s t a r k e n Bedenken gegen die Modellannahmen. Wir gehen nun auf d i e Piognoiz

z u k ü n f t i g e r Werte des Regressanden e i n und

wollen h i e r einmal die folgenden Werte der Regressoren b e t r a c h t e n : X | , = 25, x 2 * = 4 . 5 , X j * = 2 3 , d . h . x * = ( 1 ,25 , 4 . 5 , 2 3 ) T . Es e r g i b t s i c h dann zunächst a l s Prognosewert f ü r d i e z u k ü n f t i g e Beobachtung y * = x*ß + ε * y * = x*ß = -11.95814 + 25-0.09945 + 4.5*6.75515 + 23-0.13894 = 24.122 Nun s o l l e n noch ( i n d i v i d u e l l e und simultane) K o n f i d e n z - und P r o g n o s e i n t e r v a l l e zum 95% Niveau f ü r y * bestimmt werden. M i t x * C x * = 0.29923 e r g i b t s i c h zunächst das i n d i v i d u e l l e K o n f i d e n z i n t e r v a l l

f ü r E ( y * ) mit

den Grenzen xlß ±

t

= 24.122

n-h-1;1-Y/2±

v

^^

t10.3_1;1_0_05/2.^

= 24.122 * t 6 . 0

975·νΓΓΓ7Τ75

= 24.122 ± 3.207

5.73985-0.29923 = 24.122 ± 2 . 4 4 7 - \ / 1 . 7 1 7 5

94

Kapitel II: Die Regressionsanalyse

Abb.2: Residualplot von e " o r m gegen y^ für i=1

10 im Beispiel

Kapitel II: Die Regressionsanalyse

Abb.3: Q - Q - P l o t von

gegen u ^ ^

für i=1

10 im Beispiel

d.h. das individuelle 95% Konfidenzintervall für den Erwartungswert von y* ist [20.915,27.329], und das individuelle 95% Prognoseintervall für y* selbst besitzt die Grenzen xlß *

V h - l i H / 2 ' ^ ^ '

= 24. 122 ± 2.447-v/ 5.73985*1.29923

= 24.122 ± 6.682

d.h. es ist gegeben als [17.44,30.804]. Ist man nicht nur am speziellen y* interessiert, sondern an allen möglichen zukünftigen Beobachtungen gleichzeitig, so bestimmt man simultane

Intervalle zum Niveau 95%. Für unser spe-

zielles y* ergibt sich das simultane 95% Konfidenzintervall

für E(y*) zu

[18.541,29.703], denn xT*ß - / ( h + 1 ) s ^ C x , . F h + 1 > n . h . l ; l . Y = xlB ± = 24. 122 ± und das simultane 95% denn

AsZxiCx,.F4f6;0i95

4-5.73985-0.29923-4.534 = 24.122 ± 5.581

,

Prognoseintervall für y* selbst zu [12.492,35.752],

95

96

Kapitel II: Die Regressionsanalyse

± y (h+Dsz(x2cx* = 24.122 ±

+

i).Fht1>n_h.1;1-Y

4-5.73985-1.29923-4.534 =24.122 ± 11.630

.

Die Konfidenz- und Prognoseintervalle sind hier recht b r e i t , was zum einen bedingt i s t durch die im Verhältnis zur Parameteranzahl geringe Beobachtungsanzahl und zum anderen am r e l a t i v hoch gewählten Niveau von 95% der Intervalle l i e g t ; insbesondere bei den Prognoseintervallen i s t man oft schon mit sehr viel geringeren Niveaus zufrieden. Betrachten wir nun Kon6-idznzbiAej.chz

(zum 95% Niveau) für die PammeXeA ßj

(j=0,1,2,3) unseres Regressionsmodells. Wir können hier zunächst einmal die individuellen 95% Konfidenzintervalle mit den Grenzen (für j = 0 , . . . , 3 ) * Vh-i;i-r/2-^jj

= e

j

*

= 3j ± 2.447·^ 5.73985cjj

^ o . g y s ' ^ j j

,

simultane 95% Konfidenzintervalle für β ^ . , . , β ^ mit den Grenzen (für j=0,...,3)

= ßj ± V 2-5.73985Cjj-4.534 oder z.B. auch simultane 95% Konfidenzintervalle für je zwei der Parameter ß 0 ,...,ß.j bestimmen; für das Paar ß 0 »ß 2 setzt man z.B. L = (£ ^ »Ä.^) mit = (1,0,0,0) T , J>2 = (0,0,1,0) T und als Rang der Matrix L ergibt sich der Wert d = 2. Die Grenzen dieser Konfidenzintervalle ergeben sich dann für j = 0 , . . . ,3 zu * ^dsVFd.n-h-1;1-Y

h

= S

j

1

^2sSj'F2.6;0.95

= ßj ± V 2-b.73985Cjj-b.143 Zu all diesen Konfidenzintervallen vgl. man die Cab.3, aus der sich etwa ablesen l ä ß t , daß das individuelle Konfidenzintervall für ß^ folgende Ges t a l t besitzt [ß 3 - 1.11388 , ß 3 + 1.11388] =[-0.97494,1.25282]

Man sieht, daß die individuellen Konfidenzintervalle am schmälsten und die simultanen Konfidenzintervalle (für a l l e 4 Parameter g l e i c h z e i t i g ) am breitesten sind.

Kapitel II: Die Regressionsanalyse

97

Cab.3: I n d i v i d u e l l e K o n f i d e n z i n t e r v a l l e f ü r β ^ . , . , β ^ , simultane Konfidenzi n t e r v a l l e f ü r ßQ der

ßg

Parameter ßj

1

ß2

-11.95814

0.09945

6.75515

O.13894

9873050

87158

287126

81086

±12.29110

±1.15483

±2.09605

±1.11388

±21.39082

±2.00981

± 3 . 6 4 786

±1.93854

±16.10942

±1.51359

±2.74720

±1.45991

e

Schätzung ß^ 2246148·Cjj indiv.

/4S

ß

o

®3

Konf.-Int.

simult. ±

simultane K o n f i d e n z i n t e r v a l l e f ü r je zwei

Parameter β . . . . . ß ^ (simultane Paare) zum 95% Niveau

Konf.-Int. 2

C..-F

4 ( 6 ; 0 9 5

simultane Paare *

^ S j ' ^ e . - o . g s

Wir wollen nun noch die zweidimensionalen K o n f i d e n z e l l i p s e n zum 95% Niveau f ü r a l l e sechs Paare von je zwei Parametern sowie das 95% K o n f i d e n z e l 1 i p s o i d für d i e Parameter ß 1 , ß 2 und ß 3 bestimmen. Für den Vektor L T ß = ( ß r ß 2 ) T mit L = 0

1 0

0

d.h.

0 0 1 0

(LT(XTX)"1L)"1

-1

c

oo

c

o1

c

o1

C

11

30.21107 -6.38110

-6.38110 9.17067

e r g i b t s i c h z.B. wegen d = rg L = 2 b1-ßl E

L

0.95< >=
1

CN CO

in γ

Ο CN

>1

CD r-

y

rH CN

>1

ro CN

CN

CN CN

CN TH

V0 CN

ro r-»

r

ΓCN

Ο CN

m CN

ο CN

>X ro

σ ο

00 iX

ro m

CO

ο

\D

Ο

ro y

m

»H CN

m

σ\

*~H

ο CN

TJ>1 .

«XI «-Η

σ ro

CN CO ro CN

m CN . II CO >1

m

CN

KD

KD

ΓCN II in >1

in ro

m

CN

τ—ί ro

ro CN

ro CN

ro CN

ro CN

CN

m CN

un

CN CO

en

KD

Ο

σ>

Ο CN

>1

σ> 00 ro

00 1

m

CN vo σ> CN ro CN

I

J,

ro

1

Ο

LT) in r-

CN σ CO CN ω

v£>

KD

LO

ro

σι σι ο

ο τ CN

ο

ο

CO un σ

VO CO r-* ro

»-H

CN

I

m ro rCN ro

,

in cn m CO

KD

in CN

I

m

KD

vX)

KD

m

+

CSJ CNJ X Χ CNJ CNJ ca ca

+

CO Γ» kD in

^

1

1

KD

σ>

•*-«

I

«-Η 1

•P S2

ο ro CO CN in

ΓΟΟ CO CO

CN 1

CN CN

rLO

LO

Cü.

CN CN

Ο CN

ο

CM ca

m CN

ro ro

^

ro

ro CN

>X CN

CN ro

m

>

^

ιΧ

ro m

CN

LT)

CN

0> ο

ο

P-

>

CN r-

CN

KD

^

σ> ro

σ>

KD

CO

CO

KD

lea

φ +-> η - 4Λ Ο. Φ •ι- -Μ •Ρ i/i 3 ε CO

ca

-Ρ Φ 00 J 3 φ υ c a co

ro

^

S

ο

σ

σ CO

CO ο

ο

ο ι

ο

ο in CN

σ> «-Η

^

σ

KD

σ

m τ ο ^Γ

CM CN CN

KD

ο

ο

KD

ro

in ro

Ο

m

CN in

U-) ο CO

w iX rCD

ο I

ο

ro

KD ω

σ CO CO

Ο

KD

σι

σι ΓCN

ο

ο

Ο

ιη IX ro

τ ο

Ο

ο

Ο

ο

ο

ο

ο

CN

CM CNJ X Χ CM CM ca ca

+

+

X

Χ

ca

ca

+

KD

σ

ro CN CN

ο

Ο

KD

ro 'sT

ro ro Χ X co ro ca ca

+

φ

σι Γ-

CN ro σι CO

ro X ro ca

φ φ . Ε -Ρ -Ρ Sε φ ε 3

Λ

in ro r-

Ο τ-

Φ φ c a er: fÖ ε sΦ •ρ - σ

Ζ3 -α

σ

+

ο ο ca ca II II srj Πϊ

+

ro Χ ro

+

CNJ X CM ca

CM X CM ca

+

Χ

+

+

χ

ca ca II

¥

ο

ca

+

ο ο ο ca ca ca II II II 7Si 3Ϊ

ca

Ο

II ni

107

Kapitel II: Die Regressionsanalyse

der Schätzungen im Ausgangsmodell, so zeigt sich, daß der

'Grad' der Ver-

änderungen der Schätzungen in den verschiedenen Modellen sehr stark von diesen Größen abhängig ist.

lab.7: Korrelationen und Varianzen der Parameterschätzungen

Corr(ßj,β^,) j

j'

1

2

3

VartßjVa2

-0.41563

-0.94865 0.38336

0.27429 -0.98010 -0.28217

4.39555 0.03880 0.12783 0.03610

\

0 1 2 3

im Ausgangsmodell

Die Varianz der Schätzungen im Ausgangsmodell

bestimmt die Stärke der Ver-

änderungen in den Schätzungen, d.h. ist die Varianz von ßj im Ausgangsmodell

"groß", so sind die Veränderungen der Schätzungen für ß^ in den Reduk-

tionsmodellen "groß" (s. ß Q ) , ist sie "klein", so sind nur "geringe" Veränderungen möglich. gangsmodell dell

Ist die Korrelation zweier Schätzungen 3j»ßji im Aus-

"hoch", so verändert sich die Schätzung in einem Reduktionsmo-

(bei einer wechselseitigen Elimination) für mindestens einen dieser

Parameter sehr stark (im Rahmen, der durch die Varianz der jeweiligen Schätzung vorgegeben ist), wenn der jeweils andere Parameter bzw. der zugehörige Regressor eliminiert w i r d , und dies umso mehr, je stärker die "Korrelationen" zum Regressanden sind. Ist dagegen die Korrelation

"gering",

so beeinflußt die Elimination des einen Regressors die Schätzung für den anderen Parameter kaum. Eine entsprechende Aussage läßt sich auch anhand der "Korrelationen" der Regressoren untereinander bzw. zwischen

Regressoren

und Regressand ableiten, vgl. C a b . 8 , wo diese "Korrelationen" für unser Beispiel

zu finden sind; es ergibt sich z.B. dort 10

r

U , X

= C 2

°rr(ü'K2)

=

i

/

U^

_ ?V

10

^(yi-y)(x2i-x2)/y'(iIi(yi-y)2)(ji(x2i-x2)2)

= 0.91889 lab.8: "Korrelationen" zwischen Regressoren und Daten aus Tab.l

r

y.x.

-0.27986

r

y>x2

0.91889

r

y,x3

-0.22341

r

x

1

X

Regressand anhand der

ρ 2

-0.56085

Γ χ

ΐ,X3

0.98404

X

2'X3

-0.51032

108

Kapitel II: Die Regressionsanalyse

Diese Tabelle liefert zusätzlich eine Erklärung dafür, daß bei

Berücksich-

tigung des Regressors f.^ der Beitrag von X^ und X^ zur Erklärung des Regressanden y zum 5% Niveau vernachlässigbar ist: Die "Korrelation"

zwischen

y und Xg ist sehr hoch, wohingegen die beiden anderen Regressoren, die zudem sehr stark miteinander "korrelieren", nur schwach m i t dem Regressanden "korreliert"

sind.

Es sei hier noch auf eine weitere Auffälligkeit hingewiesen.

Betrachtet

man in der Tab.6 die Bestimmtheitsmaße genauer, so fällt auf, daß die Summe einzelner Bestimmtheitsmaße stets kleiner ist als das

Bestimmtheitsmaß

des Modells, in dem die betreffenden Regressoren gemeinsam betrachtet werden. Beispielsweise ist B.t , + B„ , = 0.07832 + 0.04991 = 0.12823 kleiner als y»ι By

y »J

2 ^ = 0.16365; dies ist umso erstaunlicher, weil die Regressoren X^ und

X, „ = 0.98404, vgl. Tab.8). j sehr stark positiv korreliert sind (r„ *1 '*3 Wir wollen nun noch einmal auf die R e . g i e . a - L o i u g e A a d i a = ß0 + ß2x2 zurückkommen. Als Schätzung für sie hatten wir anhand der Daten aus Tab.1 y = -2.83871 + 5.64516x 2 bestimmt, d.h. der Prognosewert für eine zukünftige Beobachtung y * berechΔυ tri einer ι c χ~* zu net sich an einer jici Stelle

y * = -2.83871 + 5.64516x

2*

Stellt man nun für beliebige Werte x^*, was natürlich nur für solche Werte x 2 * sinnvoll

ist, die im durch die Beobachtungen

vertretbaren Bereich lie-

gen, die zugehörigen Prognosen y * graphisch dar, so ergibt sich eine Gerade mit Achsenabschnitt -2.83871 und Steigung 5.64516. Diese Regressionsgerade ist in der Abh.ll, in der auch die 10 konkreten Beobachtungen tragen sind, zu finden. Berechnet man zudem an jeder Stelle

einge-

individuelle

sowie simultane Konfidenz- und Prognoseintervalle für den Erwartungswert y^ bzw. für y ^ selbst, so ergeben sich K.on{,lde.nzd-iz

RegACAiZon&goAadz.

und

PnognoieAt>iZA.(,e.n

von ^ΰΛ

Die vier verschiedenen Streifen (zum 95% Niveau)

sind ebenfalls in der Abb.11 eingetragen. Die Grenzen dieser Streifen berechnen sich unter Verwendung der Prognosewerte y* = y*(x2*)

zu

x

2*

folgt. An jeder Stelle Xg* ergeben sich mit der Schätzung s^ = 9 . 1 0 4 8 4 σ2

(vgl. auch Tab.6), der Matrix

und mit x* = ( 1 , x ? * ) T , d.h.

für

109

Kapitel II: Die Regressionsanalyse

X

*C2X*

=

Τ2Γ(206 "

88x

2*

+ 10χ

2*>

die Grenzen des i n d i v i d u e l l e n 95% K o n f i d e n z i n t e r v a l l s f ü r E ( y J = E ( y * ( x 2 * ) ) zu y*(x2*)

±

91(x2*)

=

y*(x2*'

±

t

n-h-1:1-y/2'v^x^2x*

= y*(x2») ± t 8 ; 0 i 9 7 5 V s 2 x l c 2 x * = y*(x2*)

±

2 - 3 0 6 · / 9 . 1 0 4 8 4 · ( 2 0 6 - 8 8 x 2 * + 10x|*)/124

,

die Grenzen des simultanen 95% K o n f i d e n z i n t e r v a l l s zu

y*U2*)

± 92(x2*) =y*(x2*)

± /2s2xIc2x*-f2)8;o.95

= y * ( x 2 * ) ± / 2 - 9 . 1 0 4 8 4 - ( 2 0 6 - 8 8 x 2 * + 10x|*) ·4.459/124

,

die Grenzen des i n d i v i d u e l l e n 95% P r o g n o s e i n t e r v a l l s für y * s e l b s t zu y*(x2*) * g3(x2*) =y*(x2*)

±

^o^s'^

s Z

(

x

*

c

2

x

*

+

= y * ( x 2 * ) ± 2.306·\/9.10484·(206 - 8 8 x 2 , + t0x|* + 124)/124 und die Grenzen des simultanen 95% P r o g n o s e i n t e r v a l l s zu y*(x2J

± g4(x2*) =y*(x2*) ± /2s2(x*c2x* + D * f 2 j 8 . 0 - 9 5

= y * ( x 2 * ) ± /2·9.10484·(206 - 88x2* + 10χ2*+124)·4.459/124

;

für e i n i g e Werte x 2 * s i n d diese I n t e r v a l l e in Cab.9 zusammengestellt. Aus Tab.9 und Abb.11 entnimmt man, daß der i n d i v i d u e l l e

Konfidenzstreifen

s t e t s am schmälsten und der simultane Prognosestreifen s t e t s am breitesten i s t . Der i n d i v i d u e l l e Prognosestreifen i s t im Zentralbereich ( i n der Nähe von ( x 2 , y ) = (4.40,22.00) etwas b r e i t e r a l s der simultane Konfidenzstreifen und sonst etwas schmaler. A l l e v i e r S t r e i f e n s i n d an der S t e l l e (x" 2 ,y) am schmälsten und werden, je weiter man s i c h von diesem Punkt e n t f e r n t , b r e i ter.

Wir kommen nun noch einmal auf unser U = ß0

+

ß1xl+ß2x2

+

AuigangimodeZl

g3x3

zurück und wollen dort einmal eine Ridgi - Reg^eM-ion wollen die Parameter ß. für j=0

3 als

durchführen, d.h. wir

110

Kapitel II: Die Regressionsanalyse

Abb.11: Beobachtete Werte y ^ - . - . y ^ , Regressionsgerade y=-2.83871+5.64516x 2 , individueller 95% Konfidenzstreifen (Grenzen A), individueller 95% Prognosestreifen (Grenzen ß), simultaner 95% Konfidenzstreifen (Grenzen C) und simultaner 95% Prognosestreifen (Grenzen D) für die Regressionsgerade

Kapitel II: Die Regressionsanalyse

111

l a b . 9 : Prognosewerte y * ( x 2 * ) und Grenzen der i n d i v i d u e l l e n und simultanen Konfidenz- und Prognose I n t e r v a l l e zum 95% Niveau an e i n i g e n S t e l l e n

X

2 2 2 2 3 3 3 4 4 4 4 4 5 5 5 5 6 6 6 6 7

2*

y* (y

00 25 50 75 00 25 75 00 25 40 50 75 OO 25 50 75 OO 25 50 75 OO

8 9 11 12 14 15 18 19 21 22 22 23 25 26 28 29 31 32 33 35 36

Konfidenzinterval1

Prognoseintervall

1 individuell 11 88335 10 87505 9 89147 8 94076 8 03461 7 18988 5 79123 5 31440 5 04668 5.00150 5 02163 5 24274 5 68133 6 29209 7 03028 7 86010 8 75551 9 69838 10 67613 11 68002 12 70383

45161 86290 27419 68548 09677 50806 33064 74193 15322 OOOOO 56451 97580 38709 79838 20967 62096 03225 44354 85483 26612 67741

ß(k) = (X T X

simultan 92(χ2*) 15 14 12 11 10 9 7 6 6 6 6 6 7 8 9 10 11 12 13 15 16

individuell 93(Χ2*)

38910 08334 80959 57841 40493 31100 49972 88222 53552 47702 50308 78942 35740 14834 104 32 17893 33851 55954 82574 12578 45164

13 12 12 11 10 10 9 8 8 8 8 8 8 9 9 10 11 11 12 13 14

77063 91057 09369 32932 62879 00553 05287 75551 59565 56920 58097 71220 98297 38118 89147 49749 18370 93628 74347 59555 48460

simultan 94(V) 17 16 15 14 13 12 11 11 11 11 11 12 11 12 12 13 14 15 16 17 18

83315 71937 66150 67162 76443 95730 72360 33851 13148 09724 11247 28246 63307 14876 80959 59440 48305 45765 50297 6064 3 75776

k.I,)"1XTy

+

schätzen, wobei k^>0 i s t . Betrachten wir einmal den Fall k = 0.1 genauer. Hier e r g i b t

sich

ß(0.1) =

10.1 180.0 44.0 176.0

180.0 4194.1 731.0 4105.0

44.0 731.0 206.1 719.0

176.0 4105.0 719.0 4048.1

-1, f 220 3773 1038 3723

9950416.00 -386661.40 -1607685.20 245027.80 -386661.40 119856.14 59940.39 -115376.15 1 59940.39 301741.60 -44478.89 3286893.6' -1607685.20 -44478.89 115056.80 245027.80 -115376.15

220 3773 1038 3723

: (-8.00777,-0.05342,6.10827,0.23709) T so daß wir 10

SSE( 0.1) =

yyi-6o(0.1)-B1(0.1)x1i-ß2(0.1)x2i-ß3(0.1)x3i)i

=37.99418

112

Kapitel II: Die Regressionsanalyse

und mit SSE = SSE(O) = 34.43912 weiterhin Q(0.1) =SSE(0.1)/SSE = 1.10323 erhalten. Damit i s t dann das Bestimmtheitsmaß an der Stelle k = 0.1 wegen Β = B(0) = 0.92641 B(0.1) = 1 - Q(0.1)(1 - B ) = 0.91881 Das Unbestimmtheitsmaß U{0.1) = 1 - B(0.1) =0.08119 i s t also um 10.323% höher a l s U = U(0) = 0.07359. In der Cab.10 sind für einige Werte des Quotienten Q(k) der Wert k sowie die zugehörigen Schätzer ß Q ( k ) . . .ß^ik), die Bestimmtheitsmaße B(k) und die Fehler - Quadratsummen SSE(k) angegeben; in der Abb.12 i s t die R-cdgeTnace. für den Bereich zwischen k = 0 und k = 1 auch graphisch dargestellt. Man s i e h t , daß mit wachsendem k die Schätzung für ß Q (k) ansteigt, die für ß^(k) und ßgik) nahezu konstant bleibt (bei der Schätzung für

tritt

dabei allerdings ein Vorzeichenwechsel auf, vgl. Tab.10) und die Schätzung für ß 2 (k) leicht f ä l l t . Iab.10: Werte k, zugehörige Schätzungen ß j ( k ) , j = 0 , . . . , 3 , Bestimmtheitsmaße B(k) und Quadratsummen SSE(k) für einige Quotienten Q(k) im Beispiel zur Ridge - Regression Q(k)

1 000

1 025

1 050

1 100

1 150

1 200

k

0 000

0 040

0 061

0 098

0 133

0 169

-11 958

- 1 1 733

-9 215

-8 062

-7 193

-6 462

0 099

0 091

-0 007

-0 051

-0 085

-0 112

ß 2 (k)

6 755

6 718

6 307

6 117

5 974

5 854

ß 3 (k)

0 139

0 145

0 207

0 236

0 257

0 275

B(k)

0 926

0 926

0 923

0 919

0 915

0 912

34 439

35 300

36 161

37 883

39 605

41 327

ß 0 (k)

SSE(k)

Insgesamt läßt sich sagen, daß in unserem Beispiel die Bestimmung der Parameterschätzungen recht stabil i s t . Daß eine Ridge-Trace auch ein ganz anderes Aussehen haben kann, zeigt sich im folgenden modH-izlvitzn BeX6pie£, wenn man von den bisherigen Regressoren Χ^,.,.,Κ^ zu den logarithmierten Größen übergeht und das Modell a = ß^ + β^·1η χ 1 + β£·1η χ 2 + β^·1η x 3

Kapitel II: Die Regressionsanalyse

JA)

SSE(k)/10

/ W

0.1

— "I 0.Z |

| 0.3

113

Q(k) 0.4

0.5

I I n I I I I I I II 11 I I I I I I I I I I I I I I I I I I I I Μ I H ΓΤΤ O.e 0.7 0.Θ 0.9 1.0



-4

i

w

- 8 -

-13·

/

Abb.12: R i d g e - T r a c e für das Regressionsbeispiel

betrachtet. Mit den Werten x^. (i = 1

(Daten aus Tab.1)

10, j=1,2,3) aus Tab.1 und den

(neuen) Beobachtungswerten z 1 =4.30407, z 2 =4.41884, z 3 = 4.33073, z 4 = 3.66356, z g = 4 . 3 9 4 4 5 , z ß = 3.76120, z ? = 3.80666, z g = 4.56435, z g = 3.73767, z 1 Q =4.45435

0.4-

« k )

ί^Ο.038) = 1.1

0.3-

0.2-

O.L-

SSE(k)/10_ 0.00.1

0.2

HJiU-F.·.·! ι | • ι Μ . I II I 0.4 0.5 0.6 0.7

0.8

O.ß

-0.1-

Abb.13: Ridge - Trace für das modifizierte Regressionsbeispiel

1.0

ψ

114

Kapitel II: Die Regressionsanalyse

für den Regressanden 2 ergibt sich die in Abb.13 dargestellte Ridge-Trace, wobei a l l e r d i n g s nur die Schätzungen für ß.j(k) und ßj(k) sowie die Fehlerquadratsummen SSE(k) abgetragen sind. Die Schätzung für ß.j(k) i s t für k = 0 schwach negativ und s t e i g t dann recht schnell an, wohingegen die Schätzung

u

für ßj(k) zunächst recht stark p o s i t i v i s t , dann negativ wird, um s c h l i e ß l i e h wieder anzusteigen.

Es sei hier noch erwähnt, daß s i c h nichtlineare ( i n den Parametern) Regressionsfunktionen häufig durch eine Tnam^oHmation iunktLonzn duktioni

In LLnejvie.

Rcgieii-iom-

überführen lassen. Betrachtet man etwa eine Cobb - Vouglm

Funktion

.a = eΛ

- ?io-

der A r t

. h •••••X A •x 1 h

so gelangt man vermittels der Transformation S = l n ä = ß 0 + ß 1 - l n χ, + . . . 4 ß h - l n x h = ß o + ß l X l + . . . + ß h * h mit X j = l n Xj für j = 1 , . . . , h zu einer linearen Regressionsfunktion, die sich mit den hier dargestellten Methoden behandeln läßt. Als Linearform der sogenannten V^oduktionieJlMtizitätin

ßj i n t e r e s s i e r t hier insbesondere die Ska-

len e£oi.tiz-6tät z = &] + . . . + ß h

die auch EigizbigkeAMg-tad

, deA Produktion

genannt wird; im Vordergrund steht

hierbei häufig die Frage, ob eine geschätzte S k a l e n e l a s t i z i t ä t ε = β ^ + s i g n i f i k a n t verschieden von 1 i s t , d.h. ob auf einen nicht-optimalen Einsatz der Produktionsfaktoren

geschlossen werden kann. Dies führt zu

einem Test der Hypothese H Q : e = 1 gegen H^: ε ^ 1 bzw. man überprüft, was äquivalent, zum Test i s t , ob das mittels ε konstruierte Konfidenzintervall für ε die 1 enthält oder n i c h t ; vgl. auch die Einleitung zu diesem Kapitel. Bei einer polynomialm

Reg-ΊeAi-ion der Gestalt

B = ß0 + ß1x + ß 2 x 2 + ... + ß h x h gelangt man durch einfache Umbenennung zu einer Regressionsfunktion in der hier betrachteten Form 2 X ~ X,j , X — X 2 , · · ·

h , X

=

Xh

·

Die Auswertung einer multiplen Regressionsanalyse, wie wir s i e hier betrachtet haben, wird natürlich umso kompltxeA je größer die Anzahl h der

Kapitel II: Die Regressionsanalyse

berücksichtigten Regressoren i s t . Um diese Anzahl

zu Kzduzlztim

115

kann man

den oben angegebenen Reduktionstest verwenden; eine andere Möglichkeit besteht d a r i n , m i t t e l s fa.ktoie.n-

odeA Ha.u.ptkompone.ntzna.nalyi&,

die Regressoren auf wenige s i e beschreibende ( ' k ü n s t l i c h e ' )

vgl.

Kap.VIII,

Faktoren zurück-

zuführen und a l s Designmatrix des Regressionsmodel l.s dann die entsprechende Matrix der Faktoren- bzw. Hauptkomponentenwerte zu verwenden; man v g l .

hier-

zu auch Massy (1965), Daling/Tamura (1970), Hawkins (1973). An dieser S t e l l e kommen wir noch einmal auf das Problem der

InAtabilitätzn

( z . B . schlechte Konditionierung von X T X) im Regressionsmodell zurück. Solche I n s t a b i l i t ä t e n entstehen mitunter auch dadurch, daß die Werte des Regressanden und der Regressoren in sehr unterschiedlichen Größenordnungen und Schwankungsbereichen l i e g e n ; h i e r empfiehlt es sich mitunter a l l e Var i a b l e n zu zzn£>ixiLn.m, wie dies zu Beginn des Abschnitts (Schätzen ohne Matrixschreibweise) geschehen i s t , oder zu itandtVidiAlz>im,

d.h. man geht

f ü r j = 1 , . . . ,h von χ • . über zu x ^ = (xH . - 3Γ. )/s . und von y . über zu 1J 1J 1J J J I y i = (y^ - y ) / s y , wobei

S

j

2 sy

J _ 1

1

(

x

i

η

j

'

V w i / i j



für j = 1 , . . . , h und

. η

ι (yry> · y=i i =ι1 i=1 1

n

Man e r h ä l t dann n a t ü r l i c h eine Regressionsbeziehung zwischen den standard i s i e r t e n Merkmalen, wobei in der zugehörigen Regressionsfunktion das Abs o l u t g l i e d ßQ e n t f ä l l t , d.h. i n ' d e r ( s t a n d a r d i s i e r t e n ) Designmatrix

ist

die e r s t e Spalte zu streichen: st

st

X 11

···

x 1h

st n1

·•·

st nh

In den angegebenen Formeln für Konfidenz- und Prognoseintervalle sowie Tests i s t dann h+1 durch h zu ersetzen; die Verteilungsannahmen sind dann a l l e r dings v e r l e t z t , was jedoch in der Regel zu keinen wesentlich verfälschten Aussagen f ü h r t . Möchte man sich ausgehend von der Regression f ü r die stand a r d i s i e r t e n Merkmale wieder auf die ursprünglichen Merkmale beziehen, so i s t j e w e i l s zurückzurechnen, d.h. die Transformation rückgängig zu machen; vgl. hierzu auch die B e i s p i e l e im Abschnitt 1.3 des Kap.X. Bzgl. der h i e r behandelten und weiterer Aspekte der Regressionsanalyse, z.B. Regression bei Fehlern in den Regressoren,sei etwa verwiesen auf

116

Kapitel II: Die Regressionsanalyse

Draper/Smith (1981), Schönfeld (1969,1971,1978), Drygas (1970), Schneeweiß (1971,1976), Bamberg/Rauhut (1972), Horst (1975), Chatterjee/Price (1977), Härtung (1977b,1978a ,1978b), Humak (1977), Seber (1977), Krafft (1978), Bamberg/Schittko (1979), Schach/Schäfer (1978), Trenkler (1981), Werner (1981 ,1983), Härtung et al. (1982), Cremers/Fieger (1983a ,1983b), Härtung/ Werner (1983,1984), Trenkler/Trenkler (1984). Für Methoden der sogenannten lobu&ten

R z g n & i i i o n sei hier speziell verwiesen auf Andrews et al. (1972),

Huber (1973,1981), Heiler (1980), Ketellapper/Ronner (1984), und für die Verfahren der Ze^Oiilkimyialyiz, auf die wir aus Platzgründen hier auch nicht eingehen können, weisen wir auf Hannan (1970), Chatfield (1975), Box-Jenkins (1976), Heiler (1981) sowie Kap.XII in der 4. Auflage (1986) von Härtung et al. (1982) hin.

Wir wollen hier nur noch den Fall einer ganz ipezieXZen

X be-

Vu-tgnrnWUx

trachten, nämlich den, daß X gerade die (passend dimensionierte)

Einkziti-

ist. Für eine q - dimensionale Zufallsvariable y mit

mtWUx

E(y) = μ = (μ 1 ,... ,Mq)T betrachtet man dann etwa das Regressionsmodell y = IqM + e = μ + e

mit

E(e) = 0 und Cov(e) = Cov(y) = ί

sowie

y ^ Ν(μ;$)

Sind hier μ und $ unbekannt, so können sie nur dann geschätzt werden, wenn mehrere, sagen wir ν Realisationen von y vorliegen, v > q . Bezeichnen wir die i-te unabhängige Realisation (Wiederholung) von y mit y^ = ( y i 1 , . . . , y i q ) T für i=1

v, so wird μ

geschätzt

durch

μ = (ii1."-'tyT=(v j / i l und eine Schätzung

ν J / l q /

=

(7

1'" '

'

für $ ist gegeben durch, vgl. auch Kap.I, Abschnitt 5.6,

s - ^ l

(Vi-y)(yi-y)T

·

Als individuelles (1-γ) - K o n f j i d m z i n t W J c M für eine Mittel Wertkomponente μj ergibt sich weiter das Intervall mit den Grenzen h

* Vl;1-Y/2^

s

jj/v

»

wobei Sjj das j-te Diagonalelement von S bezeichnet. Verwendet man hier für j=1,...,q als t-Quantil t v _ ^. ^ _ γ /( 2q) * s o A.oninenten

PfUnzip

i-ünultanz

Koni-id&nzlnti^valli

; nach dem sogenannten Union-

ben sich schließlich iinu.lta.ne, Linearkombinationen δ,τμ U

er

hält

man

nac

^

c em

'

Bon&y-

zum Niveau 1-γ für alle KompoTnte/uzction

KonhidmziYvtWjaJULa.

- Pxinzip

erge-

zum Niveau 1-γ für alle

ein beliebiger q - dimensionaler Vektor) aus den

Kapitel II: Die Regressionsanalyse

117

Grenzen

V v(v-q)

q,v-q;1-Y

Wählt man speziell die Komponenten von l gleich 0 bis auf die j-te Komponente (gleich 1), so erhält man auch hieraus simultane (1-γ) - Konfidenzintervalle für die Komponenten μ^ (j=1

q).

Wir sind hier zwangsläufig auf ein muJUlva^UaX.^

ModM

gestoßen, mit dem

wir uns in den folgenden Kapiteln weiter beschäftigen w e r d e n ; beispielsweise werden wir im Kap.IV Tests in diesem mxl£LvaJuate.n phoblm

Einitichpfuibin-

behandeln.

An ν = 8 zufällig aus einem Produktionslos ausgewählten

BeXip-iel:

ken wird deren Länge und Breite gemessen. Die Länge y ^ (q = 2) des i-ten Werkstücks ist für i=1

Werkstük-

und die Breite

y^

,8 in Cab.11 angegeben.

tab.11: Länge y·« und Breite yi9 von ν = 8 Werkstücken aus einem Produktionsi I I 1t los

1

2

3

4

5

6

7

8

17.2

18.0

18.5

17.8

17.6

18.0

18.3

17.4

3.8

3.6

4.2

3.7

3.9

4.1

3.4

3.7

i Länge Breite

y^ yi2

Als Schätzer für den Mittelwertvektor

μ = (μ^^)1»

d.h. für die mittlere

Länge μ^ und die mittlere Breite μ^ der Werkstücke des Produktionsloses ergibt sich hier

ί

- { Ι

j / i 1

'Έ j i y

1 2

)

T

= ( r 1 « . 8 . ^ - 3 0 . 4 ) T = ( 17.85,3.80)T=y

und die Schätzung für die Kovarianzmatrix $ von Länge und Breite der Werkstücke im Produktionslos ist mit y^

= (y.^ •y.jg)1' für i = 1

8 gerade

Wir wollen nun noch individuelle und simultane Konfidenzintervalle zum 95% Niveau für μ^ und

bestimmen. Die Grenzen der individuellen

Konfidenzin-

tervalle ergeben sich zu μ. ± t ,

n

1.36/(7-8) = 17.85 ± 2 . 3 6 5 · ^ 1.36/56 = 15.85 ± 0.37

118

Kapitel II: Die Regressionsanalyse

V2 ± t 7 . 0

975·\/

0.12/(7-8) =3.80 ± 2.365-V 0.48/56 = 3.80 ± 0.22 ,

d.h. [17.48,18.22] i s t ein i n d i v i d u e l l e s 95% K o n f i d e n z i n t e r v a l l

f ü r die

m i t t l e r e Länge der Werkstücke im Produktionslos und [3.58,4.02] i s t ein ebensolches f ü r die B r e i t e . A l s simultane 95% K o n f i d e n z i n t e r v a l l e f ü r μ^ und

ergeben s i c h aus den Grenzen

h

V s S ·

»Z

±

1

·

3 6

' ^ ^ ^

1 7

/^f-°-48'F2,6;0.95=

8 5

· 3

*/Ä-

'80

1

1

-

3 6

-

5

-

1 4 3

= 17

·85

1

°·54'

/ ^ - O ^ - S . 143 = 3.80 ± 0.32

die I n t e r v a l l e [17.31,18.39] f ü r μ, bzw. [3.48,4.12] f ü r μ 2 ·

2 DAS G E M I S C H T E

LINEARE

MODELL

Im Abschnitt 1 haben wir Regressionsmodelle b e t r a c h t e t , in denen nur f e s t e , d.h. n i c h t z u f ä l l i g e Regressions - Parameter (Lineare Modelle mit festen E f fekten) a u f t r e t e n ; bei den Gemc&chtin l i c h zuiULLige.

ilntaum

RzgKtiilonikoiH-Lz-Le.ntin

UodeJLlm

bzw. ζu^älLLge.

werden nun z u s ä t z Edikte,

berücksich-

t i g t , d.h. wir betrachten ein Modell y = Xß + Za + e

,

wobei y einen η - dimensionalen Beobachtungsvektor (bzw. die zugehörige Zuf a l l s v a r i a b l e ) , X die bekannte Designmatrix des unbekannten festen Regress i o n s k o e f f i z i e n t e n - V e k t o r s β, Ζ die bekannte Designmatrix der z u f ä l l i g e n E i n f l ü ß e , die i n einem Vektor a zusammengefaßt s i n d , und e einen z u f ä l l i g e n Restfehlervektor bei der Beobachtung von y bezeichnet. Der Vektor a i s t a l s o hier eine n i c h t ( d i r e k t ) beobachtbare Z u f a l l s v a r i a b l e , von der wir annehmen, daß s i e normal v e r t e i l t i s t mit Erwartungswert 0 und Kovarianzmatrix i L , und e i s t ein von a unabhängiger, normal v e r t e i l t e r Z u f a l l s v e k t o r mit a Erwartungswert 0 und Kovarianzmatrix = a 2 V a und i e

=

Wir gehen h i e r davon a u s , daß

o 2 V g b i s auf den Faktor σ 2 > 0 bekannte Matrizen s i n d , so

daß auch die Kovarianzmatrix von y Cov(y) = ί = σ 2 ν = σ 2 ( Ζ ν 3 Ζ τ + V e ) b i s auf den Faktor σ 2 bekannt

ist.

In solchen Gemischten Linearen Modellen i n t e r e s s i e r t man s i c h dann zunächst f ü r die Schätzung

von β und σ 2 ( f e s t e Parameter) und die Viognoiz

l i s a t i o n e n der Z u f a l l s v e k t o r e n a und e.

der Rea-

Kapitel II: Die Regressionsanalyse

Sind die Matrizen V und XTX invertierbar (.tegaläAen. Fall),

so ergibt s i c h ,

vgl. auch Henderson (1963,1975), Harville (1979) der gewichtete QuacUuite. - Schätze*

(weighted

Lernt

6 = (X T V~ 1 X)~ l X T V" 1 y

- Squanei

- EitUmaton)

119

Kleinste-

f ü r β zu

;

dieser Schätzer ß, der auch Altken - Schätzen,

heißt, i s t der erwartungstreue

Schätzer mit kleinster Varianz für ß. Der Vektor a der zufälligen Effekte bzw. seine Realisation wird prognostiziert bzw. geschätzt durch den erwartungstreuen Schätzer (mit minimaler Varianz für jede Linearform in den Prognosedifferenzen der Art 2,T(a - a)) a =V α Z T V ~ 1 ( y - X ß )

,

und ein entsprechender Schätzer für den Restfehler i s t e = VeV"1(y-Xß)

.

Hat V g eine einfache Gestalt (häufig i s t V g die Einheitsmatrix), so i s t hier die Famei

von ttaodbufiy bei der Inversion der n * n - M a t r i x V nützlich;

f a l l s V und V invertierbar sind, 3g i l t a e v " 1 = V" 1 - V" 1 Z(V~ 1 + ZTV e e a e Im nicht - leguläsien

Fall

z ) ~ 1 z Ve 1

i s t obiges Verfahren nicht mehr anwendbar. Eine

Erweiterung eines Verfahrens (für den regulären F a l l ) von Henderson et a l . (1959), die von Harville (1976) vorgenommen wurde - wir wollen sie hier aus Platzgründen nicht betrachten - , erlaubt für beliebige Matrizen V und X die Schätzung bzw. Prognose von β bzw. a (unter Verwendung einer speziellen generalisierten Inversen, die i . a . nicht die Pseudoinverse i s t ) . V i e l mehr wollen wir hier zwei andere Verfahren vorstellen, die für ß, a und e bei beliebigen V und X Schätzungen bzw. Prognosen l i e f e r n . Zunächst betrachten wir 'explizite'

Schätzungen

(bei Verwendung der Pseudo-

inversen), vgl. Elpelt/Hartung (1983a);man berechnet hier zunächst die Matrix

Q=in-xx+

,

(die gerade die Projektion auf das orthogonale Komplement vom Wertebereich von X i s t ) , wobei X + die Pseudoinverse der Designmatrix X bezeichnet, vgl. Abschnitt 4 in Kap.I. Dann sind die zu obigen Schätzern im regulären Fall analogen Schätzer bzw. Prognosen für ß, a und e gegeben durch

120

Kapitel II: Die Regressionsanalyse

3 = X + y - X + V(QVQ) + y a = Vα Z T (QVQ) + y +

e = V e (QVQ) y

,

, ;

hier sind a und e unverzerrte Schätzer (mit minimaler Varianz in den Prognosedifferenzen) und g i s t ein 'minimalverzerrter r i a n z bzw. e i n s o g e n a n n t e r Gauß - Mankov - Schätzt*.

Schätzer kleinster Va{kleinsten-

Noim).

Im regulären Fall müssten Inverse von Matrizen, die die Dimension η der Daten besitzen, und im Fall obiger ' e x p l i z i t e r ' Schätzungen Pseudoinverse solcher Matrizen bestimmt werden, was leicht zu numerischen Instabilitäten führt; dies läßt sich bei Ausnutzung des folgenden i.nveMj.orui'ieJ.M Verfahrens, vgl. El pelt/Härtung (1983a,1984).vermeiden. I s t (& 0 »ζ 0 ) Τ

elne

Lösung des Gleichungssystems X

V

0

XT

so i s t ß 0 =t> 0 ein (minimal verzerrter Minimum - Varianz - ) Schätzer für ß, und die Schätzungen für a und e lassen sich wie folgt bestimmen: a = V ΖΤζ a ο

,

e=V ζ e ο

.

Es sei noch bemerkt, daß - f a l l s bQ eine Lösungskomponente obigen Systems (das theoretisch mit Wahrscheinlichkeit 1 und bei regulärem V stets lösbar i s t ) i s t - auch 3 dies i s t . Wir b e t r a c h t e n nun d i e Schätzung

du

unbekannten

VaAtanziaktou

a2.

Ausge-

hend von der "Fehlerquadratsumme" SSE = ( y - X g ) V ( y - X ß )

,

für die obiges Gleichungssystem zum inversionsfreien Verfahren die einfachere Darstellung und Berechnung SSE = ^ y erlaubt, wird σ 2 erwartungstreu geschätzt durch s 2 = SSE/n e = ? £y/n e mit n p = r g ( x | V) - rg(X) = tr( [QVQ]+[QVQ]) e

,

wobei rg(A) den Rang (Anzahl der linear unabhängigen Spalten bzw. Zeilen

Kapitel Ii: Die Regressionsanalyse

121

von A) und tr(A) die Spur (Summe der Hauptdiagonal eiemente von A) einer Mat r i x Α bezeichnen, vgl. auch Abschnitt 4 in Kap.I. I s t die Matrix V invertierbar, so ergibt sich natürlich stets rg(X j V) = n, und f a l l s XTX regulär i s t , so g i l t rg(X) = Spaltenzahl von X. Häufig i s t man in dem hier betrachteten Gemischten Linearen Modell an LlmoA^oimm

τ τ τ φ = χ*β + z^a + w e interessiert, φ wird geschätzt

durch

φ = x*ß + z*ä + wTe

,

wobei man anstelle von fä natürlich auch ßQ verwenden kann, und es i s t dann mit c = ( X + ) T x * - [QVQ] + [V(X + ) T x* - ZV a z* - Vew] die Varianz bzw. der Erwartungswert von φ - φ gegeben a l s Var(ip-$) = o 2 ( [ Z T c - z J T V a [ Z T c - z j + [ c -w] T V e [c - w ] ) = σ 2 ν * , Ε(φ - φ) = x*( I - X + X)ß so daß φ eine unveAzeÄnte. x*( I - X + X)ß = 0

,

Schätzung

für φ i s t , f a l l s

,

was wir im folgenden auch annehmen. Wir kommen nun zu Konfidenz- und Prognoseintervallen für solche Linearformen φ. Ein Koni-idtnz-

Piognoii

-

Intvi-

v a l l (Konfidenzintervall bzgl. der festen, Prognoseintervall bzgl. der zuf ä l l i g e n Koeffizienten) zum Niveau l-γ ergibt sich aus den Grenzen * * \ ; 1 - γ / 2 · ^

·

Betrachtet man eine zukünftige Beobachtung Ψ* = x*ß

+

z*a + ε*

,

wobei ε* a l s unabhängig von a und e und a l s normal verteilt mit Erwartungswert 0 und Varianz a 2 angenommen wird, so i s t Φ* = xlß + zlä ein PtägnoieweAt für φ* und unter obiger Bedingung an x* i s t Ε ( φ * - φ * ) = 0 . Weiter i s t mit c , = ( X + ) T x * - [QVQ] + [V(X + ) T x* - ZV a z*]

122

Kapitel II: Die Regressionsanalyse

die Varianz von φ * - φ * gerade Var( ξ α α

J ] , e * N(0;a 2 V e ), Vg : I ,

sowie a und e unabhängig angenommen wird. Es i s t dann y % N(Xß;o2V) mit 1 '

Z

V

+Ve

=

1 3 1 1 4 3

1 3 1 1 3 4

Wir wollen nun einmal, obwohl a l l e vorgestellten Schätzverfahren anwendbar sind, die zweite dargestellte Methode benutzen, um ß, a und e zu schätzen bzw. zu prognostizieren. Die Pseudoinverse der Designmatrix X ergibt sich zunächst zu _ 1 _ [2 2 0 0 0 Ο] 4 0 0 1 1 1 1

Kapitel II: Die Regressionsarmlyse

125

so daß s i c h 2 -2 0 0 0 0

-2 2 0 0 0 0

0 0 3 -1 -1 -1

0 0 -1 3 -1 -1

3 -3 6 2 -4 -4

3 -3 2 6 -4 -4

-3 3 -4 -4 6 2

-3 3 -4 -4 2 6

0 0 -1 -1 3 -1

0 0 -1 -1 -1 3

und damit 5 5 3 3 3 3

QVQ = }

-5 5 -3 -3 3 3

16 -16 1 -6 (QVQ) + : 44 - 6 6 6

-16 16 6 6 -6 -6

Λ L. > α Π

-6 6 -17 27 -5 -5

-6 6 27 17 -5 -5

6 -6 -5 -5 27 -17

6' -6 -5 -5 -17 27

e r g i b t . Wir erhalten somit a l s Schätzung f ü r ß, a und e 3 - x

+

y - x W y . { ( ( g ] - ^ ] ) - i ( { S ]

i - v . i W y - £ ( _ , ! )

.

.

e = V e (QVQ) + y = ^ - ( 2 6 ,-26,59 ,-73 ,-37,51 ) T

.

A l s Schätzung für den Varianzfaktor σ 2 s c h l i e ß l i c h erhalten wir mit -1 43 -1 -1 -18 -18

-17 -1 44 -17 -1 -1

-17 -1 -17 44 -1 -1

s2 = ( y - X ß ) V ( y - X § ) = ^ | l

.

44 -1 1 -17 61 -17 -1 -1

-1 -18 -1 -1 43 -18

-Γ -18 -1 -1 -18 43

gerade

Betrachten wir nun einmal die Linearform φ = (1,0)ß + (0,2)a

,

d.h. x , = (1,0) , ζ * = ( 0 . 2 Γ und

w = 0 , so wird diese geschätzt durch

ί>= (1 ,0)3 + (0,2)a = ^ · 4 0 2 + p " ( - 1 2 ) = ^ · ( 4 0 2 - 24) = ^ · · 3 7 8 = 8.591 . Wir können nun auch ein 95% Konfidenz - Prognose - I n t e r v a l l f ü r ψ bestimmen, da mit

126

Kapitel II: Die Regressionsanalyse

x ^ ( i 2 - x + x ) e = cι , o ) ( i 2 - i 2 ) ß = ο φ u n v e r z e r r t i s t . Hier e r g i b t sich mit n g = n - 2 = 6 - 2 = 4 und c = ( X + ) T x * - [QVQ] + [V(X + ) T x* - ZV a z* - Vew] '2 2' 2 2 0 0 + V 0 0 - [QVQ] 0 0 0 0

-l(S]

14 30 1 -18 -18 8 8

v * = ( Z T c - z J T V a ( Z T c - z j + (c - w) T V e (c - w) = T g W * 8 1 0 8

+

T936"1872

= 9980/1936 = 2495/484 = 5.155 das I n t e r v a l l mit den Grenzen φ ± t4.0

g75

V s 2 v * = 8.591 ± 2.776'V

331-5.155/44 = 8.591 ± 17.287 .

Ein Prognoseintervall zum 95% Niveau f ü r die zukünftige Beobachtung φ* = (1,0)ß + (0,2)a + ε * s c h l i e ß l i c h e r g i b t sich mit φ* = φ = 8.591 ,

c* = c =

(14,30,-18 , - 1 8 , 8 , 8 ) T , ν * * = v*+1 = 6.155

aus den Grenzen φ* ± t 4 . Q

V s 2 v * * =8.591 ± 2.776-V 331 ·6.155/44 = 8.591 ± 18.890.

g 7 5

Zu bedenken i s t h i e r b e i n a t ü r l i c h , daß 2a^ schon eine (geschätzte) Varianz



von 4-3s 2 =i 90 h a t .

|

Auch e i n Modell m i t nicht nannter Bayu ziznttn,

- ze.n&UeAte.n

zu^ällxgen

- A n i a t z -im Re.gKeM-LonimodeZl

nandüm coe.Hlc.iint

n.e.gieMlon

E^ekten

[zufällige

modeli,

bzw. e i n sogeRegAUilomkoeü-i-

RCR - ModeZCe)

l ä ß t sich

in

ein Modell obiger Gestalt überführen. Sei β ein f e s t e r Parametervektor und ä e i n z u f ä l l i g e r Vektor, dessen Komponenten auch z u f ä l l i g e Regressionskoeff i z i e n t e n genannt werden, mit bekanntem Erwartungswert E(ä)=ct Q und Kovarianzmatrix Cov(ä)=o 2 V

α

: mit den Designmatrizen X und Ζ erhalten w i r dann

aus dem folgenden Modell, das auch BayeA - Modell

genannt w i r d ,

y = Xß + Zä + e m i t t e l s der Transformation ä = aQ + a (mit E ( a ) = 0 und Cov(a) = $ a = a 2 V g ) und y = y - ZaQ wieder e i n Modell der oben betrachteten Gestalt

127

Kapitel II: Die Regressionsanalyse

y = Xß + Za + e

;

3 wird dann n a t ü r l i c h geschätzt durch ä = a 0 + a . Man v g l . hierzu auch z.B. Hildreth/Houck (1968), Swamy (1971), Singh et a l . (1976), Härtung (1978a). Hier wird n a t ü r l i c h angenommen, daß

und die Kovarianzmatrix V g des von

a unabhängigen Fehlervektors e bekannt bzw. aus früheren Untersuchungen (gut) geschätzt sind. I s t etwa der ( f e s t e ) Parameter α bei einer früheren Untersuchung in einem Linearen Modell der Art y * = X*a + e* mit E ( y * ) = X * a , E(e*) = 0, Cov(y*) = C o v ( e * ) = a ^ V * geschätzt worden durch a = X*[I - V*(Q*V*QJ+]y* ,

wobei Q* = I - X*X*

,

mit Cov(a) = o i x : [ V , - V , ( Q ^ Q j + V J ( x : ) T = a i V a

,

so wird mit α =α ο

,

V = V a α

dann in einem 'neuen' Bayes - Modell der Form y * = Zä + e wobei ä ^ N ( a Q ; a 2 V a ) und ä = a Q + a , diese VoAln{,ofunxtion

ausgenutzt, d.h.

man a r b e i t e t in diesem 'neuen' Modell n i c h t mehr mit dem festen Parameter α. Hierbei muß n a t ü r l i c h s i c h e r g e s t e l l t s e i n , daß die ' a l t e n '

Schätzungen

sehr v e r l ä ß l i c h s i n d und daß die V e r h ä l t n i s s e f ü r das 'neue' Modell nicht wesentlich verändert haben, v g l . auch Härtung Häufig s i n d die Kovarianzmatrizen

und

sich

(1978a).

jedoch derart s t r u k t u r i e r t , daß

s i e b i s auf einen gemeinsamen m u l t i p l i k a t i v e n Faktor a 2 nur von wenigen Parametern (z.B. Varianzkomponenten) abhängen, s . z.B. nächsten A b s c h n i t t , die n a t ü r l i c h zuvor geschätzt werden müssen, v g l . z.B. H a r v i l l e

(1979),

Härtung (1981), E l p e l t (1983) sowie die Ausführungen im Abschnitt 2 des Kap.X. Auch ein mehrstufiges bzw. i t e r a t i v e s Vorgehen i s t möglich, v g l . z.B.

Kakwani (1967), Oberhofer/Kmenta (1974), Magnus (1978), Don/Magnus

(1980), Jockel (1982), Voet (1985). Es sei noch darauf hingewiesen, daß man etwa auch bei der Schätzung von "Faktorenwerten" ( " P e r s ö n l i c h k e i t s p r o f i l e " )

im Rahmen der

v g l . Abschnitt 3 in K a p . V I I I , auf ein Modell mit z u f ä l l i g e n koeffizienten

stößt.

Faktoiznanalyiz, Regressions-

128

Kapitel II: Die Regressionsanalyse

3 DISKRETE REGRESSIONSANALYSE FÜR QULITATIVE DATEN; LINEARES WAHRSCHEINLICHKEITSMODELL, P R O B I T - , LOGITANALYSE Ist die zu erklärende Variable, der Re.gnuia.nd piägimgen)

y diiktzi

{qwxJUXaXive.

Aui-

und möchte man eine Beziehung von y zu h Regressoren

die quantitativ oder qualitativ sein können, herleiten, so kommt man zu einem Problem der sogenannten dü>k/ieXe.n

oder quatctatZven

Rzgiui-Lon.

Silip-Lel.: (a) Es könnte etwa der Einfluß der Variablen Preis und Verpackung auf den qualitativen Regressanden y = "Kaufverhalten" mit den Ausprägungen "kaufen" und "nichtkaufen" interessieren. Man möchte dann aufgrund einer Stichprobe möglicher Käufer die Wahrscheinlichkeit prognostizieren mit der ein Produkt bei bestimmtem Preis und bestimmter Verpackung gekauft wird. (b) Möchte man die Wahrscheinlichkeiten schätzen, mit denen ein neuer PKW Typ in den verschiedenen Farbtönen geordert wird (in Abhängigkeit von Preis, Leistung, Ausstattung usw.), um die Produktion entsprechend zu planen, so kann dies aufgrund einer diskreten Regressionsanalyse anhand der bekannten Daten bereits auf dem Markt befindlicher Typen geschehen. (c) Eine Bank möchte anhand von Bilanzkennzahlen bei einem Kunden auf "kreditwürdig" bzw. "nicht kreditwürdig" schließen. Mittels historischer Daten anderer Kunden, deren Kreditwürdigkeit sich so oder so erwiesen hat, läßt sich vermittels diskreter Regressionsanalyse eine Funktion herleiten, die dann zu Prognosezwecken bzgl. der Kreditwürdigkeit des neuen Kunden verwandt werden kann. (d) Mittels diskreter Regressionsanalyse läßt sich z.B. in umfangreichen Tierversuchen die Menge an Zahnpasta abschätzen, die ein Kleinkind (versehentlich) verzehren muß, um mit einer Wahrscheinlichkeit von 5% zu sterben. (e) Entsprechend läßt sich z.B. eine Belastungsgrenze ermitteln, der eine Baukonstruktion mit 95% Sicherheit standhält, was wiederum Rückschlüsse auf Konstruktionsweisen mit höheren Belastungsgrenzen erlaubt. Skaliert man aufgrund von Beobachtungen an η Objekten zunächst vermittels der in Kap.V beschriebenen Verfahren die Ausprägungen des qualitativen Regressanden y, so kann man - für eine Vielzahl von Fragestellungen - wieder die in Abschnitt 1 dargestellten Methoden der multiplen Regressionsanalyse anwenden (zumindest approximativ). Wir wollen hier jedoch Verfahren beschreiben, die direkt mit dem diskreten Regressanden arbeiten.

129

Kapitel II: Die Regressionsanalyse

Beschäftigen wir uns zunächst mit dem einfachsten F a l l

der d i s k r e t e n Re-

g r e s s i o n , nämlich dem, daß der Regressand y nur zwei Zustände g e n ) , k o d i e r t mit 1 und 0, annehmen kann; auf diesen F a l l d i s k r e t e Problemstellungen

(Ausprägun-

lassen s i c h

viele

zurückführen.

Wir betrachten hierzu einmal folgendes einfache Regressor X=X^ b e r ü c k s i c h t i g t wird.

BeM,p-LeZ,

bei dem nur ein

In der Iah.12 sind η = 12 Beobachtungen

y^ f ü r den Regressanden y bei vorgegebenen Werten x^ des Regressors X (k=1,...,12)

angegeben, die in der Abb.15 auch v e r a n s c h a u l i c h t s i n d ; außer-

dem s i n d in der Tab.12 noch Größen x^ und ρκ f ü r i=1,2,3 angegeben, auf die wir später noch eingehen werden.

l a b . 1 2 : Beobachtungen y k

( k o d i e r t mit 1 , 0 )

gressors f ü r k=1

12; gruppierte

zu vorgegebenen Werten x^ des Re"Regressorenwerte" x^ und zuge-

hörige r e l a t i v e Häufigkeiten p^ der Ausprägung "1" des Regressanden g f ü r i = 1,2,3

k x

k

>'k i x

i

Pi

1

2

3

4

5

6

7

8

9

10

11

12

0.5

0.7

1.0

1.3

1.5

2.0

2.2

2.3

2.7

3.0

3.2

3.4

0

0

1

0

0

1

1

0

1

0

1

1

1

2

3

1

2

3

1/4

2/4

3/4

Legt man h i e r f ü r die j e w e i l i g e n Ausprägungsvariablen x von X und ö von U eine Regressionsbeziehung der Art tj = a 0 + a 1 x

130

Kapitel II: Die Regressionsanalyse

(Regressionsgerade) zugrunde, die anhand der Daten

ur|

d x,j

x^

aus Tab.12 durch y = 0.0179183 + 0.2430664X geschätzt wird (diese Regressionsgerade ist in Abb.15 eingezeichnet), so ist natürlich zu klären, was eine solche Funktion - für ein nur 1 - 0 - wertiges u - zu bedeuten hat; wir kommen am Ende dieses Abschnitts darauf zurück.

Faßt man hingegen die Beobachtungen zu Gruppen an "Meßpunkten" x^

(i=1,...,m)

zusammen, oder hat man von vornherein an den Meßpunkten x^ mehrere, nämlich n^ Beobachtungen gemacht und dabei n . ( 1 ) - m a l so lassen sich an den Stellen x^ die relativen p.j = n i ( 1 ) / n i

für i = 1

das Ereignis ij = 1 beobachtet, Häufigkeiten

m

angeben; p^ ist dann ein Schätzer für die Wahrscheinlichkeit des Auftretens von y = 1 am Meßpunkt x^: p^ = P(u=1|x=x^).

Konzentriert man in unserem Beispiel der Reihe nach jeweils vier Beobachtungen y ^ , wie in Tab.1 bereits angedeutet, auf die Punkte x^ = 1 , Xg = 2 und X3 = 3, so erhalten wir die ebenfalls in Tab.1 angegebenen Häufigkeiten ^

relativen

= 1/4, p 2 = 2/4 = 1/2, p 3 = 3/4.

Eine Regression von p, also der Wahrscheinlichkeit ρ = p ( x ) = P ( y = 1 | χ = χ ) , auf χ p = γ

ο

+ Ύ



erklärt also die Wahrscheinlichkeit linear; man spricht auch vom WahAAchiX.Yillc.hkz..), vgl. auch Tab.12, eingezeichnet. Man erkennt hier auch direkt die Grenzen dieses Modells; für χ > 4 wird der Schätzer für die Wahrscheinlichkeit größer als 1 bzw. für x < 0

negativ. Deshalb werden zumeist I h a M ^ o i m x t l o n m

angewandt,

die stets zulässige Werte liefern.

Im sogenannten Ϋ/wb-U

- oder NofwuX-ModM

wird eine Regression von Φ~^(p)

auf χ durchgeführt, wobei Φ die Verteilungsfunktion der Standardnormal Verteilung bezeichnet, vgl. Abschnitt 2 und 3 in Kap.I:

Kapitel II: Die Regressionsanalyse

131

Abb.16: Meßpunkte x i , r e l a t i v e Häufigkeiten p^ f ü r i = 1 , 2 , 3 gemäß Tab.12 und zugehörige Regressionsgerade ρ = 1/4 χ

φ" 1 (ρ) = v

b z w .

Q

ρ = Φ(ν 0 + ν 1 χ )

Hierzu berechnet man, v g l . Tabelle im Anhang, die sogenannten PiobitA

oder

UohmiZt,

gProb=$"1(p.)

für

i=1,....m

und damit dann die Schätzer für v Q und v^. In unserem B e i s p i e l , v g l . Tab.12, ergibt sich g prob = φ

- 1 ( 1 / 4 ) = φ"^ (0.25) = - 0 . 6 7 5

g P r o b = Φ - 1 (0.5) =0

und

,

g P r o b = Φ" 1 (0.75) = 0.675

,

so daß s i c h die Schätzer f ü r v Q und v^ zu vo=-1.350

,

v 1 =0.675

ergeben. In der Abb.17 i s t neben den Punkten ( x ^ , g ? r o b ) f ü r i =1,2,3 auch die Regressionsgerade gProb=$_1(p) =-1.350

+

0.675x

eingezeichnet. Mit dieser Regressionsbeziehung e r g i b t s i c h z.B. an der S t e l l e x = 4 a l s Schätzer für die Wahrscheinlichkeit ρ der Wert ρ = p(4) =Φ(-1.350 + 0.675-4) = 0.91 15

.

Die k l a s s i s c h e Anwendung des Probit - Modells l i e g t im Bereich der Voi-U Wi>ik.ung& - AnaZijiz

(ßioaaaij)

,vgl.

etwa Finney (1971). Dort wird z.B. f ü r

Gifte oder Medikamente die allgemeine Kenngröße ED 50 bzw. LD 50

(effektive

Dosis 50% bzw. l e t a l e Dosis 50%) bestimmt; das i s t diejenige D o s i s , bei der 50% einer Population, die das G i f t oder Medikament e r h ä l t , nicht überl e b t . Hierzu werden Versuche mit verschieden starken Dosen x^ z.B. an j e w e i l s 100 Fliegen durchgeführt; m i t t e l s der beobachteten Häufigkeiten an

132

Kapitel II: Die Regressionsanalyse

C

Abb.17: Daten (x-,g? gP

rob

) für i=1,2,3 und zugehörige

Regressionsgerade

= -1 .350 + 0.67 5x

überlebenden wird dann die Wahrscheinlichkeitsfunktion ρ in Abhängigkeit von der Dosis χ geschätzt. Zur geschätzten Wahrscheinlichkeit ρ = 0 . 5 wird dann das zugehörige x* = E D 5 0 ED 5

(und ebenso die oft interessierenden Größen

und ED 95 ) bestimmt. Meistens geht man jedoch nicht von den Dosen x^

sondern von den logarithmierten Dosen lnx^

aus, d.h. man arbeitet mit der

1inkssteilen - rechtsschiefen Lognormal Verteilung, vgl. z.B. Härtung et al. (1982, Kap.IV).

Im sogenannten LOQAX - ModeLi

wird anstelle der Verteilungsfunktion Φ der

Standardnormal Verteilung die Log-ci-ixiche VeAt&ilung&iunktLcin

verwandt, d.h.

die Wahrscheinlichkeit ρ wird angesetzt als

und somit wird eine Regression ln(p/(1-p)) = λ 0 + λ ι Χ von ln(p/(1-p)) auf χ durchgeführt. Um die Koeffizienten berechnet man also zunächst die

Logiti

für i = 1,... ,m

in unserem Beispiel, vgl. Tab. 12, ergibt sich =l g£

gt

= ln 1 = 0

,

n

gg

{ifl=M=-1.0986 9t

,

= ln 3 = - I n -j= 1.0986

zu schätzen

Kapitel II: Die Regressionsanalyse

so daß wir f ü r λ

ο

und λ, die Werte 1

AQ = - 2 . 1972

und

λ, = 1.0986

erhalten. In der Abb.18 s i n d diese

Regressionsgerade

g l g t = l n ( — ß — ) = -2.1972 + 1.0986x Μ -ρ die z.B. an der S t e l l e χ =4 die Wahrscheinlichkeit ρ des Auftretens von a = 1 p r o g n o s t i z i e r t zu P°P(«>°

1+e

2.1972-1.0986.4

= 0

·8999

'

sowie die Punkte (x H »g^ 9 t ) f ü r i = 1,2,3 eingezeichnet.

Abb.18: Daten

für i = 1 , 2 , 3 und zugehörige Regressionsgerade

g l g t = - 2 . 1972 + 1 .0986X

Um die b i s h e r betrachteten Modelle zur Schätzung von ρ veAglz-aihzn zu können, sind in Cab.13 f ü r verschiedene Werte χ e [ - 1 .00,5.00] die Schätzer ρ ausgehend von unserem B e i s p i e l aus Tab.12 im Linearen W a h r s c h e i n l i c h k e i t s modell (p, . ) , im Probit - (Normit - )Modell (pr . ) und i m L o q i t - M o linear probit dell (p, . ) angegeben. Man erkennt sehr d e u t l i c h , daß a l l e Modelle im logit Zentralbereich (x etwa zwischen 0.75 und 3.25) p r a k t i s c h g l e i c h e Schätzungen l i e f e r n , und nur in den Randbereichen stärkere Abweichungen auftreten. Bei der Bestimmung der Regressionsgeraden im obigen Beispiel

(gruppierte

133

134

Kapitel II: Die Regressiomanalyse

Cab-13: Schätzungen ρ . = ρ = 1/4·χ, ρ w = linear problt

φ(ςΡ Γθ13 ) = $(-i.350+0.675x),

= 1/(l+e"9 l 9 t > \ = 1 / ( 1 + e 2 , 1 9 7 2 " 1 - 0 9 8 6 x ) für die Wahrscheinlichlogit \ ) keit p = P(a=1|x=x) an verschiedenen Stellen χ in den drei Modellen ρ

X -1.00 -0.70 -0.40 -0. 10 0.00 0.20 0.50 0.80 1.00 1.10 1.40 1.70 2.00 2.30 2.60 2.90 3.00 3.20 3.50 3.80 4.00 4.10 4.40 4.70 5.00

ρ

linear

-0 -0 -0 -0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 2

250 175 100 025 000 050 125 200 250 275 350 425 500 575 650 725 750 800 875 950 000 025 100 175 250

p problt

P

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

0214 0342 0526 0782 0885 1122 1556 2090 2500 2718 3427 4198 5000 5802 6573 7282 7500 7910 8444 8878 9115 9218 9474 9658 9786

loqit 0357 0490 0668 0905 1000 1216 1614 2111 2500 2712 3409 4183 5000 5817 6591 7288 7500 7889 8386 8784 9000 9095 9332 9510 9643

Daten) ist es so, daß keine Residuen auftreten, d.h. die Geraden gehen exakt durch die vorgegebenen Punkte, vgl. Abb.16 - 18; dies ist natürlich selten der Fall. Beim aZlQmeJjniAin

Ta.lt

wollen wir nun auch gleich die

Berücksichtigung mehrerer Regressoren Χ^,.,.,Χ^, die auf den Regressanden ö Einfluß nehmen, einbeziehen. Bezeichnen wir die Ausprägungsvariablen von X^

X^ mit χ^,.,.,χ^ und die

von y mit u, so möchten wir nun also eine Beziehung der Art

P = G

(ßo

+

j,

V j )

mit zu spezifizierender Funktion G und unbekannten Parametern ß Q >ß^ durch ?

- < v

j,

hxi)

ß^

135

Kapitel II: Die Regressionsanalyse

schätzen, wobei ß j eine Schätzung f ü r ß^ (j=0

h) d e r a r t i s t , daß ρ

eine Schätzung f ü r die Wahrscheinlichkeit ρ des Eintretens von a = 1 unter der Bedingung

x^ i s t :

ρ = P(a=1 |x 1

xh)

;

d.h. f ü r einen Ausprägungsvektor

x0 =

(χ0ι

x oh^ T c ' e r

^ '"' e r ' < m a l e

i s t mit y 0 = a ( x Q ) P0=p(x0) = P ( y 0 = D die Wahrscheinlichkeit dafür, daß bei einer Merkmalskombination xQ das Ereignis a = 1 e i n t r i t t . Um die Regressionskoeffizienten β

zu schätzen, verschaffen wir uns

nun m Merkmalskombinationen xi = ( x ^

x

ih'T

f ü r

i=1

·· ·· >m >

die zusammen unter Berücksichtigung eines Absolutglieds eine Designmatrix 1

x

1

x21

x12

n

x22

X= . X

m1

1h *2h

mh

V

ergeben, j e n^ > 1 (Faustregel: n^ s o l l t e mindestens 5 betragen bei n i c h t zu kleinem m) unabhängige Beobachtungen des Regressanden y ; dabei wollen wir hier voraussetzen, daß XTX i n v e r t i e r b a r i s t . Bezeichnet mit y i P i = P(y· = 1) f ü r i = 1

nun

m die Wahrscheinlichkeit f ü r das Eintreten von

a = 1 an der Kombination x^ und n^(1) die Häufigkeit mit der y^ = 1 an der S t e l l e x i beobachtet w i r d , so i s t mit der r e l a t i v e n p^ =———

Häufigkeit

für y i = 1 an der S t e l l e x^ ,

wobei 0 < fK < 1 gelten s o l l , e i n Schätzer für p^, i = 1 , . . . , m , gegeben, der Erwartungswert bzw. Varianz Ε(^) =

Pi

,

V a K p J = P i ( l -pi)/ni 2

b e s i t z t , und weiterhin bezeichne s^ eine Schätzung für Var(p^), z . B . s^ = ^ ( 1 - p i ) / n i

für

i=1,...,m

Kapitel II: Die Regressionsanalyse

136

Hat die Funktion G eine Umkehrfunktion G " 1 , so l ä ß t s i c h die oben angegebene Regressionsbeziehung f ü r ρ auch schreiben a l s h

-1

3 = G '(ρ) = ß + l j=1

B*.

J

J

und wir führen eine Regression von g auf χ . χ. durch. Setzen wir nun 1 . _λ Λ I ΠΛ Λ Λ g.j = G" ( ρ ^ , g . = G~ ( ρ ^ und g = (g 1 gm) , g = (g1 g m ) , so s t e l l e n β ^ ) τ a l s o folgendes Regressionsmodell

wir mit g = (ß Q ,ß-j g = Xß + e

auf:

,

wobei approximativ E(g)=üXß = g und e ein m - dimensionaler Fehlervektor mit unabhängigen Komponenten e^

e m i s t . A l l e r d i n g s haben die e^ nicht iden-

t i s c h e Varianz, so daß wir die gewichtete Methode der Kleinsten Quadrate zur Schätzung von β anwenden müssen (Aitken - S c h ä t z e r ) , v g l . auch den vorausgegangenen Abschnitt 2; dabei verwenden wir n a t ü r l i c h eine 'Schätzung der approximativen Kovarianzmatrix

von g bzw. e. Wir erhalten dann

f ü r β den Schätzer g = (XTig1X)"1XT|g1g = ( g 0 , B r . . . , g h ) T

,

der n a t ü r l i c h abhängig von der s p e z i e l l gewählten Funktion G i s t ; daher werden wir β bzw. die Komponenten von'β zur Unterscheidung j e w e i l s passend i n d i z i e r e n . Es sei noch erwähnt, daß das hier betrachtete Modell ein B e i s p i e l f ü r ein sogenanntes Ve.nalZgtmeJ.neAte.i Line/m.

UodeZ)

Linzanih

i s t , v g l . z.B. McCullagh/Nelder (1983),

ModeZl

(Ge.nMatized

Fahrmeir/Hamerle

(1984). Im LineaAen

UahuchilntichkeAtimodeZl

i s t nun einfach G = i d die identische

Abbildung (obige Beziehungen s i n d dann n a t ü r l i c h e x a k t ) , d.h. es g = p = (p1,...,pni)'

r

ist

und

jiG>diag(s2,...,sJ) also y

j=1

Im Pfiob-it - oder UonmiX - Modeti

J

J

i s t G=, a l s o G die V e r t e i l u n g s f u n k t i o n der

Standardnormal V e r t e i l u n g , und f G = d i a g ( s ^ ( p t ) 2 , . . . ,s2/ d Λ falls β + g.x* 0 1 < d

p r o g n o s t i z i e r t ; der Diskriminationspunkt d kann dabei etwa so f e s t g e l e g t werden, daß die Fehl Zuordnungen bei den b e r e i t s bekannten Objekten gemäß d i e s e r Regressionsfunktion minimal werden. In diesem Sinne i s t a l s o eine I n t e r p r e t a t i o n d i s k r e t e r Regressionen möglich. Betrachten wir nun noch einmal das Beiip-iet

vom Anfang dieses A b s c h n i t t s ,

v g l . etwa Tab. 12. Dort hatten wir bei der Regression von ij auf X unter Verwendung der Größen y^ und x^ f ü r k=1

12 die Regressionsgerade

ä = 0.0179183 + 0.2430664x , v g l . Abb. 15, bestimmt, f ü r die s i c h der Diskriminationspunkt d = 1 / 2 e r g i b t . Berechnet man dagegen die Regressionsgerade unter Verwendung der g r u p p i e r ten Größen (Meßpunkte) x ^ x g . x - j , d.h. verwendet man a n s t e l l e von x^ f ü r k = 1 . . ,12 nun x^ = x^ = 1 für k=1

4 , x^ =

2 für k=5

8 und

x k = x 3 = 3 f ü r k = 9 , . . . , 1 2 , so e r g i b t s i c h , e b e n f a l l s mit D i s k r i m i n a t i o n s punkt d = 1/2, gruppiert

=1/4



.

man s i e h t , daß diese Gerade i d e n t i s c h i s t mit derjenigen, die s i c h aus dem Linearen Wahrscheinlichkeitsmodell

e r g i b t , v g l . Abb.16.

Folgt man einem Vorschlag von Fisher (1936) und kodiert die Zustände von y nicht mit 1 und 0 sondern (bei gleichen Gruppengrößen, wie im B e i s p i e l

der

F a l l ) mit 1/2 und - 1 / 2 , so ergeben s i c h die gleichen Regressionsgeraden wie oben, l e d i g l i c h um 1/2 nach unten verschoben, d.h. 3 . .

Fisher

= -0.4820817+0.2430664x

bzw.

g ® r u P p i e r t = - 1 / 2 + 1/4x ; ^Fisher

n a t ü r l i c h verschiebt s i c h h i e r in beiden Fällen auch der D i s k r i m i n a t i o n s -

.

punkt um 1/2 nach unten, a l s o d . , r

1

Fisher

=0

Bei diskreten Variablen mit mehreren möglichen Zuständen kann man entsprechend vorgehen, indem man die Aoipiägungen "günitig"

kodienX

(man sagt

auch, die Variablen werden hka.LLe.nt) und dann den gesamten Apparat der 'normalen' (metrischen) Regressionsanalyse zur Verfügung hat. Bei d e r a r t i gem Vorgehen sind die An^oldeAungen an die Oate.nba.ijj> bzw. deren Umfang wesentlich gelinget,

insbesondere n a t ü r l i c h bei höherdimensionalen

Proble-

men. Zum B e i s p i e l treten bei mehrdimensionalen Kontingenztafeln häufig aus Mangel an Untersuchungseinheiten v i e l e sogenannte "leene

Zellen"

a u f , auch

142

"zaiäti-ige.

Kapitel II: Die Regressionsanalyse

Nutizn"

genannt, die ein Arbeiten im Loglinearen Modell bzw.

Logit-Modell erheblich erschweren bzw. unmöglich machen. Wir werden uns in den nachfolgenden Kapiteln noch ausführlich mit dem Auswerten diskreter Daten beschäftigen; es sei an dieser Stelle insbesondere auf den Abschnitt 4 in Kap.IV (Diskriminanzanalyse), das Kap.V (Skalierungsverfahren) und den Abschnitt 1.3 in Kap.X (multivariate Regressions- und Kovarianzanalyse für diskrete (skalierte) Daten) hingewiesen.

Kapitel III: Die Korrelationsanalyse

Bei der Analyse statistischen Datenmaterials i s t man oft hauptsächlich daran interessiert, Abhängigkeiten und Zusammenhänge mehrerer Merkmale zu quantifizieren, wie dies z.B. mittels der in Kap.II (bzw. Kap.X) dargestellten Regressionsanalyse geschieht, und qualitative Aussagen liber das Vorhandensein und die Stärke von Abhängigkeiten zu gewinnen. Hier s t e l l t die KoiAeZationianalyiz

ein geeignetes Instrumentarium bereit.

Die Kom.idja.tion oder Anozlation

von UeAkmalcn gibt vornehmlich den Grad

des linearen Zusammenhangs wieder.Neben Maßen für Korrelation bzw. Assoziation werden hier Tests auf Signifikanz eines Zusammenhangs und Vergleiche von Korrelationen betrachtet. Dabei beschäftigen wir uns zunächst ausführlich mit der Korrelation normalverteilter Merkmale; in diesem Zusammenhang werden auch einige besonders hervorzuhebende Phänomene bei der Berechnung von Korrelationen dargestellt. Anschließend werden Korrelationen zwischen beliebigen stetigen Merkmalen, zwischen ordinalen Merkmalen, zwischen gemischt stetigen und ordinalen Merkmalen und schließlich zwischen nominalen Merkmalen betrachtet. Im letzteren Fall nominaler Merkmale spricht man anstelle von Korrelat!onsmaßen dann von Assoziationsmaßen. Bei der Berechnung von Korrelationen muß man darauf achten, daß die Merkmale, deren Korrelation man bestimmt, in einem sachloqischen Zusammenhang stehen, da sonst "Nomma - Κ.ο>υιζΙα£ίοη&η", wie z.B. die Korrelation zwischen der Anzahl der Störche und der Geburtenzahl, berechnet werden. Weiterhin sollte man sich vor SchilnkoOielatlonm

hüten, die lediglich durch

die Abhängigkeiten von weiteren Merkmalen entstehen. In solchen Fällen bedient man sich partieller bzw. bi - partieller Korrelationen, die solche Einflüsse weitgehend ausschalten.

144

1

Kapitel III: Die Korrelationsanalyse

DIE KORRELATION NORMALVERTEILTER MERKMALE

In diesem Abschnitt beschäftigen wir uns zunächst mit dem Schätzen der Kon.fLitcutCon

zwIAJLK nonmalvexteWteA

X und Y. Für solche

UeAkmale

Korrelations-

maße werden auch Tests auf Signifikanz, Tests zum Vergleich mehrerer Zusammenhänge und Konfidenzintervalle angegeben. Weiterhin werden globale und simultane TeAti

au£

Unabhängigkeit

eindimensionale Maße iüA

die

von

Stänke

de*

ρ MeAkmaZen

bzw. ρ Μ e ß i e i h e n und von ρ Merkma-

GeAamtzuAammenkangi

len angegeben.

Weiterhin betrachten w i r multiple

und kanonliche

Öie multi-

Kowielallonen.

ple Korrelation ist gerade ein Maß für den Zusammenhang zwischen einem Merkmal X und ρ Merkmalen

, und die kanonische Korrelation mißt den

Zusammenhang zwischen zwei Merkmalsgruppen

und Υ^,.,.,Υ^.

Für einfache, multiple und kanonische Korrelationen werden dann noch Maße betrachtet, die den Einfluß weiterer Merkmale eliminieren. Bei den ellen

KoAAeZationen

mit allen interessierenden Merkmalen korreliert ist, tiellen

Kowielatlomn

parti-

werden Einflüsse einer Variablengruppe eliminiert, die und bei den bl -

werden Einflüsse zweier Variablengruppen

par-

ausgeschal-

tet, die jeweils mit einem Teil der interessierenden Merkmale und untereinander stark korreliert sind.

Einige Teile der Ausführungen in diesem Kapitel findet man auch bei

Härtung

et al. (1982, Kap.I und IX).

1.1 D I E

In Kapitel

KORRELATION

ZWEIER

Ν 0 R Μ A L V Ε R Τ Ε I L Τ ΕR

MERKMALE

I, Abschnitt 3 haben wir als Kenngröße von Zufallsvariablen die

Kovarianz Cov(X,Y) zwischen den Zufallsvariablen X und Y kennengelernt.

Die-

se Größe haben wir, um sie besser interpretieren zu können, so normiert,, daß der Wert der normierten Größe, die Κ o/üielatlon Ρ = PXY

:

deA

Zuhält

Α variablen

X und V

Cov(X,Y) Var(X)-Var(Y)

stets zwischen -1 und +1 liegt. Wir haben dort gesehen, daß die Korrelation von zwei unabhängigen Zufallsvariablen X und Y stets Null unabhängige Zufallsvariable sind stets unko/uiellemt.

ist, d.h. zwei

Umgekehrt können wir

aber i.a. nicht aus der Unkorrel iertheit von X und Y' deren Unabhängigkeit folgern. Wir haben aber gesehen, daß speziell zwei unkorrelierte

normalver-

teilte Zufall svariablen X und Y auch unabhängig sind. Daher ist im Normal-

Kapitel III: Die Korrelationsanalyse

145

verteilungsfall die Korrelation ρ ein eindeutiges Maß für die Stärke der Abhängigkeit zweier Zufallsvariablen. Wir wollen nun die Korrelation zwischen zwei in einer Grundgesamtheit normalverteilten Merkmalen X und Y, die ebenso wie die zugehörigen Zufallsvariablen bezeichnet seien, anhand je einer Stichprobe (bzw. Beobachtungsreihe) vom Umfang η aus dieser Grundgesamtheit schätzen, um so ein Maß für die Abhängigkeit zwischen den Merkmalen zu erhalten. Als SchätzeA fc'in die. KoOieJicuUon ρ zweier normal verteilter Merkmale bzw. Zufall svariablen X und Y können wir natürlich die

Stichph.obznkovieZcüMjn

η _ _ I (x1i - χ)(γ Ί1· - y) XY i-1 VΧs v Y /m η ο sη , / ϊ ( χ1 - χ ) · I ( y1i - y ) / i=l i=l sS

Γχγ

η I x^i-nxy i=1 1 1

=

verwenden, die auch a l s PicuuoracheA

KoAAelatiomkoeii-iz-icyU

bezeichnet wird, wobei die x ^ , . . . , x

mommtkofuielatlon und die y ^ , . . . , y

oder

PiodukX-

Realisationen von X

Realisationen von Y sind und paarweise in der Form

,y n ) erhoben werden. Die Größe R B

X,Y

- rr 2 XY

nennt man auch Bzitimmthextimzß.

Es gibt an, welcher Varianzanteil des Merk-

mals X durch Y erklärt wird und umgekehrt, vgl. auch Kap.II. 8 i i i p i e . 1 : Aus den Daten der Cab.l wollen wir die empirische Korrelation zwischen der Anzahl der Studienanfänger X und der Gesamtzahl von Studenten Y an einer Universität bestimmen. Es ergibt sich n r

i =l 1

= Γη

y

- 2 (χ, - x)(y1H - y) η

l ( X1 i - X ) 2 · ! i=i i=i

( y1 , - y ) 2

146

Kapitel III: Die Korrelationsanalyse

10 1 - 17086.3) ι (x.1 - 2651)(y. i=1

MO ,10 l (x. - 2651) · l 1 i=1 i=1 133195081

, (y . - 17086.3) 1

_ 133195081 ^ Q

V 20173924-920380528

g775

136263300

Es besteht also ein starker (linearer) Zusammenhang zwischen der Anzahl der Studienanfänger und der Anzahl aller Studenten an einer Universität. Das Bestimmtheitsmaß ist hier Βχ

γ

= r2Y=0.97752=0.9555

Cab.l: Studienanfänger im Jahr 1977 und Studenten insgesamt im Jahr 1977 an 10 Universitäten der Bundesrepublik Deutschland (vgl. Grund- und Strukturdaten 1979; der Bundesminister für Bildung und Wissenschaft) Univ. Univ. Univ. Univ. Univ. Univ. Univ. Univ. Univ. Univ. Bochum Bremen Claus- Dort- Frank- Frei- Ham- Heidel- Kiel Münthal mund furt berg ster burg burg Studienanfänger Studenten insgesamt

3970

732

499

1300

3463

24273

5883

2847

5358

23442

3630

3294

17076 28360

19812

2643

1931

5048

12379 31433

Um zu erkennen, wie sich der Pearsonsche Korrelationskoeffizient r^y bei verschiedenen Konstellationen von Ausprägungen der Merkmale X und Υ verhält, werden im folgenden Beispiel jeweils für gleichbleibende Ausprägungen von X die Ausprägungen von Υ so variiert, daß die Standardabweichung Sy von Υ konstant bleibt. ΒϋΑΛρΙιί: In tah.2 sind für je 8 Untersuchungseinheiten die Beobachtungsdaten ( x . j , y . j ) der Merkmale X und Y, wobei die Ausprägungen von X gleichbleiben und die von Υ variieren, die Korrelationskoeffizienten nach Pearson berechnet. Um eine Vorstellung von der Größe des Korrelationskoeffizienten r^y zu bekommen, haben wir in den Abb.l bis 8 diese Kombinationen von Merkmalsausprägungen graphisch dargestellt.

147

Kapitel III: Die Korrelationsanalyse

Cab.2: Korrelationskoeffizient bei verschiedenen Konstellationen von Ausprägungen

x

i

y

2 4 6 8 10 12 14 16 r XY =

i

y

i

y

i

y

i

1 2 3 4 5 6 7 8

2 1 4 3 6 5 8 7

4 3 2 1 8 7 6 5

1 8 2 7 3 6 4 5

1.000

0.905

0.524

0.190

y

i

y

2 7 5 3 8 4 1 6

i 3 8 5 2 7 4 1 6

y

i

y

8 6 4 2 7 3 5 1

i 8 7 6 5 4 3 2 1

0.000 - 0 . 1 4 3 - 0 . 6 1 9 - 1 . 0 0 0

J

Mar sieht am B e i s p i e l , daß r^y nahe 1 l i e g t , wenn der Zusammenhang zwischen X und Y annähernd positiv linear i s t und nahe -1 l i e g t , wenn eine annähernd negativ lineare Abhängigkeit zu erkennen i s t . Je "verstreuter" die Ausprägungen (x.,y-) in der Ebene liegen, desto näher l i e g t r Y Y bei Null.

Abb.l: r x y = 1.000

2

4

6

β

10

12

14

16

X

Abb.2: r x y = 0.905

2

4

6

8

10

12

14

16

X

148

Kapitel III: Die Korrelationsanalyse

7 6• S3

Abb.3:

Γ χ γ = 0.524

Abta.4:

Γχγ =0.190

Abb.5:

Γχγ = 0.000

Abb.6:

Γχγ =-0.143

2^ 1 2

U

6

8

10

12

Η

16

X

Υ

2

2

2

U

i*

4

6

6

6

8

8

8

10

10

10

12

12

12

H

Η

14

16 X

16

16

X

X

149

Kapitel III: Die Korrelationsanalyse

Abh.7: Γ χ γ = - 0 . 6 1 9

2

U

6

8

10

12

14

16

X

Abb.8: r

2

U

6

8

10

12

14

16

XY '

•1.000

X

Daß r^y w i r k l i c h nur den l i n e a r e n Zusammenhang zwischen X und Υ mißt,

sieht

man auch an der folgenden Abb.9. Die Koordinaten (x.j,y.) h i e r z u s i n d in l a b . 3 angegeben.

X

1 2

3

X

4

X

5

6

7

Abb.9: N i c h t l i n e a r e r Zusammenhang mit r ^ = 0

8

150

Kapitel III: Die Korrelationsanalyse

Cab.3: Daten (x^ , y . j ) , i=1 i x

i

7, zu Abb.9

1

2

3

4

5

6

7

1

2

3

4

5

6

7

•7.6

5.6

4.4

4

4.4

5.6

7.6

Die Daten aus Tab.3 stehen in quadratischem Zusammenhang: yi = 0 . 4 ( x i - 4 ) 2 + 4

.

Trotzdem i s t die Korrelation r^y = 0, denn es besteht im ersten Teil ( i = 1 , . . . , 4 ) ein starker negativer linearer Zusammenhang 48-4.2.5.5.4

_^_._0.

/ (30-4·2.5Ζ)(124.48 -4·5.42)

V

(i = 1>...,4)

9 5 8 3

39-2

und im zweiten Teil (i=5,6,7) ein starker positiver linearer Zusammenhang r^y =

108.8 - 3-6.5.867 Ζ

0.9890

= Z

\ / ( 1 1 0 - 3 · 6 ) ( 1 0 8 . 4 8 - 3-5.867 )

10

^

·

(i=5,6,7),

430

so daß sich insgesamt der Zusammenhang ausmittelt: 156.8 - 7-4-5.6 · 3 Ο.Ο-/·Η· 3 .Ο

rxy=



==

/ (140 - 7-4 2 )(232.96 - 7-5.6 2 )

V

= 0

(i=

1t...t7)

376,32

Im ersten Teil i s t Y gegenläufig zu X und im zweiten Teil g l e i c h l ä u f i g , so daß also liber beide Teile gesehen der Korrelationskoeffizient r^ Y keine Beziehung zwischen X und Y zu erkennen vermag. Ein weiteres Phänomen bei der Korrelationsanalyse wird im folgenden Beispiel k l a r , vgl. hierzu auch ein ähnliches Beispiel in Pfanzagl (1974). Βe-LipteZ: Bei der Messung von Hämoglobingehalt im Blut (X) und mittlerer Oberfläche der Erythrozyten (Y) bei η = 1 6 Personen ergaben sich die Daten der Cab.4, die in Abb-10 auch graphisch dargestellt sind. Aufgrund dieser Daten wird die Korrelation zwischen X und Y mit r

23309.79 - 16-14.9375-96.9875

=

2

/ (3605.4 - 16-14.9375 )(151250.64 - 16-96.9875

=Q

?gg6

2

geschätzt. Wir wollen nun berücksichtigen, daß es sich bei den Personen i = 1 , . . . , 8 um Frauen und bei den Personen i=9,...,16 um Männer gehandelt hat, und die beiden nach Geschlecht getrennten Korrelationen berechnen. Bei den Frauen ergibt sich

151

Kapitel III: Die Korrelationsanalyse

, Γ χ γ (Frauen) =

9955.15 - 8 Ί 3 . 6 7 5 - 9 0 . 9 5

n ,,,„ =0.2619 ,

/ ( 1500.06 - 8-13.675 2 )(66274.14 - 8 - 9 0 . 9 5 2 ) und bei den Männern erhalten wir rxy(Männer)=

13354.64 - 8-16.2-103.025 2

=

„ ^

_

2

/ (2105.34 - 8·16.2 )(84976 - 8-103.025 ) l a b . 4 : Hämoglobingehalt und m i t t l e r e Oberfläche der Erythrozyten bei η = 16 Personen Person i

Hämoglobingehalt X

m i t t l . Oberfläche der E r y t h r o z y t h e n y

Frauen

1 2 3 4 5 6 7 8

13 12 13 14 14 12 14 13

1 9 7 5 1 7 8 6

85 92 94 90 97 88 89 89

2 4 2 8 5 6 1 8

Männer

9 10 11 12 13 14 15 16

16 15 17 14 15 17 15 16

5 7 0 9 8 5 3 9

103 106 99 101 98 103 103 107

1 3 8 4 8 4 8 6

Die hohe Gesamtkorrelation zwischen X und Υ von 0.7996 i s t a l s o nur dadurch bedingt, daß Männer und Frauen g l e i c h z e i t i g b e r ü c k s i c h t i g t werden, denn die geschätzten g e s c h l e c h t s s p e z i f i s c h e n Korrelationen s i n d sehr g e r i n g . Eine s i n n v o l l e Berechnung der Gesamtkorrelation zwischen Hämoglobingehalt und m i t t l e r e r Oberfläche der Erythrozyten i s t a l s o nur möglich, wenn der Ges c h l e c h t s e i n f l u ß ausgeschaltet wird. Dazu dient der in Abschnitt 1.4 darg e s t e l l t e p a r t i e l l e K o r r e l a t i o n s k o e f f i z i e n t . Die S c h w i e r i g k e i t besteht h i e r aber d a r i n , daß das zu p a r t i a l i s i e r e n d e Merkmal Geschlecht nur zwei Ausprägungen b e s i t z t ; man h i l f t s i c h hier dann, indem man zur Schätzung der K o r r e l a t i o n von Geschlecht und einem der anderen Merkmale einen b i s e r i a l e n K o r r e l a t i o n s k o e f f i z i e n t e n verwendet, v g l . Abschnitt 2.3. Es sei h i e r noch ein Zusammenhang zwischen dem Pearsonschen K o r r e l a t i o n s k o e f f i z i e n t e n r^y und dem K l e i n s t e - Quadrate - Schätzer β f ü r den Regress i o n s k o e f f i z i e n t e n (Steigungsparameter) β der linearen Regression vom Merk-

152

Kapitel III: Die Korrelationsanalyse

Y

108H 106104-| 102100· 9896-

94· 9290Θ8Η 86Ö4J

"t

12

13

14

15

16

1?

18

Abb.10: Graphische D a r s t e l l u n g des Hämoglobingehalts und der m i t t l e r e n Oberf l ä c h e der E r y t h r o z y t e n bei η = 16 Personen, v g l . T a b . 4 ; d i e Daten der Frauen s i n d mit " x " , die der Männer mit " · " gekennzeichnet

mal Y auf das Merkmal X, v g l . h i e r z u K a p . I I , erwähnt:

B=

l (xi - x ) ( y i - y ) / Σ 1 1 1=1 / i=1

(i,

1

(*1 - x K Y i - y } ) - J ( y - j - y )

η

/

(xi-x)2

,

l (x^ - χ ) 1 i=1

η

9

2

η

· I ( y , - y ) M 1 i=1 i=1

9

(χ,-χ)2 1

-n2 ^ r

XY'sY/sX

/

J

h

( x

i-*>

153

Kapitel III: Die Korrelationsanalyse

d.h. der S c h ä t z e r β f ü r Β i s t g l e i c h dem Pearsonscheri

Korrelationskoeffi-

zienten m u l t i p l i z i e r t mit dem Quotienten der empirischen

Standardabweichung

des Merkmals Y und der empirischen Standardabweichung des Merkmals X.

1.1.1 TESTS UND KONFIDENZINTERVALLE FOR ρ Sind d i e Z u f a l l s v a r i a b l e n X und Y normal v e r t e i l t , so können w i r aufgrund von η R e a l i s a t i o n e n x ^ , . . . , x n von X und y^

y n von Y mit H i l f e der K o r -

r e l a t i o n t t e t m , ob X und Y unabhängig s i n d : Hat der unbekannte K o r r e l a tionskoeffizient

ρ den Wert N u l l , so

ist

1 / T - r: XY d i e R e a l i s a t i o n e i n e r t - v e r t e i l t e n Z u f a l l s v a r i a b l e n mit n - 2 F r e i h e i t s g r a den. Dabei bezeichnet r d i e

Pearsonsche Schätzung f ü r p. Wollen wir a l s o

die Hypothese V

p= °

gegen d i e A l t e r n a t i v e H^

p^O

zum Niveau α t e s t e n , so müssen w i r d i e Hypothese Η >t

n-2;1-a/2

verwerfen, f a l l s

gilt

·

In den e i n s e i t i g e n Testproblemen Η': p^O

gegen

H|: p < 0

Η"': p f O

gegen

H^1: p > 0

bzw.

verwerfen w i r die Nullhypothese zum Niveau α, f a l l s t < t

,

gilt

bzw.

t > t„ ·> 1 Wollen w i r aber f ü r f e s t e s P Q ^ 0 d i e Hypothese V

p = p0

gegen die A l t e r n a t i v e H

1:

p

^ po

zum Niveau α exakt t e s t e n , so müssen w i r d i e Prüfgröße r^y verwenden. Die

154

Kapitel III: Die Korrelationsanalyse

Verteilung von r^y für verschiedene Werte pQ i s t z.B. bei David (1954) vertäfelt. Einen approximativen Test erhält man, wenn man zunächst die ftbhejac-kz z Tnani

^onmatam 1 + r 1 XY z=arctanhrXY=IlnTrT-

e2z - 1 , d.h. τ χ γ » - j ^ —

,

durchführt. Zur Umrechnung von r y Y in ζ und umgekehrt verwende man Cab.5. Cab.5: Die Fishersche - ζ - Transformation r

XY -

r

0

XY

0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9

0 0 0 0 0 0 0 0 1 1

000 100 203 310 424 549 693 86 7 099 472

1 0 0 0 0 0 0 0 0 1 1

010 110 213 321 436 563 709 887 127 528

2 0 0 0 0 0 0 0 0 1 1

020 121 224 332 448 576 725 908 157 589

3 0 0 0 0 0 0 0 0 1 1

030 131 234 343 460 590 741 929 188 658

4 0 .040 0 141 0 245 0 354 0 472 0.604 0 758 0 950 1 221 1 738 z -» r

ζ 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 2.0

0 0 0 0 0 0 0 0 0 0 0 0 0

OOO 100 197 291 380 462 537 604 664 716 762 964

2

1 0 0 0 0 0 0 0 0 0 0 0 0

010 110 207 300 388 470 544 611 670 721 800 970

0 0 0 0 0 0 0 0 0 0 0 0

020 119 217 310 397 478 551 617 675 726 834 976

3 0 0 0 0 0 0 0 0 0 0 0 0

030 129 226 319 405 485 558 623 680 731 862 980

Ζ 5 0 0 0 0 0 0 0 0 1 1

040 139 235 327 414 493 565 629 686 735 885 984

0 .060 0 .161 0 266 0 377 0 497 0 633 0 793 0 996 1 293 1 946

0 0 0 0 0 0 0 1 1 2

070 172 277 388 510 648 811 020 333 092

8 0 0 0 0 0 0 0 1 1 2

080 182 288' 400 523 662 829 045 376 298

9 0 .090 0 192 0 299 0 412 0 536 0 678 0 848 1 071 1 422 2 647

ΧΥ

4 0 0 0 0 0 0 0 0 0 0 0 0

050 151 255 365 485 618 775 973 256 832

7

6

5 0 0 0 0 0 0 0 0 0 0 0 0

050 149 245 336 422 501 572 635 691 740 905 987

6 0 0 0 0 0 0 0 0 0 0 0 0

060 159 254 345 430 508 578 641 696 744 922 989

7 0 0 0 0 0 0 0 0 0 0 0 0

070 168 264 354 438 515 585 647 701 749 935 991

8 0 0 0 0 0 0 0 0 0 0 0 0

080 178 273 363 446 523 592 653 706 753 947 993

9 0 0 0 0 0 0 0 0 0 0 0 0

090 188 282 371 454 530 598 658 711 757 956 994

I s t etwa r^y = 0.43, so g i l t z = 0.46; i s t Γ χ γ = 0.61, so g i l t z = 0.709. I s t ζ = 0.25, so i s t r Y V = 0.245; i s t ζ = 1 . 3 , so i s t r Y V = 0.862. Die Größe ζ (eigentlich die ζ zugrundeliegende Zufallsvariable) i s t auch für kleine η recht gut approximativ normal v e r t e i l t mit

155

Kapitel III: Die Korrelationsanalyse

E Daher

^

l

n

j

i

l

U

^

^

und

V a r f z ) ^

.

ist (ζ -

ζ)·\/~n-3

standardnormal v e r t e i l t

(approximativ),

so daß w i r den E i n s t i c h p r o b e n - Gauß-

t e s t , v g l . Kap.I, A b s c h n i t t 3, verwenden können. Wir müssen a l s o z . B .

die

Hypothese p = p

V

o

im Test zum Niveau α gegen d i e Η

Γ

p

^ po

verwerfen, f a l l s lung

Alternative

'

Standardnormal V e r t e i -

gilt: | ( ζ - ζ 0 ) · / 7 Γ 7 | >u1_a/2

Dabei

c er

mit dem (1 -α/2) - Quantil

.

ist

Analog v e r f ä h r t man bei den e i n s e i t i g e n Hypothesen H^ und H^' v g l . nachstehendes

Be.jjsp.ie2:

f ü r p Q ^ 0;

Beispiel.

Bei V o r l a g e n der Beobachtungen aus Tab.1 wollen w i r d i e Hypothe-

se, daß d i e Zahl der Studienanfänger und d i e Gesamtstudentenzahl s i t ä t e n unkorrel i e r t s i n d , zum Niveau α = 0.1

an Univer-

testen.

Da s i c h a l s Schätzer f ü r d i e K o r r e l a t i o n r ^ y = 0 . 9 7 7 5 ergab, müssen w i r beim Testen von HQ: Ρ = 0

gegen

H1: Ρ f 0

die Hypothese H q verwerfen, da t =

0^9775μΓΤ^^=62139

> 1 8 6

= t10.2;0_95 = t8;0>g5

/ 1 - 0. 9775 gilt.

D.h. es besteht eine s i g n i f i k a n t e K o r r e l a t i o n zwischen den beiden

in-

teressierenden Merkmalen.

Mit H i l f e des approximativen Tests wollen w i r nun noch zum Niveau ο = 0.05 Η

ό' : P I 0 - 8

gegen

H-j": ρ >0.8

156

Kapitel III: Die Korrelationsanalyse

testen. Mit τ χ γ = 0.9775 ergibt sich ζ = 2.238 und es ist _

1

ln

1.80

0.80

,

Da (ζ-ς0)

2.897 > 1.645 = u Q > 9 5

ist, wird H" verworfen, d.h. die Korrelation ist zum 5% Niveau siqnifikant ο größer als 0.8. Die Fishersche ζ - Transformation kann auch zur Bestimmung eines 1-a

- Kon-

i£d&nzi.nteAvcMi ίίίΊ ρ benutzt werden. Ein Konfidenzintervall für ζ zum Niveau 1-a ist r_

1' W

,

1 + r

, _ Γ ΐ ι .

p) ~ 7 ^

U

XY

T-r 1

1 -a/2

— —

XY

Ein Konfidenzintervall

1

» 2?

1 + r

1 n

1

1

XY r

XY

.

+

U

1 -α/2

1

— \f~n-3 -I

[ r ^ r ^ ] für ρ ergibt sich hieraus, indem man z^ und

Z£ in die Intervall grenzen r^ und r,, umrechnet. Dabei macht man sich zunutze, daß für i=1,2 gilt: 1

1 + r

r

i

i

und verwendet ein iteratives Verfahren zur Berechnung von r.. Ein recht einfaches Verfahren zur Bestimmung von r^ und r^ ist die "regula falsi", vol. etwa Stoer (1979). Für i=1,2 sucht man zu einem Startwert r°, den man beispielsweise durch die Fishersche z - Transformation (für z ^ aus Tab.5 erhält, ein v°, so daß gilt f(r°)-f(v?) < 0

.

Beginnend mit j = 0 berechnet man dann im j-ten Schritt rJ n^ = r J - f ( r J ) — J U 1 1 1 f(r^) - f(v^)

.

Ist dann ί ( τ φ = 0, so ist r^ = r i die gesuchte Nullstelle der Funktion f, und ist f i n ^ j ^ O , so setzt man

M - ' - f v

f (n^.vj)

,

für f(n^)-f(^')>0

. . Ihj.rj)

,

. : für ί ( τ φ · ί ( φ < 0

·

I

Kapitel III: Die Korrelationsanalyse

157

Approximative r^ erhält man natürlich durch direkte Umrechnung der zmit Tab.5. ΒεΙόρ-ί&Ι: Wir wollen ein Konfidenzintervall zum Niveau 5% für die Korrelation zwischen der Zahl der Studienanfänger und der Gesamtstudentenzahl an Universitäten, vgl. auch Tab.1, bestimmen. Ein Konfidenzintervall zum 5% Niveau für ζ ergibt sich zunächst wegen r^ Y = 0.9775 zu r, [z

- ι - Γ 1 ι - 1-9775 1'z2] " I ?

1.96 '

1 1.9775 , 1.961 7 ,n ÖTÖ223"

= [2.238 - 0.741 , 2.238 + 0.741] =[1.497,2.979] Vermittels der "regula f a l s i " bestimmen wir nun die Grenzen r^ und r^ des 5% - Konfidenzintervalls für die Korrelation p. Als Startwert wählen wir dabei r° = 0.900

und

r ° = 0.999

.

Für die Grenze r^ ergibt sich mittels "regula f a l s i " zunächst mit v° = 0.890

und f(v°) = -0.025629685 : η° = 0.900 - 0 . 0 2 5 2 1 9 4 9 0 . ( ) - 0 2 5 2 a g ; g ; ^ ° 6 2 9 6 8 5 = 0.895040335 und damit dann f(n°) = -0.000565905 Wegen f ( n ° ) - f ( r ° ) U

1-a/2

gilt

·

Natürlich kann man auch die e i n s e i t i g e n Testprobleme zum Niveau α Η

ό:

P

1-P2

gegen

Η"·: P 1 I P 2

gegen

H

i:

P

1 < p2

ünd

H^1: p 1 > p 2

betrachten. Man muß H' verwerfen, wenn q i l t 0 " Τ u, 1 -α

Wird die Hypothese H q der Gleichheit der Korrelationen p 1 und p 2 zum Niveau α nicht verworfen, so kann man einen neuen gemeinsamen Schätzer für p^ und P 2 bestimmen. Der gemeinsame Schätzer für ς i s t (n 1 - 3)z 1 + ( n 2 - 3 ) z 2 Z =

f

V

l i

2

'

160

Kapitel III: Die Korrelationsanalyse

In Tab.5 sucht man dann den zu ζ gehörigen Wert r und hat damit einen gemeinsamen Schätzer für p^ und p 2 gefunden. Aufgrund einer Stichprobe vom Umfang n. = 17 hat sich a l s Schätzer der Korrelation p^ r, =0.72 und aufgrund einer Stichprobe vom Umfang n^=26 hat sich a l s Schätzer für P2

r 2 = 0.58 ergeben. Wir wollen zum Niveau a = 0 . 1 0 die Nullhypothese H0: P 1 = p2

gegen

H 1 : p 1 ji

testen. Aus Tab.5 ergibt sich für r 1 =0.72:

z ^ 0.908

für r 2 = 0.58:

z 2 = 0.662

und

Somit i s t 0.908 - 0.662

Τ

1/(17-3) + 1/(26-3)

: ^ | g = 0.726 < 1.645 = u 0 _ 9 5

so daß wir die Hypothese der Gleichheit von p^ und p 2 zum Niveau 0.10 nicht verwerfen können. Nun wollen wir noch den gemeinsamen Schätzer r für p^ und p 2 bestimmen. Es i s t (17 - 3)·0.908 + (26 - 3)-0.662 27.938 n , , n TTTTs = ^3—=0.650 und somit nach Tab.5

J

r = 0.572

Will man nicht nur die Gleichheit von zwei Korrelationen p^, p 2 überprüfen, sondern vielmehr die Homogenität, d.h. die Gleichheit, von k Korrelationen p ^ , . . . , p^ von je zwei Merkmalen, so bestimmt man zunächst aufgrund von paarigen Stichproben der Umfange n ^ , . . . ^ ^ Schätzer

für diese

unbekannten Korrelationen, die man dann mit Hilfe von Tab.5 in Größen transformiert. Im Test zum Niveau α von H0'· P 1 = P 2 = . . . = P k

gegen

H 1 : es gibt ein Paar (i ,j) mit p i f p..

verwirft man die Nullhypothese H q , f a l l s

Kapitel III: Die Korrelationsanalyse

S I

T=

z

2, , vni " ^

(j,

2

i( R

n

i-

3 )

)

161

2

>xtl;1-a

iS, g i l t , mit dem ( 1 - a ) - Quantil der χ 2 - V e r t e i l u n g mit k - 1 F r e i h e i t s g r a d e n . Wird H

q

zum Niveau α n i c h t verworfen, so kann man, wie schon beim Test auf

G l e i c h h e i t von zwei K o r r e l a t i o n e n , einen gemeinsamen S c h ä t z e r r f ü r bestimmen, indem man mit H i l f e der Tab.5 den Wert

j

z.(nr3) κ

in den Wert r t r a n s f o r m i e r t . Be-όόpleJL: Bei Stichprobenumfängen n^ = 1 1 , r»2 = 15, n 3 = 7 und n^ = 22 ergaben s i c h a l s S c h ä t z e r f ü r ρ^, p^, p^ und p^ die Werte r^ = 0 . 3 7 , ^ = 0 . 2 6 , r^ = 0.19 und ^ = 0.32. Wir wollen nun zum Niveau a = 0.10 d i e Hypothese V

P

1

=

p

2=

p

3

=

p

4

t e s t e n . Es e r g i b t s i c h aus Tab.5 f ü r

Es

r1 =0.37:

z 1 = 0.388

r 2 = 0.26:

z ? = 0.266

r 3 = 0.19:

z 3 = 0.192

r. =0.32:

z„ = 0.332

.

ist 4 ι n, = 11 + 15 + 7 + 22 = 55 i =1 1 4 ι i =1

,

z . ( n . - 3) = 0.388-8 + 0.266-12 + 0.192-4 + 0.332-19 = 13.372 1

,

1

4

l z ? ( n . - 3) = 0 . 3 8 8 2 · 8 + 0 . 2 6 6 2 · 12 + 0. 192 2 ·4 + 0 . 3 3 2 2 · 1 9 = 4 . 2 9 5 i =1 1 1 Damit können w i r wegen

T = 4.295 -

13.372 2 ^ - =

1.0439 < 6 . 2 5 1 = x | ; 0 _ g 0 = x J . 1 . w

d i e Hypothese der Homogenität der 4 K o r r e l a t i o n e n p ^

p,,, p^ und p^ n i c h t

162

Kapitel III: Die Korrelationsanalyse

verwerfen. Der gemeinsame Schätzer r erciibt sich nun wegen ~

1.2

13.372 -ijTj—= 0.24

zu

ZUSAMMENHANGSANALYSE

Sind

J

r = 0.235

MEHRERER

MERKMALE

normal v e r t e i l t e Z u f a l l s v a r i a b l e n mit Korrelationen

Pv γ = P · · "für- i , j = 1 , . . . , p , so f a ß t man die aufarund von Messunnen 1J i j x ^ »· • · > χ ΐη' χ 2ΐ > · · · ' x 2 n ' ' " " , x p 1 ' " " , x pn s c h ä t z t e n Korrelationen (n > p) rv

X

Y

iXj

= r . . für i,j=1

ρ zwischen j e zwei Merkmalen in der

1J

guchätztzn

KofLKelcutLoniiraiAlx R, die auch mit R y oder RΛYΛy bezeichnet w i r d , zusammen. 1

r12

r13

...

r 1p r 2p

R=

r 12

r 23

1

•r1p

r 2p

···

r 3p

·'·

Davon ausgehend lassen sich zlndimmilonali Μ&ΛΛίη) Zuiammenhangi

Maße. (,ϋκ cLLe. Staike.

du

(paan.-

deA ρ MeAkmxle. berechnen. Solche Maße sind zum Bei-

spiel die Determinante det R von R, v g l . K a p . I , Abschnitt 4, oder die maximale E x z e n t r i z i t ä t maex R von R, die sich aus dem größten und dem kleinsten Eigenwert Ag und λ^ von R bestimmt: maex R =

λρ ~ λ , G Κ

.

Dabei liegen det R und maex R zwischen 0 und 1. Die Stärke des Zusammenhanns i s t umso größer, j e näher det R zu Null bzw. maex R zu Eins und umgekehrt i s t s i e umso k l e i n e r , j e näher d e t R Null

liegt,

zu Eins und maex R zu

liegt.

W i l l man ausgehend von der geschätzten Korrelationsmatrix f ü r ρ Z u f a l l s variablen Tests über deren (paarweise) Unabhängigkeit zum Niveau α durchführen, so können zwei verschiedene Arten von Hypothesen i n t e r e s s i e r e n . Zum einen i n t e r e s s i e r t man sich dafür, ob a l l e Z u f a l l s v a r i a b l e n paarweise u n k o r r e l i e r t sind, d.h. f ü r H q : p^j = 0 f ü r a l l e Paare ( i , j ) mit gegen

i/j

163

Kapitel III: Die Korrelationsanalyse

H^: es gibt ein Paar (i,j), i ^ j mit

,

zum anderen möchte man simultan testen, welche Korrelationen p ^

mit i φ j

signifikant von Mull verschieden sind, d.h. H q ( i , j): P-j J = 0

FEGEN

Η 1 (i ,j): p ^ . ^ 0

Im ersten Fall spricht man von Globaltuti,

fiir 1 K. i > . . . > K . . Ί ρ(ρ-1 )/2 J p(p-1 )/2 1 Γ V 2 ~ Dann überprüft man sukzessive f ü r m=1,2

p(p-1)/2, ob

K i n ,j m < t n-2;1-a/(p(p-1)+2-2m)

gilt.

I s t dies f ü r ein m das e r s t e Mal der F a l l , so sind die Korrelationen

ρ.· ,· ,···,?,· i a l s s i g n i f i k a n t verschieden von Null zum Niveau α zu V i V 1 V 1 betrachten. A l l e übrigen Korrelationen p. . , . . . , p . ! mm mJ 1 p(p-1)/2 J p(p-1)/2 sind n i c h t s i g n i f i k a n t von Null verschieden. Dieses Testproblem kann man multiple

Ve.Aglej.che.

nach

Holm nennen, v g l . Holm (1979).

KeAApiel: Zum S c h l e i f e n optischer Linsen stehen p = 5 Maschinen zur Auswahl und an jeder Maschine werden η = 10 Linsen g e s c h l i f f e n . Die Meßergebnisse ' x.j k » i = 1 , . . . , 5 , k=1,...,10 (Abweichungen vom S o l l w e r t ) sind in Cab.6 angegeben. Die drei v o r g e s t e l l t e n Testverfahren s o l l e n nun zum 5% Niveau durchgeführt werden. Dazu sind in Cab.7 die Korrelationen r^ . sowie die Prüfgrößen K...

Kapitel III: Die Korrelationsanalyse

165

f ü r d i e m u l t i p l e n V e r g l e i c h e nach Holm angegeben. Cab.6: V e r s u c h s e r g e b n i s s e f ü r das S c h l e i f e n o p t i s c h e r L i n s e n Maschine i Linse k 1 2 3 4 5 6 7 8 9 10

1

2

3

4

5

5 4 7 -2 0 3 6 1 1 -5

2 0 -1 1 0 1 -3 4 2 0

7 5 -9 -3 0 -6 5 3 -1 0

3 4 -2 5 -4 -1 3 7 -4 -3

-2 1 3 -3 2 -5 0 4 -2 1

Cah.7: Geschätzte K o r r e l a t i o n e n r · · und Prüfgrößen K - . f ü r m u l t i p l e VerJ J g l e i c h e nach Holm

i

j

1 1 1 1 2 2 2 3 3 4

2 3 4 5 3 4 5 4 5 5

r.. 1J -0 0 0 0 0 0 -0 0 0 0

K

3130 0581 1760 0522 0963 2632 0494 4790 1307 0752

Beim Global t e s t von Nagao e r g i b t 4 N = 9

10 =

P

12 =

5

= 10 und

Ρ { χ ^ 0 < Ν } = 0..063 P ( x ^ 2 f Ν} = 0..021

II

Ρ ί χ 2 1 4 < N> = υ..006

P

ergibt:

16 =

sich

l l r 2 , = 9 ( ( - 0 . 3 1 3 0 ) 2 + . . . + 0.07522) = 9-0.4682 =4.2138, 1J i=1 j = i + 1

so daß s i c h mit f = P

ij

0 .9321 0 1646 0 5057 0 1478 0 2736 0 7716 0 1399 1 5434 0 3729 0 2133

Ρ { χ ^ 6 < Ν } = υ..002

166

Kapitel III: Die Korrelationsanalyse

0.063 + 2 ^ 9 ( 2 · 12-0.002 - 3-36-0.006 + 6-24·0.021 - 60-0.063 = 0.063 + 2Yg(-1.356) = 0.0316 < 0.95= 1 - α

.

Nach diesem Globaltest sind die 5 Meßreihen also nicht a l s zum 5% Niveau s i g n i f i k a n t abhängig anzusehen. Beim zweiten Global test von Wilks ergibt sich c = 10 - 5 - g — ^ = 2 . 5 und nach dem Laplaceschen Entwicklungssatz, vgl. Kap.I, Abschnitt 4, ergibt s i c h b e i j e w e i l i g e r Entui.ic.klu.ng

nach

deλ

ΟΛΛΙΖΆ

ZMe.

det R = 0.7572373 - 0.0963-(-0.0230533) + 0.2632-(-0.2141449) + 0.0494-(0.0504981) - (-0.3130)·{(-0.3130)-0.7572373 - 0.0963·(-0.029745) + 0.2632·(-0.1450772) - (0.0494)-0.0325057)} + 0.0581·{(-0.3130)·(-0.0230533) - (-0.029745) + 0.2632·(-0.0039951) - (-0.0494)·(-0.0029732)} - 0.1760·{(-0.3130)·(-0.2141449) - (-0.1450772) + 0.0963·(-0.0039951) - (-0.0494)·(-0.0188673)} + 0.0522·{(-0.3130)·(-0.0504981 ) - 0.0325057 + 0.0963-(-0.0029732) - 0.2632-(-0.0188673)} = 0.7005998 + 0.3130·(-0.2707294) + 0.0581-0.03 5 7623 - 0. 1760-0.2107878 + 0.0522-(-0.0120202) = 0.5802132

.

Damit i s t W = -2.5·1η 0.5802132 = 1.3608991 < 18.3 =

;0>95

= χ*0

;0

95

und auch hier wird die Nullhypothese der Unkorrel iertheit der Meßreihen zum 5% Niveau nicht verworfen. Bei den multiplen Vergleichen nach Holm i s t für m= 1 K

i1J1

=K

34

= 1,5434

< 3-8325 = t

8;1-0.05/20

=t

8;0.9975

;

somit kann keine der Korrelationen p ^ s i g n i f i k a n t verschieden von Null sein, d.h. kein Meßreihenpaar i s t s i g n i f i k a n t abhängig zum 5% Niveau.

167

Kapitel III: Die Korrelationsanalyse

Mit keinem der Tests kann also eine zum 5% Niveau s i g n i f i k a n t e Abhänaigk e i t zwischen einigen der Meßreihen nachgewiesen werden.

1.3

DIE

MULTIPLE

Die multiplz

J

KORRELATION i s t ein Maß f ü r die Abhängigkeit eines Merkmals X

KoM.nZcLtion

von ρ anderen Merkmalen

; dabei wird vorausgesetzt, daß a l l e in-

teressierenden Merkmale in der j e w e i l i g e n Grundgesamtheit normal v e r t e i l t sind. S i e i s t d e f i n i e r t a l s die betragsmäßig größte einfache Korrelation zwischen dem Merkmal X und einer Linearkombination a1Y1+a2Y2 +

V

der Merkmale Y^

p

mit beliebigen Gewichten

multiple Korrelation p v / v 'ii'l

v

y

. W i l l man die

\ zwischen X und Υ,

Y aufgrund Ρ

1

einer Stichprobe vom Umfang η aus der interessierenden Grundgesamtheit schätzen, so mißt man die Ausprägungen von X , Y j , . . . , Y

an jedem der η Ob-

j e k t e aus der Stichprobe und schätzt dann zunächst a l l e möglichen einfachen Korrelationen ρ Ϋ „

und p v

XYi

koeffizienten,

vgl.

v

V j

m i t t e l s des Pearsonschen Korrelations-

auch A b s c h n i t t

1.1.

Der Schätzuizxt

iiin.

tLin

nuttiplz

bestimmt sich dann a l s ( n > p )

KoineZcutLon

r

X,(Yr...,Y

p

)

Γ ^ — —

" V

r

XY,RYY'rXY

(rXY1,",,rXY

'

Υ,Υο Υ,Υ.

Γγ2Υρ

1 '2

rY

γ

Vp

-1

Vp

rY

γ

2 ρ

ΧΥ, ΧΥ,

ΧΥ

S p e z i e l l f ü r ρ= 1 entspricht dies gerade der betraglichen einfachen Korrel a t i o n von X und Y^, denn r

X,(Y1)

=v/

r

XY1'1"rXY1

=

^XYJ

·

für ρ = 2 e r g i b t sich

X,(Y1,Y2) =

rXY2}

1

ry γ Ίτ2

rY

Y 1 2 1

- ι

""ΧΥ, Γ ΧΥ 2 .

1/2

168

Kapitel III: Die

Korrelationsawlyse

1

-r,

Y Y

1 2

Y.Y,,

12

, ~2 r XY,

+r

XY, XY,

2

XY2 "2rXY1rXY2rY1Y2 1 - r!

Y

1Y2

und für ρ = 3 ist

a +b +c -d

X»(Y^ >Y 2 Ύ 3 )

Y Y ' Y Y ' Y Y 1 2 1 3 2 3

r

v ν 1 2

' γ γ 1 3

Υ Υ 2 3

mit

a = r

X Y / 1 -rY2Y3)

b = 2r

C

+r

XY2(1 -r?1Y3)

XY1rXY2(rY1Y2"rY1Y3rY2Y3)

"2rXY2rXY3(rY2Y3 "

d = 2r

Γ

ν2Ι"ΥΐΥ3)

+ r

XY3(1 -

r

5,Y2)

' und

XY1rXY3(rY1Y3 " rY,Y2rY2Y3)

Die Größe B

X.(Y1,....Yp)

=

r

X.(Y1,....Yp)

nennt man auch das mu&tiplz

ButimmtkeJXima.&.

Es gibt a n , wie gut das Merk-

mal X durch die Merkmale Υ,

Y erklärt wird, vql. auch Kap.II. In der Ρ 2 Literatur wird das Bestimmtheitsmaß häufig auch mit R bezeichnet.

BiLipleZ: (a) Man hat bei η = 21 Personen Körpergröße, Gewicht und Alter festgestellt und möchte nun die Abhängigkeit von Körpergröße und Alter bei Menschen aufgrund dieser Stichprobe schätzen. Die Ergebnisse der Untersuchung sind in Cab.8 zu finden.

Gehen wir davon aus, daß Gewicht, Körpergröße und Alter normal verteilte Zufallsvariablen sind, so können wir die gesuchte Abhängigkeit durch Schätzung der multiplen Korrelation zwischen X = "Gewicht" und (Y^Y,,) = ("Körpergröße", "Alter")

schätzen.

Kapitel III: Die Korrelationsamlyse

Cab.8: Gewicht, Körpergröße und A l t e r bei η = 21 Personen

Person i

Gewicht x.

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21

Körpergröße

76 72 74 59 52 63 80 85 71 68 73 75 61 87 85 63 59 91 51 62 68

y^

Alter

1.77 1.65 1.83 1.69 1.57 1.72 1.75 1.84 1.69 1.73 1.75 1.71 1.64 1.86 1.93 1.75 1.62 1.87 1.58 1.63 1.67

y2i

25 43 63 56 24 21 47 44 29 51 31 63 57 42 47 38 51 56 36 42 28

Aus den Untersuchungsergebnissen in Tab.8 schätzen w i r zunächst die e i n fache K o r r e l a t i o n zwischen Gewicht und Körpergröße 21 l

Vii"

2 r x y

~i

2565.59 - 2546.21 V (106149 - 103606.81)(62.768 - 62.561 ) = 0.845

,

zwischen Gewicht und A l t e r 21

J,

V 2 i

"21**2

63517 - 62792.45

=

v/ (106149 - 103606.81J(41360 - 38056.30) = 0.250

,

sowie zwischen Körpergröße und A l t e r

19.38 526.23

169

170

Kapitel III: Die Korrelationsanalyse

21 J=] i=1

y1iy2i"y1y2

1549.61 - 1542.99 V/ (62.768 - 62.561)(41360 - 38056.3) = 0.010

Nun können wir r als Schätzer f ü r die multiple Korrelation zwischen Gewicht und Körpergröße, A l t e r berechnen:

= 0.879 (b) Ausgehend von einer Stichprobe k a s t r i e r t e r männlicher Schweine werden Korrelationen zwischen den Merkmalen X Fleisch - Fettverhältnis im Schlachtkörper, Y^ Rückenspeckdicke und Υ^ Karreefläche (musc. long, dorsi) geschätzt, vgl. Haiger (1978). Es ergab sich r^y rv

v

1 2

=-0.52, r χ γ

=0.47 und

=-0.07. Hieraus ersieht man, daß Schweine mit gutem Fleisch - Fett-

Verhältnis im Durchschnitt eine geringe Rückenspeckdicke und eine große Karreefläche haben. Rückenspeckdicke und Karreefläche sind dagegen praktisch unkorreliert. Die multiple Korrelation zwischen Fleisch - Fettverhältnis im Schlachtkörper und den Merkmalen Rückenspeckdicke und Karreefläche ergibt sich nun zu

/

(-0.5Z) 2 + 0.472 - 2(-0.52)(-0.07)·0Τ47_

= 0.68

Kapitel III: Die Korrelationsanalyse

Berechnet man nun die B

X,Y, = rXY

171

Bestimmtheitsmaße = ( - 0 . 5 2 ) 2 = 0.27

,

Vy^XV0·47^0·22 und das multiple

Bestimmtheitsmaß

^ ( Y ^ r ' U Y , ^ ) - -

0

·

6 8

^

0

·

4 6

·

so läßt sich sagen, daß 27% der Schwankungen im Fleisch - Fettverhältnis von kastrierten männlichen Schweinen durch Unterschiede in der

Rückenspeckdik-

ke und 22% der Schwankung durch Unterschiede in der Karreefläche

erklärbar

sind. Insgesamt werden durch Rückenspeckdicke und Karreefläche sogar 46% der Varianz des Fleisch - Fettverhältnisses

erklärt.

Die multiple Korrelation zwischen einem Merkmal X und den ρ Merkmalen Y^,...,Yp ist gerade dann Null, wenn alle einfachen p^Y ,...,ρ χ γ

gleich Null

Korrelationen

sind.

Will man die Hypothese ρ

V

Χ,(ΥΓ...,Υρ)

( =P

X Y , = ··· = P X Y p ) = 0

zum Niveau α gegen die Alternative H^: es gibt ein

tzitzn,

£0

so verwendet man als PrUfgröße

r

X,(Yr...,Yp)(n-1-p) P(1-rx,(Y1,...,Yp))

wobei η die Anzahl der Objekte in der Stichprobe bezeichnet. Die Hypothese Η

ο

wird zum Niveau α verworfen, falls F > F

,

gilt, wobei F„ das γ - Q u a n t i l der F - V e r t e i l u n q bezeichnet. Diese ρ,ν;γ ρ,ν Quantile sind im Anhang vertafelt.

6e-cipLol: Aufgrund der Daten aus Tab.8 wollen wir testen, ob die multiple Korrelation zwischen den Merkmalen Gewicht (X) und Körpergröße ( Υ 1 ) , Alter (Y 2 ) Null

ist. Wir testen also

172

Kapitel III: Die Korrelationsanalyse

V

P

( =P

X,(Y1,Y2)

XY1

=P

XYZ}

= 0

gegen H 1 : ρ χ γ ?ί 0

oder

ρχγ φ 0

Als Niveau wählen wir α = 0.05. In diesem Beispiel i s t η = 21, ρ = 2 und wie schon berechnet r^ ^

j = 0.879. Wegen

γ

ρ _ 0.879^(21 - 1 - 2) _ 13^91 _ 30.585 > 3.555 = F 2 g5 2(1 - 0 . 8 7 9 ^ °·456 2,18,0.95

J

müssen wir die Unabhängigkeitshypothese verwerfen. Will man testen, ob Ρ χ (γ

y j gleich einem Wert p Q ^ 0 i s t , so muß man

eine Tafel der Quantile der nichtzentralen F - Verteilung oder eine spezielle Tafel der Verteilung des multiplen Korrelätionskoeffizienten verwenden. Eine solche findet man etwa bei Graybill

1.4

DIE

KANONISCHE

Die kanorUiche

(1976).

KORRELATION

KowieZcitLon bezeichnet die Korrelation zwischen zwei Grup-

pen von Merkmalen. Die Merkmale bzw. die zugehörigen Zufallsvariablen (die gleich bezeichnet seien) X^

X p der ersten Gruppe und

der

zweiten Gruppe werden a l s in der interessierenden Grundgesamtheit normalv e r t e i l t vorausgesetzt. Ohne Einschränkung sei hier davon ausqegangen, daß p £ q < η g i l t . Die kanonische Korrelation entspricht der betragsmäßig maximalen Korrelation zwischen allen Linearkombinationen α 1 Χ 1 + a 2 X 2 + ... + a p X p d.h. die Gewichte α^

α

ρ'^ι

und

+ werc

+ . . . ßqYq

;

'en hierfür so bestimmt, daß die

einfache Korrelation zwischen den Linearkombinationen ihr betragliches Maximum annimmt. Den Vektor

) nennt man dann auch Vektor der "re-

gressionsähnlichen Parameter", den Vektor (ß^

ß q ) auch Vektor des "be-

sten Vorhersagekriteriums". Die kanonische Korrelation läßt sich auch durch die Quadratwurzel aus dem größten Eigenwert des Matrizenproduktes

Kapitel III: Die Korrelationsanalyse

173

ίχ^ίχγ'ίγ^ίχγ ausdrücken. Dabei

ist Ww 1

tx = Cov(Xr...,X

) =

σγ γ Α ^A^

σ

iY = Cov(Yr...,Y

Y Y V Y 12 13 2 σγ Qy y 23

χ.χ„ 1p

σ

χ,χ„ 2 p

σ

X

1XP

V p

χ,χ„ 3 p

Ρ

)

und σ

σ

χ γ V i

χ Y 12

X

1Yq

V q ^XY '

X

pY1

X

pY2

J

X Y p q

Hierbei bezeichnet σ ν

die unbekannte Varianz i n n e r h a l b des Merkmals X . , 1 i σ ν Y d i e Kovarianz zwischen den Merkmalen X. und X. und σ Ϋ v d i e KovaX X 1 J X Y i j i j r i a n z zwischen den Merkmalen X^ und Y^. x

M i t u n t e r i s t man n i c h t nur an der kanonischen K o r r e l a t i o n

\linteressiert, -1 -1 τ

sondern auch an der Quadratwurzel der ü b r i g e n Eigenwerte von

·$χγ·£γ

Man nennt dann auch d i e s e Größen kanonische K o r r e l a t i o n e n und

·ίχγ·

i s t die

maximale kanonische K o r r e l a t i o n . Diese insgesamt ρ Eigenwerte entsprechen, ausgedrückt a l s b e t r a g l i c h e K o r r e l a t i o n e n von Linearkombinationen der Merkmale, folgenden Größen: Die maximale kanonische K o r r e l a t i o n i s t , wie e r wähnt, d i e betragsmäßig größte K o r r e l a t i o n a l l e r Linearkombinationen, d i e zweitgrößte kanonische K o r r e l a t i o n d i e betragsmäßig größte K o r r e l a t i o n a l l e r auf der e r s t e n Linearkombination senkrecht stehenden Linearkombinationen usw. Man i n t e r e s s i e r t s i c h dann z . B . f ü r d i e Schätzung der Dimens i o n a l i t ä t ( d i m e n s i o n a l i t y ) , d.h. d i e Schätzung der Anzahl s i g n i f i k a n t von Null v e r s c h i e d e n e r kanonischer K o r r e l a t i o n e n ; man v e r g l e i c h e etwa, auch f ü r weitere Aspekte der kanonischen K o r r e l a t i o n s a n a l y s e , F u j i c o s h i Glyn/Muirhead ( 1 9 7 8 ) ,

(1974),

Yohai/Garcia ( 1 9 8 0 ) , Tso (1981) sowie die weiter

unten angegebene L i t e r a t u r , aber auch A b s c h n i t t 6 in Kap.V.

174

Kapitel III: Die Korrelationsanalyse

Die kanonische Korrelation ρ, ν ν wv ur····

ν \ kann aufgrund einer r " " V

Stichprobe von η Objekten aus der interessierenden Grundgesamtheit geschätzt werden, indem zunächst die Ausprägungen x ^ , . . . ,x p i . y ^ · . . ,yqlder Merkmale

Yq bei jedem der η Objekte gemessen werden.

Man schätzt dann die Matrizen

$y und

durch S^, Sy bzw. S^y, indem

man für i=1,...,p die Varianzen o? i durch (xik-3ri)2

2 die Varianzen σγ

*i 4

j ,

x ik

. » t

y - J ^ y ^

·

(i=1»...,q) durch

sy.

(y^-Fi)2

und die Kovarianzen σν

v XiXj

, σν

v XiYj

sprechend schätzt; so i s t etwa

der Schätzer für σ^ man dann Q = Sx

·mit

und σ ν

v YiYj

,

zwischen je zwei Merkmalen ent-

γ . Aus den so entstehenden Schätzmatrizen berechnet ι J

•S^'Sy^y

und e r h ä l t a l s SchäutzvieAt r(X1

X p ),(Y 1

(,ϋΛ die

ka.noynAc.he.

Yq)=v'λ6

Kon>ieJLatLon

d i e Größe

'

wobei Xg den größten Eigenwert der Matrix Q bezeichnet. Die Matrix Q kann wahlweise auch als Produkt der empirischen Korrelationsmatrizen bestimmt werden: Q = SX1·SXY·SY1·SXY = Rx1·RXY-RY1·RXY

·

Den Vektor der "regressionsähnlichen Parameter" α=(α^,...,α ) dann durch einen beliebigen zu Xg gehörigen Eigenvektor der Matrix Q schätzen. Den Vektor ß = ( ß ^ f . . . , ß )

des "besten Vorhersage-

kriteriums" schätzt man dann mittels ß = ( ß ^ , . . . , ß ) C -1 C T

~

kann man

α=(α^,...,α )

gemäß der Gleichung

S

Sy 'Syy-a = β Möchte man nun aufgrund von Beobachtungen Y^,...,Y

für die Merkmale

die (unbekannte) Realisation der Linearkombination

Kapitel III: Die Korrelatiomanatyse

175

«p = S 1 ( X 1 - E ( X 1 ) ) + . . . + S p ( X p - E ( X p ) prognostizieren, so kann man direkt den Schätzer β für das "beste Vorhersagekriterium" verwenden, d.h. φ wird prognostiziert bzw. geschätzt durch Φ = Β,ίν, - Ε(Υ 1 )) + ... + ß q ( y q - E ( Y q ) )

.

Hierbei bezeichnen E(X^) und E(Υ^) die Erwartungswerte der Zufall svariablen X.j und Yj, die im konkreten Fall durch Schätzungen ersetzt werden. Man verwendet dazu die arithmetischen Mittel

bzw. y^ aus einer bereits vorlie-

genden Stichprobe. Zur Prüfung der Hypothese H

o:

p

(X1,...,Xp),(Y1,...,Yq)=0

H

r

p

(X 1 ,...,X p ),(Y 1 ,...,Y q ) ? i 0

gegen

stehen verschiedene Te^ti zur Verfügung, von denen keiner dem anderen generell vorgezogen werden kann. Vier dieser Tests sollen hier vorgestellt werden. Alle Tests verwenden als Prüfgröße Funktionen der Eigenwerte \G'\y>\2>

...>λρ

der Matrix Q. Die kritischen Werte für diese Tests zum Niveau α erfordern eine recht intensive Vertafelung. Die benötigten Tafeln findet man etwa bei Kres (1975). Sofern bekannt, werden hier jedoch Approximationen angegeben, die auf Quantile der χ 2 - bzw. der F-Verteilung zurückgreifen, die im Anhang vertafelt sind. Die für den Roy - Test benötigten sogenannten HeckCharts sind ebenfalls im Anhang zu finden. Der ülltki - T u t verwirft die Hypothese H Q zum Niveau α, falls Λη=

ρ I M 1 - λ . ) < c W ; a (p,n-q-1,q)

Die kritischen Werte c w . a (p,n-q-1,q) sind bei Kres (1975 , Tafel 1) zu finden; stehen keine kritischen Werte zur Verfügung, so kann eine der folgenden Approximationen verwandt werden. Verwerfe die Hypothese H q , falls gilt -δ·1η Λ,. > Aχ* , W pq;1-a oder

176

Kapitel III: Die Korrelationsanalyse

1

AW .Ι/Π AW

pq δη - p q / 2 + 1

F

pq,6r|-pq/2+1 ;1-a

wobei S ^ - , . Ρ υ μ Ι

Und

η = / /

L

jfoV4 pSq -5

Die z w e i t e A p p r o x i m a t i o n l i e f e r t genauere W e r t e , f a l l s n - q - 1 k l e i n im V e r g l e i c h zu q und ρ i s t . Der HoteZZing - Lawlzy - TeAt v e r w i r f t d i e Hypothese H q zum Niveau α ,

HL

falls

,-Λ.

Γ=1

Die k r i t i s c h e n Werte d i e s e s T e s t s f i n d e t man b e i Kres ( 1 9 7 5 , T a f e l 6 ) .

Sie

können a b e r auch d u r c h 6 2 ( 2 u + Θ + 1) 2 ( θ ν + 1")

F

6(2u+e+1),2(9v+1) ;1-a

a p p r o x i m i e r t werden; dabei θ = min(p,q)

ist 1

,

u = ^ ( | p - q | - 1 ) und

1

ν = ^ ( n - ρ - q - 2)

zu s e t z e n . I s t n - q ^ p + 3 , so kann a l s A p p r o x i m a t i o n auch g

2'2PQ ,,-p g2 n - ρ - q - 2 g1>g2;1-a

v e r w a n d t w e r d e n . Dabei s i n d dann g^ und g^ w i e f o l g t zu w ä h l e n :

Ist

n - pq - 2 > 0 , so i s t g i - P q ( n = pq 5 q• - V

1 )

und

92 = n - p - q

und i s t n - p q - 2 j < 0 , so w ä h l t man g.1 S

Beim P-Lilalfalls

= °° und

9 92 = n - pr - q μ- ( n - p - q : 2 (>n t- nq :- 2g ): (qn -- p4 -^ 2" )- M - 2 )

BasM&tt - Tut

.

w i r d d i e Hypothese HQ zum Niveau α v e r w o r f e n ,

gilt Ρ PB= .1,

λ

ι

>

c

PB;1-a(P'n·^1'^

Stehen k r i t i s c h e W e r t e , d i e man etwa b e i Kres ( 1 9 7 5 , T a f e l 7) f i n d e n k a n n ,

Kapitel III: Die Korrelationsanalyse

177

n i c h t zur Verfügung, so kann auch der folgende approximative Test verwandt werden: Verwerfe die Hypothese HQ zum Niveau α, f a l l s A PB θ - Λρβ

2u + θ + 1 2v + θ + 1

F

gilt

θ(2υ+θ+1),θ(2ν+θ+1);1-α

'

wobei, wie beim Hotel 1ing - Lawley Test, θ = min(p,q) ,

1 u=^(|p-q|-1)

und

1 ν = γ ( η - ρ - q - 2)

gilt. Der Roy-Tiit

s c h l i e ß l i c h verwendet a l s Prüfgröße den größten Eigenwert λ^

von Q und wird daher mitunter auch MaximaZuiuAzeZ - KfuXeAlu.m genannt. Die Hypothese H q wird zum Niveau α verworfen, f a l l s A

R

= X

1

>

c

R;1-a(p'n"q-1*qJ

·

K r i t i s c h e Werte zu diesem Test f i n d e t man z.B. in den Tafeln 3,4 und 5 bei Kres (1975) oder in den Nomogrammen von Heck (1960). Diese Nomogramme sind auch im Anhang zu finden. Obige v i e r Tests basieren a l l e auf dem sogenannten I n v a r i a n z p r i n z i p , und z.B. der W i l k s - T e s t auf dem Likel ihood - Quotienten - T e s t p r i n z i p , der Roy Test auf dem Union - I n t e r s e c t i o n - P r i n z i p ; v g l . Roy ( 1957), Anderson (1958) K s h i r s a g a r (1972), Morrison (1976), S r i v a s t a v a / K h a t r i

(1979), Ahrens/Läuter

(1981), Muirhead (1982).

ΒζίΔρίζΖ:

Aufgrund einer Stichprobe vom Umfang η = 15 Frauen s o l l die kano-

nische K o r r e l a t i o n zwischen den Merkmalsgruppen (X^,X 2 ) = (Hämoglobingehalt im B l u t , mittlere Oberfläche der Erythrozyten) und (Y^ ,Υ,,) = (Blutdruck, A l t e r ) geschätzt werden. Die Versuchsergebnisse sind in Cab.9 angegeben. Es i s t h i e r p = 2 und q = 2. Zunächst werden die Matrizen aufgrund der Daten aus Tab.9 geschätzt. Mit

und

Kapitel III: Die Korrelationsanalyse

178

ν

π

^

i-yg)'-154.410 ( y

(x

V r ^ I i

Xi

Y2=T4 ^

% γ

= 1 T

2

ii

_ir Kyr

i

i-i " ^ l 5

108.975

ä3

,

-590

( X n - X ^ l y g i - Y z ) =5.488

,

15

1

V l

1 i - ^ V ^ ^ i =

15

1 s

,

1 =1

= π1

(x

2i-x2)(yii-y1)

= 14

·139

und

15

.Σ, ( x 2 i - x 2 ) ( y 2 i - y 2 ) = 19.386

Cah.9: Häraoglobingehalt, mittlere Oberfläche der Erythrozyten, Blutdruck und Alter von η = 15 Frauen Person i

Hb - Gehalt x ^

Oberfläche x2.j

Blutdruck y ^

13.6 15.4 17.2 12.7 13.9 14.5 17.6 15.2 13.8 15.0 14.7 15.5 13.9 14.2 15.3

92 103 104 95 87 95 108 105 84 102 97 96 93 95 102

123 137 139 127 125 120 132 118 125 140 142 126 131 118 112

1 2

3 4 5 6 7 8 9 10 11 12 13 14 15

ergibt sich also

X1X2

rz

V

Y S

1

Y Y 12

YY S

1 2 2

Y '2

1.701

6.764

6.764

45.886

80.952

108.975

108.975

154.410

Alter y 2 i 36 57 61 42 46 31 49 27 35 58 63 44 47 32 25

179

Kapitel III: Die Korrelationsanaiyse

und

S

XY

5

X,Y 11

S

X„Y 2 1

X

S

3.590

5.488

14.139

19.386

1Y2

X2Y2

A l s zu 5 χ und Sy inverse Matrizen ergeben s i c h

S ' · und somit

1.421

-0.209

-0.209

0.053

0.247

-0.175

-0.175

0.130

--1

ist -1 -1 τ Q = Sx · 5 χ γ · ε γ - S X Y :

' 0. 162

0.390'

-0.007

0.006,

Aus dem c h a r a k t e r i s t i s c h e n Polynom von Q, v g l . K a p . I , Abschnitt 4 , det(Q - λ I ) = (0.162 - λ)(0.006 - λ) + 0.390-0.007 = λ 2 - 0.168λ + 0.004 ergeben s i c h die Null s t e l l e n ( =Eigenwerte) λ 1 =0.139

und

= 0.029

Der größte Eigenwert von Q i s t a l s o AG = λ 1 = 0 . 1 3 9 und somit i s t (X 1 ,X 2 ) ,(Y, Γ

2'

= V λ - = V 0.139 = 0.373

der gesuchte Schätzer f ü r die kanonische K o r r e l a t i o n zwischen (Hämoglobing e h a l t , mittlere Oberfläche der Erythrozyten) und (Blutdruck, A l t e r ) bei Frauen. Zum Niveau α = 0.05 s o l l nun die Hypothese Ho:

ί χ γ

= 0

getestet werden. Zur Demonstration s o l l e n h i e r a l l e angegebenen T e s t s , auch die approximativen, durchgeführt werden. Dazu werden folgende Größen benötigt: ρ = 2, q = 2, η = 15, 6 = 1 5 - 1 - ^ ( 2 + 2 + 1) = 11.5,'

η =/

|

^

1

=/ ?

=2 ,

θ = min(2,2) = 2 ,

u=

| 2

"2j

- 1

= 4

und

180

Kapitel III: Die Korrelationsanafyse

v .

1

5

- y

2

-4.5

Beim W i l k s - T e s t wird wegen Aw = 0.861-0.971 = 0.836 > 0.44 = c H . Q

0 g(2,12,2)

die Hypothese HQ nicht verworfen. Auch die beiden Approximationen des W i l k s Tests verwerfen die Hypothese H q n i c h t , denn - δ · 1 η Λ Μ = - 1 1 . 5 - l n 0.836 = 2.060 < 9 . 4 9 = χ * . 0

g5

und 1 - Λ

1/2

1-νΠΓ556

= 0

Q94

< 0.515

2 .2.83

4

=

11

νΠΠ835"

Z3

~Z

r

4,23-2+1;0.95 '

Weiter i s t Λ

, 0- 139 HL " O S T

0.029 . 0 ÜT97T"

1g.

die Prüfgröße des Hotel 1 ing - Lawley - Tests. Da der k r i t i s c h e Wert C

HL-0 9 5 ^ > 1 2 , 2 ) nicht vertafelt i s t , bedienen wir uns hier direkt der

ersten Approximation /, , , ,Ϊ 4(-1+2+1) F 2 F H L ; 0 . 9 5 U , 1 < : ^ ; - 2(0+1) ' h 2 ( - 1 + 2 + 1),2(9+1) ;0.95 T h 4 , 2 0 ; 0 . 9 5

C

= |·2.87 = 1.148

.

Da nun g i l t A H L = 0.191 < 1.148 kann auch bei diesem Test die Hypothese H o nicht verworfen werden. Bei der zweiten Approximation ergibt sich wegen η - pq - 2 = 15 - 2·2 - 2 = 9 > 0 dann „

2 - 2 ( 1 5 - 2 - 2 - 1)

40

. ..



.c

,

,

,,

und somit c

HL;0.95(2'12,2)^"Tr'15-22-22-2*F4.44,11;0.95=A'3·281

= 1 193

'

Die Hypothese HQ kann also auch bei diesem approximativen Vorgehen nicht verworfen werden, denn es i s t A h l = 0 . 1 9 1 < 1.193

.

'

Kapitel III: Die Korrelationsanalyse

181

Auch der P i l l a i - B a r t ! e t t - Test g e s t a t t e t zum 5% Niveau kein Verwerfen der Hypothese H Q , denn Λ ρ Β = 0.139 + 0.029 = 0.168 < 0.57 = c p ß . Q _ g 5 ( 2 , 1 2 , 2 )

.

Das g l e i c h e E r g e b n i s l i e f e r t der approximative Test wegen Λ ΡΒ _ 0.168 = 0.092 < 0.467 = ^ - 2 . 8 0 θ - Λ D D 2 - 0.168

_ -1+2+1. ρ 9+2+1 2 ( - 1 + 2 + 1 ) , 2 ( 9 + 2 + 1 ) ;0.95

Auch der Roy - Test v e r w i r f t d i e Hypothese H q zum 5% Niveau n i c h t , denn A R = A, = 0 . 1 3 9 < U.53 = c R ; 0 : 9 5 ( 2 , 1 2 , 2 )

.

Insgesamt l ä ß t s i c h a l s o zum 5% Niveau keine s i g n i f i k a n t e K o r r e l a t i o n

zwi-

schen den Merkmalsgruppen (Hämoglobingehalt, m i t t l e r e Oberfläche der E r y t h r o z y t e n ) und ( B l u t d r u c k , A l t e r )

1.5

DIE

PARTIELLE

nachweisen.

KORRELATION

Oft i s t eine K o r r e l a t i o n zwischen zwei Merkmalen X und Y nur deshalb v o r handen, weil beide Merkmale mit einem d r i t t e n Merkmal U k o r r e l i e r t

sind,

v g l . auch Abb.10 in A b s c h n i t t 1.1. Die K o r r e l a t i o n von X und Y i s t dann eine r e i n e

Scheinkorrelation.

Βe.U>pie£: Die Anzahl der Störche in e i n e r Renion Morddeutschlands und die Anzahl der Geburten s i n d k o r r e l i e r t . B e r ü c k s i c h t i g t man jedoch a l s Merkmal d i e Größe der Sumpfflächen in der Region a l s einen

drittes

Zivilisations-

index, der mit beiden Merkmalen e i n z e l n k o r r e l i e r t i s t , so verschwindet d i e s e S c h e i n k o r r e l a t i o n zwischen Anzahl der Störche und der K i n d e r . Daher i s t es v i e l m a l s von I n t e r e s s e , eine KowizlcubLon t.in. Paitial-iileAung

tinzi,

ζui-Uchcn X und

V un-

Me-tfemo&j U, d.h. d i e K o r r e l a t i o n von X und Y,

d i e ohne den E i n f l u ß von U vorhanden i s t , zu bestimmen. Eine s o l c h e K o r r e lnation ation Ρ p,y( χ > γY v|.. e i ß t auch kurz partielle nei )|u h S i e i s t gegeben a l s P

XY " P XU" P YU

KoAAilation

von X und V unteA

U.

182

Kapitel III: Die Korrelationsanalyse

Sind die Merkmale Χ, Y und U in einer interessierenden Grundgesamtheit normal v e r t e i l t , so kann man ρ^χ y j ^ aufgrund von je η Realisationen x^

x n , y ^ , . . . , y n und u^

u n schätzen, indem man die einfachen Kor-

relationen ρ χ γ, ρ χ υ und pyjj mittels des Pearsonschen Korrelationskoeffizienten schätzt, vgl. speziell auch die Abschnitte 2.2 und 2.3, wobei in letzterem auch für das Beispiel in Abb.10 ein geeigneter Schätzer der part i e l l e n Korrelation angegeben wird. Der Sch&tzM. für die Korrelation zwischen den Merkmalen X und Y bei Partialisierung des Merkmals U i s t dann r

XY'rXU'rYU

Ausgehend von diesem Schätzwert für die p a r t i e l l e Korrelation kann auch e i n Tut

zum Uive.au

α ααuiiiLL&>ithzlt

bzw.

Unabhängigkeit

von X und Y unter U durchgeführt werden. Die Hypothese P

V

(X,Y)|U =

0

wird im Test gegen die Alternative Η

Γ

ΡίΧ,Υ)!^0

zum Niveau α verworfen, f a l l s Γ

(χ,γ)|υ·νΠΓΓ7

/ 11 V

- rr 2 (X,Y)|U

g i l t . Die Quantile t v

>

t

n-3;1-a/2

der t - V e r t e i l u n g mit ν Freiheitsgraden sind im

Anhang vertafelt. BexApizl: Bei der Untersuchung von η = 142 Frauen wurden 3 Merkmale beobachtet: der Blutdruck (X), die Cholesterin - Konzentration im Blut (Y) und das Alter (U). Dieser Versuch, der aus "Swanson et a l . (1955): Blood Values of Women: Cholesterol, Journal Gerontology 10, 41" entnommen i s t , ergab für die einzelnen Korrelationen folgende Schätzwerte: r x y = 0.2495 ,

r x u = 0.3332 und

r y u = 0.5029

Wie man sieht, i s t sowohl der Blutdruck a l s auch die Cholesterin - Konzentration mit dem Alter der Versuchspersonen k o r r e l i e r t . Daher muß man, um die eigentliche Korrelation zwischen Blutdruck und Cholesterin - Konzentration, die hier hauptsächlich von Interesse i s t , Alter p a r t i a l i s i e r e n .

zu schätzen, das Merkmal

183

Kapitel III: Die Korrelationsanalyse

r

"(X,Y)|U:

XY ~ r X U ' r Y U

/(1 -

U.2495 - 0.3332-0.5029 / ( 1 - 0 . 3 3 3 2 2 ) ( 1 - 0.5029 2 )

- Γγ 0 )

_ 0.0819 "OT50"

:0.1005 Die w i r k l i c h e K o r r e l a t i o n zwischen Blutdruck und Cholesterin - Konzentration wird unter " E l i m i n i e r u n g " bzw. "Konstanthaltung" des E i n f l u s s e s des Merkmals A l t e r a l s o viel geringer geschätzt a l s

vorher.

Zum Niveau α = 0.05 s o l l nun die Hypothese H

o:

P

(X,Y)|U

= 0

ge

9en

Η

P

Γ

(X,Y)|U^°

getestet werden. Es i s t 0.100W139

10 * 99491 = 1 · 1 9 1
F q,n-k-q-1;1-a i s t , mit "(X,(Y1

Yq))|(U1,...,Uk) '(Χ,ίΥ,

Yq)) |(U1

•(n-k-q-1) J U k )7)

I s t n i c h t nur p = 1 sondern auch q = 1, so w i r d der p a r t i e l l e

Korrelations-

k o e f f i z i e n t zwischen X und Y u n t e r K o n s t a n t h a l t u n g des E i n f l u s s e s der Merk-

Kapitel III: Die Korrelationsanalyse

male

auch vorzeichenbehaftet geschätzt durch R

(X.Y) I (U.

u.)-

1

12

ρ 11 22

R

k

/

.

r

(1-R

XY " RXU'RUU'RYU

X U

, -CRXU

) { 1

_Ί -RYU-RUU·^^

Zum Prüfen auf signifikante Verschiedenheit von Null kann natürlich vorstehender Test mit q = 1 herangezogen werden.

1st speziell

k = 2, so berechnet sich die Korrelation zwischen zwei Merk-

isierung zweier Merkmale U^ und U,, zu malen Χ und Y unter Partialisierung

(x,Y)|u 2 " r (x,u 1 )|u ; ; ' r (Y,u 1 )|u 2 r

(X,Y)|(U.,U I j w ^)

ι

*

(1 r

2

2

" lX,U1)|U2)(1-r(Y,Ul)|Uz)

B e X s p i z l · . Aufgrund einer Stichprobe ergeben sich zwischen vier renden Merkmalen X, Y, U 1 und U^ folgenden einfache r X Y = -0.51 , r

^

rXUi=0.92

0.99 und

^

,

^

= -0.22 ,

= -0.28

interessie-

Korrelationen: ^

= -0.56 ,

.

Man ist nun z.B. daran interessiert die Korrelation zwischen den Merkmalen X und Y unter Konstanthaltung der Merkmale U 1 und U^ zu schätzen. Dazu berechnet man zunächst r

r

(X,Y)|U 2

^

r

XY

(1 _ r

r

YU2

^

XU2)(1 "rYU2]

°·0444

\/ 0.0137 r

XU2

(x,u 1 )|u 2 = 0 · 9 0 5

•"(Y.u^iu,^·422

- 0.379

-0.51 - (-0.56)·0.99 / (1 " ("0.56) Z )(1 - 0 . 9 9 2 )

,

u n d

·

Damit ergibt sich die Korrelation zwischen Χ und Y unter

Partialisierung

von U,| und U 2 zu 0.379 - 0.905-0.422 r

(X,Y)|(UrU2) " y ^

2

. -0.00291 2

- 0.905 ) (1 - 0.422 )

Q

Q075

'

Man sieht hier, dali die doch recht hohe Korrelation Γ χ γ = -0.51 zwischen den Merkmalen X und Y beinahe vollständig auf den Einfluß der Merkmale

185

186

Kapitel I f f : Die Korrelationsanalyse

U,|, Ug zurückzuführen i s t , denn schaltet man diese Einflüsse aus, so i s t die Korrelation zwischen X und Y nahezu Null. Ist q_>p>1, P

s o kann man d i e kanonlichc

((X,

Xpi.tY,

paJvLidULe.

YqHKU,

Uk)

xp).(Y1,...,Yq))|(u1

Uk)

KofüieZcution

schätzen durch Γ

((Χ,

= / T

T

'

wobei λ^ der größte Eigenwert der Matrix Q = R 1 ]-R 1 2 -R 2 2-R^2 i s t . Wahlweise können zur Berechnung von Q natürlich wieder Kovarianzmatri zen verwandt werden: Q = S

11rS12'S22'S12

*

Zur Überprüfung, ob die kanonische partielle Korrelation zwischen zwei Merkmalsgruppen zum Niveau α s i g n i f i k a n t von Null verschieden i s t , kann, ausgehend von den Eigenwerten

...>_λ

der Matrix Q, einer der in Ab-

schnitt 1.4 vorgestellten Tests verwandt werden. Es muß dort l e d i g l i c h η durch η - k ersetzt werden.

1.6

DIE

BI-PARTIELLE

KORRELATION

I s t ein Merkmal X mit einem Merkmal U, ein Merkmal Y mit einem Merkmal V korreliert und sind ferner die Merkmale U und V k o r r e l i e r t , so wird die Korrelation zwischen den Merkmalen X und Y von U und V stark beeinflußt. B&iip-ieZ:

Eine Untersuchung ergab, daß in einer Gruppe von Schülern die

Korrelation zwischen räumlichem Denkvermögen X und sprachlich - a n a l y t i scher Begabung Y auf eine Korrelation der Leistungen in Mathematik U und Latein V zurückzuführen war, wohingegen die Korrelation zwischen X und V bzw. Y und U schwächer war. Will man dann aufgrund einer Stichprobe von η Objekten die eigentliche Korrelation zwischen X und Y schätzen, so empfiehlt es s i c h , zunächst das Merkmal X von U und das Merkmal Y von V zu p a r t i a l i s i e r e n . Diese Korrelation

Kapitel III: Die Korreiationsanalyse

P

h e i ß t biunteA

_ P XY " p X U ' p Y U " P X V ' P Y V + p X U , p U V * p Y V X|U,Y|V" , 2 2— ν (1 - P x u ) ( 1 - P Y V ) Kowi&lcuUon von X urvteA PcLhXJjxJUji^eMxnQ ucm U and y

patvbiztld

PaJvtLatu,li>uinq

von V.

Sind d i e Merkmale X, Y, U und V i n der i n t e r e s s i e r e n d e n

Grundgesamtheit

normal v e r t e i l t ( s i e h e spätere A b s c h n i t t e f ü r andere F ä l l e ) , so kann man d i e bi - p a r t i e l l e K o r r e l a t i o n ρ ^ x , | . . ,x

.. ,y

. . . . ,u

tionskoeffizienten

ichätzzn:

r

γ|ν

aufgrund von j e η R e a l i s a t i o n e n

und ν ^ , . , . , ν

m i t t e l s Pearsonscher

_ rXY " r X ü ' r Y U " rXV*rYV + r X U ' r U V ' r Y V X|U,Y|V / 2 Ρ V (1 " r X U ) ( 1 " Γγν'

Korrela-

'

Zum Niveau α l ä ß t s i c h dann auch d i e Hypothese P

V

XIU.YIV

= 0

'

daß X und Y bi - p a r t i e l l H

r

P

XIU,YI V ^

unabhängig s i n d , gegen d i e A l t e r n a t i v e 0

t i i t m . Bei diesem nur approximativen Test w i r d d i e Nullhypothese H Niveau α verworfen, r

r

>

t

n-3;1-a/2

"

X|U,Y|V

ß & u , p i e l : Der Kürze h a l b e r sei h i e r noch einmal auf das B e i s p i e l nischen K o r r e l a t i o n , v g l . Tab.9, verwiesen. H i e r nun s o l l

die

zur kano-

bi-partielle

K o r r e l a t i o n zwischen Hämoglobingehalt im B l u t (X) bei P a r t i a l i s i e r u n g Blutdrucks Alters

zum

falls

XiU,Y|V,v/~^

/ Γ

q

des

(U) und Oberfläche der E r y t h r o z y t e n (Y) bei P a r t i a l i s i e r u n g des

(V) g e s c h ä t z t werden. Man bestimmt zunächst die S c h ä t z e r f ü r d i e

einfachen

Korrelationen rvv XY

( = rv

rvl, ( = r XU

Χ

v

) =

12

v v

Γ1

) =

6 76 · ^ = 0.7656 V 1.701-45.886

,

3 59 " = 0.3059 V 1.701-80.952

,

187

188

Kapitel III: Die Korrelationsanalyse

r

xv

(

r

'YU

r

YV

(

5.488

= r ' X , Y .2' X„Y 2Ί

= r 'X

: 0.3386

1.701 -154.410 14.139

] =

\J 45.886-80.952

j

= 0.2320

19.386

2Y2

:0.2303

\J 45.886-154.410

und r

108.975 -= 0.9747 V 80.952-154.410

v UV ^ " r vY,Y„ ' 12

Damit ergibt sich der Schätzer für r, 'X|U,Y|V'

y|y zu

0.7656-0.3059-0.2320-0.3386-0.2303+0.3059-0.9747-0.2303 v/(1 - 0.3059 2 )(1 - 0.2303 2 ) 0.6853 =0.7397 OZ55

Wie man sieht, ist in diesem Beispiel die Betrachtung einer bi - partiellen Korrelation nicht notwendig, da die Partialisierung von U und V die Korrelation zwischen X und Y kaum verändert. Es soll nun noch der approximative Test von H

o:

P

X|U,Y|V

= 0

9e9en

H

1:

P

X|U,Y|V^°

zum Niveau α = 0.05 durchgeführt werden. Da 0.7397 \) 15 - 3

[2.5624| "076729

/ 1 - 0. 7397

3.808 > 2.179 = t

15-3;0.975

ist, muß die Nullhypothese verworfen werden. Die bi - partielle Korrelation zwischen Hämoglobingehalt im Blut und mittlerer Oberfläche der Erythrozyten ist also zum Niveau a =

0.05 signifikant von Null verschieden.

In diesem Beispiel zahlte sich die Berechnung der bi - partiellen Korrelation zwischen X und Y nicht aus. Anders verhält es sich, wenn man etwa r^y = -0.73 ,

r x u = 0.89 ,

r y v = 0.92 und

r u v = 0.42

r y u = -0.17 ,

rxv=-0.31 ,

erhält. Hier ergibt sich die geschätzte bi - partielle Korrelation zwischen X und Y unter Konstanthaltung der Einflüsse von U bzw. V zu

189

Kapitel III: Die Korrelationsanalyse

r

XY " rXU*rYU " r XV' r YV

Γχ|υ,γ|ν:

+ r

XU' r UV' r YV

/ ( T ^ k T T ^ -0.73 - 0.89'(-0.17) - (-0.31 )-0.92 + 0.89·0.42-0.92 / (1 - 0 . 8 9 Z ) ( 1 - 0.92 2 ) 0.0504 V 0.0319

J

:0.2822

Auch die bi - p a r t i e l l e Korrelation kann man n a t ü r l i c h v i e l betrachten. Will ( X j , . . . ,X

man d i e bi - paJtfieZlz

] bzi

PatiticLLu>izAung

bex. PaAtial-UieMing

ichäXzm,

zwiAchm und

din

dzn

HeAkmatm

Μ VikmaJLin

[Vy...

( V j , . . . , l/^)

von

p(Xt

KoAAel&tcon

von

allgemeiner

XpJliu,

uk),(Y1.....Yq)|(v1

so bestimmt man zunächst aus einer Stichprobe vom Umfang η die

Matrizen (n > p.q.k.ü.) 1 R

r,

rv Χ,Χ.

X1X2

=

XX

R

UU

R

R XU' R x v analοα,

R YU'

YY'

Γ)(1Χρ

Γ) . . . ^ λ ρ der Matrix Q einer der in Abschnitt 1.4 angegebenen Tests verwandt werden. Es ist dort lediglich η durch n - b

2

DIE

KORRELATION

VON

zu ersetzen.

ΝICHT - NORMALVERTEILTEN

ZUFALLSVARIABLEN

In diesem Abschnitt beschäftigen wir uns mit der Korrelationsanalyse beliebiger stetiger und ordinaler Merkmale; für nominale Nerkmale sei auf den nächsten Abschnitt verwiesen, der wegen der Möglichkeit einer Senkung des Skalenniveaus

(durch Klassenbildung) natürlich auch für alle anderen Daten-

Kapitel III: Die Korrelationsanalyse

Situationen n ü t z l i c h

ist.

Zunächst werden der Spearmansche und der Kendal Ische K o r r e l a t i o n s k o e f f i zient für stetige Merkmale sowie zugehörige Tests v o r g e s t e l l t . Sodann werden Korrelationskoeffizienten für ein stetiges normal v e r t e i l t e s und ein ordinales Merkmal v o r g e s t e l l t ; man s p r i c h t dann von serialen und punktserialen Korrelationen. Daran s c h l i e ß t sich eine kurze Darstellung der chorischen K o r r e l a t i o n , a l so der Korrelation zweier ordinaler Merkmale an. In diesem Zusammenhang wird auch ein Test auf Unkorreliertheit f ü r zumindest ordinale Merkmale vorgestel l t .

2.1

DER

SPEARMANSCHE

RΑ ΝG Κ0 R R Ε L Α Τ I 0 ΝS Κ 0 Ε F F I Ζ I Ε Ν Τ

Sind Χ und Υ s t e t i g v e r t e i l t e Z u f a l l s v a r i a b l e n , so kann deren Korrelation ρ mittels des Spe.aman6chen

RangkonAeZationikozM-LzA.e.nte.n

je η Realisationen

bzw. y ^ , . . . , y

r S aufgrund von

von X und Y geschätzt werden.

Wie der Name schon sagt, werden bei diesem Verfahren nur Ranginformationen zur Schätzung von ρ verwandt (z.B. ob eine Realisation x^ größer oder k l e i ner a l s eine andere x^ i s t ) . Vergeben wir die Rangzahlen R(x^) bzw. R(yj) für die je η Realisationen der Z u f a l l s v a r i a b l e n X und Y so, daß in jeder der beiden Reihen die k l e i n s t e ( " s c h l e c h t e s t e " ) Realisation den Rang 1 , . . . , d i e größte ( " b e s t e " )

Realisa-

tion den Rang η e r h ä l t , oder in beiden Reihen genau umgekehrt, so ergibt sich der Spearmansche K o r r e l a t i o n s k o e f f i z i e n t r s durch Einsetzen der Rangzahlen - a n s t e l l e der Realisationen - in die Formel zur Berechnung von r ^ :

r

l ( R ( x1J - R l x T ) ( R ( y ·1 ) - RTyT) i=1

s_

l (R(x,)-W) 1 pieZ: (vgl. R.C. S t o l l : "An improved multipurpose abrasion tester and i t s application for the wear resistance of t e x t i l e s " , Text. Res. Journal, 19, 1949, S.394 - 4 1 9 ) Um einen technologischen Kurzzeitversuch zur Prüfung der Haltbarkeit von Textilien so zu entwickeln, daß dieser die wirkliche Haltbarkeit möglichst gut widerspiegelt, wurden an 7 verschiedenen Textilien Trageversuche und verschiedene Kurzzeitversuche durchgeführt. Die Kurzzeitversuche waren hier Scheuerversuche wie z.B. B'iegescheuerung in Kett - und Schußrichtung. Bei den Scheuerversuchen wurde die Anzahl der Scheuertouren bis zum Bruch der Gewebe gezählt. Bei den Trageversuchen konnte man l e d i g l i c h eine Rangfolge in der Haltbarkeit der Textilien f e s t -

n,

Kapitel III: Die Korrelationsanalyse

193

legen. Um die K o r r e l a t i o n zwischen Trage - und Scheuerversuchen schätzen zu können, wurden auch d i e E r g e b n i s s e der Scheuerversuche i n Rangzahlen umgewandelt, v g l . t a b . 1 0 . Cab.10: E r g e b n i s s e der Trage- und Scheuerversuche bei 7 T e x t i l i e n Gewebeart i

Rangzahl R, im Trageversuch

Scheuertouren b i s zum Gewebebruch i n Kettrichtung

Rangzahl R1. im Scheuerversuch/ Kettrichtung

Scheuertouren b i s zum Gewebebruch in Schußrichtung

Rangzahl R!' im Scheuerversuch/ Schußrichtung

1 2 3 4 5 6 7

6 5 7 4 3 2 1

72 85 78 82 91 138 154

7 4 6 5 3 2 1

115 78 91 102 67 111 136

2 6 5 4 7 3 1

Wir wollen nun d i e Spearmansche R a n g k o r r e l a t i o n r^ zwischen Trageversuch und Scheuerversuch in K e t t r i c h t u n g , r ^ zwischen Trageversuch und Scheuerversuch in Schußrichtung sowie r ^ zwischen Scheuerversuch i n und Scheuerversuch in Schußrichtung berechnen. Es

61

.

ist

m.eJicutioniikoe.(i{ii.zlmt

ΑΛίΙ ^Htj, β·ΛΓ) i,

n

u

x

j - ^ J,

n

ojxj)

/Κ j, »,»H(I, .Λ)") der dem Pearsonschen Korrelationskoeffizienten beim Rechnen mit 1 und 0 für die Ausprägungen von Y entspricht, a l s Schätzer für die Korrelation ρ zwischen X und Y verwandt. Unterstellt man, daß hinter dem nur ordinal meßbaren Merkmal Y eine standardnormal verteil te Z u f a l l s v a r i a b l e η l i e g t , so wird a n s t e l l e von r ^ ^ der zchte.

b-ise/UaJtz

r bis

= r pbis. ^

KoAAeZcutLonikoii^ziznt

'· "·

n-u

α

?

zur Schätzung von ρ verwandt; dabei i s t u^ mit a = n^ nQ /n t i l der Standardnormal Verteilung.

das u^ - Quan-

203

Kapitel III: Die Korrelationsanalyse

Bei beiden b i s e r i a l e r i K o r r e l a t i o n s k o e f f i z i e n t e n

i s t das Vorzeichen n i c h t

i n t e r p r e t i e r b a r ; es hängt davon ab, welche Ausprägung von Y man "1" und welche man "0" nennt.

BzAApizl: Um den Zusammenhang zwischen Hämoglobingehalt im B l u t (X) und m i t t l e r e r Oberfläche der E r y t h r o z y t e n ( Y ) , v g l . Tab.4 und Abb.10 in Abschnitt

1.1, unabhängig vom Geschlecht (U) zu schätzen, verwenden wir den

partiellen

Korrelationskoeffizienten

p

P

(x,v)|u:

XY "

P

XU'PY.U

/ (1 - Ρ χ υ ) ( ι - Ργυ) v g l . A b s c h n i t t 1 . 5 , und schätzen dabei die K o r r e l a t i o n e n ρ χ υ und ρ γ υ v e r m i t t e l s des p u n k t b i s e r i a l e n K o r r e l a t i o n s k o e f f i z i e n t e n .

Es e r g i b t s i c h mit

η = 16 , n, = η = 8 und η . = . . . = η . , = 1, wenn man weibl i c h mit "0" und ι. o. .1 ,1b männlich mit "1" bezeichnet 129.6 - X - 2 3 9 . 0 16

ρχυ = rpbis(X,U) = '

0-8495

° 1 n.n (8 - jg·) (3605.4 - yg-·239.0 )

und 8 2 4 . 2 --RL·· 1 5 5 1 . 8 PV., = I-„K,C(Y,U) = J

YU

= 0.8845

pbis

151250.64

Da die Gesamtkorrelation

-^-1551.8

2

)

mit r ^ Y = 0 . 7 9 9 6 g e s c h ä t z t wurden, v g l . Ab-

s c h n i t t 1 . 1 , berechnet s i c h d i e p a r t i e l l e K o r r e l a t i o n zwischen Hämoglobing e h a l t und m i t t l e r e r Oberfläche der Erythrozyten (unter Ausschaltung des Geschlechtseinflusses) (Χ,Υ)IU

=

zu 0.7996 - 0.8495-0.8845

/ ( 1

N

1Q(-Q

=U.19b9

- 0.84952)(1 - 0.88452)

|

Im F a l l e , daß das o r d i n a l e Merkmal Y mehr a l s zwei Ausprägungen s p r i c h t man von punktpolyizfUal&n

bzw. polyiMJjxlzn

besitzt,

Koin.eZati.onikoi^l-

z teilten, auf die wir h i e r n i c h t eingehen w o l l e n ; man v g l . hierzu etwa Pearson ( 1 9 0 9 ) , Cox ( 1974) und Olsson

et a l .

( 1982). Analoge Tests f ü r die Kor-

r e l a t i o n zwischen einem normal v e r t e i l ten und einem d i s k r e t e n Merkmal man etwa bei O l k i n / T a t e ( 1 9 6 1 ) , A f i f i / E l a s h o f f

Sind X und Y beide o r d i n a l s k a l i e r t e

(nur ordinal

findet

(1969).

meßbare) Merkmale, denen

204

Kapitel III: Die Korretationsanalyse

jedoch gemeinsam normal v e r t e i l t e Z u f a l l s v a r i a b l e n η und ξ mit Korrelation ρ zugrundeliegen, so lassen s i c h die chosUAchen

KoM. u,. a / 2

.

Die Quantile u^ der Standardnormalverteilunq sind im Anhang vertafelt. BeAAp-ieZ:

Zehn weibliche Personen werden zufällig aus einer interessieren-

den Grundgesamtheit ausgewählt und ihre Körpergröße (X) sowie ihr Gewicht (Y) werden gemessen. Zum 10% Niveau soll getestet werden, ob Körpergröße und Gewicht unkorreliert sind. Die ermittelten Körpergrößen x^, Gewichte y. sowie die zugehörigen Rangzahlen sind in Cab.16 zusammengestellt. In Cab.15 findet man 2 Gruppen ä 10 simulierten Zufallszahlen aus einer Standardnormalverteilung (vgl. z.B. Härtung et al.(1982)). In Tab.15 sind dann die zu den Körpergrößen und Gewichten gehörigen Größen A(R(x^)) und B(R(y^)) mit angegeben. Cab.15: 2χ10 simulierte Zufallszahlen aus einer Standardnormal Verteilung Gruppe 2

Gruppe 1 0.76 0.21 1.61 -1.02 - 2 . 50 -0.73 0.52 -1.37 1 .64 0.53

1 1 0 -2 0 -0 0 -0 -1 0

64 28 42 08 64 65 93 19 25 07

i

A(i)

1 2 3 4 5 6 7 8 9 10

-2 -1 -1 -0 0 0 0 0 1 1

50 37 02 73 21 52 53 76 61 64

B(i) -2.08 -1.25 -0.65 -0.19 0.07 0.42 0.64 0.93 1.28 1.64

Aus der Tab.16 ergibt sich nun

iu

i=1

A(R(x.)) -B{ R(y ·)) ι π

=

0.645-0.93+(-0.26)-0.53+1 .64-0.53+...+ (-1 .02) -(-1 .25))

=

12.0973 = 1 .20973

Die Hypothese H q : Körpergröße und Gewicht von Frauen sind unkorreliert

206

Kapitel III: Die Korrelationsanalyse

wird zum 10% Niveau verworfen, denn |\ΓΠΓ·1.209731 = 3.8255 > 1 .645 = u

tab.16: Versuchsergebnisse und Arbeitstabelle zum Bell - Doksum - Test, vgl. auch Tab.15 Person i

Körpergröße x

3

Gewicht

R(y.j)

B(R(y.j))

66

8

0 .93

63

6.5

1.64

63

6.5

R(x.j)

A(RCx-))

( 0 . 5 3 + 0 . 7 6 ) = 0 645 2 1 (-0.73+0.21)=--0.26 2

i

1

167

7.5

2

162

4.5

3

172

10

4

170

9

1.61

75

10

1 64

61

5

0 07

> >

42+0 64) =0 53 42+0 64) =0 53

5

167

7.5

1 ( 0 . 5 3 + 0 . 7 6 ) = 0 645 2

6

165

6

0.52

69

9

1 28

7

154

1

-2.50

52

1

- 2 08

60

4

- 0 19

1 (-0.73+0.21)=--0.26 2

8

162

4.5

9

157

2

-1.37

58

3

- 0 65

10

160

3

-1.02

56

2

- 1 25

ASSOZIATIONSMAßE UND LOGLINEARES MODELL FÜR KONTINGENZTAFELN

In diesem Abschnitt beschäftigen wir uns mit der Analyse von Abhängigkeiten im Falle nominaler Merkmale. Da sich alle anderen Merkmalstypen durch Senkung des Skalenniveaus (z.B. mittels Klassenbildung) in nominale Merkmale überführen lassen, sind die hier vorgestellten Methoden naturlich insbesondere auch für ordinale oder gemischte Merkmalstypen nützlich.

Zunächst werden wir uns mit Maßen für die Abhängigkeit

{AiioziaXioMmaß&)

zweier nominaler Merkmale mit je zwei Ausprägungen beschäftigen. Die insgesamt η Beobachtungspaare zu den Merkmalen X und Y lassen sich in Form einer Vj.eA&zldeA£a.{>el. darstellen. Bezeichnet man die je zwei Ausprägungen von X und V mit "1" und "2", so enthält die Vierfeldertafel, vgl. tab.17 , gerade die beobachteten Häufigkeiten n^. des Ausprägungspaares (i,j) für i,j = 1,2 sowie die Randhäufigkeiten

Kapitel III: Die Korrelationsanalyse

i. t a b . 17: V

= n

i1

+ n

i2

n

·

.j=n1j

+ n

2j

für i ,j=1,2

207

.

Vierfeldertafel

Y

1

x \

2

I

1

n

11

n

12

n

1.

2

n

21

n

22

n

2.

1

n

.i

n

.2

η

Ein Maß f ü r d i e A b h ä n g i g k e i t ( d . h . d i e A&iozicuLLon) z . B . der Q- Ko&H-Lz-Lint _ n11n22 " "n11n22

n

von Vulz,

von X und Y i s t dann

der v e r m i t t e l s

12n21

+ n12n21

g e s c h ä t z t w i r d . Q l i e g t s t e t s zwischen - 1 und +1; es nimmt den Wert 0 bei Unabhängigkeit an. Das Vorzeichen von Q kann wegen der W i l l k ü r der Anordnung der Merkmalsausprägungen jedoch n i c h t im Sinne e i n e r p o s i t i v e n oder negativen A b h ä n g i g k e i t i n t e r p r e t i e r t werden. Ein approximativ zum Niveau 1 - a f ü r den Q - K o e f f i z i e n t e n

intiivati

tu,

Koniidenz-

ist

[ Q - u ^ t i . Q ^ . / n p n p n p n : .

q + u. .jo -Q2)./ 1-a/2 2 V n^ wobei u^ das γ - Q u a n t i l

Bei,ipiel:

+

η12

der Standardnormal V e r t e i l u n g

+

n21

1 n22 J

.

bezeichnet.

Um die Wirksamkeit e i n e r Werbekampagne f ü r e i n Waschmittel zu un-

t e r s u c h e n , wird vor und nach der Kampagne eine Umfage über den B e k a n n t h e i t s grad d u r c h g e f ü h r t , deren E r g e b n i s s e in Cab-18 angegeben s i n d . Der E i n f l u ß der Werbekampagne kann durch den Q - K o e f f i z i e n t e n g e s c h ä t z t werden: n

138-348 - 685-728 138-348 + 685-728

Ein 95% - K o n f i d e n z i n t e r v a l l

=

-450656 - 0,.546704 = " ü · 8 2 4 3

e r g i b t s i c h h i e r zu

·

208

Kapitel III: Die Korrelationsanalyse

[-0.8243 - 1 .960(1 - (-0.8243) V

/

^

·

-0.8243 + 1.960(1 - ( - 0 . 8 2 4 3 ) 2 )

^

^

^

+

,

+

]

= [-0.8243 - 1.960-0.0365 , -0.8243 + 1 .960-0.0365] = [-0.8958,-0.7528]

tab.18: Wirksamkeit einer Werbekampagne ^\Bekanntheitsbekannt

unbekannt

l

vorher

138

658

823

nachher

728

348

1076.

866

1033

1899

Zeitpunkt

I

Haben die Merkmale X und Y mehr als zwei Ausprägungen, nämlich r bzw. s Stück, so kommt man zu einer allgemeinen nx& - KovvLbiQmzta.fatl, vgl. Cab.19. Cab.19: Allgemeine rxs - Kontingenztafel \ X

Y \

2

1

3

1

n

11

n

12

n

2

n

21

n

22

n

3

n

31

n

32

r

n

r1

n

I

n

.1

n

s

I

· •

n

1s

n

23

· •

n

2s

n

2.

n

33

* •

n

3s

n

3.

r2

n

r3

· •

n

rs

n

r.

.2

n

.3

* •

n

.s

13

1.

η

Hier bezeichnen-n^ f ü r i = 1 , . . . , r , j = 1 , . . . , s die beobachteten Häufigkeiten des Ausprägungspaares s η. = Τ n. . i. j t , U

(i,j), und

r η .= Τ -J

η. . U

f ü r i = 1 , . . . , r bzw. j = 1 , . . . , s

die Summenhäufigkeiten der Auprägung i des Merkmals X bzw. j des Merkmals Y und η die Gesamtzahl der Beobachtungen (Objekte).

Kapitel III: Die Korrelationsanalyse

209

Ein Assoziationsmaß für X und Y (das auch für die Vierfeldertafel verwandt werden kann) i s t hier z.B. der PeaA&onbcht

C=

/ /

2

/ r s η?. \ χ2 = η · ( [ J F-!i_-l) M = 1 j = 1 i. n.j '

mit

χ +η

Kontingznzkoz(,^lz-ie.nt

.

der stets Werte zwischen 0 und 1 annimmt. Der maximale Wert von C i s t aber nicht 1 sondern / min(r,s)- 1 \/ min(r,s) Daher verwendet man oft auch den konAlgiviXm (normierten) P e a u o m c h m Kontingznzkoiiij.zlzntzn

C

= c· /

corr

min(r,sT~

V

min(r,s) - 1

als Assoziationsmaß. zum Niveau 1-cc für diese Koeffizienten

Ρφρκοχ.Α,παΛλνζ Koni-Ldrnz-LntcivcMe. sind ( f a l l s g i l t χ 2 f 0)

a / 2

/ V

3

7 ~2 4x2(n+x2)3'V n

C +u

1

'

'

a / 2

/ / V

n

X

4x2(n+X2)3"V

für den Pearsonschen Kontingenzkoeffizienten bzw. Γ

-ι.

n 6 -min(r,s)

/

~2

2

4χ (η + x 2 ) 3 ( m i n ( r , s ) - 1)

J

C corr + u,λ

η

n

·

'α/ί /

6

χ2

'

.

4χ 2 (η + χ 2 ) (min(r,s) - 1)

S2J * *

für den korrigierten Pearsonschen Kontingenzkoeffizienten. Dabei bezeichnet ~2 λ

1

r

s y

η s

ι

rI s3 y + 2> y "1=1 j=i

3 n,, ij

r 3 y

1

/ r

n?.

N

n.. .. // r1 U— ( y n i/n.j

,

, s (y

2

n, II, .. n 2

k.,n.j

einen Schätzer für die Varianz der Größe χ .

2

\2 V

ij

w\ / s3 V y

2

n.. II · „ \ n

i

210

Kapitel III: Die Korrelattonsanalyse

BeÄAp 9 7 5 / \ Γ Π Γ , 1.6689 + u 0 > g 7 5 / V ~ n i ] = [1.0491,2.2887] und durch Umrechnen dieser Grenzen Z y

z^ vermittels der Fisherschen

Transformation eraeben sich die Grenzen eines approximativen tervalls für ρ γ

Y

z-

Konfidenzin-

zu

12 [ r r r z ] = [0.78.U.98]

;

dieses Intervall überdeckt p Q = 0.99 nicht, was in Einklang damit steht, daß die entsprechende Hypothese HQ zum 5% Niveau verworfen werden mußte.

Faßt man die empirischen Korrelationen der vier Merkmale in der empirischen Korrelationsmatrix

R=

1.0000

0.9314

0.8375

0.6949

0.9314

1.0000

0.9329

0.8424

0.8375

0.9329

1.0000

0.8565

0.6949

0.8424

0.8565

1.0000

zusammen, so kann man z.B. auch die globale Hypothese der Unabhängigkeit der Merkmale

zum 5% Niveau testen. Hier ergibt sich etwa der

Wert der Teststatistik von Wilks wegen c = n - ρ - 2 Ρ ± 1 = ΐ 3 - 4 - ^ = 6.8333

W = -c»ln(det R) = -6.8333·1η 0.003396530 = 38.8473 und die Hypothese wird verworfen, da gilt: :χ

6;0.95

χ

ρ(ρ-1)/2;1-α

Wir wollen nun die multiple Korrelation ρ γ

3

,Y

x

f;1-a

Y Y . zwischen Verbrauch 1 ' 2 4

und den Merkmalen Hubraum, Leistung sowie Höchstgeschwindigkeit schätzen. Es ergibt sich (P X3> (X ^ >

*^ 3)

X

> >^ ) 3 X l' X 3 X 2 X 3 X 4

X X

1X2

X

1 2

X,X 4

X2X4

X

1X4

X

X

2 4

-1

Γ)( Χ

3 1

X

3X2

X

. 3X4;

Kapitel ill: Die Korrelationsanalyse

1.0000 0.9314 0.6949 - 1 0.8375

ί(0.8375,0.9329,0.8565)

=

0.88825 = 0.9425

0.9314 1.0000 0.8424

0.9329

0.6949 0.8424 1.0000

0.8565

215

1/2

.

Das m u l t i p l e Bestimmtheitsmaß i s t h i e r gerade 0.88825, d . h . 88.825% (der Varianz) des Merkmals Verbrauch werden durch die übrigen Merkmale e r k l ä r t . Bedenkt man, wie an den einzelnen Bestimmtheitsmaßen BY

= rY

Y

3*1

Y

31

=0.7014

,

BY

3

= 0.8703

Y

und

Βγ

2

3

Y

4

= 0.7336

abzulesen i s t , daß durch das Merkmal Hubraum a l l e i n e 70.14%, durch das Merkmal L e i s t u n g 87.03% und durch das Merkmal Höchstgeschwindigkeit

73.36%

(der V a r i a n z ) des Merkmals Verbrauch e r k l ä r t werden, so z e i g t s i c h , daß h i e r q u a s i die L e i s t u n g zur Erklärung des Verbrauchs ausreichend i s t und die beiden übrigen Merkmale dann kaum noch etwas z u s ä t z l i c h zur Erklärung des Verbrauchs b e i t r a g e n . Zur I l l u s t r a t i o n wollen wir an d i e s e r S t e l l e die (maximale,1-te) Korrelation p ^

χ ) (χ

c er

χ )

'

kanonische

Merkmale Hubraum und L e i s t u n g mit den Merk-

malen Verbrauch und Höchstgeschwindigkeit schätzen. Ein Schätzer f ü r diese kanonische K o r r e l a t i o n i s t gerade d i e Wurzel V λQ aus dem größten Eigenwert der M a t r i x X,X 12

-1 f

r

X

1X3

r

X

1X4

X,X 1 2

X X

3X4

3X4 1

Γ)
8.876 = ^ 4 6 . F 3 ) 4 4 ; 0 - 9 5 d.h. die Hypothese der Gleichheit von μ ^

2.2

Μ I TT E L W Ε R T V Ε R G L Ε I CΗ

BEI

und μ ^

muß verworfen werden

VERBUNDENEN

•J

STICHPROBEN

Sind die Stichproben aus der ersten und zweiten Grundgesamtheit nicht voneinander unabhängig, so nennt man die Stichproben verbunden. In solchen Fällen kann ein Test auf Gleichheit der Mittel wertvektoren (2)

μ ^

und μ*

in beiden Grundgesamtheiten nur durchgeführt werden, wenn p < n ,

n^ = =

η gilt und wenn die gemeinsame Verteilung der Beobachtungsvektoren

am i-ten Individuum aus der 1. und 2. Stichprobe (i=1,...,n) eine Normalverteilung ist. Sind diese Annahmen in konkreten Situationen zu rechtfertigen, so kann man

233

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

mittels e ? i n e r Transformation der Beobachtungsdaten wiederum e i n e F - v e r t e i l t e Τ - T e s t s t a t i s t i k bestimmen:

Die Hypothese Η : ο

μ

(1>=μ

wird dann zum Niveau α verworfen, f a l l s T2

>

gilt:

p(rM).F n-p p,n-p;l-a

B(Uipi.eZ: Wir wollen h i e r einmal die Daten aus Tab. 1 in A b s c h n i t t 1.1 a l s zwei Stichproben a u f f a s s e n . Die e r s t e S t i c h p r o b e ( S c h ä d e l l ä n g e und - b r e i t e bei erstgeborenen Söhnen) und die zweite S t i c h p r o b e (Schädel!änge und - b r e i t e bei zweitgeborenen Söhnen) s i n d s i c h e r l i c h a b h ä n g i g , da ja Ges c h w i s t e r b e t r a c h t e t werden, so daß wir die Hypothese der G l e i c h h e i t der Mittelwertvektoren

in den S t i c h p r o b e n m i t t e l s des in diesem A b s c h n i t t

g e s t e l l t e n Tests prüfen müssen. A l s Niveau des T e s t s wählen w i r einmal Natürlich sind für

vor5%.

i=1...,25

y1i = (yi1,yi2)T

und

y2i = (yi3,yi4)T

so daß s i c h y1 =(185.72,151.12) e r g i b t . Damit

und

y 2 = (183.84,149.24

ist

Τ = 2 5 * 2 4 ( 1 . 8 8 , 1 . 8 8 ) 1362.64

287.64

287.64

702.64

= 25-24(1.88,1.88)

= 0. 1505

-1

0.0008033

-0.0003288

1.88

-0.0003288

0.0015578

1.88

,

und die Hypothese kann n i c h t verworfen werden, denn T2·3.6.2

< ;-H16-S-3.422

.S^Ü-F

2 t 2 3

.

0

.

9 5

J

234

Kapitel IV: Multivariate Ein- und

3 DIE

PRÜFUNG

VON

Zweistichprobenprobleme

KOVARIANZHYPOTHESEN

Die b i s h e r behandelten Tests über Parameter in m u l t i v a r i a t e n Modellen bet r a f e n s t e t s Hypothesen über den M i t t e l w e r t v e k t o r e i n e r Normal V e r t e i l u n g . In v i e l e n F ä l l e n

i s t es jedoch s i n n v o l l , ausgehend von η z u f ä l l i g aus e i n e r

Grundgesamtheit ausgewählten Objekten, Hypothesen über d i e

Kovarianzmatrix

$ zu t e s t e n , denn h ä u f i g hat man Vorstellungen über d i e A r t der Abhängigk e i t von ρ beobachteten Merkmalen, oder man w i l l

p r ü f e n , ob mehrere Kova-

rianzmatrizen a l s g l e i c h anzusehen s i n d , was b e i v i e l e n der Verfahren eine Voraussetzung i s t

Im ersten F a l l trix

vorgestellten

(η > p).

t e s t e t man Hypothesen über d i e S t r u k t u r e i n e r

im zweiten F a l l

t e s t e t man auf G l e i c h h e i t mehrerer

Kovarianzma-

Kovarianzmatri-

zen.

S c h l i e ß l i c h w i r d in diesem A b s c h n i t t noch ein Test f ü r simultane Hypothesen über den M i t t e l wertvektor und d i e Kovarianzmatrix eines normal v e r t e i l ten Merkmalsvektors

3.1

EIN

TEST

MATRIX

vorgestellt.

ÜBER

DIE

STRUKTUR

EINER

KOVARIANZ-

t

Hat man eine V o r s t e l l u n g von der Abhängigkeit von ρ gemeinsam normalvert e i l t e n Merkmalen, so kann man d i e s e V o r s t e l l u n g m i t t e l s eines Tests zum Niveau α der Hypothese H0: t = t 0

gegen

über d i e Kovarianzmatrix

H,: J t

überprüfen.

Zwei h ä u f i g e s p e z i e l l e Matrizen $

sind

und

0 Im ersten F a l l

0

1

ρ

Ρ

1

ρ

ρ

e n t s p r i c h t der Test von H q gegen H^ einem Test auf Unabhän-

g i g k e i t der ρ Merkmale ( e i n i g e w e i t e r e Tests - d i e ohne Kenntnis von o? auskommen - auf Unabhängigkeit von ρ Merkmalen (Meßreihen) f i n d e t man auch in K a p . I I I , A b s c h n i t t

1.2), im zweiten F a l l

einem Test der Hypothese, daß

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

a l l e Merkmalspaare d i e g l e i c h e Kovarianz und somit d i e g l e i c h e

235

Korrelation

haben. D i e P r ü f g r ö ß e n a c h dem Maximum - L i k e l i h o o d - P r i n z i p f ü r d e n T e s t H0: ί = ί

gegen

0

Η,:

i s t f ü r große Stichprobenumfänge

von

$ ί $Q

η

L = ( n - 1 ) ( i n d e t $ Q - I n d e t S + t r ( S * t ~ 1 ) - p) wobei t r A

d i e Spur von Α b e z e i c h n e t , v g l . auch A b s c h n i t t 4 i n K a p . I ,

im F a l l e k l e i n e r S t i c h p r o b e n u m f ä n g e η w i r d f o l g e n d e k o r r i g i e r t e

und

Prüfgröße

vorgeschlagen: L

'

"6ΓϊνΤΙ

=

( 2 ρ +

1

" f t ^ "

1

-

·

D i e M a t r i x S b e z e i c h n e t h i e r den S t i c h p r o b e n s c h ä t z e r f ü r d i e

Kovarianzma-

trix

Die P r ü f g r ö ß e L bzw. L '

ist

approximativ χ 2 - v e r t e i l t

im F a l l e $ = $ Q

- a l s o u n t e r d e r H y p o t h e s e HQ -

mit p(p+1)/2 Freiheitsgraden,

t h e s e H q zum N i v e a u α v e r w o r f e n w e r d e n muß, f a l l s L (bzw. L ' )

BeXipiit:

> Χ^(ρ+1)/2;1_α

s o daß d i e

Hypo-

gilt

·

Anhand der Daten aus T a b . 1 , v g l . A b s c h n i t t

1.1, soll

getestet

w e r d e n , ob d i e S c h ä d e l l ä n g e d e s e r s t e n u n d z w e i t e n S o h n e s v o n F a m i l i e n 2 2 e i n e r G r u n d g e s a m t h e i t d i e g l e i c h e V a r i a n z α.| = σ 2 = 100 h a b e n u n d u n k o r r e liert

s i n d . G e t e s t e t w i r d d a z u zum N i v e a u α = 0 . 0 5 d i e H0: 1 =

100

0

0

100

Der S c h ä t z e r f ü r d i e

Kovarianzmatrix

der h i e r

Hypothese

interessierenden

Merkmale

ist S= und es e r g i b t

91.481

66.875

66.875

96.775

sich

L = 2 4 ^ 1 η 1000 •

ln(91.481-96.775-66.875^) + t r

0.91481

0.66875

0.66875

0.96775

236

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

= 24(9.21034 - 8 . 3 8 4 9 9 + 0.91481 + 0.96775 - 2) = 16.99 2

[bzw. L ' = ( l ~

*

2

+ 1

-§))·16·99 =

Da L = 16.99 (und auch L ' = 16.48) g r ö ß e r a l s χ * . Q

16

·48]

·

= 7.81 i s t , wird die

gg

Hypothese HQ verworfen.

3.2

EIN

TEST

|

AUF

GLEICHHEIT

MEHRERER

KOVARIANZ-

MATRIZEN Um die Annahme der G l e i c h h e i t der unbekannten Kovarianzmatrizen von k Stichproben zu r e c h t f e r t i g e n , p r ü f t man h ä u f i g zum Niveau α d i e Hypothese V

ί 1 = - - - = ik

gegen d i e A l t e r n a t i v e H^: d i e Kovarianzmatrizen der k Stichproben s i n d n i c h t Die j - t e S t i c h p r o b e , j = 1

k , e n t h ä l t n^. z u f ä l l i g aus e i n e r

identisch.

interessie-

renden Grundgesamtheit ausgewählte Objekte, an denen j e w e i l s ρ Merkmale beobachtet werden. Somit l i e f e r t die j - t e Stichprobe n^. Beobachtungsvektoren ( η j > p) y

ji

= (y

y

ji1

jip)T

Berechnet man zunächst d i e

mit i - 1 , . . . , n j

.

Stichprobenkovarianzmatrix

η. V

v

T

^

( y

ji-yj

) ( y

ji"yj

) T

der j - t e n S t i c h p r o b e , j = 1 , . . . , k , und daraus d i e gemeinsame S t i c h p r o b e n k o varianzmatrix

s

= j ,

V )

der k S t i c h p r o b e n , so k X mit

2 = c

ist k

f(£ n . - k V l n d e t S - £ (n . - 1 ) ·1 η det S .] J JJ LVj=1 J / j=1

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

237

eine geeignete Priifgröße für den Test zum Niveau α von Hq gegen H^, denn im Fall der Gültigkeit der Hypothese H q ist sie approximativ χ 2 - verteilt mit p(p+1 )(k-1 )/2 Freiheitsgraden. Die Hypothese wird somit zum Niveau α verworfen, d.h. mit einer Fehlerwahrscheinlichkeit α bestehen signifikante Unterschiede zwischen den Kovarianzmatrizen der k Stichproben, falls gilt χ2

> x

p(p+l)(k-1)/2;1-a

2

"

2

Die Quantile χ . γ der χ - Verteilung sind im Anhang vertafelt. ZüAAploJL·. Wir wollen hier noch einmal auf das Beispiel aus Abschnitt 2.1 (Panzerlänge, Panzerbreite und Panzerhöhe von 24 männlichen und weiblichen Schildkröten) zurückkommen und überprüfen, ob die Kovarianzmatrizen zwischen den ρ = 3 beobachteten Merkmalen bei männlichen und weiblichen Schildkröten gleich sind. Die Stichprobenumfänge n 1 =24 und n,, = 24 in beiden Gruppen sind identisch. Die zur Berechnung der Prüfgröße χ 2 benötigten Stichprobenkovarianzmatrizen S^ und S^ sowie die gemeinsame Stichprobenkovarianzmatrix S sind in Abschnitt 2.1 schon berechnet worden, so daß wir hier nur noch deren Determinanten bestimmen müssen: detS, = 138.77·50.05· 1 1.26 + 2*79.15*21 .65*37.38 - 50.05-37.38 2 - 138.77-21 .65 2 - 11 .26*79.15 2 = 794.05

,

det S 2 = 451.39· 171 .73-66.65 + 2*271 .17· 103.29-168.70 - 171.73-168.70 2 - 451 .39- 103.29 2 - 66.65-271 . 17 2 = 12639.885 detS

= 295.08- 110.89-38.955 + 2-175.16-62.47-103.04 - 110.89-103.04 2 - 295.08-62.47 2 - 38.955*175.16 2 = 5565.6448

Weiter ist ... '1

C

2*9+9-1/2 1\_, 13.3_nq;)q, " H T \ J 3 " ¥ j " 1 "TT46 "°·9293

'

und damit ergibt sich der Wert der Prüfgröße des Tests, der hier zum 5% Niveau durchgeführt werden soll, zu χ 2 = 0.9293((24+24-2) 1 η 5565.6448 - 23*ln 794.05 - 23-ln 12639.885 ) = 0.9293(46*8.6244 - 23*6.6771 - 23*9.4446) = 24.091 Da gilt

238

Kapitel IV: Multivariate Ein- und

Zweistichprobenprobleme

χ2 = 24.091 > 1 2 - 5 9 = X 2 ; 0 . 9 5 = X 2 ( p + 1 ) ( k _ 1 ) / 2 ; l _ a

,

muß d i e Hypothese H q v e r w o r f e n w e r d e n , d . h . es s i n d zum 5% Niveau

signifi-

k a n t e U n t e r s c h i e d e d e r K o v a r i a n z m a t r i z e n von P a n z e r l ä n g e , P a n z e r b r e i t e und Panzerhöhe b e i m ä n n l i c h e n und w e i b l i c h e n S c h i l d k r ö t e n

3.3

EIN

SIMULTANER

TEST

KOVARI ANZMATRIX

ÜBER

IM

vorhanden.

Μ I Τ Τ ΕL W Ε RΤ V ΕΚ Τ 0 R

UND

Ε I Ν S Τ I CΗ Ρ R 0 Β Ε Ν Ρ R 0 Β L Ε Μ

Nachdem b i s h e r e i n z e l n e T e s t s f ü r d i e Model 1 p a r a m e t e r y und | im E i n s t i c h p r o b e n p r o b l e m angegeben w u r d e n , s o l l h i e r d i e s i m u l t a n e Hypothese Η0:μ=μ*

und

t=t*

zum Niveau α gegen d i e A l t e r n a t i v e H^ μ /μ*

oder

$ ft*

g e t e s t e t werden. A u f g r u n d e i n e r S t i c h p r o b e von η O b j e k t e n aus e i n e r G r u n d g e s a m t h e i t , an denen j e w e i l s ρ Merkmale b e o b a c h t e t w u r d e n , b e r e c h n e t man d i e

Stichproben-

s c h ä t z e r y und S f ü r den unbekannten M i t t e l w e r t v e k t o r μ bzw. d i e u n b e k a n n t e Kovarianzmatrix

w i e i n A b s c h n i t t 1.1 d i e s e s K a p i t e l s angegeben. Daraus

kann man den Wert d e r u n t e r d e r N u l l h y p o t h e s e a p p r o x i m a t i v χ 2 m i t p + p(p+1)/2 Freiheitsgraden v e r t e i l t e n χ2 = 1 η η - 1 - n - l n d e t ( S - i ; 1 )

Prüfgröße +

t r ( S · ^ ) - 2n(y - μ * ) τ · ί ; 1 - ( y - μ * )

b e r e c h n e n , und man v e r w i r f t d i e s i m u l t a n e Hypothese H q zum Niveau α ,

falls

gilt χ2

> xp+p(p+1)/2;1-a

Ein w i c h t i g e r S p e z i a l f a l l

'

d e r Hypothese H Q i s t d e r T e s t a u f e i n e m u l t i v a -

r i a t e S t a n d a r d n o r m a l v e r t e i l u n g d e r ρ Merkmale i n der

interessierenden

Grundgesamtheit:

μ =0

und

t = Ir

1 0 0 1 >•0 0

BeXip-ce£: Wir kommen noch einmal a u f das B e i s p i e l aus A b s c h n i t t 1.1 ( S c h ä -

Kapitel IV: Multivariate Ein• und Zweistichprobenprobleme

239

d e l l ä n g e und S c h ä d e l b r e i t e von e r s t - und z w e i t g e b o r e n e n Söhnen aus 25 Fam i l i e n , v g l . T a b . 1 ) z u r ü c k . A u f g r u n d d i e s e r S t i c h p r o b e vom Umfang η = 2 5 s o l l d i e Hypothese 185 150 H o : μ = 185 150

t

'100 0 0 0

0 50 0 0

0 0 100 0

0' 0 0 50,

über d i e ρ = 4 b e o b a c h t e t e n Merkmale zum 5% Niveau g e t e s t e t w e r d e n , d . h . es s o l l ü b e r p r ü f t w e r d e n , ob b e i e r s t - und z w e i t g e b o r e n e n Söhnen d i e Schädel l ä n g e n nach ΝC185; 100) und d i e S c h ä d e l b r e i t e n nach N ( 1 5 0 ; 5 0 ) v e r t e i l t

sind.

D i e S t i c h p r o b e n s c h ä t z e r y und S f ü r den M i t t e l w e r t v e k t o r μ und d i e K o v a r i a n z m a t r i x $ s i n d im B e i s p i e l aus A b s c h n i t t 1.1 b e r e i t s b e s t i m m t w o r d e n , so daß z u r Berechnung d e r P r ü f g r ö ß e χ2 n u r noch Γ100 0 0 0

s-t

-1

0 50 0 0

0 0 100 0

91.481 50.753 66.875 44.267

0 0 0 50

-1

50.753 52.186 49.259 33.651

0.91481 0.50753 0.66875 0.44267

ίο.01 0 0 0

66.875 49.259 96.775 54.278

1.01508 1.04372 0.98518 0.67302

0 0.02 0 0

0 0 0.01 0

0 0 0 0.02

44.267 33.651 54.278 43.222

0.01 0 0 0

0 0.02 0 0

0.66875 0.49259 0.96775 0.54278

0 0 0.01 0

0 0 0 0.02

0.88534 0.67302 1.08556 0.86444

h i e r z u d i e Spur und d i e D e t e r m i n a n t e t r ( S - j ; 1 ) = 0.91481 + 1.04372 + 0.96775 + 0.86444 = 3 . 7 9 0 7 2 d e t ( S - i ; 1 ) = 0.91481-0.1200794 -1.01508-0.0334593 + 0.66875-(-0.0309865) - 0.88534-0.0159848 = 0.04101

'185.72 • μ * = 151.12 183.84 149.24

-

185" 150 185 150

0 1 -1 -0

72 12 16 76

b e s t i m m t werden müssen. Es e r g i b t s i c h s o m i t χ 2 = I n 25 - 1 - 25-1 η 0.04101 + 3.79072 - 2-25(0.72,1 . 1 2 , - 1 . 16,-0.76) 0.01 0 0 0

0 0.02 0 0

0 0

0.01 0

0 0 0 0.02

0 1 -1 -0

72' 12 16 76

240

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

= 3.2189 - 1 - 25(-3.1939) + 3.79072 - 50(0.72^-0.01 + 1.12 2 ·0.02 + 1.16 2 ·0.01 + 0.76 2 ·0.02) = 85.8571 - 50-0.0553 = 83.0921 :χ

14;0.95 = χ ρ+ρ(ρ+1)/2;1-α

so daß die Hypothese H Q verworfen werden muß.

4 DIE DISKRIMI NANZANALYSE

(IDENTIFIKATION VON

Die Problemstellung der ViikHAminanzanalyiz nung von Objekten

|

OBJEKTEN)

{ldznti&-Lk0

,

244

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

Äquivalent zu dieser ZineaAzn gruppenfall

Tlihva>c.km

d i e gmeAaLU-ieKtz

Ü-iikMminanz^unktion

i s t im Zweibei der e i n

LUIQJULZ VLik^iminanziunktion,

Objekt mit Ausprägungsvektor y der i-ten Teil population, i=1,2, zugeordnet wird, f a l l s mit a~ = $

(μ (1)

μ (2),)

gilt: | α Τ · ( μ ( 1 ) - y ) | = min | a T . ( y ( j ) - y) |

.

3=1,2

I s t |α τ · ( μ ^ - y) | = |ατ· ( μ ' ^ - y) |, so wird keine Entscheidung getroffen. Sind μ ' ' ' , y ' ^ ' and $ u.nbtkann£,

so müssen sie zunächst aus sogenannten

Lernstichproben geschätzt werden. Der Vektor der ρ Merkmalswerte wird an n^ Objekten der ersten und n 2 Objekten der zweiten Population beobachtet; diese Beobachtungsvektoren seien hier mit y ^ für k=1,...,n^ und y ^ k=1,...,n2 bezeichnet. Dann sind

y,k

Schätzer für y ^

und

>*

bzw. μ ^ , und der Schätzer für die Kovarianzmatrix $

ergibt sich, wie in Abschnitt 2.1, aus den n ^ + n 2 = n Beobachtungsvektoren zu (n > p) ι

2

n

i (

J ,

y i k - y i

) (

y i k - y i

}

·

Wird dann an einem neu hinzukommenden Objekt der Beobachtungsvektor y gemessen, so k l a s s i f i z i e r t man es vermittels der LLnzaizn

f-UhiMcknn

k^iminanz^unktion

h 1 2 ( y ) = (y, - y 2 ) T - s " 1 - y

- y 2 ) T - s " 1 - ( y 1 + y2)

in Population 1 im Falle h12(y) > 0 und in Population 2 im Falle h12(y) < 0

.

Ansonsten kann keine Entscheidung getroffen werden.

Vii-

Kapitel IV: Multivariate Ein- und

Bei dem äquivalenten Entscheidungsverfahren vermittels der LineaAzn

Viikfumina.nzFunktion

245

Zweistichprobenprobleme

gzneAatii-Lextzn

wird mit

a = S"1(y1 - y 2 ) das neue Objekt mit Beobachtungsvektor y in die i-te Population

(i=1,2)

klassifiziert, falls |a T .(y, - y ) ] =

gilt. Falls gilt

min |ctT·(yi - y ) | J j=l,2

|α τ ·(y 1 - y)| = |a T *(y 2 - y ) | , so wird hier keine Entschei-

dung getroffen.

Die Güte.

deA

V-LikfUmination

läßt sich natürlich dadurch überprüfen, daß

man die Objekte der Lernstichprobe klassifiziert. Da man die wahre Gruppenzugehörigkeit dieser Objekte kennt, kann man den Prozentsatz richtig

klas-

sifizierter Objekte bestimmen,. Ist dieser "hoch", so erreicht man durch die betrachteten Merkmale eine gute Diskrimination zwischen den Gruppen, vgl. hierzu das Beispiel 4.4

in Abschnitt 5. Es sei aber auch auf Abschnitt

hingewiesen.

Für ein neu hinzukommendes Objekt ist die UahAiche-intichkext Zuordnung

deA

nichtigen

natürlich umso größer je näher der Beobachtunnsvektor y am Mit-

telwertvektor μ ^

bzw. y.. der i-ten Population, der es zugeordnet w u r d e ,

liegt und je weiter es vom anderen Mittelwertvektor entfernt liegt.

4.2

DER

MEHRGRUPPENFALL

Erfolgt die Diskrimination nicht nach zwei Populationen sondern nach η > 2 Populationen, so spricht man vom MehAgluppeniatt

deA

V-UktUminanzanalyie

Wir gehen hier wiederum davon aus, daß die Diskrimination von Objekten aus einer Grundgesamtheit, die in m Teilpopulationen zerfällt, aufgrund von ρ Merkmalen Υ^,.,.,Υ

bzw. zugehörigen, gleichbezeichneten

Zufallsvariablen

durchgeführt wird. Diese ρ Merkmale seien in der i-ten Teilpopulation (i = l,...,m) gemeinsam normal verteil t mit Mittelwertvektor μ ^ Populationen gleicher

und in allen

Kovarianzmatrix

Wir behandeln zunächst den Fall, daß μ ' , μ ' "

1

'

iom-ie

$ bekannt

sind.

Zur Diskrimination eines Objekts an der der Vektor y der Ausprägungen von ρ Merkmalen beobachtet wurde, kann dann die lineaAe

¥-ü>heAiche

V-UknXmL-

246

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

verwandt werden. Ein Objekt mit Beobachtungsvektor y wird in

nanziu.nkti.on

die i-te Teilpopulation klassifiziert, falls für alle j t i gilt: hij.(y) = ( y ( i ) - P ( J ) ) T - r 1 - y - i ( w ( i ) - l i ( J , ) T - t " 1 - ( l i ( 1 ) + y ( j ' ) ) Sind μ ' , μ ' "

1

'

and

>0

so werden zunächst Lernstichproben vom

$ unbekannt,

Umfang n^ (i=1,...,m) aus den m Teilpopulationen zur Schätzung der unbekannten Parameter betrachtet. Bezeichnet man mit y ^

den Beobachtungsvek-

tor am k-ten Versuchsobjekt aus der i-ten Teil population, so wird der Mittelwertvektor μ ^

y

durch

ι

η. 1

iι ?nΓi

k=1

=

Σ

fUr

y iiK k

i = 1,



geschätzt. Dabei ist selbstverständlich darauf zu achten, daß zur Schätzung von μ ^ ' nur Versuchsobjekte aus der i-ten Teil population herangezogen werden. Die Kovarianmatrix $ kann mit n^ + n£ + ... +

= η > ρ geschätzt werden

durch .

n

m ^

i

_

J,

_

.

m

(n

i-1)si

'

wobei für i=1,...,m

1 S ^ n ^ r

"1 ^

(y

ik~yi)(yik~yi'

ein Schätzer für $ basierend auf den Beobachtungen in der i-ten Teil population ist. Die Matrix S g = (n-m)S nennt man auch V&hlznmcuOUx.

V

n

und die Matrix

m _ _ _ _ Σ ni(yi -y)(yi - y ) T 1 i=1 1 1

auch Hypotliiiznmatiix

mit

_ ι 111 "i y=-L J J n i=1 k=l

y

1K

(zur Hypothese, daß die beobachteten Merkmale nicht

zwischen den Gruppen trennen; vgl. auch Abschnitt 4.4 und die "einfache Varianzanalyse" in Kap.X, Abschnitt 1.4.1). Bei Verwendung der l i n m A i n F-ufre-wchen O-UknA.nU.nanziunktA.on wird dann ein neues, zu identifizierendes Objekt mit Beobachtungsvektor y der i-ten Teil-

.

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

population zugeordnet, falls für alle j / i

247

gilt:

h^.iyJMy^yjr-s^-y-^-yjr-s^.iy.+yj)

> 0

.

Bei der konkreten Berechnung kann man sich hier zunutze machen, daß gilt h

ij(y)

=

"hji(y)

*

Man kann hier auch eine QinvwJLLbiznXz

binzotii

V-LikfUrninanz^unktlon

verwen-

den. Bezeichnet α einen beliebigen Eigenvektor zum größten Eigenwert λ^ der Matrix S" 1 -S. , d.h. e η S ^ 'S. ·α = λ-·α e h b

,

so wird ein neues Objekt mit Beobachtungsvektor y in die i-te tion eingeordnet, falls für alle j ^ i

Teilpoiula-

gilt:

|a T '(y i - y ) | < I a T -(y^ - y) |

Wie im Zweigruppenfall läßt sich die Güte

deA VZikMMrUncutLon

durch den Pro-

zentsatz richtig klassifizierter (mittels der jeweiligen Diskriminanzfunktion) Objekte aus der Lernstichprobe messen; vgl. auch Abschnitt 4.4 und 5.

4.3

EIN

BEISPIEL

lab.3 enthält die ρ =4 Messungen von Länge und Breite der Kelch- und Blütenblätter von je n = n. = 50 Pflanzen der m = 3

Irisarten setosa, versicolor

und virginica;vgl. R.A. Fisher (1936): The use of multiple measurements in taxonomic problems, Ann. Eugen. 7, S.179-188. Betrachtet man die Daten aus Tab.3 als Lernstichprobe, so kann mittels der Diskriminanzanalyse eine beliebige Irispflanze einer der drei Arten zugeordnet werden. Als Kriterium für die Diskrimination sollen hier nur Länge and Bneite.

du

KilckbiatteA

herangezogen werden.

Kommen für die Klassifizierung nur die Arten iris setosa und versicolor in Frage (Zwilguuppiniall), so werden die Mittelwertvektoren durch y^ =(5.006,3.428) T

bzw.

y 2 = (5.936 ,2.770) T

i geschätzt. Der Schätzer für die gemeinsame Kovarianzmatrix der Populationen setosa und versicolor ist

248

Cab.3:

Kapitel IV: Multivariate Ein- und

L ä n g e ( L ) und B r e i t e ( B ) d e r Pflanzen dreier Irisarten

Iris

setosa τ y 1k

3 4 5 6 7

8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27

28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50

5 4 4 4 5 5 4 5 4 4 5 4 4 4 5 5 5 5 5 5 5 5 4 5 4 5 5 5 5 4 4 5 5 5 4 5 5 4 4 5 5 4 4 5 5 4 5 4 5 5

1 9 7 6 0 4 6 0 4 9 4 8 8 3 8 7 4 1 7 1 4 1

3 5 3 0 3 2

1 4 1 4 1 3

0 2 0 2 0 2

3 3 3 3 3 2 3 3 3 3 3 4 4 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 4 4 3 3 3 3 3 3 3 2 3 3 3 3 3 3 3 3

1 5 1 4 1 7 1 4 1 5 1 4 1 5 1 .5 1 .6 1 4 1 .1 1 2 1 .5 1 .3 1 4 1 7 1 5 1 7 1 3 1 0 1 7 1 9 1 6 1 6 1 5 1 .4 1 .6 1 .6 1 .5 1 .5 1 .4 1 .5 1 .2 1 .3 1 .4 1 .3 1 .5 1 .3 1 .3 1 .3 1 .6 1 .9 1 .4 1 .6 1 .4 1 .5 1 .4

0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

6 1 8 0 0 2 2 7 8 4 2 5 9 0 5 9 4 1 0 5 4 0 1 .8 1 6 .3 0

1 6 9 4 3 9 1 7 4 0 0 0 4 9 5 8 8 4 7 6 3 4 0 4 5 4 2 1 4 1 2 1 2 5 6 0 4 5 3 2 5 8 0 8 2 7 3

B1 U t e

L

L

2 2 4 3 2 2 1 2 2 1 1 2 4 4 3 3 3 2 4 2 5 2 2 4 2 2 2 2 4 1 2 2 2 2 1 2 2 3 3 2 6 4 3 2 2 2 2

7 0 6 4 6 9 5 5 6 5 5 7 6 3 4 9 6 6 5 2 5 0 5 9 6 0 6 1 5 6 6 7 5 6 5 8 6 2 5 6 5 9 6 1 6 3 6 1 6 4 6 6 6 8 6 7 6 0 5 7 5 5 5 5 5 8 6 0 5 .4 6 .0 6 7 6 .3 5 6 5 .5 5 5 6 1 5 8 5 0 5 6 5 .7 5 .7 6 2 5 1 5 .7

und B l ü t e n b l ä t t e r

versicolor Τ y 2k

Kelch

Β

L

Kelch-

Iris

B1 U t e

Kelch

1 2

Zweistichprobenprobleme

L 3 3 3 2 2 2 3 2 2 2 2 3 2 2 2 3 3 2 2 2 3 2 2 2 2 3 2 3 2 2 2 2 2 2 3 3 3 2 3 2 2 3 2 2 2 3 2 2 2 2

2 2 1 3 8 8 3 4 9 7 0 0 2 9 9 1 0 7 2 5 2 8 5 8 9 0 8 0 9 6 4 4 7 7 0 4 1 3 0 5 6 0 6 3 7 0 9 9 5 8

4 7 4 5 4 9 4 0 4 6 4 5 4 7 3 3 4 6 3 9 3 5 4 2 4 0 4 1 3 6 4 4 4 5 4 1 4 5 3 9 4 8 4 0 4 9 4 7 4 3 4 4 4 8 5 0 4 5 3 5 3 8 3 7 3 9 5 1 4 3 4 5 4 7 4 4 4 1 4 0 4 .4 4 6 4 0 3 3 4 2 4 .2 4 2 4 3 3 0 4 1 '

von j e

Iris

virginica Τ 3k

Kelch

BlUte

L 1 4 1 5 1 5 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

3 5 3 6 0 3 4 0 5 0 4 3 4 5 0 5 1 8 3 5 2 3 4 4 7 5 0 1 0 2 6 5 6 5 3 3 3 2 4 2 0 3 2 3 3 1 3

L

Β

6 3 5 8 7 1 6 6 7 4 7 6 7 6 6 6 5 5 6 6 7 7 6 ' 6 5 7 6 6 7 6 6 6 7 7 7 6 6 6 7 6 6 6 6 6 6 5 6 6 6 6 6 6 5

50

3 5 6 9 3 7 2 5 4 8 7 8 4 5 7 7 0 9 6 7 3 7 2 2 1 4 2 4 9 4 3 1 7 3 4 0 9 7 9 8 8 7 7 3 5 2 9

3 2 3 2 3 3 2 2 2 3 3 2 3 2 2 3 3 3 2 2 3 2 2 2 3 3 2 3 2 3 2 3 2 2 2 3 3 3 3 3 3 3 2 3 3 3 2 3 3 3

3 7 0 9 0 0 5 9 5 6 2 7 0 5 8 2 0 8 6 2 2 8 8 7 3 2 8 0 8 0 8 8 8 8 6 0 4 1 0 1 1 1 7 2 3 0 5 0 4 0

6 5 5 5 5 6 4 6 5 6 5 5 5 5 5 5 5 6 6 5 5 4 6 4 5 6 4 4 5 5 6 6 5 55 6 5 5 4 5 5 5 5 5 5 5 5 5 5 5

0 1 9 6 8 6 5 3 8 1 1 3 5 0 1 3 5 7 9 0 7 9 7 9 7 0 8 9 6 8 1 4 6 1 6 1 6 5 8 4 6 1 1 9 7 2 0 2 4 1

2 5 1 9 2 1 1 8 2 2 2 1 1 7 1 8 1 8 2 5 2 0 2 1 2 1 2 0 2 4 2 3 1 8 2 2 2 3 1 5 2 3 2 0 2 0 1 8 2 1 1 8 1 8 1 8 1 6 1 6 1 9 2 0 2 2 1 5 1 4 2 3 2 4 1 8 1 8 2 1 2 4 2 3 1 9 2 3 2 5 2 3 1 9 2 0 2 3 1 8

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

S =

:

T W

249

^ ( ( η , - D S , + (n 2 -1)S 2 )

98 (

5.9682

4.7628

12.7939

4.0915

4.7628

6.8992

4.0915

4.7285

18.7621

8.8543

8.8543

11.6277

Mittels dieser Schätzer ergibt sich wegen S' 1 =

' 8.153

-6.209'

-6.209

13.156

daß eine neue Irispflanze mit Länge y^ und Breite y 2 des Kelchblattes in die Population iris setosa eingeordnet wird, falls gilt: -11.673y 1 + 14.431y 2 + 19.141 > 0 und in die Art iris versicolor klassifiziert wird, falls gilt: -11.673y 1 + 14.431y 2 + 19.141 < 0

Die gleiche Entscheidungsregel lineare Diskriminanzfunktion

.

würde hier natürlich die generalisierte

liefern.

Kann eine neu hinzukommende Irispflanze auch noch der Art iris virginica angehören (VAIA.gnuppmialt), nica

so muß auch die Lernstichprobe für iris virgi-

aus Tab.3 zur Schätzung der Parameter herangezogen werden. Mit 6.588

[0.3963

0.0919

I0.0919

0.1019

und 2.974

ergibt sich der Schätzer für die gemeinsame Kovarianzmatrix { von Länge und Breite der Kelchblätter der drei Irisarten zu

S = y^feO

Weiterhin ergibt sich • 1SU

Wegen

3

0.2650

0.0927

0.0927

0.1154

+ 5 0 S 2 + 50 S 3 )

50

i=i k=1

5.843 1K

3.057

250

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

s-U

5.248

-4.216'

[-4.216

12.052j

wird bei der Verwendung der linearen Fisherschen Diskriminanzfunktion eine neue I r i s p f l a n z e mit Länge y^ und Breite y 2 des Kelchblattes dann wie f o l g t d i s k r i m i n i e r t . Mit '12

(y) = - 7.655y 1 + 11.851y 2 + 5.154

h 1 3 ( y ) =-10.216y 1 + 12.141y 2 +20.359

,

0.290y 2 + 15.210

1 2 3 ( y ) = - 2.562y^ gehört s i e zur Art i r i s setosa

, falls

h12(y) > 0

und

h,,(y) > 0 13

i r i s versicolor, falls

h^ 2 (y) < 0

und

h9,(y) > 0 23

i r i s virginica , falls

h^(y) < 0

und

h9,(y) < 0 23

Möchte man die g e n e r a l i s i e r t e lineare Diskriminanzfunktion zur D i s k r i m i nation zwischen den drei I r i s a r t e n verwenden, so benötigt man die Matrizen S g = (n-m)S = 147 S ;

38.96

13.63

13.63

16.96

und Sh= n

3 f 63.21 I n(y.-y)(y.-y)T = 1 1 i=1 -19.95

-19.95 11.35

Mit S " 1 =0.01· e

3.5706

-2.8696

-2.8696

8.2024

e r g i b t s i c h dann α a l s Eigenvektor zum größten Eigenwert Aq = 4.171 der Matrix S"1-S. e h

2.829

-1.038

-3.450

1.503

Wir können also z.B. α = ( 1 ,-1.293) wählen. Für eine neue I r i s p f l a n z e mit Beobachtungsvektor y = ( y ^ , y 2 ) T ergibt

251

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

s i c h somit 10tT-(y 1 - y ) I = | 0.5736 - a T * y | | a T - ( y 2 - y ) I = [2.3544 - ccT*y | k

T

-(y

3

-y)|

= 12.7426 - a T - y |

d.h. s i e w i r d , f a l l s -oo




geschlossen, wenn g i l t

^·ΡΡ,η-ρ-1;1-α

'

man vgl. hierzu auch Abschnitt 2.1. . Möchte man nun die Zahl deλ Men kmale neduzienw,

so wird man eine möglichst

geringe Verschlechterung des Trennmaßes in Kauf nehmen wollen. Hat man die Zahl q der Merkmale, die man berücksichtigen möchte, im Vorhinein festge2

legt, so kann man das Trennmaß Τ

für jede Auswahl von q aus ρ Merkmalen

berechnen und dann die Gruppe von q Merkmalen zur Diskrimination verwenden, für die das Trennmaß maximal i s t . Da S^ und

aber jedes Mal neu berech-

net werden müssen, i s t dies Verfahren sehr aufwendig, besonders wenn ρ groß ist. Eine andere Möglichkeit besteht darin, die ick>UXXweM>e Methode den. Unent-

253

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

anzuwenden, die auch dann geeignet i s t , wenn die Anzahl q zu

bihntA£.hkeÄt

berücksichtigender Merkmale nicht im Vorhinein festgelegt i s t . Man berechnet zunächst aus der Lernstichprobe den Schätzer S=

m=n"Se

= (s

jVj,JM

ρ

für die Kovarianzmatrix der ρ beobachteten Merkmale und deren Inverse S

1 = (t

jA)j,£=1

ρ

»

sowie die Matrix a = (y 1 - y , y 2 ~ y

V ^

Daraus ergibt sich dann die Matrix Β

-

5 _ 1

·

Α

·νΜ.....Ρ.1-1

»

·

Nun wird für jedes der ρ Merkmale die Unentbehrlichkeit IK für j=1

ρ

berechnet: m

1

2

Das Merkmal 1 mit der kleinsten Unentbehrlichkeit wird dann eliminiert und das Trennmaß für die verbleibenden p-1 Merkmale i s t Τ2(Υ1,...,Υ,.1,Υ£+1

Yp) = T 2 (Y 1

Yp)-u,

.

Möchte man noch ein Merkmal eliminieren, so bestimmt man den Schätzer für die Kovarianzmatrix der verbleibenden Merkmale S,,

. , „ ,

>

durch Streichen der Jl-ten Spalte und Jl-ten Zeile in der Matrix S und berechnet die dazu inverse Matrix S^j

^

j. Streicht man nun

noch die ϊ,-te Zeile der Matrix A, so erhält man eine Matrix A

(1,...,i-1,U1

p)

und

daraus

1,... ,£-1 ,ί,+ 1,... ,p)

=

dann

1,... ,£.-1 ,ί,+ 1,... ,p)

1,... ,8.-1 ,£+1

p)

Die Unentbehrlichkeit Uj , j = 1 , . . . , £ - 1 , . . . , p der verbleibenden p-1 Merkmale bestimmt man dann analog wie vorher aus diesen Matrizen, eliminiert das Merkmal mit minimaler Unentbehrlichkeit, erhält ein neues Trenn2 maß Τ

und wiederholt die Prozedur, wenn man noch ein Merkmal eliminieren

möchte, usw. 8 i l i p l z l : Im Beispiel der drei I r i s a r t e n , vgl. Tab.3, wollen wir zunächst das Trennmaß für a l l e ρ =4 Merkmale bestimmen. Man erhält hier mit

254

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

= rig = Mg = 50, d.h. η 150, und '5.006' 3.428 1.462 0.246j





y

2

=

'5.936 2.770 4.260 1.326j



y

'

3

=

6.588 2.974 5.552 2.026

und

y =

5.8431 3.057 3.758 1.199

zunächst

Vn

5

0

l (y. - y ) ( y1i - y ) T = 1 i=l

3 V

63.21 -19.95 165.26 71.28

50

A X i=1 k=1

(

yik-yi)(yik-y·!'

-19.95 11.35 -57.24 -22.93

38.96 13.63 24.26 5.64

165.26 -57.24 437.10 186.78

13.63 16.96 8.12 4.81

71.28 -22.93 186.78 80.41

24.62 8.12 27.22 6.27

5.64 4.81 6.27 6.16

und wegen

r-1

0.01·

7.3732 -3.6590 -6.1140 2.3295

-3.6590 9.6865 1.8163 -6.0623

-6.1140 1.8163 10.0572 -6.0571

2.3295 -6.0623 -6.0571 25.0000

dann

S. -S" h e

-3.053 1.079 -8.094 -3.452

1

T2(Y1

-5.565 2.180 -14.976 -6.311

8.076 -2.942 21.503 9.140

10.492 -3.418 27.539 11.840

Y 4 ) = tr(S h -Sg 1 ) = -3.053 + 2.180 +21 .503 + 11.840 = 32.470

und mit, vgl. Abschnitt 1.3 in Kap. III, θ = min(p,m-1) = 2, u =

| p-m+11 -1)

und ν = ^-(n-m-p-1) = 71, ergibt sich das Trennmaß als signifikant zum 5% Niveau : T 2 ( V r . . . ,Y 4 ) = 32.470 > 0.146 = 0.056-2.60

_ 6 2 (2u+6+1) ρ 2(θ ν + υ

0(2u+9+1) ,2(θν+1) ;0.95

~cHL;0.95(p'n_m,m~1) Nun wollen wir zwei entbehrliche Merkmale eliminieren. Es ist

S =

S

S

n-m' e"W' e

und S" 1 = 147 S" 1 . e

:

0.265 0.093 0.167 0.038

0.093 0.115 0.055 0.033

0.167 0.055 0.185 0.043

0.038 0.033 0.043 0.042

·

255

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

Weiter

ist

A=(y,

-0.837 0.371 -2.296 -0.953

-y,y2 -y.y3 -y)

0.093 -0.287 0.502 0.127

0.745 -0.083 1.794 0.827

und somit

1

ι = S~ -A :

6.305 12.147 -16.946 -20.752

-1.525 -4.378 4.689 3.074

-4.771 -7.769 12.242 17.709

Hieraus ergeben s i c h nun d i e U n e n t b e h r l i c h k e i t e n der 4 Merkmale Länne und B r e i t e von K e l c h - und B1 l i t e n b l ä t t e r n zu U

1

=

147-10.839(6·3052 *

U 2 = 5.424

1

·5252

U 3 = 10.561 und

+ 4

· 7 7 1 2 ) = 2.035

,

U 4 = 6.976

Damit i s t das e r s t e zu e l i m i n i e r e n d e Merkmal das Merkmal 1 (Länpe des Kelchblattes). Das Trennmaß der 3 verbleibenden Merkmale

ist

T 2 ( Y 2 > Y 3 , Y 4 ) = T 2 ( Y 1 > Y 2 > Y 3 , Y 4 ) - U 1 = 32.470 - 2.035 = 30.435

.

Wegen r

HL ;0.95

Μ

147

~ e 2 (2u+e+1) .ph ~ 2(θν+1) e(2u+9+1),2(θν+1);0.95 = 0.0417-2.10 = 0.088

(mit θ = 2, u = 0 und ν = 71.5) i s t das Trennmaß auch f ü r d i e Merkmale 2 , 3 und 4 s i g n i f i k a n t zum 5% Niveau. Nun müssen w i r das zweite zu e l i m i n i e r e n d e Merkmal bestimmen. M i t S, (2,3,4)

0.115 0.055 0.033

c-1 (2,3,4)

11.644 -1.752 -7.355

0.055 0.185 0.043

0.033 0.043 0.042

wi rd

weiter

ist

-1.752 7.357 -6.156

-7.355 -6.156 35.891

256

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

0.371 -2.296 -0.953

(2,3,4)

-0.287 0.502 0.127

-0.083 1.794 0.827

und somit

B

(2,3,4)

=S

A

(2,3,4)" (2,3,4)

15.352 -11.675 -22.799

-5.152 3.414 3.579

-10.192 8.253 19.248

Die Unentbehrlichkeiten der 3 verbleibenden Merkmale ergeben sich nun zu U

2

=

147-11 6 4 4 ( 1 5 - 3 5 2 2 + 5.152 2 - M 0 . 1 9 2 2 ) = 10.694

Uj = 9.990 und

,

U 4 =8.559

so daß das Merkmal 4 (Breite des Blütenblattes) eliminiert wird. Wir haben nun die beiden Merkmale, aufgrund derer wir diskriminieren wollen, gefunden. Das Trennmaß dieser Diskrimination ist wegen T 2 ( Y 2 , Y 3 ) = T 2 ( Y 2 , Y 3 , Y 4 ) - U 4 = 30.435 - 8.559 = 21.876 > 0.0828 - 0.0276-3.0 =aC (mit θ = 2, u =

HL ;0

^

^

,

, 2 ( θ ν + 1 ) ;0.95

_ 9 5 (2,147,2)

v = 72) zum 5% Niveau auch noch signifikant.

Im Beispiel aus Abschnitt 4.3 haben wir aufgrund der Merkmale Y^ und Y 2 diskriminiert, was, wie sich hier herausstellt, nicht optimal war. Das dort erreichte Trennmaß war lediglich Τ ( Y r Y 2 ) = 4.363

.

Für die verbleibenden Merkmale wollen wir nun einmal die lineare Fishersche Diskriminanzfunktion bestimmen. Es ist S

(2,3)

S

(2,3)

=

0.115

0.055

0.055

0.185

und somit ( = S

1) =

10.137

-3.014

-3.014

6.301

Weiter ergibt sich (für die Merkmale 2 und 3) (yry2) =

0.658 -2.798

,

( y , - y 2 ) T - S " 1 = (15.103,-19.613)

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

(y,-y3) =

(y2-y3) =

0.454

257

(y, - y 3 ) T - S " 1 =(16.929,-27139)

-4.090 -0.204

( y 2 - y 3 ) T - S " 1 =(1.826,-7.526)

-1.292

so daß h 1 2 ( y ) = 15.103y 2 -19.613y 3 +9.309

,

h 1 3 ( y ) = 16.929y 2 - 27.139y 3 +40.987

und

h 2 3 ( y ) = 1.826y 2 - 7.526y 3 + 31.678 i s t . Bezeichnet also y = ( y 2 > y 3 )

den Beobachtungsvektor für die Breite des

Kelchblattes und die Länge des Blütenblattes einer neuen Irispflanze unbekannter Art, so wird sie der Art setosa zugeordnet, f a l l s h^ 2 (y) > 0 und h^ 3 (y) > 0

,

versicolor zugeordnet, f a l l s h^ 2 (y) < 0 und h 2 3 ( y ) > 0 und virginica zugeordnet, f a l l s h 1 3 ( y ) < 0 und h 2 3 ( y ) < 0 Beobachtet man also zum Beispiel eine Irispflanze mit y =(3.271,4.765) T

,

so ergibt sich h 1 2 ( y ) = 15.103-3.271 - 19.613-4.765 + 9.309 = -34.745 h 1 3 ( y ) =-32.956 und h 2 3 ( y ) = 1.789

,

J

d.h. die Pflanze wird der Art I r i s versicolor zuneordnet.

Ausgehend von der gmeAatli-Le/itzn die ΜeXhodt άζΛ Kovielcution

lineaAzn

kann auch

Vi^knJjnina.nziu.nktlon

mit dieser Funktion a l s Anhaltspunkt für die

Reduktion von Merkmalen verwandt werden. Möchte man die Anzahl ρ von Merkmalen Y^,...,Yp auf die q wichtigsten reduzieren, so schätzt man für £=1,...,p die Korrelation p v

7

'(/

des Merkmals Y„ mit Ζ = α,Υ, + . . . + α Y *

11

und

ρ ρ

eliminiert die p - q Merkmale mit der betragsmäßig geringsten Korrelation. Ausgehend von einer Lernstichprobe von Objekten kann dabei ρ γ werden durch r

Y5Z

= U

* /

geschätzt

für 4=1....,p

I s t et ein Eigenvektor zum größten Eicienwert der Matrix bei

z

^

so i s t hier-

258

Kapitel IV: Multivariate Ein- und

u

u = (u^

p)T

=

Se"a

Zweistichprobenprobleme

w = aT*u

>

und für £=1,...,p bezeichnet trix S . e

^

,

das Jl-te Hauptdiagonal element der Ma-

Beispiele zu dieser Methode werden wir im nachfolgenden Abschnitt 5 und im Abschnitt

2.1 des Kap.V kennenlernen. Diese Vorgehensweise läßt sich na-

türlich ebenfalls schrittweise durchführen. Nach Elimination eines Merkmals gemäß obigen Kriteriums wird die gesamte Prozedur mit den

verbleibenden

Merkmalen wiederholt und dann das nächste Merkmal eliminiert, usw.

5 EIN ZUSAMMENFASSENDES

BEISPIEL

Ober ein Jahr hinweg wurden in η = 15 Gaststätten der vierteljährliche

Pils-

Absatz (in hl) ermittelt; die je vier Quartalsabsätze wollen wir hier als die interessierenden Merkmale interpretieren. Die entsprechenden Daten, die in Cab.4 zusammengestellt sind, verdanken wir der Privatbrauerei

Thier,

Dortmund.

Cab.4: P i l s - A b s a t z (in hl) von η = 15 Gaststätten in ρ = 4

Gaststätte i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

Quartal 1

Quartal 2 *i2

75 57 16 61 71 11 79 97 89 57 113 78 151 111 55

30 00 50 20 00 25 00 60 50 00 50 00 00 00 30

68 58 21 67 80 15 53 85 84 54 101 68 149 142 61

00 00 60 20 75 50 00 70 00 00 20 00 00 00 00

Quartal *ί3 51 51 12 43 60 19 41 80 68 44 143 84 161 143 38

50 00 80 30 00 25 30 10 90 00 90 00 00 10 00

3

Quartalen

Quartal 4 y

i4

72 50 16 65 89 6 87 102 96 63 119 79 159 160 63

80 00 00 50 00 00 00 40 30 50 40 00 00 10 00

Wir schätzen nun zunächst Erwartungswert μ und Kovarianzmatrix $ der vier Merkmale in der Grundgesamtheit der Gaststätten aus den Daten der Tab.4. Hier ergeben sich die Schätzer

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

74.943 73.930 69.477 81.933

(1287.850 1233.346 1496.901 1497.847

und

1233.346 1344.534 1561.575 1546.151

1496.901 1561.575 2090.534 1811.010

1497.847 1546.151 1811.010 1881.994

so daß d i e Hypothese

Ho:

μ:

80 80 80 80

u

gegen

Η

Γ

μ

80 J 80 Π80 80

über den E r w a r t u n g s w e r t v e k t o r μ b e i Annahme e i n e r u n b e k a n n t e n trix

Kovarianzmap zum 5% N i v e a u v e r w o r f e n werden muß, denn f ü r d i e H o t e l 1 i n g s c h e Τ -

Statistik ergibt sich mit S-1

10"3

=

11.697 1.792 -2.248 -8.618

1.792 17.321 -3.958 -11.847

-2.248 -3.958 4.073 1.122

-8.618 -11.847 1.122 16.045

dann T2 = n ( y - y J T - S " 1 · ( y 15(-5.057,-6.070,-10.523,1.933)-S

-1

-5.057 -6.070 -10.523 1.933

= 18.214 > 17.090 = 1 1 . 3 . 3 5 7 11

15-4

,, . 0 , = £ i n i Ü . F 4,11 ; 0.95 n-p ρ,η-ρ;1-α

Damit i s t a l s o d e r E r w a r t u n g s w e r t v e k t o r μ i n d e r G r u n d g e s a m t h e i t d e r G a s t s t ä t t e n zum 5% N i v e a u s i g n i f i k a n t von μ * = ( 8 0 , 8 0 , 8 0 , 8 0 ) T

verschieden.

T e s t e n w i r w e i t e r h i n d i e Hypothese Η·. ί = 2000-1,

gegen

H,|: ί ?ί 2000·

daß d i e Merkmale i n d e r G r u n d g e s a m t h e i t u n k o r r e l i e r t m i t V a r i a n z 2000 s i n d , zum 5% N i v e a u , so z e i g t s i c h , daß auch h i e r e i n e s i g n i f i k a n t e Abweichung von d e r Hypothese v o r h a n d e n i s t .

Es i s t

nämlich

L = ( n - 1 ) ( I n d e t i Q - I n d e t S + t r ( S · ^ 1 ) - p) = 1 4 ( I n 2000 4 - I n 3 . 2 8 2 9 1 8 9 1 • 10 9 + 3.302456 - 4) = 1 4 · 7 . 7 9 4 0 6 7 0 6 0 = 109.117 und s o m i t =(

1

- ^ (

2

P

+ 1

- F T ) >

L

= (

1

- 6 A T (

2

-

4

+ 1

- 4 ! T ) ) · 1 0 9 · 117

259

260

Kapitel IV: Multivariate Ein- und

Zweistichprobenprobleme

• 97.945 > 18.31 - X i 0 ; 0 . 9 5 ~ x 4 - 5 / 2 ; 0 . 9 5 ~ x p ( p + 1 ) / 2 ; 1 - c t

'

Auch die diesen beiden Einzelhypothesen über μ und ί entsprechende simultane Hypothese

Ho: μ:

und $ = 2000·I 4

gegen

H1: μ t

oder ί ?* 2000·Ι 4

muß dann natürlich zum 5% Niveau verworfen w e r d e n , denn es ist χ 2 = 1 η η -1 - n - l n d e t ( S - ^ 1 ) + t r ( S · ^ ) " 1 - 2 n ( y - μ * ) Τ · ^ 1 · ( 7 - μ*) = In 15 -1 - 15-1 η — U r - 3 . 2 8 2 9 1 8 9 1 · 10 9 + 3.302456 - 2-1.327 2000 = 129.731 > 2 3

·68

=x

14;0.95

= χ

4+4·5/2;0.95



ρ+ρ(ρ+1)/2;1-α

'

Bisher haben wir Uber den Erwartungswert μ in der Grundgesamtheit getestet, ob die Erwartungswerte μ^,.,.,μ^ in den Quartalen alle gleich und alle gleich 80 sind. Will man nun lediglich die Gleichheit von μ^,.,.,μ^

testen,

so muß der S y m m i f U ^ t u t verwandt werden. Um zum 5% Niveau die Hypothese H o : μ, = μ

2 "μ3

= μ

4

testen zu können, müssen wir zunächst die transformierten

Beobachtungsgrös-

sen ζ.. = y . . - y . ij 'iJ ip

für i=1,...,n und j=1,...,p-1

bestimmen, vgl. iah.5.

Aus der Tab.5 berechnen sich dann der Mittelwertvektor ζ und die Kovarianzmatrix S dieser transformierten Daten zu -6.990 -8.003 -12.457

174.149 71.342 70.030

und

so daß sich wegen 7.448 S" 1 = 10~ 3 · -3.567 -0.609

-3.567 10.563 -1.891

die hier adäquate Hotellingsche Τ

-0.609 -1.891 3.441

- Statistik zu

71.342 134.226 86.399

70.030 86.399 350.480

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

261

tab.5: Transformierte Beobachtungen z^. für den Symmetrietest Gaststätte i

z

i1

2 50 7 00 0 50 -4 30 -18 00 5 25 -8 00 - 4 80 -6 80 -6 50 -5 90 -1 00 -8 00 -49 10 -7 70

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

z

z

i2

-4 80 8 00 5.60 1 70 -8 25 9 50 -34 00 -16 70 -12 30 -9 50 -18 20 -11 00 -10 00 -18 10 -2 00

i3

-21.30 1.00 -3.20 -22.20 -29.00 13.25 -45.70 -22.30 -27.40 -19.50 24 .50 5.00 2.00 -17.00 -25.00

T 2 = n - z T - S " 1 - z = 15-0.6922 = 10.383 ergibt. Da nun gilt T 2 = 10.383 * 12.212 = « . 3 . 4 9 0 = « . F 3 > 1 2 ; 0 i 9 5 . (p-1)(n-1). F n-p+1 p-1,η-ρ+1;1-a

'

kann die Hypothese H q zum S% Niveau nicht verworfen werden, d.h. die erwarteten Absätze in 4 Quartalen sind in der Grundgesamtheit der Gaststätten zu diesem Niveau nicht signifikant verschieden. Zum Problem zweier v&ibundmeA StLchpiobm wenn man die Quartalsabsätze

gelangt man in unserem Beispiel,

im 1. und 2. Halbjahr vergleichen will. Man

faßt dann die Beobachtungen im 1. und 2. Quartal als eine und die Beobachtungen im 3. und 4. Quartal als die andere Stichprobe auf; in diesem Fall ist die Anzahl ρ der Merkmale natürlich nur noch zwei statt vier. Zum Testen von Ho:

μ (1)

= U(2)

gegen

muß man zunächst Mittelwertvektor und Kovarianzmatrix der Beobachtungsreihen y ^ ^ ü - y ^

und

y(i2)=yi2-y14

bestimmen. Es ergibt sich hier aus den Daten der Tab.4

.1=1

15

262

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

y ( 1 ) = 5.467

w(2) y " ' = -8.003

und a l s empirische Kovarianzmatrix der beiden Reihen S =

'384.570

-15.057]

-15.057

134.226

d.h. S"1 = 10~4·

26.118

2.930

2.930

74.830

Damit i s t der Wert der Hotel 1 ingschen Τ - S t a t i s t i k gegeben als τ2

= 7.979 [y(2)

und die Hypothese H q kann zum 5% Niveau nicht verworfen werden, da g i l t T2 = 7.979 f 8.198 =Ι|·3.806 = I | - F , , , . n Q c = p ( " " 1 ) - F n n n . , 13 13 2,13;0.95 n-p p,n-p;1-a

Wir wissen, daß die 15 Gaststätten in unserer Stichprobe zwei verschiedenen Gastronomie - Typen (z.B. Fast - Food - Gastronomie, Bier - Gastronomie, Speise - Gastronomie) angehören; und zwar gehören die Gaststätten 1 b-ü, 6 zum Τιjp I , die Gaststätten 7 b-iA 15 zum Typ I I . Dies wollen wir im folgenden insofern berücksichtigen, als daß wir zum Problem zweier Stic.hp'wbe.n

unveAbund&M/i

mit n^ = 6 und n^ - 9 übergehen.

Als Schätzer f ü r die Erwartungswerte μ

(1)

(21 und μν ' des Absatzes in den 4

Quartalen und für die entsprechenden Kovarianzmatrizen ^ und ^

i " den

beiden Grundgesamtheiten (Gastronomietypen I und II) ergeben sich zunächst für den Typ I 48.708 51.842 Vi = 39.642 49.883 und für den Typ

y? =

773.905 730.469 507.475 882.547

730.469 721.131 491.778 872.229

507.475 491.778 366.723 586.176

882.547 872.229 586.176 1074.642

II

92.433' 88.656 89.367 103.300

9

V C

_

909 977 1324 1018

702 395 003 566

977 1292 1601 1275

395 244 583 610

1324 1601 2316 1607

Unter der Annahme gleicher Kovarianzmatrizen ^ = ^ =t

in

003 583 573 610

1018.566' 1275.610 1607.610 1337.758

den beiden Grund-

gesamtheiten wollen wir nun zunächst zum 5% Niveau die Hypothese der Gleichheit der Erwartungswerte in den beiden Grundgesamtheiten testen:

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

H0:u(1W2)

gegen

Hi

263

:u(1W2)

Dazu berechnen wir zunächst die gemeinsame Stichprobenkovarianzmatrix S = (5 S, + 8 S 2 )/13 deren Inverse durch

S " 1 = 10~ 3 ·

10.877 1.315 -2.031 -7.697

1.315 23.613 -4.897 -17.613

-2.031 -4.897 3.980 2.114

-7.697 -17.613 2.114 20.706

gegeben i s t . Da nun g i l t = ^n

1+n2

>18.086

(y, - y 9 ) T - S _ l - ( y 1 - y 7 ) =|^|·5.197 = 18.709 52 TU"3·478

52 TtT*F4,10 ;0.95

n^+ng-2 ρ

" η ^ η ρ ρ Ρ Γ Ρ ρ , η 1 + η 2 - ρ - 1 ; 1-α '

muß die Hypothese zu diesem Niveau verworfen werden, d.h. die Unterschiede in den mittleren Absätzen sind bei den Gastronomie - Typen I und I I zum 5% Niveau s i g n i f i k a n t . Daß die Annahme gleicher Kovarianzmatrizen ^

und ^

bei den Typen I und

I I im obigen Test nicht ganz u n r e a l i s t i s c h war, zeigt s i c h beim Testen der Hypothese Ho: t , = $ 2

gegen

H^ ^ t%2

.

Diese Hypothese kann zum 5% Niveau nicht verworfen werden, denn mit 2

c =1

2P +3p - 1 ( 1 + 1 6(p+1)(k-1) V n i n 2 " 1

_ _ 1 _ J \ n i~1+n2_1'

2-16+3-4-1 / 1 1 6(4+1 )(2-1) V 6 ^ T " 9 ^ T " 43 1 - ^ - 0 . 2 4 8 = 0.645 ergibt sich χ 2 = c ( ( n 1 + n 2 - 2 ) - l n d e t S - (η,-1 )·1η det S 1 - ( n 2 - 1 ) - l n d e t S 2 ) = 0.645((6+9-2)·1η 1.80939964-10 9 - 5·1η 1 .212757200·10 7 -8-1 η 3.47271 1980- 109 ] = 12.778 *

18-31 = χ

10 ;0.95

=x

p(p+1)(k-1)/2;1-a

264

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

die Kovarianzmatrizen können a l s o nicht a l s s i g n i f i k a n t (zum 5% Niveau) verschieden nachgewiesen werden. Im Abschnitt 4 dieses Kapitels wurde s c h l i e ß l i c h noch das Problem der D i s kriminanzanalyse angesprochen. Daher wollen wir hier ausgehend von den Daten aus Tab.4 noch eine OiikHAJtUncMz^anktion bestimmen, die es erlaubt zwischen den beiden Typen I und I I von Gaststätten zu d i s k r i m i n i e r e n , d.h. eine Gaststätte einem dieser Typen zuzuordnen. Benutzen wir - wie beim Problem zweier unverbundener Stichproben - , daß die Gaststätten 1 bis 6 in Tab.4 zum Typ I und die Gaststätten 7 b i s 15 zum Typ I I gehören, so läßt sich die Diskriminanzfunktion für diesen Zweigruppenfall unter Verwendung der Mittelwertvektoren y^ und y^ für die b e i den Typen sowie der gemeinsamen Kovarianzmatrix S der beiden Stichproben bestimmen. Diese Größen sowie die Inverse S ^ der Kovarianzmatrix haben wir schon im Zusammenhang mit dem Zweistichprobenproblem (unverbundene) bestimmt, so daß sich mit -43.725 -36.814 -49.725 -53.417

und

y1 +y2 :

141.1411 140.498 129.009 153.183

d.h. (y, - y 2 ) T - s " 1

[-0.0119,0.2575,-0.0417,-0.2262)

und (y 1 - y 2 ) T - S " 1 - ( y 1 + y 2 ) =-5.5310 nun ausgehend von der linearen Fisherschen Diskriminanzfunktion folgende Entscheidungsregel ergibt: I s t f ü r eine Gaststätte der Beobachtungsvektor der v i e r Quartalsabstände a l s y gegeben, so wird die Gaststätte dem Typ I zugeordnet, f a l l s

gilt

(y"i - y 2 ) T - s ~ 1 - y - ; r ( y l - y 2 ) T - s " 1 · ( y , + y 2 ) = (-0.0119,0.2575.-0.0417,-0.2262)y +2.7655 > 0 und sie wird in a l l e n anderen Fällen dem Gaststätten - Typ I I zugeordnet, bzw. im F a l l e , daß die Diskriminanzfunktion den Wert 0 annimmt, i s t die Zuordnung w i l l k ü r l i c h und kann daher auch unterbleiben. Um die Güte dieser Diskriminanzfunktion zu überprüfen, wollen wir hier

265

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

einmal den Prozentsatz mit ihr richtig klassifizierter Gaststätten aus der Lernstichprobe überprüfen, d.h. wir bestimmen den Wert der Diskriminanzfunktion für die η = 15 BeobachtungsVektoren

y=yi

=(

yii>yi2»yi3'yi4)T

aus Tab.4 und vergleichen die Zuordnung mit der wahren Typ - Zugehörigkeit vgl. tab.6. Cab.6: Zuordnung und wahre Zugehörigkeit der 15 Gaststätten, vgl. Tab.4, zu den Gaststätten - Typen I und II

Gaststätte i

(-0.0119,0.2575,-0.0417,- 0.2262)y i +2.7655

0 3 3 2 0 4 -5 -2 -1 -0 -5 -2 -3 -4 1

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

7654 5855 9782 7195 0799 4630 9287 8312 3257 2063 5351 0253 3434 1723 9797

Zuordnung

wahre Zugehörigkeit

I I I I I I II II II II II II II II I

I I I I I I II II II II II II II II II

Wir sehen, daß nur die Gaststätte 15 fälschlicherweise dem Typ I zugeordnet wurde; alle übrigen Gaststätten wurden richtig diskriminiert. Damit ist der Prozentsatz richtig klassifizierter Gaststätten hier mit •]£= 0.9333 = 93.33% sehr hoch.

Wir wollen nun noch eine "neue" Gaststätte, deren Typ - Zugehörigkeit wir nicht kennen, diskriminieren. Dazu verwenden wir die P i l s - A b s ä t z e in den vier Quartalen eines Jahres, die im Beobachtungsvektor y = (63.25,57.00,75.50,77.20) T zusammengefaßt sind. Setzt man diesen Vektor y in die Diskriminanzfunktion ein, so ergibt sich

266

Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme

(-0.0119,0.2575,-0.0417,-0.2262)y + 2.7655 = -6.6862 +2.7655 = -3.9207 < 0

,

d.h. diese neue Gaststätte wird dem Typ I I zugeordnet. Die gleichen Diskriminationsergebnisse ergeben sich unter Verwendung der generalisierten linearen Diskriminanzfunktion, bei der in diesem Beispiel der Vektor α n a t ü r l i c h gegeben i s t durch α = S _ 1 (y 1 - y 2 ) = (-0.01 19,0.2575,-0.0417,-0.2262) T

.

Wir v/ollen nun zunächst mit H i l f e der Methode der Unentbehrl i c h k e i t aus Abschnitt 4.3 noch das beste Quartalspaar eines Jahres zur Diskrimination zwischen den Gaststättentypen I und I I bestimmen. In diesem Zweigruppenfall e r g i b t sich das TAznnmaß f ü r ρ =4 Quartalswerte zunächst zu Τ ^ Υ , , . , . , ν ^ - - j f ^ j i y , - y 2 ) T - S " 1 ( y 1 - y 2 ) = - ^ - 5 . 1 9 7 = 1.4392 es i s t s i g n i f i k a n t zum 5% Niveau, denn T 2 ( V 1 , . . . , Y 4 ) = 1.4392 > 1-3912 = ^ - 3 . 4 7 8 = A * F 4 , 1 0 ; 0 . 9 5

'

Um ein erstes Merkmal eliminieren zu können, benötigen wir die Matrix Β = S~ 1 -A, wobei -26.235 -22.088 A = (y 1 - y , y 2 - y ) = -29.835 -32.050

17.490 14.726 19.890 21.367

Es e r g i b t sich wegen

; = S" 1 -A = 10~3·

-7.120 154.536 -25.049 -135.732

4.745] -103.014 16.697 90.483

f ü r die Un^^Ube.lιfU•iclιk^

V

=

des Merkmals üj mit der Kriteriumsvariablen J

1 2

< ά

+

Λ 4

( η

+

^)2

^

+

Λ

π 4 -

15. f 1 2

1

)

+

= 1

12

+

32

·7142857

42

+

'

+

12

22

Λ

Kapitel V: Skalierung qualitativer Daten

c

/ 2 3 (η' Γ \ = 12'( l l - 1 \ = 0.0685714 M = 1 k=1 n i π ^ '

299

und

3 ( 2 ("it'2 \ X | = 12-( I I — - 1 ) = 2.88 J M = 1 k=1 n i n J k '

ergibt

sich C1 = /

12 + x^) = \ l 1 .7142857/( 12 + 1 .7142857) = 0.3535534

C 2 = 0.0753778

und

C 3 = 0.4399413

,

.

Die Pearsonschen K o n t i n g e n z k o e f f i z i e n t e n C^, C^, C^ l i e f e r n somit einen A n h a l t s p u n k t d a f ü r , daß das Merkmal F a m i l i e n s t a n d (y^) kaum etwas zur D i s k r i m i n a t i o n zwischen den Stufen des Einkommens b e i t r ä g t . Die K o r r e l a t i o n e n rγ

s i n d f ü r j = 1 , 2 , 3 gerade d i e Quadratwurzeln aus den

größten Eigenwerten λ ^ rv rv

der M a t r i z e n Q ^ , d i e wir schon bestimmt hatten:

= \ l ü. 1428571 = 0.3779645 ,

rv

T

1

= V 0.0057143 = 0.0755929 und 2

= \ T D 7 Z i = 0.4898979 3

Die kanonischen K o r r e l a t i o n e n b e s t ä t i g e n a l s o den aus den Pearsonschen

Kon-

t i n g e n z k o e f f i z i e n t e n gewonnenen A n h a l t s p u n k t , daß y,, im Gegensatz zu y^ und y 3 kaum etwas zur U n t e r s c h e i d b a r k e i t der Einkommensstufen

beiträgt.

Die Roy - T e s t s auf s i g n i f i k a n t e Unterschiede zwischen den Einkommensstufen b z g l . des Merkmals y^. f ü r j = 1 , 2 , 3 l i e f e r n zum 5% Niveau keine

signifikanten

Unterschiede b z g l . a l l e r drei Merkmale, denn f ü r j = 1 , 2 , 3 i s t , v g l . Anhang, c

R;0.95i2-10'1) =I'F2,9;0.95

1

(1 +

I ' P 2 , 9 ;0.9S 5 = 0 " 4 8 6

>

V

Um nun e n d g ü l t i g f e s t z u l e g e n , welche der d r e i Merkmale in d i e weiteren Anal y s e n einbezogen werden s o l l e n , wollen wir die K o r r e l a t i o n e n zwischen der generalisierten linearen z

=V i

+

V

2

+

Diskriminanzfunktion V

3

und jedem der d r e i Merkmale schätzen. Dazu müssen zunächst d i e Gewichte γ ^ , y 2 und γ 3 berechnet werden, v g l . A b s c h n i t t 4 in K a p . I V . Aus der s k a l i e r t e n Datenmatrix Y, v g l . Tab.10, e r g i b t

sich

Kapitel V: Skalierung qualitativer Daten

300

2

V

"i

10.285714 0.137143 1.073951

I

i . 1=1 k=1

0.137143 11.931429 0.851755

1.073951 0.851755 9.120000

d.h. 0.0984336 -0.0003060 -0.0115627

r-1

-0.0003060 0.0843758 -0.0078442

-0.0115627 -0.0078442 0.1117433

und mit 0.4472135 0.0894427 0.5796550

.

-0 3194384' -0 0638877 y? c = -0 4140394

ergibt sich wegen r = 2 0.0639276 0.0049080 0.1009714

TT = s"1,77 (y! - y 2 )

γ =

Bestimmt man nun den Vektor " =V Y

--1/ = se.se ( y 1 - y 2 ) = y 1 - y 2 :

0.7666519 0.1533304 0.9936944

so erhält man w = Y « u = 0. 1500975

,

und es ergibt sich ZY rzy

; 0.7666519/\/ 0. 1500975· 10.285714 = 0.6170129 = 0.1 14576436 ,

rzy

= 0.8493148

,

.

Das Merkmal y 3 trägt somit am meisten, das Merkmal y^ auch noch recht viel und das Merkmal

kaum etwas zur Diskrimination zwischen den Stufen der

Kriteriumsvariablen bei. Insgesamt werden hier die Ergebnisse aufgrund der Pearsonschen Kontingenzkoeffizienten C. und der Korrelationen r y J

bestätigt. j

Da das Merkmal y2 kaum einen Beitrag leistet, wollen wir es in den Ausführungen der Beispiele zu den folgenden Abschnitten eliminieren und gehen daher von der reduzierten Datenmatrix Y* in lab.11, in der nur die q = 2 Merkmale y^ und y 3 (Alter, politische Einstellung) berücksichtigt worden sind, aus.

2.2

METHODEN

DER

GÜTEPRÜFUNG

EINER

Es ist möglich, daß die Skalierung von Merkmalen

J

SKALIERUNG

gegen eine Kri-

teriumsvariable X auf l Stufen, die ja so erfolgte, daß eine möglichst gute Diskrimination zwischen den ι Stufen möglich ist, nicht ausreichend ist, um

Kapitel V: Skalierung qualitativer Daten

301

i a b . l l : S k a l i e r t e auf die Merkmale y . und 9 - reduzierte Datenmatrix Y* Merkmal

Y* =

»T = «i

«2

= ö

3

0 4472135 0 9838698 - 1 1627554 0 9838698 0 9838698

1 -0 -0 1 1

3801311 3450330 8970852 3801311 3801311

-1 0 -1 0

1 -0 -0 -0 -0 -0 -0

3801311 8970852 8970852 3450330 3450330 8970852 8970852

-1 0

1627554 4472135 1627554 9838698 1627554 9838698 1627554

X

1

2

eine K r i t e r i u m s v a r i a b l e hinreichend zu beschreiben. Das kann zum einen daran l i e g e n , daß die Lernstichprobe, aufgrund derer die S k a l i e r u n g der Merkmale

vorgenommen wurde, zu k l e i n i s t , zum anderen auch daran,

daß die Merkmale

n i c h t ausreichen, um die K r i t e r i u m s v a r i a b l e zu

erklären. Im ersten Fall wird man das Skalierungsverfahren mit e i n e r g r ö s seren Lernstichprobe wiederholen, man wird a l s o die Anzahl η der Objekte erhöhen; im zweiten Fall

i s t zu überlegen, welche z u s ä t z l i c h e n Merkmale an

den Objekten der Lernstichprobe beobachtet werden müssen. Für die Gütip/iäiang e i n e r s k a l i e r t e n Datenmatrix Y oder einer

reduzierten

s k a l i e r t e n Datenmatrix Y* stehen verschiedene Verfahren zur Auswahl, die entweder von Diskriminanzfunktionen, v g l . Abschnitt 4 in Kap.IV, oder von Mahalanobisdistanzen, v g l . Abschnitt 6 in K a p . I , ausgehen. Eine weitere M ö g l i c h k e i t besteht d a r i n , ausgehend von der s k a l i e r t e n Datenmatrix Y f ü r η Objekte (bzw. einer zugehörigen Distanzmatrix D, v g l . Abschnitt 6 in Kap.I) ein Verfahren der C l u s t e r a n a l y s e zur Güteprüfung zu verwenden. Hat man auch für die l Stufen der K r i t e r i u m s v a r i a b l e n Skalenwerte bestimmt, so kann die Güteprüfung (und die K l a s s i f i k a t i o n neuer Objetke, v g l . Abs c h n i t t 2.3) einer Skalierung auch m i t t e l s Regressionsfunktionen

erfolgen;

man v g l . hierzu auch Abschnitt 4 . 3 .

2.2.1

DIE GOTEPROFUNG MITTELS DISKRIMINANZFUNKTIONEN

Unter Verwendung der s k a l i e r t e n (reduzierten) Datenmatrix Y bzw. Y* f ü r

302

Kapitel V: Skalierung qualitativer Daten

die η Objekte der Lernstichprobe lassen sich z.B. die F i i k & u c h z ΙίηζαΛί oder die GzmAatiiX.eAte.

OLikJuminauz^anivtLon

LLnexviz

VLik>Ujnina.n ζ

Funktion

vgl. Abschnitt 4 in Kap.IV, für die Stufen der Kriteriumsvariablen X bestimmen. Berechnet man dann die Werte einer Diskriminanzfunktion für jedes der η Objekte der Lernstichprobe, deren Stufenzugehörigkeiten man ja bereits kennt, so kann man den prozentualen Anteil der mittels Diskriminanzfunktion richtig klassifizierter Objekte auf jeder Stufe der Kriteriumsvariablen bestimmen. Sind diese Anteile "groß", so kann man auf eine recht hohe Güte der Skalierung schließen. BzAAplel: Wir kehren hier zurück zur reduzierten skalierten Datenmatrix Y* aus dem Beispiel

in Abschnitt 2.1, Tab.11. Diese Datenmatrix berücksich-

tigt für die Diskrimination zwischen zwei Einkommensstufen die Merkmale ai=Ui

(Alter)

und

öi=y,

(politische Einstellung)

Wir wollen nun die Güte dieser skalierten Datenmatrix Y* anhand der general isierten Diskriminanzfunktion Ζ = γ*Υ* + γ*Υ* 1 1 uberprüfen, wobei Y | und Y | die den Merkmalen

bzw.

zugeordneten Zu-

fall svariablen bezeichnen. Dazu müssen zunächst die Gewichte γ^ und γ^ bestimmt werden. Die Mittelwertvektoren in den zwei Einkommensstufen sind

und die zur reduzierten Datenmatrix Y* gehörige Matrix S g = S * ist '10.285714 S

ee

=

1.073951

1.073951' 9.120000

Die zu S* inverse Matrix berechnet sich dann zu , S

ee

=

f 0.0984325

-0.0115912'

01 15912

0. 1 1 10141

so daß 0.0639454 = S e~ (y* - y p

0.1014277

ein Gewichtsvektor der generalisierten Diskriminanzfunktion

In Iah.12 sind die Werte

ist.

Kapitel V: Skalierung qualitativer Daten

z i k = (0.0639454,0.1014277)yi k

für i=1,2, k=1

ni

für jede Person aus der Lernstichprobe angegeben. Berechnet man nun 1 z 1 =-ζ

Z

5

l

z l k = 0.0873903 ,

, 7 9=T l z,L· = -0.0624216 d ' k=1

,

so können die η = 12 Personen klassifiziert werden. Ist dann

z i k > 0.01248435

,

so wird die betreffende Person der Stufe 1 der Kriteriumsvariablen zugeordnet, und ist z i k < 0.01248435

,

so wird die Person der Stufe 2 der Kriteriumsvariablen zugeordnet. Diese Zuordnungen sowie die wahren Zugehörigkeiten sind ebenfalls in der Tab. 12 angegeben. Cab-12: Klassifikationsergebnisse im Beispiel der Kriteriumsvariablen Einkommen Person ik

21 22 23 24 25 26 27

ik

Zuordnungsstufe

wahre Stufenzugehörigkeit 1 1 1 1 1

0 0 -0 0 0

1685808 0279180 1653421 2028975 2028975

1 1 2 1 1

I I I I I ο ο ο ο ο ο ο

11 12 13 14 15

Z

0656307 0623920 1653421 0279180 1093488 0280753 1653421

1 2 2 1 2 2 2

*

* *

2 2 • 2 2 2 2 2

Mittels Klassifikation durch die generalisierte Diskriminanzfunktion sind also vier der fünf Personen mit einem Einkommen von mehr als 3000 DM (Stufe 1 der Kriteriumsvariablen) und fünf der sieben Personen mit weniger als 3000 DM (Stufe 2) richtig zugeordnet worden, d.h. der prozentuale Anteil richtig klassifizierter Objekte ist

303

304

Kapitel V: Skalierung qualitativer Daten

4/5 = 0.8 = 80%

in der Stufe 1 und

5/7 = 0.714 = 71.4%

in der Stufe 2.

Diese A n t e i l e s i n d recht hoch, so daß man wohl von e i n e r guten S k a l i e r u n g sprechen kann.

2.2.2

J

DIE GOTEPROFUNG MITTELS MAHALANOBISDISTANZEN

Z u r GiitepsLu^ung

exneA

Skatiejiung

miXXdU,

MahcUanob-Cid.iAtanzin,

vgl.

s c h n i t t 6 in K a p . I , müssen zunächst ausgehend von der s k a l i e r t e n

Ab-

(redu-

z i e r t e n ) Datenmatrix Y bzw. Y* die M i t t e l w e r t e der Beobachtungsvektoren der L e r n s t i c h p r o b e auf jeder der i Stufen der y

i

= (y

mit

ii

y

Kriteriumsvariablen

1 "j· i r n ^ J , y i j k

bzw.

f ü r

]:];;;;;£'

η. η

=

Klassifikation.mittels

Wegen

-0.3194384

und

-0.4140394

0.5796550 .-1

' 0.0984325

-0.0115912

(-0.0115912

0.1110141

vgl. Abschnitt 2 . 2 . 1 , e r g i b t sich y* =

mit

0.4472135) -0.3450330

dann d f = / 1 0 ( y * - y * ) T - S * " 1 - ( y * - y * ) = 0.974281 1

und

: = / 1 0 ( y * - y i ) T , S * " ^ • ( y * - y i ) = 0 . 7560185 Daher

ist d| = min(d^,d|)

und d i e P e r s o n w i r d i n E i n k o m m e n s s t u f e 2 k l a s s i f i z i e r t . e r g e b n i s b e i Verwendung d e r g e n e r a l i s i e r t e n l i n e a r e n

Das

Klassifikations-

Diskriminanzfunktion

wird hier also bestätigt.

2.4

GEWINNUNG WEITEREN

EINER

|

DATEN-

M U L Τ I V AR I AT Ε Ν

UND

D I S Τ Α Ν Ζ ΜΑ Τ R I Χ

ANALYSE

Verschiedene m u l t i v a r i a t e A n a l y s e v e r f a h r e n , wie z . B . d i e oder die M u l t i d i m e n s i o n a l e S k a l i e r u n g ,

ZUR

Clusteranalyse

v g l . K a p . V I , V I I , l a s s e n s i c h auch

im A n s c h l u ß an d i e h i e r b e s p r o c h e n e n Methoden a n w e n d e n . Man k ö n n t e e t w a daran i n t e r e s s i e r t s e i n , d i e verschiedenen Stufen e i n e r graphisch

darzustellen.

Kriteriumsvariablen

310

Kapitel V: Skalierung qualitativer Daten

BeJj>pieZ: Verschiedene Produkte (Stufen der Kriteriumsvariablen) wurden von jeweils mehreren Personen bzgl. ρ verschiedener nominaler oder ordinaler Merkmale beurteilt. Die entstandene Datenmatrix wurde anschließend s k a l i e r t und mit den in diesem Kapitel vorgestellten Methoden weiter analysiert. Nun i s t man etwa daran interessiert, die Produkte im zweidimensionalen Raum graphisch darzustellen, um so eventuelle "Marktlücken" zu entdecken. Außerdem möchte man eine Clusteranalyse durchführen, um zu sehen, welche Klassen von ungefähr gleichartigen Produkten es gibt. Zur Anwendung s o l cher multivariater Verfahren auf die Stufen einer Kriteriumsvariablen muß entweder eine Datenmatrix A, die einen Beobachtungsvektor pro Stufe enth ä l t , oder eine Distanzmatrix D, die die Abstände zwischen den Stufen der Kriteriumsvariablen wiedergibt, vorhanden sein. In diesem Abschnitt soll das Problem behandelt werden, wie man - ausgehend von einer skalierten Datenmatrix für eine Lernstichprobe von Objekten e i n e Vcutznimtulx

und e i n e V^AtanzmcWvix

^ÜA CLLZ Stu^zn

dun.

beXnachttttn

KnjXeMAumvcuUablzn konstruieren kann. Eine VaXunrratAlx Α für die i Stufen einer Kriteriumsvariablen i s t eine Mat r i x mit i Zeilen und ρ bzw. q Spalten, je nachdem ob man von der s k a l i e r ten Datenmatrix Y oder der reduzierten skalierten Datenmatrix Y* einer Lernstichprobe ausgeht. Die Zahl der Spalten von Α i s t also identisch mit der Zahl der Spalten von Y bzw. Y*. Eine sofort ins Auge springende Mögl i c h k e i t zur Bestimmung von Α i s t die,, daß man zu jeder Stufe der K r i t e riumsvariablen aus der Datenmatrix Y bzw. Y* den Mittelwertvektor der Stufe bestimmt, vgl. auch die vorausgehenden Abschnitte. Der Mittelwertvektor für die i - t e Stufe der Kriteriumsvariablen i s t ι y ^ ^

yi = (yil,...,yip)

mit

&

^ijk

yi=(yt,,...,yfq)

, "Ιm i t y * . — Σ ϊ ^ i.K-1

für

]:];;;;;£·

bzw. für i = 1 i, J-I,...,q

und a l s Datenmatrix für die l Stufen der Kriteriumsvariablen ergibt sich ausgehend von der Datenmatrix Y y

ψ

11

y

12

* •

y

£2

' '

y

y

iP

£p-

311

Kapitel V: Skalierung qualitativer Daten

bzw. von der r e d u z i e r t e n Datenmatrix Y* *TI

Ί

y

···

Y"L

1q

A=

ΒίΛΛρ-ίζΙ:

Obwohl w a h r s c h e i n l i c h niemand auf den Gedanken kommen würde,

zwei Einkommensstufen e i n e r weiteren m i l t i v a r i a t e n A n a l y s e zu u n t e r z i e h e n , wollen w i r doch an unserem B e i s p i e l

d i e Gewinnung e i n e r Datenmatrix Α f ü r

die S t u f e n e i n e r K r i t e r i u m s v a r i a b l e n v e r d e u t l i c h e n . Dabei gehen w i r von der r e d u z i e r t e n Datenmatrix V* aus Tab.11, A b s c h n i t t 2.1 aus und berechnen zunächst y f und y ^ , d i e s k a l i e r t e n M i t t e l w e r t v e k t o r e n der

interessierenden

Merkmale A l t e r und p o l i t i s c h e E i n s t e l l u n g e i n e r Person in beiden Einkommensstufen. Es

ist 0.4472135

-0.3194384 und

0.5796550

-0.4140394

so daß s i c h die gesuchte Datenmatrix Α f ü r die beiden Einkommensstufen zu

ν*

1

0.4472135

0.5796550

-0.3194384

-0.4140394

e r g i b t . Die e r s t e Z e i l e d i e s e r M a t r i x

i s t dann der

"Bzabacktungifek-toi"

f ü r die Einkommensstufe 1, d i e zweite Z e i l e der f ü r d i e Einkommensstufe 2. Eine V-c&tanzmcL&Ux D b e s c h r e i b t d i e Abstände v e r s c h i e d e n e r Objekte z u e i n ander, v g l . A b s c h n i t t 6 in K a p . I .

In unserem s p e z i e l l e n F a l l

soll

D d i e Ab-

stände der l S t u f e n der K r i t e r i u m s v a r i a b l e n b e s c h r e i b e n . Da der Abstand von der S t u f e i zu e i n e r S t u f e i '

der g l e i c h e i s t wie der von i '

zu i ,

ist

die D i s t a n z m a t r i x D n a t ü r l i c h symmetrisch zur Hauptdiagonalen. Die Hauptd i a g o n a l e s e l b s t e n t h ä l t nur N u l l e n , da der Abstand e i n e r S t u f e zu s i c h s e l b s t n a t ü r l i c h Null

ist.

Insgesamt i s t die D i s t a n z m a t r i x D f ü r d i e

Stufen e i n e r K r i t e r i u m s v a r i a b l e n n a t ü r l i c h eine JUS. - M a t r i x . d(i,i')

1

Bezeichnet

den Abstand der S t u f e i zur S t u f e i , so hat d i e D i s t a n z m a t r i x

al-

so d i e G e s t a l t 0

d(1,2)

d(1,3)

...

d(1,i>)

d(1,2)

0

d( 2,3)

...

d(2,J>)

d(1,H)

d(2,i)

d(3,Z)

...

Wie bestimmt man nun aber d i e D i s t a n z d ( i , i ' )

zwischen zwei Stufen i und i 1

312

Kapitel V: Skalierung qualitativer Daten

einer Kriteriumsvariablen? P r i n z i p i e l l kann hier jeder der im Abschnitt 6 des Kapitels I angegebenen Distanzindizes verwandt werden. Speziell kann man z.B. ausgehend von einer skalierten Datenmatrix Y bzw. Y* f ü r eine Lernstichprobe vom Umfang η zunächst die Mittelwertvektoren y • bzw. y i (i=1

l ) der n.

Objekte, die zur Stufe i der Kriteriumsva-1

riablen gehören, sowie die

Matrix Sg

-1

bzw. S*

aus Abschnitt 2.2.1 zu Y

bzw. Y* bestimmen, und dann f ü r 1 _< i < i ' _< Ä die Mahalanobisdistanzen d ( i , i ' ) =/(n-Jl)(yi - y i , f - S " 1 · (yi - y ^ )

bzw.

d(i.i') = /(n-JO(yi-y*,)T-S£~My*-y*,) berechnen. Aus diesen Distanzen d ( i , i ' ) läßt sich dann die Distanzmatrix D f ü r die l Stufen der Kriteriumsvariablen bilden. Bexip-iei.: Für das einfache Beispiel dieses Abschnitts wollen wir eine Distanzmatrix D f ü r die beiden Einkommensstufen unter Verwendung von Mahalanobisdistanzen bestimmen. Aus der Datenmatrix Y*, v g l . Tab.11, ergab sich 0.4472135 y* = 0.5796550

-0.3194384' ,

y·? =

-0.4140392

' 0.0984325

-0.0115912'

[-0.0115912

0.1110141

Zur Bestimmung der Distanzmatrix D muß nun l e d i g l i c h d(1,2) berechnet werden, da die Kriteriumsvariable Einkommen nur auf 1 = 2 Stufen v o r l i e g t . Mit i0.7666519' yi - yi = c

[0.9936942

e r g i b t sich f ü r die Mahalanobisdistanz d( 1,2) = / ( 1 2 - 2 ) ( y * - y * ) T - S * " l . ( y * - y * ) = V 10-0.1498119= 1.2239767, so daß die gesuchte Distanzmatrix f ü r die Stufen der Kriteriumsvariablen Einkommen gerade gegeben i s t durch 0

1.2239767]

1 .2239767

0

D =

J

Kapitel V: Skalierung qualitativer Daten

313

3 EIN BEISPIEL AUS DER MARKTFORSCHUNG ZUR ANALYSE MULT IVARIATER KATEGOR I ELLER DATEN In den USA werden alljährlich von der "Consumers Union of the United States" großangelegte Produktbefragungen durchgeführt. Unter anderem handelt es sich dabei um Befragungen zur Reparaturanfälligkeit von Personenkraftwagen. Speziell diese Umfrage kann als Hilfestellung beim Kauf von Neu- und Gebrauchtwagen

aufgefaßt werden. Wir wollen hier ausgehend von den Befragungsergeb-

nissen bei 391 Besitzern von Automatikwagen der Baujahre 1965 - 1970 untersuchen, ob sich die verschiedenen Fabrikate (zu dieser Zeit) unterscheiden und wie diese Unterschiede aussehen.

Die hier zugrundeliegenden Daten entstammen dem Bericht "Consumers Union (1971): Frequency of Repair 1965 - 1970, Consumer Reports, The Buying Guide Issue, Mount Vernon, New York, Consumers Union of the United States, Incl.". Die in diesem Abschnitt vorgenommene Auswertung der Daten erfolgt in enger Anlehung an Bargmann/Kundert (1972), vgl. auch Elpelt/Hartung (1982a). 42 der 391 Autobesitzer fahren Wagen des Herstellers American Motors, 85 Wagen des Herstellers Chrysler,78 Wagen des Herstellers Ford, 128 Wagen des Herstellers General Motors und 58 Autobesitzer fahren (bzgl. des amerikanischen Markts) ausländische Fabrikate. Diese 5 verschiedenen Hersteller bilden die Stufen unserer Kriteriumsvariablen "Hersteller" (HST).

Jeder Autobesitzer wurde nun gebeten, die Reparaturanfälligkeit von 14 Teilen seines Wagens zu bewerten. Diese 14 Reparaturanfälligkeiten sind die Merkmale ljp...

,bzgl. derer die Kriteriumsvariable "Hersteller" unter-

sucht werden soll. Im einzelnen sind diese Merkmale: y1

: Heizungs- und Belüftungssystem , : äußere Karosserie ,

Uj : innere Karosserie , : Eisenteile der Karosserie , Ug : Bremsen , yg : mechanische Teile des Motors , ü^ : elektrische Teile dps Motors , yg : Elektronik , yg : Automatikgetriebe , y 1 Q : Lenkung , y ^ : Kraftstoffsystem , Uj2 : Abgassystem , y.,: Stoßdämpfer

und

314

Kapitel V: Skalierung qualitativer Daten

y 1 4 : Vorderradaufhängung. Die Bewertung der Reparaturanfälligkeit erfolgte bei jedem Merkmal auf einer Fünfpunkteskala: 1 - sehr viel reparaturanfäl1iger a l s andere Teile , 2 - reparaturanfälliger a l s andere Teile , 3 - durchschnittliche Reparaturanfäl 1 igkeit , 4 - geringere Reparaturanfälligkeit a l s andere Teile und 5 - sehr viel geringere Reparaturanfälligkeit a l s andere Teile. Wollte man die Datenmatrix Ϋ, vgl. Abschnitt 2.1, angeben, so müßte man eine Matrix mit 391 Zeilen und 14 Spalten aufschreiben, was natürlich hier viel zu platzaufwendig wäre. Daher sollen hier nur die 14 Calibration Patterns für die Kriteriumsvariable bei jedem Merkmal angegeben werden, vgl. Cab.14-27. Den folgenden Berechnungen l i e g t aber selbstverständlich die gesamte Datenmatrix zugrunde, Cab.15: Calibration Pattern für ü 2

(Tab.14: Calibration Pattern für a. 1

2

3

4

5

I

1 2 3 4 5

5 10 31 24 3

5 8 4 16 3

23 25 25 59 37

5 16 10 18 7

4 26 8 11 8

42 85 78 128 58

Σ

73

36 169

56

57

391

Hsrx.

2

3

4

5

I

1 2 3 4 5

0 4 2 41 0

2 3 11 28 1

26 43 51 50 27

5 15 11 7 12

9 20 3 2 18

42 85 78 128 58

l

47

45

197

50

52

391

2

HST\_

Cab.17: Calibration Pattern

Cah.16: Calibration Pattern für u 3 1 2

1

\ 9

für

3

4

5

I

Hsr^

\ ü

4

y4

1 2

3

4

5

I

1 2 3 4 5

10 22 3 18 0

7 14 9 36 0

23 36 46 59 18

2 12 16 12 8

0 1 4 3 32

42 85 78 128 58

1 2 3 4 5

9 13 6 1 1

10 21 2 5 7

23 37 60 74 26

0 14 8 39 8

0 0 2 9 16

42 85 78 128 58

I

53

66

182

50

40

391

l

30

45 220

69

27

391

315

Kapitel V: Skalierung qualitativer Daten

Cab.18: C a l i b r a t i o n Pattern f ü r jjg

Cab.19: C a l i b r a t i o n Pattern für

^

|JL 1

2

3

5

4

I

H S T ^ ^ .

H S T

T

*

2 1

14

1 2 8

5

5

4 3

5

0

5 8

4 2

3 0

1 8 9

6 5

6 5

3 9 1

5 8

5

5 3

6 2

3 9 1

3 3

3 9

2 0 4

3

6 3

2

3 5

2

17

4

12

1 S

7 8

13

4

Ϊ

l a b . 2 0 : C a l i b r a t i o n Pattern f ü r y.

H

8 5

9

1 2 8

5

I

2 9

16

55

3 1

5

18

3 7

12

3 7

3

2 4

4

10

2

4

4

2

3

9

4 2

3

0

12

16

7

13

7 8

2

4 7

16

3

4

5

I

^



I

5

8 5

5 1

1 2

5

4

2 2

0

4 2

3 4

3

^ 2

2

0

2

1

3

1

4

2

1

Cab.21: C a l i b r a t i o n Pattern f ü r yg

1 H

S

T

2

3

5

4

I

^

1

0

1

2 9

10

2

4 2

1

0

0

3 2

8

2

4 2

2

9

6

4 6

16

8

8 5

2

15

15

3 3

2 1

1

8 5

3

3

14

5 1

7

3

7 8

3

10

11

4 2

13

2

7 8

4

8

6

8 2

2 3

9

1 2 8

4

3

10

7 8

3 3

4

1 2 8

5

5

8

3 9

2

4

58

5

1

6

30

8

1 3

58

I

2 5

3 5

2 4 7

5 8

2 6

3 9 1

2 9

4 2

2 1 5

8 3

2 2

3 9 1

Hab.22: C a l i b r a t i o n Pattern für y.

1

1

8

2

3

4

5

I

4

2 6

3

1

4 2

I

Cah.23: C a l i b r a t i o n Pattern für

1 H

S

T

2

3

5

4

I

^

1

6

0

y^

2 8

6

2

4 2 8 5

2

0

0

4 2

2 3

2 0

8 5

2

2 0

6

3 9

12

8

3

7

14

5 1

5

1

7 8

3

4

8

5 8

8

0

7 8

4

14

8

58

13

35

1 2 8

4

11

8

74

2 4

11

1 2 8

5

12

14

31

1

0

5 8

5

1

3

3 9

5

10

58

I

4 1

4 0

2 0 8

4 5

5 7

3 9 1

I

2 5

2 3 8

5 5

3 1

3 9 1

I a h . 2 4 : C a l i b r a t i o n Pattern für y

1

2

3

5

4

4 2

Cab.25: C a l i b r a t i o n Pattern f ü r y

1

I

2

3

Ϊ

5

4

1

6

8

2 8

0

0

4 2

1

1

1

2 5

11

4

4 2

2

16

8

2 9

2 6

6

8 5

2

2

5

3 8

2 1

19

8 5

3

3

12

3 8

19

6

78

3

7

8

2 6

13

2 4

7 8

4

2 4

17

5 7

19

11

1 2 8

4

1 3

17

6 3

2 8

7

128

5

3

3

4 0

8

4

5 8

5

9

7

3 3

4

5

5 8

I

5 2

4 8

1 9 2

7 2

2 7

3 9 1

3 2

3 8

1 8 5

7 7

5 9

3 9 1

I

316

Kapitel V: Skalierung qualitativer Daten

Cah.26: C a l i b r a t i o n Pattern für y ^ ^ 1 3 HST^1^

1

2

3

4

5

l

1 2 3 4 5

0 12 7 18 0

0 12 11 27 1

22 54 51 70 17

14 6 8 11 12

6 1 1 2 28

42 85 78 128 58

I

37

51 214

51

38

391

Cab.27: C a l i b r a t i o n Pattern f ü r ö 14 1

2

3

4

5

l

1 2 3 4 5

0 1 15 22 2

1 2 16 18 0

22 56 41 62 17

16 21 4 19 10

3 5 2 7 29

42 85 78 128 58

I

40

37 198

70

46

391

Ausgehend von den C a l i b r a t i o n Patterns muß zunächst zur Gewinnung einer s k a l i e r t e n Datenmatrix Y jedes der 14 beobachteten Merkmale gegen die K r i teriumsvariable " H e r s t e l l e r " s k a l i e r t werden. Als Skalierungsverfahren wählen wir hier die k a t e g o r i e l l e Skalierung (Lancaster - Skalierung) aus Abschnitt 1.2. Für das Merkmal JJg (Reparaturanfälligkeit der Bremsen) e r g i b t sich dabei z.B. die Matrix 0.039

0.008

0.008

0.102

0.015 -0.045 0.006

«5 =

0.029 -0.145 0.052

0.015 0.029

-0.045 -0.145

0.022 -0.062

-0.062

0.020

0.251 -0.087

0.006 0.052 0.020

-0.087 0.038

Der größte Eigenwert dieser Matrix i s t λ 5( , = 0.3897 und ein Eigenvektor f^ = ( f R 1 , . . . 5 f q c ; ) T

zum Eigenwert ÄgG e r g i b t sich dann aus dem Gleichungs-

system Q 5 - f 5 = A 5 G - f 5 zu f

5"(f51,f52,f53,f54,f55) = (-0.126424,-0.47694,-0.193098,0.800450,-0.280236) T

Nach dem Verfahren aus Abschnitt 1.2 erhält man dann

4

4 1 " i f V ^ v η ^ i=1= 3 j ( 2 - f 5 1 / \ 7 i l + 16-f 5 2 /\785 + 7 - f 5 3 / / 7 & + 3 » f 5 4 / \ n 2 S + 5«f 55 /v75ff) = -^(-0.991487) =-0.0300454 5 ^ n® 2 'f 5 ./\TnT"=3ff(-1.3245395) =-0.0339626 η 2 i=1

ß

5

=

B

5 = 4 n

4

.3

Σ 1=1

n ® 3 . f 5 i / \ n r - = 2 i ¥ ( - 2 . 9 9 9 2 9 2 6 ) =-0.0147024

Kapitel V: Skalierung qualitativer Daten

5

ßg = - g n

.4

Bg = —ςn

.5

l

n ^ 4 - f 5 i / v r n ~ = -^- 1.6022150 = 0.0302305

und

1=1

5 Ϊ

n^ 5 -f5 i / v r T T — = g^'3.7130739 = 0.0598883

.

1 =1

Hiermit ergeben sich die gesuchten Skalierungspunkte y^ für v=1,...,5 für das Merkmal y^ zu

3§F769- 0 5

= 31

-676416-B5

d.h. y^ = 31 .676416-(-0.0300454) =-0.952 , y | = -1 .076, y 3 = -0.466, y g - 0.958 und yjj = 1.897 In Cab.28 sind die Skalenwerte für alle 14 Merkmale

. die sich

bei kategorieller Skalierung gegen die Kriteriumsvariable "Hersteller" ergeben, zusammengestellt. Zudem enthält diese Tabelle die größten Eigenwerte Xjg der Matrix Qj für j=1

14; diese sind gerade die Quadrate der

maximalen Korrelationen r y _ = V Ajg

fur j = 1,... ,14

des Merkmals y^. mit der Kriteriumsvariablen "Hersteller". Außerdem sind für jedes Calibration Pattern, d.h. für jedes der 14 Merkmale, die Pearsonschen Kontingenzkoeffizienten C

j=/xj/(n+xj)

für j = 1 . . ,14

angegeben. Für das zum Merkmal Ug gehörige Calibration Pattern etwa ergibt sich mit , 5 5 χ| = η·( Σ I 3 M = 1 v=1 = 3 9 1

· ( ^

+

(η 5 ) 2 \ - ^ V - i ) η. ·η ' ι. .ν 4 2 ^

+

4^Ιϋ4

+

··· + 58^62 * 0

= 176.68 der Pearsonsche Kontingenzkoeffizient zu Cg = \! 1/6.68/(391 + 176.68) = 0.558

Letztlich sind in der Tab.28 noch die Korrelationen

= 391

' ( 1 · 4 5 1 8 8 · 1}

317

318

Kapitel V: Skalierung qualitativer Daten

rZy

für j=1

14

der Merkmale mit der generalisierten Diskriminanzfunktion Ζ = γ

1ΥΓ···+γ14Υ14

für die 5 Stufen der Kriteriumsvariablen "Hersteller" angegeben. Die Grössen r y , C. und r,„ j

J

dienen natürlich dazu festzustellen, welche der 14 j

Merkmale besonders gut zwischen den verschiedenen Herstellern diskriminieren, d.h. bzgl. welcher Merkmale sich die Hersteller am meisten unterscheiden. Cab.28: Skalenwerte, kanonische Korrelationen, Pearsonsche Kontingenzkoeffizienten und Korrelationen zur generalisierten linearen Diskriminanzfunktion der 14 Merkmale bei Verwendung der Kriteriumsvariablen "Hersteller" Merkmal ö

j

»1 »2 »3 »4

4«δ

»7 «8 »9 «10 8

3 »14

Skalenwerte 1 y j -2 026 - 1 979 -0 772 -2 102 -0 952 0 064 -0 065 -2 315 - 1 101 2 638 0 778 - 1 118 - 0 898 - 1 023

2 y j 0 290 - 1 252 -0 690 - 1 434 - 1 076 -0 978 -2 477 - 0 985 - 1 606 -0 384 -0 320 - 0 687 - 0 807 - 1 252

3 4 y y j j 0 402 0 209 0 202 0 744 -0 186 0 139 0 073 0 786 -0 466 0 958 -0 702 0 472 - 0 098 1 693 0 332 -0 278 -0 207 1 366 -0 578 0 436 -0 862 1 639 -0 479 0 272 -0 311 0 743 -0 250 0 362

ο 5 y j 1 015 1 392 2 832 2 127 1 897 1 979 0 546 2 736 1 596 0 403 0 831 2 197 2 710 2 421

r

0 0 0 0 0 0 0 0 0 0 0 0 0 0

Y. J 299 564 646 448 624 360 245 363 483 259 272 292 619 530

J 0 089 0 318 0.418 0 200 0 390 0 130 0 060 0 131 0 233 0 067 0 074 0 085 0 383 0 281

c

j

0 381 0 522 0 578 0 509 0 .558 0 384 0 285 0 418 0 .477 0 334 0 .340 0 350 0 554 0 545

r 0 0 0 -0 -0 0 -0 0 -0 0 -0 0 0 0

ZY. J 098 495 349 148 540 047 070 036 167 012 049 064 391 321

Nach dem Roy - Test bestehen zum 1% Niveau signifikante Unterschiede zwischen den Herstellern bzgl. a l l e r außer dem 7. Merkmal, denn für j = 1,... ,6,8,... ,14 gilt >"γ

> 0.06 = c R ; 0

9 g (4,386,4)

= c R ; 1 _ a ( C j - 1 ,η-ί.,ί,-1)

Sieht man sich jedoch die Größen r y , Cj und r z y

.

aus Tab.28 etwas genauer

an, so s t e l l t man f e s t , daß zwischen den 7 besten Diskriminatoren und dem Rest ein ziemlicher Unterschied besteht. Daher wollen wir im folgenden von diesen 7 besten Diskriminatoren und der zugehörigen reduzierten skalierten Datenmatrix Y* ausgehen. Die dort eingehenden Merkmale, also die 7 besten Diskriminatoren zwischen den Herstellern, sind

Kapitel V: Skalierung qualitativer Daten

319

0 * = y 2 : äußere Karosserie , : innere K a r o s s e r i e , =

: E i s e n t e i l e der Karosserie ,

ö | = a 5 '· Bremsen , =yg

: Automatikgetriebe ,

y£ = y 1 3 : Stoßdämpfer und Ö7 = 9 1 4 :

Vorderradaufhängung.

Hier f ä l l t a u f , daß drei der besten Diskriminatoren d i r e k t die Karosserie eines Wagens betreffen und daß ein e i g e n t l i c h recht unwichtiges Merkmal, nämlich die R e p a r a t u r a n f ä l l i g k e i t der Stoßdämpfer, zu den besten D i s k r i m i natoren gehört. (Mit r 7 V der inneren K a r o s s e r i e . )

= 0 - 3 9 1 i s t es der zweitbeste D i s k r i m i n a t o r nach 13

'

An dieser S t e l l e sei noch auf ein besonderes Phänomen aufmerksam gemacht. Die S k a l a , auf der die R e p a r a t u r a n f ä l l i g k e i t jedes der 14 T e i l e gemessen wurde, i s t e i g e n t l i c h eine O r d i n a l s k a l a , die wir h i e r aber k a t e g o r i e l l

ska-

l i e r t haben. Bei den guten Diskriminatoren treten nun kaum Umkehrungen in der Reihenfolge der Ausprägungen auf (die größenmäßige Ordnung b l e i b t bei der Skalierung e r h a l t e n ) , bei den schlechten Diskriminatoren sind die Umkehrungen in der Reihenfolge b e t r ä c h t l i c h . Dieses Phänomen l ä ß t sich verallgemeinern: Werden Merkmale mit ordinalen Ausprägungen k a t e g o r i e l l

ska-

l i e r t , so treten Umkehrungen der natürlichen Ordnung in großem Maße nur dann a u f , wenn das Merkmal ein schlechter D i s k r i m i n a t o r f ü r die Stufen der Kriteriumsvariablen i s t . Für gute Diskriminatoren hingegen s p i e l t es kaum eine R o l l e , ob eine ordinale oder eine k a t e g o r i e l l e Skala zugrundegelegt wird, v g l . Bargmann/Kundert (1972).

Nun wollen wir die Daten aus der Befragung von 391 Autobesitzern weiter auswerten und zunächst die Güte der s k a l i e r t e n Datenmatrix Y* m i t t e l s Mahalanobisdistanzen überprüfen. Der prozentuale Anteil r i c h t i g

klassifizierter

Wagen i s t für den H e r s t e l l e r 1: 61.9% , für den H e r s t e l l e r 2: 65.9% , für den H e r s t e l l e r 3: 69.2% , für den H e r s t e l l e r 4: 76.6% , für den H e r s t e l l e r 5: 55.2% . Insgesamt wurden von den 391 Wagen der Lernstichprobe a l s o 68% ihrem w i r k l i c h e n H e r s t e l l e r zugeordnet. Dieses Ergebnis kann noch a l s durchaus bef r i e d i g e n d bezeichnet werden. In lab.29 s i n d die mittleren Distanzen der Wagen jedes H e r s t e l l e r s zum Mittelwert des H e r s t e l l e r s und zum Mittelwert

320

Kapitel

V: Skalierung

qualitativer

Daten

des nächstgelegenen fremden Herstellers angegeben. Cata.29: Mittlere Mahalanobisdistanzen zum Mittelwert des wahren und des nächstgelegenen fremden Herstellers Hersteller i

mittlerer Abstand der Wagen des Herstellers i zum Mittelwert des Herstellers i

1 2 3 4 5

des nächsten anderen Herstellers

2.422

2.600

2.103

2.442

2.051

2 .393

2.709

3.260

3.033

3.518

Man entnimmt der Tab.29, daß die Wagen dem Mittelwert ihres Herstellers im Mittel doch beträchtlich näher liegen als dem nächstgelegenen fremden Hers t e l l e r . Daraus läßt sich auf eine recht gute Skalierung schließen. Auf die Vorführung der Klassifikation neuer Objekte wollen wir hier verzichten und uns direkt der Erstellung einer Datenmatrix Α und einer Distanzmatrix D für die 5 Hersteller widmen. Dabei wollen wir wiederum ledigl i c h die 7 besten Diskriminatoren zwischen den Herstellern berücksichtigen. Die

VaXmmcutfiix

Α besteht aus je einem Mittelwertvektor für die 5 Herstel-

l e r . Diese Mittelwertvektoren y} = (y* 1 >...,y* 7 ) T

furi=i,...,5

bilden jeweils eine Zeile der in trab.30 angegebenen Datenmatrix A Cab.30: Datenmatrix Α für die 5 Hersteller basierend auf den 7 besten Diskriminatoren Hersteller

Merkmal 8?

'1 1 2 3 4 5

A=

η

«2

y7

0.452 0.424 0.063

-0.394 -0.339 -0.045

-0.752 -0.515 -0.008

-0.241 -0.638 -0.270

-0.355 0.643 -0.414

0.472 -0.354 -0.289

0.150 0.026 -0.504

-0.766 0.658

-0.309 1.524

0.358 0.518

0.873 -0.454

0.260 -0.703

-0.360 1.357

-0.287 1.164

Diese Datenmatrix Α und die Distanzmatrix D für die Hersteller, die im f o l genden noch angegeben wird, lassen sich nun für die weitere multivariate Analyse der Hersteller verwenden.

321

Kapitel V: Skalierung qualitativer Daten

Bevor w i r nun d i e M a t r i x D angeben, wollen w i r d i e Datenmatrix Α noch etwas genauer b e t r a c h t e n . Es z e i g t s i c h , daß d i e a u s l ä n d i s c h e n H e r s t e l l e r (5)

al-

l e n amerikanischen H e r s t e l l e r n bzgl der R e p a r a t u r a n f ä l l i g k e i t der äußeren, der inneren und der E i s e n t e i l e der K a r o s s e r i e überlegen s i n d . Weiter s i n d die a u s l ä n d i s c h e n H e r s t e l l e r bei der R e p a r a t u r a n f ä l l i g k e i t der Stoßdämpfer und der Vorderradaufhängung überlegen. Bei den Bremsen i s t General

Motors

(4) a l l e n anderen überlegen und beim Automatikgetriebe i s t C h r y s l e r (2) am besten. Es f ä l l t a u f , daß die a u s l ä n d i s c h e n H e r s t e l l e r , d i e bei 5 der besten D i s k r i m i n a t o r e n a l l e n anderen überlegen s i n d , bei den übrigen beiden Merkmalen (Bremsen, Automatikgetriebe)

die nahezu größte

Reparaturanfällig-

k e i t z e i g e n . Das 1 aßt s i c h f ü r das Merkmal ljg ( A u t o m a t i k g e t r i e b e )

vielleicht

dadurch e r k l ä r e n , daß i n den USA ü b e r d u r c h s c h n i t t l i c h v i e l e Automatikwagen (ca. 80% M a r k t a n t e i l ) betrieben werden, d i e amerikanischen H e r s t e l l e r (zum damaligen Z e i t p u n k t ) sehr v i e l r o u t i n i e r t e r waren. Bei der

also

Interpre-

t a t i o n a l l e r E r g e b n i s s e s o l l t e man jedoch niemals v e r g e s s e n , daß d i e z u grundeliegende Datenmatrix Y*

ausgehend von s u b j e k t i v e n Bewertungen durch

A u t o b e s i t z e r a u f g e s t e l l t wurde. Nun kommen wir s c h l i e ß l i c h noch zur BeAtimrmng

e.ineA D-LitanzmtWUx

D für

die 5 H e r s t e l l e r . A l s Elemente d i e s e r M a t r i x verwenden w i r M a h a l a n o b i s d i stanzen von je zwei H e r s t e l l e r m i t t e l w e r t e n f ü r d i e 7 besten

Diskriminato-

ren zwischen den H e r s t e l l e r n . Das bedeutet, i n die Berechnung geht neben den Z e i l e n der Datenmatrix Α die aus der Datenmatrix Y* g e s c h ä t z t e Kovar i a n z m a t r i x der 7 besten D i s k r i m i n a t o r e n e i n . I n t a b . 3 1 i s t d i e s e Matrix D angegeben.

l a b . 3 1 : D i s t a n z m a t r i x D f ü r die 5 H e r s t e l l e r bei Verwendung von M a h a l a n o b i s distanzen Hersteller

Hersteller

1

2 3 4 5

D =

1

2

3

4

5

0.00 1.70 1.86 3.05 2.70

1.70 0.00 1.97 2.98 3.31

1 .86 1.97 0.00 2.11 2.70

3.05 2.98 2.11 0.00 3.86

2.'7o) 3.31 2.70 3.86 o.ooj

Wie man der D i s t a n z m a t r i x D entnimmt, s i n d s i c h die H e r s t e l l e r Motors) und 2 ( C h r y s l e r )

1 (American

am ä h n l i c h s t e n . Der größte U n t e r s c h i e d besteht

zwischen H e r s t e l l e r 4 (General Motors) und H e r s t e l l e r 5 ( a u s l ä n d i s c h e Fab r i k a t e ) . Außerdem f ä l l t a u f , daß American Motors (1) und Ford (3) weit von den a u s l ä n d i s c h e n H e r s t e l l e r n e n t f e r n t

sind.

gleich-

322

Kapitel V: Skalierung qualitativer Daten

Die Datenmatrix aus Tab.30 sowie die Distanzmatrix aus Tab.31 werden wir in den folgenden Kapiteln VI, VII, VIII und IX häufig als Beispiel für andere multivariate statistische Verfahren verwenden.

k SKALIERUNG KATEGORIELLER MERKMALSAUSPRÄGUNGEN VON Ρ MERKMALEN Im Abschnitt 1.2 haben wir uns mit der Skalierung zweier kategorieller Merkmale in Kontingenztafeln beschäftigt, und zwar haben wir Skalenwerte derart bestimmt, daß die Ausprägungen des einen Merkmals möglichst gut zwischen denen des anderen Merkmals diskriminieren und umgekehrt. Hier wollen wir uns mit dem Problem der gleichzeitigen Skalierung von p> 2 Merkmalen y^

ljp beschäftigen. Nach welchem Kriterium eine solche Ska-

lierung erfolgt,ist dabei situationsabhängig. Zum einen kann man so vorgehen, daß alle Merkmale sich gegenseitig möglichst gut erklären; die Merkmale werden in diesem Falle alle als gleichberechtigt angesehen. Bargmann/Chang (1972) schlagen in diesem Zusammenhang vor, den Merkmalen

derart standardisierte Zufallsvariablen

bzw.

den Ausprägungen derart Skalenwerte zuzuordnen, daß die V&t&iminante. mp-OuJ>c.hm KovieXationima&Ux

deA

zu Υ^,.,.,Υ , vgl. Abschnitt 1.2 in Kap. III,

minimal wird. Bargmann/Schünemeyer (1978) skalieren die Merkmale so, daß der KonAztatloMelLipio-id zur empirischen Korrelationsmatrix für Υ^,.,.,Υ eine maximatz

Maximum- Exzzn&U.zjXä£

besitzt; die Maximum - Exzentrizität

ist dabei gerade der Quotient von Differenz und Summe des größten und kleinsten Eigenwerts einer Korrelationsmatrix. Wie wir an den Beispielen der Abschnitte 2 und 3 gesehen haben, kann man nicht immer davon ausgehen, daß alle Merkmale Up...,0p gleichberechtigt sind. Dort wurde ein Merkmal y^ als Kriteriumsvariable, als Faktor auf endlich vielen Stufen aufgefaßt, und die übrigen Merkmale wurden einzeln gegen diese Kriteriumsvariable skaliert. Um insgesamt eine möglichst gute Diskrimination zwischen.den Stufen einer Kriteriumsvariablen zu erreichen, müßte man alle übrigen Merkmale gleichzeitig gegen sie skalieren. Als Skalierungskriterium schlagen wir in diesem Falle vor, die standardisierten Zufallsvariablen Yp...,Y stimmen, daß man eine maximale.

{mp-oviic-kn)

muttiple.

so zu be-

KoAAelation,

vgl.

Abschnitt 1.3 in Kap.III, zwischen der Kriteriumsvariablen y^ und den übrigen Merkmalen

erhält. Die Merkmale

y ? ,...,y

diskriminieren dann

323

Kapitel V: Skalierung qualitativer Daten

i n s g e s a m t maximal terer Vorteil

z w i s c h e n den S t u f e n der K r i t e r i u m s v a r i a b l e n y ^ .

Ein

wei-

d i e s e r S k a l i e r u n g b e s t e h t d a r i n , daß man auch e i n d e u t i g e

Ska-

l e n w e r t e f ü r d i e S t u f e n der K r i t e r i u m s v a r i a b l e n e r h ä l t , w o h i n g e g e n b e i e i n z e l n e n S k a l i e r u n g e n j e w e i l s a n d e r e S k a l e n w e r t e z u g e o r d n e t werden s e i denn, die K r i t e r i u m s v a r i a b l e

(es

h a t n u r 1 = 2 S t u f e n ) . Dann s i n d Methoden

der m u l t i p l e n R e g r e s s i o n s a n a l y s e a n w e n d b a r , v g l . der d i s k r e t e n R e g r e s s i o n

den

(z.B. Logit - Analyse)

K a p . I I , die die

zumindest z.T.

Verfahren

ersetzen,

und auch noch dann anwendbar s i n d , wenn d i e s e Methoden wegen g e r i n g e r

Stich-

probenumfänge v e r s a g e n ; j e d e K o m b i n a t i o n von A u s p r ä g u n g e n d e r Merkmale y

r

. . . ,Ö P muß d o r t ( z . T . m e h r f a c h ) b e o b a c h t e t w e r d e n , h i e r a b e r

nicht.

D i e s e s S k a l i e r u n g s k r i t e r i u m e r w e i t e r n w i r noch d a h i n g e h e n d , daß w i r mehrere Kriteriumsvariablen

(q < p) b e r ü c k s i c h t i g e n .

den d i e s t a n d a r d i s i e r t e n Z u f a l l s v a r i a b l e n (mp-ouAchz)

Vht>ti

kanon-iichz

Υ^,.,.,Υ

z w i s c h e n den K r i t e r i u m s v a r i a b l e n

einerseits

1.4 i n

Kap.III,

und den Merkmalen

wird.

D i e u n t e r s c h i e d l i c h e n , oben erwähnten V o r g e h e n s w e i s e n b e i der m e h r e r e r k a t e g o r i e l l e r Merkmale b i s 4.4 demonstriert.

wer-

so g e w ä h l t , daß d i e

vgl. Abschnitt

KolKeJUuLLon,

ΰ ς + 1 > · · · > ϋ ρ a n d e r e r s e i t s maxlmil

In diesem F a l l

Skalierung

werden i n den A b s c h n i t t e n

4.2

Z u v o r w i r d j e d o c h im A b s c h n i t t 4 . 1 d i e Bestimmung

empirischen Korrelationsmatrix

f ü r d i e Merkmale

in

von G e w i c h t s v e k t o r e n b p . . . , b

f ü r d i e Merkmale d e m o n s t r i e r t , was b e i

folgenden S k a l i e r u n g s k r i t e r i e n

benötigt

4.1

BESTIMMUNG FÜR

ρ

DER

Werden an η O b j e k t e n j e w e i l s

Κ0 RR Ε L Α Τ I 0 ΝS ΜΑΤ R I Χ

MERKMALE

ρ k a t e g o r i e l l e Merkmale

so l ä ß t s i c h v e r m i t t e l s k a t e g o r i e l l e r tionsmatrix

beobachtet,

Skalierung eine empirische

Korrela-

f ü r d i e s e Merkmale bestimmen. Dabei g e h t man wie f o l g t

D i e k a t e g o r i e l l e n Merkmale

mit

, i=1,...,p,

vor.

verschiedenen

p r ä g u n g e n werden an jedem der η O b j e k t e b e o b a c h t e t , d . h . f ü r das j - t e jekt ergibt sich ein

allen

wird.

EMPIRISCHEN

KATEGORIELLE

der

Abhängigkeit

AusOb-

Beobachtungsvektor

Bj = (»1j,...,Bpj)T

f ü r j = 1 , . . . ,n

Insgesamt wird die k - t e Ausprägung

(k=1,...

.

des M e r k m a l s ij^ dann

n ^ -

mal b e o b a c h t e t , und w e i t e r b e z e i c h n e n., d i e H ä u f i g k e i t d a f ü r , dab an ι * ,τη

324

Kapitel V: Skalierung qualitativer Daten

einem Objekt das Ausprägungspaar (k,n) für die Merkmale wird, wobei ι,τ=1,...,ρ und i^x;

beobachtet

n^>0.

Gesucht sind dann in verschiedenem Sinne "optimale" standardisierte variable

(bzw. zugehörige Realisationen), die den

Merkmalen

Zufalls-

kategoriellen

zugeordnet sind; der Vektor für j = 1,...,n

y H = (, jyr1 ; y ) 'j 1 j ' " - " pnji'

möge die Realisation von (Y^,...,Y

\T ) 1 am j-ten Objekt bezeichnen.

Setzt man analog zum Fall zweier kategorieller Merkmale nun für i =1 Yi=a^Ui wobei U. einen

mita-^a.,,...,^)*.

U i = ( ^ ,,... , U U . )

- dimens'ionalen { 0 , 1 } - w e r t i g e n Zufallsvektor

dessen Realisation der k-te

T

ρ ,

bezeichnet,

- dimensionale Einheitsvektor e^ ^ ist, fall

die k-te Ausprägung des Merkmals

beobachtet wird, so läßt sich die Rea-

lisation y^j der Zufallsvariablen Y.. am j-ten Objekt schreiben als für j=1,... ,n

y. J

. = α.·θ„ , = a.. ij ι I .k lk

Zu bestimmen sind dann in Abhängigkeit vom Skalierungskriterium, vgl. Abschnitt 4.2 bis 4.4, lediglich noch die Koeffizienten (Skalenwerte)

a ^

für i = 1,...,p und k=1,...,S- i .

Gleich welches der Skalierungskriterien man wählt, werden hierzu zunächst die KovaAMinz

Sy y bzw. Sy y der Zufallsveki i ix bestimmt. Hier ergibt sich mit

- and

toren

Ktimzkovcvu.a.nzmcU/u.ze,n

S* = n-S uiui uiui

für i=1,...,p ,

3S*

für i ,τ = 1 ,... ,ρ, ί^τ

U.U IT

=n·S

U.U IT

und mit n^ = (n^ ^

n^

n

i1 0

S*

)

für i=1,... ,p gerade

0

ni2

1



V i .

0

η

V

nT i

n

0

sowie für ι,τ = 1,..,ρ, i/τ 111 ,τ 11

"«1 i 1 ,τ2

i 1 ,τΐ

Kapitel

V: Skalierung qualitativer Daten

Natürlich ist dabei s

u.u ιτ

=

τu.^ ι

Für die S,^*^ - Matrizen SJj ^ wird nun eine führt: S*

UiUi

wobei L j

ZeA£egung durchge-

CholukL-

1 1

=L

Ui

·L Ui

für i = 1

ρ

eine obere iL *(Ä.-1) - dimensionale Dreiecksmatrix bezeichnet.

Hierbei ergeben sich mit

S*

S 11

s 12

s12

s22

5Z I .

V i ι

l

Vi die Elemente der Matrix L1 L1 11 12 ··· L1 21

L1 22 ··•

"2^-1

Ui

0

...

0

L

ψ

Γ

1

wie folgt: 1

= Λ1

LL 1

k)l.-1

^s 1 /L1 ki,/ i.^S.^-1

für k=1

H^-1

und für j = 2 , . . . , s.,-1 ist LL 1

jj-1

V - V a t )

kj-1 = ( S k j "

Ist dann Ly

i

2

.

Ljv)/Ljj-1

für k=1

j-1

die Pseudoinverse von L u , vgl. Abschnitt 4 in Kap.I, so g i l t i

Lui'suiui'(Lui)T =

für

i=1

Ρ

·

325

326

Kapitel V: Skalierung qualitativer Daten

Unter Verwendung der Matrizen L^j , . . . , L n U A.angAe.duzi.eJitz Mit

1 äßt sich ein Schätzer für die

der Zufallsvektoren

KoiAeZcutiommtWiix.

r* =ι ·ς* T T υ „ ) U.U U. U-U • α : ) = (RA ι τ ι ι τ τ ι

bestimmen:

für i ,τ = 1 , . . . ,ρ, i/τ

ergibt sich dieser zu Ä.-1 1 RU

=

R u.u

12

V i

l2-1

V i

\

U

"Vp V p

V

2

Hierzu lassen sich dann die Korrelationen der standardisierten Zufallsvariablen Υ ^ , . , . , Υ ρ in Abhängigkeit von Gewichtsvektoren b 1 , . . . , b n berechnen. Γ " " "~p Es i s t r

i,T

( b

i'

b

T

1

}

, l

bT-b l τ τ

b i- R U.U

ι τ

-bT

für i ,τ=1,... ,ρ, ι^τ

die Korrelation von Y. und Υτ in Abhängigkeit von b i und b , so daß die empirische Korrelationsmatrix von

in Abhängigkeit von den Ge-

wichtsvektoren b ^ , . . . , b p gerade gegeben i s t durch 1 Ry(b)

r

rUi[bybz)

1,2(b1'b2)

h,p

( b

1'V

^

W

V

r1j3(b1fb3)

...

r„ ,(b,,b,) 2,3 2 3

...

r1)p(brbp)· r, Jb,,bn) 2,p 2 ρ

r3,p'b3'bp'

Die Vorzeichen der Korrelationen in Ry(b) lassen sich allerdings nicht interpretieren. Die Skalenwerte a ^ ,

i = 1,...,p,

gewählten Gewichtsvektoren b p . . . , b

die abhängig von den speziell sind, lassen sich dann wie f o l g t be-

rechnen. Zunächst werden die Gewichtsvektoren auf die Länge Eins normiert bi = b//bT-b.

für 1 = 1 , . . . , ρ

und mit (L^ ) t m u l t i p l i z i e r t : α^ία^

ctu.)T =

(Li.)T'bi

für i = 1 , . . . , p

.

Kapitel V: Skalierung qualitativer Daten

327

Normiert man nun die Größen αϊ noch d e r a r t , daß s i e den empirischen M i t telwert 0 und die empirische Varianz 1 haben, so ergeben s i c h die Skalenwerte a ^ . Man berechnet a l s o zunächst

ä

ik

= a

1 ^ ik"Tr Σ v=l

für

1=1

ρ

und

"=1.....^

und daraus dann die Skalenwerte

a

ik

=

"ik"^

n

/ JJi^

n

iv""iv

f ü r 1 = 1 . . . . ,p und k=1

i.

.

Έ,ί-ibpieJL: Wir wollen die Vorgehensweise hier einmal an einem sehr einfachen B e i s p i e l demonstrieren. Und zwar wollen wir die empirische

Korrelationsma-

t r i x dreier s t a n d a r d i s i e r t e r Z u f a l l s v a r i a b l e n Y ^ Y ^ . Y j bestimmen, die kat e g o r i e l l e n Merkmalen

Je

.Ugmit

nur

zwe

i Ausprägungen 1,2 zugeordnet

sind. Es wurden η =52 Personen nach der Organisationsform ihres Urlaubs y^ sowie nach der Zufriedenheit mit Unterkunft

und Verpflegung y^ befragt. Beim

Merkmal y^ wurde danach unterschieden, ob der Urlaub p r i v a t (1) oder durch einen R e i s e v e r a n s t a l t e r (2) o r g a n i s i e r t wurde. Bei den Merkmalen waren die Antworten " z u f r i e d e n " (1) und " n i c h t zufrieden" (2)

und y^

zugelassen.

Die Ergebnisse der Befragung lassen s i c h in Form einer dreidimensionalen Kontingenztafel d a r s t e l l e n , v g l . lab.32 und Abb.2. tab.32: Kontingenztafel der Befragungsergebnisse von 52 Personen

«3 \ » 2

= 1

«3 V

1

= 2

a2

2 «

1

2

I

1

3

7

10

K 1

10

6

16

2

11

8

19

2

4

3

7

l

14

15

29

I

14

9

23

Aus der Tab.32 oder der Abb.2 l ä ß t s i c h b e i s p i e l s w e i s e ablesen, daß n 1 2 = 19 + 7 = 26 Personen ihren Urlaub durch einen R e i s e v e r a n s t a l t e r o r g a n i s i e r t haben oder daß

328

Kapitel V: Skalierung qualitativer Daten

Personen mit der Verpflegung zufrieden waren.

zufrieden mit

Unterkunft

Abb.2: Graphische Darstellung der Kontingenztafel zur Befragung von 52 Personen

Aus Tab.32 bzw. Abb.2 e r g i b t sich dann zunächst S*

U1U1

s*

0

0

26

26

12.923

'13

13

15

11

-4.5

S*

4.5

U1U3

1 Ί " 52' 4.5

-4.5

26 26 und

13

-13'

-13

13 12.827

-12.827

-12.827

12.827

c* '

U3U3

•(28,24) =

S*

-1

1'

. ι

-ι.

i-1.615 u

2 3

1.615

1.615] -1.615

f ü r i = 1,2,3 sind h i e r n a t ü r l i c h nur Vektoren, die sich aus =1

Λ

•(26,26) =

-12.923

U1U2

S*

26

-12.923

S*

Die Matrizen Ly

sr

1 1

ί 12.923

U2U2

υ

26

·ΙΤ ui

ui

Kapitel V: Skalierung qualitativer Daten

\J 12.923

' \TTT -\Π7

V



[-V 12.923J

V

329

v/ 12.827' bzw.

L

U,

-yj 12.827

ergeben und deren Pseudoinverse, vgl. Abschnitt 4 in Kap.I gerade gegeben sind als Lt

=(0.1387,-0.1387)

,

L^

U1

L*

=(0.1391,-0.1391)

und

2 =(0.1396,-0.1396)

3

Damit erhalten wir nun die rangreduzierten Korrelationsmatrizen, die in diesem Falle Zahlen sind:

R* .. = - 0 . 3 4 8 5 13

und

R*

=-0.1254 2 3

d.h. es ist

R

u:

1 -0.0772 -0.3485

-0.0772 1 -0.1254

-0.3485 -0.1254 1

Da auch die Gewichtsvektoren b^.b^.b^ hier nur Zahlen sind, ist R y ( b )

hier

bis auf die ohnehin nicht interpretierbaren Vorzeichen der Elemente-eindeutig. Wählt man b^, bg und b^ z.B. alle positiv oder alle negativ, so ist Ry(b) = Rjj

.

Auch die Skalenwerte a ^

für i = 1,2,3 und k=1,2 sind bis auf Vorzeichen ein-

deutig, denn die normierten Größen b^, b | und b^ sind je nach Vorzeichen von b^,b2,b 3 gleich 1 oder gleich -1. Wählt man etwa b ^ . b ^ b ^ positiv, so ist b* = b* = b* =

1

und somit a * = ( L ^ ) T - b * = ( L ^ ) T = (0. 1387,-0. 1387) T , ci*= (0.1391,-0.1391 ) τ ,

α* = (0.1396,-0.1396) τ ,

d.h. α

11 " " 1 1 4 < n π il "11

η,,·α* ) = 0.1387 "12 u 1 2

α 2 1 = 0.1284

,

&22 = -0.1498 ,

α 3 1 = 0.1235

,

ä 3 2 = -0. 1557

Somit ergeben sich die Skalenwerte zu

12

-0.1387 ,

330

Kapitel V: Skalierung qualitativer Daten

a 2 1 = 0.926

,

ct22 = -1.080

α,, = 0.891

,

α , , = -1.123

,

Einer Person j,die den Urlaub privat organisiert hat, mit der Unterkunft zufrieden und mit der Verpflegung nicht zufrieden ist, wird somit z.B. der Vektor y

j

= (y

1j'y2j,y3j)T=

( α

1 Γ α 2 Γ α 3 2 ) Τ = ( 1 ,0.926

- 123) T

zugeordnet.

Natürlich hätten wir in diesem rein illustrativen Beispiel

die Skalenwerte

auch direkt (ohne das recht aufwendige Verfahren) bestimmen können, denn falls ein Merkmale y nur zwei mögliche Ausprägungen besitzt, sind die Skalenwerte bis auf Vorzeichen eindeutig und können direkt aus den beobachteten Häufigkeiten n ^ , n 2 der beiden Ausprägungen

1,2 bestimmt werden, wenn

man sich zunutze macht, daß gelten soll η-Γη^

η

Γ

0

1

+ η

F-47i-(n1.af +

2·α2)

= 0

n 2 .a2). = 1

' .

Je nach Ziel einer Skalierung von ρ kategoriellen Merkmalen y^

y ,

vgl. die Ausführungen in den nachfolgenden Abschnitten 4.2 bis 4.4, werden verschiedene Skalierungskriterien bei der Wahl der Gewichtsvektoren b^,...,bp herangezogen.

Allen Kriterien gemeinsam ist, daß eine Funktion der empirischen

Korrela-

tionsmatrix Ry(b) maximiert oder minimiert werden muß. Dazu können unter Verwendung der ersten partiellen Ableitungen dieser Funktionen nach den Komponenten b·,, (i = 1 p, k=1,..., Ä.. -1) der Gewichtsvektoren τ τ b1 = ( b ^ . ,b lJt ^ ,... ,b p = ( b p 1 , . . . .bp^ ) , die in den Abschnitten 4.2 bis 4.4 noch angegeben werden, Gradientenverfahren wie

beispielsweise

das von Polak/Ribiere (vgl. Polak/Ribiere (1969)) oder Davidon/Fletcher/ Powell

(vgl. Fl etcher/Powell

Blum/Oettli

( 1963)), vgl. auch z.B. Himmelblau ( 1972),

(1975), Großmann/Kleinmichel

(1976), verwandt werden, die in

der Regel - bei Wahl günstiger Startvektoren b°,...,b° - sehr schnell

kon-

vergieren; die Wahl der Startvektoren wird in Abhängigkeit vom Skalierungskriterium in den Abschnitten 4.2 bis 4.4 behandelt.

331

Kapitel V: Skalierung qualitativer Daten

Bei der Bestimmung dieser ersten p a r t i e l l e n Ableitungen benötigt man s t e t s die p a r t i e l l e n Ableitungen der Elemente von Ry(b) nach den b ^ für

i=1,...,p

und k = 1 . . ;

daher wollen wir diese b e r e i t s h i e r angeben. Es e r g i b t sich

f ü r ι,χ,τ=1

ρ und k=l,...,S.^ wegen

r gerade

*>

τ

(b ,b ) = x

τ

b T "RS μ -b ι II U τ χ τ

τ. ν b «b -b'-b χ χ τ τ

3r (b ,b ) χ,τ • χ' τ'

0

3bik

und sonst

1



, f a l l s \fx

und ί^τ oder ι=χ=τ

3r· ( b . , b ) 3r .(b , b . ) ι ,τ ι τ _ τ ,ι τ ι 3bik

3bik

i

/bTb.-bTb. 11 τ τ

wobei

α ,

V = 1

Jt

11

-1

kv

τν

51k-ri,T{bi»bT))

'

JT 1 l -1 τ

12

R U.U

ι τ

rr "

H.-1 1

1

1

r1T

2 ···

r1T rH.-l I

i

T

-1

gesetzt wurde.

4.2

DAS

KRITERIUM

ΤÄΤ

UND

DER

DER

MAXIMALEN

MINIMALEN

Μ A X I Μ UΜ - Ε Χ Ζ Ε Ν Τ R I Ζ I -

DETERMINANTE

Wir wollen in diesem Abschnitt zwei S k a l i e r u n g s k r i t e r i e n behandeln, die dann geeignet sind, wenn die ρ kcrtzgo/UeJUnn

Mzlkmalz

y ^ . . . ^

glzichbe.-

icicfitcgt nebeneinander stehen, wie dies zum B e i s p i e l bei der Faktorenanal y s e , vgl. K a p . V I I I , der F a l l

ist.

Bargmann/Chang ( 1972) schlagen v o r , die Petetmoianie d e t R y ( b ) Logarithmus l n ( d e t R y ( b ) ) ) dvi

von Gewichtsvektoren ^ . . . . . b

(bzw. deren abhängigen

KoMetatccmima.tr« R y ( b ) , v g l . Abschnitt 4.1,zu mövimiz^in. Im F a l l e ρ = 2 entspricht dies gerade der Determinante d e t ( I - Q), wobei Q diejenige Mat r i x i s t , deren größter Eigenwert das Quadrat der (ersten)

kanonischen

Korrelation der zu ö 1 und y 2 gehörigen Zufal 1 svektoren U 1 und U 2 i s t ,

vgl.

Abschnitt 1.2. Eine direkte Verallgemeinerung der in Abschnitt 1.2 v o r g e s t e l l t e n S k a l i e -

332

Kapitel V: Skalierung qualitativer Daten

rungsmethoden für ρ = 2 kategorielle Merkmale i s t die MaximleAung Maximum -

deA

txzmXxJ-ziXät

λ 1 (b) - A p ( b )

maex(b) =

A,(b) + A p ( b )

(wobei λ^(b) den größten und X p (b) den kleinsten Eigenwert der Korrelationsmatrix R y ( b ) aus Abschnitt 4.1 bezeichnet) des Korrelationsel1ipsoids zur Korrelationsmatrix R y ( b ) , der durch die Vektoren ε bestimmt i s t , für die g i l t E T »Ry(b)·ε = 1, denn die Maximum - Exzentrizität maex eines Korrelat i o n s e l l i p s o i d s i s t eine Prüfgröße für den Test auf Unabhängigkeit von ρ Merkmalen nach dem Union - lnteJU&ction

Pilnzlp,

un -Prinzip),

- Ptvinzlp

(VeAeÄnlgungi

-

VuAchichnltU-

v g l . auch Bargmann/Schünemeyer (1978).

Bei der Minimierung von det R y ( b ) bzw. der Maximierung von maex(b) bzgl. ) T , . . . ,b p = ( b p 1

der Gewichtsvektoren b 1 = ( b 1 , , . . .

b pJl _ 1 ) T kön-

nen die ersten p a r t i e l l e n Ableitungen dieser Funktionen nach b ^ für i = 1 , . . . , ρ und k=1

Jt^ — 1 verwandt werden. Hier ergibt s i c h , v g l . Barg-

mann/Chang (1972) bzw. Bargmann/Schünemeyer (1978), wenn ...

r1p(brbp)

r12(b,,b2)

...

r2p(b2,bp)

ir1P(brbp)

...

r*"(bp,bp)

Y Ry^(b)

1 1

^ ^ )

die Inverse von Ry(b) bezeichnet, für i = 1 , . . . , p und k=1,...,J,.. 31n(det Ry(b)) 3b

l ρ

.

3r.

(b.,b -

v=1

ik

vfi

riv(b.,bv) [L f /v bTb. v=1 ,. ι ι v^i

V 1 iv ( ^ Χ Λ ^ υ I b... νω r,;;. kω + Γ ι ω=1

/ Λ

1 ikj

und 1 3maex(b) IB^-^^bKXptb)

/ 3X,(b) ((1-maex(b)).^—-(Hmaex(b))

hier i s t für t=1 ,p 3X t (b) 3b

ik

= 2ft,(b) t7

ρ 3r X f + (b) tv v=1 ViM

(b.,b ) 1

3b

ik

v

3

V

b )

\ )

;

333

Kapitel V: Skalierung qualitativer Daten

/ Ä1 :1 4V^l' V

wobei f(.(b) = ( f . ^ ( b )

/

λ

V V

«-' " k " Λ 1ν1 "* '

1

f^.p(b)) T einen auf Länge Eins normierten Eigenvek-

tor zum Eigenwert ^ ( b ) der Matrix Ry(b) bezeichnet. Ein Beispiel zur Bestimmung dieser p a r t i e l l e n Ableitungen findet man im Abschnitt 4.3. Will man die Maximum - Exzentrizität konkret mit H i l f e eines numerischen Verfahrens maximieren bzw. die Determinante minimieren, so benötigt man StaAJMiAXi b ° , . . . , b ° für die Gewichtsvektoren

. Da insgesamt bei-

de Kriterien daraus hinauslaufen, die einzelnen Korrelationen zwischen den Zufallsvariablen

möglichst groß (dem Betrage nach) zu machen,

bietet es sich an, diese Startwerte aus der paarweisen Skalierung der Merkmale mittels des Verfahrens aus Abschnitt 1.2 zu bestimmen. Bargmann/Chang (1972) schlagen vor, zunächst jedes Merkmal gegen jedes zu skalieren, und dann den Startvektor b° zum Merkmale y^ für i = 1 , . . . , p durch Prämultiplikation des Vektors der Mittelwerte der p-1 so gewonnenen Skalenwerte mit der Matrix L^

ZU bestimmen.

Noch bessere Startwerte, vgl. Bargmann/Chang (1972), erhält man durch das folgende, allerdings rechenaufwendigere Vorgehen. Man bestimmt den Startvektor b° zum Merkmal y^ für i = 1 , . . . , p als sogenannte kanonische multiple Korrelation des Zufallsvektors IL und der übrigen Zufallsvektoren U t , τ = 1,

mi t

,p, τ / i ; d.h. als Eigenvektor zum größten Eigenwert der Matrix Ui

• ( Rι t ) " 1 · ( R J ) T ι

RUi =

^ RU i u 1 !

(I X*

•"R5iUi-, U1U2

¥ i

.R,•u,u i i +1

ι Ρ

Vl-I

R

V i - 1

V i

¥

i +

i

+1

r

¥

p

V p

D*

Ri = D* ι Ui+1U1

Vi

V l

U

2

R*,

U i + 1 U i-1

RCi+1U2

UpU2

R

Vi-1

R C i-1 U i + 1

h

RU

-1 i+1 U. .

ρ i+1

U i-1 U p R5i+1Up

V1

334

4.3

Kapitel V: Skalierung qualitativer Daten

DAS

KRITERIUM

DER

MAXIMALEN

MULTIPLEN

KORRELA-

TION Im Abschnitt 2 und 3 haben wir Beispiele dafür betrachtet, daß nicht a l l e Merkmale gleichberechtigt sind. Vielmehr wurden dort p-1 kategorielle Merkmale U 2 , . .

einzeln gegen ein auigezexcfmeiai katzQonlMu

linnkmal J ^ ,

die KfUXtKULmivajviabZe., s k a l i e r t . Natürlich wäre es dort wohl günstiger gewesen, a l l e Merkmale y 2

öp gleichzeitig gegen y^ zu skalieren, um zu

erreichen, daß insgesamt bestmöglichst zwischen den Stufen der Kriteriumsvariablen diskriminiert wird. Als Skal ierungskriterium schlagen wir nun in solchen Fällen den rmiUmtm nuttipl&n

bzw. dessen Quadrat, vgl. Abschnitt

KoM-eZaXlomkoiiilzZeMten

1.3 in K a p . I I I , zwischen der Zufallsvariablen Y^, die der Kriteriumsvariablen zugeordnet i s t , und den Zufallsvariablen Y2

Yp, die den übrigen

kategoriellen Merkmalen zugeordnet sind, vor; vgl, El pel t/Hartung ( 1985). Manmaximiert also das nultiplz 2

r (b) = [r1>2(b1,b2) n . S ^ r ^

l

f

l / r V '

ΒiitArnntheJXimaß

"

r2)3(b2,b3) r

2,3(b2·^)

^r2,p(b2'V

der Regression von Y^ auf Y2

r

3,p(b3'V

···

r

2,p(b2'V

r

3,p2(brb2) r

1,3(b1'b3J

1

W

W

Yp bzgl. der Gewichtsvektoren b^,...,bp

Gegenüber den Einzelskalierungen der Merkmale U 2 ,...,Up gegen y^ hat dies den zusätzlichen Vorteil, daß man eindeutige Skalenwerte α ^ , . , . , α ^ für die Stufen der Kriteriumsvariablen erhält und so das Skalierungsergebnis zur Regression verwenden kann, vgl. auch das nachfolgende Beis p i e l . Dadurch werden die Verfahren der diskreten Regression (z.B. LogitAnalyse, vgl. Kap.II) nicht nur ersetzt, denn dort müssen auf allen Stufen des Merkmals y^ a l l e Ausprägungskombinationen der Merkmale y 2 > . . . , y p mehrfach beobachtet werden, wohingegen es hier nur notwendig i s t , daß a l l e Ausprägungen mindestens einmal beobachtet werden. Dies bedeutet, daß ein sehr viel geringerer Stichprobenumfang η von Objekten ausreicht a l s bei den üblichen Verfahren der diskreten Regression. Im Beispiel der Autohersteller aus Abschnitt 3 gibt es etwa pro Reparaturanfälligkeitsmerkmal 5 Ausprägungen und 5 Stufen der Kriteriumsvariablen, d.h. insgesamt 15*5 = 75 Merk15 malsausprägungen und immerhin 5 = 30517578125, d.h. mehr a l s 30 M i l l i a r den Ausprägungskombinationen zu beobachten.

Kapitel

V: Skalierung qualitativer Daten

335

Bei der Maximierung des multiplen Bestimmtheitsmaßes r (b) können wir uns zunutze machen, daß die ersten p a r t i e l l e n Ableitungen dieser Funktion nach den Komponenten b ^ der Gewichtsvektoren ( i = l

p, k=1

Αη--1) für

k=1,... ,ί,^-1 wie f o l g t gegeben sind Ρ Ρ v.v2 3r 2 (b) •2· l t r 1 2(b b ).r, 3b 1k v^=2 v2=2 1 2 und f ü r

(brb )2 2

^l.v/h^v» 3b

1k

i=2,...,p 3r (b) _ 3bik

1vi / Ρ v 3 r i i(bi>M ( y r ^b-.b )-r, (b.,b )Y—Ul-J—L 1 V1 1 ' V 3bik \),=2 ' ' V A

3ri ν

(bi,

v

> f i=2? [

3b i k

v



f „ L V 2

v^i

/ ^ ( lb

,b ) · r . V2 V 3 W

(b .,b )]), 1 V J /

wobei gesetzt wurde: 1 r2j3(b2,b3)

^2,pV

Die

StanM.Qe.ttz

1

r

3,p(b3'V

r3j4(b3,b4)

r4,ptb4'bp)

...

2,pVÜ2'üpJ r3jp(b3,bp)

-1

-

.22 r"(b2,b2)

23 r"(b2,b3)

24, r"(b2,b4)

...

r2p(b2,bp)

r23(b2,b3)

r33(b3,b3) r34(b3,b4)

...

r3p(b3>bp)

r2P(b2,bp)

r3P(b3,bp) r4P(b4,bp) . . .

rPP(bp,bp)

b 2 , . . . , b ° für die Gewichtsvektoren wählt man h i e r a l s Skalen-

1 wertevektoren y . = ( y ^ , . . .

z

i t ) , i = 2 , . . . ,p, der Einzelskalierungen gegen die

Kriteriumsvariable y^ p r ä m u l t i p l i z i e r t mit der Matrix Ly , d.h. b? =L

U.'yi

für

i=2,...,P

,

und a l s Startwert b ° f ü r den Gewichtsvektor b^ zur Kriteriumsvariablen kann man den Vektor der Mittelwerte der Skalenwerte a l k > k = 1 , . . . , £ 1 , für y 1 der Einzelskalierungen gegen U 2 > . . . , y p p r ä m u l t i p l i z i e r t mit l J

verwenden.

BeX.ipiel·. Im Abschnitt 2 hatten wir drei Merkmale ( A l t e r y 2 , Familienstand y 3 . p o l i t i s c h e Einstellung y 4 ) mit j e drei Ausprägungen einzeln gegen die Kriteriumsvariable Einkommen y . auf zwei Stufen (weniger a l s 3000 DM, mehr

336

Kapitel V: Skalierung qualitativer Daten

a l s 3000 DM) s k a l i e r t . Um e i n e n m ö g l i c h s t hohen E r k l ä r u n g s g r a d f ü r d i e S t u f e n d e r K r i t e r i u m s v a r i a b l e n zu e r r e i c h e n , i s t es b e s s e r , a l l e Merkmale g e meinsam gegen d i e K r i t e r i u m s v a r i a b l e zu s k a l i e r e n . Diese S k a l i e r u n g m i t dem K r i t e r i u m d e r maximalen m u l t i p l e n K o r r e l a t i o n bzw. des maximalen Bes t i m m t h e i t s m a ß e s s o l l h i e r einmal d u r c h g e f ü h r t werden. Dazu müssen w i r z u n ä c h s t d i e K o r r e l a t i o n s m a t r i x Ry(b) der Merkmale k e i t von den G e w i c h t s v e k t o r e n b^ .. . . . . b ^ )

( i n Abhängig-

m i t H i l f e des V e r f a h r e n s aus Ab-

s c h n i t t 4 . 1 bestimmen. Aus den Daten d e r T a b . 6 i n A b s c h n i t t 2 e r g i b t

sich

z u n ä c h s t m i t η = 12 S*

V i SU

2U2

s* ¥ 3 S*

¥ 4 SU,LL

3

'5 0 0

0 2 0

0' 1 I 0 2 (5,2,5) " 12' 5J 5,

f5

0 0

0 5 0

f4 0 0

0 5 0

1 4

1 1

5 0' 7 -5 -2' 1 0 5 (5,5,2) 7 -2 -5 • π ' 2 -2 -2 4 ι2 o1 32 - 2 0 -12 1 1 0 (4,5,3) = -20 35 -15 3 "TT 27 T2* - 1 2 - 1 5 3 1 -13 2 11) yj(5,2,5) (s* )T 1 13 - 2 - 1 1 2J " T T * II II ' 2 1 T2* - 1 - 1 2 5) τ 1 (5.5.2) (s;

3 1

S* U2U3

S* U2U4

=

(5,7)

" t t

1

1

¥4

U3U4

• τ r [ ?

3

S*

S*

0 7

2 3

S*

V

5 0

(4.5.3)

'TT

1

3

1

1

3

1

1 2

1 1

0 2

" T1T 1

'T2* J_

12"

1 >

-1

5 12'

(4,5,3)

(4,5,3)

-5

-2 4 -2

-5 -2 7

1

-2

1

1

ΤΎ'

16 -16

-13 13

f 11 2 -13

-13 2

1

(5,5,2) =

7 -2

1

TT

4 4 -20

16 4

w

(S*

11

-3)

2

-6

=(s*

9

11 -13 2

i

(>S *II II ') T 3 2

11

-13

)T V

1

1

9] -3 -6

1T

V 2

(S*

4^3

)T

Die C h o l e s k i - Z e r l e g u n g e n d e r M a t r i z e n S*

für i =1 4 l i e f e r n dann d i e u i i f o l g e n d e n oberen D r e i e c k s m a t r i z e n und z u g e h ö r i g e n P s e u d o i n v e r s e n

. 630 l - \ / 24 -vT -2

12 -\TZÄ

\fS

-2

0 4

2.\!

-3] 24

337

Kapitel V: Skalierung qualitativer Daten

l - r m V i * ·

10" 4 müssen wir den zweiten S c h r i t t des Verfahrens durchführen. 1

?

1

Die ersten p a r t i e l l e n Ableitungen der Elemente von R v (b ) und von r (b ) ι ι ' nach den Komponenten der Gewichtsvektoren b.j,. ...b^j sind in der Cab.35 bzw. Cab.36 angegeben.

340

Kapitel V: Skalierung qualitativer Daten

Cab.35: Partielle Ableitungen 3r ι

XT

1 1 1 (b ,b )/3b!. =3r Χ

Τ

IK

XT

1 /9b!. der Elemente von IK j

j

RY(b ) nach den Komponenten der Gewichtsvektoren b . , . . . , b .

i 1 2 2 3 3 4 4

3r

k 1 1 2 1 2 1 2

12

3r

^

0 0 0 0 0 0 0

ar

13

8b

-0 0 0 0

9r

23

3b

!k

0 0 0 0 0 0 0

0 0 0 0 0 0 0

9r

14

ab

!k

0 047007277 031385777 169676283 000361824 0 0

0 -0

-0 0

3r

24

34

3b

!k

0 013112684 008755062 0 0 012404299 060620575

0 0 0 -0

lk

0 0 0 248376020 000529646 013956780 068207661

2 1 Cab.36: Partielle Ableitungen des multiplen Bestinnntheitsmaßes r (b ) nach 1

1

den Komponenten der Gewichtsvektoren b , , . . . , b .

k

3b

1 2

3b

!k

0

ar 2 (b 1 )

arV)

3rV)

3b

k

-0.001821408 0.001216115

k

-0.012493573 -0.000026642

3rV) 3b

lk

0.002239389 -0.010944032

In diesem zweiten Schritt ergeben sich mit

ik ~ ik

•0.3

.3rV) 3b

lk

dann die Gewichtsvektoren 2 1 h 11 b, = hb1 = 1

,

b|=(1.922828131,2.881446311)T bg = (-0.004997429,2.309390443)T b? = (-3.392888209,-0.698820089)'r aus denen man berechnet: 1 Ry(b') = 0.377964425 0.075592718 0.489896319 und r 2 (b 2 )

0.377964425 0.075592718 1.0.489896319

0.377964425 1 -0.040749260 0.274079566

0.075592718 -0.040749260 1

0.107393651

0.489896319 0.274079566 0.107393651 1

1.087078025 0.077185329 -0.306235088 0.077185329 1.017148324 -0.130390194 -0.306235088 -0.130390194 1.097935859

0.377964425) 0.075592718 0.489896319

Kapitel V: Skalierung qualitativer Daten

= 0.305958081 Da g i l t r 2 ( b 2 ) - r 2 ( b 1 ) = 5.1824·10" 5 < 10 - 4

,

brechen wir das Verfahren h i e r ab und bestimmen die Skalenwerte für die Merkmale

gemäß des in Abschnitt 4 . 1 angegebenen Verfahrens. Zu-

nächst erhalten wir b* = b] / Ζ ( b 2 ) T - b 2 = l / / 7 = 1 b*=(0.555072650,0.831801872)

T

b|=(-0.002163955,0.999997659) T

, , ,

b* = (-0.979440831,-0.201731648) T und daraus dann a * = ( L j ) T - b * = (0.292770022,-0.292770022) T α* =(-0.361382715,0.103024383,0.258358332) T α * = (-0.257513983,-0.258882588,0.516396571) T

,

T

.

α * = (0.385510899,-0.271517985,-0.113992913) Damit e r g i b t s i c h a^ = (0.341565026,-0.243975018) T

,

a 2 = (-0.335626619,0.128780479,0.284114428) T ä 3 = (-0.128414840,-0.129783445,0.645495713 ) T ä 4 =(0.398637988,-0.258390896,-0.100865824) T und s c h l i e ß l i c h erhalten wir die folgenden Skalenwertevektoren: α, = ( 1 . 183215956,-0.845154255) T a 2 = (-1.162644713,0.446108664,0.984201248) T a 3 = (-0.444842054,-0.449583042,2.236062742) T a 4 = ( 1.380922498 ,-0.895092320,-0.349409463) T Natürlich hat s i c h hier an den Skalenwerten f ü r die beiden Stufen der K r i teriumsvariablen Einkommen y^ nichts geändert, da diese ja eindeutig f e s t gelegt s i n d . Die Güte der Skalierung und die Zuordnung neuer Objekte kann nun genau wie bei den Einzelskalierungen in den Abschnitten 2.2 und 2.3 m i t t e l s

Diskri-

minanzfunktionen oder Mahalanobisdistanzen e r f o l g e n ; zu diesem Zweck be-

341

342

Kapitel V: Skalierung qualitativer Daten

stimmt man ausgehend von der Datenmatrix aus Tab.6 in Abschnitt 2 die skal i e r t e Datenmatrix Y, die in Cab.37 angegeben i s t . Hierbei wurden nun auch die Skalenwerte für die Stufen der Kriteriumsvariablen berücksichtigt, die die erste Spalte der skalierten Datenmatrix bestimmen. Cab.37: Skalierte Datenmatrix Y nach dem Kriterium der maximalen multiplen Korrelation zu den Daten der Tab.6

1

öl

y

y

1

183215956

1

183215956

1

183215956

1

183215956

1 183215956

- 0 845154255

Y=(y1 »y2»y3

«2 y

ij1

- 0 845154255

«3 y

ij2

0 446108664

ij3

- 0 449583042

0 984201248 - 0 444842054

- 0 349409463

1 380922498

0 984201248

2 236062742

1 380922498

- 1 . 1 6 2 6 4 4 7 1 3 - 0 449583042

1 380922498

0.446108664

- 0 444842054 - 0 895092320 - 0 895092320

0 984201248 - 0 449583042 - 0 349409463 162644713 - 0 444842054 - 0 349409463

0 984201248 - 0 449583042 - 0 895092320

845154255 - 1

162644713

i j

1 380922498 y

0 984201248 - 0 449583042

- 0 845154255 - 1 - 0 845154255

»4 ij4

- 1 162644713 - 0 444842054 - 0 895092320

- 0 845154255 - 1 162644713 - 0 444842054 - 0 845154255

y

2 236062742 - 0 895092320

Τ

ll

τ y 12 Τ y 13 Τ y 14 Τ y 15

1 1 1 2 1 3 1 4 1 5

Τ 2 1 21 Τ 2 2 Y 22 Τ 2 3 y 23 Τ 2 4 y 24 Τ 2 5 y 25 Τ 2 6 y 26 Τ 2 7 y 27 y

Bevor Güteprüfung und K l a s s i f i k a t i o n durchgeführt werden, könnte man hier zunächst noch überprüfen, welche der Merkmale ög»!^»^ nichts zur D i s k r i mination zwischen den Stufen von

beitragen, und diese unwesentlichen

Merkmale eliminieren; man vgl. dazu auch die Ausführungen im Abschnitt 2.1. Darauf wollen wir hier verzichten und direkt die Güteprüfung anhand der Fisherschen linearen Diskriminanzfunktion, vgl. auch Abschnitt 4 in Kap.IV, durchführen. Bei der Fisherschen Diskriminanzfunktion müssen zunächst die Kovarianzmatrizen S1 und S 2 der Merkmale Ü2>Ü3

und

ö 4 und daraus dann die gemeinsame

Kovarianzmatrix S sowie deren Inverse S"^ berechnet werden. Hier ergibt sich

Kapitel V: Skalierung qualitativer Daten

Vr

3.456712212 1.437072310 2.734894242

Vr

6.829002516 -2.268919720 -1.667900019

1.437072310 3.833724391 2.140529242

343

2.734894242 2.140529242 3.489383783

-2.268919720 6.171433386 -1.296196561

-1.667900019 -1.296196561 4.155889920

S = 1 ^(5S 1 + 7S 2 ) und somit "1=12.

0.099543983 0.009537555 -0.014945930

0.009537555 0.101802536 -0.012574007

-0.014945930 -0.012574007 0.134274312 i n den beiden Gruppen

Da d i e m i t t l e r e n Skalenwerte der Merkmale gerade

y 1 =(0.447213539,0.089442510,0.579653142) T

,

y 2 = (-0.319438242,-0.063887507,-0.414037959) T s i n d , e r g i b t s i c h , daß eine Person, bei der e i n Vektor y von Skalenwerten f ü r d i e Merkmale 1)2,03,04 z u t r i f f t ,

der ersten Stufe der

blen (Einkommen unter 3000 DM) zugeordnet w i r d , (y, - y 2 ) T - s : 1 - v { ( y i - y 2 ) T - s " 1 · ^

+

Kriteriumsvaria-

falls y2>

= (0.755115932,0. 125120271 ,1 . 4 4 0 4 9 0 7 0 8 ) y 3 3 8 2 4 9 7 4 4 und der zweiten Stufe zugeordnet w i r d , f a l l s d i e s e r Term k l e i n e r a l s

>0 Null

ist.

Die Werte d i e s e r Diskriminanzfunktion ergeben s i c h f ü r d i e

12 befragten

Personen, wenn man y = ( y . j 2 > y . j j 3 , y i j 4 ' T nacheinander f ü r a l l e

i,j

setzt,

wie i n Cah.38 angegeben.

In der e r s t e n Gruppe haben w i r somit, wie schon bei den E i n z e l s k a l i e r u n g e n im A b s c h n i t t 2, eine F e h l k l a s s i f i k a t i o n und auf der zweiten Einkommensstufe zwei F e h l ' k l a s s i f i k a t i o n e n ; das sind 20% bzw. 28.6% F e h l k l a s s i f i k a t i o n e n .

Zum g l e i c h e n Ergebnis gelangt man, wenn man d i e g e n e r a l i s i e r t e l i n e a r e kriminanzfunktion

Dis-

verwendet.

Die Diskriminanzfunktionen b i e t e n h i e r eine d i r e k t e A l t e r n a t i v e zu den Methoden der d i s k r e t e n Regression ( z . B . L o g i t - Analyse, v g l . K a p . I I ) . andere M ö g l i c h k e i t besteht aber auch d a r i n , d i r e k t e i n

Eine

Regressionsmodell

zu verwenden. Allgemein b i l d e n h i e r d i e Skalenwerte zu den k a t e g o r i e l l e n

344

Kapitel V: Skalierung qualitativer Daten

Cab.38: Werte der Fisherschen linearen Diskriminanzfunktion, wahre und zugeordnete Einkommensstufen für η = 12 Personen einer Befragung, vgl. auch Tab.6 und Tab.37 i

j

1 1 1 1 1 2 2 2 2 2 2 2

1 2 3 4 5 1 2 3 4 5 6 7

Wert 2 0 -2 2 2 0 -1 -2 0 -1 -0 -2

Merkmalen y 2

Zuordnung

100692963 015081328 392087346 507015246 843043974 885897657 177292041 392087346 014488134 606036261 771562951 056651812

wahre

Zugehörigkeit

1 1 2 1 1 1 2 2 1 2 2 2

1 1 1 1 1 2 2 2 2 2 2 2

öp für η Objekte die Designmatrix X der multiplen Regres-

sion von y 1 auf 0 2 >···»1!ρ

und

die Parameter B 1

ß p . 1 der multiplen Re-

gression werden dann unter Verwendung des Vektors der Skalenwerte der K r i teriumsvariablen y,| für die η Objekte a l s Beobachtungsvektor y aus der Regressionsgleichung, vgl. K a p . I I , geschätzt:

= X + .y = (X T .X) + .X T .y

.

Dabei kann man sich hier zunutze machen, daß g i l t 1

r2)3(b2,b3)

r2>3(b2,b3)

1

Χ Τ ·Χ = η· lr2,p(b2'V

r

3,P(b3'V

...

r2>p(b2,bp

··

r3,p0)


--.üp· Mit den Bezeichnungen 1 r1)2(b,,b2)

'•i,2(b1'b2)

•r1.q(b1'bq)

r

··· ···

RY(q)(b) = 2,q(b2>V

r

1,q(bl'bqr

r 2,q< b 2' b q>



rq+1,q+2^bq+1'bq+2^

RY(p)(b) =

1,q+1

y(q,P)(b)

= (R

Y(P,q)(b»

V r V

(

q+2,P(V2'bp»

r q + 2,p (b q + 2> b p^

^ V i - p ' V i ' V

R

V i . P r

rq+1,q+2(bq+1,bq+2)

" r

, b

q+1^

r

1,q+2(b1'bq+2}

'2,q+1(brbq+1)

r2,q+2(b2'bq+2)

q,q+l(bq'bq+l)

r

q,q+2(bq

wird also in diesem F a l l e der größte Eigenwert A„(b) der Matrix u

r

l,p(b1'V

r2,p(b2'bp}

r

q.p

(b ,b ) q' v '

349

Kapitel V: Skalierung qualitativer Daten

( R

Y(q)(b))"1-RV(q,p)(b)'(RY(p)(b))"1'RY(p,q)(b)=A

i n A b h ä n g i g k e i t von den G e w i c h t s v e k t o r e n b j schnitt

1.4 in

bp m a x i m i e r t ,

v g l . auch Ab-

Kap.III.

Dazu b e n ö t i g t man d i e p a r t i e l l e n A b l e i t u n g e n von X g ( b ) n a c h den Komponenten von b j

b p . H i e r e r g i b t s i c h , wenn man

i

r > r b i > r ^ b , ^ )

r

^(bi,b2) r"(b2,b2)

...

^ r V rZq(b2,bq)

r^q(b2,bq)

...

rqq(bq,bq)

-1

(RY(q)(b))

tr

l q

(brbq)

rΓ q + 1 q + 1 f b b ) rq+1 q+2fb b ) , ο Hq + 1 q + 1 r , „' q + 1 ' q + 2 . q+2 q + 2 ( b H ^ rq+1 q+2, ) r q+1 q + 2 r q+2 q+2

rr q + 1 q+2

„q+1 ρ

rPP(bp,bp)

p

(b

b ) 'P q+2 ρ q + 1

Pi

r

(RY(p)(b))( b ^ . b j V T p'

r

q + 2

P1 ( b _ „ b n ) V ' p

s e t z t , und wenn man m i t f(b) = ( f ^ b )

fq(b))T,

g(b) = ( g 1 ( b ) , . . . , g q ( b ) ) T ,

g(b)Tf(b) = 1

E i g e n v e k t o r e n zum E i g e n w e r t X Q ( b ) d e r M a t r i x Α b z w . A T b e z e i c h n e t ,

für

i = 1 , . . . , q und k = 1 , . . . , ί , ^ - 1 3AG(b) 15—=

ϊ

ϊ

S

!

9V (b).rWlUj2(b

•if (b)·r ( b , ,bM ) ' ( r ^ V2 ν2,ωι V 2 ÜJl \

V l i

(b

v

Vi

,b.)-[ ι L

,b

)

3r, (b · ,b ) 1 ,102 ι ω2

~5ETi k

3r. v 3 = 1 vi, = 1 v^i

v 3 = 1 Vi» = 1 vit^i

v3 ,ωι

müssen nun zunächst Kovarianz- und Kreuzkovarianzmatrizen der Zu-

fal 1 svariabl en U 1 ,...> U p> x i····> X q bestimmt werden. Mit V i j / i j

für i = 1 , . . . , q

ergibt sich s

i χ i i

n

=

l ( χ ί i ~ χ·ί'(χτ·ί " Ο 1J 1 TJ τ j=1

η sy

ν

i τ

2

l j=1

(x

ii

-

=

1J

1

_

für

i = 1 » — .q

_ = sy

γ i i

für ΐ,τ = 1

q, ί/τ

352

Kapitel V: Skalierung qualitativer Daten

i"i1 0 S

0

...

0

ni2

...

0

"11 .1. " η"

V i " 0 η

s*

U

0

"12 (η

ι1 ' " i 2 "

"1t, I

11,τ1

Π

ιΊ,τ2

"

"ι2,τ1

η

12,τ2

-

U

1

für i=1 "11 τλ τ "12

A

ρ

"11 ' "12

.1. " η"

(ητ1.η

2,...,n

τ

)

k · (Si^)·

=

X

( s

Vi

für i ,τ=1

i j ~Χϊητ1

x

ij "xi"x2 für i=1

]

wobei die Summation von

x

ρ, ι7τ

i j " V u

T

,

)

q, τ=1,... ,ρ

Uber j:k bedeutet, daß hier die Realisationen

der Zufallsvariablen X, derjenigen Objekte j addiert werden, bei denen die k-te Ausprägung, k=1

£ τ , des Merkmals y T beobachtet wurde.

Nun werden mittels Choleski - Zerlegung, vgl. auch Abschnitt 4.1, obere Dreiecksmatrizen Lj s* V i

für i = 1 , — , ρ derart bestimmt, daß g i l t =1

u

i

«L τ u

i

für i=1

ρ

Weiterhin bestimmt man die Größen für i = 1 und berechnet die Pseudoinversen L^

q der Matrizen Lj

für i = 1 , . . . , p ; die

Pseudoinversen von L Y sind für i = 1 , . . . , q natürlich gerade 1/LV . x *i i Unter Verwendung a l l dieser Größen läßt sich ein Schätzer für die rangreduzierte Korrelationsmatrix der zufälligen Größen X 1 stimmen. Mit r, xixT

= s

xix/(Lxi'LxT)

=r

xTxi

R* „ = L* - S * „ »(Lj1, f = ( R * „ ) T U V x i U A V V i sowie

für i ,τ=1 für i=1

X £ ) ,U 1 ,... ,U beJn P q, i/τ ρ, ί^τ

Kapitel V: Skalierung qualitativer Daten

= S*

ergibt

-(L

)

+

* > τ

Κ

sich

dieser

Ί

X.

/ L

1=1,..

f U r

Γ)(

Γ)(

1Χ2

Γ χ

ι

1Χ2 1

···

r

···

r

x,x

q

X2Xq

1 =

χ

V

i

V

dieser

die

Korrelationen

keit

von

Diese

· "

2

U*2X2

RU

X

ρ

zu ,Y Y 1 · · · natürlich für

X.X ι τ

und

V Y l

τ

( b

u

R

x

u 1 2

R

x

υ

R

x

υ

V

-

q ¥

R

...

R*

x υ V i

V

q

R 5

p

q

V

sich

2U1

i'

T

b

RXY(b)

=

}

male

zu

= r

i T

( b

i '



,

V

v

+

-

p )

-

*

M a t r i x R^jj und

und

ί^τ

Υ., b^,

gerade

-bT

1

T '

b

die

folgende

1

12

die

, R

|1

lassen

sich

..,Υρ

in

Abhängig-

..,bp

bestimmen.

Elemente

r

2

>"12(b2)

r

2 2

(b

) 2

)

... ...

r

·•·

W

Gewichtsvektoren ergeben

r

Iq

r

2q

r

sich

b

q 2

1 (

_ b l

(b

2

( b

1

für

in

b

1

)

Ρ

τ = 1

^

i=1,...,q,

·

r

W gehörigen

folgender

ergibt: r

' 2 2 ^ 2 '

··•

r

r

5

12

τ=1,...,ρ

···

q ?

( b

(b

2

)

V

W

und

r

r

für

Weise.

( b

p>

(b

q p

1 p

2p

( b

( b

···

Skalenwerte Art

r

···

1

1p

' 92 np -

rp1+1p1+2(bP1+1'bPl+2)

V i P

( b

P i

+

l ' V

V q ^ l

P+q.,+2^

V q ^ i

ρ+q

rp1+

1p

+ 1 P+q 1 +2 (b)

r P +q 1 + 2

" · ""p+V1 p+q(b) ··· r p+q 1+ 2 p+q ( b )

1

P+q ( b )

( b P l +

rV

rp1+2p(bp1+2'bp>

,"pl+2p(bp1+2'bp)

= (b)

-

1

r p+q 1

1

R X(q)< b >

" ' ?i+qi+1 p + q v ! · " rp1+q1+2 p + q / D '

Kapitel V: Skalierung qualitativer Daten

1

r

r

q,+1 q,+2

q

q 1 + 1 q.+2 " · r q. + 1 q 1 r · · · r q,+2 q

q^+2 q

r

R

1 P1+1(b)

r

1 P1+q,(b)

r

2

r

2

r

Pi

r

P,

pj^»

P,+l(b)

r

R

Y(Pl,P)

(b)

=

(R

Y(P,Pl)

P1+q/b)

11(b1} r2,(b2)

r

12(b15 r22(b2)

· · · r 1q ( b 1 } . . . r 2 (b 2 )

V

V

'··

V

r

1 p1+q1 + 1 ( b )

r

(b)

2p1+ql

+

1

V -·

V

/

V

(b)

Ί

P+qi

r

••• 2P+q/b)

(b))

p1 ρ,+ς,+ι

(hl

r

r

1 p1 + 1 ( b 1 ' b p l + l '

r

b

2 p|+1' 2' p|+1'

r

YX(p1.q)=

R

XY(q,l)(b)

Vp) R

bzw. r'(b)=fRY(p;1)(b) lP

maximiert. Mit

XY(q,D(b)

XY(q,p)(b)

360

Kapitel V: Skalierung qualitativer Daten

RY{p)(b)

RYX(p,q)(b)

R XY(q,p)( b >

RX(q)(b'

r22(b)

r23(b)

r 2 P + ^(b)

rp+q

rp+q

rp+q

2(b)

3(b) _

p+q(b)

lassen sich die partiellen Ableitungen von r (b) nach den Komponenten b ^ der Gewichtsvektoren

wie folgt schreiben. I s t die Kriteriumsva-

riable kategoriell, so i s t für k=1,... ,5,^-1 # 1 = 2

P

3b1k

T

r

»«

( b

,.

r i v

vi=2 V2=2

( H ^ Ü l 3b1k

1Vl

und weiter i s t in diesem F a l l e für i=2

,

ρ und k = 1 . . ik

v2 =

v3

v 2 ^i

diese letztere Form der partiellen Ableitungen g i l t im Falle einer stetigen Kriteriumsvariablen für i = 1 , . . . , p und k=1

Α..

Sind schließlich mehrere der p + q Merkmale, höchstens jedoch p + q - 2 , als Kriteriumsvariablen ausgezeichnet, so i s t die

maximale

eAite

kanoni&che

KowieZation ein geeignetes Skalierungskriterium. Sind p^ kategorielle Merkmale y 1 = z r . . . , ö p

und q, stetige Merkmale = 2p X 1 1 ausgezeichnet, so wird die (erste) kanonische Korrelation zwischen Z . , . . . ,2„

1 p1+q1 ren bj = bf,

Zn

und Ζ „

_

PI+c2p+q in Abhängigkeit von den Gewichtsvekto-

• h^i^i

=M ^Ίτηιτ|

maximiert. Hierbei b_ = b* κ κ,τΗ·|

kann es natürlich sein, daß a l l e Kriteriumsvariablen kategoriell (q^=0) oder stetig (p^ =0) sind, jedoch muß gelten p^ + q ^ 2 . Die kanonische Kor relation i s t gerade die Quadratwurzel aus dem größten Eigenwert X(b) der Matrix RY(Pl)(b) R

XY(qrPl)(b)

R

vx(Pl,qi)(b)

-1

RX(qi)(b)

RY(p)(b) RXY(q,p)(b)

Y(PrP)(b)

^XY(q15p)(b)

R YX(p, q )< b >]~ 1 RX(q)(b)

R

J

iRY(p,Pl)(b'

RYX(prq)(b) RX(qrq)(b)

RYX(p,qi)(b) RX(q,qi)(b)

so daß wir hier also A(b) bzgl. b i , . . . , b * ,b* maximieren 1 P^ " 1 " 1 1 müssen. Bezeichnen f ( b ) und g(b), g(b) T f(b) = 1, Eigenvektoren zum Eigen-

Kapitel V: Skalierung qualitativer Daten

wert x(b) der Matrix Α bzw. A T , und setzt man R

r11(b)

-1

v(Pl)(b)

^ΧΥίς,,ρ,)^)

RY(p)(b)

RX(qi)

RYX(p,q)(b)

KY(q,p)(b>

r

r12(b)

p.+q. 1 p.+q. 2 1 1 (b) r 1 1 (b)

p1+q1+1 p,+q. + 1 (b)

-1

RX(q)(b>

r

p+q +1 p+q 1

·. r

1

r

... r

361

ι ρ,+q, 1 1(b) p.+q. p.+q. 1 1 1 1 (b)

ρ +q +1 p+q 1 1 (b)

„p+q p+q (b)

(b)

so ergeben sich die p a r t i e l l e n Ableitungen von λ(b) nach den Komponenten der Gewichtsvektoren f ü r i = 1 . . , p 1 und k=1 3λ (b) ik

Ρ,+q, p ^ q ! •

I I Vi=1 v

2

p+q

zu

p+q

(b)τ I Ϊ = 1 ω ^ ρ , ^ ^ + Ι ü) =Pj+q,| + 1Vi

1

2(b)

2

/ , -i .(r^ib) [ V L

(b)

P1 q1 P1 q1

3bi k

v

l i=1

v

l i=1

v^i pl+q1

P1+q1

vi-i

vi, νι,/Μ

Für i=p1+q1 + 1

p+q1 und k=1

V2

(b)·r (b) V2CO1

3r, (b). r (b) · r V 3 V l * (b) · ν3ω2 3bik .

+ f H (b) τ ν ωι ( b ) - r V l V 2 ( b ) 2

f

3r. ^

3r.

(bk

(b)

3bik

j^.-l sind die ersten p a r t i e l l e n Ab-

leitungen des Eigenwerts x(b) nach den Komponenten b? k der Gewichtsvektoren b p ^ + 1 .1(h, ik

b p gerade

p1+q1 p1+q1 P1+q1

Σ. Vi=1

Σ. v 2 =1

p+q

SL ( b ) - f v ( b ) - r V l V 2 ( b ) - r U l 1 ( b ) Σ. I 3 v 3 = 1 ü)i=p^+q^+ 1 Vi

,3r.

(b)

p+q

ωιν3 1

3r\,Jb) ωιν2 (

b

)

B t ik

ω3/Γ

p+q

1

p+q I W2 =P 1 +q 1 + 1 ι ^ Ρ ^ , + Ι

3r, (bh] (b).rW2U3(b).—^ J

V3Ü)2

Unter Verwendung der p a r t i e l l e n Ableitungen der verschiedenen Skalierungsfunktionen, können nun G>w.dle.ntinveA(la.h>iw,

wie z . B . die von Davidon/Flet-

Kapitel V: Skalierung qualitativer Daten

362

eher/Powell' ( v g l . Fletcher/Powell

(1963)) oder P o l a k / R i b i e r e ( v g l .

Polak/

R i b i e r e (1969)) verwandt werden, um d i e Funktionen zu o p t i m i e r e n ; man v g l . h i e r z u auch die Bücher von z . B . Himmelblau ( 1 9 7 2 ) , Blum/Oettli Großmann/Kleinmichel

(1975),

(1976). Dazu werden StaLKtWJvt2b2

//ö

1

r- 1 4 (b) r 2 4 ( b ) r 3 4 ( b )

u

2

b

2

/ ^

1b1b2b2

rn(b1)

r23(b) r24(b)

r13(b) r23(b)

2

= 24

r12(b) r,3(b) r14(b)' 1

x

b^iU2b2//bXbfb 112 2

bzw. mit 1J1 = 2 1 , ^ = 2 2 , ö 2 = 2 3 > 1

l2^b1,b2^ 1

b1b1

b

r12(b)

, y^ gerade

r

11(b1>

r34(b)

r12(b1,b2)

1

r21(b1)

,

1

r12(brb2) r12(b2)

r12(b2) '12

r21(b1) '12 r22(b2)

r22(b2)

Nun müssen zunächst Startwerte b° = bf°, b£ = b|° flir die Gewichtsvektoren b 1 = b* und b 2 = b* bestimmt werden. Dazu skalieren wir Ö1 gegen ö 2 , y 1 gegen \

und ü 2 9 e 9en X^ und mittel η dann die beiden resultierenden Werte für b^

und b 2 · Bei der Skalierung von 0.01667 -0.00962 -0.00962

gegen ö 2 e r g i b t s i c h , v g l . Abschnitt 1.2, -0.00962 0.22778 -0.21667

-0.00962 -0.21667 0.22778

mit λ 6 = 0.44444

und

f = (0,-1,1)T

so daß s i c h wegen a 1 = 0 , a 2 = - 1 K T S und α 3 = 1/\TJ die Skalenwerte für das Merkmal y 1 zu "11

0 ,

y 1 2 = -\Γ577 ,

13 =

Kapitel V: Skalierung qualitativer Daten

365

ergeben; weiterhin berechnet sich dann e 1 = - 2 / \ Γ Ζ 7 , ß 2 = 0 , ß 3 = 2/vTZ7 , und die Skalenwerte für das Merkmal ö 2 sind '21

= -\T573 ,

y22 = 0 ,

y „ = \T573 23

Nun wird das Merkmal y 2 gegen X^ skaliert. Dazu fassen wir die Ausprägungen von X^ als Kategorien auf,d.h. wir bilden die Kontingenztafel

aus Iah.42

aus der sich die Matrix 7

-νΠ7

-3

-\Π7

6

-\ΓΤ7

-3

-vTT?

7

ergibt, vgl. auch Abschnitt 1.2.

tah.42: Kontingenztafel

3

7

8

9

10

12

15

17

25

I

1 2 3

0 0 0 ·. 1 1 0

0

0 1 0

0

0

0 1

0 1

1 0 0

1 0 0

0

1 0

1 0

1 0 0

3 4 3

I

1

1

1

1

1

1

1

1

1

10

V i ö 2 \

2

für die Skalierung von y - gegen X

1

Der größte Eigenwert der Matrix Q ist hier Ag = 1

f = (1,-/3,1)T

mit

,

so daß sich α, = 1/V~3 ,

α 2 = -sT37i ,

α3 =

W ~ 3

und somit y21 = vTZ73,

y22 = - / 3 7 7 ,

y 3 2 = \T273

ergibt. Bei Verwendung des anderen angegebenen Verfahrens zur Skalierung

kategoriel-

ler gegen stetige Merkmale hätten sich hier mit b'-(R* 2

^ U ^

)T / '

J7* v

K

fR*

X1U2tKXlU2;

)T-..

J - J '

0

·

5 4 5 7 1

)

-

ί-°·819081

" 0.66625[-0.38222J " [-0.57369J

die Skalenwerte für das Merkmal y 2 ergeben zu yi. = 1.50600, yX? = - 0 . 4 7 2 2 6 , y'

=-0.87632

366

Kapitel V: Skalierung qualitativer Daten

Genauso s k a l i e r e n w i r nun noch ausgehend von I a h . 4 3 das Merkmal y . gegen

Cab.43: K o n t i n g e n z t a f e l \ * 2

f ü r d i e S k a l i e r u n g von y . gegen X

2

5

10

12

15

17

20

21

23

l

1 2 3

0 0 1

0 0 1

0 1 0

2 0 0

0 0 1

0 1 0

1 0 0

0 1 0

1 0 0

4 3 3

l

1

1

1

2

1

1

1

1

1

10

« X j

Hier ergibt

sich

=



6

-\ΓΪ2

-\Π7

-νΠ2

7

-3

-VM2

-3

7

mit AQ = 1

und

f = (-v/3,1,1)J

d.h. o 1 = -\J 3/4 ,

α2=1/\/3

,

a3 = \ M 3

und somit y11=-\/37?,

y12 =

2/3 ,

y

n

= V2/3

A l s m i t t l e r e n Skalenwertevektor e r h a l t e n w i r aus diesen paarweisen

Skalie-

rungen y

1

= (y

11,y12'y13)T

=

( - 0 - 6 1 2 3 7 , - 0 . 2 3 7 2 5 , 1 .05375) T

bzw. y 2 = ( y 2 1 . y 2 2 , y 2 3 ) T = (-0-23725,-0.61237,1 .05375)T so daß w i r a l s Startwerte f ü r die Maximierung der kanonischen zwischen

und Q ^ & z

Korrelation

Vektoren

b° = b * ° = Lj^ •y 1 = ( 0 . 4 9 1 1 5 , 2 . 1 8 1 4 7 ) T

,

b° = b * ° = L^ - y 2 = ( - 0 . 4 9 1 1 5 , 2 . 18147) T verwenden. Die m i t t l e r e n Skalenwertevektoren y^ und y,, können noch auf V a r i a n z normiert werden, bevor b° und

berechnet werden. H i e r würde s i c h

yj = (-0.86602,-0.33552,1.49023)T

,

Eins

Kapitel V: Skalierung qualitativer Daten

367

=(-0.33552,-0.86602,1.49023)T und daraus dann = ( 0.69459,3.08506)T

,

b^0= (-0.69459,3.08506)T e r g e b e n . Da a b e r i n t e r n wegen d e r D i v i s i o n d e r G e w i c h t s v e k t o r e n d u r c h i h r e Norm d i e s e a u f Länge E i n s n o r m i e r t w e r d e n , h a t d i e Normierung d e r m i t t l e r e n S k a l e n w e r t e v e k t o r e n k e i n e n E i n f l u ß a u f d i e S k a l i e r u n g und kann daher auch u n t e r l a s s e n werden. Für d i e s e S t a r t w e r t e b e r e c h n e t s i c h 1 Rz(b°) = -0.65271 0.41667 -0.63486

-0.65271 1 -0.25302 0.92344

0.41667 -0.25302 1 -0.16724

-0.63486 0.92344 -0.16724 1

und s o m i t i s t d i e k a n o n i s c h e K o r r e l a t i o n von

und X 2 ,JJ 2 9 e r a t * e d i e

Q u a d r a t w u r z e l aus dem g r ö ß t e n E i g e n w e r t A ( b ° ) = 0.86959 der M a t r i x 1 •0.65271

-0.65271)' 1

J

ί 0.41667 [-0.63486 d . h . es

0.41667 -0.25302

-0.63486) 0.92344)l-0.16724

-0.25302) _ f 0.17252 0.92344J " ^ - 0 . 5 0 5 1 4

-0.16724)

-0.09517) 0.80062J

ist r ( b ° ) = V 0.86959 = 0 . 9 3 2 5 2

Wir b e n ö t i g e n nun im e r s t e n S c h r i t t E i g e n v e k t o r e n f ( b ° ) , g ( b ° ) m i t g ( b ° ) T f ( b ° ) = 1, z . B . f ( b ° ) = ( 1 . 0 0 0 0 , - 7 . 3 2 4 0 ) T , g(b°) = ( 0 . 0 9 0 0 , - 0 . 1242)T sowie d i e p a r t i e l l e n A b l e i t u n g e n d e r Elemente von R „ y ( b ° ) bzw. R z ( b ° ) nach den Komponenten b ^ , b ° 2

von b° und b ^ , b ° 2 von b i j . H i e r e r g i b t

3rn(b°) :-0.04014 3 b

3rn(b°)

0.00904

n

3r12(b°) 3 b'

11

= 0.04103

ar12(b°) 3b

12

-0.00924

sich

368

Kapitel V: Skalierung qualitativer Daten

3r ? 1 (b°)

3r ? 1 (b°)

β

ά

= -0.26890 ,

= -0.06054 ,

3022 3r„(b°) β c =-0.28196 ,

3r,,,(b°) g ^ =-0.06348 , 3b22

3r12(b°b°) 3r1?(b°b°) c —' =-0.10907 , — u 0 ' ί = 0.02456 , 0' 3b11

3b12

3r1?(b°b°) 3r.?(b°b°) — — — = 0.10907 , — ü - j J — — = 0.02456 ,

und a l l e übrigen partiellen Ableitungen haben den Wert Null, so daß sich die partiellen Ableitungen des größten Eigenwerts X(b°) ergeben zu 3A(b°) _ .Q.02Q3 3b

s

3b

11

3A(b

3X(b°) = 0.0Q47

° } = 0.0015

und

,

12

3A(b0) 3b

= 0.0003

22

Bestimmt man nun die Vektoren b!, b! im ersten S c h r i t t mittels des einfa1' 2 chen Vorgehens b

ik

= b

ik

+

für 3b

i=1

ik

.2

und

k=1

'2 .

so erreicht man hier nur noch eine leichte Verbesserung der kanonischen Korrelation gegenüber dem Anfangswert 0.93252. Die Anfangswerte für b^ und b 2 liefern also schon nahezu ein zumindest lokales Maximum, dem man sich mittels obigen Verfahrens nur noch wenig nähern kann. Hier müßten dann f e i nere Verfahren, z.B. das von Davidon/Fl etcher/Powell, v g l . Fletcher/Powell (1963), welche die zweiten Ableitungen aus den ersten nachbilden und benutzen, eingesetzt werden. Um die Vorgehensweise an obigem einfachen Gradientenverfahren jedoch zu demonstrieren, setzen wir hier einmal θ = 0.4, was eine geringfügige Vergrößerung der kanonischen Korrelation bewirkt. Es ergibt sich dann mit 9 = 0.4 b] = b * 1 = (0.48283,2.18335) T , b ^ b * 1 = (-0.49055,2.18159) T

Kapitel V: Skalierung qualitativer Daten

369

und somit

1 Rz(b') =

-0.65235 0.41768 -0.63521

-0.65235 1 -0.25319 0.92344

0.41768 -0.25319 1 -0.16742

-0.63521' 0.92344 -0.16742 1

Die kanonische Korrelation wird dann

r(b ) V

x(b1)

V 0 . 8 6 9 7 7 = 0.93261

Wir wollen nun noch die Skalenwerte für y^ und y 2 angeben, die aus b| und b 2 resultieren. Diese Skalenwerte können dann in die Datenmatrix aus Tab.41

ein-

gesetzt werden, so daß dann die Verfahren für metrische Merkmale zur Analyse von Zusammenhängen zwischen X 1 ,y 1 (Verkauf) und X 2 > ö 2 (Werbung)

eingesetzt

werden können. Der Vektor der Skalenwerte für das Merkmal y . ergibt sich aus 1 b 1 zu τ , α, = (-0.86271,-0.34121,1.49149) und der für y 2 ergibt sich zu a 2 = (-0.33593,-0.86579,1.49031 ) T eine WHAXQAH

AuiuiztUung

;

dieses Beispiels erfolgt im Abschnitt 1.3 von Kap•

iJ

6 KORRESPONDENZANALYSE, GUTTMANSCHE SKALIERUNG UND DIE ALS VERFAHREN Im letzten Abschnitts dieses Kapitels wollen wir noch kurz einige weitere Skalierungsverfahren ansprechen, die zum Teil bei der Skalierung

zweier

kategorieller Merkmale mit den Verfahren aus Abschnitt 1.2 zusammenfallen.

Bei der KoVLeApondenzanaly&e.

und auch bei der G o t t m a n i c h & n

ShatieAung

zweier kategorieller Merkmale X und y mit c bzw. l Ausprägungen, vgl. z.B. Guttman (1941), Escofier - Cordier ( 1969), Hill

( 1974), Cailliez/Pages

Bock (1980), wird jedem der Merkmale eine {0,1} - wertige c -

(1976),

bzw. ί,-di-

mensionale Zufallsvariable U bzw. V zugeordnet. Die Realisation einer solchen Dummy - Variablen ist stets ein c -

bzw. i - dimensional er Einheitsvek-

tor, wobei die 1 an der k-ten Stelle steht, wenn für das Merkmal X bzw. y die k - t e Ausprägung beobachtet wird. Werden die beiden Merkmale an η Objekten beobachtet, so entsteht durch Hintereinanderschreiben der Realisationen von U und V eine nx(c+i.) - dimensionale Datenmatrix A , deren Elemente nur Nullen und Einsen sind, und zwar stehen in jeder Zeile genau zwei

370

Kapitel V: Skalierung qualitativer Daten

Einsen. Berechnet man nun unter Verwendung dieser Datenmatrix die Kovarianzmatrizen 0

n 1.

0

. .

0

.

0

*

n 1.'

(n 1 ,n 2 ,

. .nc.

n 2.

1

II

IS)

n 2.

"n2' 0 S S = 1— · ΰ νν η

0

•nc.·

0 0

;

n.2

0

. .

0

.

0

·

n.l' (n.1'n.2 n.

1

;

2

V

0

für U und V, wobei n^ , . . . , n c

, η ^ , . , . , ή ^ die Spaltensummen der Daten-

matrix bezeichnen, sowie die Kreuzkovarianzmatrix

s^UV= 1η .

n 11

· •

n

n 21

*

n2H



U

V 1

(η^,.,.,η^)

n 2.

~n2' ^nc1

so werden bei der

* •

nc£-

KowieApondenzanalyiz

n c.·

die

Skale.nwe.fLte.

für die c Ausprägungen

des Merkmals X a l s gewichtete, normierte Eigenvektoren zum größten Eigenwert X^g der Matrix S

Uli

-s -S -S UV VV UV

und die Skalenwerte für die l Ausprägungen des Merkmals y a l s gewichtete, normierte Eigenvektoren zum größten Eigenwert Agg der Matrix S" .ς τ -S" -S VV UV UU UV bestimmt, wobei S ^ und Sj" n, generalisierte Inverse von S MII und S „ „ bezeichJVV JVV UU nen, z.b. l / n 1.

0

1/n

0

1/n

1/n .2 ···

VV '

0 Natürlich i s t hier

0

2. ···

JUU

0

... 1/n

0

. . . 1/n

Λ·

371

Kapitel V: Skalierung qualitativer Daten

A

1G

X

= r

2G

UV

das Quadrat der kanonischen K o r r e l a t i o n von U und V, v g l . A b s c h n i t t 1.4 in K a p . I I I . Da ^uu*^UV*^VV*^UV 9 e r a c ' e i d e n t i s c h mit der Matrix Q des Verfahrens aus A b s c h n i t t 1.2 i s t , erweist s i c h die Korrespondenzanalyse a l s

äqui-

v a l e n t zur Lancaster - S k a l i e r u n g . Auch die Guttmanichz

SkatieAung

zwe-teA kaXzgohA.eJULzn. M&lkmxlz

erweist s i c h

a l s i d e n t i s c h mit dem Verfahren aus A b s c h n i t t 1.2. Guttman f a ß t die Datenmatrix Α a l s zweidimensionale Kontingenztafel auf und s k a l i e r t mit dem Verfahren aus 1.2 die Objekte gegen die beiden Merkmale. Z u s ä t z l i c h zu den ^öt U 3 bzw. \l y

V 2 , V 3 zu den kanoni-

sehen Variablen M^ =a|-U und M 2 = a m2 » UU zu R

/ / a ^ R u u a 1 = (0.31284,-0.99640,0.46880) UUa1'

,

374

Kapitel V: Skalierung qualitativer Daten

'rU2M2'rU3M2

(

v

(

V i 'Γν2ΜΓΓν3Μ1

( r

V12

2

'rV2M2'rV3M2

(-0.96212,0.12660,0.86281)

,

(0.04106,-0.92471,0.83881)

,

(-0.99994,0.40802,0.51923)

ergeben, v g l . auch Abb.3.

M2· •U3

K

0.5-

x

v3

v2

•u2

0T1-

o!i

-0.5

O!5

M

1

-0.5-

„V,

.Ui

Abh.3: Darstellung der Ausprägungen (bzw. zugehörigen Dummys U,|,U 2 ,U 3 , V^,V,,,V 3 ) der Merkmale X und y im Raum der kanonischen Variablen M,| und Mg

Würde man diese Korrelationen normieren, so würden n a t ü r l i c h U^.UgjU^, V p V g . V g a l l e auf dem E i n h e i t s k r e i s l i e g e n , da die Matrix Q nur zwei pos i t i v e Eigenwerte b e s i t z t . Das h i e r beschriebene Verfahren der kanonischen K o r r e l a t i o n s a n a l y s e kann n a t ü r l i c h auch in dem F a l l e verwandt werden, v g l . Abschnitt 1.4 in K a p . I I I , daß die kanonischen Korrelationen zweier Gruppen von Merkmalen X ^ , . . . , * und U

1

. . d i e

dann an die S t e l l e der Dummys t r e t e n , a n a l y s i e r t wer-

den. Abschließend wollen wir noch kurz auf die sogenannten ALS - VeAiahAnn

ein-

gehen, die von Young, De Leeuw und Takane entwickelt wurden, v g l . De Leeuw/

Kapitel V: Skalierung qualitativer Daten

Young/Takane (1976) sowie die nachfolgenden Arbeiten dieser Autoren in der Psychometrika und Young (1981). Die ALS (aZXMncuUng

leaAt

iqucvieA)

"Ver-

fahren sind zweistufige, iterative Algorithmen, die für vorgegebene statistische Modelle in der ersten Phase zu festen Model 1 Parametern Skalenwerte für Merkmalsausprägungen und in der zweiten Phase für vorgegebene Skalenwerte Model 1 parameter liefern, so daß die Anpassung an das Modell nach dem Prinzip der kleinsten Quadrate möglichst gut ist. Für multiple Regressionsmodelle heißt das Verfahren z.B. MORALS (multiple optimal regression by alternating least squares), für kanonische Korrelationsmodelle (multivariate Regressionsmodelle) z.B. CORALS (canonical optimal regression by alternating least squares), für die Hauptkomponentenanalyse PRINCIPALS (principal component analysis by alternating least squares) usw. Ein Nachteil der ALS - Verfahren ist, daß sie teilweise gar nicht und sonst nur gegen ein lokales Optimum konvergieren.

375

Kapitel VI: Die multidimensionale Skalierung (MDS)

Die Zielsetzung der nvZ£idime.niiotu>ale.n

SkalieAung

(MPS) i s t die Beschrei-

bung von η Objekten durch eine q - dimensionale Datenmatrix, die im F a l l e q O

auch zur graphischen Repräsentation der Objekte verwandt werden kann,

vgl. Abb.l.

m

D

Ε •

Abb.l: Darstellung von f i k t i v e n Objekten Α bis J in einem dreidimensionalen Repräsentationsraum a l s Ergebnis einer multidimensional en Skalierung

Wir suchen bei der multidimensional en Skalierung a l s o eine Skala, die jedem der η interessierenden Objekte einen q - dimensionalen Vektor zuordnet, den wir für das i - t e Objekt bezeichnen wollen mit yi = ( y i 1 » . . . , y i q ) T

für i = 1 , . . . , n

Die Verfahren der MDS, von denen wir im folgenden die wohl wichtigsten behandeln werden, gehen von unterschiedlichen Datensituationen aus. Sie benötigen KhntLc.hkeJXiiniofumXX.onzn

Uber die Objekte, die zum einen aus einer

ρ - dimensionalen Datenmatrix bestimmt werden können, v g l . Abschnitt 6 in

378

Kapitel VI: Die multidimensionale Skalierung (MDS)

in Kap.I, zum anderen aber auch direkt beobachtet werden können. Zunächst wollen wir hier einige typische Situationen beschreiben, bei denen die multidimensionale Skalierung zur Anwendung kommt.

Be^iipZil: (a) Einer Jury bestehend aus 10 Personen werden 20 verschiedene Weinsorten zur Probe ausgeschenkt. Jede Person bewertet die Verschiedenheit von je 2 Weinsorten mit einer Punktzahl zwischen 0 und 5. (Die zu vergebende Punktzahl soll um so größer sein, je stärker sich zwei Weinsorten unterscheiden.) Für jede der Verschiedenheiten zwischen je zwei Weinsorten liegen dann 10 Bewertungen vor und als Distanzindex wird z.B. jeweils der Mittelwert oder der Median dieser Bewertungen gewählt. Alle so erhaltenen Distanzindizes bestimmen dann eine Distanzmatrix D; auch genügt es, von den so erhaltenen Distanzindizes lediglich ihre Rangzahlen innerhalb aller Distanzindizes zu verwenden, je nachdem, welches Verfahren der MDS man benutzt. Nun möchte man sich die Lage der Weinsorten zueinander bzgl. der Verschiedenheit graphisch veranschaulichen. Dazu bestimmt man mittels miltidimensionaler Skalierung zu jeder Weinsorte z.B. einen 2 - dimensionalen quantitativen Vektor und stellt diese 20 Vektoren in einem Koordinatenkreuz graphisch dar. (b) Aufgrund einer Entfernungstabelle zwischen 50 Städten der Bundesrepublik Deutschland, die ja eine Distanzmatrix D darstellt, kann mittels multidimensionaler Skalierung eine Landkarte, in der diese Städte eingezeichnet sind, erstellt werden: Für jeden Ort bestimmt man einen zweidimensionalen Vektor, dessen Elemente dann die Lagekoordinaten der Städte sind. (c) In Interviews wurden insgesamt 300 Personen über bekannte Politiker befragt. Unter anderem beurteilten sie die Ähnlichkeiten bzw. Unterschiede zwischen je zweien der Politiker auf einer Punktskala von 0 bis 7. Kombiniert man die 300 Ähnlichkeitsbeurteilungen für jedes Politikerpaar zu einem einzigen Ähnlichkeitsmaß (z.B. durch Mittelwertbildung und/oder Rangbestimmung der Ähnlichkeiten), so entsteht eine Distanzmatrix für die Politiker, die sich mittels multidimensionaler Skalierung etwa in eine zweidimensionale quantitative Datenmatrix Uberführen läßt. Eine solche Datenmatrix erlaubt dann die graphische Darstellung jedes Politikers im Vergleich zu den übrigen in einer Ebene. (d) Beobachtet man an η verschiedenen Orten Merkmale, die die Umweltgüte bestimmen, so lassen sich Distanzindizes als Maße für die Ähnlichkeiten der Orte bzgl. ihrer Umweltgüte berechnen. Mittels multidimensionaler Skalierung können dann z.B. 2 - dimensionale Ortsvektoren

gewonnen wer-

den, die eine graphische Darstellung der Orte im Hinblick auf ihre Umwelt-

379

Kapitel VI: Die multidimensionale Skalierung (MDS)

glite, nicht im Hinblick auf ihre geographische Lage, ermöglichen

("Umweltgü-

tekarte"). (e) Aufgrund von Umfragen z.B. Uber die Beliebtheit von Filmstars lassen sich mittels multidimensional er Skalierung "Beliebtheitsskalen", etwa eine eindimensionale Anordnung der Filmstars, gewinnen. (f) Eine Umfrage über Eigenschaften von gleichartigen Produkten (z.B. Waschmittel ; Zigaretten; Getränke) kann mittels multidimensionaler

Skalierung

dahingehend ausgewertet werden, daß eine Konfiguration der Produkte im Blickwinkel

der Verbraucher entsteht. Eine graphische Darstellung der Kon-

figuration kann Aufschluß darüber geben, wo "Marktlücken" vorhanden und somit zur Entwicklung von Marketingstrategien

sind,

beitragen.

(g) Werden über längere Zeit die Anforderungen aus einem Lager registriert (Häufigkeit der Anforderung bestimmter Waren, Häufigkeit gemeinsamer Anforderung verschiedener Waren etc.), so läßt sich mittels multidimensionaler Skalierung eine dreidimensionale Konfiguration für die verschiedenen Lagerposten gewinnen, die dazu dienen kann, das Lager nach ökonomischen Gesichtspunkten neu einzurichten. (h) Im Rahmen der Kostenkalkulation bei der Angebotserstellung müssen sehr viele Einflußfaktoren berücksichtigt werden. Um den Kalkulationsprozeß sichtlich zu machen, können die Einflußfaktoren mittels

über-

multidimensionaler

Skalierung systematisiert werden, d.h. es können Gruppen ähnlicher Faktoren visuell

(bei höchstens dreidimensionalen Konfigurationen) erfaßt wer-

den .

Die Komponenten

der mittels multidimensionaler Skalierung gewonnenen

mensionalen Vektoren y^

y n lassen sich oft nur schwer

q-di-

-Lnte.\ptie£Le.ne.n:

Sie können in der Regel nicht eindeutig einem Faktor zugeordnet werden.

Im Beispiel

(a) etwa wird man wohl kaum sagen können, daß die erste Kompo-

nente des quantitativen Vektors zu jeder Weinsorte seiner "Süffigkeit" und die zweite etwa seiner "Blume" zuzuordnen ist. Im Beispiel

(b) hingegen

lassen sich die Komponenten der Ortsvektoren zu den Himmelsrichtungen

in

Bezug setzen. Das liegt aber daran, daß die Lage der Orte durch Längenund Breitengrade vollständig bestimmt ist. Die Dimension des quantitativen Vektors stimmt mit der Dimension eines Vektors, der die Lage eines Ortes vollständig bestimmt, überein. Bei den Weinsorten hingegen ist es sicherlich so, daß mehr als zwei Faktoren für die Verschiedenheit der Weine verantwortlich

sind.

Allgemein läßt sich wohl nur sägen, daß bei der Interpretation der Kompo-

380

Kapitel VI: Die multidimensionale Skalierung (MDS)

nenten eine Rückkopplung

zu den Ausgangsdaten u n e r l ä ß l i c h i s t . Da d i e s e

Rückkopplung in der Regel nur s u b j e k t i v s e i n kann, werden w i r in den noch folgenden konkreten B e i s p i e l e n die Komponenten n i c h t i n t e r p r e t i e r e n und d i e s e Aufgabe dem Leser ü b e r l a s s e n . Wir werden im folgenden v i e r Verfahren der multidimensionalen

Skalierung

kennenlernen. In den A b s c h n i t t e n 1 und 2 werden Verfahren der sogenannten metridahen

MPS (MMPS) behandelt, d i e konkrete Werte f ü r die Ä h n l i c h k e i t e n

von η Objekten, a l s o eine D i s t a n z m a t r i x , benötigen. Die Verfahren der met/vuchen

MPS (NMPS) hingegen, v g l . A b s c h n i t t 3 und 4 , benötigen nur

nichtIn-

formationen über den Grad der Ä h n l i c h k e i t von Objekten, d . h . etwa welches Objektpaar i s t s i c h am ä h n l i c h s t e n , am z w e i t ä h n l i c h s t e n usw.

Im e r s t e n A b s c h n i t t wird das Verfahren Nonlinear

Mapping

(ULM) behandelt.

Hier wird ausgehend von e i n e r D i s t a n z m a t r i x f ü r η Objekte, die d i e D i s t a n z i n d i z e s der Objektpaare e n t h ä l t , eine q - dimensionale Datenmatrix d e r a r t gewonnen, daß d i e zugehörige

e u k l i d i s c h e D i s t a n z m a t r i x die

ursprüngliche

D i s t a n z m a t r i x a p p r o x i m i e r t , und zwar s o , daß ein D i s t a n z i n d e x um so b e s s e r a p p r o x i m i e r t w i r d , je k l e i n e r er i s t . Dadurch werden l o k a l e S t r u k t u r e n timal"

"op-

beibehalten.

Der zweite A b s c h n i t t b e i n h a l t e t e i n

k l a s s i s c h e s MDS - V e r f a h r e n , das in

s e i n e r e i n f a c h s t e n Form auf Torgerson (1952,1958) zurückgeht, nämlich d i e Haupt - Koordinaten

- Methode..

Ohne S t r u k t u r e n in e i n e r D i s t a n z m a t r i x f ü r η

Objekte zu b e r ü c k s i c h t i g e n , wird h i e r eine q - dimensionale f ü r d i e Objekte gewonnen. Der V o r t e i l

Konfiguration

d i e s e s im E r g e b n i s o f t

unbefriedigen-

den Verfahrens l i e g t d a r i n , daß es sehr wenig Rechenaufwand e r f o r d e r t . Im A b s c h n i t t 3 b e s c h ä f t i g e n w i r uns mit dem l / e r f a h r e n von Kruikal,

bei dem

l e d i g l i c h d i e Anordnung der n ( n - 1 ) / 2 Objektpaare nach der S t ä r k e i h r e r V e r s c h i e d e n h e i t b e n ö t i g t wird ( P r o x i m i t ä t s d a t e n ) . Hier v e r s u c h t man d i e o r d i nale Reihenfolge der Objektpaare zu approximieren, d . h . man sucht eine

q-

dimensionale q u a n t i t a t i v e Datenmatrix f ü r d i e η Objekte d e r a r t , daß d i e L

- Distanzen der Objektpaare, v g l . A b s c h n i t t 6 in K a p . I , m ö g l i c h s t genau

die g l e i c h e R e i h e n f o l g e von Objektpaaren

liefern.

Oftmals i s t es s i n n v o l l , eine Verknüpfung

der

Verfahren

aus den A b s c h n i t t e n

1 b i s 3 vorzunehmen. Steht eine D i s t a n z m a t r i x zur Verfügung, so w i r d etwa m i t t e l s Haupt - Koordinaten - Methode eine q - dimensionale K o n f i g u r a t i o n

für

η Objekte bestimmt, d i e dann a l s S t a r t k o n f i g u r a t i o n f ü r Nonlinear Mapping d i e n t . Treten dann in den D i s t a n z i n d i z e s zur NLM - K o n f i g u r a t i o n noch zu

Kapitel VI: Die multidimensionale Skalierung (MDS}

381

viele Vertauschungen in Bezug auf den Grad der Ähnlichkeit in der ursprünglichen Distanzmatrix auf, so können diese mittels des Verfahrens von Kruskal ausgeglichen werden; das Kruskalsche Verfahren wird mit der NLM - Konfiguration als Startkonfiguration durchgeführt. Eine gänzlich andere Datensituation wie in den bisherigen Abschnitten wird von der Unfolding

- Technik,

die im Abschnitt 4 behandelt wird, erfaßt. Ur-

sprünglich wurde die Unfolding - Technik für den Fall entwickelt, daß für jedes Objekt eine I - Skala

(individual

icalz)

vorhanden i s t , die die sub-

jektive Reihenfolge der übrigen Objekte nach deren Grad der Ähnlichkeit zum Bezugsobjekt angibt (Vnä^nAmzdatm). Ausgehend von den η subjektiven I - S k a l e n wird bei der eindimensionalen Unfolding - Technik, die wir hier behandeln, eine

eindimensionale Konfiguration für die Objekte bestimmt,

die man dann auch J - Skala

(joint

bcatz)

nennt.

Bespiel:

(a) Mitglieder von Parteien (oder auch Mitglieder von Religionsgemeinschaften, Staatsbürger bestimmter Länder usw.) können nur subjektiv beurteilen, wie ähnlich andere Parteien ihrer eigenen Partei sind. Aus diesen subjektiven Ähnlichkeitsbeurteilungen werden z.B. durch Mittelwertbildung I - Skalen für jede Partei bestimmt, und mittels Unfolding - Technik entsteht eine eindimensionale Parteienskala. (b)

Die Ähnlichkeit wissenschaftlicher Zeitschriften eines bestimmten

Fachgebiets läßt sich v i e l l e i c h t daran messen, wie oft eine Zeitschrift in einer anderen z i t i e r t wird. I - S k a l e n für η Zeitschriften lassen sich dann etwa dadurch gewinnen, daß man zählt,wie oft jede Z e i t s c h r i f t sich selbst und jede der übrigen Zeitschriften z i t i e r t . Die betragmäßige Differenz der Eigenzitate und der Fremdzitate (für jede der übrigen Zeitschriften) gibt dann die (subjektive) Ähnlichkeitsrangfolge an. Mittels Unfolding - Technik erhält man dann eine eindimensionale Skala für die Zeitschriften. (c) Eine andere Möglichkeit des Einsatzes der Unfolding - Technik stammt aus der Piychologie.:

Sogenannte Idzalpunktikalzn

für η verschiedene Reize wer-

den dabei verwandt. Man läßt hierbei verschiedene Personen angeben, welcher Reiz für sie der ideale (IdeaZpunkt),

der nächstbeste usw. i s t . Die

I - S k a l e n erhält man dann, indem man jeweils über die Personenskalen mitt e l t , die den gleichen Idealpunkt angegeben haben. Diese Situation i s t natürlich beliebig übertragbar etwa auf BeZizbtheAjtiikalm für Personen oder Produkte etc. Somit kann die Unfolding - Technik z.B. gerade in den Bereichen MziHungi- und MaiktfioiAchung

wirkungsvoll eingesetzt werden.

382

Kapitel VI: Die multidimensionale Skalierung (MDSj

Die Gütz

ΖΛΆΖ/Ι VauutMang

der η Objekte im q - dimensional en Re-

präsentationsraum wird bei allen Verfahren der MDS (mit Ausnahme der Unfolding - Technik) durch eine Gixtzianktian

g = g ( y ^ . . ,y ) bewertet. Diese

Gütefunktion ist natürlich bei allen Verfahren unterschiedlich, da die unterschiedlichen Ausgangssituationen und Anforderungen der Verfahren berücksichtigt werden müssen. Gemeinsam ist den Gütefunktionen lediglich, daß sie den Wert 0 annehmen, wenn kein Informationsverlust gegenüber der Ausgangssituation eintritt, und um so größer sind, je größer der

Informationsver-

lust ist.

Neben den hier behandelten Gütefunktionen und zugehörigen Verfahren gibt es noch viele andere, die z.T. auch Nebenbedingungen berücksichtigen, vgl. etwa Shepard/Caroll

(1966), De Leeuw/Heiser (1980), die aber auch alle um so

kleinere Werte Werte annehmen, je besser die Repräsentation der Objekte bzgl. des jeweils gewählten Gütekriteriums

ist.

Eine weitere Gemeinsamkeit ist die folgende: Der minimale Wert der Gütefunktion für η Objekte wird um so kleiner je größer die Dimension q gewählt wird. Will man also nicht von vornherein diese Dimension q festlegen, sondern seine Wahl vom minimalen Wert der Gütefunktion abhängig machen, so kann man zunächst für q = 1

die optimale Konfiguration y^,...,y

jekte und den zugehörigen Wert g(y^

für η Ob-

y ) bestimmen, dann zu q = 2 über-

gehen, usw. Man wählt dann dasjenige q als Dimension des Repräsentationsraumes der η Objekte, bei dem durch Übergang zur Dimension q+1 keine "wesentliche" Abnahme des Minimalwertes der Gütefunktion g mehr erreicht wird.

Bei der metrischen multidimensionalen Skalierung lassen sich mit Ausnahme der Fälle n = 2 und η = 3, η Objekte nicht immer im (n-1) - dimensionalen Raum derart repräsentieren, daß kein Informationsverlust (Wert des Gütekriteriums gleich Null) auftritt, denn dazu müssen Ausgangsdistanzmatrix und Konfigurationsdistanzmatrix η=4

übereinstimmen. Daß dies bereits im Falle

nicht notwendigerweise der Fall

ist, zeigt nachfolgendes Beispiel

von

Drygas (1978), vgl. auch Kirsch (1978).

Be.-l>>pleZ:

Für η = 4 Objekte sei folgende 0 D = u

1

1 2 0

1

Distanzmatrix

1' 2

2 1 0 1 .12 10,

gegeben. Dann gibt es keine Vektoren y ^ ^ ^ ^ derart,daß die euklidischen Abstände

im dreidimensionalen

Raum

| | y ^ - y - II2 für i,j=1,...,4 gleich

383

Kapitel VI: Die multidimensionale Skalierung (MDS)

den Distanzindizes d ( i , j ) in der Distanzmatrix D sind. Dagegen reicht beim Verfahren von Kruskal, das in Abschnitt 3 beschrieben wird, ein Repräsentationsraum der Dimension n-1 immer aus, um η Objekte im Sinne der Kruskalschen Gütekriterien ohne Informationsverlust darzustellen. Die multidimensionale Skalierung kann e i n e r s e i t s a l s Vorstufe zu Verfahren angesehen werden, die eine quantitative Datenmatrix benötigen; solche Verfahren sind etwa die Faktorenanalyse, vgl. K a p . V I I I , oder die Regressionsanalyse, v g l . Kap. I I und Kap.X. Andererseits kann s i e andere Verfahren z.T. auch ersetzen: I s t man z.B. bei der Faktorenanalyse l e d i g l i c h an der Bestimmung von Faktorenwerten für die Objekte i n t e r e s s i e r t oder verwendet man s i e a l s Q - T e c h n i k , so kann auch die multidimensionale Skalierung an ihre S t e l l e gesetzt werden; a l l e r d i n g s kann der Bezug zu etwaigen beobachteten Merkmalen dann nur noch subjektiv und nicht mehr objektiv

(Korrelation mit den latenten Faktoren) herge-

s t e l l t werden. Liegt umgekehrt eine ηχρ - Datenmatrix bereits vor, so kann man natürlich über die Bestimmung von Faktorenwerten im Rahmen der Faktorenanalyse ebenfalls eine q - dimensionale ( q £ p ) Repräsentation der Objekte erzielen, wenn man die Faktorenanalyse nicht direkt a l s Q-Technik einsetzt. Lassen sich bei der Faktorenanalyse die Korrelationen von ρ beobachteten Merkmalen mit latenten Faktoren (also die Zusammenhänge von Merkmalen und Faktoren) repräsentieren, so besteht bei der multidimensionalen Skalierung die M ö g l i c h k e i t , d i e Ähntichk&iXzn

von MeAkmatzn unteAeJ-nandzi

zu

l&pläi&n-

t i & i m . Als Maß für diese Ähnlichkeiten können etwa die Bestimmtheitsmaße dienen; führt man dann ein Verfahren der MDS mit der Matrix der Unbestimmtheitsmaße a l s Distanzmatrix durch, so ergibt sich eine q - dimensionale Repräsentation für die Merkmale, vgl. auch das letzte Beispiel

in Abschnitt 2

Möchte man Objekte und an ihnen beobachtete Merkmale g l e i c h z e i t i g graphisch repräsentieren, so kann das Biplot - Verfahren aus Kap.IX eingesetzt werden. Im Kapitel IX finden sich g l e i c h z e i t i g Methoden zur graphischen Repräsentation der einzelnen interessierenden Objekte. Eine weitere Einsatzmöglichkeit für die multidimensionale Skalierung ergibt sich im Falle eines höchstens dreidimensionalen Repräsentationsraumes im Zusammenhang mit der K l a s s i f i k a t i o n von Objekten (Cl usteranalyse), veil. Kap.VII. Zum einen kann aufgrund der dann möglichen graphischen Darstellung

384

Kapitel VI: Die multidimensionale Skalierung (MDS)

v i s u e l l eine ICtaMe.neAMteÄZang faiin. die. Objekte,

vorgenommen werden, zum an-

deren lassen sich die Ergebnisse von Clusteranalyseverfahren in der MDS Konfiguration der Objekte veranschaulichen, vgl. auch das zweite Beispiel in Abschnitt 4.2 von Kap.VII. Abschließend sei noch auf den Unterschied zwischen der hier behandelten Art von Skalierung und der Skalierung in Kontingenztafeln, vgl. Kap.V, hingewiesen. Die MDS dient der Konstruktion einer q - dimensionalen Konfiguration für η Objekte ohne direkten Bezug zu konkret beobachtbaren Merkmalen. Die Verfahren aus Kap.V dienen der Skalierung von Merkmalsausprägungen nominal e r und ordinaler Merkmale: Jeder Merkmalsausprägung wird eine r e e l l e Zahl (unabhängig von einzelnen Objekten) zugeordnet. Wir beschäftigen uns hier im wesentlichen mit konkreten Verfahren der multidimensionalen Skalierung; bzgl. theoretischer Überlegungen zu Strukturen verschiedener Datentypen ihre Verwendbarkeit bei der MDS betreffend sei etwa verwiesen auf S i x t l

(1967), Beals/Krantz/Tversky (1968), Tversky/Krantz

(1970), Krantz/Luce/Suppes/Tversky (1971), Pfanzagl (1972), Krauth (1980).Die hier beschriebenen Verfahren sowie weitere Verfahren betreffend sei z.B. hingewiesen auf die Bücher von Coombs (1964), Green/Carmone (1970), Green/ Rao ( 1972), Romney/Shepard/Nerlove ( 1972), Ahrens (1974), Coombs/Dawes/ Tversky ( 1975), Kühn ( 1976), Kruskal/Wish (1978), Opitz (1978,1980), Ven (1980), Borg (1981), Schiffman/Reynolds/Young (1981), Davison ( 1983).

1

NONLINEAR

Uonllnmi

MAPPING

(WLM) i s t ein Verfahren der MMDS, das ausgehend von einer

Mapping

ηχρ- Datenmatrix X oder einer ηχη - Distanzmatrix D f ü r η Objekte eine nxq Datenmatrix Y (q ) ·

Raum i s t .

) i s t e i n e F u n k t i o n von n - q V a r i a b l e n ,

l i c h den K o o r d i n a t e n der Objekte

, J

gleich-

Maximierung

r e n , a u f das w i r n i c h t e i n g e h e n w e r d e n , f i n d e t man b e i Chang/Lee

Der mapping e r r o r g ^ ( y ^ , . . . , y

Anfor-

WÜLOK

ver-

Ableitungen.

Ausgehend von e i n e r S t a r t k o n f i g u r a t i o n y ° = ( y ^ , . . . , y ° q ) T , . . . . ( y ^ , . . . , y ^ q ) T der η O b j e k t e im q - d i m e n s i o n a l en Raum w i r d im Ji-ten S c h r i t t ( £ = 1 , 2 , . . . ) ο o e i n e neue K o n f i g u r a t i o n y 1 , . . . , y n f ü r d i e η O b j e k t e b e s t i m m t .

Dazu b e r e c h n e t man im ί,-ten S c h r i t t

zunächst f ü r

i,j =1,...,n,

i

3 3 für i = 1 , . . . ,5 und k = 1,2 die Konfiguration y ^ , . . . , y g für die fünf Autohers t e l l e r gemäß Cab.10. Damit ergibt sich im vierten S c h r i t t die Matrix der euklidischen Distanzen

392

Kapitel VI: Die multidimensionale Skalierung (MDS)

Cab.8: Hilfsgrößeri zur Berechnung der ersten und zweiten partiellen Ableitungen des mapping errors im dritten Schritt i

j

d(i,j)-d*(i,j)

1 1 1 1 2 2 2 2 3 3 3 3 4 4 4 4 5 5 5 5

2 3 4 5 1 3 4 5 1 2 4 5 1 2 3 5 1 2 3 4

0 0 -0 0 0 0 -0 -0 0 0 0 -0 -0 -0 0 0 0 -0 -0 0

d(i,j)

075 024 255 300 075 248 489 414 024 248 145 196 255 489 145 331 300 414 196 331

1 1 5 6 1 1 5 12 1 1 2 9 5 5 2 11 6 12 9 11

806 806 809 500 806 659 770 012 806 659 464 281 809 770 464 955 500 012 281 955

4

~yj1

2 2 yi2-yj2

0 -0 -1 -2 -0 -1 -2 -2 0 1 -1 -1 1 2 1 -0 2 2 1 0

880 238 571 044 880 118 451 924 238 118 333 806 571 451 333 473 044 924 806 473

0 1 1 -1 -0 0 1 -2 -1 -0 0 -2 -1 -1 -0 -3 1 2 2 3

d|(i,j)

967 311 997 265 967 344 030 232 311 344 686 576 997 030 686 262 265 232 576 262

1 1 2 2 1 1 2 3 1 1 1 3 2 2

1

3 2 3 3 3

307 332 541 404 307 170 659 679 332 170 499 146 541 659 499 296 404 679 146 296

Cab.9: Erste und zweite partielle Ableitungen des mapping errors im dritten Schritt nach y?. für i = 1 , . . . , 5 und k=1,2 ( m u l t i p l i z i e r t mit -1/(2-const)) 1 K

i

1 2-const

k

1 1 1 2 2 1 2 2 3 1 3 2 4 1 4 2 5 1 5 2

0 -0 0 0 0 0 -0 0 -0 0

3g

ρ Ρ a 9E(yf.— 1 2-const ,2 2 3 y ik

E i y 1 *— .2 y ik

008006414 088467990 104217619 001088510 130592876 025738020 211334319 044269435 031482590 017372025

0 -0 1 0 -0 0 -0 0 -0 -0

4)

006469824 961560664 356248129 279985862 146464804 850451665 650837725 429184664 258803654 291449759

3 Cab.10: Koordinaten y ^ für i = 1 , . . . , 5 und k=1,2 im dritten Schritt

ν

1

2

3

4

5

1

3 066

2 070

3 269

4.481

4 974

2

1 941

0 983

0 642

-0.037

3 221

393

Kapitel VI: Die multidimensionale Skalierung (MDS)

3

D|

y

("0.000 1.382 = 1.315 2.432 2.298

3 5 1.382 0.000 1.247 2.618 3.666

1.315 1.247 0.000 1.389 3.092

2.432 2.618 1.389 0.000 3.295

2.298' 3.666 3.092 3.295 0.000

und der mapping error zu g E (y^,...,y|) = 0.013624414

Das Verfahren wird hier abgebrochen, da gilt

gE(yf und die lokal

yg)-gE(y?,...,y5)-7.7-io"4 < ε ,

(bzgl. der Startkonfiguration aus Tab.1) optimale Darstellung

der 5 Hersteller im zweidimensionalen Repräsentationsraum wird festgelegt als y

3 3 1 ~ y 1 • ··· ' y 5 ~ y 5

·

d.h. die 5»2 - Datenmatrix für die Hersteller ist '3.066 2.070 Y = 3.269 4.481 4.974

1.941' 0.983 0.642 -0.037 3.221

Diese Konfiguration der Hersteller ist in der Ahb.2 auch graphisch dargestellt.

Zu bemerken ist noch, daß bei Nonlinear Mapping das Koordinatensystem des Repräsentationsraumes für η Objekte beliebig gedreht und verschoben werden kann, ohne daß sich der mapping error verändert. Als Startkonfiguration für Nonlinear Mapping kann man auch diejenige nehmen, die man mit dem Verfahren im nachfolgenden Abschnitt 2 erzielt; vgl. auch das dortige Beispiel

zur

Repräsentation von Merkmalen.

2 DIE HAUPT - KOORDINATEN - METHODE Das Skalierungsverfahren, das in diesem Abschnitt vorgestellt werden soll, ist eine Verallgemeinerung des klassischen MDS-Ansatzes von Torgerson (1952,1958); es benötigt nicht die Vorgabe einer Startkonfiguration weiteren

Iteration.

zur

394

Kapitel VI: Die multidimensionale Skalierung IMDS)

u

ausländische χ Hersteller (5)

3

2

American Motors (1)

x

1 •

Chrysler (21 * x

» 1

Ford (3)

1 ^

1 2

1 i X ^ General 5 Motors H )

y-i

-1 -

Abb.2: Konfiguration f ü r 5 H e r s t e l l e r im zweidimensionalen Repräsentationsraum nach Anwendung von Nonlinear Mapping auf die euklidische Distanzmatrix D

Torgerson ging davon aus, daß f ü r η Objekte eine euklidUche.

D =

0

d(1,2)

...

d( 1 ,n)

d(1,2)

0

...

d(2,n)

d( 1 ,n)

d(2,n)

...

V-UtanzmaXfilx

0

v o r l i e g t , und bestimmte eine r - dimensionale Konfiguration y 1 = ( y , 1 >— , y 1 r ) T v =(y

r

>• • •, y n = ( y n 1 .· · · >y nr ) T >

...,y

n

)

T

d-h· e i n e

nx|"

- Datenmatrix

,

f ü r die η Objekte, wobei r den Rang der p o s i t i v semidefiniten Matrix Ίη

Ί1 = Κ ·Α·Κ = η η ^b1n

···

b nn

bezeichnet;hier i s t A die ηχη - Matrix mit den Elementen a

und

ij

=

1 j2, . . \ " 2 d

f ü r

ί»>Μ»···>η

Kapitel VI: Die multidimensionale Skalierung (MDS)

1 η --!• w

*

1 .1 η

'''

η

.1

""



ν

Diese r - dimensionale Konfiguration e r g i b t sich gerade aus den Eigenvektoren y ^ j = ( y l r . . . , y n l ) T schiedenen Eigenwerten λ ^

y ( r ) = ( y 1 r > . · · , y n r ) T zu den r von Null ver. . . j>X r der Matrix B, die so normiert sind,

daß g i l t f ü r £ = 1 , . . . ,r

.

Die Zeilenvektoren von Y nennt man auch r - dimensionale Haupt (principal

co -

Koordinaten

oldinatzi).

Wählt man als Dimension des Repräsentationsraumes nun eine Zahl q < r , so nimmt die Gütefunktion g 11 (1y 1 . . . . . y nn ) = " i 1 Σ (d2(i ,j) i=1 j=i+1

i ,j))

i h r Minimum an, wenn d * ( i , j ) f ü r i , j = 1 , . . . , n der euklidische Abstand der q - dimensional en Haupt - Koordinaten y^ = ( y 1 1 . - . . . y 1 q ) T

, · · · , yn = (yn1

ynq)T

i s t , vgl. Gower (1966). Ausgehend von euklidischen Distanzen d ( i , j ) , i , j = 1

n , f ü r η Objekte i s t

also durch die Matrix Y= (yr...,yn)T eine optimale Konfiguration der η Objekte im q - dimensional en Repräsentationsraum gegeben im Sinne des Gütekriteriums g1(y1.---.yn) = "f1 Σ (d2(i,j) -d^(i.j)) i=1 j=i+1 n-1 η Σ Σ ( d 2 ( i , j ) - f (y1K - yJ K, J 2 ) i=1 j=i+1 v k=1 >

I s t d i e ViitanzmWUx

D nicht

cuktidiich,

.

so i s t d i e K o n f i g u r a t i o n

noch in dem Sinne optimal, daß das Gütekriterium

y^,...,y

395

396

Kapitel VI: Die multidimensionale Skalierung (MDS)

minimiert w i r d , wobei 0

In

11

4(1,2)

. . . d*( 1 ,n)

d*(2,n)

...

=Κ„·Α*·Κ Γ , mit A * = - - n η η 2 )

V

sd*(1,n)

eine p o s i t i v s e m i d e f i n i t e Matrix mit r g B * £ q λ^ >_ . . .

d i e Eigenwerte von Β und

B* b e z e i c h n e t , f ü r d i e

i s t , v g l . Mardia

...

0

.

(1978),

>_λ* d i e Eigenwerte von

gilt

(

maxU^,0)

,

f ü r k=1

0

,

für

q

k=q+1,...,n

Andere G ü t e k r i t e r i e n , die d i e s e s Verfahren im F a l l e e i n e r

nichteuklidischen

D i s t a n z m a t r i x D m i n i m i e r t , f i n d e t man bei Mathar ( 1 9 8 3 ) . Es s e i noch erwähnt, daß s i c h bei diesem S k a l i e r u n g s v e r f a h r e n s t e t s eine K o n f i g u r a t i o n e r g i b t , deren Schwerpunkt im Ursprung des q - dimensionalen Koordinatensystems l i e g t , was gerade daher kommt, daß d i e M a t r i x Α bzw. A * von l i n k s und von r e c h t s mit Κ m u l t i p l i z i e r t w i r d , denn Κ b e r e i n i g t A, A* η η gerade um den M i t t e l w e r t . N a t ü r l i c h kann d i e s e s Koordinatensystem, wie bei N o n l i n e a r Mapping in A b s c h n i t t 1, b e l i e b i g gedreht und verschoben werden, ohne daß s i c h die Güte ändert. Sz-LipieZ:

Für n = 5 Autoherstel 1 er i s t im A b s c h n i t t 3 des Kap.V eine

5x7-

Datenmatrix angegeben. Im A b s c h n i t t 1, wo d i e s e Datenmatrix X auch noch einmal zu f i n d e n i s t , haben wir m i t t e l s N o n l i n e a r Mapping eine zweidimens i o n a l e K o n f i g u r a t i o n f ü r die fünf H e r s t e l l e r k o n s t r u i e r t . H i e r s o l l zum einen unter Verwendung i h r e r 7 - dimensionalen e u k l i d i s c h e n zum anderen unter Verwendung i h r e r 7 - dimensionalen

nun

Distanzen,

Mahalanobisdistanzen

das in diesem A b s c h n i t t beschriebene Verfahren e i n g e s e t z t werden, um j e w e i l s K o n f i g u r a t i o n e n f ü r die H e r s t e l l e r zu gewinnen. Zunächst e r g i b t s i c h unter Verwendung der zuktidiMckm

D=D eukl

0.000 1.382 1.356 2.286 2.704

1.382 0.000 1.418 2.170 3.265

f ü r d i e fünf H e r s t e l l e r die Matrix

1.356 1.418 0.000 1.644 2.950

2.286 2.170 1.644 0.000 3.627

2.704' 3.265 2.950 3.627 0.000,

V-UtanzmcUilx

Kapitel VI: Die multidimensiomle Skalierung (MDS)

0.000 -0.955 -0.919 -2.613 -3.656

-0.955 0.000 -1.005 -2.354 -5.330

-0.919 -1.005 0.000 -1.351 -4.351

-2.613 -2.354 -1.351 0.000 -6.578

397

-3.656 -5.330 -4.351 -6.578 0.000

und daraus dann die M a t r i x

h ^ h - i -

23.206 6.836 -2.354 -18.354 -9.334

6.836 38.216 3.001 -4.374 -43.679

-2.354 3.001 18.036 10.611 -29.294

-18.354 -4.374 10.611 70.736 -58.619

Um d i e zweidimensionalen Haupt - Koordinaten

-9.334 -43.679 -29.294 -58.619 140.926,

bestimmen zu können,

benötigen w i r nun d i e beiden größten Eigenwerte und

λ 1 = 7.55288

λ 2 = 2.70076

der M a t r i x B. Die zugehörigen auf Norm \7XJ bzw. vOT^ normierten

Eigenvektoren

s i n d gerade :d

= (-0.0215,-0.6562,-0.4866,-1.1796,2.3439)T

und (-0.6916,-0.8539,0.0255,1.1708,0.3491)

(2)

so daß d i e gesuchte K o n f i g u r a t i o n der 5 H e r s t e l l e r im zweidimensionalen D a r s t e l l u n g s r a u m durch die Datenmatrix

γ

-0.0215 -0.6562 ( y ( 1 ) . y ( 2 ) ) = -0.4866 -1.1796 2.3439

y5J

= ί^ι

-0.6916 -0.8539 0.0255 1.1708 0.3491

r e p r ä s e n t i e r t w i r d ; d i e s e K o n f i g u r a t i o n i s t i n der Abb.3 auch g r a p h i s c h dargestel l t . Der Wert des G ü t e k r i t e r i u m s g 1 ( y 1 , . . . , y g ) e r g i b t s i c h unter Verwendung der euklidischen

Distanzmatrix 0

d,(1,2)

...

d*(1,5)'

d*(1,2)

0

...

d*(2,5)

d*(1,5)

d*(2,5)

...

0

0.000 0.655 = 0.855 2.193 2.584

0.655 0.000 0.896 2.091 3.232

0.855 0.896 0.000 1.339 2.849

2.193 2.091 1.339 0.000 3.618

2.584 3.232 2.849 3.618 0.000

398

Kapitel VI: Die multidimemionale Skalierung (MDS)

, General Motors (4)

ausländische Hersteller (5) * Ford

(3)

y-i

American M o t o r s (1)

C h r y s l e r (2)

χ

- 1

·

Abb.3: Zweidimensionale K o n f i g u r a t i o n f ü r 5 A u t o h e r s t e l l e r bei Verwendung der Haupt - Koordinaten - Methode f ü r d i e e u k l i d i s c h e D i s t a n z m a t r i x D

der K o n f i g u r a t i o n y ^ , . . . , y g f ü r d i e H e r s t e l l e r zu g (yi,...,y 1

1

ö

4 5 ) = l l ( d 2 ( i , j ) - d 2 ( i , j ) ) =6.9594 i=1 j = i + 1

.

Möchte man a n s t e l l e e i n e r zweidimensionalen K o n f i g u r a t i o n f ü r d i e Autohers t e l l e r eine d r e i d i m e n s i o n a l e K o n f i g u r a t i o n bestimmen, so b e n ö t i g t man neben den b i s h e r verwandten Eigenwerten λ^, λ^ und Eigenvektoren y ^ , auch den d r i t t g r ö ß t e n

y^)

Eigenwert

λ 3 = 0.78048 der Matrix Β sowie den zugehörigen auf \/A 3 '(3)

normierten

Eigenvektor

= (0.5638,-0.6067,0.2608,-0.0715,-0.1465Γ

Die d r e i d i m e n s i o n a l e K o n f i g u r a t i o n

i s t dann gerade durch d i e Da-

tenmatrix

V =

bestimmt, d i e in Ahb.4 v e r a n s c h a u l i c h t

-0.0215 -0.6562 -0.4866 -1.1796 2.3439

-0.6916 -0.8539 0.0255 1.1708 0.3491

0.5638 -0.6067 0.2608 -0.0715 -0.1465

ist.

Bestimmt man d i e e u k l i d i s c h e D i s t a n z m a t r i x f ü r d i e s e K o n f i g u r a t i o n

399

Kapitel VI: Die multidimensionale Skalierung (MDS)

Abb.4: Dreidimensionale Konfiguration für 5 Autohersteller bei Verwendung der Haupt - Koordinaten - Methode für die euklidische Distanzmatrix D

0.000 1.341 D* = 0.907 2.283 2.680

1.341 0.000 1.247 2.159 3.265

0.907 1.247 0.000 1.379 2.878

2.283 2.159 1.379 0.000 3.619

2.680

3.265 2.878 3.619 0.000

und den Wert des Gütekriteriums 9,(Υ, J1VJ,1

yJ = I I ( d 2 ( i , j ) - d i ( i , j ) ) = 3.0527 i=1 j=i+1

,

so zeigt s i c h , daß in diesem F a l l e durch Hinzunahme einer Dimension die Güte der Skalierung beträchtlich erhöht wird. Nun wollen wir die Haupt - Koordinaten - Methode noch verwenden, um ausgehend von den Μahalanob^Ud-iitanzen für die fünf H e r s t e l l e r , die in der Matrix

D= D Mahal

0.00 1.70 1.86 3.05 2.70

1 0 1 2 3

70 00 97 98 31

1.86 1.97 0.00 2.11 2.70

3.05 2.98 2.11 0.00 3.86

2 3 2 3 0

70 31 70 86 00

zusammengefaßt s i n d , v g l . auch Abschnitt 3 in Kap.V, eine zweidimensionale Konfiguration der H e r s t e l l e r zu konstruieren. Hier ergibt sich die Matrix Α mit Elementen

- - 1j dj2,( i , j ) f ü r i , j = 1

5

400

Kapitel VI: Die multidimensionale Skalierung (MDS)

0.000 -1.445 -1.730 -4.651 -3.645

-1.445 0.000 -1.940 -4.440 -5.478

-1.730 -1.940 0.000 -2.226 -3.645

-4.651 -4.440 -2.226 0.000 -7.450

-3.645 -5.478 -3.645 -7.450 0.000

so daß w i r

:K

41.410 14.445 -11.490 -38.385 -5.980

1

5-A'K5

14.445 59.730 -7.580 -23.950 -42.645

-11.490 -7.580 22.110

12.590 -15.630

-38.385 -23.950 12.590 114.370 -64.625

-5.980 -42.645 -15.630 -64.625 128.880

erhalten. Die beiden größten Eigenwerte d i e s e r Matrix Β s i n d λ., = 7.74242

und

X 2 = 4.78568

und d i e zugehörigen auf Norm vTj" bzw. / X ^ normierten Eigenvektoren ergeben s i c h zu y

(1)

y

(2)

(0.3780,-0.2631 ,-0.3321 ,-1.8145,2.0317)T (-0.8820,-1.3632,0.1917,1.0747,0.9787)T

Die gesuchten zweidimensionalen Haupt - Koordinaten,und damit d i e K o n f i g u r a t i o n y^

y ^ f ü r die f ü n f H e r s t e l l e r , die s i c h aus diesen

Eigenvekto-

ren ablesen l a s s e n , s i n d in der Datenmatrix

Y = (

*i

y5

) T = (

y(i)'y(2)

)

=

0.3780 -0.2631 -0.3321 -1.8145 2.0317

-0.8820 -1.3632 0.1917 1.0747 0.9787

zusammengefaßt, v g l . auch Abb.5. Die M a t r i x der e u k l i d i s c h e n Distanzen der Vektoren

ergibt

sich

h i e r zu 0.000 0.802 1.287 2.939 2.489

0.802 0.000 1.556 2.890 3.279

1.287 1.556 0.000 1.725 3.327

Um den Wert des G ü t e k r i t e r i u m s g 2 ( y 1

2.939 2.890 1.725 0.000 3.847

2.489 3.279 3.327 3.847 0.000^ y 5 ) zu bestimmen, berechnen wir

d i e Eigenwerte der Matrix B: λ 1 = 7.74242, λ 2 = 4 . 7 8 5 6 8 , λ 3 = 1.18958, λ 4 = 0.94232 und M i t q = 2 e r g i b t s i c h dann

=0

Kapitel VI: Die multidimensionale

x General Motors

Skalierung (MDS)

ausländische Hersteller (5)

χ

Ford ( 3 ) x

-1

χ - 1

Chrysler

(2)



American Motors (11

χ

Abb.5: Zweidimensionale Konfiguration für 5 A u t o h e r s t e l l e r m i t t e l s Haupt Koordinaten - Methode bei Verwendung von Mahalanobisdistanzen ( i n D)

Wie b e r e i t s in der Einleitung dieses Kapitels erwähnt, s o l l nun noch an einem B e i s p i e l demonstriert werden, wie die multidimensionale Skalierung zur RzpiäAzniation

von Μ z h k m a l m verwandt werden kann. A l s Maß f ü r die

Ä h n l i c h k e i t zweier Merkmale Χ, Y wollen wir dabei ausgehend von ihrer empirischen

Korrelation r i h r e

Unbestimmtheit (1 - Bestimmtheitsmaß, v g l .

K a p . I I und I I I ) d(X,Y) = 1 - r ^ v = 1 - Β XY 'X.Y verwenden, d.h. zwei Merkmale werden hier a l s um so ähnlicher betrachtet, je k l e i n e r i h r Unbestimmtheitsmaß i s t .

Be.-Lbpie£:

Im Abschnitt 3 des Kap.V haben wir eine 5*7 - Datenmatrix f ü r

fünf Autoherstel1 er bestimmt; diese Datenmatrix bzw. daraus resultierende Distanzmatrizen der H e r s t e l l e r wurden in diesem Kapitel b i s h e r benutzt, um Repräsentationen für die H e r s t e l l e r zu gewinnen. Wir wollen nun die sieben Merkmale, die die Datenmatrix bestimmen, m i t t e l s multidimensionaler Skalierung derart graphisch repräsentieren, daß die Abstände zwischen den Merkmalen ihre Ähnlichkeiten widerspiegeln.

401

402

Kapitel VI: Die multidimensionale Skalierung (MDS)

Aus der Datenmatrix, d i e auch im A b s c h n i t t 1 d i e s e s K a p i t e l s angegeben

ist,

berechnen wir zunächst d i e empirischen K o r r e l a t i o n e n von je zweien der s i e ben Merkmale, d i e d i e R e p a r a t u r a n f ä l l i g k e i t der äußeren K a r o s s e r i e ( 1 ) , der inneren K a r o s s e r i e ( 2 ) , der E i s e n t e i l e der K a r o s s e r i e ( 3 ) , der Bremsen ( 4 ) , des A u t o m a t i k g e t r i e b e s ( 5 ) , der Stoßdämpfer (6) und der Vorderradaufhängung (7) s i n d . Daraus bestimmen w i r die zugehörigen Unbestimmtheitsmaße, die in der folgenden M a t r i x D zusammengestellt

Ό.000 0.789 0.880 0.131 0.849 0.597 0.578

0 0 0 0 0 0 0

789 000 558 911 579 298 286

0.880 0.558 0.000 0.831 0.943 0.919 0.910

0.131 0.911 0.831 0.000 0.963 0.879 0.836

sind:

0.849 0.579 0.943 0.963 0.000 0.448 0.783

0.597 0.298 0.919 0.879 0.448 0.000 0.137

0 578 s 0 286 0 910 0.836 0 783 0 137 0 000

Die M a t r i x D verwenden wir a l s D i s t a n z m a t r i x f ü r die sieben Merkmale und bestimmen nun eine zweidimensionale K o n f i g u r a t i o n y ° , . . . , y ° f ü r die Merkmale; dabei wollen w i r das Haupt - Koordinaten - Verfahren verwenden. Die M a t r i x Β e r g i b t s i c h zunächst zu Β = Κ-,·Α·Κ-, - 0 ..0138 - 0 ..1709 - 0 ..0991 0,.2508 - 0 ,.1189 - 0 ..0370 -0,.0049

- 0 ..1709 0,.1006 0,.0927 - 0 ..1953 0,.0342 0,.0571 0,.0815

- 0 ..0991 0..0927 0..3962 0,.0222 - 0 ..0950 - 0 .,1730 - 0 ,.1439

0..2508 - 0 ..1953 0..0222 0..3388 - 0 ..1428 - 0 ,.1657 - 0 ..1080

- 0 ..1189 0,.0342 - 0 ..0950 - 0 ..1428 0..3030 0..1024 - 0 ..0829

- 0 ..0370 0..0571 -0,.1730 - 0 ..1657 0..1024 0..1024 0..1139

- 0 ..0049 0,.0815 - 0 ,.1439 - 0 ..1080 - 0 ..0829 0..1139 0..1442

wobei Α die Matrix mit den Elementen

b e z e i c h n e t . Die beiden größten Eigenwerte und zugehörigen normierten

Eigen-

vektoren d i e s e r Matrix Β s i n d λ 1 = 0.776123 y(

1)

,

λ 2 = 0.555053

= (0.2857 , - 0 . 2 7 9 1 ,0.191 1 ,0.5749 , - 0 . 3 3 8 1 , - 0 . 3 1 3 7 . - 0 . 1 9 2 2 ) T = (0.2222,-0.2194,-0.6096,0.1548,0.0238,0.1790,0.1715)T

, ,

403

Kapitel VI: Die multidimensionale Skalierung (MDS)

so daß s i c h d i e zweidimensionale K o n f i g u r a t i o n y^

y ^ bzw. d i e zugehö-

r i g e 2x7 - Datenmatrix Y° f ü r d i e Merkmale zu

1

OT

Η

Y° =

=

OT ly 7

0.2857 -0.2791 0.1911 0.5749 -0.3381 -0.3137 -0.1922

0.2222

-0.2194 -0.6096 0.1548 0.0238 0.1790 0.1715

e r g i b t ; d i e s e K o n f i g u r a t i o n i s t in der Abb.6 auch g r a p h i s c h

Berechnet man d i e e u k l i d i s c h e 0.000 0.717 0.837 0.297 0.655 0.051 0.106 der Vektoren y °

0 0 0 0 0 0 0

717 000 611 932 250 714 612

veranschaulicht.

Distanzmatrix 0.837 0.611 0.000 0.855 0.825 0.798 0.781

0 0 0 0 0 0 0

297 932 855 000 922 262 383

0.655 0.250 0.825 0.922 0.000 0.670 0.550

0 0 0 0 0 0 0

051 714 798 262 670 000 121

0 0 0 0 0 0 0

106 612 781 383 550 121 000

y ° und v e r g l e i c h t s i e mit der u r s p r ü n g l i c h e n

Distanz-

matrix ( M a t r i x der Unbestimmtheitsmaße) D, so z e i g t s i c h , daß zwischen d i e sen Matrizen doch b e t r ä c h t l i c h e Unterschiede vorhanden

sind.

Daher wollen w i r nun noch das Verfahren N o n l i n e a r Mapping aus A b s c h n i t t 1 benutzen, um eine K o n f i g u r a t i o n f ü r die sieben Merkmale zu bestimmen. A l s S t a r t k o n f i g u r a t i o n wählen w i r dabei d i e mit der Haupt - Koordinaten - Methode gewonnene K o n f i g u r a t i o n y^ M ,-2 = 8.44·10

gE(y?.·. e r g i b t . A l s lokal

y ° , f ü r d i e s i c h der mapping e r r o r zu

( b z g l . der Haupt - Koordinaten - Lösung) optimale K o n f i g u -

r a t i o n e r h a l t e n w i r m i t t e l s N o n l i n e a r Mapping d i e K o n f i g u r a t i o n y^, bzw. d i e entsprechende 0.2267 -0.3734 -0.0882 0.3663 -0.8051 -0.4440 -0.3204

Datenmatrix 0.1160 -0.1206 -0.6592 0.0578 -0.1227 0.1661 0.2175

die in Abb.7 g r a p h i s c h d a r g e s t e l l t i s t . Die e u k l i d i s c h e D i s t a n z m a t r i x sieben Vektoren

e r g i b t s i c h zu

der

404

Kapitel VI: Die multidimensionale Skalierung (MDS)

α, «£ Χ .2

S- S3 Ol 4-> 4J

^

m

ÜJ (Β Λ ω ·•M_ ΙΛ f- c : φ φ Ιοί — , β φ : l/l jC υ s- sΙΛ Φ φ ·•- Ε -σ

χcsi

.Ξ ^ χ

ι •-Ϊ QJ

y

22

f ü r d i e fünf H e r s t e l l e r k o n s t r u i e r e n . Dabei verwenden w i r die Gütefunktion S t r e s s g 1

, =

n



07747^ 0 + 0.193 + 0.165 + 0) = y^T^y

12

y ] 2 = y ° 2 - 0 . 4 - 0 . 7 4 7 - ^ | | y = 1.68 - 0 . 4 - 0 . 3 5 8 = 1.54

.

.

414

Kapitel VI: Die multidimensionale Skalierung (MDS)

Cab. 12: A r b e i t s t a b e l l e

(1,2)

(i,j) d*(i

δ2(1

0

Φ

6

0(i

δ6(1

z u r B e s t i m m u n g d e r W e r t e 0.05 = ε

416

Kapitel VI: Die multidimensionale Skalierung (MDS)

2 muß nun die Konfiguration y.

2 y^ berechnet werden. Unter Verwendung der 1 1 10 ersten p a r t i e l l e n Ableitungen von ^ yg) ergeben sich f ü r

i = 1 , . . . , 5 und k=1,2 die in Cab.15 angegebenen Größen gemäß 2 1 4 = 4 -

8gs(yJ....,yJ) 0.4-0.416.— L

.

3yik

2 2 Cab.15: Werte y ^ der Konfiguration y^ \ i k \

1

2

3

1

-1.39

-1.51

-1.09

2.22

2.11

2

1.48

1.34

0.25

-0.89

3.36

4

2 yg im zweiten S c h r i t t

5

Die Tab.15 ermöglicht uns die Berechnung der euklidischen Distanzen

d|(i,j)

und damit die Bestimmung von < S i ( i , j ) , v g l . Cab.16. Aus Tab. 16 e r g i b t sich dann g s (yif

yg) =V 0.060 = 0.245

sowie

9s,nax

=V

23.792 =4.878

und das Verfahren wird wegen η i J J w j η i J g s ( y , . . . · >y5>/9S>nttx • 9 S ( y 1

J \ / J ^^S.max

0-416 0.245 T^TT-078

=

= 0.036 < 0.05 = ε in diesem d r i t t e n S c h r i t t abgebrochen. Die bzgl. der Startkonfiguration y . 2

2

i

y^ lokal optimale Skala wird somit s

a l s y^ =y.| , . . . , y5 = yß f e s t g e s e t z t , d.h. es e r g i b t sich die Datenmatrix -1.39 1.48' -1.51 1.34 Y= -1 .09 0.25 2.22 -0.89 2.11 3.36 die in Abh.8 auch veranschaulicht Die Güte der Konfiguration y^

ist. yg kann (nach Kruskal) a l s nahezu sehr

gut bezeichnet werden, da g i l t 9 S i&izck&a.naJLyAe. in Verbindung mit dem Goodz Pkiltip-i

v g l . Coombs ( 1964), P h i l l i p s ( 1 9 7 1 ) , der eindimen-

- AlgonJXhmLU,,

s i o n a l e n U n f o l d i n g - Technik b e s c h r e i b e n , was zu e i n e r eindimensionalen figuration y^,...,yn

A l t e r n a t i v zum Goode - P h i l l i p s - Algorithmus kann auch der Chzwikova. gofUthrnui

- Al-

bei der eindimensionalen U n f o l d i n g - Technik verwandt werden; man

v g l . h i e r z u Chernikova (1965) und Lehner/Noma

( 1 9 8 0 ) . Es s e i auch auf Ver-

fahren der Linearen Optimierung (Simplex - Verfahren e t c . ) hingewiesen, z . B . Vogel

Kon-

führt.

( 1 9 7 0 ) , Kall

vgl.

(1976).

Eine Erweiterung der U n f o l d i n g - Technik auf mehrere Dimensionen wird von Bennett/Hayes (1960) angegeben, v g l . auch Coombs ( 1 9 6 4 ) , Ven ( 1 9 8 0 ) .

4.1

DIE

METHODE

DER

DREIECKSANALYSE

Wir wollen nun zunächst d i e Methode der D r e i e c k s a n a l y s e b e s c h r e i b e n , mit deren H i l f e man ausgehend von den η I - S k a l e n f ü r die Objekte 1 , . . . , n zunächst eine P a r t i a l Ordnung der unbekannten n ( n - 1 ) / 2 Distanzen ( i , j=1

η i 2 v e r g l e i c h e n , a l s o stehen an zehnter b i s f ü n f z e h n t e r le

Stel-

Striche.

Im Schema der Tab.21 können d i e 2. und 3 . Z e i l e sowie S p a l t e , d i e 4 . und 5.

424

Kapitel VI: Die multidimensionale Skalierung (MDS)

lab.20: Aus den 6 I - S k a l e n resultierendes quadratisches 15x15 Schema (Ausgangspunkt der Dreiecksanalyse); d ( i , j ) = i j 12 12 13 14 15 16 23 24 25 26 34 35 36 45 46 56

1 1 1 1 1 1 1 1

13

14

15

16

23

24

25

26

0

0 0

0 0 0

0 1

0

0

0

-

-

-

-

1

-

-

1 1

-

0 0 0 0

-

-

1

-

-

1

-

-

-

1 1

1

1 0

-

-

-

1

-

1 1 1 0

0 0 0 -

-

1 1

1

-

-

-

-

-

-

-

-

0

0

-

-

-

0

-

-

-

0

0

-

-

-

0

-

-

-

0

1 1 1 0 0 1

0 0

0 0 0

0

-

-

-

0

0 0

-

1 1 0

34

35

36

45

1

1

-

-

-

-

1 0 0 0

1

-

-

-

-

0

-

-

-

0

-

-

-

0

0 0

0

-

-

-

-

0

0 0

1 1 0 0

1 0

-

0

-

-

1 0 0

1 1

56

-

1 1

1 1 1 -

1 1 1 1

-

0 0

46

1 1

1 1 1

-

1 1 -

1 0

1 1 0 1

0

-

tab.21: Z e i l e n - und spaltenvertauschtes 15x15 Schema aus Tab.20; d ( i , j ) = i j 16 16 15 26 14 25 13 24 36 23 35 12 34 46 56 45

15

26

14

25

_

13

24

1 1

-

23

35

12

1

_

_

-

-

1

1

1

-

-

-

-

1 1 1 1

1 1

ι 1 1 1 1 1 1

36

1

1

-

-

1 1

-

-

-

1 1

-

-

-

1

0

-

-

-

0

0 0 0

1 1 1

-

-

1

-

0 0

-

-

0

-

-

-

0

-

-

-

-

-

-

-

0

0 0

-

0 0 0 -

-

0 0 0

-

-

-

0

0 0

0

-

-

-

0 0 0 0 0

-

0 0 -

-

0 0

0 0 -

-

-

-

0 0 0 0 0

-

-

0 0 0

-

-

0 0 0

-

0

-

0 0 0 0 0

-

-

-

0 0 0 -

-

1 1

1

-

0

46

56

1

-

-

1 1 1 1 1

-

-

-

-

1 1 1 1 1 1

1 1 1 1

_ 1 1 1 1

1

-

-

-

-

-

1

1

1

-

-

1

0

0 0

-

45

-

0

-

-

0 0

34

-

1 1 1

0

-

Z e i l e sowie Spalte, die 6. und 7. Z e i l e sowie Spalte und die 7. und 8. Zeil e sowie Spalte miteinander vertauscht werden; außerdem kann die 11.Zeile bzw. Spalte an irgendeiner S t e l l e zwischen 10. und 15. Z e i l e bzw. Spalte stehen, sofern die Reihenfolge innerhalb der Spalten bzw. Zeilen 10, 12, 13, 14 ,15 beibehalten wird. Durch a l l e angegebenen Vertauschungen ändert sich nichts daran, daß im oberen Dreieck des Schemas nur Einsen und im unteren Dreieck nur Nullen stehen.

Für die Partial Ordnung der Distanzen bedeuten diese Vertauschungsmöglich-

Kapitel VI: Die multidimemionale Skalierung {MDSj

425

keiten, daß d(1,5) und d(2,6), d(1,4) und d(2,5), d(1,3) und d(2,4), d(2,4) und d(3,6) nicht miteinander vergleichbar sind sowie daß d(1,2) mit keiner der Distanzen d(3,5) > d(3,4) > d(4,6) > d(5,6) > d(4,5) vergleichbar ist. Unter Berücksichtigung dieser Tatsache ist die Partialordnung der Distanzen in Abb.10 graphisch dargestellt. Die oberste Distanz in dieser Darstellung ist die größte, nach unten hin werden die Distanzen immer kleiner; die Distanzen, zwischen denen keine von oben nach unten führende Verbindungslinie eingezeichnet ist, sind nicht miteinander vergleichbar.

d(1.6)

d(2,3) d (1.2)

d{3,5) d(3A)

I I I

d(4.6) d(5,6)

d(4.5J Abb.10: Aus Tab.21 resultierende Partialordnung der Distanzen d(i,j), i,j=1,...,6, i < j , zwischen 6 Objekten (Religionsgruppen)

Aus der Partialordnung in Abb.10 ergibt sich nun die eindimensionale ordinale Anordnung der 6 Objekte. Die Objekte 1 und 6 sind am weitesten voneinander entfernt, bilden also die Endpunkte der Anordnung; wir wählen hier einmal das Objekt 1 als Anfangsobjekt und das Objekt 6 als Endobjekt, d.h. 0(1) = 1 und 0(6) = 6 . Das dem Objekt 0( 1) = 1 ähnlichste Objekt ist Objekt 2, also ist 0(2) = 2 . Dem Objekt 0(6) = 6 ist das Objekt 5 am ähnlichsten, d.h. 0(5) = 5 . Weiter ist das Objekt 4 dem Objekt 6 am

426

Kapitel VI: Die multidimemionale Skalierung (MDS)

z w e i t ä h n l i c h s t e n ; w i r setzen a l s o 0(4) = 4 . Nun b l e i b t nur noch das Objekt 3 und die d r i t t e S t e l l e in der Anordnung ü b r i g , so daß w i r 0(3) = 3 s e t z e n . Die o r d i n a l e Anordnung der Objekte 0(1)

0(2)

0(3)

0(4)

0(5)

0(6)

e n t s p r i c h t h i e r a l s o gerade der Anordnung 1

2

3

4

5

6

.

Wir s t e l l e n nun die 15 D i s t a n z - Gleichungen j-1 j-1 d(0(i),0(j)) = d(i,j) = l d(0(k),0(k+1)) = \ d(k,k+1) k=i k=i in der durch die P a r t i a l o r d n u n g vorgegebenen Reihenfolge

auf; nicht ver-

g l e i c h b a r e D i s t a n z - Gleichungen werden dabei durch zwei verbundene K r e i s e gekennzeichnet; v g l . Cab.22. Cab.22: D i s t a n z - Gleichungen in der durch d i e P a r t i a l o r d n u n g aus Abb.10 v o r gegebenen Reihenfolge

d(l

c

6) = d (1 2) + d ( 2 , 3 ) + d ( 3 4) + d (4 5) + d ( 5 6 )

d ( l , 5 ) = d ( l 2) + d ( 2 3) + d ( 3 4) + d ( 4 , 5 ) d ( 2 6) d(l

IT C

ο

d(2

5)

d(l

3) = d ( l 2)

DER

=

d (2 4)

=

d ( 3 6)

=

d(2

3)

d(l

2) = d ( l 2)

=

d(2

3) + d ( 3 4)

d ( 2 3) + d ( 3 4) + d ( 4 5) + d ( 2 3) d ( 2 3) + d ( 3 4) d ( 3 4) + d ( 4 5) + d ( 5 6) d(2

3)

d 0 für i = 1 , . . .,m, a,. >0 f ü r k=1 k,u —

m und u=1,... ,n-1 sowie d P ' , . . . , d ' 1 j > 0. ι n-1

Beim Goode - Phil 1ips - Algorithmus wird nun im t-ten S c h r i t t

(t=1,2,...,m-

( =n(n-1)/2 - 1)) die (m-t) - t e Z e i l e des Gleichungssystems d = A(t»-d(t) mit

,(t) «(t)

ä(t)

1,1

1 >s« ak

.(t)

U ÜL° f ü r

k = 1 , . . . ,m und u = 1 , . . . , s t

a«1' m,s.

( n a t ü r l i c h i s t s^ = n-1) und d^)

1

verglichen mit den d i r e k t darunterliegenden Z e i l e n , mit denen s i e gemäß der Partialordnung vergleichbar

ist.

428

Kapitel VI: Die multidimensionale Skalierung (MDS)

I s t keine solche Zeile vorhanden, so setzt man A(t+1)=A(t)

d< t + 1 > = 0 \,u,du für b=1,... ,α

I s t nun für al 1 e u = 1 a(t)

-a(t)

st > 0

so i s t die Ungleichung d

m-t > d £ h b

bereits e r f ü l l t . I s t dies für b=1,...,a der F a l l , so setzt man

und fährt mit dem (t+1) - ten Schritt f o r t . F a l l s die Ungleichung für kein oder lediglich für einige b € { 1

α} er-

f ü l l t i s t , sagen wir für b=ß+1,...,a mit l £ ß _ < a , so gehen wir wie folgt vor. Die Ungleichungen V t

> d

l

b

für b=1,... ,6

sind in jedem Fall dann e r f ü l l t , wenn g i l t ß d

m-t m τ >

Σ d^ b=1 b

.

Nun i s t aber im t-ten Schritt

429

Kapitel VI: Die multidimensionale Skalierung (MDS)

d

t m-t

=

*1 ^

aW - d ^ m-t,u u

und f dÄ = ! I a ^ · « ^ u b=1 b b=1 u=1 V u

·

d.h. d i e obige Ungleichung i s t ä q u i v a l e n t zu S4.

α m

u=1

'l'u

u

s.

b=1 u=1

V

u

u

u=1

Diese l e t z t e Ungleichung s c h r e i b t man dann in der Form (P+)

f

- y a(t) y t )

fa(t)

V

fa(t)

( u ) =(D p .t + 11)) VV V t . ( u ) wobei der e r s t e Teil

(poi-CtiveA

ue { ( 1 ) , . . . , ( p t ) } C { 1 , . . . , s t } a(t>

-

und der zweite T e i l

V

Indizes

> 0

(n&gativeA

y

alle

b =X 1

mit

a(f

u

für (u)=(pt+1)

(qt)

, für (u)=(qt+1)

(st)

mit (1 ) ( v ) ~ V m - t , ( v )

c

-(a(t) (u)(v) A V t . l v )

b^

-

a

für

flb,(v)jd(v)

(v)=(pt+1),...,(qt)

y a(t) y t + 1 ) « - b . ( v ) A t + [ " - 2 ] - [ q t - P t ] + tv-ptl

bt!

für (u)=(2)

(pt), (v)=(pt+1),...,(qt)

.

Hier i s t dann s

t+1

= s

t

+

[p

t"1]'[qt"pt]

'

und d i e Elemente der K o e f f i z i e n t e n m a t r i x (1),...,(pt)

sowie ( q t + 1 )

(u)=(pt+1),...,(qt) a(t+1) a

von A ( t + 1 )

(t) k,(u) " a k , ( u )

stimmmen in den Spalten

( s t ) mit denen von A ^

ü b e r e i n . I n den Spalten

ist

(t) / (t) _ f _(t) \ / ( A t ) k,( 1)V m - t , ( u ) h ^ V ^ V A V u i )

b

§ (t) \ ^aiib)(1)J

für k = 1 . . , m

,

431

Kapitel VI: Die multidimensionale Skalierung (MDS)

und in den neu hinzukommenden Spalten s t +1,s t +2

s t +[p^-1]-[q^-p t ]

ist

a (t+1)

k,st+[u-2]'[qt-pt]+[v-pt] -a(t)

-a(t)

fa(t)

- Y a(t)

. ? , ( «

Ϊ

f ü r k=1,...,m Bei diesem Verfahren sind nach dem S c h r i t t t die Beziehungen zwischen den l e t z t e n (t+1) Zeilen des Distanzenvektors d e r f ü l l t . Also sind mit dem ( m - l ) - t e n S c h r i t t a l l e Beziehungen zwischen den Zeilen von d, die durch die Partialordnung gegeben sind, durch das Gleichungssystem :A(m).d(m)

=A(n(n-1)/2).d(n(n-1)/2)

erfüllt. Nun wird aus dem Gleichungssystem d = A ^ •d'"1^ die Konfiguration y^. der η Objekte bestimmt. Dazu bilden wir das Teilgleichungssystem J

,(m) '(D,1

(1)

( ' ) >Sn

,(m)

(n-1)

Am) (n-1),s n

(n-1) ,1

das aus a l l e n Zeilen k=( 1)

(1)

»

'(n-1)

(n-1) besteht, f ü r die g i l t

dk = d(0(k),0(k+1))

.

Hier bezeichnet 0(k) n a t ü r l i c h wieder das k-te Objekt in der geordneten Obj e k t f o l g e 0(1)

0 ( n ) , die sich durch die Dreiecksanalyse e r g i b t . Die ein-

dimensionalen Skalenwerte

y n bzw. in geordneter Folge y 0 ( i )

y0(n)

ergeben sich dann zu

y0(2) y0(3)

• y 0(n)J

m > ) a ( D a

(1)

,(m) '(1)

a

(2)

a

(2)

(m)

•d(m)+const

+

,(m) (n-1)

wobei constj>0 b e l i e b i g gewählt werden kann, und die Elemente d (m) ) d (m)

d ^ b e l iebig wählbare p o s i t i v e Zahlen sind. m

ße^sp-iel: Ausgehend von I - S k a l e n haben wir zuvor eine Dreiecksanalyse f ü r η =6 Religionsgruppen durchgeführt. Es ergaben sich dabei die P a r t i a l o r d -

432

Kapitel Vi: Die multidimemionale Skalierung (MDS)

nung aus Abb.10 und die Distanz - Gleichungen aus Tab.22. Um nun eindimensioy

nale Skalenwerte

6=yO(6)

d

^e

''9'' o n s 9 r u PP e n

1=0(1) , . . . , 6 = 0(6) bestimmen zu können, müssen wir den Goode - P h i l l i p s Algorithmus anwenden. Dazu bilden wir aus den Distanz - Gleichungen der Tab.22 das Gleichungssystem d= A mit d15)T

d = (d 1

und

A ^

gemäß Cab.23

sowie dC1) = { d j 1 )

d^1))T = (d(1,2),d(2,3),d(3,4),d(4,5),d(5,6))T

.

(1) ' des Gleichungssystems

tab.23: Vektor d sowie Koeffizientenmatrix d = A(1'.d-(-di2>)=d(2>+di2>

433

Kapitel VI: Die multidimensionale Skalierung (MDS)

und d^1)=d^2)

für u=1,2,3,4

setzen. Es i s t dann s , = s, = 5 und die Koeffizientenmatrix Α auf die vierte Spalte mit A

(1)

(2)

stimmt b i s

' überein; in der vierten Spalte von Av

(2)

steht » ! ? ί · ΐ ί - < - » ΰ > = ' ΰ · < ΰ

" " · • >

«

·

also die Summe von vierter und fünfter Spalte der Matrix a ' ^ , vgl. auch Cab.24. Cab.24: Koeffizientenmatrix A

(2) (3) ' = A ' im zweiten und dritten Schritt sowie

Koeffizientenmatrix A ^ = A ^ = A ^ sten Schritt

im vierten, fünften und sech-

,(4)

»(2) d

1

2 3 4 5 6 7 8 9 10 11 12

13 14 15

i

J2)

(2)

i ,1

i ,2

d(i,6) d(l,5) d(2,6) d(l,4) d(2,5) d(l,3) d(2,4) d(3,6) d(2,3) d(l,2) d(3,5) d(3,4) d(4,6) d(5,6) d(4,5)

(2)

(2)

1 1 1 1 1 0 1 1 0 0 1 1 0 0 0

2 1 2 0 1 0 0 2 0 0 1 0 2 1 1

i ,3

i ,4

Zur Bestimmung der Koeffizientenmatrix A

a

,(4) i,1

(2)

i,5 1 0 1 0 0 0 0 1 0 0 0 0 1 1 0

13 '

d und d

d

14

*

13

- a { 2 ) d{2) 13,4 4

14

_ a ( 2 ) j(2) 14,4 4

+

a ( 2 ) d ( 2 ) - 22 dd ( 2 ) 13,5 5 " 4

+

dd

(2)

5

(2) J(2) _ d .(2) + d .(2) 14,5 5 " 4 5

i s t diese Ungleichung äquivalent zu

J47 i,4

a

4 3 4 2 3 0 9 4 0 0 3 2 2 1 1

a

i ,5 2 1 2 1 1 0 1 2 0 0 1 1 1 1 0

(3) ' muß im zweiten Schritt Zeile 13

verglichen werden, denn es i s t gemäß Partial Ordnung d

ι·A ι ,3 1 1 1 1 1 0 1 1 0 0 1 1 0 0 0

mit Zeile 14 des Gleichungssystems

Mit

(4) i ,2

434

Kapitel VI: Die muMdimensionale Skalierung (MDS)

und s o m i t b e r e i t s e r f ü l l t , d . h . es i s t s3 = s2 .

A-(2dJ3>+d(3>)=43>+(-2d53>-d(3>)>0

d ( 3 ^ d ^ - ( - 2 d W - d ( 4 ) ) / 1 = d 5 (3)=d(4) f ü r u=1,2,4,5

4

)

+

2 d ^

d ^

+

,

d

(4) s e t z e n müssen. W e i t e r i s t dann s . = s , und d i e K o e f f i z i e n t e n m a t r i x A (31 s t i m m t i n den S p a l t e n 1 , 2 und 3 m i t A ' ü b e r e i n ; i n d e r S p a l t e 4 s t e h t f ü r k = 1 , . . . , 15

, (3)

a l s o d i e Summe d e r v i e r t e n S p a l t e und zweimal d e r d r i t t e n S p a l t e von A v

,

und i n d e r S p a l t e 5 s t e h t für

5

,

(3) a l s o d i e Summe von f ü n f t e r und d r i t t e r S p a l t e von A v

, v g l . auch T a b . 2 4 .

Im v i e r t e n S c h r i t t des V e r f a h r e n s muß d i e Z e i l e 11 des G l e i c h u n g s s y s t e m s gemäß P a r t i a l o r d n u n g aus Abb.10 m i t Z e i l e 12 v e r g l i c h e n w e r d e n , denn es i s t d11

>

d12

*

Kapitel VI: Die multidimensionale

435

Skalierung (MDS)

Diese Ungleichung i s t wegen d d

11

- a ( 4 ) -d(4) 11 ,3 3

12

- a ( 4 ) - d ( 4 ) + a ( 4 ) - d ( 4 ) ++ aa ( 4 ) -d d 12,3 3 12,4 4 12,5 5

+

a ( 4 ) -d(4) 1 1 ,4 4

( 4 ) + a + a

- d ( 4 ) - d d( 4 ) 11,5d5 ' 3 ( 4 )

-d( " d3

+ + 33 dd

(4)

4

++

4 ) ( 4 ) + +L 2d d ++ d

4

(4) d d 5

d(4) 5

ä q u i v a l e n t zu d5

+

3dj4'

d(4)-(d(4)+2dj4'+d(4))=dj4)

+

und somit b e r e i t s e r f ü l l t , s5 = s4

,

A


,

>0

ist

d (

5

W

4

>

.

Im f ü n f t e n S c h r i t t s t e l l t s i c h anhand der P a r t i a l Ordnung aus Abb.10 h e r a u s , daß d i e 10. Z e i l e des Gleichungssystems :A(5).d(5)

mit k e i n e r der Z e i l e n 11, 12, 13, 14 und 15 v e r g l e i c h b a r i s t . Daher setzen wi r s6 = s 5

,

A


,

d


und führen den sechsten S c h r i t t durch. Die Z e i l e 9 muß im G l e i c h u n g s s y s t e m d = A(6>.d mit den beiden darunter l i e g e n d e n , untereinander n i c h t v e r g l e i c h b a r e n

Zei-

len 10 und 11 v e r g l i c h e n werden, v g l . auch d i e P a r t i a l Ordnung in Abb.10, gemäß derer d9 > d1Q

und

dg > d

n

gelten muß. Nun i s t d -a(6)-d(6)-d(6) 9 ~ 9,2 2 ~ 2 10

_a(6) 10,1

11

- a ( 6 ) - d ( 6 ) + a ( 6 ) - d ( 6 ) + aa ( 6 ) -dd ( 6 ) - dd ( 6 ) 11 ,3 3 11 ,4 4 11,5 5 " 3

d

d d

d

.(6) ,(6) 1 "d1

und somit i s t d i e e r s t e Ungleichung ä q u i v a l e n t zu d^ 6 > - dj 6 > > 0

,

die zweite ä q u i v a l e n t zu d-(di,6>+3d

+

d< 6 >) > 0

.

+ 33 dd

4

(6)

+ dd

5

(6)

436

Kapitel VI: Die multidimensionale Skalierung (MDS)

Beide Ungleichungen sind nicht automatisch erfüllt, so daß wir jetzt die Ungleichung dg > d 1 0 + d 1 t bzw. d< 6 > - ( d S 6 > ^ 6 > + 3 d J 6 > + d ( 6 > ) = d< 6 >

+

(-d5 6 >-d( 6 >-3dj 6 '-d( 6 >) > 0

betrachten müssen. Da der positive Teil lediglich aus dem Term d ^

be-

steht, setzen wir 4 6 > = d ( 7 ) - (-di7>-d(7>-3dj7>-d(7>)/i=47>+dS7>+d$7>+3d57>+d(7> d(6)=d(7)

für u=1 ,3,4,5

.

Dann ist s^ = Sg und A ^ 7 ' stimmt lediglich in Spalte 2 mit A ^

überein.

Die erste Spalte ergibt sich als Summe von erster und zweiter Spalte von a (6)

die dritte Spalte ergibt sich als Summe von dritter und zweiter Spalte von a

(6)

für k=1,..., 15

.

die vierte Spalte ergibt sich als Summe der vierten Spalte und des dreifachen der zweiten Spalte von

A ^ +

für k=1,... ,15

,

und schließlich ergibt sich die fünfte Spalte als Summe der fünften Spalte und der zweiten Spalte von a'®' für „ , , . . . , 1 5

.

Diese Koeffizientenmatrix ist in tab.25 angegeben. Im siebten Schritt wird wegen d

8

> d

9

gemäß Partial Ordnung die 8. Zeile mit der 9. Zeile des Gleichungssystems d = A< 7 >.d( 7 > verglichen. Obige Ungleichung ist mit

v j ,

ΐ

Μ

'

Μ

Μ

Μ

'

Μ

Μ

7

'

437

Kapitel VI: Die muitidimensionale Skalierung (MDS)

Cab.25: K o e f f i z i e n t e n m a t r i x A ^ im s i e b t e n S c h r i t t und K o e f f i z i e n t e n m a t r i x (81 (9) Α =A V ' im achten bzw. neunten S c h r i t t

1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

d

A(8)

A< 7 > Λ1) a ( 7 ) , ( 7 ) i , 1 i ,2 i ,3

i

Im neunten S c h r i t t muß nun die Ungleichung d

6 >

d

8

zwischen 6. und 8. Z e i l e des Gleichungssystems d = A< 9 >.d< 9 > b e t r a c h t e t werden. S i e i s t wegen d

6

dn

ä q u i v a l e n t zu

u=1

.

8

'

+

d(

8

)

+

d^

+

d^

> 0

,

Kapitel VI: Die multidimensionale Skalierung (MDS)

439

( 5 - 4 ) d < 9 ) + (4-4)dj,9) + (1-1)d^9) + ( 3 - 4 ) d J 9 ) + ( 1 - 2 ) d ' 9 ) + (3-2)d£9) + ( 2 - 2 ) d y 9 ' = (d!j9' + dg9^) + ( - d ^ 9 ' - d ^ 9 ' )

> 0

.

H i e r bestehen p o s i t i v e r und n e g a t i v e r T e i l aus j e zwei Summanden, so daß mit dem Lemma von F a r k a s (1902) nun g i l t : =dSio>-(.-d;io>-d(io>)/i=dSio>+d =

4 " i

d

1 0 )-d(l0))/i=d(10'+d(10' 6 1 0 ) - ( -- d j 0 )

-

1 0 )

-

= (-dV

9 )

= (-4

4 " ,(9) u

= d(10)

f ü r u=2 ,3,7

sowie s , n = s Q + 2 = 9 . Die Elemente der K o e f f i z i e n t e n m a t r i x A^ (9)

^ stimmen in

den S p a l t e n 1, 2 , 3 , 6 und 7 mit denen von fir ' ü b e r e i n ; f ü r d i e S p a l t e 4 gilt

für

......5

.

für die Spalte 5 g i l t

4 : ξ Μ ! Μ ! ! · < · < > / < = » Κ · 4 ! ί

» > =
dg

und

d 5 > d^

im zehnten S c h r i t t werden durch das

Gleichungssystem

d = A(10).d(10> b e r e i t s e r f ü l l t , d . h . es s; „ == s s, n 11 10

,

ist

A=A

,

d=d

.

=,.....,5

·

440

Kapitel VI: Die multidimensionale Skalierung (MDS)

Cab.26: K o e f f i z i e n t e n m a t r i x A ^ 1 0 ' =

= ... =

zehnten S c h r i t t sowie r e s u l t i e r e n d e

i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

A(10) d

i

„ ( i ö ) _C 10) . ( 1 0 ) i >2 i ,1 i ,3

d(l,6) cl(l ,5) d(2,6) d(l,4) d(2,5) d(l,3) d(2,4) d(3,6) d(2,3) d(1,2) d(3,5) d(3,4) d(4,6) d(5,6) d(4,5)

8 7 8 6 7 4 6 4 4 0 3 2 2 1 1

9 8 8 7 7 5 6 4 4 1 3 2 2 1 1

2 2 2 2 2 1 2 1 1 0 1 1 0 0 0

i >4

( =A „(10) i >5

16 14 15 12 13 8 11 8 7 1 6 4 4 2 2

12 10 11 9 9 6 8 6 5 1 4 3 3 2 1

Λ(10)

im zehnten b i s

(15)) a(10)

i .6

„ ( 1 0 ) - ( 1 0 ) „(10) i »8 i ,9 i .7

5 4 4 4 3 3 3 2 2 1 1 1 1 1 0

4 3 4 3 3 2 3 2 2 0 1 1 1 1 0

Im e l f t e n S c h r i t t s i n d im System d = A 0 frei gewählt werden kann, gilt. Da dieses Verfahren nur eine lokal (bzgl. der gewählten Anfangspartition) optimale Partition Κ für die η interessierenden Objekte liefert, sollte es stets für verschiedene Anfangspartitionen durchgeführt werden. Die optimale Partition ist dann die mit dem insgesamt gesehen geringsten Gütemaß.

Βίύ>μί&1:

Für die 5 Autohersteller, für die wir in Abschnitt 3 Überdeckun-

gen konstruiert haben, wollen wir nun eine Partition in m = 2 Klassen bestimmen; die Distanzmatrix D für die Hersteller ist in Abschnitt 3.1 bereits angegeben.

Kapitel VII: Die Clusteranalyse

467

Die Güte der P a r t i t i o n s o l l an den Homogenitäten der beiden Klassen gemessen werden, d.h. g(K)=

l h(K.) Κη.€Κ

,

und a l s Homogenitätsmaß wollen wir

1

=

Τ ΤKΓ Τ l ii

l j 0.2 '3 '3 zu K 3 = K° = {3}

mit h(K 3 ) = 0.0000

Schließlich bildet das letzte verbleibende Merkmal 5 die Klasse K^: K 4 = {5}

mit h(K 4 ) = 0.0000

so daß die Partition κ gegeben ist als

die Güte dieser Partition ist gerade 4 g(K) = Τ h(K.) = 0.0655 + 0.2403 = 0.3058 1 i=1

In der Abb.10 ist diese Partition Κ auch araphisch veranschaulicht, und zwar wurden ihre Klassen Κ^,Κ^,Κ^,Κ^ in die zweidimensionale die mittels Nonlinear Mapping

Konfiguration

im Abschnitt 2 des Kao.VI gewon-

nen wurde, vgl. auch die dortige Abb.7, eingezeichnet.

5

EIN VERFAHREN ZUR KONSTRUKTION EINER QUASIΗIERARCHIΕ

Eine Quasihierarchie ist eine Klassifikation, die es erlaubt, auch feine Strukturen in einer Objektmenge {1,... ,n} zu erkennen; sie wird durch eine Folge von Oberdeckunnen gebildet. Stellt man sich eine Quasihierarchie Κ in Form eines "Stammbaums" vor,

so ist die untere Stufe eine sehr arobe über-

474

Kapitel VII: Die Clusteranalyse

Stoßdämpfer

s·—«~Vorderrad•S 7«\authängung

•6

y-2

äußere Karosserie

\ 0.1-

-0.5

/



2

Automatikgetriebe

-0.1

J

0.1

Bremsen

-0.1

innere Karosserie

-0.5-

Eisenteile der

Abb.10: Veranschaulichung der P a r t i t i o n Κ f ü r sieben R e p a r a t u r a n f ä l l i g k e i t s merkmale anhand der Nonlinear MapDina K o n f i g u r a t i o n aus Abb.7 im A b s c h n i t t 2 des Kap.VI

deckung, d i e nächste Stufe schon etwas f e i n e r usw. b i s zur oberen S t u f e , d i e die f e i n s t e i n der Q u a s i h i e r a r c h i e enthaltene Überdeckung der η Objekte darstellt. Die K o n s t r u k t i o n e i n e r Q u a s i h i e r a r c h i e kann nun ι ü v - L i i v oder

apgiomeAatiu

e r f o l g e n . Bei e i n e r d i v i s i v e n K o n s t r u k t i o n geht man von e i n e r groben Überdeckung aus und k o n s t r u i e r t nun s c h r i t t w e i s e immer f e i n e r e

Überdeckungen,

b i s man s c h l i e ß l i c h die " S p i t z e " des "Stammbaums" e r r e i c h t hat. Die agglomer a t i v e K o n s t r u k t i o n , d i e in der P r a x i s eine weitaus größere R o l l e

spielt,

oeht von e i n e r f e i n s t e n Oberdeckung aus und b i l d e t dann s c h r i t t w e i s e immer nröbere Oberdeckunoen. Bei anglomerativen K o n s t r u k t i o n s v e r f a h r e n wählt man nun eine f e i n s t e Anfangsüberdeckuno und v e r g r ö b e r t d i e s e s c h r i t t w e i s e s o , daß die Güte der j e w e i l s nachfolnenden nröberen S t u f e b z n l . der Anfangsüberdeckung ootimal

in Abhännigkeit von der Klassenzahl

lokal

auf d i e s e r S t u f e i s t . Man kann

nun die Vergröberung solanne f o r t s e t z e n , b i s nur noch eine K l a s s e ü b r i g b l e i b t ( i s t die Anfangsüberdeckung e x h a u s t i v , so e n t h ä l t d i e s e a l l e η i n t e r e s s i e r e n d e n O b j e k t e ) , oder das Verfahren abbrechen, wenn das gewählte Gütemaß auf e i n e r S t u f e eine festgewählte Schranke ü b e r s t e i g t

(diese

Kapitel VII: Die Clusteranalyse

Schranke ist in Abhänginkeit von der Klassenzahl

475

der Stufe zu wählen).

Konkret bestimmt man mit den Verfahren aus Abschnitt 3 zunächst eine exhaustive bzw. eine nichtexhaustive Anfanqsüberdeckunq K ° = { K ? , . . . , K ° } mit f Κ - J > 1

für alle i. (Die zu konstruierende Quasihierarchie ist dann ex-

haustiv, wenn die Anfanosüberdeckunp exhaustiv ist, und sonst nichtexhaustiv.)

Daraus wird die gröbere überdeckunci Κ

1

konstruiert, daraus dann Κ

2

usw.:

Im t-ten Schritt (t=1,2,...) bestimmt man dazu die maximale Anzahl von Objekten, die zwei Klassen K^"' und Ii gemeinsam sind, d.h. man bestimmt a„ = '

|K*~1nK g* ist (dann bildet

die gröbste

Überdeckung).

Die Quasihierarchie Κ besteht dann aus allen Klassen K ^

die in mindestens

einer der Oberdeckungen enthalten sind.

Da dieses Verfahren nur eine lokal optimale Quasihierarchie bildet, sollte

476

Kapitel VII: Die Clusteranalyse

man es in der Praxis stets mit unterschiedlichen Anfangsüberdeckungen durchführen. BeJ^pleZ:

Für die 5 Autohersteller American Motors ( 1 ) , Chrysler ( 2 ) , Ford

( 3 ) , General Motors (4) und ausländische Hersteller ( 5 ) , deren Distanzmat r i x in Abschnitt 3.1 angegeben i s t , wollen wir eine exhaustive Quaishierarchie konstruieren. Als Maß für die Güte der einzelnen Oberdeckungen K^" ( t = 0 , 1 , . . . ) der Quasihierarchie wollen wir g(Kt)=

l

h(K})

mit

h(K*) =

verwenden und das Verfahren abbrechen, wenn für ein t g i l t : ~t ς(Κ*) > g1" = 2-1K^| Als Anfangsüberdeckung, die gleichzeitig die feinste Überdeckung aus dieser Quasihierarchie i s t , wählen wir einmal

Hier ergibt sich h(K°) = 1 d( 1,3) = 4-1.86 = 0.93 h(K°) = { h(K°) 4

d(2,5) = •£•3.31 = 1.655

und

d(2,4) = •£•2.98 = 1.49

so daß q i l t : ο g(K°) = 0.93 + 1 .655 + 1 .49 = 4.075 < 6 = 2-3 = 2- |κ' Nun wird a. bestimmt; es i s t a, = I

max

| K°. η K° | = | K° η K°| = | {2} | = 1 1l ι2 C o

il/i2 so daß zunächst nur die Klassen K? und K? vereinigt werden, denn wegen | ( κ ° υ κ ° ) η κ ° | = | κ ° η κ ° | =0 f 1 findet keine weitere Klassenvereinigung s t a t t . Damit i s t dann

Kapitel VII: Die Clusleranalyse

Κ

= {Kj ,Ι^,Κ^,Κ^}

und somit K 1 = {K°,K°} = { κ | , ψ da

und

,

ist. Die Güte der Oberdeckung K^ ist wegen

h(K]) = h ( { 1 , 3 } ) = | d(1,3) = 0 . 9 3

und

h(K^) = h ( K ° U K°) = h({2,4,5}) = ^ ( d ( 2 , 4 ) + d ( 2 , 5 ) + d(4,5)) = -^(2.98 + 3.31 + 3.86) = 1.692 qeqeben durch g i K 1 ) = h(l

CM ν£>

CO



ΓΟ

^ ^ •P to

ιη (Ν σ>

ΚΩ 00 r-

, K 1 5 = {5,6}, K16 = {9,12}, ^

= { 1 , 2 , 3 } , K,g = { 1 , 2 , 3 , 8 } ,

K l g = {9,10,12}, K20 = {11,13}, K 2 1 = { 4 , 7 } , K22 = {5,6,9,10,12}, K23 ={1,2,3,8,11,13}, K24={1,2,3,4,7,8,11,13}

und

K25 = {1,2,3,4,5,6,7,8,9,10,11,12,13} b e s t e h t , v g l . Abh.15; die P a r t i t i o n e n , d i e auf den e i n z e l n e n Stufen der H i e r a r c h i e entstehen, s i n d a l s o Κ

= ( K ^ , K 2 , Κ ^ , Κ ^ ,Κς,Kg ,Ky , K g , K g Q , κ ^ , κ ^ 2 , κ ^ »

Κ Κ Κ κ

={K2,K^,Kg,Kg,Ky,Kg,Kgι 2 3

,

= {Kg.K^.K^.Kg.Kg.K^Q.K^

,

={K2,K4,K7,K8,K10,K11,K13>K14,K15,K16}

4

={K4.K7.K8»K10.K11,K13,K15,K16,K17}

,

,

5 κ

= { Κ ^ , Κ ^ , Κ ^ >K13,K15.K16,K18}

κ

={ K

4

, K

7

, κ ^ , κ ^

g }

3

κ7={Κ4,Κ7,Κ15,Κ18,Κ19,Κ20} Κ

=

Κ

~

Κ

=

Κ

^K15,K18,K19*K20*K21^

,

,

, '

^Ίg»^20'^21'' >^22'^23^

={Κ22 2

^ ={Κ25}

'

> .

Man s i e h t h i e r recht d e u t l i c h , daß bei Verwendung von s i n g l e l i n k a g e große K l a s s e n sehr f r ü h v e r e i n i g t werden. Bei complete l i n k a g e entstehen

viele

k l e i n e K l a s s e n , und bei average l i n k a g e e r h ä l t man zwar zunächst k l e i n e

.

K l a s s e n , die aber dann doch recht s c h n e l l größer werden.

|

Im e r s t e n B e i s p i e l

haben wir gesehen, daß in jedem S c h r i t t die V e r s c h i e -

denheit der neu g e b i l d e t e n K l a s s e n und jeder anderen K l a s s e neu berechnet werden muß. I s t die Anzahl η der zu k l a s s i f i z i e r e n d e n Objekte sehr g r o ß , so i s t d i e s e s Verfahren recht aufwendig. Daher wollen w i r h i e r eine Rekursionsformel

angeben, die die Berechnung d i e s e r V e r s c h i e d e n h e i t im t - t e n

S c h r i t t aufgrund der Verschiedenheit im vorhergehenden ( t - 1 ) - ten S c h r i t t e r m ö g l i c h t , f a l l s e i n e s der Verschiedenheitsmaße s i n g l e l i n k a g e , complete l i n k a g e oder average l i n k a g e verwandt wird. Es i s t f ü r

t=1,2,...,n-1

Kapitel VII: Die Clusteranalyse

Ui

11 t 13«



1? 25

3

β 9 19

12 10 · -

5 ·6·Abb.15: Hierarchie für 13 PKW - Typen bei Verwendunn von average linkage

ν ( Κ * ; 1 υ Κ * ; \ ΐ φ =α1.ν(Κ^1,Κ^)

wobei die zu verwendenden Parameter α^, tab.2: Parameter der Rekursionsformel Verschiedenheitsmaß

+α2·ν(Κ^

1

,Κ^)

und α^ in Cab.2 angegeben s i n d ,

für Verschiedenheitsmaße

V

a2

s i n g l e linkane

0.5

0.5

0.5

complete linkane

0.5

0.5

0.5

I C I 1

1Ki*11 2

averane linkage

'Ki*1' 1

+

!Ki*1' 2

I ^ V l K -

a

1

3

0 !

Ertweiterunnen dieser Rekursionsformel auf weitere Verschiedenheitsmaße findet man etwa bei Cormack (1971), Bock (1973) oder Jambu (1978).

487

488

Kapitel VII: Die Clusteranalyse

Eine nichtexhaustive Hierarchie l ä ß t sich mit H i l f e dieses Verfahrens nat ü r l i c h auch konstruieren, wenn man Klassen der A n f a n g s p a r t i t i o n K° wegl ä ß t ; dies i s t aber nicht besonders s i n n v o l l . S e l b s t v e r s t ä n d l i c h kann bei diesem Verfahren auch mit vorgegebener Klassenzahl m gearbeitet werden. Für exhaustive Hierarchien muß a l l e r d i n g s n£m_ = min{d(6,4) - d(3,4) ,d(6,2) - d(2,3) ,d(6,5) - d ( 1 , 5 ) } = min{2.80 - 2.11 ,3.02 - 1 .97,3.40 - 2.70} =min{0.69,1 .05,0.70} = 0.69 = h(K 1 U { 6 } ) - h(K 1 )

,

so daß H e r s t e l l e r 6 der Klasse K^ zugeordnet wird. Nun wollen wir noch ein Verfahren v o r s t e l l e n , das neue Objekte den Klassen einer m i t t e l s des Verfahrens aus Abschnitt 6 konstruierten Hlunafickli

zu-

ordnet; es verwendet die D i s t a n z i n d i z e s eines neuen Objektes zu den η Objekten aus der Hierarchie und das Verschiedenheitsmaß s i n g l e linkage: ν(Κ· ,Κ. ) = 11

12

min d(j,k) jfK. ,kfK. Ii 12

S o l l ein neues Objekt j den Klassen einer Hierarchie K, die aus einer F o l ge

,... , K

n

von

P a r t i t i o n e n gebildet wird, zugeordnet werden, so muß

e s , damit der K l a s s i f i k a t i o n s t y p " H i e r a r c h i e " erhalten b l e i b t , je einer Klasse jeder der η P a r t i t i o n e n zugeordnet werden. Es gehört somit auf j e den Fall zur einzigen Klasse κ " " 1 der P a r t i t i o n K n ~ 1 . Die P a r t i t i o n K n ~ 2 besteht aus zwei Klassen (K1}

1

i s t in zwei Klassen aufgespalten); eine von n-2 ihnen muß das Objekt j aufnehmen. Dies i s t die Klasse K^* , f ü r die g i l t v(K";2,{j})=

min v ( K " ~ 2 , { j } ) i=l,2

.

Besteht diese Klasse aus mehr a l s zwei Elementen, so wird s i e in einer feineren P a r t i t i o n erneut in zwei Klassen gespalten. Dort wird dann das Objekt j der Klasse zugeordnet, der es am ähnlichsten i s t , usw., b i s j einer Klasse zugeordnet wird, die nur ein e i n z i g e s Element e n t h ä l t . Wir wollen dieses Verfahren an einem B e i s p i e l

verdeutlichen.

Be-cip-ieX: In Abschnitt 6 haben wir eine Hierarchie für η = 5 A u t o h e r s t e l l e r k o n s t r u i e r t . Diese b i l d e t eine Folge von η = 5 Partitionen und besteht aus 2n-1 = 9 Klassen: Κ = { K j , K £ , . . . , Kg} mit K,={1}

,

K 2 = {2} ,

K 3 = {3} ,

K 4 = {4} ,

K 5 = {5} ,

= {1,2}

,

492

Kapitel VII: Die Clusteranalyse

K ? = {1,2,3} ,

Kg = {1,2,3,4} und Kg = {1,2,3,4,5}

.

Die 5 Partitionen waren Κ

= {K^ .^.Kj.K^.Kg} ,

Κ

={K^,K^,Kg,Kg} , 2

Κ K

={K^,Kg,Ky} , 3

= { K 5 , K g } und

K 4 = {K g }

.

Nun sollen drei weitere Hersteller j^,

und j^ den Klassen der Hierarchie

Κ zugeordnet werden. Die Distanzindizes sind in der erweiterten (nur soweit gebrauchten) Distanzmatrix D in Cab.3 angegeben.

lab.3: Erweiterte Distanzmatrix D für 8 Hersteller Hersteller J

2

3

4

5

00 70 86 05 70

1.70 0 00 1 97 2 98 3 31

1. 8 6 1.97 0 .00 2 .11 2 .70

3 .05 2 .98 2 .11 0 .00 3 .86

2 .70 3 .31 2 70 3 .86 0 .00

2 84 3 10 3 05

3 60 2 17 1 52

1 96 2 90 3 50

3 20 2 35 2 .73

2 95 1 75 1 65

1

Herstel l e r \ . k 1 2 3 4 5 j. j

2

0 1 1 3 2

1

j2

2.84 3.60 1.96 3.20 2.95

3.10 2.17 2.90 2.35 1.75

j

Das Objekt j. wird natürlich der Klasse K Q der gröbsten Partition Κ 3 geordnet. In Partition Κ

j

3

3.05 1.52 3.50 2.73 1.65

4

zu-

gehört es zur Klasse Kg, denn

v t K g J j , } ) =min{v(K 5 ,{j 1 }),v(K 8 ,{j 1 })} = min{min d(k,j.),min d(k,j.)} k£K,_ keK g = min{d(5,j 1 ),d(3,j 1 )} = min{2.95,1 .96} = 1.96 Die Klasse Kg spaltet sich dann in die Klassen K^ und K^. Das Objekt j^ wird K^ zugeordnet, denn v ( K 7 , { j 1 } ) = min{v(K 4 ,{j 1 }) ,v(K 7 ,{j 1 >)} = d ( 3 , J 1 ) = 1.96

.

Kapitel VII: Die Ousteranalyse

493

Ky s p a l t e t s i c h in die Klassen Kg und K 3 , von denen j 1 nun der ( b i s h e r ) einelementigen Klasse K 3 zugeordnet wird, weil v ( K 3 , { j 1 } ) = m i n { v ( K 3 , { j 1 } ) , v ( K 6 , { j 1 } ) } = 1.96 i s t . Damit i s t der Zuordnungesprozeß für

beendet.

Das Objekt j 2 gehört zur Klasse Kg und zur einelementigen Klasse Kg, denn ν ( K g , { } ) = min{v(K R ,{ j 9 } ) , v ( K p , { j , } ) } = 1.75 5' 2

,

und die Zuordnung von j 2 i s t beendet. S c h l i e ß l i c h wird j 3 den Klassen K g , Kg, K^, Kg und K,, zugeordnet, da g i l t v ( K 8 , { j 3 } ) = m i n { v ( K 5 , { j 3 } ) , v ( K 8 , { j 3 } ) } = 1.52

,

v ( K 7 , { j 3 } ) = m i n { v ( K 4 , { j 3 } ) , v ( K 7 , { j 3 } ) } = 1.52

,

v ( K 6 , { j 3 } ) = m i n { v ( K 3 , { j 3 } ) , v ( K 6 , { j 3 } ) } = 1.52

,

und v ( K 2 , { j 3 } ) = m i n { v ( K 1 , { j 3 } ) , v ( K 2 , { j 3 } ) } = 11.52 Die Zuordnung der neuen Objekte j ^ , j 2 und j 3 kann man im Dendrogramm, z. wie in Abb.17, d e u t l i c h machen.

1 ·-

Abb.17: Dendrogramm f ü r A u t o h e r s t e l l e r unter Berücksichtigung der neuen, diskriminierten Hersteller

N a t ü r l i c h kann man, f a l l s keine Beschränkung der Klassenzahl

erforderlich

i s t , die nach der Zuordnung entstandenen mehrelementigen Klassen auf der untersten Stufe der Hierarchie weiter aufspalten, b i s nur noch einelement i g e Klassen v o r l i e g e n . In Abb.18 i s t eine solche Spaltung für unser Be-iiplet

graphisch d a r g e s t e l l t .

.

494

Kapitel VII: Die Ousteranalyse

1' = 1 •

12' 2'= 2 · 131

3'=j3·3 ·-

111

1

—H· —

5'=j,i 151 6'-!*·-

7"= 5 · -

101 — · —

e'=j2·Ahb.18: Dendrogramm für Autohersteller bei vollständiger Aufspaltung in einelementige Klassen

8

EIN ZUSAMMENFASSENDES

BEISPIEL

Um die Verfahren und Vorgehensweisen der Clusteranalyse noch einmal zu verdeutlichen, wollen wir hier zusammenhängend das folgende Beispiel

betrach-

ten. In der Cab.4 sind die Indizes der Lebenshaltungskosten einiger europäischer Länder für die Jahre 1960 bis 1964 ausgehend von 100 im Basisjahr 1958 angegeben; unterschiedliche zugrundeliegende Warenkörbe, vgl. etwa Kap.I in Härtung et al. (1982), tuen der Vergleichbarkeit wohl keinen Abbruch, da es hier im wesentlichen auf die jeweiligen Steigerungsraten ankommt.

Cab.4: Index der Lebenshaltungskosten einiger Länder mit Basisjahr 1958 Land

(j)

BR Deutschland (1) Belgien (2) Großbritannien (3) Italien (4) Norwegen (5) Osterreich (6) Portugal (7)

1960

1961

1962

1963

1964

102 102 102 103 103 103 103

105 103 105 104 106 106 106

108 104 109 109 111 111 109

111 106 112 117 114 115 111

114 111 115 124 120 119 115

Aufgrund der enthaltenen Information über die Entwicklung der Lebenshai-

Kapitel VII: Die Ousteranalyse

495

tungskosten wollen wir hier Clusteranalysen für die Länder durchführen. Dazu berechnen wir zunächst unter Verwendung euklidischer Abstände die Distanzmatrix 7..348 0..000 9..000 17..776 14..283 11.,283 8.,718

0.000 7.348 1.732 11.747 7.483 7.211 2.000

1..732 9..000 0,.000 10..344 5,.916 5..568 1,.732

11,.747 17..776 10,.344 0,.000 5,.831 6..164 11,.045

7,.483 14,.283 5,.916 5,.831 0 .000 1,.414 6,.164

7,.211 11..283 5,.568 6..164 1,.414 0..000 6,.000

2 .000' 8,.718 1,.732 11,.045 6 .164 6,.000 0 .000

für die sieben Länder, und wollen dann Partitionen und Hierarchien für sie bestimmen. In die Klassen der verschiedenen Klassifikationen sollen dann noch jeweils die Länder Luxemburg

(8) mit den Lebenshaltungskosten - Indi-

zes 101 (1960) ,

101 (1961) ,

102 (1962) ,

105 (1963) ,

108 (1964)

107 (1962)

111 (1963)

114 (1964)

und Schweiz (9) mit den Indizes 101 (1960) ,

103 (1961)

,

,

,

diskriminiert werden. Dazu bestimmen wir an dieser Stelle bereits die erweiterte Distanzmatrix

D=

(soweit benötiqt)

|11.180 | 4.359 |12.806 |21.307 J 18.303 |18.193 112.767

D

2.449' 6.633 3.317 11.916 8.602 8.367 4.243

Als Homogenitätsmaß für eine Klasse K^ werden wir hier stets

1

1K

i!

jU

=

d i a

pq"

9 ( V l

>-i"-"-p'

s i n d gerade d i e merkmalseigenen Varianzen ( e m p i r i s c h e bzw. g e s c h ä t z t e r i a n z e n , wenn a u s e i n e r S t i c h p r o b e b e s t i m m t ) , d . h . der s t a n d a r d i s i e r t e n Faktoren erklären

Mittels

p q

die A n t e i l e der

beobachteten Merkmale, d i e sich n i c h t

durch

Va-

Varianz

gemeinsame

lassen.

d e r M a t r i x L ( d i e im f o l g e n d e n s t e t s

w i r d ) , l ä ß t s i c h e i n e nzduzivvtz 2 2 2 ergibt sich mit k, = 1 - 6. = 1 + J J J' l e r F a k t o r e n zu 12 , 2

Γ2Ρ

r„ 2p

genannt

reproduzieren. ρ im F a l l e

Diese

orthogona-

Ίρ

12

r. 1p

k u r z La.dungAm.&Ux

KowiilationmatAix. ? . . . + 1 . für j =1 JH

...

= R - U'U

k μ-

D i e G r ö ß e n k 2j h e i ß e n f ü r j = 1 ρ a u c h d i e Kommxnal-Uätzn ( e m p i r i s c h e bzw. g e s c h ä t z t e Kommunal i t ä t e n , wenn L a u s e i n e r S t i c h p r o b e g e s c h ä t z t w u r d e ) d e s 2 j - t e n M e r k m a l s . D i e Kommunal i t ä t k^. g i b t a n , w e l c h e r A n t e i l d e r V a r i a n z d e s j - t e n s t a n d a r d i s i e r t e n Merkmals d u r c h gemeinsame F a k t o r e n e r k l ä r t

wird.

.)

511

Kapitel VIII: Die Faktorenanalyse

Im F a l l

von q gemeinsamen kom.eZiiiten

(ichie^wlnkZlgen)

Fa.kXon.rn mit K o r -

relationsmatrix 1

F,F

F

1' 2

R

F.F V 2

F =

1F,

V

,

1

1 q

2q

l a s s e n s i c h wie im orthogonalen F a l l die Kommunalitäten bestimmen. B e z e i c h net L = (1 .. ) . , . , die Ladungsmatrix, so e r g i b t s i c h die Komjk j = i , . . . , ρ , κ - ι , . . . ,q 2

2

munalität k^ = 1 -

des j - t e n s t a n d a r d i s i e r t e n Merkmals f ü r j = 1 , . . . , p aus

R = R - U2 = L - R f ' L t ο

q k=1

ρ

q-i

q

k=1 k ' = k + l

jk

jk

'

F

kFk'

Wir wollen uns im folgenden zunächst mit der Schätzung

eineA

Ladangima.fu.x.

L ( d i e wir genau so wie d i e t h e o r e t i s c h e Ladungsmatrix bezeichnen) f ü r q o r t h o g o n a l e , nichtbeobachtbare Faktoren b e s c h ä f t i g e n . Es g i b t unendlich τ ~ 2 Matrizen L mit L - L

=R = R - U

, so daß jedes Bestimmungsverfahren

viele

Zusatz-

forderungen an d i e Ladungsmatrix L s t e l l e n muß. Im ersten A b s c h n i t t werden nun verschiedene Verfahren zur Bestimmung e i n e r Ladungsmatrix L v o r g e s t e l l t . In A b s c h n i t t 1 . 1 wird zunächst die von Lawley/Maxwel1 (1963) angegebene Max-tmum - Likelihood 2

- Schätzung

von L d a r g e s t e l l t , d i e die Kommunal i t ä t e n

kj simultan zu L s c h ä t z t . Bei der Maximum - L i k e l i h o o d - Methode i s t es a u s serdem möglich zu t e s t e n , ob die Anzahl q der e x t r a h i e r t e n Faktoren

signi-

f i k a n t zu g e r i n g i s t , um die Zusammenhänge zwischen den ρ Merkmalen zu e r klären. Ein Verfahren, das t h e o r e t i s c h ä q u i v a l e n t zur Maximum - L i k e l i h o o d - Methode und rechentechnisch g ü n s t i g e r i s t a l s s i e , i s t d i e von C.R. Rao (1955) w i c k e l t e kanonische

Fa.ktoienanatyie,

deren Ziel

ent-

die Maximierung der kano-

nischen K o r r e l a t i o n zwischen beobachteten Merkmalen und e x t r a h i e r t e n Faktoren i s t . Bei diesem Verfahren, das in A b s c h n i t t 1.2 d a r g e s t e l l t w i r d , l ä ß t s i c h n a t ü r l i c h der in A b s c h n i t t 1 . 1 v o r g e s t e l l t e Test auf zu g e r i n g e Zahl von Faktoren e b e n f a l l s anwenden.

signifikant

512

Kapitel VIII: Die Faktorenanalyse

Im A b s c h n i t t 1.3 w i r d d i e HauptkomponzrutznanalyAe.

(ptvincipal

component

ana-

lyi-ü,), die auf Hotelling (1936) zurückgeht und keine Faktorenanalyse im eigentlichen Sinne i s t , dargestellt. Hier geht man davon aus, daß es keine merkmalseigenen Varianzen g i b t , d.h. man arbeitet mit der ursprüngl ichen Korrelationsmatrix R, und transformiert die ρ beobachteten, abhängigen Merkmale in ρ unabhängige Komponenten, aus denen die q "wesentlichen" ausgewählt werden. Die Hauptkomponentenanalyse dient eigentlich nur zum Erkennen der Struktur von ρ Merkmalen. Führt man die Hauptkomponentenanalyse ausgehend von der reduzierten Korrelationsmatrix R durch, so spricht man auch von e i n e r HauptiaktoKenanaZy&e.

(p^Unc-Lpal

iacXoi

analyili).

Im Abschnitt 1.4 werden wir dann die Ζentto-LdmeXkodz, die auf Thurstone (1931) zurückgeht, kennenlernen. Dieses rechentechnisch sehr einfache und deshalb beliebte Verfahren l i e f e r t keine "exakte" Schätzung einer Ladungsmatrix L; es approximiert jedoch die Schätzung nach der Hauptfaktorenmethode. Ein Nachteil hierbei i s t , daß eine Festlegung der Kommunal itäten im Vorhinein notwendig i s t ; mögliche Schätzer werden im Abschnitt 1.4 ebenfalls angegeben. Ein modellmäßig modifizierter Ansatz zur Schätzung der Ladungsmatrix L geht auf üöreskog (1963) zurück. Sein Verfahren schließlich, die sogenannte Jö/ieifeog - M&thode., wird in Abschnitt 1.5 vorgestellt. Alle erwähnten Verfahren konstruieren q orthogonale Faktoren, die geometrisch gesprochen ein orthogonales Koordinatensystem darstellen, in dem sich die beobachteten Merkmale a l s Punkte darstellen lassen. Die Koordinaten des j-ten Merkmals sind gerade durch die zugehörigen Faktorladungen l j ^ , . . . , l j q gegeben. Die mittels der erwähnten Verfahren konstruierte Ladungsmatrix L i s t nun nur eine von vielen möglichen und keineswegs immer die.optimale im Sinne bestmöglicher Interpretierbarkeit. Der Abschnitt 2 i s t daher der faktonAotatLon

gewidmet, deren Ziel es i s t ,

eine optimale Ladungsmatrix durch Rotation der Faktoren zu bestimmen. Der Begriff der Optimalität wird präzisiert durch den von Thurstone (1947) geprägten Begriff der E-iniaahit^uktan. einer Ladungsmatrix. Im Abschnitt 2.1 wird zunächst die OiXkogonatiotation

beschrieben, die einer

Drehung des gesamten Koordinatensystems der Faktoren entspricht. Zur Durchführung einer solchen Orthogonal rotation werden zwei numerische Verfahren angegeben, die die Faktoren so rotieren, daß sie einer Einfachstruktur mögl i c h s t nahe kommen, ohne die Lage der Merkmale zueinander im Koordinaten-

513

Kapitel VIII: Die Faktorenanalyse

system der Faktoren zu verändern. Da der B e g r i f f der E i n f a c h s t r u k t u r

sehr

komplex i s t , e r f o l g t die Annäherung an eine E i n f a c h s t r u k t u r in u n t e r s c h i e d 1 i c h e r A r t und Weise. Bei der im A b s c h n i t t 2 . 1 . 1 beschriebenen l/ajumax - HeXhodz der mit den Kommunalitäten normierten Ladungen 1 · μ Λ · , JK j

wird d i e V a r i a n z

j=1,...,p,k=1,...,q,

maximiert. Für q = 2 Faktoren F 1 und F 2 i s t eine solche R o t a t i o n näherungsweise in Abb.l g r a p h i s c h d a r g e s t e l l t ; die r o t i e r t e n Faktoren s i n d mit F j , FJ, b e z e i c h n e t . Die eingezeichneten Punkte beschreiben sieben beobachtete Merkmale. Durch die h i e r durchgeführte Orthogonal r o t a t i o n um - 4 4 ° l a s s e n s i c h die Faktoren F^ und

etwa so e r k l ä r e n : Der Faktor F^ e r k l ä r t die

Merkmale Y~, Y , und Y , , der F a k t o r F '

die Merkmale Υ - , Υ . , Υ ς und Y 7 .

Ein w e i t e r e s Verfahren der Orthogonal r o t a t i o n i s t die im A b s c h n i t t v o r g e s t e l l t e Quatitbmx

- MeXkodz,

2.1.2

bei der die Summe der v i e r t e n Potenzen der

514

Kapitel VIII: Die Faktorenanalyse

Ladungen

maximiert wird. Bei dieser Rotation versucht man,einen mög-

lichst großen Teil der in den Merkmalen enthaltenen Information durch einen Faktor zu erklären, d.h. man versucht .einem l-infcakÄon. - ModeJUL model.)

(uni^actoA

möglichst nahe zu kommen, indem man für jedes Merkmal auf einen Fak-

tor eine hohe Ladung und auf die übrigen Faktoren möglichst niedrige Ladungen bringt. Allgemein gesprochen wird man immer versuchen, die Faktoren so zu rotieren, daß die Achsen der rotierten Faktoren je eine Punktwolke schneiden. Dies ist natürlich oft besser möglich, wenn man eine icfUeiuitnklige

Rotation

durchführt, d.h. die Drehungswinkel der q Faktoren unterschiedlich wählt. Eine Methode der schiefwinkligen Rotation, nämlich die Methode der Primärfaktoren, wird in Abschnitt 2.2 vorgestellt. Bei der orthogonalen Rotation bleiben die Faktoren weiterhin unkorreliert und die rotierte Ladungsmatrix, sie sei zur Unterscheidung hier mit L R o t bezeichnet, entsteht aus der ursprünglichen Ladungsmatrix durch Multiplikation mit einer Tnjxnifaonjriatlon&matAA.x L

Rot = L ' A

Δ

*

Bei einer schiefwinkligen Rotation hingegen sind die resultierenden gemeinsamen Faktoren i.a. korreliert und die Multiplikation der ursprünglichen Ladungsmatrix mit einer Transformationsmatrix Δ liefert lediglich die sogenannte taktonznitnuktun.

(faacton

L^ s ; diese Matrix enthält ge-

itmctuAz)

rade Korrelationen von gemeinsamen Faktoren und Merkmalen. Da die Faktoren selbst aber korreliert sind, ergibt sich die rotierte Ladungsmatrix L^ ^ erst durch Multiplikation von L- 1

Rp

den.

mit der InveAAen

KoAAelationi

matrix

Faktoten:

Lfs-L-A

und

L R o t = L f s .R" 1

.

Die in den Abschnitten 1 und 2 beschriebenen Methoden dienen zum Erkennen von Strukturen in einer Menge von ρ Merkmalen und sind somit sogenannte R-Techniken für die Merkmale. Im Abschnitt 3 werden nun Q-Techniken für die Objekte dargestellt. Ausgehend von einer Schätzung L der Ladungsmatrix werden zwei Methoden vorgestellt, die es erlauben, die Matrix F der Faktorenwerte von q gemeinsamen Faktoren zu schätzen und somit die Objekte "neue" Objekte) -im Raum dleiei

Faktoten

zu

(auch

fieptäient-LeAm.

Die Matrix F der Faktorenwerte kann als neue Datenmatrix für die η interessierenden

Objekte angesehen werden und zur weiteren Analyse verwandt

515

Kapitel VIII: Die Faktorenanalyse

werden. Will man etwa eine C1 usteranalyse, v g l . Kapitel V I I , durchführen, so l ä ß t s i c h der Aufwand t e i l w e i s e erheblich reduzieren, wenn die Anzahl der zu berücksichtigenden Merkmale pro Objekt gering i s t . I s t nun die Anzahl q der Faktoren k l e i n e r a l s die Anzahl ρ der beobachteten Merkmale, so würde man s i c h bei einer Clusteranalyse der η beobachteten Objekte A r b e i t ersparen, wenn man mit der Matrix F der Faktorenwerte a n s t e l l e der u r sprünglichen Datenmatrix Y a r b e i t e t ; die Matrix F wird o f t auch a l s zliite.

Da.tenmafUx

nzdu.-

bezeichnet.

Auch "neue" Objekte können mit solchen Faktorenwerten bedacht werden, wenn s i e der gleichen Grundgesamtheit entstammen, wie die betrachteten η Objekte, die dann a l s "Lernstichprobe" zur Bestimmung von L aufgefaßt werden. M i t t e l s der Faktorenwerte a n s t e l l e der ρ ursprünglichen Merkmalswerte können auch weitere Verfahren durchgeführt werden. Z.B. kann man in der Reg r e s s i o n s a n a l y s e , v g l . K a p . I I , so die

mitunter sehr zahlreichen erklären-

den Variablen bei dann meist vorliegender erheblicher M u l t i k o l 1 i n e a r i t ä t durch wenige s i e erklärende (orthogonale) Faktoren, die man m i t t e l s Faktorenanalyse gewonnen hat, ersetzen. S c h l i e ß l i c h wird die Vorgehensweise bei der Faktorenanalyse noch einmal zusammenhängend an einem Beispiel

im Abschnitt 4 d a r g e s t e l l t .

Vor allem im Bereich des Marketing und der Psychologie werden die Methoden der Faktoicnanaltj-ie, die in den Abschnitten 1 und 2 behandelt werden, mitunter auch a l s Q - Technik f ü r die Objekte verwandt. Man geht dann von der ηχη - " K o r r e l a t i o n s m a t r i x "

der η Objekte aus und führt hiermit eine Faktorenanalyse durch. Dabei

ist

jedoch zu bedenken, daß dann die beobachteten Merkmale a l s Objekte aus einer Grundgesamtheit und die Objekte a l s Merkmale aufgefaßt werden. Die η Beobachtungen eines Merkmals s i n d a l s o Realisationen eines Objekts, was n a t ü r l i c h im strengen Sinne nicht r i c h t i g i s t . Jedoch l i e f e r t die Q - Technik der Faktorenanalyse oftmals gut i n t e r p r e t i e r b a r e , anschauliche Ergebn i s s e , wie die folgenden B e i s p i e l e zeigen. Für das Problem der Objektrepräsentation sei aber auch auf die Kap.VI und IX verwiesen. Eine kombinierte Repräsentation von Objekten und Merkmalen f i n d e t s i c h ebenfalls in Kap. IX (Bi - P l o t ) .

B&lbplzl:

( V g l . Harden ( 1972): Lautsprecherboxen, In: H i f i - Report 72/73,

516

Kapitel VIII: Die Faktorenanalyse

fonoforum) Eine Jury von zehn Personen (Tonspezialisten) b e u r t e i l t die Klangeigenschaften von fünf verschiedenen Lautsprecherboxen. Und zwar werden jedem Jurymitglied in einem Vergleichstest a l l e zehn Paare von Boxen zu Beurteilung v o r g e s t e l l t . Bei jedem Boxenpaar entscheidet jede Person, auf welche

Box verschiedene B e g r i f f e , d i e Klangeigenschaften beschreiben

(z.B. angenehm, ausgeglichen, f l a c h , h a r t , h e i s e r , h e l l , sauber, schlank, verschwommen, deutliche Höhen, weiche Höhen, k r ä f t i g e Bässe), besser passen. Dann wird bei jedem B e g r i f f gezählt, wie o f t insgesamt jede Box a l s besser genannt wurde. Diese Häufigkeiten bestimmen die Datenmatrix Y, aus der die "Korrelationsmatrix der Lautsprecher" bestimmt wird, um die Faktorenanalyse durchzuführen. In Abb.2 sind dann die Boxen im Koordinatensystem der beiden ermittelten Faktoren F^, F,, graphisch d a r g e s t e l l t ("Lautsprecherhimmel").

Klangtimbre ( d u r c h s i c h t i g , brillant·)

Klangtimbre (dicht, t o p f i g )

Abb.2: Lautsprecherhimmel für fünf Boxen aus einer P r e i s k l a s s e

_J

Kapitel VIII: Die Faktorenanalyse

517

BeXipj.eZ: In Abh.3 s i n d die Auto - H e r s t e l l e r Ford, C h r y s l e r , American Mot o r s , General M o t o r s , a u s l ä n d i s c h e ( f ü r den amerikanischen Markt)

Herstel-

l e r im Raum zweier orthogonaler Faktoren d a r g e s t e l l t . Diese Repräsentation wurde durch eine Faktorenanalyse a l s Q - T e c h n i k ausgehend von der in Kap.V, A b s c h n i t t 3, angegebenen 5*7 - Datenmatrix f ü r die H e r s t e l l e r

erreicht.

F2 ' 1.0

x

ausländische Hersteller

Ford X 0.5·

-1.0 x

-0.5

0:5

General Motors

x

American Motors

1

' F *

Chrysler

-0.5 Abb.3: Repräsentation von fünf Auto - Herstel1ern im Koordinatensystem zweier Faktoren

B i s h e r haben wir

s t i l l s c h w e i g e n d v o r a u s g e s e t z t , daß die ρ beobachteten

Merkmale q u a n t i t a t i v s i n d . Es g i b t jedoch auch f a k t o r e n a n a l y t i s c h e Ansätze, die qual-Uativi

M&Akirali d i r e k t b e r ü c k s i c h t i g e n . Das Problem dabei i s t die

Schätzung der K o r r e l a t i o n e n zwischen solchen Merkmalen. Eine M ö g l i c h k e i t besteht d a r i n , die q u a l i t a t i v e n Merkmale m i t t e l s der Methoden aus Kap.V zunächst zu s k a l i e r e n und die K o r r e l a t i o n e n der s k a l i e r t e n Merkmale zu schätzen. Bei ordinalen Merkmalen können auch die in K a p . I I erwähnten s e r i a l e n und chorischen K o r r e l a t i o n s k o e f f i z i e n t e n zur Schätzung der K o r r e l a tionen verwandt werden. Ein d i r e k t e s Verfahren zur nichtmetrischen Faktorenanalyse wird z . B . bei Kruskal/Shepard (1974) beschrieben. Außerdem s e i hingewiesen auf die ALS ( A l t e r n a t i n g Least Squares) - A l g o r i t h m e n , bei denen zunächst ausgehend von beliebigem Datenmaterial

Skalenwerte f ü r die Daten

bestimmt werden und dann in e i n e r weiteren S t u f e m u l t i v a r i a t e Verfahren wie z . B . die Faktorenanalyse durchgeführt werden. Diese z w e i s t u f i g e n

ite-

r a t i v e n Verfahren konvergieren a l l e r d i n g s n i c h t immer; man v g l . De Leeuw/ Young/Takane (1976) und nachfolgende Arbeiten in der Z e i t s c h r i f t

Psy-

518

Kapitel VIII: Die Faktorenanalyse

chometrika oder auch Keller/Wansbeek (1983) und die dort zitierte Literatur. Natürlich können in diesem Rahmen auch nicht sämtliche Verfahren der metrischen (quantitativen) Faktorenanalyse vorgestellt w e r d e n ; siehe z.B. auch Jöreskog (1963), Lawley/Maxwel1

(1963), Oberla (1971), Weber (1974),

Holm ( 1975), Harman (1976), Mardia et al. (1979), Takeuchi et al. ( 1982).

1 DIE BESTIMMUNG DER FAKTORLADUNGEN Bei der Schätzung der Ladungsmatrix L , die die Beziehungen zwischen ρ beobachteten

Merkmalen und q nichtbeobachtbaren Faktoren (die die ρ Merkmale

erklären sollen) beschreibt, stellt sich das Problem, daß es unendlich viele Ladungsmatrizen L gibt, da von L generell

nur gefordert wird, daß

L ' R p » L T , wobei Rp die Korrelationsmatrix der Faktoren bezeichnet, die empirische Korrelationsmatrix R der ρ Merkmale bzw. die reduzierte Korrelationsmatrix R reproduziert.

Um eine eindeutige Ladungsmatrix L konstruieren zu können, muß jedes Verfahren Zusatzbedingungen an L stellen. Einige Vorgehensweisen, die alle zunächst einmal fordern, daß die Faktoren orthogonal, also unkorreliert sind, d.h. Rp = I und somit R = L - L T (bzw. R = L - L T ) , werden hier vorgestellt.

Verlangt man, daß R = L*LT ist, so spricht man von Verfahren der Faktorenanalyse im engeren Sinne; fordert man R = L-LT

,

wie das bei der Hauptkomponentenanalyse der Fall

ist, vgl. Abschnitt

so handelt es sich nicht um ein faktorenanalytisches Modell

1.3,

im engeren Sinne.

Da aber Faktorenanalyse und Hauptkomponentenanalyse eng verwandt sind, wird die Hauptkomponentenanalyse

in diesem Rahmen vorgestellt. Probleme, wie

z.B. die Kommunal itätenschäzung

im Vorhinein, werden hier jeweils an der

Stelle behandelt, an der sie auftreten.

Verfahren zur Bestimmung von Faktorladungen, die in diesem Rahmen nicht vorgestellt werden, sind z.B. die Alpha rey ( 1965) oder die HLn-Lmax - Löiung (1977).

- FAktoi&nanalyAe.

de.1 TaktoKznanaZgie.

von

Kaiser/Caff-

von Bargmann/Baker

Kapitel VIII: Die Faktorenanalyse

1.1

DIE ÜBER

M A X I MUM - L I Κ E L I H O O D - Μ Ε Τ Η 0 D Ε U N D DIE

ANZAHL

Die Maximum - Likelihood.

DER

- HeXhodi,

EIN

519

TEST

FAKTOREN v g l . Lawl ey/Maxwel 1 ( 1 9 6 3 ) , i s t e i n

sta-

t i s t i s c h e s V e r f a h r e n z u r Bestimmung e i n e r Ladungsmatrix L . Man nimmt dabei a n , daß d i e an η Objekten beobachteten ρ - d i m e n s i o n a l e n e i n e r S t i c h p r o b e aus e i n e r ρ - dimensional

Merkmalsvektoren

normal v e r t e i l ten Grundgesamtheit

mit M i t t e l w e r t v e k t o r μ und K o v a r i a n z m a t r i x $ s i n d ; d i e

standardisierten

Merkmalsvektoren entstammen dann e i n e r ρ - dimensional en Normal v e r t e i l ung mit M i t t e l w e r t v e k t o r 0 und K o v a r i a n z m a t r i x yf]

f

1

= Λ·

V +

k j

4 *

Man geht aus vom Modell

l v

Dabei i s t Λ e i n e pxq L a d u n g s m a t r i x , ( f p . . . , f q ) T e i n z u f ä l l i g e r V e k t o r mit unabhängigen Komponenten, d i e Erwartungswert 0 und V a r i a n z 1 haben, und ( e . , . . . , e ) T i s t e i n z u f ä l l i g e r F e h l e r v e k t o r mit u n k o r r e l i e r t e n n o r m a l v e r i ρ 2 t e i l t e n Komponenten e ^ , d i e Erwartungswert 0 und V a r i a n z 6. haben. S e t z t man z u s ä t z l i c h v o r a u s , daß d i e f. und die e . unabhängig s i n d , so l ä ß t κ J Σ d a r s t e l 1 en a l s

sich

Σ = Λ · Λ Τ + d i a g ( 6 ^ , . . .6p) λ λ 2 2 2 2 Damit d i e S c h ä t z e r L f ü r Λ und d i a g ( 6 j , . . . ,6 ) f ü r d i a g ( 6 ^ , . . . ,6 ) nach der

Maximum - L i k e l i h o o d - Methode e i n d e u t i g bestimmt werden können, man z u s ä t z l i c h ,

verlangt

daß

LT-diag(1/^,...,1/6p)-L e i n e Diagonal m a t r i x i s t .

Der S c h ä t z e r L f ü r Λ i s t gerade d i e g e s u c h t e L a "7. "2 2 2 dungsmatrix und die S c h ä t z e r für . . . , 6 p s i n d S c h ä t z e r f ü r die merkmalseigenen V a r i a n z e n der ρ beobachteten Merkmale. Das bedeutet a b e r , 2 ? daß man bei diesem Verfahren d i e Kommunal i t ä t e n ( - S c h ä t z e r ) k , , . . . , k ,mit 1 2 ~2 Ρ k . = 1 — .Sj , n i c h t im V o r h i n e i n angeben muß. A l l e r d i n g s muß man h i e r d i e Anzahl q der gemeinsamen Faktoren von Anfang an f e s t l e g e n . Nach Durchführung der Schätzung l ä ß t s i c h dann t e s t e n , ob d i e s e Anzahl s i g n i f i k a n t zu g e r i n g ist. 2 2 Eine e x p l i z i t e Maximum - L i k e l i h o o d - Schätzung f ü r Λ und 6 . , . . . , 6 l ä ß t s i c h 1 "2 Ρ n i c h t angeben; vielmehr müssen L und 6 p . . . , 5 p i t e r a t i v aus dem Eigenwert probem

520

Kapitel VIII: Die Faktorenamlyse

( R - U 2 ) U 2 - A = A-J

,

τ -2 2 2 wobei J = A ·υ ·Α die Diagonalmatrix der Eigenwerte von (R - U )U und A die Matrix der zugehörigen normierten Eigenvektoren bezeichnet, geschätzt 1 /2

werden. (Die Schätzung für Λ i s t dann gerade L = A » J

) Das Iterationsver-

fahren, das mitunter recht langsam konvergiert, soll nun geschildert werden. Aus der standardisierten Datenmatrix Υ ^ berechnet man zunächst die empirische Kovarianz - bzw. Korrelationsmatrix R

= T F T ' Y s t ' Y s t = Ro

'

die ein Schätzer für Σ i s t . Im k-ten Hauptschritt (k=0,1,... ,q-1) wird die (k+1) - te Spalte Λ ^

der Matrix Λ geschätzt. Als Startwert im k-ten Haupt-

s c h r i t t für diesen Schätzer k+1

= il

1k+1

1

)T pk+r

wählt man den Eigenvektor a £ 0 ' = ( a ^ ,...

) T , der zum größten Eigen-

0

wert Λ^ ^ von R^ gehört und so normiert i s t , daß g i l t

M") Im t-ten Schritt ( t = 0 , 1 , 2 , . . . ) des k-ten Hauptschrittes wird zunächst die Matrix ß j ^ der Hauptdiagonalelemente von \ " B^)=diag(Rk-a(t)(a(t))T)

bestimmt, d.h.

.

Dann berechnet man den Eigenvektor c j ^ ' zum größten Eigenwert

der Ma-

trix

(n , , 2 M t , K , ) r · der so normiert i s t , daß

g i l t , berechnet

und geht über zum (t+1) - ten Schritt. Die Iteration wird abgebrochen, wenn in einem Schritt r der Unterschied zwischen a j ^ und klein i s t . Es i s t dann

nur noch sehr

521

Kapitel VIII: Die Faktorenanalyse

(r+i:

k+1

der g e s u c h t e S c h ä t z e r f ü r d i e ( k + 1 ) - te S p a l t e

der t h e o r e t i s c h e n

La-

dungsmatrix Λ. Danach berechnet man R R

-R . a ( k + 1 " R k ak

r + 1

' l.a f a k

r + }

V

und geht über zum ( k + 1 ) - t e n H a u p t s c h r i t t , f ü h r t d i e I t e r a t i o n durch u s w . , b i s man auch d i e q - t e S p a l t e von Λ g e s c h ä t z t h a t , d . h . den ( q - 1 ) - ten H a u p t s c h r i t t d u r c h g e f ü h r t h a t . Insgesamt hat man nun den Maximum - L i k e l i hood - S c h ä t z e r L f ü r Λ bestimmt: 11

iq

pi

pq

Or...,iq)

Der Maximum - L i k e l i h o o d - S c h ä t z e r f ü r d i e M a t r i x der t h e o r e t i s c h e n merk2 2 malseigenen V a r i a n z e n d i a g ( 6 . , . . . ,6 ) i s t gerade d i e im r - t e n S c h r i t t des Ρ (r) ( q - 1 ) - t e n H a u p t s c h r i t t e s bestimmte M a t r i x B ^ : d i a g ( 6 ^ , . . . ,6p) = B ^ j = d i a g

-

Nun kommen w i r zum angekündigten Τ e i t üfaei dlt

? )

Anzahl

dui

F a k t o i i n . Man

kann ü b e r p r ü f e n , ob d i e gewählte Anzahl q der e x t r a h i e r t e n gemeinsamen F a k toren zum Niveau α s i g n i f i k a n t zu g e r i n g war. Dazu w i r d d i e Hypothese Hq: Σ = Λ · Λ

τ

» 2 +diag(6^

2 6p)

, wobei Λ e i n e p x q - M a t r i x

ist,

getestet.

I s t η der Umfang der S t i c h p r o b e , d . h . die Anzahl der Z e i l e n in der Datenmatrix Y bzw. Y s t , so i s t nach B a r t l e t t (1951) u n t e r HQ d i e

x

2

dUeetH( LL -' LL T ++ D„ ß i r.h 1 O \ = n - 1 - i ( 2 p + 5) - f q j - l n ^ v J ° ' det R /

unter der Bedingung q
λV 2 . λ ν; 1-a

der χ 2 - Verteilung sind im Anhang

Die Quantile

vertafelt.

Natürlich ist auch eine durch die Maximum - Likelihood - Methode bestimmte Ladungsmatrix

L in der Regel nicht optimal

bzgl. der

Interpretierbarkeit

der q extrahierten orthogonalen Faktoren. Es empfiehlt sich also auf L noch ein Rotationsverfahren, vgl. Abschnitt 2, anzuwenden.

BeAApliZ:

In Cab.l sind die jeweils erreichten Punktzahlen (auf der Basis

von 100 möglichen Punkten) bei Klausuren in Mechanik (ME), Analytischer Geometrie (AG), Lineare Algebra (LA), Analysis (AN) und Elementare

Stati-

stik (ES) von 88 Studenten angegeben,s. Mardia et al. ( 1979). Die erreichten Punktzahlen geben gerade die Datenmatrix Y mit 88 Zeilen und 5 Spalten, d.h. η = 88 und ρ = 5, an.

Um die Abhängigkeit zwischen den fünf Merkmalen (Punkte in den fünf Klausuren) zu analysieren, soll eine Faktorenanalyse durchgeführt werden; die Ladungsmatrix Λ soll mittels Maximum - Likelihood - Methode geschätzt werden. Dazu berechnet man zunächst die Korrelationsmatrix

R = R Q , vgl.

Cab.2

Werden q = 2

orthogonale Faktoren extrahiert, so ergibt sich als geschätzte

Ladungsmatrix die in tab.3 angegebene Matrix L, aus der sich die Kommuna1itätenschätzungen der fünf Merkmale berechnen lassen: =

+ 1 ^ 2 = 0.630 2 + 0 . 3 7 7 2 = 0.539

kg = 0.579

,

= 0.800

,

k 2 = 0.654 und

kg = 0.572

Wir wollen die fünf beobachteten Merkmale im orthogonalen

Koordinatensystem

der beiden extrahierten Faktoren darstellen, vgl. Abb.4. Das erste Merkmal (Klausurpunkte Mechanik) z.B. wird dort durch den Punkt mit den Koordinaten (l..,!.,) = (0.630,0.377)

dargestellt.

Kapitel VIII: Die Faktorenanalyse

523

C a b . l : Erreichte Punktzahlen von 88 Studenten in 5 Klausuren, Datenmatrix Y

Fach

\

ME

AG

LA

AN

ES

1

2

3

4

5

77 63 75 55 63 53 51 59 62 64 52 55 50 65 31 60 44 42 62 31 44 49 12 49 54 54 44 18 46 32 30 46 40 31 36 56 46 45 42 40 23 48 41 46

82 78 73 72 63 61 67 70 60 72 64 67 50 63 55 64 69 69 46 49 61 41 58 53 49 53 56 44 52 45 69 49 27 42 59 40 56 42 60 63 55 48 63 52

67 80 71 63 65 72 65 68 58 60 60 59 64 58 60 56 53 61 61 62 52 61 61 49 56 46 55 50 65 49 50 53 54 48 51 56 57 55 54 53 59 49 49 53

67 70 66 70 70 64 65 62 62 62 63 62 55 56 57 54 53 55 57 63 62 49 63 62 47 59 61 57 50 57 52 59 61 54 45 54 49 56 49 54 53 51 46 41

81 81 81 68 63 73 68 56 70 45 54 44 63 37 73 40 53 45 45 62 46 64 67 47 53 44 36 81 35 64 45 37 61 68 51 35 32 40 33 25 44 37 34 40

\

Merk\mal

j

Stu-\ dent i n ^ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44

1

j

s

j

Fach

!

2

ME

AG

LA

AN

ES

1

2

3

4

5

46 40 49 22 35 48 31 17 49 59 37 40 35 38 43 39 62 48 34 18 35 59 41 31 17 34 46 10 46 30 13 49 18 8 23 30 3 7 15 15 5 12 5 0

61 57 49 58 60 56 57 53 57 50 56 43 35 44 43 46 44 38 42 51 36 53 41 52 51 30 40 46 37 34 51 50 32 42 38 24 9 51 40 38 30 30 26 40

46 51 45 53 47 49 50 57 47 47 49 48 41 54 38 46 36 41 50 40 46 37 43 37 52 50 47 36 45 43 50 38 31 48 36 43 51 43 43 39 44 32 15 21

38 52 48 56 54 42 54 43 39 15 28 21 51 47 34 32 22 44 47 56 48 22 30 27 35 47 29 47 15 46 25 23 45 26 48 33 47 17 23 28 36 35 20. 9

41 31 39 41 33 32 34 51 26 46 45 61 50 24 49 43 42 33 29 30 29 19 33 40 31 36 17 39 30 18 31 9 40 40 15 25 40 22 18 17 18 21 20 14

Merk-

χ

\mal

Stu-\ dent i \ 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 3

j

4

5

38 9 5 5

50.591

50.602

46 . 6 8 2

42 . 3 0 7

17 4 8 6

13.147

10.625

14 . 8 4 5

17 . 2 5 6

1 1

Kapitel VIII: Die Faktorenanalyse

524

Cab.2: Empirische Korrelationsmatrix R = R Q \

0

2

1 1 0 0 0 0

1 2 3 4 5

000 553 547 410 389

0.553 1.000 0.610 0.485 0.437

0 0 1 0 0

5

4

3 547 610 000 711 665

0 0 0 1 0

der fünf Merkmale

410 485 711 000 607

0 0 0 0 1

389 437 665 607 000

Cab.3: Geschätzte Ladungsmatrix L bei Extraktion von zwei Faktoren nach der Maximum - Likelihood - Methode

^\Faktor

F^

F

Merkmal j 1 2 3 4 5

1

F

2

'jl 0.630 0.696 0.893 0.782 0.729

Um die Faktoren optimal

0.377 0.308 -0.048 -0.205 -0.201

interpretierbar zu machen, muß man sie zunächst

rotieren, wie dies in Abschnitt 2 geschieht.

Aber auch der nichtrotierten Matrix L sieht man etwas an: Nämlich daß sich die Faktorladungen auf die I.Spalte von L konzentrieren. Dies ist ein Hinweis darauf, daß hier die Extraktion eines Faktors F^ schon ausreichend wäre. Dieser Hinweis bestätigt sich, denn führt man die Maximum - Likelihood - Schätzung für q = 1 durch, so ergibt sich L = 1 1 = ( l 1 1 , . . . , l p 1 ) T = (0.599,0.668,0.915,0.773,0.724) T und die Teststatistik des Signifikanztests ergibt sich mit V=^[(5-1)2-(5+1)]=5 zu

X2=8·59

> X5;0.95=11·1

'

so daß die Hypothese H q für q = 1 zum 5% Niveau nicht verworfen werden kann.

525

Kapitel VIII: Die Faktorenanalyse

1

-0.50.4-

* Mechanik

0.3-

* Analytische Geometrie

0.20.1-0.1

o!i

0.5

χ Algebra

-0.1-0.2-

E

I

" S

s

»

1.'0

F,

*

-03-

Abb.4: Darstellung der 5 Merkmale (Klausurpunkte in 5 Fächern) im Koordinatensystem der Faktoren, vgl. auch Tab.3

1.2

DIE

KANONISCHE

Die kanon-csche.

faktoinnanalyiz

das gleiche Modell

FΑ ΚΤ 0 R ΕΝ Α ΝA L VSΕ

geht auf Rao (1955) zurück. Bei ihr liegt

zugrunde wie bei der Maximum - Likelihood - Methode. Ziel

der kanonischen Faktorenanalyse ist es, die q kanonischen

Korrelationen,

vgl. Abschnitt 1.4 in Kap.III, zwischen den ρ Merkmalen und den q Faktoren zu maximieren. Sie hat den Vorteil, daß die Anzahl q der Faktoren nicht im Vorhinein festgelegt werden muß und daß sie rechentechnisch

relativ

leicht handhabbar ist. Obwohl kanonische Faktorenanalyse und M a x i m u m Likelihood - Methode von verschiedenen Schätzprinzipien ausgehen, sind die Methoden theoretisch gleich, d.h. sie liefern (bis auf Rechenungenauigkeiten) bei gleicher Faktorenanzahl

gleiche Schätzungen der Ladungsmatrix.

Dies liegt daran, daß die den beiden Verfahren zugrundeliegenden

Eigen-

wertprobleme identisch sind: Durch Prämultiplikation mit der Matrix U (ü ist die Matrix der merkmalseigenen Varianzen) wird das Eigenwertproblem

2

526

Kapitel VIII: Die Faktorenanalyse

der kanonischen Faktorenanalyse U"1(R-U2)U"1(U"1-A) = (lf1-A)J in das der Maximum - Likelihood - Methode überführt. Konkret geht man bei der kanonischen Faktorenanalyse so vor, daß man zu2

2

nächst Startwerte kj Q für die Kommunalitäten k j , j=1

p, der ρ Merkmale

f e s t s e t z t , hierzu können die in Abschnitt 1.4 angegebenen Schätzungen für Kommunali täten verwandt werden. Mit diesem Startwert hat man natürlich g l e i c h Startwerte 6

jo = 1 " kjo

™·

j=1,...,p

f ü r die ρ merkmalseigenen Varianzen bestimmt. Die reduzierte K o r r e l a t i o n s matrix R q i s t dann n a t ü r l i c h gegeben a l s R = R - U^ ο ο

&2) po

mit U^ = diag(6? J ο 1o

.

Mit U" 1 = d i a g ( 1 / 6 l o

l/6 p Q )

werden nun diejenigen Eigenwerte der Matrix U

- 1

n0

~

- 1

•0' V 0V

bestimmt, die größer a l s Null s i n d ; ihre Anzahl sei hier mit q bezeichnet. Zu den Eigenwerten a

*o

= (a

λ

ι 0 > · · · > λ ^ 0 werden dann zunächst Eigenvektoren

Uo

Vo

) T

«r

bestimmt, die auf Länge 1 normiert s i n d , d.h. a

L'as.o=1

·

Im t-ten S c h r i t t ( t = 1 , 2 , . . . ) werden dann die t - S c h r i t t - Kommunalitäten

' W t - i

l

i t .

f U r j = 1

P

'

die Diagonalmatrix u2 = d i a g ( 6 ^ t , . . . , 6 2 t ) die reduzierte Korrelationsmatrix

mit

6jt = 1 -

fürj=1,...,p

527

Kapitel VIII: Die Faktorenanalyse

und die Matrix U"1=diag(1/61t

1/6 p t )

bestimmt. Dann berechnet man die q größten Eigenwerte

der Ma-

trix

sowie die zugehörigen normierten Eigenvektoren a

«

= ( a

Ut

Vt

) T

'

a

u ' \ t

= 1

für £.= 1,... ,q

und führt dann den ( t + 1 ) - t e n Schritt des Verfahrens durch. Das Verfahren wird im (m+1) - ten Schritt abgebrochen, wenn die Matrizen U ^ und

na-

hezu gleich sind. Die Ladungsmatrix L für q Faktoren ergibt sich dann mit J = diagU1m,...,λ~ ) m Im qm und

/ 2 L = vmv jm1 m

·

r 2 Mit Hilfe des in Abschnitt 1.2 angegebenen T u t A mit Β ^ = überprüft man nun sukzessive für die erste Spalte von L, für die ersten beiden Spalten von L usw. die Hypothese, daß diese Spaltenanzahl nicht signifikant zu gering i s t , um die Merkmale zu erklären. Kann die Hypothese zum erstenmal für die ersten qj< q Spalten von L abgelehnt werden, so wird die resultierende Ladungsmatrix L der kanonischen Faktorenanalyse a l s die Matrix der ersten q Spalten von L festgesetzt. Ein BesL&pieZ zur kanonischen Faktorenanalyse findet man im abschließenden Abschnitt 4 dieses Kapitels.

1.3

DIE

HAUPTKOMPONENTEN-

UND

DIE

Η A UΡΤ F Α ΚΤ 0 R Ε Ν -

ANALYSE D i e Hauptkampomntzmnatyiz

(pu.nc.ipal.

compomnt

analyiii),

die auf

Hotel-

ling (1936) zurückgeht, unterscheidet sich in einem Punkt wesentlich von den Methoden der Faktorenanalyse. Versucht orthogonale Faktoren F . , . . . , F

man bei der Faktorenanalyse q

zu extrahieren, so daß sich durch die Kor-

528

Kapitel VIII: Die Faktorenanalyse

relationsmatrix zwischen beobachteten Merkmalen und extrahierten, nicht beobachtbaren Faktoren (da die Faktoren orthogonal sind, ist dies gerade die Ladungsmatrix L) die reduzierte Korrelationsmatrix R der ρ beobachteten Merkmale widerspiegeln ließ (R = L•L T ), so geht man bei der Hauptkomponentenanalyse von der Korrelationsmatrix R selbst aus; die Annahme merkmalseigener Varianzen wird hier also nicht gemacht. Die ρ beobachteten Merkmale werden hier durch eine lineare Transformation in ρ unkorrelierte, also orthogonale Komponenten überführt.

Ziel der Hauptkomponentenanalyse ist es in der Regel nicht, interpretierbare Komponenten zu konstruieren; daher sieht man auch meist von der Rotation des Ergebnisses einer Hauptkomponentenanalyse ab. Vielmehr dient diese mehr formale Analyse dazu, komplizierte Beziehungen in beobachteten Daten auf eine einfache Form zu reduzieren.

Hat man etwa eine n*2 - Datenmatrix Y, d.h. zwei Merkmale an η Objekten beobachtet, so lassen sich die η Zeilen der Datenmatrix durch η Punkte mit Koordinaten (y^ ^

»· · · >( y n1 ' y n 2 ' zweidimensional darstellen. Geht man

davon aus, daß die beiden Merkmale in einer Grundgesamtheit, aus der die η Objekte einer Stichprobe stammen, normal verteilt sind und eine von Null verschiedene Korrelation haben, so liegen die η Punkte i.w. in einer Ellipse mit Hauptachsen K^ und Kg, die sich ungefähr im Schwerpunkt S schneiden. In Abb.5 werden diese Ausführungen graphisch erläutert; die η = 15 Punkte sind durch Kreuze angedeutet.

Durch Verschieben des Nullpunktes und Drehung transformiert die Hauptkomponentenmethode das Koordinatensystem der beobachteten Merkmale in das der Hauptachsen der Ellipse. Dieses Prinzip läßt sich natürlich auf

p>2

Merkmale ausweiten; es entsteht dann ein Ellipsoid mit ρ Hauptachsen K^ ; ...,Kp. Fordert man zusätzlich, wie wir es im zweidimensionalen Fall implizit getan haben, daß die I.Komponente K^ ein Maximum der Gesamtvarianz aller Merkmale ausschöpft, d.h. der längsten Hauptachse des p - d i mensionalen Ellipsoids entspricht, daß die 2.Komponente K,, ein Maximum der Restvarianz ausschöpft, d.h. der zweitlängsten Hauptachse des p - d i m e n s i o nalen Ellipsoids entspricht usw., so ist diese Transformation eindeutig, falls die Varianzen der ρ beobachteten Merkmale paarweise verschieden sind.

Formal entspricht diese Transformation im Koordinatensystem der Variablen einem Eigenwertproblem: Der Ladungsvektor gerade dem normierten Eigenvektor der empirischen

Korrelationsmatrix

der Komponente K^ entspricht

= 1) zum k - größten Eigenwert A k

529

Kapitel VIII: Die Faktorenanalyse

Yo

Abb.5: Graphische Darstellung einer 15*2 - Datenmatrix Y mit Schwerpunkt und Hauptachsen

R =-

•Υ ·Υ 'st 'st

und die Transformation ist eindeutig, falls alle Eigenwerte

λ^>...>λ

von R verschieden sind. Da R eine empirische Korrelationsmatrix

ist, ist

diese Eindeutigkeit der Transformation in der Praxis wegen n > p quasi

im-

mer erfüllt. Die unkorrelierten, orthogonalen Komponenten entstammen dann einer Grundgesamtheit mit normierter Verteilung (Erwartungswert Null

und

Varianz Eins). Anhand der Eigenwerte A^ von R kann man nun feststellen, wie groß der Anteil der Varianz der standardisierten Merkmale ist, der durch die k-te Komponente K^ erklärt wird. Dieser Anteil

V

V

ist gerade

p

Bei der Bestimmung der Matrix Κ der Komponentenwerte (sie entspricht der

Kapitel VIII: Die Faktorenanalyse

530

Faktorenwertematrix F), vgl. Abschnitt 3, die ja die Beziehung zwischen den η beobachteten Objekten und den Komponenten beschreibt, beschränkt man sich häufig auf q < p wesentliche Komponenten. Und zwar wählt man q so, daß gilt Yq

= Y

1

+ γ

2

+

··· + Y q -

Ύ

und

Ύ Γ " ·

+

ν ΐ

< Ύ

Eine unverbindliche Empfehlung ist γ = 0.9 zu wählen; dann werden mindestens 90% der Gesamtvarianz der beobachteten Merkmale durch die Komponenten Kr...,K

erklärt.

Eine andere Möglichkeit q festzulegen, besteht darin, in einem Diagramm die Größen γ^ als Funktion von k darzustellen. Verbindet man die Punkte im Diagramm, so wählt man q so, daß die Verbindungslinie der Punkte zwischen q und q-1 eine deutliche Sprungstelle besitzt und für k > q keine solche deutliche Sprungstelle mehr auftaucht. Bi-uplii: An den Stämmen von corsischen Pinien wurden ρ = 1 3 physikalische Merkmale, z.B. der Feuchtigkeitsgehalt, die Anzahl der Jahresringe an Basis und Spitze des Stammes, beobachtet, von denen man annahm, daß sie die Druckfestigkeit des Holzes beeinflussen, vgl. Jeffers (1967):"Two case studies in the application of principal component analysis", Appl. Statistics 16, S.225 - 236. Die empirische Korrelationsmatrix der 13 Merkmale ist in Cab.4 angegeben.

Nun soll eine Hauptkomponentenanalyse für die 13 beobachteten Merkmale durchgeführt werden, d.h. das Koordinatensystem der Merkmale soll in oben beschriebener Weise linear in ein Koordinatensystem von 13 orthogonalen Komponenten transformiert werden. Dazu müssen die Eigenwerte von R sowie deren zugehörige normierte Eigenvektoren

... bestimmt

werden. Diese Eigenwerte und Eigenvektoren sind in Cab.5 zusammen mit Ύ1

Υ13 und k u=1

u

K

angegeben. Die Matrix 1 13 L

=< V 2

Ί

13): 13 1

' 13 13

ist natürlich gerade die vollständige Ladungsmatrix der ρ Komponenten. Es müßte eigentlich nun gelten

Kapitel VIII: Die Faktorenanalyse

531

532

Kapitel VIII: Die Faktorenanalyse

533

Kapitel VIII: Die Faktorenanalyse

13 I

X. = 13 = t r R

k=1

,

γ

η

= 1

;

IJ

K

Abweichungen entstehen durch Rechenungenauigkeiten. Durch d i e q = 7 e r s t e n Komponenten s c h ö p f t man b e r e i t s 91.6% der Gesamtvar i a n z a l l e r Merkmale a u s . Zur Berechnung der Faktorenwerte wäre d i e s e Anzahl von Komponenten a l s o s i c h e r l i c h h i n r e i c h e n d genau. Tragen w i r noch d i e γ^ in A b h ä n g i g k e i t von k in e i n Diagramm e i n , v g l . Ahb.6, und verbinden die Punkte des Diagramms. Nach dem Diagramm wären a l s o auch schon v i e r Komponenten, d i e a l l e r d i n g s nur 73.8% der Gesamtvarianz e r k l ä r e n ,

hinreichend.

Ύ„

0.3

0.2

0.1

1

2

3

q=4

5

I

6

7

8

9

10

11

12

13

Ahb.6: D a r s t e l l u n g der Größen γ^ in A b h ä n g i g k e i t von k

|

V i e l f a c h w i r d die Hauptkomponentenanalyse in l e i c h t e r Abwandlung a l s

fakto-

r e n a n a l y t i s c h e Methode angewandt. Man geht dann davon a u s , daß merkmalseigene Varianzen vorhanden s i n d , s c h ä t z t zunächst aus R d i e Kommunalitäten

k?,...,k2 1 , Ρ

der ρ beobachteten Merkmale und b i l d e t die r e d u z i e r t e K o r r e l a t i o n s m a t r i x

R,

v g l . A b s c h n i t t 1.4. Sodann wendet man auf R eine Hauptkomponentenanalyse an, d.h. man bestimmt Eigenwerte und zugehörige Eigenvektoren mit Norm 1; d i e wesentlichen q Eigenvektoren bestimmen dann die Ladungsmatrix L . Diese Methode zur Schätzung e i n e r Ladungsmatrix nennt man auch IfUnaipal

iactoi

analyi-U)

.

Haupt^aktoiinanaly-se

534

1.4

Kapitel VIII: Die Faktorenanalyse

DIE

ZENTROID

METHODE

Die ZtznOioA-dmeXhode. oder SchweApunkXmzthode.

zur Bestimmung einer Ladungs-

matrix L geht auf Thurstone (1931) zurück. Obwohl diese Methode nur eine Näherungslösung für L liefert und viel Raum für Willkür läßt, ist sie wegen ihrer einfachen Durchführbarkeit in der Praxis sehr beliebt. Die Idee der Zentroidmethode wird im folgenden kurz beschrieben. Wie schon eingangs erwähnt, lassen sich die ρ beobachteten Merkmale als Punkte im q - dimensionalen Faktorraum darstellen. Allerdings kennt man die Dimension q, die Anzahl der zu extrahierenden Faktoren, nicht. Bei der Zentroidmethode wird nun verlangt, daß die Achse, die den ersten der q extrahierten Faktoren darstellt, den Schwerpunkt der ρ Merkmalspunkte im q - dimensionalen Raum schneidet, und die übrigen Achsen jeweils orthogonal sind. Damit ist das von den q Faktoren gebildete Koordinatensystem eindeutig (bis auf Umnummerierungen). Da das konkrete Verfahren aber viel Willkür ermöglicht, erhält man stets nur eine Näherungslösung L, die keine bekannten statistischen Eigenschaften besitzt. Das entsprechende exakte Verfahren ist die Hauptfaktorenanalyse, die im Abschnitt 1.3 angesprochen wurde.

Konkret geht man bei der Zentroidmethode wie folgt vor. Die beobachtete ηχρ - Datenmatrix Y wird zunächst standardisiert, d.h. man bestimmt die Matrix Y . mit Elementen y ^ = ( y . . - y H )/s-, wobei y·. die Elemente der MaSX IJ 1J «J J 1J trix Ϋ, y j den Mittelwert der y^j in der j-ten Spalte von Y und Sj die empirische Standardabweichung in der j-ten Spalte von Y bezeichnet. Die empirische Korrelationsmatrix der ρ Merkmale ergibt sich dann zu

An dieser Stelle taucht das erste Problem der Zentroidmethode auf: Die Kom2 munalitäten k., d.h. der Anteil der Varianz des j-ten standardisierten Merkmals, der auf gemeinsame Faktoren entfällt, müssen ä priori angegeben werden, denn es wird mit Korrelationsmatrix R gearbeitet. 2 der reduzierten 2 Da die Kommunalitäten aber erst nach Bestimmung der Ladungsmatrix L bekannt sind, müssen sie aus der Korrelationsmatrix R geschätzt werden. Einige mögliche Schätzer wollen wir hier vorstellen. Die einfachste Möglichkeit ist k. = J

max j' = i

| r ·, . | Ρ J J

für j = 1,...,p

j· ^ j

also die maximale betragliche Korrelation in der j-ten Spalte von R, als

Kapitel VIII: Die Faktorenanalyse

535

S c h ä t z e r zu v e r w e n d e n . D a d u r c h w e r d e n d i e K o m m u n a l i t ä t e n a b e r i n d e r Regel überschätzt.

Man u n t e r s c h ä t z t z u m e i s t d i e K o m m u n a l i t ä t e n , wenn man

kJ H1P j -1=Ρ i

für j =1

j1 j

ρ

2 Ein w e i t e r e r Schätzer f ü r k j

als Schätzer wählt.

.. ist

J τJ '

*

r,

ή I

J1J2

mit r.

.=

max | r . , . | j' Φ j J J

J1J

und

r J•2 J·

für

max j ' Φ j-j,

j=1,...,p.

Das P r o d u k t d e r b e i d e n b e t r a g l i c h g r ö ß t e n K o r r e l a t i o n e n r . . , r . . i n d e r J^J JjjJ j - t e n S p a l t e von R w i r d h i e r d u r c h d i e b e t r a g l i c h e K o r r e l a t i o n d e r Merkmale j j

und j ^ d i v i d i e r t ;

d a d u r c h w e r d e n s e h r hohe K o r r e l a t i o n e n

ausgegli-

chen. Ausgehend von d e r e m p i r i s c h e n K o r r e l a t i o n s m a t r i x werden z u n ä c h s t i n R Vorzeichenwechsel entsteht;

R = R q f ü r d i e ρ Merkmale

vorgenommen, w o d u r c h e i n e M a t r i x R^

i n d i e s e r w e r d e n dann d i e D i a g o n a l e l e m e n t e d u r c h 2 k, 1o'" " ' ζ ο e

Kommunalitäten-

Schätzungen

(0) 12

r(o) Γ1ρ

(o) 12

k2 20

r

»

Jo) 2p

i kK 2 10 r

1p

r

denn b e i dem V o r z e i c h e n w e c h s e l

(o) 2p

i s t zu b e a c h t e n , daß d i e s e s t e t s i n g a n z e n

S p a l t e n und Z e i l e n von R = R q e r f o l g e n m ü s s e n , d . h . w e r d e n i n e i n e r j V o r z e i c h e n v e r t a u s c h t , so w e r d e n s i e a u c h i n d e r j - t e n Z e i l e H i e r b l e i b t dem e i n z e l n e n v i e l

Raum f ü r W i l l k ü r : Man i s t f r e i

Spalte

vertauscht. i n d e r Wahl

d e r K o m m u n a l i t ä t e n s c h ä t z e r und i n d e r Wahl d e r Z e i l e n und S p a l t e n , i n denen Vorzeichenwechsel

vorgenommen w e r d e n . Es muß l e d i g l i c h d a r a u f g e a c h t e t w e r -

d e n , daß d i e S p a l t e n s u m m e n U^q

UpQ von R' u n d d i e Summe d e r E l e m e n t e ο

l U j 0 den f o l g e n d e n B e d i n g u n g e n g e n ü g e n : j =1 Uj0

j =1

> 0

und

ü

1

für

j=1,...,p

536

Kapitel VIII: Die Faktorenanalyse

Zunächst werden nun die Spaltensummen der Matrix R' ο

v

^

j

l

r

,

i?]

fur

j=i

p

j7j und die normierten

v

u

Spaltensummen

ü

J o / y X

j

j o

=1

ρ

berechnet. Dann ist T..

. f a l l s in der j-ten Spalte von R' kein Vorzeichen-

{

J

Wechsel

> für j=1 Vektor ^

ρ

S O n S t

stattfand

die Ladung des I.Faktors Fj auf dem j-ten Merkmal, d.h. der b l 1 d e t

=

die

erste Spalte der geschätzten Ladungs-

matrix L. Nun wird im k-ten Schritt ( k = 1 , 2 , — )

R

k = ~

R

k-rV

T

zunächst die Matrix

k

der k-ten Residualkorrelationen berechnet. Zur Probe kann man hier die Spaltensummen der Matrix R k berechnen, die bis auf

Rechenungenauigkeiten

alle Null sein müssen. Um weitere Faktoren extrahieren zu können, werden nun wieder willkürlich einige Vorzeichen in der Matrix R k vertauscht. Dabei sind die gleichen Regeln und Bedingungen wie bei der Bestimmung von Fl· zu beachten. Dann werden die Spaltensummen der resultierenden Matrix R k

" j k ^ j V j I ,

und die normierten

W

W

/

r

JM

™-J.1....,p

Spaltensummen

/

.

ü

,

Jk

J-1.-.P

berechnet. Ändert man die Vorzeichen derjenigen ϊ ^ + ι · die zu einer Spalte j gehören, deren Vorzeichen vertauscht wurden, so ergeben sich die Ladungen

{

1 -k+« jk+1

, falls in der j-ten Spalte von R. kein Vorzeichenwechsel stattfand -

s o n s t

Kapitel VIII: Die Faktorenanalyse

des ( k + 1 ) - t e n Faktors

537

F ^ ·

Das Verfahren wird im q-ten S c h r i t t abgebrochen, wenn R^ der Nullmatrix genügend ähnlich i s t , d.h. wenn a l l e Elemente von R q "sehr k l e i n " s i n d . Man hat dann q Faktoren e x t r a h i e r t und näherungsweise eine Ladungsmatrix L mit q Spalten bestimmt. Was in diesem Zusammenhang "sehr k l e i n " i s t , b l e i b t dem Einzelnen überlassen. Da das bestimmte L keinem bekannten s t a t i s t i s c h e n P r i n z i p genügt, l ä ß t s i c h , wie dies bei anderen Verfahren möglich i s t , kein Test durchführen, ob die Anzahl q der extrahierten Faktoren s i g n i f i k a n t ausreichend i s t , um die beobachteten Zusammenhänge zwischen ρ Merkmalen zu erklären. 2 Bei der Zentroidmethode waren wir auf eine Schätzung der Kommunalitäten kj im Vorhinein angewiesen. Die e n t g ü l t i g geschätzten Kommunalitäten ergeben s i c h jedoch e r s t im Nachhinein:

fUr j=1

'----p ·

"j-ii^-^Vj, 4

Vergleicht man diese mit den u r s p r ü n g l i c h geschätzten Kommunalitäten k j o und treten starke Abweichungen a u f , so s o l l t e man das ganze Verfahren noch ~

~

2

einmal durchführen und dabei die Diagonale der Matrix R - R' mit den k. anΟ J Ao s t e l l e der k. besetzen, jo Belip-izZ:

Die Cab.6 g i b t die empirische Korrelationsmatrix R von acht ver-

schiedenen M u s i k t e s t s , wie s i e von Jöreskog (1963) e r m i t t e l t wurde, wieder. i a b . 6 : Korrelationsmatrix R f ü r acht Musiktests \

j j \ 1 2 3 4 5 6 7 8

2

1 1 0 0 0 0 0 0 0

000 466 4 56 441 375 312 247 207

0 1 0 0 0 0 0 0

466 000 311 296 521 286 483 314

3 0 0 1 0 0 0 0 0

456 311 000 185 184 300 378 378

5

4 0 0 0 1 0 0 0 0

441 296 185 000 176 244 121 341

0 0 0 0 1 0 0 0

375 521 184 176 000 389 211 153

7

6 0 0 0 0 0 1 0 0

312 286 300 244 389 000 210 289

0 0 0 0 0 0 1 0

247 483 378 121 211 210 000 504

8 0 0 0 0 0 0 0 1

207 314 378 341 153 289 504 000

M i t t e l s der Zentroidmethode wollen wir nun eine Ladungsmatrix L bestimmen, die die Reproduktion der reduzierten Korrelationsmatrix R e r l a u b t . Wir setzen R' = = R o o

2

und müssen zunächst die Kommunalitäten k. schätzen. Wir j

538

Kapitel VIII: Die Faktorenanalyse

wollen hier AO

k. + = max |r.,.| Ot j V j J J

für j=1

8, t=0,1,...

als Schätzer wählen. Diese Schätzer werden in die Diagonale von R = R^ eingesetzt; dadurch entsteht R = Rg> vgl. iah.7, wo auch die Spaltensummen U^q und die normierten Spaltensummen ljj =1

für j=1,...,p angegeben sind.

Cab.7: Reduzierte Korrelationsmatrix R = R' der acht Musiktests; Spaltensummen und normierte Spaltensummen

1 2 3 4 5 6 7 8 U

0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0

466 521 311 296 521 286 48 3 314

0 0 0 0 0 0 0 0

456 311 456 185 184 300 378 378

2.970

3.198

0.643

0.692 . 0.573

j0

Mit

466 466 456 441 375 312 24 7 207

= (1^,...)

T

2.648

0 0 0 0 0 0 0 0

441 296 185 441 176 244 121 341

2.245 0.486

0 0 0 0 0 0 0 0

375 521 184 176 521 389 211 153

2.530 0.547

0 0 0 0 0 0 0 0

312 286 300 244 389 389 210 289

2.419 0.523

0 0 0 0 0 0 0 0

247 483 378 121 211 210 504 504

0 0 0 0 0 0 0 0

2.658

207 314 378 341 153 289 504 504

2.690

0.575

0.582

haben wir die Ladungen des Faktors F^ bestimmt und

berechnen nun die Matrix

der 1.Residualkorrelation, vgl. Cab.8. Cab.8: Matrix R, der 1.Residualkorrelationen \

j 1

ζ 3 4 5 6 7 8

1 0 0 0 0 0 -0 -0 -0

053 021 088 129 023 024 123 167

2 0 0 -0 -0 0 -0 0 -0

021 042 086 040 142 076 085 089

3 0 -0 0 -0 -0 0 0 0

088 086 128 093 129 000 049 045

5

4 0 -0 -0 0 -0 -0 -0 0

129 040 093 205 090 010 158 058

0 0 -0 -0 0 0 -0 -0

023 142 129 090 222 103 104 165

6 -0 -0 0 -0 0 0 -0 -0

024 076 000 010 103 115 091 015

7 -0 0 0 -0 -0 -0 0 0

123 085 049 158 104 091 173 169

8 -0 -0 0 0 -0 -0 0 0

167 089 04 5 058 165 015 169 165

In der Matrix R. werden sodann Vorzeichen getauscht. Und zwar in der vier-

539

Kapitel VIII: Die Faktorermnalyse

ten S p a l t e , dann i n der v i e r t e n Z e i l e , in der s i e b t e n S p a l t e und Z e i l e und in der achten S p a l t e und Z e i l e . E r s e t z t man zudem die Diagonal g l i e d e r von Rj durch = max | r ( | j | jVj J J

k* J

fürj=1,...,8

,

so e r g i b t s i c h d i e in Cab.9 d a r g e s t e l l t e M a t r i x R.j. In Tab.9 s i n d außerdem d i e Spaltensummen sowie die normierten Spaltensummen

und die L a -

dungen 1j2 d e s 2. e x t r a h i e r t e n F a k t o r s Fg angegeben. lab.9: Matrix mit Spaltensummen U.^, normierten Spaltensummen l . g und Faktorlaiungen 1,?

X 1 2 3 4 5 6 7 8

U

j1

^2

1 0 0 0 -0 0 -0 0 0

2

167 021 088 129 023 024 123 167

0 0 -0 0 0 -0 -0 0

021 142 086 040 142 076 085 089

3 0 -0 0 0 -0 0 -0 -0

088 086 129 093 129 000 049 045

5

4 -0 0 0 0 0 0 -0 0

129 040 093 205 090 010 158 058

0 0 -0 0 0 0 0 0

023 142 129 090 222 103 104 165

7

6 -0 -0 0 0 0 0 0 0

024 076 000 010 103 115 091 015

0 -0 -0 -0 0 0 0 0

123 085 049 158 104 091 173 169

8 0 0 -0 0 0 0 0 0

0 4 36

0 187

0 001

0 209

0 720

0 234

0 368

0 787

0 254

0 109

0 001

0 122

0 420

0 136

0 215

0 459

0 254

0 109

0 001

- 0 122

0 420

0 136

- 0 215

- 0 459

6

7

8

Die M a t r i x der R2

=

2.Residualkorrelationen R-j -

i s t in l a b . 1 0 angegeben.

l a b . 1 0 : Matrix R, der \

j

1

J X \ 1 2 3 4 5 6 7 8

0 -0 0 -0 -0 -0 0 0

102 007 088 160 084 059 068 050

2.Residualkorrelationen

2 -0 0 -0 0 0 -0 -0 0

007 130 086 027 096 091 108 039

3 0 -0 0 0 -0 0 -0 -0

088 086 129 093 129 000 049 045

4 -0 0 0 0 0 -0 -0 0

160 027 093 190 039 007 184 002

5 -0 0 -0 0 0 0 0 -0

084 096 129 039 046 046 014 028

-0 -0 0 -0 0 0 0 -0

059 091 000 007 046 09 7 062 04 7

0 -0 -0 -0 0 0 0 0

068 108 049 184 014 062 127 070

0 0 -0 0 -0 -0 0 -0

*ÜJ1

167 089 04 5 058 165 015 169 169

050 039 04 5 002 028 04 7 070 042

2.942

540

Kapitel Vni: Die Faktorenanalyse

Obwohl diese Matrix der Nullmatrix recht nahe kommt, wollen wir noch einen weiteren Faktor Fg extrahieren. Dazu müssen wir in der Matrix R^ zunächst Vorzeichenwechsel vornehmen. Wir tauschen die Vorzeichen in der ersten Spalte und Zeile und in der d r i t t e n Spalte und Z e i l e ; damit erhalter wir die Matrix R^. Nun schätzen wir die Residual - Kommunalitäten durch kL=max|r^]| J j

f ü r j=1

8

,

und es ergibt s i c h die Matrix R^, die zusammen mit ihren Spaltensummen IK,, normierten Spaltensummen

und den Ladungen 1 .g des 3.Faktors F^ in

C a b . l l angegeben i s t . Cab.11: Matrix R~ mit Spa1 tensummen, normierten Spaltensummen und Ladungen des 3. Faktors \

j 1 2 3 4 5 6 7 8

uj2

'J3

2

1 0 0 0 0 0 0 -0 -0

160 007 088 160 084 059 068 050

0 0 0 0 0 -0 -0 0

007 130 086 027 096 091 108 039

3 0 0 0 -0 0 0 0 0

088 086 129 093 129 000 049 045

5

4 0 0 -0 0 0 -0 -0 0

160 027 093 190 039 007 184 002

0 0 0 0 0 0 0 -0

084 096 129 039 129 046 014 028

6 0 -0 0 -0 0 0 0 -0

059 091 000 007 046 097 062 04 7

7 -0 -0 0 -0 0 0 0 0

068 108 049 184 014 062 184 070

8 -0 0 0 0 -0 -0 0 0

*ÜJ2

050 039 045 002 028 047 070 070

0 503

0 186

0 433

0 134

0 509

0 119

0 019

0 101

0 355

0 131

0 306

0 095

0 360

0 084

0 013

0 071

- 0 355

0 131

- 0 306

0 095

0 360

0 084

0 013

0 071

2.004

Berechnen wir

so ergibt s i c h die Matrix aus tab.12. Diese i s t der Nullmatrix genügend nahe, so daß wir daß Extraktionsverfahren hier abbrechen wollen. Wir haben also mit H i l f e der Zentroidmethode drei orthogonale Faktoren F^, F^, Fj e x t r a h i e r t , die die Zusammenhänge zwischen den acht Musiktests (Merkmalen) erklären. Die Beziehungen zwischen den Merkmalen und den Faktoren werden durch die konstruierte (näherungsweise) Ladungsmatrix ί = aus Cab.13 beschrieben. Da es sich um orthogonale Faktoren handelt, i s t das Element

( j = 1 , . . . , 8 , k=1,2,3) der Matrix L gerade die Korrelation

zwischen dem j-ten Musiktest und dem k-ten Faktor. Eine gute Interpretation der Faktoren wird e r s t durch eine Rotation möglich., v g l . Abschnitt 2.1.1.

541

Kapitel VIII: Die Faktorenanalyse

Cab.12: M a t r i x R.. der

\

y\ 1 2 3 4 5 6 7 8

i

2

1 0 -0 -0 0 -0 0 -0 -0

3.Residualkorrelation

-0 0 0 0 0 -0 -0 0

034 040 021 126 044 029 073 075

3

040 113 046 015 049 102 110 030

-0 0 0 -0 0 -0 0 0

0 0 -0 0 0 -0 -0 -0

021 046 035 122 019 026 045 023

6

5

4 126 015 122 181 005 015 185 005

-0 0 0 0 -0 0 0 -0

044 049 019 005 001 016 009 054

0 -0 -0 -0 0 0 0 -0

029 102 026 015 016 090 061 053

7 -0 -0 0 -0 0 0 0 0

073 110 045 185 009 061 184 069

8 -0 0 0 -0 -0 -0 0 0

075 030 023 005 054 053 069 065

I a h . 1 3 : Nä'herungsweise Ladungsmatrix L f ü r die drei Faktoren nach der Zentroidmethode ^\Faktor

F^ F

Musiki, test j 1 2 3 4 5 6 7 8

0 0 0 0 0 0 0 0

F

1

64 3 692 573 486 54 7 523 575 582

0 0 0 -0 0 0 -0 -0

F

2

254 109 001 122 420 136 215 459

3

-0.355 0.131 -0.306 0.095 0.360 0.084 0.013 0.071

Wir wollen nun noch überprüfen, ob die e n t g ü l t i n oeschätzten Kommunalitä2 ~2 ten kj in etwa mit den u r s p r ü n g l i c h geschätzten Werten kj Q übereinstimmen, oder ob es s i c h h i e r lohnen würde, mit den k 2 das Verfahren zu wiederholen. In i a b . 1 4 s i n d d i e geschätzten und d i e e n t a ü l t i n e n Kommunalitäten anneoe2

ben. So berechnet s i c h etwa k j zu k

3

= ]

31

+]

32

+ Ί

33

=

°·5732

+

0.001 2 + ( - 0 . 3 0 6 2 ) = 0.422

Eine Wiederholung des Verfahrens wäre h i e r unter Umständen angebracht,

vgl.

Tab.14.

1.5

DIE

JÖRESKOG-METHODE

Jöreskog ( 1963) hat d i e sogenannte Jüi&iliog

- Methode der Faktorenanalyse

vorgeschlagen. Wie bei der Zentroidmethode, der Maximum - L i k e l i h o o d - Methode und der kanonischen Faktorenanalyse werden bei der Jöreskog - Methode

Kapitel VM: Die Faktorenanalyse

542

Cab.14: E n t g ü l t i g e und u r s p r ü n g l i c h g e s c h ä t z t e Kommunalitäten der acht Musiktests Musiktest j

2 k)

1 2 3 4 5 6 7 8

0 .604 0 .508 0 422 0 260 0 605 0 299 0. 377 0 554

JO 0.466 0.521 0.456 0.441 0.521 0.389 0.504 0.504

q orthogonale Faktoren e x t r a h i e r t . Jöreskog geht davon a u s , daß s i c h d i e t h e o r e t i s c h e Kovarianzmatrix Σ der s t a n d a r d i s i e r t e n Merkmale d a r s t e l l e n l ä ß t a l s £ = A-AT+diag(0p...,6p)

,

und v e r l a n g t nun, um die E i n d e u t i g k e i t der Schätzer L f ü r die Ladungsmatrix Λ und d i a g ( 6 , , . . . ,ι einer Ladungsmatrix e i n f ü h r t e . Er beschrieb die Einfachstruktur durch fünf Forderungen, die die Ladungsmatrix e r f ü l l e n

soll:

1. Jede Zeile einer Ladungsmatrix s o l l mindestens eine Null enthalten, d.h. die Ladung mindestens eines Faktors je Merkmal i s t N u l l , jedes Merkmal wird durch höchstens q - 1 Faktoren beschrieben. 2. Jede Spalte einer Ladungsmatrix enthält wenigstens q Nulladungen, d.h. jeder Faktor t r ä g t zur Beschreibung von höchstens p - q der ρ Merkmale bei 2 und L enthält mindestens q Nulladungen. 3. In jedem Spaltenpaar der Ladungsmatrix g i b t es mehrere Merkmale, die auf dem einen Faktor eine hohe, auf dem anderen Faktor keine Ladung haben. 4. Wurden mehr a l s 4 Faktoren e x t r a h i e r t , so s o l l jedes b e l i e b i g e Spaltenpaar der Ladungsmatrix für eine große Zahl von Merkmalen in beiden Spalten Nullen enthalten. 5. Für jedes Spaltenpaar s o l l t e n nur wenige Variable in beiden Spalten hohe Ladungen haben. Die grobe Forderung der Einfachstruktur i s t a l s o , daß die beobachteten Merkmale im Koordinatensystem der Faktoren in s i c h ausschließende Gruppen e i n g e t e i l t s i n d , deren Ladungen auf einzelnen Faktoren hoch, auf einigen wenigen Faktoren mäßig hoch und auf den übrigen annähernd Null s i n d . Eine möglichst gute Annäherung an die verbal beschriebene E i n f a c h s t r u k t u r e r r e i c h t man dadurch, daß man eine Faktaiiotati-on, die einer Transformation der konstruierten Ladungsmatrix L e n t s p r i c h t , durchführt, die die Anforderungen der Einfachstruktur

einbezieht.

Man unterscheidet h i e r zwischen ofUhogonal&n tationen.

und ichie.&i F k , ( k , k ' = 1 , . . . ,q, k 1 > k) von zwei Faktoren die

Hilfsgrößen

553

Kapitel VIII: Die Faktorenanalyse

und daraus dann die Größen nh p

n,h k k ' = P' D kk·

onh +2A

Dh kk"*Bkk·

sowie

Q

kk'=P-ckk'-(Akk')2

Der Rotationswinkel

+

(ßkk')2

·

für das Faktorenpaar F^ , F^ , (k ,k' = 1

q, k 1 > k )

ist

dann im h-ten Schritt ph

„(h) 1 fc kk' = 4" \

arc

kk Λ

. g

kk'

wobei Ε gemäß lab.18 zu wählen ist.

Cab.18: Berechnungshilfe für den Rotationswinkel

K

kk

g

Ε

kk'

Grenzen für

θ^ί

6

kk'

positiv

positiv



bis

22.5°

positiv

negativ

180°

22.5°

bis

45°

negativ

positiv



-22.5°

bis

negativ

negativ

-180°

-45°

bis



0° -22.5°

Nun werden

^ r V V V ^ - ' - X - l . q berechnet. Ist V h + 1

V i

noch wesentlich größer als V^, so wird nun der (h+1) -

te Schritt durchgeführt; sonst wird das Iterationsverfahren

abgebrochen

und die nach dem Varimax - Kriterium optimale rotierte Ladungsmatrix L„ Rot berechnet. Die Elemente 1 -k aus der Beziehung ι Rot _ (h+1). K Jk ~ z j k j

·

für j = 1,...,p, k=1,...,q von L R o t ergeben sich

554

Kapitel VIII: Die Faktorenanalyse

B&l&pitl:

(a) In Abschnitt 1.1 haben wir mittels Maximum - Likelihood - Methode eine Ladungsmatrix für 2 Faktoren und 5 Merkmale, die Klausurpunkte in 5 Klausuren von Studenten waren, bestimmt. Diese Matrix, die in Cab.19 noch einmal angegeben i s t , wollen wir orthogonal transformieren, so daß die transformierte Ladungsmatrix nach dem Varimax - Kriterium einer Einfachstruktur möglichst gut entspricht. Wir wollen hier das Rotationsverfahren nach dem r-ten Schritt abbrechen, f a l l s g i l t 1ΙV

r

- V

, I < 0.01 r+1 1

In Tab.19 i s t neben der Matrix L auch die normierte Matrix ZQ angegeben. Da die (geschätzten) Kommunalitäten der 5 Merkmale gerade k

j

= 1

j1+1j2

'

k^ = 0.539 ,

a l s

° k 2 = 0.800 ,

= 0.579 ,

k^ = 0.654 und

k^ = 0.572

sind, ergibt sich z.B. -0-205

So)=}V 42

4

=

_0.2S3

\TÖ354

tab.19: Ladungsmatrix L nach der Maximum - Likelihood - Methode und normierte Ladungsmatrix ZQ zur Korrelationsmatrix aus Tab.13 L \ k J 1 2 3 4 5

Z

1

2

0 0 0 0

630 696 893 782 0 729

o

1

0 377 0 308 - 0 048 -O 205 - 0 201

0 0 0 0 0

858 915 998 967 964

2 0 0 -0 -0 -0

514 405 054 253 266

2 Wir berechnen nun die ρ ( = 25) - fache Summe der Varianzen der quadrierten normierten Ladungen z ^ v

n=5 0

in den beiden Spalten von Z Q . Es ergibt sich

2 5 2 5 2 I I ( z i · ^ ) 4 - I ( l (z ( ° J ) 2 > \ = 5-4.0787054 - 19.9786324 JK JK k=1 j=1 k=1^j=1 '

= 0.4148946 Da q = 2 i s t , müssen im 0-ten Schritt nun l e d i g l i c h die Hilfsgrößen zur Bestimmung eines Rotationswinkels θ ^ Es ergibt sich

der beiden Faktoren berechnet werden.

Kapitel VIII: Die Faktorenanalyse

867876

^ z ^ )

(o)

2

^ 1 .3167305

= -0.116663

und somit P" 2 = 5(-0.116663) - 2-3.867876-0.51324 = -4.553612

Q° 2 = 5-1 .3167305 - (3.867876) 2 + (0.51324) 2 = -8. 1 13397 Da P°2 und

negativ sind, haben wir mit Tab.18 ,(o) 12

1 j4 (-180° + arc tan-j-^) = { (-180° + 29.302147°) = -37.674° V Q ° 7 > * - « S Ü ' O 2 - J , ««Si^Sti'* · Der Rotationswinkel

für die Faktoren F^, F^, ergibt sich dann zu p(h)

e

=

E + arctan

kk' i (

tSt) 4

kk'



wobei die Größe Ε der Tab.18 in Abschnitt 2.1.1 entnommen werden kann. Nun werden

h+1 "

h

berechnet. Ist L ^

h " h

12

"13

··· "q-1 ,q

Uund M U

v

h+1 " ^

^

v

' jk

noch wesentlich größer als L ^ , so wird der (h+1) - te

Schritt durchgeführt; ansonsten wird das Iterationsverfahren

abgebrochen

und die rotierte Ladungsmatrix als L

Rot

= L

h+1

festgesetzt.

ftelipiil·. I m Abschnitt 2.1 haben wir die mittels Maximum - Likelihood - Methode gewonnene Ladungsmatrix L = L Q , vgl. z.B. Tab. 19, aus Abschnitt 1.1 nach der Varimax - Methode rotiert. Hier soll sie nun einmal nach der Quartimax - Methode rotiert werden.

Es ergibt sich zunächst das Quartimax - Kriterium

Kapitel VIIL Die Faktorenanalyse

2 Q

0

=

561

5

l l ( l W Jk k=1 j=1

= 1.717108000

Im O-ten Schritt erhält man weiter P ^

= -0.0533

und

so daß der Rotationswinkel

Q ^ ' = 0.8089

gerade p

θ

12)

=

+ a r c

l

(o)

^ n - f | y ) = j (-3.7700°) = -0.9425° Q12

ist. Mit der Transformationsmatrix 0(o)

12

Δ

δ(

Ο = 12

.

,(o) 12

0.9999

0.0164

-0.0164

0.9999

) =

,(o)

12

12

ergibt sich

Li = L ·Δ = 1 ο ο

0.623 0.691 0.894 0.785 0.732

0.387 0.319 -0.033 -0.192 -0.189

und

Q 1 = 1.719673204

Da der Unterschied zwischen Q q und Q^ sehr gering ist, brechen wir das Verfahren ab und setzen L

Rot

= L

1

Rot Rot Der Faktor F^ läßt sich dann etwa als "Denkvermögen" und der Faktor Fg als "Stärke des räumlichen gegenüber dem algorithmischen Denkvermögen"

2.2

SCHIEFWINKELIGE

R O T A T I O N - D I E

METHODE

J

in-

terpretieren.

DER

PRIMÄRFAKTOREN

Einfach ausgedrückt entspricht eine Ladungsmatrix der Einfachstruktur von Thurstone am besten, wenn sich ausschließende Gruppen von Merkmalen auf je einem Faktor hohe Ladung, und auf den meisten Faktoren eine Nulladung haben; diese Gruppen können z.B. durch eine Clusteranalyse, vgl. Kap.VII, bestimmt werden. Dies läßt sich oft am besten erreichen, wenn man die Orthogonal itätsforderung für die Faktoren aufgibt.

Sehen wir uns noch einmal die Abb.4 in Abschnitt 1.1 an. Hier würde man bei

562

Kapitel VIII: Die Faktorenanalyse

q = 2 Faktoren der Einfachstruktur einer Ladungsmatrix wohl am nächsten Rot kommen, wenn man den Faktor so rotiert, daß den Schwerpunkt der Merkmalspunkte für Mechanik Rot und Analytische Geometrie schneidet, und den Faktor F^ so rotiert, daß F^ den Schwerpunkt der übrigen drei Merkmalspunkte schneidet. Eine Orthogonal rotation ergibt in diesem

Beispiel ge-

mäß dem Bargmann - Test keine mit der Einfachstruktur vereinbaren Faktoren, wie wir in Abschnitt 2.1 gesehen haben. Eine schiefwinklige Rotation von q Faktoren wird beschrieben durch eine Transformationsmatrix 511

Mq

Δ = COS

COS

'q1

qq

wobei

den Winkel angibt, um den der Faktor F^. gedreht werden muß, da-Rot mit der rotierte Faktor F^, entsteht. Diese Matrix ist natürlich nicht mehr orthogonal wie bei der orthogonalen Rotation, d.h. es gilt i.a. Δ Τ ·Δ f I

und

Die Matrix Rp = Δ Τ · Δ beschreibt die Korrelation zwischen den schiefwinkligen Faktoren und die rotierte Ladungsmatrix ist gegeben durch L

R o t = L ' A ' R F 1 = "-·Δ(Δτ·Δ)~1 = ί ( Δ τ Γ 1

.

Die reduzierte Korrelationsmatrix R wird dann gerade durch

^

W

V

H

L

wiedergegeben. Die Matrix L-Ä = L f s heißt auch FaktofULMtfiuktMi {^actan

ifuictuAe.).

Sie ist gerade die Korre-

lationsmatrix zwischen den beobachteten Merkmalen und den schiefwinkligen Faktoren. Wie kann man nun aber eine Transformationsmatrix Δ für eine schiefwinklige Rotation von q Faktoren so bestimmen, daß die rotierte Ladungsmatrix L„ . einer Einfachstruktur möglichst gut entspricht?

Kapitel

VIII: Die Faktorenanalyse

Wir wollen hier die Methode deA PfUmäA^aktofitn vorstellen, die auf Thurstone (1947) zurückgeht und von Harmann (1976) als beste schiefwinklige Rotationsmethode empfohlen wurde. Zunächst bildet man ausgehend von einer orthogonalen Ladungsmatrix q disjunkte Gruppen

von einander möglichst ähnlichen standardisierten

Merkmalen und bildet daraus zaiammzngueXztz

ι

V

Y

i

Me*fema£e

·

Die empirische Varianz dieser zusammengesetzten Merkmale ist gerade die Summe der Korrelationen der einzelnen Merkmale, die in der empirischen reduzierten Korrelationsmatrix R, vgl. auch Abschnitt 1, zusammengestellt sind: Sv = Σ I >\ j l "l· irr. ι'rC JJ 'k jGG k j'CG k

Das ΊίάχζΙίΐΧί

+

I

für k ,k ' = 1,... ,q



j

J

FaktoinvtmodzJUL, das die Basis zur Bestimmung der Transfor-

mationsmatrix Δ bildet, ist dann u, = K

J* r v F f. , k 1 =1 Y k ' K

für k=1,... ,q

Die Transformationsmatrix einer optimalen schiefwinkligen Rotation ist somit gegeben durch 11

'iq

Δ =

mit cos Θ . q1

cos

6

...

cos θ

qq für k,k' = 1,... ,q

I rv F 1 k' = 1 k k

k'k = r V k F k ,

cos Θ.

ist gerade der Kosinus des Richtungswinkels vom Rot den rotierten Faktor F k . Die Matrix r

FRotP

Ί

Τ

R p = Δ ·Δ ; r

FRotFRot

1

q

r

Rot 2

F Rot|-Rot

2

q

·"

r

.-Rot r Rot 1 q

Faktor F. , auf

563

564

Kapitel VIII: Die Faktorenanalyse

g i b t gerade d i e K o r r e l a t i o n e n zwischen den s c h i e f w i n k e l i g e n Faktoren an. Aus i h r l a s s e n s i c h d i e Winkel zwischen d i e s e n Faktoren bestimmen: Der WinRot Rot kel zwischen den Faktoren F^ und F^, ist ßkk,=arccosr

.

Qt

k

V

8(uApieJi·. Wir wollen d i e Ladungsmatrix f ü r q = 2 F a k t o r e n , d i e s i c h im B e i s p i e l aus A b s c h n i t t 1.1 (Klausurpunkte von 88 Studenten in 5 Fächern) gab, nun nach der Methode der Primärfaktoren r o t i e r e n . Eine s o l c h e

er-

schief-

w i n k e l i g e Transformation s c h e i n t angebracht zu s e i n , da e i n e Orthogonal r o t a t i o n keine gut i n t e r p r e t i e r b a r e n Faktoren h e r v o r b r a c h t e , v g l .

Abschnitt

2.1. Sehen w i r uns d i e Abb.4 in A b s c h n i t t 1.1 noch einmal a n , d i e die 5 beobachteten Merkmale (Punkte in 5 Klausuren) im Koordinatensystem der o r t h o g o nalen Faktoren F^ und F 2 d a r s t e l l t , so bemerken w i r , daß d i e

(standardi-

s i e r t e n ) Merkmale Klausurpunkte Mechanik (Y^) und A n a l y t i s c h e Geometrie ( Y 2 ) e i n e Gruppe b i l d e n und d i e Merkmale Klausurpunkte L i n e a r e Algebra ( Y j ) , A n a l y s i s ( Y ^ ) , Elementare S t a t i s t i k

(Yg) eine zweite Gruppe b i l d e n .

Wir wollen somit zunächst einmal aus den zugehörigen s t a n d a r d i s i e r t e n Merkmalen d i e zusammengesetzten Merkmale v. = l Yf =Yf 1 ά jeG 1 J

+

Y^ +Yf 4

b

,

v9= d

l y f = Y f + Y® t 1 c jcG2 J

;

eine R e a l i s a t i o n des zusammengesetzten Merkmals V 2 i s t z . B . gerade d i e Summe der s t a n d a r d i s i e r t e n Klausurpunkte e i n e s Studenten in Mechanik und A n a l y t i s c h e r Geometrie. Die zusammengesetzten Merkmale haben die Varianz s2

V

1

= l l r · ·, + l k? = 2r J4 jGG, jCG, J J jGG 1 J

+2r ""

+2r 4b

J

+^ + ^ t b

jYj' = 2 - 0 . 7 1 1 + 2 - 0 . 6 6 5 + 2-0.607 + 0.800 + 0.654 + 0.572 = 5.992 bzw. sl

2

= i l r . ., + l j£G 2 j ' e G 2 J J j e g2 j^j'

j

= 2 r . 7 + k ? + k ? = 2-0.553+0.539+0.579

Kapitel VIII: Die Faktorenanalyse

= 2.224 vgl. auch Tab.2 und Tab.3, so daß sich die empirischen Korrelationen der Faktoren F^, F^ mit den zusammengesetzten Merkmalen V^ und ry

F VV

r.,

1

F

12

zu

= (0.893 + 0.782 + 0.729)/^ 5.992 = 0.982 =-0.185 ,

r.,

= 0.889 und F 2 1

r., F =0.459 22

ergeben. Die Elemente der Transformationsmatrix cos θ ^

cos

cos Θ21

cos Θ22

sind somit cos

'11

21

'12

22

V.F 1' 1 /

r2

+

V i

0.982 r2

ρ 12

-0.185

-= 0.9827

/0^982^+0.185'·

-= -0.1851

/ 0.9822 + 0. 1852 0.889

/ 0.889

2

= 0.8885

und

+ 0.4592

0.459

0.4588

/ 0.8892 + 0.4592

d.h. es i s t Δ =

0.9827 [-0. 1851

0. 0.4588

Durch Drehung um den Winkel 9 1 1 = arc cos (cos Θ 11 ) = arc cos 0.9827 = 10.673° Rot wird also F^ wieder zu F^, durch Drehung um Θ22 =

arc cos

( c o s θ 2 2 ) = arc cos 0.4588 = 62.690°

wird F^ o t wieder in F , überführt. Die Drehwinkel zwischen F ? o t und F„ bzw. 1 ^, ρ . . .f r Rot F2 und F^ sind somit θ 1 2 = θ η +90° = 100.673°

bzw.

= θ 2 2 - 90° = -27.31°

Die Korrelationsmatrix Rp der rotierten Faktoren i s t damit gerade

565

566

Kapitel VIII: Die Faktorenanalyse

RF = ΔΤ·Δ =

0.9827

-0.1851

0.9827

0.8886

1.0000

0.7883'

0.8886

0.4588

-0.1851

0.4588

0.7883

1.0000

Rot und der Winkel ß 1 2 zwischen den s c h i e f w i n k e l i g e n Faktoren F^

Rot und F^

ist ß 1 2 = arc cos r

R(jt

F1

R

F,

t

= arc cos 0.7883 = 37.973°=*θ, | 1 - θ 2 1 = θ 1 2 - Θ 1

Wir wollen uns d i e s e s E r g e b n i s nun g r a p h i s c h v e r a n s c h a u l i c h e n , v g l . Abb.9.

Abb.9 : R o t i e r t e Faktoren nach der Primärfaktoren - Methode im B e i s p i e l Klausurpunkte

J e t z t können w i r d i e F a k t o r e n s t r u k t u r m a t r i x

der

berechnen, die die K o r r e -

l a t i o n der beobachteten Merkmale mit den s c h i e f w i n k l i g e n Faktoren a n g i b t . Es

ist

Kapitel VIII: Die Faktorenanalyse

0.630

0.377

0.549

0 733

0.696

0.308

0.627

0 760

0.893

-0.048

0.886

0 771

0.806

0.601

0.754

0 556

0.782

-0.205

0.729

-0.201

0.9827

0.8886

-0.1851

0.4588

die Korrelation zwischen dem d r i t t e n Merkmal und dem zweiten schiefwinkeligen Faktor F R o t i s t also z . B . gerade 0.771. Um die Ladungsmatrix L R o t berechnen zu können, muß zunächst entweder Δ τ oder Rp i n v e r t i e r t werden, denn es i s t L T 1 L "Rot = ^ > " = f s

RF

Wir wollen Rp i n v e r t i e r e n und es e r g i b t sich 1.0000

-0.7883

2.64143

-2.08224

1 .0000 - 0.7883 -0.7883

1.0000

-2.08224

2.64143

1

-1

so daß wir

LRot

=L f s ' R F 1

-0.076

0.793

0.074

0.702

0.735

0.192

0.878

-0.091

0.834

-0.101

erhalten. Wir können nun noch sehr l e i c h t überprüfen, ob unsere Berechnungen rich2 t i g sind, indem wir aus L R ( J t die Kommunal i t ä t e n k j der Merkmale bestimmen. Diese müssen bis auf Rechenungenauigkeiten mit denen, die sich aus der ursprünglichen Ladungsmatrix ergeben, übereinstimmen. Es i s t z . B . k2 = l 2 1

* λ\ΐ

, ι Rotx2 21 }

=

° · 6 9 6 2 + 0·3082 = 0.579 ,,Rot>2 22 5

Rot, Rot 21 22 r F R o t c R o t h1 2

= 0.074 2 + 0.702 2 + 2-0.074-0.702-0.7883 = 0.580

,

v g l . hierzu auch die Einleitung dieses K a p i t e l s . Die r o t i e r t e Ladungsmatrix L „ . l ä ß t sich nun recht gut i n t e r p r e t i e r e n . Rot Der Faktor F. e r k l ä r t die Merkmale Klausurpunkte in A n a l y s i s , Linearer Rnt Algebra und Elementarer S t a t i s t i k , der Faktor F^ e r k l ä r t die KlausurRnt punkte in Mechanik und Analytischer Geometrie. Der Faktor F , l ä ß t sich

567

568

Kapitel VIII: Die Faktorenanalyse

Rot somit als "algorithmisch - abstraktes Denkvermögen", der Faktor F^ als "räumlich - abstraktes Denkvermögen" interpretieren, vgl. Abb.9.

3 SCHÄTZEN VON FAKTORENWERTEN Am Anfang dieses Kapitels wurde als ein wesentliches Ziel der Faktorenanast lyse die Darstellung jedes Elementes y ^ der standardisierten Datenmatrix Y

t

als Linearkombination von q' Faktoren formuliert: 1

\

jk f ik

fUr

1=1

>····η

und

j=1,--.»P

bzw. in Matrizenschreibweise ~

Y

st = F ' L

T

k=W

T

mit

f

ik = °

Und

J

1

f

?k = 1

für k = 1,...,q·

Bisher haben wir uns nur mit der Bestimmung einer optimal

.

interpretierbaren

Ladungsmatrix L für q = q' - p gemeinsame Faktoren beschäftigt. Diese kann natürlich auch eine rotierte Ladungsmatrix L = Lp Q ^ sein. Da für die reduzierte Korrelationsmatrix R (zumindest näherungsweise) gilt R K

= LL*R » L t = 1 , . γ τ ·γ K F L n^T st st u

wobei Rp. die Korrelationsmatrix der Faktoren (Rp = I für orthogonale Faktoren) und U^ die Diagonal matrix der merkmalseigenen Varianzen bezeichnet, ist durch Y s t = F-LT

,

d.h.

y ^ = M

j k

f

i k

eine Näherung für Υ ^ gegeben. Die Faktorenwertematrix F der gemeinsamen Faktoren ist dabei jedoch unbekannt. In vielen Fällen möchte man aber auch diese Faktorenwertematrix F bestim-' men, denn sie ist eine nxq - Datenmatrix (mit q < p) für die η Objekte, d.h. eine gegenüber Y und Y s t um ρ - q Spalten reduzierte Matrix, die die η beobachteten Objekte in Abhängigkeit von den q extrahierten Faktoren beschreibt.

569

Kapitel VIII: Die Faktorenanalyse

W i l l man z . B . e i n e C l u s t e r a n a l y s e , lyse, vgl.

vgl.

K a p . V I I , oder eine

Regressionsana-

K a p . I I , f ü r d i e η O b j e k t e d u r c h f ü h r e n , so i s t d e r

umso g e r i n g e r , j e k l e i n e r d i e A n z a h l ist also leichter

Rechenaufwand

der Spalten e i n e r Datenmatrix

ist.

Es

z . B . e i n e C l u s t e r a n a l y s e a u f d e r B a s i s von F d u r c h z u f ü h -

r e n , a l s m i t d e r D a t e n m a t r i x Y zu a r b e i t e n , wenn q w e s e n t l i c h k l e i n e r a l s ρ i s t .

inbesondere n a t ü r l i c h

dann,

W i e k a n n man n u n , n a c h d e m man e i n e

Ladungsmatrix L gefunden h a t , d i e Faktorenwerte F schätzen?

Eine e i n d e u t i g e Faktorenwertematrix

(besser

Hauptkomponentenwertematrix)

l ä ß t s i c h n u r aus e i n e r v o l l s t ä n d i g e n Hauptkomponentenanalyse, v g l . schnitt es

1 . 3 , b e s t i m m e n , denn d o r t

Ab-

i s t die Ladungsmatrix L orthonormal,

d.h.

ist LT-L = I

Somit i s t

.

mit

Y

st=F-

L T

gerade Y t - L =F-LT-L = F - I =F

.

B e i d e r e i g e n t l i c h e n F a k t o r e n a n a l y s e g i b t es k e i n e e i n d e u t i g e

Faktorenwer-

tematrix

empirische

F , da d i e L a d u n g s m a t r i z e n L d o r t n u r e i n e r e d u z i e r t e

Korrelationsmatrix

R d e r b e o b a c h t e t e n M e r k m a l e r e p r o d u z i e r e n ; F muß a l s o

e n t s p r e c h e n d g e s c h ä t z t w e r d e n . Zwei S c h ä t z m e t h o d e n , d i e von l i c h e n Modellen ausgehen, s o l l e n h i e r v o r g e s t e l l t B e i d e r zutzn standardisierte (d.h.

E(y

t

y wobei f

a u s . E i n e dem

ρ - d i m e n s i o n a l en B e o b a c h t u n g s v e k t o r y j. z u g r u n d e l i e g e n d e Zufallsvariable,

die ebenfalls mit y ^ bezeichnet

) = 0, V a r ( y s t ) = 1), läßt s t

werden.

g e h t man v o n f o l g e n d e m G r u n d m o d e l l

Methodi

standardisierten

unterschied-

= L-f

+ U

.e

sich darstellen

sei

als

,

und e u n a b h ä n g i g e z u f ä l l i g e V e k t o r e n m i t E r w a r t u n g s w e r t 0 u n d K o -

v a r i a n z - bzw. K o r r e l a t i o n s m a t r i x I , L e i n e p*q - L a d u n g s m a t r i x f ü r o r t h o g o 2 nale Faktoren und U d i e p * p - M a t r i x d e r m e r k m a l s e i g e n e n V a r i a n zen Dann

bezeichnet. ist = L •LT st

+

U2

570

Kapitel VIII: Die Faktorenanalyse

die (theoretische)

K o v a r i a n z - bzw. K o r r e l a t i o n s m a t r i x der ρ Merkmale. S i n d

L und LI e r s t g e s c h ä t z t worden ( u n t e r Verwendung der empirischen t i o n s m a t r i x R ) , so kann man $

Korrela-

durch d i e empirische K o r r e l a t i o n s m a t r i x R

st e r s e t z e n , was w i r im folgenden auch tun. Der zu y

t

g e h ö r i g e Vektor der

Faktorenwerte kann dann durch f = LT-R_1'yst

(d.h. F = Y s t - R " 1 - L )

g e s c h ä t z t werden, v g l . auch K a p . I I , A b s c h n i t t 2. Wurden d i e Faktoren r o t i e r t , so i s t im F a l l e e i n e r Orthogonal r o t a t i o n mit Transformationsmatrix Δ L

L

Rot =

'A

und im F a l l e e i n e r s c h i e f w i n k e l i g e n Rotation mit T r a n s f o r m a t i o n s m a t r i x Δ L

Ro

t

= L

f s ( A T ' A ) ~ 1 =ί·Δ(ΔΤ·Δ)"1 = ί ( Δ Τ Γ 1

I n beiden F ä l l e n g i l t L

=LRot'AT

.

also ·

d . h . ( f ü r die g e s c h ä t z t e n Faktorenwerte b z g l . L im Ausgangsmodell) f T

= aΛ · I

τ -1 -R · ν Rot * st

Die Fa.ktont)Mz.K£p)

T-, y 1

Y=

„T

mittels eines Q - Q - P l o t s überprüfen, ob die Verteilung der Merkmale in der interessierenden Grundgesamtheit von Objekten, die diese Merkmale trägt, wesentlich von einer gemeinsamen, p-dimensionalen Normalverteilung abweicht und ob in den Daten multivariate Ausreißer auftreten. Dazu berechnet man zunächst Stichprobenmittelwert sowie die inverse Stichprobenkovarianzmatrix 1

n

S" 1 = -( 5

i=1

(y,· - y ) ( y i - y f ) " 1

und daraus dann die (quadratischen) Mahalanobisabstände d^ der η Beobachtungsvektoren y^,

,y

vom Stichprobenmittel

= (y i - y) T -S" 1 -(y l · - y )

y:

für i = 1,...,n

Sind die Daten multivariat normal verteilt, so genügen die Abstände d^ approximativ einer χ 2 Abstände der Größe nach

dn

Verteilung mit ρ Freiheitsgraden. Ordnet man nun die

603

Kapitel IX: Graphische Verfahren

d ( 1 ) f d ( 2 ) < ... < d ( n ) und bestimmt die x

(i/(n+1))-Quantile

p;i/(n+1)

™ r i = 1,...,n

der Xp - V e r t e i l u n g , so l i e g e n die η Punkte ( X p . - j / ( n + u > d ( i ) ) '

i=1

n

»

die gerade den Q - Q - Plot b i l d e n , in etwa auf einer Geraden durch den Ursprung (0,0) mit Steigung 1. Wesentliche Abweichungen von der Normal V e r t e i lung bewirken gerade eine starke Abweichung von dieser Geraden. Treten in den Daten Aui-te^ße/i a u f , so wird dies im Q - Q - P l o t dadurch deutl i c h , daß die zugehörigen ( l e t z t e n ) Punkte "sehr weit" nach oben von der Geraden entfernt l i e g e n . Schätzt man den Mittelwert μ einer m u l t i v a r i a t e n Verteilung n i c h t durch das Stichprobenmittel y , sondern - wie dies etwa im Linearen Modell ( v g l . und Kap.X) der F a l l

Kap.II

i s t - nimmt an, daß μ = Xß mit bekannter Designmatrix X

i s t , und schätzt dann Xß durch Xß, so kann obiges Verfahren in m o d i f i z i e r ter Form angewandt werden; es sei auf die entsprechenden Ausführungen im Abs c h n i t t 1 von K a p . I I und im Abschnitt 1.3 von Kap.X verwiesen. Die (quadratischen) Mahalanobisdistanzen werden auch a l s skalare Residuen oder a l s quadratische Residuen bezeichnet.

BeAApieZ: Um die Q - Q - P l o t t i n g - Technik und ihre Ergebnisse zu demonstrieren, wurden jeweils 20 Beobachtungen aus einer vierdimensionalen Normalvert e i l u n g und aus einer vierdimensionalen V e r t e i l u n g , deren Komponenten j e w e i l s Weibul1 - v e r t e i l t mit Parametern α = 1 und ß = 0.5 s i n d , v g l . Abschnitt 4 in Kap.IV von Härtung et a l . (1982), s i m u l i e r t . Die s i c h aus diesen Daten jeweils ergebenden Mahalanobisdistanzen sowie die Quantile X4.i/21 1=1

20 der χ | - Verteilung s i n d in Cab.2 angegeben.

Aus den Angaben in dieser Tab.2 l a s s e n sich nun die beiden Q - Q - P l o t s s t e l l e n . Zunächst i s t in Abb.5 der Plot der Quantile X4 - i/21 9 e 9 e n stanzen d ^

er-

die

aus der Normal v e r t e i l ung d a r g e s t e l l t . Hier z e i g t s i c h , daß die

Punkte CX4-i/21 ' ' ' ( i p

t a t s ä c h l i c h nahezu auf einer Geraden mit Steigung 1

durch den Ursprung l i e g e n . Dagegen i s t in Abb.6, wo die Quantile der χ| Verteilung gegen die geordneten Abstände d ^ j aus der " W e i b u l l v e r t e i l u n g " abgetragen s i n d , eine deutliche Abweichung von der L i n e a r i t ä t len.

festzustel-

Kapitel IX: Graphische Verfahren

604

Cab.2: Geordnete Mahalanobisdistanzen d ^ j

zu den Daten aus e i n e r

vierdi-

mensionalen Normal V e r t e i l u n g und aus e i n e r " W e i b u l l V e r t e i l u n g " Quantile x | . ^ 2 T

i=1

d

i Normal V e r t e i l u n g 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

0 1 1 2 2 2 2 3 3 3 3 4 4 4 5 5 5 6 6 8

20

'

der

X4 "

V e r t e i l u n

sowie

9

(i) "Weibullverteilung" 0 0 0 0 0 0 1 1 1 1 1 3 3 3 5 6 7 8 12 13

9086 0669 7392 2499 3395 4155 9627 1336 1961 3588 7107 4851 5033 8383 0112 2273 6675 1054 1571 5587

2115 7709 9128 9227 9612 9983 1034 1964 4154 4819 5823 2083 2417 9606 2901 3180 2408 6978 8230 6631

x4;i/21

0 1 1 1 1 2 2 2 2 3 3 3 4 4 5 5 6 6 7 9

6699 0284 3302 6074 8729 1346 3956 6616 9356 2213 5226 8445 1933 5774 0087 5056 0986 8444 8693 5747

5

1 •

1

5

10

γ

2 Η;ΐ /21

Abb.5: Q - Q - P l o t f ü r 20 Beobachtungen aus e i n e r vierdimensionalen verteilung

Normal-

605

Kapitel IX: Graphische Verfahren

10

10

Y

A

2

4,i/21

J

Abb.6: Q - Q - P l o t für 20 Beobachtungen aus einer vierdimensionalen Verteilung mit Weibull - verteilten Komponenten

1.3

GLEICHZEITIGE

REPRÄSENTATION

OBJEKTEN:

BI-PLOT

DER

Werden an η Objekten ρ Merkmale Y 1

VON

MERKMALEN

UND

Yp beobachtet, so bietet der Bi-

Plot

eine Möglichkeit, Objekte und Merkmale gleichzeitig in einem zweidimensionalen Koordinatensystem darzustellen. Dazu betrachten wir die Datenmatrix y

Y=

11

···

y

" '

y

1p

: ^nl

np·

606

Kapitel IX: Graphische Verfahren

bzw. die Matrix Y* mit Elementen y

ij"y.j

für i=1,...,n, j=1

die durch eine Matrix

Y^j

P» y . j

=

1 n η i1

ij

für

j=1..,p,

vom Rang 2 approximiert wird. Hierbei gibt es

verschiedene Mögl ichkeiten; man kann, vgl. Gabriel

(1971), zur Approxima-

tion etwa die Eigenwerte und Eigenvektoren der Matrix Bezeichnen

y

( Y * ) T Y * verwenden.

λ ^ , λ 2 die beiden größten Eigenwerte dieser Matrix, q^, q 2

zu

~

gehörige Eigenvektoren und ist weiterhin für k=1,2

'Y*'qk

=

V λ

so ist die Matrix Y ^ j

gegeben als τ

V λ, ^{2)-(P1,P2)

\t λ.

Nun wird die Matrix Y ^ j

Y

„τ iq 2

in folgender Art und Weise faktorisiert:

(2)=H'M

wobei Η : \/ n-1 - (p 1 ,p 2 ) eine n»2 - Matrix mit orthonormalen Spalten und 1 Μ =\TrPI eine ρ * 2 - M a t r i x

λ

1

·ς

1

λ

2

·ς

2

)

=(Μ^,..

Μ.

ist. Betrachtet man nun die Zeilen von Η und Μ als Koordi-

naten von n+p Punkten im zweidimensionalen Raum, so repräsentiert die i-te Zeile von Η das i-te Objekt und die j-te Zeile Mj von Μ das j-te Merkmal. Im Koordinatensystem werden die Zeilen von Η durch Punkte und die Zeilen von Μ durch Pfeile, die vom Ursprung ausgehend bis zum entsprechenden

Punkt

im Koordinatensystem reichen, dargestellt. Der euklidische Abstand der Punkte i und j approximiert dann die Mahalanobisdistanzen der i-ten und j-ten Zeile von Y ^

und somit die Mahalanobisdistanzen der Beobachtungsvektoren

am i-ten und j-ten Objekt, das Skalarprodukt Μ^·Μ·, repräsentiert die KoJ Γ~χ varianz der Merkmale Yj und Υ .,, die Länge des j-ten Pfei 1s ν Mj·Μj die Standardabweichung

von Y. und der Kosinuns des Winkels zwischen den zu Mj

und Mj, gehörigen Pfeilen die Korrelation zwischen Yj und Yj,. 8eXip-ce£: Im Abschnitt 3 des Kap.V haben wir die Datenmatrix

Kapitel IX: Graphische Verfahren

0.452 0.424 0.063 -0.766 0.658

-0.394 -0.339 -0.045 -0.309 1.524

-0.752 -0.515 -0.008 0.358 0.518

-0.241 -0.638 -0.270 0.873 -0.454

-0.355 0.643 -0.414 0.260 -0.703

0.472 -0.354 -0.289 -0.360 1.357

607

0.150 0.026 -0.504 -0.287 1.164

f ü r d i e η = 5 A u t o h e r s t e l l e r American Motors ( 1 ) , C h r y s l e r ( 2 ) , Ford

(3),

G e n e r a l M o t o r s ( 4 ) , a u s l ä n d i s c h e H e r s t e l l e r ( 5 ) b a s i e r e n d a u f p = 7 Repar a t u r a n f a l l i g k e i t s m e r k m a l e n [ R e p a r a t u r a n f ä l l i g k e i t der äußeren

Karosserie

( M I ) , der inneren Karosserie (M2), der E i s e n t e i l e der Karosserie (M3), der Bremsen ( M 4 ) , des A u t o m a t i k g e t r i e b e s ( M 5 ) , d e r S t o ß d ä m p f e r (M6) und d e r V o r d e r r a d a u f h ä n g u n g ( M 7 ) ] b e s t i m m t . F ü r d i e s e D a t e n m a t r i x w o l l e n w i r nun einen ßi - Plot

erstellen.

Z u n ä c h s t b e r e c h n e n w i r dazu d i e b e i d e n g r ö ß t e n E i g e n w e r t e s o w i e z u g e h ö r i g e Eigenvektoren der Matrix (Υ*)Τ·Υ*. Hier e r g i b t sich mit ' 0.2858 0.2578 -0.1032 -0.9322 0.4918

-0.4814 -0.6722 -0.4264 -0.4352 -0.1324 0.0718 -0.3964 0.4378 1.4366 0 . 5 9 7 8

-0.0950 -0.2412 0.3068 0.0402 -0.4920 0.7568 -0.5192 -0.0838 -0.1240 -0.3002 -0.4542 -0.6138 1.0190 0.3738 -0.5252 -0.3968 -0.3080 -0.5892 1.1918 1.0542

gerade λ 2 = 2.7001

• 7.5525

q1 = ( - 0 . 2 8 1 6 2 , - 0 . 5 5 4 7 0 , - 0 . 1 5 2 2 8 , 0 . 2 0 3 7 0 , 0 . 2 8 6 9 9 , - 0 . 5 2 5 3 7 , - 0 . 4 3 5 8 2 Γ , q2 = (-0.49633,0.27061 ,0.57750,0.58078,-0.09437,0.00762,-0.02537)T, so daß s i c h wegen 1

•Y*.q„

•Y*-q.

JT.

dann

V λ,

0.01574 0.47774 0.35390 0.85835 -1.70573

-0.84155 -1.03903 0.03077 1.42508 0.42472

-0.38697 -0.76221 -0.20925 Μ = 0.27990 0.39435 -0.72191 -0.59886

-0.407781 0.22233 0.47447 0.47717 -0.07753 0.00626

-0.02084

e r g i b t . Ausgehend von d i e s e n M a t r i z e n Η u n d Μ s i n d i n d e r A h h . 7 d i e f ü n f H e r s t e l l e r und d i e s i e b e n R e p a r a t u r a n f ä l l i g k e i t s m e r k m a l e B e r e c h n e t man h i e r e i n m a l d i e

Y

( 2 )

= H . M

T

=

dargestellt.

Approximation

0.337 •0.199 - 0 . 4 0 3 - 0 . 3 9 7 0.071 0.239 •0.595 - 0 . 5 9 3 - 0 . 3 6 2 0.269 -0.149 -0.263 -0.059 0.114 0.137 -0.913 •0.337 0.497 0.920 0.228 0.487 1.395 0.558 •0.275 - 0 . 7 0 6

-0.017 0.008 -0.351 -0.264 -0.255 -0.213 -0.611 -0.544 .234 1.013

608

Kapitel IX: Graphische Verfahren

Dim. 2

General Motors

·

1.0-

Μ 3,

ausländische Hersteller

M4

M2, Ford

M6

M5

-1.0



Dim.1

M1 ι American Motors -1.0·

β

Chrysler

Abb.7: Bi - Plot für fünf Autohersteller und sieben Reparaturanfalligkeitsmer kmale

der Datenmatrix Y* durch die Matrix Y ^ j vom Rang 2, so sieht man, daß diese nicht besonders gut i s t , was bei der Interpretation von B i - P l o t s berücks i c h t i g t werden muß. Natürlich könnte man im Βi - PIot noch die empirischen Standardabweichungen der ρ Merkmale abtragen. Die Pfeillängen geben die Rang - 2 - Approximation derselben an; auf diesen Pfeilen könnten dann zusätzlich noch die wirklichen Werte eingezeichnet werden, was wir aus Gründen der Übersichtlichkeit im obigen Beispiel unterlassen haben. Diese Standardabweichungen ergeben sich a l s Quadratwurzeln der Diagonalelemente von ^ y · ( Υ * ) τ · Y * . Eine Anwendung des Bi - Plots in Zusammenhang mit der Einzelrepräsentation der Objekte wird in Abschnitt 2.7 (B-t - Plot - Sonnen) beschrieben.

1.4

WEITERE

GRAPHISCHE

OBJEKTE

UND

R Ε Ρ RÄ S Ε Ν ΤΑΤ I 0 Ν S F 0 RΜ Ε Ν

FÜR

MERKMALE

In den bisherigen Kapiteln dieses Buches wurden verschiedene s t a t i s t i s c h e Verfahren vorgestellt, die zum Teil dann auch - wie dort demonstriert wur-

609

Kapitel IX: Graphische Verfahren

de - eine graphische Darstellung der interessierenden Objekte oder der an ihnen beobachteten Merkmale erlauben. Die wichtigsten dieser Möglichkeiten einer graphischen Repräsentation sollen hier noch einmal kurz zusammengefaßt werden.

Im Kapitel

VI wurden verschiedene Verfahren der multid-Lmeni-conalen

nang

dargestellt. Diese Methoden basieren darauf, daß aufgrund von

(MS)

Skalie.-

beobachteten Ähnlichkeiten von η Objekten diesen Objekten q - dimensionale Datenvektoren zugeordnet werden. Wählt man als Dimension des Repräsentationsraumes eine Zahl

3, so können diese Datenvektoren natürlich auch

in ein q - dimensionales Koordinatensystem eingetragen werden und somit zur graphischen Repräsentation der η Objekte dienen. Mittels MDS lassen sich auch ρ an η Objekten beobachtete Merkmale repräsentieren; dabei werden dann die Ähnlichkeiten der Merkmale z.B. basierend auf ihren empirischen Korrelationen gemessen.

Die hieAoJuihlichm

Clu&£&rw.naly(,z

vgl. Abschnitt 6 in Kap.VII,

- VzAiaktzn,

erlauben die Darstellung der Ähnlichkeiten von η Objekten mittels eines Dendrogramms. Ausgehend von den einzelnen Objekten (einelementige

Klassen)

werden auf jeder Stufe des Dendrogramms die beiden jeweils ähnlichsten Objektklassen zu einer neuen Klasse zusammengefaßt bis schließlich alle Objekte in einer Klasse vereinigt sind.

Im Kap.VIII schließlich haben wir uns mit der F a k t o n n a n n i y i i

beschäftigt.

Hier werden aufgrund der Beobachtung von ρ Merkmalen an η Objekter aus einer Grundgesamtheit wenige künstliche Merkmale (Faktoren) bestimmt, die die Merkmale beschreiben. Dabei wird die Beziehung zwischen einem Merkmal und einem Faktor durch ihre Korrelation angegeben. Ist die Zahl q der Faktoren kleiner oder gleich drei, so lassen sich die MeAkmaZe q - dimensionalen Raum deA

Taktonm

graphisch -im

repräsentieren, wenn man als Koordina-

ten die Korrelationen von Merkmalen und Faktoren

verwendet; man vgl. auch

Abschnitt 1 und 2 in Kap.VIII. Im Abschnitt 3 des Kap.VIII eine Möglichkeit aufgezeigt worden, bei q O

ist dann noch

Faktoren die η Objekte gra-

phisch zu repräsentieren. Hierzu schätzt man aufgrund der Beobachtungsvektoren für die Objekte und der Korrelationen von Merkmalen und Faktoren die sogenannten Faktorenwerte, d.h. die Datenvektoren für die Öfayefe-ie bzgl.deA Faktoien,

und trägt sie in einem Koordinatensystem ab.

Bzgl. graphischer Darstellungen von Kontingunzta^ttn schnitt 6 in Kap.V und Riedwyl/Schuepbach

sei verwiesen auf Ab-

(1983); man vgl. aber auch nach-

folgende Darstellungen der Kriteriumsvariablen

"Hersteller".

610

Kapitel IX: Graphische Verfahren

2 REPRÄSENTATION EINZELNER OBJEKTE ODER MERKMALE Im ersten Abschnitt haben wir Verfahren kennengelernt, die es ermöglichen, η Objekte, an denen ρ Merkmale beobachtet wurden, (bzw. Merkmale, oder Objekte und Merkmale) gemeinsam graphisch zu repräsentieren. In diesem Abschnitt werden nun Verfahren vorgestellt, mittels derer jedei jedei

Merkmal),

veAanAchaulichX

wenden

(oder

Objekt

für das multivariate Beobachtungsdaten vorliegen,

einzeln

kann, d.h. zu jeder Datenmatrix für z.B. η Objekte

werden η Plots erstellt, die den direkten Vergleich der Objekte erlauben. Ist dabei die Datenmatrix qualitativ oder gemischt, so muß sie zunächst z.B. mit den Verfahren aus Kap.V in eine quantitative Datenmatrix

überführt

werden.

Im Abschnitt 2.1 werden zunächst sehr einfache Darstellungsformen bzw. StAex^en,

Polygonzüge,

SteAne,

Sonnen

und Glyphi)

(PAo^ile

beschrieben, die bei

der Objektrepräsentation lediglich die konkret beobachteten

Merkmalswerte

aus der Datenmatrix benutzen. Diese Verfahren können sehr leicht auch von Hand durchgeführt werden.

Bei den Verfahren aus Abschnitt 2.1 werden die einzelnen Μen.kmaJLmeM.e Strecken

(bzw. Radien.)

repräsentiert. Die Viamanten

gegen stellen die MeAkmaliwelte

du>ich Winkel

du/ich

aus Abschnitt 2.2 hin-

dar.

Im Abschnitt 2.3 wird ein komplexes Verfahren zur Darstellung von Objekten vorgestellt, nämlich die Repiäientation

mitteli

Geiichtetn.

Dabei werden

einzelnen Gesichtsteilen (z.B. Mund, Nase usw.) Merkmale zugeordnet und je nach Ausprägung eines Merkmals gezeichnet (z.B. Breite der Nase oder Form des Mundes).

Vermittels sogenannter Andfiem

- Floth,

die in Abschnitt 2.4

vorgestellt

werden, lassen sich Objekte aufgrund einer trigonometrischen Funktion darstellen. Die Koeffizienten dieser Funktion werden dabei durch die Merkmalswerte bestimmt. Stellt man solche Andrews - Plots in einem polaren Koordinatensystem dar, so ergeben sich auch sogenannte Blumen

für jedes der Objek-

te. Bei den Andrews - PIots sollten die Merkmale ihrer Wichtigkeit entsprechend angeordnet werden, wobei es jedoch keine definitive Vorschrift gibt.

Bei den Verfahren aus Abschnitt 2.5 dann werden Ähnlichkeiten bei der Repräsentation der Objekte einbezogen. Bei Bäumen, dern

den. Bwigen

Menkmale und

Qua-

werden die Merkmale, die zur Objektrepräsentation herangezogen werden

gemäß dem Ergebnis einer hierarchischen Clusteranalyse, vgl. Abschnitt 6

611

Kapitel IX: Graphische Verfahren

in Kap.VII, angeordnet. Bei der Facetten - VaMtettung

von Objekten werden die Merkmale, wie in Ab-

schnitt 2.6 beschrieben, gemäß ihren "Ol6knAjrU.na£ioniiigtnicha{l£e.n"

zwi-

schen den Objekten angeordnet. Dieses Verfahren ist insbesondere dann geeignet, wenn eine Datenmatrix für die Stufen einer Kriteriumsvariablen vorliegt, denn dann können etwa Trennmaße, vgl. Abschnitt 4 in Kap.IV, zur Bewertung der Diskriminationsgüte eines Merkmals herangezogen werden. Bei Beobachtung einzelner Objekte könnte man als Diskriminationsglitemaße hier etwa die Standardabweichungen oder die Variationskoeffizienten der Merkmale verwenden. Im Abschnitt 2.7 wird dannn schließlich noch ein Verfahren zur Objektrepräsentation vorgeschlagen, das die Korrelationen der zugrundeliegenden Merkmale berücksichtigt. Bei den

- Plot - Sonn&n werden die Korrelationen

(approximativ) durch Winkel, die beobachteten Merkmalsausprägungen durch Strecken dargestellt. Grundsätzlich ist zu bemerken, daß bei sämtlichen beschriebenen Verfahren eine "StandaicLUizMung"

der beobachteten Merkmale vonnöten ist. Die Ausprä-

gungen der Merkmale sollten dabei so transformiert werden, daß sich ihre Ausprägungen in etwa der gleichen Größenordnung bewegen. Wie man dabei konkret vorgeht, muß situationsbedingt vom sachlogischen Standpunkt aus entschieden werden. Es muß etwa berücksichtigt werden, ob absolute oder relative Schwankungen der Merkmalswerte von Interesse sind; im zweiten Fall empfiehlt es sich z.B. zu Indexzahlen überzugehen, vgl. auch Abschnitt 3. Außerdem ist zu beachten, daß bei vielen Verfahren alle verwandten Merkmalswerte positiv sein müssen. Treten in der Datenmatrix negative Werte auf, so kann man z.B. so vorgehen, daß man zu den betreffenden Spalten der Datenmatrix einen Wert addiert, der größer ist als der Absolutbetrag des Minimalwerts der jeweiligen Spalte. Als Β ζ λ Λ ρ Ι ζ Ι zu aJULzn Ve.^ahie.n

werden wir im folgenden das der fünf hito-

hzmteJLleA American Motors (1), Chrysler (2), Ford (3), General Motors (4) und (bzgl. des US - Marktes) ausländische Hersteller (5) heranziehen. Im Abschnitt 3 des Kap.V haben wir eine 5x7- Datenmatrix für diese Hersteller basierend auf den RepaAoiu/ian^öti^fee^en der äußeren Karosserie (1), der' inneren Karosserie (2), der Eisenteile der Karosserie (3), der Bremsen (4), des Automatikgetriebes (5), der Stoßdämpfer (6) und der Vorderradaufhängung (7) erstellt. Diese Datenmatrix Y*, bei der die Ausprägungen der 7 Merkmale bereits in etwa der gleichen Größenordnung liegen, ist in der

612

Kapitel IX: Graphische Verfahren

Call.3 noch einmal angegeben. Außerdem enthält die Tabelle eine Datenmatrix Y, bei der zu sämtlichen Merkmalsausprägungen der Wert Eins addiert wurde, so daß dann a l l e Werte aus Y positiv sind; im folgenden werden wir je nach Verfahren mit der Datenmatrix Y* oder Y arbeiten. Cab.3: Datenmatrizen Y* und Y für fünf Autohersteller basierend auf sieben Repa ra tu ra nfäl1i gke i tsmerkma1en Merkmal 1

2

1 2 3 4 5

0 0 Y* = 0 -0 0

452 424 063 766 658

-0 -0 -0 -0 1

1 2 3 4 5

1 1 1 0 1

452 424 063 234 658

0 0 0 0 2

Y=

3

4

6

5

7

394 - 0 752 -0 339 - 0 515 - 0 045 -0 008 - 0 309 0 358 0 524 0 518 - 0

241 - 0 355 0 472 0 638 0 643 -0 354 0 270 - 0 414 - 0 289 - 0 873 0 260 -0 360 -0 454 -0 703 1 357 1

150' 026 504 287 164 j

606 661 955 691 524

759 362 730 873 546

15θ1 026 496 713 264

0 0 0 1 1

248 485 992 358 518

0 0 0 1 0

0 1 0 1 0

645 643 596 260 297

1 0 0 0 2

472 646 711 640 357

1 1 0 0 2

J

Wir werden im folgenden stets von der Repräsentation von Objekten sprechen, aber natürlich können genauso auch Merkmale dargestellt werden, wenn man von der Transponierten einer Datenmatrix ausgeht. Abgesehen von einigen "neuen" Vorschlägen werden die meisten der hier beschriebenen Verfahren in Kleiner/Hartigan (1981) referiert bzw. dargestellt; man vgl. auch die dort angegebene Literatur. Bzgl. der Gesichterdarstellung in Abschnitt 2.3 sei hier insbesondere auf Flury/Riedwyl

2.1

EINFACHE VON

(1981,1983) hingewiesen.

DA RS Τ ΕL L UΝ G S F 0 RΜ Ε Ν BEI

MERKMALSWERTEN

DURCH

REPRÄSENTATION

STRECKEN

In diesem Abschnitt werden einige sehr einfache und daher schnell zu erstellende graphische Repräsentationsformen für Objekte vorgestellt, die l e d i g l i c h die quantitative Datenmatrix für die Objekte verwenden. Bei a l len Verfahren - mit Ausnahme der Polygonzüge - muß dabei die Datenmatrix derart transformiert werden, daß a l l e ihre Elemente positiv sind.

Kapitel IX: Graphische Verfahren

613

2.1.1 PROFILE, STREIFEN Bei der Repräsentation von Objekten durch ΡΛ,οί-cle. bzw. S f i e ^ e n

(pio&ili,

i t t l p m ) wird jedes Objekt durch ein Stabdiagramm d a r g e s t e l l t . Die Anzahl der Stäbe entspricht der Anzahl beobachteter Merkmale und die Höhe eines Stabes i s t proportional der beobachteten Ausprägung des zugehörigen Merkmals. Dabei e r f o l g t die Anordnung der Stäbe in beliebiger Reihenfolge, die jedoch für a l l e Objekte gleich sein muß. ßec6pleZ: In der Abb.8 sind die P r o f i l e von fünf Autoherstellern. darges t e l l t , wobei die Anordnung der Stäbe der Reihenfolge der Merkmale in der Datenmatrix Y* bzw. Y aus Tab.3 entspricht und die Höhe eines Stabes proportional dem zugehörigen Wert des Merkmals in der Datenmatrix Y i s t .

1 2 3 t 5 6 1

mnJ

θή

American Motors

Chrysler

IHti iL in Ford

General Motors

m ausländische Hersteller

Abb.8: P r o f i l e für fünf Autohersteller basierend auf der Datenmatrix Y für sieben Reparaturanfälligkeitsmerkmale; im ersten B i l d i s t die Anordnung der Merkmale angegeben

2.1.2 POLYGONZOGE Bei einem Polygonzug

(polygon)

für ein Objekt werden die an ihm beobachte-

ten Merkmalswerte durch Punkte angegeben, deren Höhen proportional den beobachteten Merkmalswerten sind. Dabei werden die beobachteten Merkmale in bel i e b i g e r Reihenfolge ( i n gleichen Abständen) auf der x - A c h s e angeordnet und die Punkte durch Striche miteinander verbunden. BeÄiplel:

In der Abb.9 sind Polygonzüge für die fünf Autohersteller, vgl.

Tab.3, abgetragen. Dabei wurden die Merkmale in der Reihenfolge belassen, wie s i e in den Datenmatrizen Y* und Y auftauchen und die Höhen der Punkte sind proportional den Werten in der Matrix Y* aus Tab.3.

ι

614

Kapitel IX: Graphische Verfahren

1 2 3 4 5 6 7

American Motors

Chrysler

General Motors

Ford

ausländische Hersteller

Abb.9: Polygonzüge f ü r f ü n f A u t o h e r s t e l l e r b a s i e r e n d auf sieben Reparatura n f ä l l i g k e i t s m e r k m a l e n , v g l . auch d i e Datenmatrix Y* aus Tab.3; im e r s t e n B i l d i s t d i e Anordnung der Merkmale angegeben

2 . 1 . 3 STERNE S t e l l t man Polygonzüge in einem polaren Koordinatensystem d a r , wobei

aller-

d i n g s von nur p o s i t i v e n Merkmalswerten ausgegangen werden muß, so ergeben s i c h d i e sogenannten S-teAne (itau).

Dazu wird e i n K r e i s in ρ g l e i c h g r o ß e

Sektoren a u f g e t e i l t ( f a l l s ρ Merkmale beobachtet wurden), d . h . jeder Sekt o r hat einen Winkel von 360°/p und den ρ B e g r e n z u n g s l i n i e n der Sektoren wird j e w e i l s e i n e s der Merkmale ( i n b e l i e b i g e r R e i h e n f o l g e )

zugeordnet.

Einem Merkmalswert wird dann e i n Punkt auf der entsprechenden Begrenzungsl i n i e zugeordnet, dessen Entfernung vom K r e i s m i t t e l p u n k t p r o p o r t i o n a l

zum

Merkmalswert i s t . Die insgesamt ρ Punkte werden dann durch Strecken v e r bunden und das entstehende ρ - Eck i s t der einem Objekt zugeordnete S t e r n .

BeAAp-Lzl: Geht man von der Datenmatrix Y aus Tab.3 a u s , so l a s s e n

sich

Sterne f ü r die f ü n f A u t o h e r s t e l 1 er zeichnen. Diese s i n d in Abh.10 darges t e l l t , wobei das e r s t e B i l d in der Abbildung die A u f t e i l u n g des K r e i s e s in ρ = 7 Sektoren mit Winkel 360°/p= 51.42857° sowie die Anordnung der Merkmale a n g i b t . D i e s e r K r e i s und s e i n e E i n t e i l u n g s i n d in den übrigen B i l d e r n durch d i e etwas schwächeren L i n i e n angedeutet.

2 . 1 . 4 SONNEN Bei den in A b s c h n i t t 2 . 1 . 3 beschriebenen Sternen können d i e Objekte nur dann ( v i s u e l l )

r i c h t i g b e u r t e i l t werden, wenn man den B e z u g s k r e i s oder zu-

mindest dessen M i t t e l p u n k t im B i l d mitandeutet. Daher schlagen wir a l s Mod i f i k a t i o n der Sterne h i e r Sonnm

(&uni)

a l s graphische

Repräsentations-

form v o r . Wie bei den Sternen wird ein ( i m a g i n ä r e r ) K r e i s in ρ Sektoren e i n g e t e i l t , und auf jeder B e g r e n z u n g s l i n i e der Sektoren w i r d in b e l i e b i g e r

ι |

Kapitel IX: Graphische Verfahren

615

7

Abb.10: Sterne f ü r fünf A u t o h e r s t e l l e r basierend auf den Werten von sieben Reparaturanfälligkeitsmerkmalen ausgehend von der Datenmatrix V; das erste B i l d g i b t die K r e i s e i n t e i l u n g sowie die Merkmalsanordnung an

Anordnung ein Merkmalswert durch die Strecke abgetragen, deren Länge proportional dem Wert s e l b s t i s t ; die Endpunkte der Strecke werden noch gesondert z.B. durch Kreise oder P f e i l e markiert. BeXip-teX: Wiederum ausgehend von der Datenmatrix Y aus Tab.3 sind in Abb.11 Sonnen f ü r fünf A u t o h e r s t e l l e r basierend auf sieben

Reparaturanfälligkeits-

merkmalen d a r g e s t e l l t , wobei die Endpunkte der Strecken durch Kreise mark i e r t s i n d ; das erste B i l d der Abbildung g i b t wie schon bei den Sternen die Zuordnung der sieben Merkmale zu den Begrenzungslinien der Sektoren an. Im Abschnitt 2.7 wird eine M o d i f i k a t i o n der Sonnen dahingehend v o r g e s t e l l t , daß die Anordnung der Merkmale und die K r e i s a u f t e i l u n g (Winkel zwischen den Merkmalen) aufgrund i h r e r Korrelationen e r f o l g t .

616

Kapitel IX: Graphische

Merkmalsanordnung

Ford

Verfahren

American Motors

General Motors

Chrysler

ausländische

Hersteller

Abb.11: Sonnen f ü r fünf A u t o h e r s t e l l e r basierend auf den Werten der Matrix Y von sieben Reparaturanfälligkeitsmerkmalen; das erste B i l d g i b t h i e r die Merkmalszuordnung an

2.1.5 GLYPHS Glyphs werden in zwei verschiedenen Formen verwandt, denen gemeinsam i s t , daß die an einem Objekt beobachteten ρ Merkmal sausprägungen a l s Strecken ausgehend vom Rand eines K r e i s e s mit beliebigem Radius abgetragen werden. Dazu wird etwa das obere Sechstel der Kreisbegrenzung in p-1 Teilstücke u n t e r g l i e d e r t . Ausgehend von den ρ Punkten, die die E i n t e i l u n g angeben, werden die Strecken in b e l i e b i g e r Reihenfolge dann so abgetragen, daß - würde man s i e in den Kreis h i n e i n verlängern - s i e den Mittelpunkt des Kreises schneiden. Bei der ersten Form der Glyphs sind die Strecken gerade proportional

den beobachteten ( p o s i t i v e n ) Merkmalswerten; bei der zweiten

Form werden a l l e Merkmalswerte in einer Datenmatrix in drei gleiche Teile aufgespalten. Die Werte im größenmäßig unteren D r i t t e l werden durch Punkte auf der K r e i s l i n i e , die im mittleren D r i t t e l

durch Strecken f e s t e r Länge c

und die im oberen D r i t t e l durch Strecken der Länge 2c d a r g e s t e l l t .

Kapitel IX: Graphische Verfahren

617

B e i s p i e l : Ausgehend von der Datenmatrix Y aus Tab.3 sind in Ahb.12 beide Arten von Glyphs f ü r fünf Autohersteller basierend auf sieben Reparaturanfälligkeitsmerkmalen d a r g e s t e l l t . Bei der ersten B i l d z e i l e werden die Merkmalswerte durch Punkte sowie Strecken der Länge c bzw. 2c wiedergegeben und bei der zweiten B i l d z e i l e sind die Strecken proportional den Werten aus Y. Im ersten B i l d der ersten B i l d z e i l e i s t außerdem die Anordnung der Merkmale angegeben.

American Motors

Chrysler

Ford

General Motors

ausländische Hersteller

Abb.12: Glyphs f ü r fünf Autohersteller basierend auf sieben Reparaturanf a l l igkeitsmerkmalen; Zeile 1: Darstellung der Merkralswerte durch Punkte und Strecken der Länge c bzw. 2c, Zeile 2: Streckenlänge proportional zum Merkmalswert

2.2

DARSTELLUNG

VON

OBJEKTEN

VERMITTELS

DIAMANTEN

Im Abschnitt 2.1 wurden die an einem Objekt beobachteten Merkmalswerte im wesentlichen durch Strecken d a r g e s t e l l t . Eine andere Repräsentationsform, nämlich Winkel, verwenden die ΌΙΟΜΜΧΖΠ

{diamonds),

die wir hier zur Ob-

jektrepräsentation vorschlagen wollen. Sind an jedem von η Objekten ρ (pos i t i v e ) Merkmalswerte beobachtet worden, so wird zunächst die Summe der Merkmalswerte am i - t e n Objekt ![ y.:,· j=1 1 J

für 1 = 1 , . . . ,n

ι

Kapitel IX: Graphische Verfahren

618

bestimmt. Nun w i r d e i n K r e i s , dessen Radius f ü r das i - t e Objekt p r o p o r t i o nal der Summe s e i n e r Merkmalswerte i s t , in ρ Sektoren z e r l e g t , deren Winkel p r o p o r t i o n a l

zu den beobachteten Merkmalswerten i s t , wobei die Reihen-

f o l g e der Merkmale b e l i e b i g gewählt werden kann. Für das i - t e Objekt

ist

dann der Winkel des S e k t o r s zum j - t e n Merkmal gerade

a

ij

= y

ij

, 3 6 0 O

/Ji

yi

J

« i = 1 , . . . , n , j=1

ρ

.

Die Punkte auf der K r e i s b e g r e n z u n g s l i n i e , d i e d i e Sektoren angeben, werden dann durch Strecken miteinander verbunden; die K r e i s b e g r e n z u n g s l i n i e

sel-

ber w i r d in der Zeichnung n i c h t mit e i n g e t r a g e n .

Beyiip-iet: B a s i e r e n d auf der Datenmatrix Y f ü r f ü n f A u t o h e r s t e i l e r ,

vgl.

Tab.3, wollen wir die Diamanten f ü r d i e H e r s t e l l e r bestimmen. Dazu berechnen w i r f ü r jeden H e r s t e l l e r i ( i = 1 , . . . , 5 ) d i e Summe der Merkmalswerte (Zeilensummen der M a t r i x Y) sowie d i e Winkel

der den sieben

R e p a r a t u r a n f a l l i g k e i t s m e r k m a l e n zugeordneten Sektoren, v g l . h i e r z u Cah.4. Die s i c h aus der T a b e l l e ergebenden Diamanten s i n d i n Abb.13 d a r g e s t e l l t , wobei im e r s t e n B i l d auch die Zuordnung der Merkmale zu den Sektoren angegeben

ist.

Cab.4: A r b e i t s t a b e l l e zur D a r s t e l l u n g von f ü n f A u t o h e r s t e l l e r n durch D i a manten Hersteller

i

»U a a

i2

a

i3

a

i4

a

2.3

i 1

i 5

a

i6

a

i7

2

1 6 332

6 247 '

3

4

5 543

6 769

5 11 164

82 5 5 2 °

82 0 6 2 °

69 1 6 3 °

12 4 4 5 °

53 9 4 8 °

34 4 5 4 °

38 0 9 2 °

62

136°

36 7 5 0 °

82

14 1 0 0 °

27 9 5 0 °

64 5 4 4 °

72 2 2 3 °

49 392° 17 7 6 6 °

43

126°

152°

20 8 6 1 °

47 4 9 7 °

99 6 1 3 °

36 6 7 1 °

94 6 8 2 °

38

128°

67 0 1 1 °

9 664°

83 6 8 9 °

37 2 2 7 °

46 2 6 0 °

34 0 3 8 °

76 6 9 2 °

65 3 8 2 °

39 1 2 6 °

32 2 7 2 °

37 9 2 0 °

70 4 1 2 °

DARSTELLUNG

VON

OBJEKTEN

MITTELS

GESICHTERN

Hat man an η Objekten ρ Merkmale beobachtet, so l a s s e n s i c h d i e Objekte durch η Gei-ichteA

(fjace*) r e p r ä s e n t i e r e n , wenn man den G e s i c h t s t e i l e n un-

t e r s c h i e d l i c h e Merkmale zuordnet. Die e r s t e d e r a r t i g e G e s i c h t e r - D a r s t e l -

J

619

Kapitel IX: Graphische Verfahren

American Motors

Ford

Chrysler

General Motors

ausländische Hersteller

Abb.13: Diamanten f ü r fünf A u t o h e r s t e l l e r basierend auf sieben Reparaturanfäl1igkeitsmerkmalen; im ersten B i l d i s t die Zuordnung der Merkmale zu den Sektoren angegeben

lung, sogenannte CheAnofä - iaceA , geht auf Chernoff (1971, 1973) zurück; s i e haben den N a c h t e i l , daß die einzelnen G e s i c h t s t e i l e n i c h t unabhängig voneinander v a r i i e r t werden können, v g l . z.B. Flury/Riedwyl

(1981).

Eine G e s i c h t e r d a r s t e l l u n g , die diesen Mangel n i c h t a u f w e i s t , wollen wir hier kurz beschreiben. S i e wurde von Flury/Riedwyl

(1981) entwickelt, die

uns dankenswerterweise auch das entsprechende Programm zur Verfügung ten.

D i e f l u i y - Rlzdwyl

-

facti

ermöglichen

die Repräsentation

stell-

von b i s

36 Merkmalen, denn es können je G e s i c h t s h ä l f t e 18 G e s i c h t s t e i l e

zu

variiert

werden: Augengröße, Pupillengröße, P u p i l l e n p o s i t i o n , Neigung der Augen, senkrechte Augenposition, waagerechte Augenposition (Höhe), Krümmung der Augenbraue, Dichte der Augenbraue, senkrechte P o s i t i o n der Augenbraue, waagerechte P o s i t i o n der Augenbraue (Höhe), obere Haarbegrenzung, untere Haarbegrenzung, G e s i c h t s l i n i e , Stärke der H a a r s c h r a f f u r , Neigungswinkel der Haarschraffur, Nase, Größe des Mundes, Krümmung des Mundes. Die Parameter der Funktionen, die die G e s i c h t s t e i l e beschreiben, können Werte zwischen Null und Eins annehmen, so daß die Merkmalswerte für η Objekte (bzw. die zugehörige Datenmatrix) zunächst in folgender A r t und Weise s t a n d a r d i s i e r t werden müssen: Von jeder Spalte der Datenmatrix wird der Minimalwert in der Spalte s u b t r a h i e r t und die entstehenden Werte werden durch die Spannweite der ursprünglichen Spalten d i v i d i e r t : y. . - y. . . τj min * ii ii Jyν ·_ -- νν .· ° j max J j mm

Die beiden Extrem-Gesichter ( a l l e Funktionsparameter g l e i c h Null bzw. g l e i c h

620

Kapitel IX: Graphische Verfahren

Eins) sowie das m i t t l e r e Gesicht ( a l l e Funktionswerte g l e i c h 0.5) s i n d in der Abh.14 d a r g e s t e l l t .

Ahb.14: Extrema und Mittel der Flury - Riedwyl - faces ( l i n k e s B i l d : a l l e Parameter E i n s , m i t t l e r e s B i l d : a l l e Parameter N u l l , rechtes B i l d : a l l e Parameter 0.5) Werden weniger a l s 35 Merkmale an η Objekten beobachtet, so können z.B. e i n i g e Gesichtsparameter konstant gehalten werden oder ein Merkmal mehreren Gesichtsparametern zugeordnet werden; bei weniger a l s 18 Merkmalen können zudem symmetrische Gesichter gewählt werden. Bei weniger a l s 18 Merkmalen besteht auch

die M ö g l i c h k e i t , eine G e s i c h t s h ä l f t e a l s einen konstanten

Standard zu wählen. Zu bemerken i s t , daß n a t ü r l i c h die Erscheinungsform der Gesichter sehr stark von der Merkmalsanordnung abhängt. Insbesondere s o l l t e n den ins Auge springenden G e s i c h t s t e i l e n wie G e s i c h t s l i n i e oder Haarschraffur w e s e n t l i che Merkmale zugeordnet werden, der P u p i l l e z.B. hingegen ein nicht so wes e n t l i c h e s Merkmal. Wird ein G e s i c h t s t e i l

( z . B . das Auge) durch mehrere

Parameter bestimmt, so s o l l t e n diesen Parametern hochkorrel ierte Merkmale zugeordnet werden. Eine a u s f ü h r l i c h e Darstellung nebst interessanten Anwendungen f i n d e t man in dem Buch von Flury/Riedwyl (1983) und in Flury/ Riedwyl

(1984).

Be.i,iii-LeJL: In der Tab.3 i s t eine Datenmatrix Y* für fünf A u t o h e r s t e l l e r basierend auf sieben Reparaturanfälligkeitsmerkmalen angegeben. Für diese A u t o h e r s t e l l e r sind in

Abb.15 und Abb.16 Flury - Riedwyl - faces d a r g e s t e l l t .

Hier wurden jeweils symmetrische Gesichter verwandt und nur 9 der dann zur Verfügung stehenden Gesichtsparameter v a r i i e r t ; die übrigen 9 Parameter wurden konstant auf 0.5 gehalten. Die Zuordnung der

Reparaturanfälligkeits-

merkmale zu den 9 v a r i i e r t e n Gesichtsparametern i s t in Cab.5 angegeben.

622

Kapitel IX: Graphische Verfahren

tab.5: Zuordnung von sieben Reparaturanfälligkeitsmerkmalen zu den Gesichtsparametern der Flury - Riedwyl - faces für fünf Autohersteller in Abb.15 und 16

Gesichtsparameter

Merkmal

in Abb.15

Merkmal

1 2 3 4 5 6 7

Augengröße Krümmung und Größe des Mundes Nase obere und untere Haarbegrenzung Stärke der Haarschraffur Dichte der Augenbraue Gesichtslinie

in Abb.16 7 1 4 6 2 5 3

Schon aus den Abb.15 und 16 wird deutlich, wie stark die Darstellung

von

der Zuordnung der Merkmale beeinflußt ist, obwohl hier in beiden Fällen



nur neun gleiche Gesichtsparameter variiert werden.

|

2.4

DARSTELLUNG

VON

OBJEKTEN

DURCH

TRIGONOMETRISCHE

FUNKTIONEN

Bei den bisherigen Typen von Objektdarstellungen wurde jeder beobachtete Merkmalswert einzeln repräsentiert (war direkt aus der Darstellung ablesbar). Hier werden nun zwei Darstellungsformen vorgestellt, dei denen dies nicht mehr der Fall

ist, sondern vielmehr alle Merkmalsausprägungen

gemein-

sam das gesamte Bild bestimmen und somit einen Gesamteindruck von der Verschiedenheit der Objekte entstehen lassen.

2.4.1 ANDREWS - PLOTS

Bei den Andiem

- Ploti,

die von Andrews ( 1972) zur Repräsentation mehrdi-

mensionaler Daten entwickelt wurden, wird jedes von η Objekten durch eine trigonometrische Funktion (Summe von Sinus- und Kosinusschwingungen) gestellt. Für das i-te Objekt (i = 1

dar-

n) ist diese Funktion

f,.(t) = c, •/v r 2 + c-.-sin t + c-, .-cos t + c. .-sin 2t + c c i - c o s 2t 1 II L\ Ol 41 Ol + c i -.*sin3t+ c 7 - * c o s 3 t + c 0 - ' s i n 4 t + Ol /I öl

...

,

wobei t alle Zahlen zwischen -π und π durchläuft. Die Koeffizienten c

1i>c2i»···»cpi

entsprechen den nicht notwendigerweise positiven Merkmals-

werten von ρ an den Objekten beobachteten Merkmalen. Die Zuordnung der Merkmale zu den Koeffizienten ist dabei beliebig, sollte jedoch so gewählt wer-

Kapitel IX: Graphische Verfahren

623

den, daß w i c h t i g e Merkmale den e r s t e n und weniger w i c h t i g e Merkmale den l e t z t e n K o e f f i z i e n t e n zugeordnet werden. Die Andrews - P l o t s können dann e i n z e l n oder bei g e r i n g e r Zahl von Objekten auch i n einem gemeinsamen B i l d gezeichnet werden. BesUpieZ: Für f ü n f A u t o h e r s t e l l e r s o l l e n ausgehend von der Datenmatrix Y* aus Tab.3 Andrews - P l o t s b a s i e r e n d auf sieben

Reparaturanfälligkeitsmerk-

malen e r s t e l l t werden. Um die Auswirkung u n t e r s c h i e d l i c h e r

Merkmalsanord-

nungen zu demonstrieren, haben w i r h i e r zwei u n t e r s c h i e d l i c h e

Anordnungen

gewählt. Bezeichnet y i j f ü r i = 1 , . . . , 5 und j = 1 , . . . , 7 den Merkmalswert des j - t e n R e p a r a t u r a n f a l l i g k e i t s m e r k m a l s am i - t e n Objekt, so i s t in Abb.17 d i e Anordnung 2 , 4 , 6 , 7 , 1 , 3 , 5 , d.h. d i e Funktionen +

f.j(t) =

y * 4 ' s i n t + y * 6 * c o s t + y ^ y s i n 2t + y ^ ' c o s 2t -

+ y * 3 s i n 3t + y i g * c o s 3t für i = 1

5 im I n t e r v a l l

[ - π , π ] d a r s t e l l t , und in Abb.18 wurde die Anord-

nung der Merkmale in der Datenmatrix b e i b e h a l t e n , d.h. es r

r

ist

-

f i ( t ) = y t 1 / v ? + y * 2 s i n t + y i y c o s t + y ^ - s i n 2t + y* 5 'COS 2t + yig-sin3t+ f ü r i = 1 , . . . , 5 im I n t e r v a l l

yi7-cos3t

[-ττ,ττ] gezeichnet worden.

2 . 4 . 2 BLUMEN Β I w m m (&lowzJui)

s i n d Andrews - P l o t s , d a r g e s t e l l t

natensystem. H i e r wird f ü r jedes Objekt i ( i = 1 ?η·(ί) - f ^ t ) + c wobei f i

in einem polaren K o o r d i ,n) d i e Funktion

f ü r t e [-π,π]

die Funktion f ü r Andrews - P l o t s aus A b s c h n i t t 2 . 4 . 1 b e z e i c h n e t ,

und c eine Konstante mit c > |

min f,(t)| t £ [-τι,π] 1 i=l,...,n

i s t (um das B i l d n i c h t zu v e r f ä l s c h e n , s o l l t e c etwa g l e i c h diesem Wert g e wählt werden), im polaren Koordinatensystem d a r g e s t e l l t , v g l . h i e r z u Abb.19.

Bz-iipl&l:

I n der Abb.20 s i n d die Blumen f ü r f ü n f A u t o h e r s t e l l e r

basierend

auf sieben R e p a r a t u r a n f a l l i g k e i t s m e r k m a l e n d a r g e s t e l l t . Dabei wurde von der Datenmatrix Y* aus Tab.3 ausgehend die Funktion

626

Kapitel IX: Graphische Verfahren

f i ( t ) = y * 2 / V ~ ? + y * 4 - s i n t + yig-cos t + y ] 7 * s i n 2t + y ^ - c o s 2t + y*2'Sin3t + y*5-cos3t +2.4 für i = 1

5 und t e [-π,π] in einem polaren Koordinatensystem dargestellt.

American Motors

, Chrysler

_ , Ford

Q

General Motors

ausländische Hersteller

Ό

Abh.20: Blumen für fünf Autohersteiler basierend auf sieben Reparaturanfall igkeitsmerkmalen in der Anordnung 2,4,6,7,1,3,5; vgl. Tab.3 und Abb.17

2.5

DARSTELLUNG DER

VON

OBJEKTEN

UNTER

BERÜCKSICHTIGUNG

M E R K M A L S Ä H N L I C Η Κ Ε IΤ Ε Ν

Bisher spielte die Anordnung der ρ an η Objekten beobachteten Merkmale bei der graphischen Darstellung der Objekte eine sehr untergeordnete Rolle. In diesem Abschnitt nun sollen Verfahren vorgestellt werden, die die Ähnlichkeiten von Merkmalen bei ihrer Anordnung berücksichtigen; bei allen drei behandelten Methoden muß eine Datenmatrix für die Objekte verwandt werden, die nur positive Werte enthält.

Als Maß für die Ähnlichkeit oder besser Verschiedenheit zweier Merkmale kann z.B. ihr euklidischer Abstand oder ihre betragliche Korrelation verwandt werden.

Ist

627

Kapitel IX: Graphische Verfahren

y

11

" ·

y

1p

y

2i

···

y

2p

*-yn1

""

y

np-

Y=

eine ηχρ - Datenmatrix f ü r η Objekte, an denen ρ Merkmale beobachtet wurden, so i s t der e u k l i d i s c h e Abstand zweier Merkmale j , k e { 1 , . . . , p }

und i h r e b e t r a g l i c h e

gerade

Korrelation

irJk\-\(l

I ' M - y ^ ' i k - W f t h

{

W i

)

2

X h

(y

ik-yk)2)|

.

wobei y . bzw. y. den M i t t e l w e r t der j - t e n bzw. k - t e n S p a l t e von Y bezeichnet: J κ y

j

=

1 n n ^

y

ij

'

y

k

=

1 η

n y

ik

'

Unter Verwendung e i n e r s i c h ergebenden D i s t a n z m a t r i x f ü r d i e Merkmale - d i e s kann z . B . die M a t r i x der e u k l i d i s c h e n Distanzen d ( j , k ) oder d i e M a t r i x der 2 Unbestirrmtheitsmaße 1 - I r ^ l s e i n - wird dann eine h i e r a r c h i s c h e C l u s t e r a n a l y s e f ü r die ρ Merkmale, v g l . A b s c h n i t t 6 in K a p . V I I , d u r c h g e f ü h r t und das zugehörige Dendrogramm e r s t e l l t ; K l e i n e r / H a r t i g a n (1981) empfehlen, dabei das Verschiedenheitsmaß

"complete l i n k a g e " , v g l . A b s c h n i t t 2 in

K a p . V I I , zu verwenden. Da wir d i e Methoden des A b s c h n i t t s 2 . 5 wieder am B e i s p i e l s t e l l e r demonstrieren w o l l e n , s o l l

der f ü n f Autoher-

die h i e r a r c h i s c h e C l u s t e r a n a l y s e f ü r die

sieben R e p a r a t u r a n f ä l l i g k e i t s m e r k m a l e b e r e i t s an d i e s e r S t e l l e

durchgeführt

werden. B e X i p i n t : Unter Verwendung der M a t r i x der Unbestimmtheitsmaße der sieben Reparaturanfalligkeitsmerkmale 0.000 0.789 0.880 D = 0.131 0.849 0.597 0.578

0.789 0.000 0.558 0.911 0.579 0.298 0.286

0.880 0.558 0.000 0.831 0.943 0.919 0.910

0.131 0.911 0.831 0.000 0.963 0.879 0.836

0.849 0.579 0.943 0.963 0.000 0.448 0.783

0.597 0.298 0.919 0.879 0.448 0.000 0.137

0.578 0.286 0.910 0.836 0.783 0.137 0.000

v g l . auch A b s c h n i t t 2 in Kap.VI und A b s c h n i t t 4 . 2 in K a p . V I I , e r g i b t

sich

durch das C l u s t e r a n a l y s e - Verfahren aus A b s c h n i t t 6 in K a p . V I I mit dem Ver-

628

Kapitel IX: Graphische Verfahren

schiedenheitsmaß "complete linkage" eine Hierarchie mit den Klassen K 1 = {1 > , K 2 = {4}, Kj ± {3}, K 4 = {6}, Kg = {7}, Kg = {2}, K ? = {5}, Kg = F = {1,4}, Kg = Ε = {6,7}, K 1 q = D = {2,6,7}, K ^ = C = {2 ,5,6,7}, K 1 2 = B = {1,3,4}

und

K 1 3 = A = {1,2,3,4,5,6,7}

deren Dendrogramm in Abb.21 dargestellt ist. In diesem Dendrogramm sind die Gütemaße g auf den einzelnen Stufen der Hierarchie direkt mitangegeben.

U u

1

U

F

0 0.137- 0.131 0.29 8

0.183 •0.880 0.963 9 Abb.21: Dendrogramm für sieben Reparaturanfälligkeitsmerkmale von PKW's unter Verwendung ihrer Unbestimmtheitsmaße und "complete linkage"

2.5.1 QUADER Quad&ti (boxii)

eignen sich zur Repräsentation von Objekten, falls die Zahl

ρ der interessierenden Merkmale nicht allzu groß ist. Die ρ Merkmale werden in drei möglichst homogene Gruppen aufgeteilt und jeder Gruppe wird eine der Dimensi onen Höhe, Breite und Tiefe des Quaders zugeordnet. Konkret kann die Einteilung in drei Gruppen mittels des Clusteranalyse - Verfahrens für Partitionen aus Abschnitt 4.1 gewonnen werden, oder man wählt die Gruppen gemäß der Complete - 1inkage - Hierarchie, indem man die Gruppen benutzt, die auf der Stufe der Hierarchie, die aus drei Klassen besteht, entstanden sind. Innerhalb der drei Gruppen werden die Merkmale nun in einer Reihe angeordnet, wobei wiederum die Ähnlichkeiten der Merkmale berücksichtigt werden sollten. Die Kantenlängen des Quaders für das i-te Objekt (i-1

n) sind dann ge-

ι

Kapitel IX: Graphische Verfahren

629

rade proportional der Summe der an ihm beobachteten Merkmalswerte d e r j e n i gen Merkmale, die der Dimension des Quaders zugeordnet s i n d . Die einzelnen Kanten werden dann noch proportional den einzelnen Merkmalswerten am i - t e n Objekt a u f g e t e i l t . Dadurch erhalten die Quader die G e s t a l t von

Paketm.

B&UpleA: Im B e i s p i e l der A u t o h e r s t e l l e r i s t die d r e i k l a s s i g e P a r t i t i o n

in-

nerhalb der Complete - 1 inkage - H i e r a r c h i e , v g l . Abb.21, durch die Klassen K 3 = { 3 } , Kg = F = {1,4} und

K ^ = C = {2,5,6,7}

gegeben. Ordnen wir nun der Dimension "Höhe" des Quaders die Klasse K ^ der Merkmalsanordnung (von unten nach oben) 5 , 6 , 7 , 2 , der Dimension

mit

"Breite"

die Klasse Kg mit der Merkmalsanordnung (von l i n k s nach rechts) 1,4 und der Dimension " T i e f e " die K l a s s e K^, die nur das Merkmal 3 e n t h ä l t , zu, so e r geben s i c h für die fünf A u t o h e r s t e l l e r unter Verwendung der Datenmatrix Y aus Tab.3 die in Abb.22 d a r g e s t e l l t e n Quader.

1

u

American Motors

Chrysler

Ford

Qeneral Motors

ausländische Hersteller

Abb.22: Quader f ü r fünf A u t o h e r s t e l l e r unter Verwendung von sieben Reparat u r a n f a l l igkeitsmerkmalen; die Merkmalsanordnung i s t im ersten B i l d angegeben

2.5.2 BÄUME Sind bei den Quadern noch Wahlfreiheiten bei der Anordnung der Merkmale gegeben, z.B. kann die Zuordnung der Merkmalsgruppen zu den Dimensionen des

ι

630

Kapitel IX: Graphische Verfahren

Quaders b e l i e b i g e r f o l g e n , so s i n d die V o r s c h r i f t e n bei der R e p r ä s e n t a t i o n von Objekten durch Bäume {üizu)

d e r a r t , daß eine nahzu e i n d e u t i g e Anord-

nung der Merkmale e r f o l g t . Diese Bäume, die auf K l e i n e r / H a r t i g a n zurückgehen und die deshalb auch mitunter KlzineA

(1981)

- Hcuvtigan - ttiZA

genannt

werden, verwenden das Dendrogramm der H i e r a r c h i e flir d i e ρ an η Objekten beobachteten Merkmale und verwandeln es in einen Baum bestehend aus einem Stamm und s i c h nach oben verjüngenden Ästen. Die S t r u k t u r e i n e s

solchen

Baumes i s t abgesehen von der Länge des Stammes und der Äste f ü r jedes Objekt gleich.

Beginnend mit dem unteren Stammende, iri dem a l l e Merkmale zusammengefaßt s i n d , e r f o l g t s u k z e s s i v e die A u f s p a l t u n g der Merkmale in Merkmalsgruppen (Äste) gemäß der durch d i e H i e r a r c h i e vorgegebenen R e i h e n f o l g e b i s

schließ-

l i c h den oberen Ästen die einelementigen Klassen ( e i n z e l n e Merkmale) der H i e r a r c h i e zugeordnet s i n d , v g l . auch das nachfolgende B e i s p i e l .

Zunächst

e r f o l g t n a t ü r l i c h eine A u f s p a l t u n g des Stammes in zwei T e i l e , die durch d i e z w e i k l a s s i g e S t u f e der H i e r a r c h i e gegeben w i r d . Diese T e i l e werden dann wie im Dendrogramm j e w e i l s weiter a u f g e s p a l t e n . E i n A s t e n t s p r i c h t

somit

der V e r b i n d u n g s s t r e c k e zwischen zwei- Klassen im Dendrogramm.

Die B r e i t e jedes A s t e s (und des Stammendes) wird nun p r o p o r t i o n a l

der An-

zahl der in ihm v e r e i n i g t e n Merkmale gewählt. E i n i g e Äste werden dann dem Stamm zugerechnet. Bei der A u f s p a l t u n g des Stammendes i s t d i e s der b r e i t e r e der beiden Ä s t e ; wird d i e s e r Teil des Stammes weiter a u f g e s p a l t e n , so w i r d wiederum der b r e i t e r e der Äste zum Stamm gewählt usw. b i s s c h l i e ß l i c h auch der Stamm in zwei Ä s t e , denen j e w e i l s nur e i n Merkmal zugeordnet i s t ,

zer-

f ä l l t . Wird der Stamm auf e i n e r Stufe in zwei g l e i c h b r e i t e Äste u n t e r t e i l t , so kann e i n e r von ihnen a l s Stammfortsetzung gewählt werden.

Wird e i n Ast oder e i n Teil

des Stammes g e t e i l t , so muß der Winkel

zwischen

den beiden T e i l e n f e s t g e l e g t werden. Dazu wählt man zunächst einen maximalen Winkel α ( z . B . a = 80°) f ü r d i e A u f s p a l t u n g des Stammendes und einen minimalen Winkel @ ( z . B . β = 3 0 ° ) , der derjenigen A u f s p a l t u n g e i n e r zweielementigen K l a s s e zugeordnet w i r d , bei der die beiden einelementigen

Klas-

sen s i c h am ä h n l i c h s t e n s i n d , die die g e r i n g s t e H e t e r o g e n i t ä t aufweisen. A l l e n übrigen Winkeln werden dann Werte zwischen α und β in f o l g e n d e r A r t und Weise zugeordnet. Die H e t e r o g e n i t ä t zweier K l a s s e n , die auf e i n e r S t u fe der H i e r a r c h i e zusammengefaßt werden, i s t gerade die

Verschiedenheit

d i e s e r K l a s s e n , h i e r gemessen m i t t e l s des Verschiedenheitsmaßes

"complete-

l i n k a g e " , v g l . A b s c h n i t t 6 i n K a p . V I I . Bezeichnen wir d i e mehrelementigen Klassen der H i e r a r c h i e f ü r ρ Merkmale mit A , B , C , . . .

, wobei Α die p-elemen-

631

Kapitel IX: Graphische Verfahren

tige Klasse bezeichnet, Β die als vorletzte zusammengefaßte Klasse von Merkmalen, C die als drittletzte zusammengefaßte Klasse u s w . , und benennen wir die Heterogenitäten der jeweils zusammengefaßten Klassen mit g^,g B ,gj,,... C

, so berechnen sich die Winkel

gemäß

x = [ß(ln(g A +1) - l n ( g x + 1 ) ) + a ( l n ( g x + 1 ) - l n ( g m i n + 1 ) ) ] /[ln(gA+l)-ln(gmin+1)]

für X = B,C,... .wobei g .

die Heterogenität der zuerst

zusammengefaßten

Klassen mit zugeordnetem Winkel β bezeichnet. Die Aufspaltung eines Winkels rechts und links der Vertikalen erfolgt gemäß der Breite der jeweiligen Äste. Wird ein Ast aufgespalten, so werden Teilwinkel

proportional

den bei-

den Astbreiten gewählt, wird der Stamm aufgespalten, so werden sie umgekehrt proportional

den beiden Breiten

festgelegt.

Nun müssen die Richtungen von Ästen und Stamm an den Aufspaltungen

festge-

legt werden. Die Richtung des Stammes wird von Aufspaltung zu Aufspaltung umgekehrt, was zusammen mit der Wahl des Winkels bewirkt, daß der Stamm möglichst senkrecht verläuft. Bei der Aufspaltung eines Astes wird der breitere Teilast stets nach außen, der schmalere Teilast stets in Richtung des Stammes weitergeführt, wodurch Überschneidungen im Baum vermieden werden .

Damit ist nun die Struktur der Bäume für eine Menge von Objekten festgelegt, nur die Astlängen und Starmilängen sind noch variabel und werden für jedes Objekt abhängig von den an ihm beobachteten Merkmalswerten

festge-

setzt. Die Länge eines Astes oder Stammteiles für das i-te Objekt (i=1,...,n) wird proportional

dem Mittelwert der zugehörigen Merkmalswerte gewählt.

Insbesondere ist also die Länge des Stammendes proportional

dem Mittelwert

aller am Objekt beobachteten Merkmalswerte, und die Astlängen derjenigen Äste, denen nur ein einziges Merkmal zugeordnet ist, sind proportional beobachteten

ΒίΛΔρΙζΖ:

dem

Merkmalswert.

In Abb.21

ist das Dendrogramm für sieben

Reparaturanfälligkeits-

merkmale, die bei fünf Autoherstellern beobachtet wurden, dargestellt. Wir wollen nun die Kleiner - Hartigan - trees für die fünf Autohersteller

bestim-

men.

In der Klasse Α sind alle sieben Merkmale zusammengefaßt. Das Stammende reicht also vom Nullpunkt 0 bis zum Punkt A , wo es aufgespalten wird in den Ast mit den Merkmalen 1,3,4 und dem Stammteil mit den Merkmalen

2,5,6,7.

Der Stammteil wird dann im Punkt C aufgespalten in den A s t , der nur das

632

Kapitel IX: Graphische Verfahren

Merkmal

5 enthält und einen weiteren Teil des Stammes mit den Merkmalen

2,6,7. Dieser wiederum teilt sich im Punkt D in den Ast m i t Merkmal

2 und

den Stammteil mit den Merkmalen 6 und 7, der schließlich im Punkt C in die Äste mit den Merkmalen 6 bzw. 7 zerfällt. Weiterhin wird der Ast mit den Merkmalen 1,3,4 im Punkt Β in die Äste mit einerseits dem Merkmal 3 und andererseits den Merkmalen 1 und 4 unterteilt. Zuletzt wird im Punkt F der Ast mit den Merkmalen 1 und 4 in die beiden Äste, die die Merkmale 1 und 4 getrennt tragen, unterteilt.

Zeichnet man das Stammende Μ setzung Μ

(von 0 nach A) senkrecht und die Stammfort-

nach rechts, den Ast AB nach links, so können die übrigen Rich-

tungen wie folgt gewählt werden: C5 verläuft nach rechts und Ϊ 0 als Stammfortsetzung nach links. Dann verläuft DE nach rechts und D2 nach links. Die Richtungen der Äste von Ε nach 6 und von Ε nach 7 können dann beliebig gewählt werden. Wir lassen hier "E6 nach links und Ϊ 7 nach rechts verlaufen. Bei der Aufspaltung

im Punkt Β muß der breitere Ast vom Stamm wegführen,

d.h. BF verläuft nach links und damit B3 nach rechts. Schließlich legen wir willkürlich fest, daß FT nach links und F4 nach rechts verläuft.

Als maximalen Winkel

im Verzweigungspunkt Α wählen wir a = 80° und als mini-

malen Winkel, der gemäß Abb.21 dem Verzweigungspunkt F zugeordnet werden muß, wählen wir β = 30°. Die Winkel

in den Verzweigungspunkten

X=B,C,D,E

berechnen sich somit wegen g . = g r zu 3

X = [30(ln(g A +1) - ln(g x +1)) + 8 0 ( l n ( g x + 1 ) - l n ( g F + 1 ) ) ] /[ln(g A +1) - ln(g F +1)]

,

wie in Cab.6 angegeben. In dieser Tabelle sind auch für jede Verzweigung £ r X = A,B,...,F die linken und rechten Nachfolger N Y bzw. N v sowie die Breite — I — r der zugehörigen Äste D ( X N V ) , D(XN V ) und die Winkel zwischen den Ästen und ö" ^ r der Vertikalen "ίΧΝ^,ν

, £ΧΝχ,ν

zusammengestellt, so daß die gesamte

Baumstruktur angegeben ist. Nun müssen für jeden der fünf Autohersteller noch die Astlängen unter Verwendung von Mittelwerten der jeweils beobachteten Merkmalsausprägungen

be-

stimmt werden. Dazu verwenden wir die Datenmatrix Y aus Tab.3 und berechnen für jeden Ast des Baumes für den i-ten Hersteller (i=1,...,5) den mittleren Merkmalswert der dem Ast zugeordneten Merkmale, vgl. eah.7. Die Äste eines Baumes sind dann in der Länge proportional

diesen Werten.

In der Ahb.23 sind die Bäume für die fünf Autohersteller dargestellt; das erste Bild dieser Abbildung gibt die Baumstruktur gemäß Tab.6 sowie die

633

Kapitel IX: Graphische Verfahren

Zuordnung der Merkmale und Verzweigungen wieder. Cah.6: S t r u k t u r der Bäume f ü r f ü n f A u t o h e r s t e l l e r aufgrund von sieben Rep a r a t u r a n f ä l l i g k e i t s m e r k m a l e n : Verschiedenheitsmaße und deren L o g a rithmen, Gesamtwinkel, Nachfolgeverzweigungen und i h r e B r e i t e sowie Winkel zwischen Ästen und V e r t i k a l e r

Verzweigung X Α Β C D Ε F

(Stamm) (Stamm) (Stamm) (Stamm)

9Χ 0 963 0 .880 0 783 0 .298 0 137 0 131

ln(gx+1)

n g ^ r g Y = p , wobei rg Α den Rang einer Matrix Α bezeichnet, und n^j>1 gilt. (Da wir hier n > p annehmen, ist theoretisch mit Wahrscheinlichkeit Eins r g Υ = ρ .) Die Matrizen S^ und S , letztere als invertierbar angenommen (was unter obigen Annahmen ebenfalls theoretisch mit Wahrscheinlichkeit Eins erfüllt ist), liefern dann die Pnä^gnäßen,

die alle Funktionen der Eigenwerte von S^Sg

sind,

für die in Abschnitt 1.2 beschriebenen Testverfahren.

Geben die jeweiligen Prüfgrößen keine Veranlassung zum Verwerfen der Hypothese

H Q , SO läßt sich nur im Falle einer allgemein testbaren Hypothese

schließen, daß die Abweichungen von der Hypothese H q zum Niveau γ nicht signifikant sind. Wird dagegen H q verworfen, so kann auch im n i c h t - t e s t baren Fall auf signifikante Abweichungen von der Hypothese geschlossen werden.

[

steht für diejenige Matrix, die man durch einfache Untereinan-

derreihung der Elemente aus Ζ und Κ erhält.]

663

Kapitel X: Das multivariate lineare Modell

Bevor d i e konkreten T e s t v e r f a h r e n im A b s c h n i t t h i e r noch e i n i g e a l l g e m e i n e Aussagen Ausgehend von der F e h l e r m a t r i x ίϋΛ die

der

dann

des

Kleinste

ne

z u r Schätzung

- QuadnaXe

^

Schätzet

e p bestimmen:

e

seinerseits

C

l ä ß t s i c h e i n e>utfvrtungsth.eue>i

$ der F e h l e r v e k t o r e n e^

KovaAAanzmWUx +

1.2 b e s c h r i e b e n werden, s e i e n

festgehalten.

den

Kovarianz-

bzui.

KoAAeZatlonimcuOUx

iü>i ψ v e r w a n d t w e r d e n

- Schätzen*

= X z ( X z J T « f = ( s i j i i . j = 1....,mp

kann;

es

ist

'

wobei " § " das Kroneckerprodukt b e z e i c h n e t ( v g l . A b s c h n i t t 4 in K a p . I ) , bzw. Corr(v) = ( r . .). •J

· ,

I JJ -

mit

mn

I J · · . jllip

r,.= »J

l j yj

v

c



«c

ii

f ü r i , j = 1 , . . . ,mp.

JJ

I s t r ^ . nahe 1 bzw. - 1 , so h e i ß t d i e s , daß d i e z u g e h ö r i g e n

Parameterschät-

zungen i n $ s t a r k voneinander abhängen, i s t r . j u n g e f ä h r 0 , so s i n d p r a k t i s c h u n a b h ä n g i g ; v g l . auch

Auch untei

sie

Kap.III.

H q : Kf = 0 l ä ß t s i c h d i e Parametermatrix Τ

schät-

zen und s i c h e i n S c h ä t z e r f ü r d i e K o v a r i a n z - bzw. K o r r e l a t i o n s m a t r i x

dieser

einen

Hypothese

Schätzung angeben:

Corr(?H^)

Ist

das

gieit,

=

( r < jj)-j j = i

interessierende

allgemeine

mp

mit

Multlvanlate

r° . =

^

L-ineane

f ü r i , j = 1 , . . . ,mp.

Modelt

unxest/Un-

d . h . Z = 0, und i s t d i e Hypothese H q : ΚΨ = 0 a l l g e m e i n t e s t b a r

ist hier

immer e r f ü l l t , wenn X T X i n v e r t i e r b a r n g = η - rg X

,

n h = rg Κ

i s t ) , so g i l t

(dies

stets

,

und d i e Hypothesenmatrix S^ kann g e s c h r i e b e n werden a l s Sh = YT(X+)TKT(K(XTX)+KT)+KX+Y

Mitunter interessieren ν = χψ + e enmexteite

Hypothesen

H * : KfL = 0

,

.

im a l l g e m e i n e n r e s t r i n g i e r t e n M u l t i v a r i a t e n Modell ΖΨ = ο der

Form

664

Kapitel X: Das multivariate lineare Modell

mit einer (ρχρ*) - dimensional en Matrix L vom Rang p*, r g L = p*_p+2, so kann als Approximation auch 92 ~ 2 g

Pnh n

2

F

"p " 1

e

9γ92;1-Ύ

verwandt werden, wobei im Falle n g - pn^ + n^ - 1 > 0 p n h ( n e " P) 9

1=ne-Pnh

und im Falle η

+

nh-1

·

^2 = n e " Ρ +

1

- pn. + n. - 1 < 0 e

h

9,=»

,

n

-

(n - p - 1 ) ( n e - p - 3 ) C n

92 = n e - p + l

[ir e -1)(n e

+

- p n h + n h - 1)

nh-p-1)

zu setzen ist. Das TeAtveAia.h/im

von PMal-

BcuvtleXt

verwirft die Hypothese Hq zum Niveau

γ , falls gilt Ρ Λ

ΡΒ =

Cj

ΤΤξΤ > cPB;1-r(p,ne'nh)

die kritischen Werte c p ß . ΐ - γ ( Ρ > η ε > \ )

s

^nc'

;

zu

finden

Ζ

· Β · bei Kres ( 1975,

Tafel 7). Falls keine kritischen Werte zur Verfügung stehen, kann auch folgender approximativer Test verwandt werden: Verwerfe Hq zum Niveau γ, wenn A PB θ - Apg

2u + θ + 1 ρ 2ν + θ + 1 θ(2U+0+1),θ(2ν+θ+1) ;1-γ

ist, wobei θ, u und ν wie beim Hotel 1ing - Lawley - Test gewählt werden. Schließlich verwirft der Roy-Te.it ξ, A

R

=

die Hypothese Hq zum Niveau γ, falls

T T I j > cR;1-Y(P'ne'nh'

i

kritische Werte zu diesem Test findet man bei Kres (1975, Tafeln 3,4,5) oder in den Nomogrammen von Heck (1960), die im Anhang zu finden sind. Beispiele zu diesen Testverfahren werden wir in den sich anschließenden Abschnitten 1.3- 1.5 kennenlernen. An dieser Stelle sei erwähnt, daß man an-

667

Kapitel X: Das multivariate lineare Modell

stelle der Eigenwerte ξ 1 ^ - · - iL ^ p von

von

S

hSe1

auch

die

Ei

9enwerte

verwenden kann, wenn man folgende Beziehung

λ

ιϋ···ϋλρ

zwischen die-

sen Eigenwerten ausnutzt: Es ist ξ i, "=1τ- 4A νi

?1 λ. i= 1 + ? i

bzw.

'

Hieraus erklärt sich auch die Tatsache, daß wir im Kapitel zur Prüfung der multivariaten Unabhängigkeitshypothese

III obige Tests

(zwischen den "Merk-

mal sgruppen" X und Y), die der Hypothese Η ^ : ψ = 0 entspricht, konnten. Dort waren die Eigenwerte

verwenden

der Matrix

zur Prüfung dieser globalen Unabhängigkeitshypothese verwandt worden, die mit den speziellen Größen Sg — Sy — Sj^ySy ^^γ

>

Kapitel

S

X:

Oos multivariate

lineare Modell

6 7 3

YT(X+)TK^[K1(XTX)+K^']+K1X+Y

hd) =

= YTXT(XTX)-1(J][(1,0)(XTX)-1(J]]-1(1,0)(XTX)-1XTY -5! 1395 S

h(2)

=

γΤ

l i S )

mit

n

h(1)

= rg

K

1

= 1

Freiheitsgraden ,

(χ+)Τκ2[κ2(χΤχ)+Κ2]+Κ2Χ+Υ

ί 0. 1050 = -0.3251

-0.3251) 1.0066

m l-4. t

n h ( 2 ) =rg



, r ·,. ... j = 1 Freiheitsgraden .

Weiter erhalten wir wegen r-1

S

e

i0.752

0.050

~ [0.050

0.205

zunächst für den Test von ς

h(1)

die Matrix

c - 1 _ ί 5.76241 e " [-3.69991

-0.65337 0.41950

mit den Eigenwerten ξ 1 = 6.18191 un(

Wegen ^ ( 1 )

und

ξ2 =0

' P = ^ ergibt sich h i e r , vgl. die Ausführungen zum Roy -

Test im Anhang, daß g i l t cR;1.Y(2.8,1)-fF2>7;1.Y/(L+fF2>7;IG so daß mit F 2

7.0

g5

,

= 4.737 die Hypothese H q 1 zum 5% Niveau verworfen werden

muß da Τ

^

=

7 Τ Κ

= 0

·

8 6 1

> 0

·575 4

4

·

7 3 7

/

(1

+

f

4

·

7 3 7

= C

)

R;1-0.95(2,8,1)

d.h. der Werbeetat hat einen zum 5% Niveau s i g n i f i k a n t e n Einfluß auf die Responsevariablen Gewinn und Geschäftstyp. Dagegen i s t der Einfluß der Werbeart (bei g l e i c h z e i t i g e r Berücksichtigung der Werbeausgaben) zum 5% Niveau nicht s i g n i f i k a n t , denn die Matrix ς

h(2)

ς - 1 _ ί 0.062705 e [-0.194145

-0.061396) 0.190098J

b e s i t z t die Eigenwerte ξ 1 =0.252803

und

ξ2 = 0

so daß ( n h ( 2 ) = 1) die Hypothese H q 2 wegen ^ | | | | ° | = 0.202 ^ 0.575 = C R ; 0 _ 9 5 ( 2 , 8 , 1 ) nicht verworfen werden kann.

;

674

Kapitel X: Das multivariate lineare Modell

Nun wollen wir unter Verwendung des erwartungstreuen ί J_ * ~ ig

iüA. diu

ς

f 0 . 169 [-0.041

e

KovaAMinzmatAAx

Sch&tzvu,

-0.041) 0.619J

$ der Fehlervektoren

sowie die KonxzlatixtviimUfU-x.

du

die

KovaAÄanzmtVüx

Ψ = X + Y dex PcutameXeAmWUx Ψ

Schätzen

bestimmen. Mit Οον(Ψ) = X + ( X + ) T β I = (X T X)

X T [(X T X)

' 0.0174 -0.0042 0.0029 -0.0007

0.0029 -0.0007 0.0174 -0.0042

-0.0042 0.0638 -0.0007 0.0105

Χ τ ] τ β I = (X T X)

βf

-0.0007" 0.0105 -0.0042 0.0638_

e r g i b t sich die geschätzte Korrelationsmatrix von Φ wie in Cab.3 angegeben. Cab.3: Schätzer Corr(T) für die Korrelationsmatrix der Parameterschätzung Ψ Werbeetat Gewinn Geschäftstyp

Gewinn

ß12

12

®21 ß

22

e21

s22 -0.021

1.000

-O.126

0.167

-0.126

1.000

-0.021

0.165

0.167

-0.021

1.000

-O.126

-0.021

0.165

-0.126

1.000

§11 ß

Werbeart Geschäftstyp

Die Korrelationen der Schätzer sind hier a l l e nicht besonders hoch, so daß sich die Schätzer f ü r ß 2 i

un

d 622

unter

H

01

^12

unter

^02

nur geringfügig gegenüber denen im Modell verändern werden: Unter H

o1 : ( 3 1 1 , B 1 2 ) = 0 ergibt sich

=

und unter H q 2 : ( 1

® er,1alten

Um nun die Götz dzn. multivanMUen

w

''r

Reg/ιzii-Lon zu überprüfen, können wir zu-

nächst einmal die ßnit-immtheXtiiraßi der Regressionen von den einzelnen Responsevariablen betrachten, v g l . auch K a p . I I . Hier ergibt sich für die Regression vom Gewinn auf Werbeetat und Werbeart

3

U(1,2) =

1

" j=1 ^ ν 1 - § 1 1 χ ν 1 - β 2 ΐ ν ) 2 / ν ^

(y

>v 1 - y . 1 > 2

675

Kapitel X: Das multivariate lineare Modell

10

.

7

= 1 " ! (yv1 - 0.908xv1+0.104xv2)710= 1-^j-1.3726 v=1 = 0.86274 und für die Regression von Geschäftstyp mit r e l a t i v höchstem Absatz auf Werbeetat und Werbeart B

2,(1,2) = 1 " j , =1"

(

yv2-g12xvl""B22Xv2)2/ J ,

10

K z ' * ^

2

.

?

I ( y v 2 + 0.583x v 1 - 0 . 3 2 2 X v 2 ) 7 1 0 = 1 - ^ - 4 . 9 6 7 5 v=1

= 0.50325

,

so daß die beiden Bestimmtheitsmaße, insbesondere natürlich das erste, a l s recht hoch bezeichnet werden können. Nun wollen wir das Regressionsmodell, insbesondere auch die Normalverteilungsannahme, mittels nuZtivaAiaXeA Ruldaata.nalyii

anhand sogenannter Re-

iiduaJL- Plotb überrpüfen; hier gibt es verschiedene Möglichkeiten. Zum einen kann man die Mahalanobisdistanzen der Beobachtungsvektoren y v = ( y v 1 , . . . » y v p ) T zu einem festen Vektor a (z.B. a = y) 6a = / ( y v - a ) T t " 1 ( y v - a )

für v = 1 , . . . , n

betrachten und mit den Mahalanobisdistanzen der Schätzungen y v = ( y v 1 , . . . , y v p ) T , wobei Y = ( y v j ) v = 1

n

,j=i,...,P

= x$

-

von

diesem

Wert

vergleichen: 6^ = \ / ( i v - a ) T i " 1 ( y v - a )

für v = 1 . . ,n

a

.

a

Im konkreten Fall wird man dann 6 bzw. 6 betrachten, worin dann ί ' durch -1 ν ν ι·. ersetzt i s t und S eine Schätzung für $ (z.B. S = — S g oder S ,

S

e

f a l l s n fi ' k l e i n ' i s t ) bezeichnet. I s t das Modell adäquat, so liegen die Punkte, die man bei einem Plot von 6 a gegen 6® bzw. 0

·

6 9 8 =

! ·

5

·

7 8 6

/ (

1

+



5

7 8 6

·

fF2,5;0.95 / (1 +f1F2,5;0.9s)

)

= C

R;0.95(2'6'1}

'

so daß dann aufgrund der Ausführungen zum Roy - Test im Anhang die Hypothese HQ2 verworfen wird, d.h. der 'Werbeetat' hat einen zum 5% Niveau s i g n i f i kanten Einfluß auf die Responsevariablen 'Gewinn' und 'Geschäftstyp mit r e l a t i v höchstem Absatz'. Nun soll die

KovajUanz-

bzw.

KonnelaXiommaXAAX

du

Ψ

Schätzern

iün. dLLe

VaJuxmeXeAmWilx ψ g e s c h ä t z t werden. Verwendet man a l s eJwxwtungAt>ieu.e Schätzung

faü/i

die

f -_L + ng

KovafuAnzmcrfAix ς

f 0-2255 e ~ [-0.0530

$

-0.0530} 0.7657J

so ergibt sich Cov(T) = Χ * ( Χ ζ ) τ « ί wie in cab-15 angegeben, wo auch die Matrix Corr(¥) zu finden i s t . Aufgrund der hohen Korrelationen der Parameterschätzungen, die zu den Stufen des Faktors 'Werbeart' gehören, und der Parameterschätzungen zur Kovariablen 'Werbeetat' (innerhalb jeder der beiden Responsevariablen) i s t zu erwarten, daß sich unter H ^ die Schätzungen für

und

a

Hq2 die Schätzungen für a ^ ,

rec lt

c ^ , 0-22' 3 i > "32

'

unter

stark verändern

werden gegenüber Ψ; dagegen werden wir bei beiden Hypothesen kaum Veränderungen der Schätzungen für

und ß Q 2 f e s t s t e l l e n , denn a l l e Korrelationen

zu diesen Parametern sind nur gering; d.h. g l e i c h z e i t i g , daß sich unter die Schätzungen für a l l e Parameter (außer natürlich

und ß ^ ) kaum

verändern werden. Man vergleiche hierzu auch die trab. 16 in der neben Ψ auch die

Schätzen

?„ Hoi

antin

dm

=X/7XV

für 1=1,2,3

(i)

Wir wollen nun noch die

Hypotheken

Güte

du

zu finden sind: .

KovaMAAnzanaZyiemode&Li

für die Response-

variablen 'Gewinn' und 'Geschäftstyp mit realtiv höchstem Absatz' näher untersuchen. Dazu bestimmen wir zunächst einmal die

BeAtirnntheitimaße

der

einzelnen Kovarianzanalysemodelle, vgl. auch Kap.II. Für den Gewinn ergibt sich

α > Η

sc

Gesamtmittel Gewinn G. •

iο Γ Ο m οσ\ ο ο Ο ο I

-0.039 0.009

-0.047 0.011

-0.040 0.009

«Η Ο ο ο

οο ο

οο ο

0. -0.

-0. 0..004 0. -0.,006

-0., 1 1 8 1 ,.000

0.001 -0.000 -0.002 [ 0.000

ί 1.000

1 Beobach-

701

Kapitel X: Das multivariate lineare Modell

tungen der ρ Merkmale gemacht. Weiterhin nehmen wir eine Wechselwirkung zwischen den Faktoren Α und Β ( " F a k t o r " AB) in das Modell a u f , so daß zus ä t z l i c h zum E f f e k t μ des Gesamtmittels und zu den Effekten ß ^ , . . . , ß s der Stufen von Α und Β ein TnteAaktiomeiiekt i h l e k t ) (ctß).jj , i = 1 , . . . , r , j = 1

,

(WichAzlMUikungi-

s , für die Wechselwirkung zwischen i - t e r

Stufe des Faktors Α und j - t e r Stufe des Faktors Β berücksichtigt wird. D.h. wir betrachten das Modell y1--k = μ + a i + ß j + (aß)-jj wobei dann y^

+e -jj|


cii = y i

-y

ßj = y j ( ^ i j

ijk

=

für i = 1 , . . . , r

-y

f ü r j = 1 , . . . ,r

y i j . ~y-i.. " y . j . + y . . .

Die in diesem Modell

äb&ichen

α, = . . . = a r = 0

, ,

für i = i , . . . , r ,

j=i,...,s

Hypotheken

,

H^: S, = . . . = ß«. = 0

h£ B : ( α β ) η = ( α β ) 1 2 = . . . = ( a ß ) r s = 0

und

702

Kapitel X: Das multivariate lineare Modell

Uber das Verschwinden der Effekte der Faktoren Α und Β bzw. der Interaktionseffekte

können hier unter Verwendung der in Abschnitt 1.2 dargestell-

ten Testverfahren zum Niveau γ getestet werden, wobei die Fehlermatrix und deren Freiheitsgrade durch

v i ,

j, l

·

"e-«[^-7) = - 1 7 * l n y -

1

ΪΓ0777

= 0.131 j< 5.99 = χ |

0

95

A

Λ so daß die Hypothese H q n i c h t verworfen werden kann, d.h. zum 5% Niveau bestehen keine s i g n i f i k a n t e n Unterschiede b z g l . des Gewichtsverlustes zwischen männlichen und weiblichen Ratten (χ 2 - Approximation des Wilks - T e s t s ) . G l e i c h f a l l s zum Niveau 5% s o l l die Hypothese l·^, daß keine Unterschiede zwischen den drei Medikamenten bestehen, getestet werden; es e r g i b t s i c h h i e r zunächst die Matrix c B c - 1 ί5.4576 h e = 1^1.6940

-2.8070] -0.I880J

·«.

mlt

r ξ

Γ

4

. ·5

C7C. 7 6 1

und

.

r

52

n = 0

„,,,. ·0635



Verwenden wir nun den Hotel 1ing - Lawley - T e s t , wobei der k r i t i s c h e Wert c

HL-0 9 5 ^ > 1 8 , 2 ) durch die F - Approximation e r s e t z t wird, v g l . Abschnitt 1.2,

so wird mit θ = min(p.n^) = 2 , u =

HL;0.95

(9 1« ?)

**

| p-n®|-1)

, ν =^ V

P

~

1 )

S 2 (2u+9+1) ρ 2{lTv+T] r 6(2u+6+1),2(θν+1) ;0.95

= 7.5 ,

d.h.

ρ 32'r4,32;0.95

= ^ - • 2 . 6 7 = 0.6675

• die Hypothese H 0 zum 5% Niveau verworfen, d.h. die Unterschiede zwischen den Medikamenten b z g l . der Gewichtsverluste s i n d zum 5% Niveau s i g n i f i k a n t , da gilt 2 Ahl= J

• ξ^ = 4.6396 > 0 . 6 6 7 5 ^ c H L ; 0 _ 9 5 ( 2 , 1 8 , 2 ) = ο Η 1 _ ; 1 . γ ( ρ , η θ , η ° )

S c h l i e ß l i c h testen wir unter Verwendung von ςΑΒς-l h Se

S

=

! 0.0004 [-0.0084

0.1869] 0.2893J

·

m l t+

, n 7Q,7 ? ! = 0.2837

und

.

, _n nn,n ξ 2 - 0.0060

AB zum 5% Niveau die Hypothese HQ , daß keine s i g n i f i k a n t e Wechselwirkung

.

705

Kapitel X: Das multivariate lineare Modell

zwischen Geschlecht und Medikament vorhanden ist. Verwenden wir dabei den R o y - T e s t , d.h. die Nomogramme

A

im Anhang, so ergibt sich wegen

R=TT^j- = 0 , 2 2 1 0 * °-390

= c

R;0.95(2'18»2)=cR;1-r(P'ne'nhB)

'

AB daß H q nicht verworfen werden kann, so daß also die Wechselwirkung zum 5% Niveau nicht signifikant ist.

1.4.3

DIE MULTIVARIATE ZWEIFACHE KREUZKLASSIFIKATION MIT EINER BEOBACHTUNG PRO ZELLE

(DAS EINFACHE MULTIVARIATE BLOCKEXPERIMENT)

Im Abschnitt 1.4.2 sind wir davon ausgegangen, daß pio tion

[ZeJULe)

ζvielen

Faktoten

tungen vorliegen. Hat man pro Zelle lediglich eine keine.

Beobachtung,

so kann

im Modell berücksichtigt werden, und die p - d i m e n s i o -

Wechielwlnkung

nalen Beobachtungsdaten müssen in einem einlachen penJjment

faktofutuienkombina-

Α und Β mit r bzw. s Stufen mehrere Beobach-

nultLvajUaten

ausgewertet werden. Bezeichnen

Blockexdie Effekte der

Stufen der Faktoren Α und Β und μ das Gesamtmittel, so läßt sich ein solsches Modell in der Form y ^ = μ + a i + ßj + e^.

fur i = 1,...,r; j=1,...,s

angeben, wobei für alle i und j y ^

den Beobachtungsvektor bei der i-ten

Stufe des Faktors Α und der j-ten Stufe des Faktors Β sowie e ^

den zuge-

hörigen Ν(0;ί) - verteilten Fehlervektor bezeichnet. Nehmen wir weiter an, daß die Fehlervektoren voneinander unabhängig sind, so ergeben sich unter den

RepaAameXAJA-ietungibecLingungen Σ > r » i=1

.

I j=1

ßJ

r

mi t i. die Kleinste und ß 1 ,...

c s

I

j=1

y,, ij · y.ji r_ ·I= 1 yυ^

- Quadrate

- Schätzungen

, y..

r«; ^ rs i=1

=

ßj = y

-y_

^ü ij

für die Parametervektoren μ, α^,-.,α

zu J =y__

^

I

für i=1,... ,r

,

für j=1,... ,s

Man testet in diesem Modell üblicherweise die

Hypotheken

706

Kapitel X: Das multivariate lineare Modell

Hj:

ai

= ...=ar = 0

über das Verschwinden der Effekte des Faktors Α und HB0:

Ρι

= ...=β5=0

über das Verschwinden der Effekte des Faktors B. Dabei kann man mit r s s

e

= i

_ .1

_

_

_

_

'yij~yi.~y.j+y. ,^yij~yi.~y. j

_ +

T y

. .

ne = (r-U(s-n,

und den Hypothesenmatrizen -y..)(yi. - y . . ) T

sj = S

.

nj = r-i

,

die in Abschnitt 1.2 angegebenen Testverfahren verwenden. ΖζλΛρΙζΙ: An s = 6 verschiedenen Orten wird in ρ = 2 Jahren-der Ertrag von r = 5 verschiedenen Gerstensorten je einmal beobachtet. Faßt man die Sorten als Stufen eines Faktors Α und die Orte als Stufen eines Faktors Β auf, so können die Beobachtungsergebnisse in einem einfachen multivariaten Blockmodell ausgewertet werden. In der Cab.22 sind die Versuchsergebnisse (vgl. Immer/Hayes/Powers (1934): Statistical determination of barley varietal adaption, Journal Amer. Soc. Agron. 26, S.403 - 407) sowie die Größen y yi

, y j und die Schätzer für die Effekte μ, α^ und 3j (i = 1

5, j = 1,...,6)

angegeben. Α Β Wir wollen nun zum 5% Niveau die Hypothesen H Q und H q testen, d.h. wir wollen feststellen, ob die Sorten bzw. Orte einen zum 5% Niveau signifikanten Einfluß auf die Erträge in den beiden Jahren haben. Dazu berechnen wir ς

e

ςΑ

h

_ [3279 [ 802

802) 4017J

'

c-1 _ 1 f4017 e " 12528539' [-802

_ ί2788 [2550

2550) 2863J

A * nh

Η

, '

ςΒ s

h

ίΐ8.011 [ 7.188

-8021 3279J '

_ . ,

n

>

7.188] Β _ , 10.345J ' n h 3

und erhalten ςΑς-1

h e

ίθ.7307 [0.6343

0.4889] 0.5861J

'

ς Β ς -1

V e

_ [Ό.0053 [0.0016

0.0007] 0.0022J

"

Verwenden wir nun jeweils die Nomogramme zum Roy - Test im Anhang, so ergibt A A -1 sich beim Test von H q , da S^S e C 1 = 1.1526

und

die Eigenwerte

ξ 2 = 0.1642

707

Kapitel X: Das multivariate lineare Modell

Cab-22:

E r t r ä g e von r = 5 G e r s t e n s o r t e n an s = 6 O r t e n i n ρ = 2 J a h r e n

besitzt,

wegen V t ^ V

0

·

5 3 5 4

> °-465

= c

R;0.95(2'20'4> =cR;1-Y(P'"e'nS)



Α Β 1 daß d i e H y p o t h e s e H q zum 5% N i v e a u v e r w o r f e n w i r d , u n d da Sf,Sg d i e werte ξ 1 = 0.0038 besitzt,

und

ξ 2 = 0.0037

wegen A

R

=

t 4 T T 0 · g

0 0 3 8

daß d i e H y p o t h e s e H q n i c h t

'

°-500

= C

R;0.95(2'20'5)=cR;1-Y(P'ne'nhß)

zum 5% N i v e a u v e r w o r f e n w e r d e n k a n n . D i e

s c h i e d e z w i s c h e n den S o r t e n b z g l . festzustellen

Untersigni-

Ortsunterschiede

sind.

D I E MULTIVARIATE ZWEIFACH HIERARCHISCHE

I n den b i s h e r

·

d e r E r t r ä g e s i n d a l s o zum 5% N i v e a u

f i k a n t , w o h i n g e g e n k e i n e zu d i e s e m N i v e a u s i g n i f i k a n t e n

1.4.4

Eigen-

im A b s c h n i t t

1 . 4 . 2 und A b s c h n i t t

KLASSIFIKATION 1.4.3 behandelten

Modellen

f ü r zwei F a k t o r e n Α und Β wurde j e d e S t u f e des e i n e n F a k t o r s m i t j e d e r

Stu-

Kapitel

708

X: Das multivariate

lineare

Modell

f e des anderen Faktors kombiniert b e t r a c h t e t ; man spVicht dann von fcteuzklaAiA.6 0.28 = c R . 0 - 9 5 ( 2 , 2 7 , 2 ) = c R ; 1 _ Y ( p , n e , n £ ) wohingegen die Hypothese H,Bq zum 5% Niveau nicht verworfen wird:

,

710

Kapitel X: Das multivariate lineare Model!

Cah.23: Untersuchungsergebnisse und Parameterschätzer im Versuch zur Untersuchung der Qualität von Transistoren i n Abhängigkeit von Betrieben und Maschinen (M.) TranBetrieb sistor ' Ί ί Γ Π MTT2 k '11k '12k

1

Betrieb ΊΟΤ— Ϊ Ο Γ

FΠΤ

y

13k

y

21k

M.23 y

22k

23k

Betrieb 3 Ο M 7 3 2 M 7 3 3 y

31k

y

y

32k

33k

ISJ (/»)

l "

(s (ä

1

[ü]

(.

(s

[S]

'lj.

54.75 54.50 52.75 121.75J ^27. 75j [30.00

37.50 34.50

30.00 35.25

37.50 35.25

27.00 44.75

34.75 55.75

22.25 43.50

"1J

f 0.75)[ 0.501I 1.25 1-4.75)1 1.25J[ 3.50

2.50 -0.50

-5.00 0.25

2.50 0.25

-1.00 -3.25

6.75 7.75

-5.75 -4.50

54.00 26.50

35.00 35.00

48.00

15.00

-4.00 -1.50

-11.00 11.50

-10.00

39.00 36.50

μ =y

A

R

=

T ^

=™

= 0

·

0 9 7

28.00

* °-44=cR;0.95(2'27'5)=cR;1-Y(P'ne'nhB»

Die Maschinen (innerhalb der Betriebe) sind somit zum 5% Niveau nicht s i g n i f i k a n t verschieden, wohingegen s i g n i f i k a n t e Unterschiede über die Betriebe hinweg vorhanden sind, d.h. die Betriebe sind bzgl. der Maschinen s i g n i f i kant verschieden.

1.5

DIE

PROFILΑ Ν ALYSΕ

TUMSREN

UND

MODELL

Die Pio^llanalyie.,

ZUR

UNTERSUCHUNG

VERLAUFSKURVEN MIT

FESTEN

IM

VON

WACHS-

Μ U L Τ I V AR I Α Τ Ε Ν

LINEA-

EFFEKTEN

ein Instrumentarium zur Unteuuchung

von Wachitumi-

und

Ve.Alau{AkuAven, zeigt einmal mehr die V i e l f a l t der Anwendungsmöglichkeiten multivariater Linearer Modelle; s i e s o l l daher hier in ihren Grundzügen be-

·

Kapitel X: Das multivariate lineare Modell

711

handelt werden. Bei der P r o f i l a n a l y s e geht man anders a l s in den b i s h e r betrachteten Modellen n i c h t davon aus, daß "p Merkmale" an η Objekten beobachtet werden, sondern davon, daß an jzde.ni Objzkt ZexXpanfeten t^

t

dies aber zu ρ

tun MeAkmal,

vzuckLzdiMn

beobachtet wird, d.h. der Beobachtungsvektor am i - t e n

Objekt i s t yn- = ( y i ( t 1 ) , y i ( t 2 ) , . . . , y i ( t p ) ) T

;

warum man auch von Wachstums- oder Verlaufskurven s p r i c h t , wird d e u t l i c h , wenn man s i c h die Punkte ( t ^ . . . . , ( t , y ^ ( t p ) )

beim i - t e n Objekt zu

einem Polygonzug verbunden denkt, v g l . Ahh.7, wo die mittleren A b s a t z z i f fern f ü r Produkte von 4 Betrieben über 12 Monate d a r g e s t e l l t s i n d ; siehe auch das verbale B e i s p i e l am Ende der E i n l e i t u n g zum Abschnitt 1.

Monate

712

Kapitel X: Das multivariate lineare Modell

Wir wollen h i e r einmal s p e z i e l l ilioLnalyHL

ι Stu^m

eMtte

den F a l l b e t r a c h t e n , daß man irUXteti ΫκαA veAgleMihm

faktou

w i l l . Handelt es s i c h

bei

diesen Stufen etwa um r verschiedene Medikamente, d i e n ^ r ^ i · · · bzw. n r Personen v e r a b r e i c h t werden, so beobachtet man d i e Wirkung der Medikamente auf d i e Probanden zu den Zeitpunkten t^

t

nach Verabreichung des Me-

dikaments. Den Beobachtungsvektor an der j - t e n P e r s o n , der das Medikament i (i = 1 , . . . , r , j = 1

n.j) v e r a b r e i c h t wurde, kann man dann schreiben a l s y

= Bezeichnet nun φ^ =

(

i j

) T

V

·

i((.j(tp)) T für i = 1

t^)

r den E f f e k t des i - t e n

Medikaments (der i - t e n S t u f e des F a k t o r s A ) , so i n t e r e s s i e r e n bei der Prof i l a n a l y s e im wesentlichen d r e i verschiedene FAagutettungen.

Zum einen

d i e s d i e Hypothese, daß d i e WiAJiungiveAZäuie der r Medikamente g l e i c h (Tut

sind

der über d i e n^ Objekte auf der i - t e n Stufe des

aut5 VanjxlLdUxat

Faktors A ( i = 1

ist

r ) g e m i t t e l t e n Verl a u f s k u r v e n ) . Diese Hypothese l ä ß t

s i c h auch s c h r e i b e n a l s H^: es g i b t Konstante k^ v

1

y . . . = « '

r

* k

r

k r d e r a r t , daß g i l t i

·

p

wobei 1p den p-dimensionalen E i n s e n v e k t o r b e z e i c h n e t . A l s zweite F r a g e s t e l lung i n t e r e s s i e r t d i e z e i t l i c h Gtzichhz'it

den zeMtLuihen

Η*: ψ κ = . . . =Ψ Γ _ und zweitens e i n Tut

m i t t l e r e Wirkung: E r s t e n s e i n Tut

aui

Mittet

mit

^

autj GleXchhelt

£

ψ.(^)

f ü r i=1

r

WF^ ( F l ä c h e zwischen

diu WiAkungiflächen

N u l l a c h s e und V e r l a u f s k u r v e ) a l l e r Stufen des F a k t o r s A Hg*: WF1 = . . . = W F r t

t

mit a * = ( 2 " i

,t3~

t

l

d i e j e n i g e über d i e GleMih.he.lt

, t

wobei WF.j=i|^a*/2 t

p" p-2'tp"tp-1^T'

den E^ekte

Dle

d r i t t e Hypothese

ist

der Stufen des F a k t o r s A

Diese Hypothese i s t n a t ü r l i c h gerade d i e in A b s c h n i t t

1.4.1 angegebene Hy-

pothese der einfachen V a r i a n z a n a l y s e und s i e l ä ß t s i c h wie d o r t angegeben 3 t e s t e n ; f ü r das Medikamentenbeispiel besagt d i e in H 0 f o r m u l i e r t e F r a g e s t e l l u n g gerade, daß die m i t t l e r e n Verl a u f s k u r v e n der Medikamenteneffekte g l e i c h s i n d . S i n n v o l l i s t das Testen d i e sι e r l e t z t e n Hypothese zum Niveau γ n a t ü r l i c h nur dann, wenn d i e Hypothese H„ p a r a l l e l e r V e r l ä u f e zu diesem 3 1 Niveau n i c h t verworfen werden kann, denn Η0 i s t eine Verschärfung von Η 0 ο ο*

Kapitel X: Das multivariate lineare Modell

1

0

Die Hypothesen H^ und Η

0

713

*

bzw. H^

sind sogenannte eMXuXeAtz

Hypothum

im

Multivariaten Linearen Modell der Form Η*: Κψί = 0 ψ Γ ) τ und passend dimensionierten Matrizen Κ und L, wie sie

mit ψ = (ψ^

am Ende des Abschnitts 1.1 erwähnt werden, d.h. hier werden Zusammenhänge auch zwischen den Zeilen der Parametermatrix ψ getestet. Wir werden im folgenden Tests für alle drei Hypothesen im Normalverteilungsfall behandeln und außerdem ein nichtparametrisches Verfahren zum Testen von H^, d.h. zum Testen paralleler Verläufe, behandeln.

1.5.1

NORMALVERTEILUNGSVERFAHREN

Linter NoAmalveAXeAXungiannahme können die Hypothesen der Profilanalyse mittels der in Abschnitt 1.2 dargestellten Testverfahren zum Niveau γ gek prüft werden. Dabei werden zum Testen von H Q , k=1,2,3, die Fehlermatrix

e und die Hypothesenmatrix r

benötigt, wobei obei gilt:

Die Freiheitsgrade des Fehlers und der Hypothese sind hier jeweils (k} n„ = η = n. + ... + η - r e e l r

bzw.

(kl nj; - n, = r-1 h h

und die Matrizen L^, L^, L^ sind wie folgt gegeben. Beim Prüfen von H^ ist L

i =(yi

>- i p-i ) T

zu setzen und in den kritischen Werten der Tests ist ρ durch p* = p-1 zu 2 2* ersetzen; beim Testen von Η bzw. Η wird ο ο L2=1p

bzw.

L 2 = a,

gesetzt und ρ ist durch p*= 1 zu ersetzen, d.h. die angegebenen Tests ent2 2* arten zu F - Tests und H Q bzw. H q wird zum Niveau γ verworfen, falls

714

Kapitel X: Das multivariate lineare Modell

S c h l i e ß l i c h i s t , wie b e r e i t s erwähnt,

und i n den k r i t i s c h e n Werten b l e i b t ρ e r h a l t e n . B e A A p l e l : Um den E i n f l u ß e i n e s K o n t a k t a k t i v i e r u n g s p r o d u k t s .auf d i e V e r l ä n gerung d e r B l u t g e r i n n u n g s z e i t zu u n t e r s u c h e n , werden 30 Kaninchen z u f ä l l i g a u s g e w ä h l t und j e n = n^ = 10 Kaninchen werden e i n e r d e r r = 3 Behandlungen K o n t a k t a k t i v i e r u n g s p r o d u k t ( 1 ) , E n d o t o x i n ( 2 ) und Placebo ( = N a t r i u m c h l o r i d ) ( 3 ) z u g e o r d n e t , v g l . Immich/Sonnemann ( 1 9 7 4 ) . Vor V e r s u c h s b e g i n n ( t ^ = 0 ) wurde den T i e r e n B l u t entnommen und d i e G e r i n n u n g s z e i t

bestimmt.

Danach wurde das j e w e i l i g e M i t t e l i n d i e Ohrvene e i n g e s p r i t z t und dann nach t g = 10, t j = 6 0 , t ^ = 120 und t g = 180 M i n u t e n d i e G e r i n n u n g s z e i t des B l u t e s b e s t i m m t . D i e d e r a r t gewonnenen Daten s i n d i n Cab.24 angegeben und i n Abb.8 s i n d d i e m i t t l e r e n V e r l ä u f e

veranschaulicht.

Wir w o l l e n nun z u n ä c h s t d i e Hypothese H^ d e r P a r a l l e l i t ä t d e r m i t t l e r e n V e r l ä u f e d e r B l u t g e r i n n u n g s z e i t e n b e i den 3 Behandlungen t e s t e n . Dazu b e rechnen w i r d i e F e h l e r m a t r i x ,„ s

/ 3

10

i ' - » p - r - w U , '238.9 150.8 164.3 100.3

150.8 154.5 123.0 108.1

j l

164.3 123.0 161.4 96.5

s ( y

ij"7i.

) ( y

ir7i·

5

/ V r ' V i '

100.3' 108.1 96.5 119.0

und d i e H y p o t h e s e n m a t r i x ^ • » p - i ' - V i K j , '555.80 343.30 294.30 J48.10

343.30 212.47 181.47 91.10

" ^ . - y J f f i . - y . / ) » 294.30 181.47 156.07 78.70

ρ

- γ Λ - Ι

) Τ

148.10' 91.10 78.70 39.80

Zum P r ü f e n von H^ zum b% Niveau w o l l e n w i r h i e r d i e χ 2 - A p p r o x i m a t i o n des, W i l k s - T e s t s verwenden, wobei η = 3 . 1 0 - 3 = 27 e g i l t . Bezeichnen ξ ^ . , . , ξ

und

hier n. = 3 - 1 = 2 h

d i e E i g e n w e r t e von

, so e r g i b t

sich

Kapitel X: Das multivariate lineare Model!

715

I a h . 2 4 : B l u t g e r i n n u n g s z e i t bei Kaninchen ( d i e angegebenen Rangzahlen R ^ - ( t ^ ) werden s p ä t e r noch b e n ö t i g t

Behandlung (1)

Beobachtungszeit y · . ( t v ) i n min/2 J

1 2 3 Kontakt- 4 aktivie- 5 rungs6 produkt 7 8 (1) 9 10

10

18 17 21 21 16 19 16 18 19 21

1 1 1 1 1 1 1 1 1 1

22 18 25 22 17 24 23 19 22 22

1 1 1 1 1 1 1 1 1 1

22 17 19 20 23 26 27 29 21 21

182

1 2 3 4 Placebo 5 (NaCl) 6 (3) 7 8 9 10

w

60

2 2 2 2 2 2 2.5 3 2 2

23 19 21 21 24 28 27 23 23 23

2.5 2.5 2.5 1. 5 2 2 4.5 4.5 4. 5 4

18 24 22 21 19 24 20 22 19 20

120

2.5 3.5 3 4 4 3 2 3 3 3.5

23 19 31 22 19 28 25 22 22 25

19 22 22 21 20 24 22 20 19 19

ijcktm ditlzn

und Μ o d M & n mix

daß neben den i n t e r e s s i e r e n d e n Merkmalen auch zumindest e i n i g e der vivUablen

zu^ältig

Mo-

E^efe-ten hingegen geht man davon a u s ,

zuiätUgin

Einiluß-

s i n d ; bei q u a l i t a t i v e n , z u f ä l l i g e n E i n f l u ß v a r i a b l e n , wie

wir s i e h i e r betrachten werden, bedeutet d i e s , daß es s i c h bei den in einem Experiment b e t r a c h t e t e n , e n d l i c h v i e l e n F a k t o r s t u f e n l e d i g l i c h um eine A u s wahl aus e i n e r (unendlichen) Anzahl

von i n t e r e s s i e r e n d e n F a k t o r s t u f e n han-

d e l t und s i c h Aussagen über d i e E f f e k t e des F a k t o r s b z g l . der

interessie-

renden Merkmale auf a l l e Stufen des F a k t o r s beziehen.

BeXipieX·.

Im A b s c h n i t t 1.4.1 haben wir in einem Modell mit f e s t e n

den ' E i n f l u ß '

Effekten

von 6 Bohrlöchern in einem E r z l a g e r auf den Gehalt an Metall

und taubem Gestein u n t e r s u c h t .

I n t e r e s s i e r t man s i c h aber f ü r d i e

Struktur

des gesamten E r z l a g e r s , so muß man d i e konkret betrachteten Bohrlöcher a l s

720

Kapitel X: Das multivariate lineare Modell

eine ( z u f ä l l i g e ) Auswahl aus a l l e n möglichen Bohrlöchern betrachten, d.h. der Faktor "Bohrloch" i s t z u f ä l l i g anzusetzen, um so Aussagen über die Schwankungen innerhalb des Erzlagers bzgl. der Merkmale Metallgehalt und Gehalt an taubem Gestein zu gewinnen.

J

Allgemein betrachtet man Modelle der Gestalt Υ = Χψ+ W.E. + . . . + W E 11 mm

,

wobei Y die ηχρ - BeobachXung-imvOUx für die ρ interessierenden Merkmale an η Versuchsobjekten, X die VeiignmcUfux feste ?cuiamete/unaXM.x, W^ zen und E^

den. Reiten

Ψ die zugehörige

Efäekte,

bekannte ηχη^ - dimensionale Oeb-Lgnmcuüu.-

Em z u f ä l l i g e , voneinander unabhängige η^χρ -

Veklenmatnlzen

mit jeweiligem Erwartungswert 0 und zugehörigen Kovarianzmatrizen von der Gestalt Cov(E k ) = I

e$k

für k=1

m

sind ( e = Kroneckerprodukt); d.h. die Zeilen der Matrizen E k = ( e ^ sind miteinander u n k o r r e l i e r t und die Kovarianzmatrix

ekn)

zu jeder p-dimensiona

len Zeile von E^ i s t $ k f ü r k=1,...,m. Bezogen auf das Modell mit festen Effekten aus Abschnitt 1 bedeutet dies a l s o , daß die Fehlermatrix Ε zerlegt wird in m E =

ι k=1

w E Kk k K

mit bekannten Designs W^

Wm< Zur Unterscheidung heißt die Designmatrix

X der festen Effekte auch VeAlgn l.AxX, und die Designmatrizen W ^, ·..,w m der z u f ä l l i g e n Effekte heißen V e i i g m l . b x t . Die Fehlermatrix Ε b e s i t z t dann hier im Modell mit z u f ä l l i g e n Effekten den Erwartungswert 0 und die Kovarianzmatrix

m Cov(E)= Σ U k « t k

mit

U k = WkWk

Man nennt obiges Modell mit z u f ä l l i g e n Effekten auch Vcuüanzkomponentenmodeti,

und

sind die ρχρ - dimensionalen multivcuUaXen VajUanzkom-

ponenten. Zur Beurteilung des Einflußes der z u f ä l l i g e n Effekte verwendet man dann Schätzungen

^ÜA die. unbekannten

VaftMinzkompanenten ^

gen für die Diagonalelemente der Matrizen

τ

$ m · Die Schätzunsind natürlich gerade

Schätzungen für die Anteile der Variation der ρ Merkmale, die auf die zugehörigen Faktoren zurückzuführen s i n d , und die übrigen Schätzungen für die

721

Kapitel X: Das multivariate lineare Modell

Elemente von

sind entsprechend Schätzungen für die Kovarianz

zwischen den ρ Merkmalen. Wir werden nier, abgesehen von Abschnitt 2.5, einige Modelle, ten

muZtiucvUatcn

VajUanza.na.lyie.

mit

Ε Rekten

zuiätLigen

den.

balancleA-

(nur ein festes

Gesamtmittel wird betrachtet, d.h. X = 1 n ) betrachten, in denen dann die Varianzkomponente ^

für k=1,...,m-1 einem zufälligen qualitativen Einfluß-

faktor oder einem Wechselwirkungsfaktor zwischen zwei Faktoren, der auf n^ ausgewählten Stufen im Experiment betrachtet wird, zugeordnet ist, und ist die Restkovarianzmatrix, die nicht durch die Einflußfaktoren erklärt wird.

Dabei werden wir jeweils zwei verschiedene Schätzer für die multivariaten Varianzkomponenten, die sich im univariaten Fall ( p = 1 ) gerade auf eine Varianz reduzieren, angeben. Den Schätzer ^ fuAte. Minimum

Horn

Invasuant

QuadlttiMi

nennen wir MMINQUE

Unbiaied

(Multiva-

da er eine

ΕitUmaXoA.),

Verallgemeinerung des univariaten MINQUE'* ist, wie er von Rao (1972) eingeführt wurde; dieser quadratische Schätzer ist invariant gegenüber Translationen (linearen Verschiebungen) des Erwartungswertes ΧΨ von Y und hat außerdem unter allen erwartungstreuen (unbiased) Schätzungen die kleinste Norm. Der Nachteil

deA MMINQUE'i

ist, daß er wie auch der univariate MINQUE

unzulässige Schätzungen liefern kann: Der MINQUE führt mitunter (teils mit recht hoher Wahrscheinlichkeit, vgl. z.B. Verdooren (1980)) zu negativen Schätzwerten für natürlich positive Varianzkomponenten, und der MMINQUE liefert zum Teil keine positiv semidefiniten Schätzmatrizen für die natürlich stets positiv semidefiniten multivariaten Varianzkomponenten, die ja selbst gerade Kovarianzmatrizen sind. Daher werden wir auch Schätzer für die multivariaten Varianzkomponenten ί^,.,.,ί

angeben, denen

ein Schätzkonzept zugrundeliegt, daß den Nachteil nicht positiv semidefiniter Schätzwerte vom MMINQUE nicht besitzt. Das univariate Konzept dieser poiixlvm

Schätzungen

wurde von Härtung (1981) entwickelt; im Fall der mul-

tivariaten Verallgemeinerung, die stets positiv semi definite, quadratische Schätzungen für

liefert, werden wir hier vom PSV - Schät zen

spre-

chen. Dieser gegenüber Translationen des Erwartungswerts invariante Schätzer ist zwar nicht unverzerrt (erwartungstreu), jedoch besitzt er unter allen positiv semidefiniten Schätzungen die minimale

VeAzeAAung

(mininim

bicu>)

und ist unter allen minimal verzerrten Schätzungen der Schätzer mit kleinster Norm. Die allgemeinen Prinzipien der Verallgemeinerungen von Rao's MINQUE und Hartung's positivem Schätzer sind in Elpelt ( 1983) dargestellt. Es sei an

722

Kapitel X: Das multivariate lineare Modell

dieser Stelle lediglich noch darauf hingewiesen, daß die Schätzwerte für die Reststreuungen $

(und nur diese) in den hier behandelten M A N O V A - M o -

dellen bei beiden Schätzkonzepten übereinstimmen, d.h. es gilt stets i m = i m Im Anschluß an diese einleitenden Bemerkungen werden wir nun einige spezielle MANOVA - Modelle mit zufälligen Effekten behandeln. Und zwar beschäftigen wir uns zunächst mit kieAOAckcich&n kieuzkta.alilz-ieJvte.n

UodeZten.

KlaM-i^cutiomn

und dann mit

Die Entsprechung der mMxveAAxUen

2 werden Schätzungen für σ γ und — 2 2 Schätzungen für die lnitmme.ntmva>vLaiA.onm

σ^,.,.,σ^, die für

inva-

riant gegenüber der Produktvariabilität sind, angegeben. Der näher an den Prinzipien und der Theorie der Schätzung von Varianzkomponenten interessierte Leser sei etwa verwiesen auf Rao (1972), Härtung (1981), Pukel sheim (1981), El pel t/Hartung ( 1982b), Infante (1982), Elpelt (1983,1984), Voet (1983), Hartung/Voet (1984), betreffend die numerische

Kapitel X: Das multivariate lineare Modell

723

Berechnung der positiven Schätzer in unbalancierten Modellen auf Verfahren wie in El pelt/Hartung

(1983b), Härtung (1978c ,1978d,1980,1981 ,1982a,1982b),

und bzgl. der Präzisionsbestimmung

von Meßinstrumenten speziell auch auf

Grubbs (1948,1973), Klösener (1983), Hartung/Heine

2.1

DIE

BALANCIERTE

Τ I0Ν

MIT

MULTIVARIATE

ZUFÄLLIGEN

Bei der baZancxeAtin

miMxvanAate.n

(1984).

Ε IΝFA C Η ΚLA S S IF IΚA -

EFFEKTEN

E-in^achkicLii^ikatAXin

m-iX

zu^äZtcge.n

E d i k t e n wird der Einfluß eines qualitativen Faktors Α auf ρ interessierende Merkmale untersucht, und zwar werden in einem Experiment auf r zufällig ausgewählten Stufen des Faktors Α jeweils s Beobachtungen gemacht. Bezeichnet μ den natürlich festen Gesamtmittelwert, A^ den zufälligen Effekt der i-ten Stufe des Faktors A (i=1,...,r) und e^j fur i=1,...,r, j = 1,...,s den zufälligen Restfehler bei der Beobachtung der ρ Merkmale am j-ten Objekt auf der i-ten Stufe des Faktors A , so wird der zugehörige p-dimensionale Beobachtungsvektor y ^ y

zerlegt in

= μ + Ai + ei .

für i = 1,...,r, j = 1

Gehen wir davon aus, daß die A^ und die e ^

s

für i=1,...,r, j = 1,...,s von-

einander unabhängige Zufal1svektoren mit Erwartungswert 0 sind, wobei A.,...,A die Kovarianzmatrix I r trix £

=

Vs'

E

= (A

1

, ,,...,y )T, X = 1 , Ψ = μ τ , W, = I e 1 , "rl "rs rs 1 r s

wobei V = (y.. ,y 1 0 ,... J 11 -Ί2 "is 2

und die e. · alle die gleiche Kovarianzmaιj

besitzen, so kommen wir zu einem Modell der Form Y = XY + W 1 E 1 + W 2 E 2

W

μ

1 .A 2 ,... , A r ) T und

= ( e 1 1 , . . . ,e 1 s ,... , e H ,... , e r s ) T

mit E r w a r t u n g s w f t von E^ = 0, k = 1,2 und Cov(E^) = I β

ist,

Cov(E^) = I r s * $ e ·

Zur Schätzung der beiden multivariaten p*p - Varianzkomponenten

und ί

müssen nun zunächst die Matrizen SA = s α

[

i=1

(y - 7 )(y - 7 ) T und S = { ι. .. i. .. e i=1

\

j=1

(y υ

-y

H

y ^ )T lj i.

bestimmt werden, die mit -

y

I

iι·

s

=

Is

Σ

j=1

y

iij i

und

y

-

1

r

= .. 7 ?rs iΣ= 1

s

^

j=1

y

i iij

gerade mit den Matrizen S^ und S g im Modell der balancierten

multivariaten

Einfachklassifikation mit festen Effekten, vgl. Abschnitt 1.4.1, übereinstimmen. Unter Verwendung dieser Matrizen ergeben sich dann die Schätzer

724

für

Kapitel X: Das multivariate lineare Modell

sowie

und zwar ergibt sich der MM1NQUE für

h=J

("FT,SA"FTsW'Se)

der entsprechende ϊ

s

PSV - SchätzeΛ 1

zu

'

zu

c

sowie der bei beiden Schätzkonzepten gleiche Schätzer für ie

=

ie=K?rTy'Se

zu

'

Bz-L&p-Lel.

(a) Im Abschnitt 1.4.1 haben wir den Effekt von r = 6 Bohrlöchern aufgrund der Beobachtungen an jeweils s = 5 Proben auf den Metallgehalt und den Gehalt an taubem Gestein {ρ = 2) untersucht, vgl. Tab.19. Möchte man Aussagen nicht nur über diese 6 Bohrlöcher sondern vielmehr über a l l e möglichen Bohrlöcher im

Erzlager, d.h. über das gesamte Erzlager machen, so muß man

hier ein einfaches hierarchisches Modell mit zufälligen Effekten ansetzen und aufgrund der Daten der Tab.19 die Streuungsmatrix

von Metallgehalt

und Gehalt an taubem Gestein, die auf die Bohrlöcher zurückzuführen i s t , sowie die Reststreuungsmatrix £

schätzen. Es ergibt sich hierzu, vgl.

auch Abschnitt 1.4.1, ς ä

A

.[223.852 -5.934

-5.934) 14.804 '

ς

^e

_ f 187.636 -102.586

-102.586 70.588

so daß wir als IWINQUE für J A 7.39044 0.61752

0.61752) 0.00388

erhalten; der MMINQUE i s t hier nicht positiv semidefinit (die Kovarianz der beiden Merkmale wird hier überschätzt), denn

hat die Eigenwerte

7.44171 und -0.04738, wohingegen der PSD - Schätzer natürlich eine zulässige Schätzung, nämlich & _ 5 1 c _ 5 c _ i 8.60969 *A = ^ ' F T A = T30" S A = t-0.22823

-0.22823 0.56938

l i e f e r t . Schließlich ergibt sich die Schätzung für die Reststreuungsmatrix t_ zu e

2 2 1 , ^e ~ ^e - 6(5-1) e

1 ,

r 7.81817 e ~ [-4.27442

-4.27442 2.94117

[Eine Matrix mit z.T. negativen Eigenwerten i s t nicht p o s i t i v semidefinit.] (b) Zur I l l u s t r a t i o n wollen wir auch das zweite Beispiel der Irisarten aus Abschnitt 1.4.1, wo auch die Matrizen S ^ = S ^ und S g bereits angegeben sind,

Kapitel X: Das multivariate lineare Modell

725

h i e r noch einmal a u f g r e i f e n . Geht man davon a u s , daß d i e r = 3 I r i s a r t e n , von denen j e w e i l s s = 50 Pflanzen b z g l . ρ = 4 Merkmalen u n t e r s u c h t wurden, v g l . Tab.3 in K a p . I V , nur eine Auswahl aus ( u n e n d l i c h v i e l e n )

interessie-

renden Arten d a r s t e l l e n , so kommt man h i e r zu einem Modell mit z u f ä l l i g e n E f f e k t e n , i n dem

die Streuung, die auf d i e Arten z u r ü c k g e f ü h r t werden

kann, durch d i e j e w e i l s p o s i t i v s e m i d e f i n i t e n Matrizen 0.6268 -0.2014 1.6493 0.7120

*A~TWSA~735Ö"Se 0.6318 -0.1994 1.6519 0.7125

50 ς 5ÜÜ?'V



-0.1994 0.1135 -0.5722 -0.2292

-0.2014 0.1112 -0.5735 -0.2300 1.6519 -0.5722 4.3693 1.8671

1.6493 -0.5735 4.3673 1.8668

0.7120] -0.2300 1.8668 0.8033

0.7125 -0.2292 1.8671 0.8038

g e s c h ä t z t wird und s i c h der S c h ä t z e r f ü r die Reststreuung 1

te = :

2.2

S

0.2650 0.0927 0.1675 0.0384

W V

DAS

BALANCIERTE

MIT

ZUFÄLLIGEN

Beim Modell

11 dvi

0.0927 0.1154 0.0552 0.0327

ZWEIFACH

0.1675 0.0552 0.1852 0.0427

e r g i b t zu

0.0384 0.0327 0.0427 0.0419

HIERARCHISCHE

J MODELL

EFFEKTEN

balancieMm

zw&^ach

hLe>ia.>Lchiic.hin

Ktaiiiiikation

wird wie im entsprechenden Modell mit f e s t e n E f f e k t e n , v g l . A b s c h n i t t

1.4.4,

der E i n f l u ß zweier Faktoren Α und Β auf ρ i n t e r e s s i e r e n d e Merkmale u n t e r s u c h t , wobei die Stufen des Faktors Β nur j e w e i l s mit e i n e r S t u f e des Fakt o r s Α kombiniert b e t r a c h t e t werden. Wählt man z u f ä l l i g j e w e i l s r Stufen des F a k t o r s A ai's und e b e n f a l l s z u f ä l l i g j e w e i l s s Stufen des Faktors Β innerhalb der Stufen von A , auf denen dann im Experiment je t Beobachtungen von ρ Merkmalen gemacht werden, so kommt man zum Modell der zweifach h i e r a r c h i s c h e n K l a s s i f i k a t i o n mit z u f ä l l i g e n y

ijk

= μ + A

i

+ B

ij

+e

ijk

Effekten

f ü r i = 1 , . . . , r , j = 1 , . . . , s , k = 1 , . . . ,t

;

h i e r bezeichnet y ^ ^ den p-dimensionalen Beobachtungsvektor am k - t e n Objekt bei der j - t e n S t u f e des Faktors Β innerhalb der i - t e n S t u f e des Faktors A , μ das f e s t e Gesamtmittel, A^ f ü r i = 1

r den z u f ä l l i g e n E f f e k t der i - t e n

Stufe des F a k t o r s A , B^. f ü r i = 1 , . . . , r , j = 1 , . . . , s den z u f ä l l i g e n E f f e k t der j - t e n Stufe des F a k t o r s Β innerhalb der i - t e n S t u f e des F a k t o r s Α und e^.^ den R e s t f e h l e r bei der Beobachtung von y . ^ ·

Weiter nehmen w i r an, daß die

A.j, d i e B . j und d i e e^·^ f ü r i = 1 , . . . , r , j = 1 , . . . , s , k = 1 , . . . , t

voneinander

726

Kapitel X: Das multivariate lineare Modell

unabhängig mit Erwartungswertvektor 0 sind, daß gilt Cov(A^) C o v ( B . j j ) = $ ß und Covfe^ - k ) =

für i = 1,...,r, j=1

s und k=1

t.

Mit den Bezeichnungen r

1

*•··

=

^

s

t

^

_

kl/ijk '

y

,

s

i·· = i t

t k

_

|/ijk '

y

ι

^

id- = t , Σ / i j k

ergeben sich dann die Matrizen SA=st

[ (y i=1 1

A

S

B

= t

j,

-y

)(y> 1

)T ,

-y

I / ' i ^ i J ^ i . /

Α

'

Β

die den Matrizen S^, S^ und S g im Modell mit festen Effekten entsprechen und aus denen sich die Schätzer für die Varianzkomponenten

und $ e >

welche auf die durch die Faktoren Α und Β verursachten Streuungen bzw. die Reststreuung zurückzuführen sind, ergeben. Die MMINQUE'a für $ A bzw. $ ß sind

h=Jt

bzw

(fT^A-FTFTT^b)

·

^B = l ( ? r F T F , S B " ? s l t n ' S e )

die entsprechenden PSV - Schätz zu ergeben sich zu

^

T

^

k

?

'

bzw

^

·

ν ^ - κ π τ τ

5

! »

und für die Reststreuung £ e erhalten wir

^e

=

rs(t-1)' S e

'

BeAAplei.·. Im Abschnitt 1.4.4 haben wir den Einfluß von s = 3 Maschinen in r = 3 Betrieben auf p = 2 Qualitätsmerkmale von Transistoren in einem Modell mit festen Effekten untersucht, vgl. auch Tab.23. Interessiert man sich für den generellen Einfluß von Betrieben und Maschinen, so muß ein Modell der zweifach hierarchischen Klassifikation mit zufälligen Effekten verwandt werden. Bezeichnet μ das feste Gesamtmittel

der

Qualitätsmerkmale,

A.j für i=1,2,3 den Effekt des i-ten zufällig ausgewählten Betriebs,

B^

für j=1,2,3 den Effekt der j-ten zufällig ausgewählten Maschine im i-ten Betrieb (i = 1,2,3) und e ^ ^

den Restfehler bei der Beobachtung y^

der

'

727

Kapitel X: Das multivariate lineare Modell

Qualitätsmerkmale am k-ten Transistor, der von der j-ten Maschine im i-ten Betrieb gefertigt wurde (i,j=1,2,3, k=1,2,3,4), so ergibt sich das Modell y

ijk

= M + A

i+Bij

+ e

ijk

für i,j=1,2,3, k=1,2,3,4

.

Nehmen wir an, daß die zufälligen Effekte A i des Faktors Α (Betriebe), des Faktors Β (Maschinen), e ^ ^

B^

des Restfehlers für i,j=1,2,3 und k=1,2,3,4

voneinander unabhängig sind, den Erwartungswert 0 sowie die Kovarianzmatrizen Cov(A.)=tA

,

Cov(Bij)=tB

,

Cov(eijk)=ie

besitzen, so ergeben sich aus den Daten der Tab.23 in Abschnitt 1.4.4 die Matrizen Γ 4344 A ~ [-3246

ς

-3246] 2814J *

ί478.0 Β "[289.0

ς

289.0] 510.5j

ς

'

_ f4610.0 [2223.0

2223.0] 5728.5j

'

aus denen sich mit r,s = 3, t = 4 die MMINQUE 's und PSD - Schätzer für $ A > und Tί berechnen lassen: e f J /I Α 12 \2

Ψ

ς

1 ς \ - 1 A " 6 By ^

f 12 1 ^A ~T44+T6+T*2 Ϊ Φ

6 A " 161

ς

A

_ L ς - ί 174.361 A " 72 Β " [-139.264 ί 161.888 [-120.969

1/1 ς 1 ς \ _]_ c 1 ς Β " 4 V6 ,;>B " S T ' V " B ~ W " e

Ϊ +

c

ς

B

ί

4 l c - 1 c . ί 18.745 T6+T°6 Β 51 Β [11.333

ί

l c -f170.741 27 e [ 82.333

In diesem Beispiel

-120.969] 104.870J Γ-22.769 [ -8.542

-8.542] -31.771J

11.333] 20.020j

82.333] 212.167J

sind weder der MMINQUE für

semidefinit; bei der Schätzung

-139.264] 110.160J

noch der für

positiv

liegt das daran, daß die Kovarianz zwi-

schen den Qualitätsmerkmalen bzgl. der Betriebe überschätzt wird, und bei der Schätzung

werden die Varianzen der Qualitätsmerkmale beide negativ

geschätzt. Die übrigen Schätzer sind natürlich positiv

2.3

DAS

BALANCIERTE

MIT

ZUFÄLL IGEN

DREIFACH

semidefinit.

HIERARCHISCHE

MODELL

EFFEKTEN

Sind nicht nur die Stufen zweier Faktoren Α und Β hierarchisch angeordnet, wie dies in Abschnitt 1.4.4 und Abschnitt 2.2 der Fall

ist, sondern zusätz-

lich noch die Stufen eines dritten Einflußfaktors ε hierarchisch

innerhalb

der Stufen des Faktors Β angeordnet, so spricht man von einem cUe^iach kie.1-

728

Kapitel X: Das multivariate lineare Modell

aAiiku>c.hm ΜodelZ. Geht man davon aus, daß r Stufen mit Effekten Α^,.,.,Α^ des Faktors Α z u f ä l l i g für ein Experiment ausgewählt werden, daß innerhalb jeder Stufe i = 1 , . . . , r s Stufen des Faktors Β mit Effekten B ^

Βη.

zu-

f ä l l i g ausgewählt werden, daß innerhalb der j-ten Stufe des Faktors Β bei der i-ten Stufe des Faktors A (i=1 C mit Effekten C ^ ^

C^

r , j = 1 , . . . , s ) t Stufen des Faktors

z u f ä l l i g ausgewählt werden und daß auf jeder

Stufe ijk des Faktors C ρ interessierende Merkmale an u Objekten beobachtet werden, so ergibt sich ein Modell mit zufäl1 igen Effekten w " * V B

c

1 j +

l J k +

e

i=1,

'

1 J k l

k=i;^it!ä=i',.'?.\u

.

wobei hier y . ^ ^ den Beobachtungsvektor am «.-ten Objekt auf der k-ten Stufe des Faktors ε innerhalb der j-ten Stufe des Faktors B, die wiederum innerhalb der i-ten Stufe des Faktors Α l i e g t , e.j

den nicht durch die drei

Faktoren erklärbaren Restfehler bei der Beobachtung y ^ j ^ und μ ein festes Gesamtmittel bezeichnet. Nimmt man-an, daß für i = 1 , . . . , r , j = 1 , . . . , s , k=1

t, i = 1

u die Effekte

A.j, B^j, C . ^ und e ^ . ^ unabhängig mit Erwartungswert 0 und Kovarianzmatrizen Cov(Ai)=iA,

Cov(B.jj) =

, Cov(Cijk) =|c , C o v f e ^ ) = | e

sind, so ergeben sich die Schätzer für

ig,

und

unter Verwendung

der Matrizen S A = stu a

J

(y.

r B=

tu

C=

u

e=^

)T

-y

1

h

JI j

^ tu

,

s J

(7

ji

·

i3k.-7ij..)(yijk.-yij..)T (Vijkryijk.^yijkii-yijk.)

l

r

i

ij..

)(y.

.Σ, / = 1

wobei g i l t _

y

-y

1

i =1

t

s

t

u

u J^

_

_ y

ijk«. '

y

Ϊα=ΤΕΓ ( t V V t T F T T

u J,

und S

b)

t

u

^ u

ijk.

wie folgt. Die MMISIQUE'i für

s

1

'

y

i jki,

'

sind gerade *B

=

tu ( t T s W j ' ^ B " r s ( t - 1

'

729

Kapitel X: Das multivariate lineare Modell

u (rs(t-1)'SC~ rst(u-1)'Se

*C

und d i e entsprechenden PSD - Schätze.*, stu

s _ +A =

ι '7=rsi\

rs(t-1)

ergeben s i c h zu c

itu u

a _ h~

'

ι c ' F r s ^ r y ^B

-S, C

der Schätzwert f ü r die Reststreuung {

e r g i b t s i c h bei beiden Schätzkonzep-

ten zu ^e

=

^e " r s t ( u - 1

ΒβΛΔΡ'teZ: Wir wollen h i e r einmal e i n u n i v a r i a t e s Experiment, d.h. es wird nur e i n Nerkmal beobachtet ( p = 1 ) , in einem Modell der b a l a n c i e r t e n

drei-

fach h i e r a r c h i s c h e n K l a s s i f i k a t i o n mit z u f ä l l i g e n Effekten auswerten. Um d i e Verschmutzung des Rheins mit anorganischen W a s s e r i n h a l t s s t o f f e n zu unt e r s u c h e n , werden r = 2 L a b o r a t o r i e n ( F a k t o r A , E f f e k t e A^.Ag) und i n n e r halb der L a b o r a t o r i e n je s = 3 A n a l y s e g e r ä t e ( F a k t o r B , E f f e k t e B ^ , Β ^ , Β ^ f ü r i = 1 , 2 ) z u f ä l l i g ausgewählt. Nun werden in jedem Labor an jedem Gerät von j e w e i l s t = 2 Laboranten ( F a k t o r C, E f f e k t e C-j-jj . C ^

f ü r i = 1,2, j = 1 , 2 , 3 )

je u = 5 Wasserproben ( d i e am selben Ort zur selben Z e i t entnommen wurden) a n a l y s i e r t ; d i e A n a l y s e e r g e b n i s s e d i e s e s sogenannten RingveAiuchei

s i n d in

tab.27 zusammengestellt ( v g l . auch El pelt/Hartung ( 1982b)). Bezeichnet μ die m i t t l e r e Verunreinigung mit anorganischen S t o f f e n , y . ^ ^ das A n a l y s e e r g e b n i s ( i n mg/s.) f ü r d i e i - t e Probe, die vom k - t e n Laboranten am j - t e n A n a l y s e g e r ä t im i - t e n Labor a n a l y s i e r t wurde, so l ä ß t s i c h d i e s e r Versuch in einem Modell y

ijk£^

+ A

i

+ B

ij

+ C

i ji jkk +

e

i = 1 , 2 ; j = 1,2,3;k = 1,2;i> = 1 , . . . , 5 ,

ijkj>

der b a l a n c i e r t e n d r e i f a c h h i e r a r c h i s c h e n K l a s s i f i k a t i o n mit z u f ä l l i g e n fekten auswerten, wenn man annimmt, daß die E f f e k t e der d r e i

Ef-

Einflußfakto-

ren a l l e unabhängig mit Erwartungswert 0 und Kovarianzmatrizen Cov(Ai)=iA,

Cov(Bij) = t ß . Cov(Cijk) = i c , C o v ^

für i = l , 2 , j = 1 , 2 , 3 , k=1,2, £ = ! , . . . , 5

M

)

=

sind.

Dazu berechnet man zunächst aus den Daten der Tab.27 d i e wegen p = 1 s k a l a ren Größen V

3

0

2

i

(y

i..."y....}

?

2801

·64

'

•s

l

-

Probe

Labor 1

Gerät 12

Gerät 13

Gerät 21

Labor 2 Gerät 22

cm co «ί* cn

1051.9

ι>Γ ι>Γ Ι>Γ

Ό

1060.667

1055.6

1062.8

1040 1062 1083 1052 1077 1105.6

1099.8

1094.0

1110 1081 1114 1106 1059

1067.5

1065.0

1061 1086 1083 1055 1040

1074.5

1084.0

1105 1076 1113 1068 1058 ω y) co f cn r- (Ν cN σι ο OrtHOH

1048.4

1067 1025 1020 1080 1050 1062.2

1018 1046 1062 1072 1113

1074.333

1060.0

1057.8

1054 1086 1020 1068 1061

1066.2 1063.2

1060.2

^ kß ΓΊ I CN co σ* ^m Ο ο ο ο ο

1051.2

1020 1031 1050 1060 1095

ΤΗ Ο Ο ο ο kO Ο ώ Ο Ο ο ο

1052.6

1054 1031 1049 1025 1104

Gerät 23 Laborant Laborant Laborant Laborant Laborant Laborant Laborant Laborant Laborant Laborant Laborant Laborant 111 112 121 122 131 132 211 212 221 222 231 232

Gerät 11

730 Kapitel X: Das multivariate lineare Modell

Ό

Kapitel X: Das multivariate lineare Modell

2 3 X l (y i · -y, ) 2 = 12718.36 1 J 1 i = 1 j=1 " ···

S B = 10 b

°

°

L

2

°

1JK

i=1 j=1 k=1

Ve

731

·

J

= 1900.6

·· ) 2 =31320.4

l Σ l l (i'iik^ijk 1JK J i=1 j=1 k=1 Jl=1

.

Nun ergeben sich die MINQUE's für die den Faktoren Labor (Α), Analysegerät (B), Laborant (C) zugeordneten Streuungsanteile zu ? A = 5 A = 3V ( f

S

A "

S

ß) = 3 T V

T ^ f SB = " 1 2 " 5 9 8

*Β = σ Β = τ τ ( r V r ^ w ' V e V v ίC = °C = { ( r S C · i ' S e ) = I Ö " S C • M Ö " S e

286

=

·282

"67 ·148

' ' '

Der MINQUE liefert hier also nur für die Streuung der Analyseergebnisse bzgl. des Faktors Analysegeräte (B) einen positiven, zulässigen Schätzwert. Hingegen sind die Schätzer nach Härtung (1981) natürlich alle positiv: = σ

^B



Α

=

900+100+25+1 'T'^A = T 7 T " S A

Β "TÖÜ+25+T'4' S B

ic = °C = 2 Ä T T

S

=

= 81 -919

2§2' S B " 2 5 2 - 3 4 8

C = ll6- S C = 6 0 · 9 1 7

Der Schätzwert für die Reststreuung f

' '

*

ergibt sich für MINQUE und positiven

Schätzer schließlich noch zu L T

e

2.4

DIE

=

r

e

e

e

=7Or' s Q 48 e

BALANCIERTE

ZUFÄLLIGEN

=

652.508

.

ZWEIFACHE

I

Κ R ΕU Ζ Κ LA S S IΚ Α Τ I0 Ν

MIT

EFFEKTEN

Liegen die zufällig ausgewählten Stufen zweier Faktoren Α und Β nicht in hierarchischer Anordnung vor, wie dies im Abschnitt 2.2 der Fall war, sondern wird jede der r zufällig ausgewählten Stufen des Faktors Α mit jeder der s zufälligen Stufen des Faktors Β kombiniert bei jeweils t Objekten betrachtet, an denen dann ρ interessierende Merkmale beobachtet werden, so kommt man zu den Modellen

deA zivexf,achen

Κleuzklcuiiiikation

mit

zu^äLLigen

B U e h t e n . Unterschieden wird noch der Fall, daß zwischen den Stufen der beiden Faktoren keine (zufällige) Wechselwirkung berücksichtigt wird, von

732

Kapitel

X: Das multivariate

lineare

Modell

dem Fall mit Wechselwirkungen zwischen den Faktoren. Das Analogon mit festen Effekten im letztgenannten Fall wird im Abschnitt 1.4.2 behandelt. Kommen wir zunächst zum Modelt

ahm

UtchAelwlnkungzn;

festen Gesamtmittel - E f f e k t , A i für i=1

hier bezeichnet μ den

r den zufälligen Effekt der

i-ten Stufe des Faktors A, Bj für j=1

s den zufälligen Effekt der j-ten

Stufe des Faktors B , y . ^ den Beobachtungsvektor am k-ten Objekt auf der i-ten Stufe des Faktors Α und der j-ten Stufe des Faktors Β (i=1 j = 1 , . . . , s , k=1

t) sowie e..

r,

den zufälligen Restfehler bei der Beob-

achtung Y-jj^· Dann läßt sich das Modell schreiben als y i j k ^ + W ^ j k

'1=1

r

wobei wir weiterhin annehmen, daß für i=1

-j=1

s·k=1

r , j=1

1



k=1,...,t die

zufälligen Effekte Α ·, Β-, e... unabhängig mit Erwartungswert 0 und Kova1 J 1J κ rianzmatrizen Cov(Ai)=iA,

Cov(Bj) =

,

Cov(eijk)=|e

sind. Mit den Bezeichnungen

1

r

I*™

t

Ι*™

lassen sich in diesem Modell die Kovarianzmatrizen

$g und

und

unter Ver-

wendung der Matrizen VA

s t

l

i=1

SB = r t b

(y.1 -y

f

j=1

r

s

(y

. -y

-J

) ( y .1 -y

)T

)(y . - y J· ·"

,

)T ,

t

V J ,

(yijk-yi..-y.j.+y...)(yijk-yi..-y.j.+y...)

schätzen. Und zwar ergeben sich die

MMINQUE'i

für die Streuungsanteile

und i g , die auf die Faktoren Α und Β zurückzuführen sind, zu * A = ? t ( r V S A ~ rst-r-s+f S e ) ' ^B = r t (sTT'^B " rst-r-s+l' S e) ' die entsprechenden

PSV

- Schätz2Λ

zu

733

Kapitel X: Das multivariate lineare Modell

ί

_

st

1 3

zu schätzen. Hier bezeichnet für i = 1

'

J=1

N

-

2

n, j=1,...,N y ^

die Messung für

das i-te Objekt mit dem j-ten Meßinstrument, ß^ die (unbekannte) feste Verzerrung, den ImtnumentenbicUi des j-ten Meßinstruments, x^ den zufälligen (zu messenden) Wert des i-ten Objekts und e^. den zufälligen Fehler des j-ten Instruments bei der i-ten Messung. Weiterhin nehmen wir an, daß die x. unabhängig sind mit unbekanntem Erwartungswert μ und der ebenfalls 1 2 unbekannten Varianz V a r ( x . ) = a v für i = 1,...,n, daß die e·· voneinander und 1 Λ IJ von den x. unabhängig sind mit dem Erwartungswert 0 und der unbekannten 2 2 2 Varianz Var(e,· ·) = σ . für i = 1,... ,n, j=1,... ,N. Die Größen σAγ und σ · >J J J (j=1,...,N), die es hier zu schätzen gilt, nennt man dann auch Pnoduktvaniabll-ität

und Pnäz-Li-Lon

d&i j-ten

Me/UnitMtmenti;

dabei wollen wir verlan-

gen, daß die Schätzungen unabhängig (invariant) vom Instrumentenbias und die Präzisionsschätzungen im Fall N > 2 zudem auch invariant gegenüber der 2 2 Produktvariabilität σ χ (σ χ - invariant) sind. Im folgenden werden wir die klassischen Gmbbi - Schätzen, vgl. Grubbs (1948), 2 die mit dem (für N > 2 σ ν - invarianten) MINQUE übereinstimmen und mitunter 2 negative Werte annehmen, sowie die (für N > 2 σ γ - invarianten) poi-ctiven 2 Schätzen nach Härtung (1981) für die Produktvariabilität σ γ und die Präzisionen σ^2 σ^2 angeben; dabei verwenden wir die Bezeichnung

s

k £ = T P i i=1

I1

y

ik

=

für k=1,... ,N

Für N ^ 2 ergibt sich zunächst der Gnabbi 2 σ„ zu

N

^

.

- Schätzen

tät

-2 2 °X = N U F T T

N

"1

N

und der entsprechende positive σ

χλ

=

Ν Ν N γ Υ c 3— L l S.K Ν +1 k=1 Ü=1

S

' kS.

Schätzen

mit

ist

{>ün die

PnoduktutVLiab-lli-

Kapitel X: Das multivariate lineare Modell

738

Beim Schätzen der Präzisionen müssen wir den F a l l Ν = 2 vom F a l l N> 2 unterscheiden. Wir erhalten dann im f a l l zuxJjfi ~2 ~2 Oy und die poi-CUven Sc.hätzeA

SchätzeA

die Gtiubbi -

Me.ßltu,tfoimrtfe "2 ~2 σ^, σ2 ΙΰΛ dlt

ΡΛάζ-ίί-ωη&η

2 σ^,

σ2 in folgender Form: 5

r

S

jj"

S

f Ü r j =1 2

12

'

'

=1(45^ + S 2 2 - 4S 12 )

und

a\ = |(S,,1 + 4S 22 - 4S 12 )

2 Im F a l l W>2 hingegen ergeben sich für die Präzisionen σ^ instrumente die Gmbbi

sowie die poi-ütlvm S

Z J

=

-

.

2 σ^ der Ν Meß-

Schätzm

Schätz&i

JJtnL( (N-1) +1

v

2

s JJ

"

1

l

s JK

k=1

I (N-1)

l

s

)

für j=1

N.

KJt/

k=1 «.=1

BeXip-cel: Um die Präzision von Ν = 3 Meßinstrumenten zur Bestimmung der Startgeschwindigkeit von Geschossen zu schätzen, werden η=10 Geschosse aus einer Produktion z u f ä l l i g ausgewählt und mit jedem Instrument wird die Startgeschwindigkeit jedes Geschosses gemessen, vgl. tab.29 ( i n der auch die mittlere Startgeschwindigkeit beim j-ten Meßinstrument y . für j=1,2,3 angegeben ist),wobei y.^ die mit dem j-ten Instrument gemessene Startgeschwindigkeit des i - t e n Geschosses bezeichnet. Cab.29: Startgeschwindigkeiten von η = 10 Geschossen gemessen mit Ν = 3 Meßinstrumenten Meßinstrument 1 1 1 2 3 4 5 6 7 8 9 10

Meßinstrument 2 y

242. 255. 260. 245. 240. 252 262. 257. 235 242

5 0 0 0 0 5 5 5 0 5

249. 25

y

i2

247 257 252 262 245 247 272 262 255 240

Meßinstrument 3

5 5 5 5 0 5 5 5 0 0

2 54 25

i3

237 247 250 252 235 245 257 250 237 235

5 5 υ 5 0 0 5 0 5 0

244 75

739

Kapitel X: Das multivariate lineare Modell

Wir wollen nun im Modell + x

y-jj

i

+ e

ij

f ü r i = 1 , . . . . 1 0 , j = 1,2,3

,

wobei β^ den festen Instrumentenbias des j - t e n Meßinstruments, x^ die (wahre) Geschwindigkeit des i - t e n Geschosses und e. · den Fehler bei der Messung ιJο y . · bezeichnet, die V a r i a b i l i t ä t der Geschosse σ γ sowie die Präzisionen der ιJ 2 2 2 Instrumente σ^, σ 2 und σ 3 mittels Grubbs - Schätzern und p o s i t i v e n Schätzern bestimmen. Dazu berechnen wir zunächst S

1

1 0

11=?

>12 =

S

sowie

( y

2 1

=

-

iry1}

2

88

·958

s

·

1 lu ? J (yi1-yi)(yi2"y2)

22

=95

·903

=52

·153

'

'

S

S 3 3 = 64.514 ,

= S

13

31

=62

·292

S j 3 = S ^ 2 =67.847

und erhalten a l s Schätzungen für die P r o d u k t v a r i a b i l i t ä t °X=I(S12

+ S

=Ä(S11

13 + S 2 3 ) = § - 182.292 = 60.764

+ S

22

+ S

+ 2S

33

12

+ 2S

13

+ 2S

bzw.

23} = Μ ' 6 1 3 · 9 5 9 =6 5 ' 7 8 1

'

für die Präzision des ersten Meßinstruments °1

=S

° M

11 -|(S12

+ S

13)+!

(S11 -|(S12

+ S

S

23

= S

11+S23-S12"S13

13> + I < S 2 2

+ S

33

+ 2S

= 42

·360

23>) =4 3 ' 1 4 7

bzw

'

'

für die P r ä z i s i o n des zweiten Meßinstruments σ2 = S 2 2 - | ( S 2 1 + S 2 3 )

+

| S,3 = S22

+

S 1 3 - S , 2 - S 2 3 = 38.195

°2=f i S 2 2 - f ( S 2 l + S 2 3 ) + l < S n t S 3 3 + 2 S 1 3 ) j =

40

bzw.

·371

und für die P r ä z i s i o n des d r i t t e n Instruments s c h l i e ß l i c h °3 J

= S

33 " f ( S 3 1

+ S

32>

3 " I V 33 ~ "T 31

+

! 32

S

12 +

= S

33

4vi11

+ S

12 " S 13 " S 23

=

"13·472

bzW

"

"22

Wir sehen h i e r , daß der Grubbs - Schätzer für die P r ä z i s i o n des d r i t t e n Meßinstruments einen unzulässigen, negativen Wert l i e f e r t .

Anhang 1 TABELLENANHANG Tab.l:

Verteilungsfunktion Φ(χ) der Standardnormal Verteilung N(0;1) .. 742

Tab.2:

Quantile u^ der Standardnormal Verteilung N(0; 1)

743

Tab.3:

Quantile t

744

der t-Verteilung

Tab. 4: Quantile χ*.^ der x 2 -Verteilung

745

Tab. 5: Quantile F„

747



der F-Verteilung

."2 ;γ Chartibis

Chart

XII:

Nomogramme von D.L. Heck

zum Roy-Test

(Erläuterungen hierzu: Seite 766)

ι

754

Reprinted from Heck, D.L. (1960): Charts o f some upper p e r c e n t a g e p o i n t s of the d i s t r i b u t i o n o f the l a r g e s t c h a r a c t e r i s t i c r o o t . Annals of Mathem a t i c a l S t a t i s t i c s , 31, 625-642, w i t h the kind permission o f : The I n s t i t u t e o f Mathematical S t a t i s t i c s .

742

Anhang

φ(χΙ

Tab. 1:

V e r t e i l u n g s f u n k t i o n Φ(χ) d e r Standardnormalverteilung N(0,1)

χ

0,00

0,01

0,02

0,03

0,04

0,05

0,06

0,07

0,08

0,09

0,0 0,1 0,2 0,3 0,4

0,5000 0,5398 0,5793 0,6179 0,6554

0,5040 0,5438 0,5832 0,6217 0,6591

0,5080 0,5478 0,5871 0,6255 0,6628

0,5120 0,5517 0,5910 0,6293 0,6664

0,5160 0,5557 0,5948 0,6331 0,6700

0,5199 0,5596 0,5987 0,6368 0,6736

0,5239 0,5636 0,6026 0,6406 0,6772

0,5279 0,5675 0,6064 0,6443 0,6808

0,5319 0,5714 0,6103 0,6480 0,6844

0,5359 0,5753 0,6141 0,6517 0,6879

0,5 0,6 0,7 0,8 0,9

0,6915 0,7257 0,7580 0,7881 0,8159

0,6950 0,7291 0,7611 0,7910 0,8186

0,6985 0,7324 0,7642 0,7939 0,8212

0,7019 0,7357 0,7673 0,7967 0,8238

0,7054 0,7389 0,7704 0,7995 0,8264

0,7088 0,7422 0,7734 0,8023 0,8289

0,7123 0,7454 0,7764 0,8051 0,8315

0,7157 0,7486 0,7794 0,8078 0,8340

0,7190 0,7517 0,7823 0,8365

0,7224 0,7549 0,7852 0,8133 0,8389

1,0 1,1 1,2 1.3 1.4

0,8413 0,8643 0,8849 0,9032 0,9192

0,8438 0,8665 0,8869 0,9049 0,9207

0,8461 0,8686 0,8888 0,9066 0,9222

0,8485 0,8708 0,8907 0,9082 0,9236

0,8508 0,8729 0,8925 0,9099 0,9251

0,8531 0,8749 0,8944 0,9115 0,9265

0,8554 0,8770 0,8962 0,9131 0,9279

0,8577 0,8790 0,8980 0,9147 0,9292

0,8599 0,8810 0,8997 0,9162 0,9306

0,8621 0,8830 0,9015 0,9177 0,9319

1.5 1.6 1.7 1.8 1,9

0,9332 0,9452 0,9554 0,9641 0,9713

0,9345 0,9463 0,9564 0,9649 0,9719

0,9357 0,9474 0,9573 0,9656 0,9726

0,9370 0,9484 0,9582 0,9664 0,9732

0,9382 0,9495 0,9591 0,9671 0,9738

0,9394 0,9505 0,9599 0,9678 0,9744

0,9406 0,9515 0,9608 0,9686 0,9750

0,9418 0,9525 0,9616 0,9693 0,9756

0,9429 0,9535 0,9625 0,9699 0,9761

0,9441 0,9545 0,9633 0,9706 0,9767

2,0 2,1 2,2 2.3 2.4

0,9772 0,9821 0,9861 0,9893 0,9918

0,9778 0.9826 0,9864 0,9896 0,9920

0,9783 0,9830 0,9868 0,9898 0,9922

0,9788 0,9834 0,9871 0,9901 0,9925

0,9793 0,9838 0,9875 0,9904 0,9927

0,9798 0,9842 0,9878 0,9906 0,9929

0,9803 0,9846 0,9881 0,9909 0,9931

0,9808 0,9850 0,9884 0,9911 0,9932

0,9812 0,9854 0,9887 0,9913 0,9934

0,9817 0,9857 0,9890 0,9916 0,9936

2.5

2,9

0,9938 0,9953 0,9965 0,9974 0,9981

0,9940 0,9955 0,9966 0,9975 0,9982

0,9941 0,9956 0,9967 0,9976 0,9982

0,9943 0,9957 0,9968 0,9977 0.9983

0,9945 0,9959 0,9969 0,9977 0,9984

0,9946 0,9960 0,9970 0,9978 0,9984

0,9948 0,9961 0,9971 0,9979 0,9985

0,9949 0,9962 0,99.72 0,9979 0,9985

0,9951 0,9963 0,9973 0,9980 0,9986

0,9952 0,9964 0,9974 0,9981 0,9986

3,0

0,9987

0,9987

0,9987

0.9988

0,9988

0,9989

0,9989

0,9989

0,9990

0,9990

2.6 2.7

2.8

0,8106

zu Tab. 1: Ablesebeispiel: Φ( 1,56) = 0,9406 Erweiterung d e r T a f e l : ( —x) = 1 — (x) Approximation nach Hastings f ü r χ > 0 : 1

Φ(χ) — 1

— - e

λ

' > , , , - · ( a , t + a , t - + ι ι 3 Γ ' + a 4 t 44 + a , t 5 )

ν'2π b = 0.2316419,

" a , = 0,31938153,

a 4 = - 1,821255978.

· mit

'

t = 1

a2 = -0,356563782.

a 5 = 1.330274429.

a 3 = 1,781477937,

Anhang

Tab. 2:

743

Q u a n t i l e u.. der S t a n d a r d n o r m a l v e r t e i l u n g N ( 0 , 1)

0,9999 0,9998 0,9997 0,9996 0,9995

3,7190 3,540! 3,4316 3,3528 3,2905

0,9975 0,9970 0,9965 0,9960 0,9955

2,8070 2,7478 2,6968 2,6521 2,6121

0,965 0,960 0,955 0,950 0,945

1,8119 1,7507 1,6954 1,6449 1,5982

0,83 0,82 0,81 0,80 0,79

0,9542 0,9154 0,8779 0,8416 0,8064

0,9994 0,9993 0,9992 0,9991 0,9990

3,2389 3,1947 3,1559 3,1214 3,0902

0,9950 0,9945 0,9940 0,9935 0,9930

2,5758 2,5427 2,5121 2,4838 2,4573

0,940 0,935 0,930 0,925 0,920

1,5548 1,5141 1,4758 1,4395 1,4051

0,78 0,76 0,74 0,72 0,70

0,7722 0.7063 0,6433 0,5828 0,5244

0,9989 0,9988 0,9987 0,9986 0,9985

3,0618 3,0357 3,0115 2,9889 2,9677

0,9925 0,9920 0,9915 0,9910 0,9905

2.4324 2,4089 2,3867 2,3656 2,3455

0.915 0.910 0,905 0,900 0,890

1,3722 1,3408 1,3106 1,2816 1,2265

0,68 0,66 0,64 0,62 0,60

0,4677 0,4125 0,3585 0,3055 0,2533

0,9984 0,9983 0,9982 0,9981 0,9980

2,9478 2,9290 2,9112 2,8943 2,8782

0,9900 0,9850 0,9800 0,9750 0,9700

2,3263 2,1701 2.0537 1,9600 1,8808

0,880 0,870 0,860 0,850 0.840

1,1750 1,1264 1,0803 1,0364 0.9945

0,58 0,56 0,54 0.52 0.50

0,2019 0,1510 0,1004 0,0502 0,0000

zu Tab. 2: Ablesebeispiel: u 0

95

= 1,6449

Erweiterung d e r T a f e l : u, _ = — u Approximation nach Hastings f ü r 0.5 < y < 1: a0 + a , t + a , t 3 , ' -I + b, t + b , t - + b 3 t

mit

t = ν — 21n(1 - ; • ) .

a 0 = 2.515517.

a , = 0,802853.

a , = 0,010328.

b, = 1,432788.

b , = 0.189269.

b} = 0,001308.

744

Anhang

Tab. 3:

7

Quantile t„... der t-Verteilung n

0,990

0,975

0,950

'Y

0,900

η

zu Tab. 3: Ablesebeispiel: t i 5 . 0

95

= 1,753

1 2 3 4 5

31,821 6,965 4,541 3,747 3,365

12,706 4,303 3,182 2,776 2,571

6,314 2,920 2,353 2,132 2,015

3,078 1,886 1,638 1,533 1,476

6 7 8 9 10

3,143 2,998 2,896 2,821 2,764

2,447 2,365 2,306 2,262 2,228

1,943 1,895 1,860 1,833 1,812

1,440 1,415 1,397 1,383 1,372

t1:v = tan(jr·

11 12 13 14 15

2,718 2,681 2,650 2,624 2,602

2,201 2,179 2,160 2,145 2,131

1,796 1,782 1,771 1,761 1,753

1,363 1,356 1,350 1,345 1,341

Approximation f ü r 0,5 < y < 1:.

16 17 18 19 20

2,583 2,567 2,552 2,539 2,528

2,120 2,110 2,101 2,093 2,086

1,746 1,740 1,734 1,729 1,725

1,337 1,333 1,330 1,328 1,325

21 22 23 24 25

2,518 2,508 2,500 2,492 2,485

2,080 2,074 2,069 2,064 2,060

1,721 1,717 1,714 1,711 1,708

1,323 1,321 1,319 1,318 1,316

26 27 28 29 30

2,479 2,473 2,467 2,462 2,457

2,056 2,052 2,048 2,045 2,042

1,706 1,703 1,701 1,699 1,697

1,315 1,314 1,313 1,311 1,310

40 50 60 70 80

2,423 2,403 2,390 2,381 2,374

2,021 2,009 2,000 1,994 1,990

1,684 1,676 1,671 1,667 1,664

1,303 1,299 1,296 1,294 1,292

90 100 150 200 300

2,369 2,364 2,352 2,345 2,339

1,987 1,984 1,976 1,972 1,968

1,662 1,660 1,655 1,653 1,650

1,291 1,290 1,287 1,286 1,284

400 600 800 1000 X

2,336 2,333 2,331 2,330 2,326

1,966 1,964 1,963 1,962 1,960

1,649 1,647 1,647 1,646 1,645

1,284 1,283 1,283 1,282 1,282

Erweiterung der Tafel: 1-V

=



*·ιι;

und speziell {y~i}),

V2-(2-y-1)

t 7 ... —

Vi-(2-y-D

2

t^... = u... c 9 u 9 + c 7 u 1 + c 5 u 5 + c 3 u 3 + c, u 92160 n 4

- ~

mit u = U-., c 9 = 79, c 7 = 720n + 776, c 5 = 4800 η 2 + 4560η + 1482, c 3 = 23040η 3 + 15360η 2 + 4080η - 1920, c, = 9 2 1 6 0 η + + 23040η 3 + 2880η 2 -3600 η - 9 4 5 ; f ü r η § 10 kann man auch die Formel von Peizer und Pratt verwenden: t„... ^ y f n - e * ' " — η

η

3

u = u..

und

5

η 2

mit

6 1

1 10η

( A n m e r k u n g : Die Peizer-Pratt-Approximation liefert bereits f ü r η = 3 und 0,5 < γ < 0,99 eine passable Anpassung, wobei die absolute Abweichung zum wahren Wert höchstens 0,08 wird.)

Anhang

Tab. 4:

\

7

Quantile χ 2 . der x 2 -Verteilung

745

χ2

0,995 0,990 0,975 0,950 0,900 0,750 0,500 0,250

0,100 0,050 0,025 0,010

0,005

Ιλ ~ 3 3,93"" 4 9 , 8 2 ~ 4 1 , 5 7 ' " 5 3,93 0,103 ~ 2 5,06 " 2 2,01 "_ 2 1 , 0 0 0,352 0,216 0,115 ' 2 7,17 0,711 0,484 0,297 0,207 1,145 0,381 0,554 0,412

1 2 3 4 5

7,879 10,60 12,84 14,86 16,75

6,635 9,210 11,34 13,28 15,09

5,034 7,378 9,348 11,14 12,83

3,841 5,991 7,815 9,488 11,07

2,706 4,605 6,251 7,779 9,236

1,323 2,773 4,108 5,385 6,626

0,455 1,386 2,366 3,357 4,351

0,102 " 2 1 , 5 8 0,575 0,211 1,213 0,584 1,923 1,064 2,675 1,610

6 7 8 9 10

18,55 20,28 21,96 23,59 25,19

16,81 18,48 20,09 21,67 23,21

14,45 16,01 17,53 19,02 20,48

12,59 14,07 15,51 16,92 18,31

10,64 12,02 13,36 14,68 15,99

7,841 9,037 10,22 11,39 12,55

5,348 6,346 7,344 8,343 9,342

3,455 4,255 5,071 5,899 6,737

11 12 13 14 15

26,76 28,30 29,82 31,32 32,80

24,73 26,22 27,69 29,14 30,58

21,92 23,34 24,74 26.12 27,49

19,68 21,03 22,36 23,68 25,00

17.28 18,55 19,81 21,06 22,31

13,70 14,85 15,98 17,12 18,25

10,34 11,34 12,34 13,34 14,34

7,584 5,578 8,438 6,304 9,299 7,042 10,17 7,790 11,04 8,547

16 17 18 19 20

34,27 35.72 37.16 38,58 40,00

32.00 33.41 34,81 36,19 37.57

28,85 30,19 31,53 32,85 34,17

26,30 27,59 28,87 30.14 31,41

23,54 24,77 25,99 27,20 28,41

19,37 20,49 21,60 22,72 23,83

15,34 16,34 17,34 18,34 19,34

11,91 9,312 7,962 6,908 5,812 12,79 10,09 8,672 7,564 6,408 13,68 10,86 9,390 8,231 7,015 14,56 11,65 10,12 8,907 7,633 15,45 12,44 10,85 9,591 8,260

21 22 23 24 25

41,40 42,80 44.18 45.56 46.93

38,93 40.29 41.64 42.98 44.31

35.48 36,78 38,08 39,36 40,65

32,67 33,92 35,17 36,42 37,65

29,62 30.81 32.01 33,20 34,38

24,93 26,04 27.14 28,24 29.34

20,34 21,34 22.34 23.34 24,34

16,34 17.24 18.14 19,04 19.94

13,24 14,04 14.85 15,66 16.47

11,59 12,34 13,09 13,85 14,61

10,28 8,897 8,034 10,98 9,542 8,643 11,69 10,20 9,260 12,40 10,86 9,886 13,12 11,52 10,52

26 27 28 29 30

48.29 49,64 50,99 52.34 53.67

45.64 46.96 48.28 49.59 50.89

41,92 43.19 44,46 45.72 46.98

38,89 40.11 41.34 42.56 43.77

35.56 36.74 37,92 39.09 40,26

30,43 31,53 32.62 33.71 34.80

25,34 26.34 27,34 28,34 29.34

20.84 17,29 21.75 18.11 22.66 19.94 23,57 19.77 24.48 20.60

15,38 16,15 16,93 17.71 18,49

13.84 14,57 15,31 16,05 16.79

12,20 12,88 13,56 14,26 14.95

11,16 11,81 12,46 13,12 13,79

40 50 60 70 80

66.77 79,49 91,95 104,2 116,3

63.69 76.15 88.38 100,4 112.3

59.34 71.42 83.30 95.02 106.6

55.76 67,50 79.08 90,53 101.9

51,81 63.17 74,40 85.53 96,58

45,62 56,33 66,98 77,58 88,13

39,34 49.33 59,33 69,33 79.33

33.66 42,94 52.29 61.70 71.14

29,05 26.51 37.69 34.76 46.46 43.19 55.33 51.74 64.28 60.39

24.43 32,36 40,48 48,76 57,15

22,16 29,71 37,48 45,44 53.54

20,71 27,99 35,53 43,28 51,17

90 100 150 200 250

128.3 140,2 198.4 255.3 311.3

124.1 135.8 193.2 249.4 304.9

118.1 129.6 185.8 241.1 295.7

113.1 124.3 179,6 234.0 287.9

107.6 118,5 172.6 226.0 279.1

98,65 109.1 161.3 213.1 264.7

89.33 99.33 149.3 199.3 249.3

80.62 73.29 69.13 65,65 61.75 59,20 90.13 82,36 77.93 74.22 70.06 67,33 138.0 128.3 122.7 118,0 112,7 109.1 186.2 174.8 168.3 162.7 156.4 152,2 234.6 221.8 214.4 208,1 200.9 196,2

300 400 600 800 1000

366.8 476.6 693.0 906.8 1119.

359.9 468.7 683.5 896.0 1107.

349.9 457.3 669.8 880.3 1090,

341.4 447.6 658.1 866.9 1075.

331.8 436.6 644.8 851.7 1058.

316.1 418.7 623.0 826.6 1030.

299.3 399.3 599.3 799.3 999.3

283.1 380,6 576.3 772.7 969,5

2,204 1,635 1,237 0,872 0,676 2,833 2,167 1,690 1,239 0,989 3,490 2,733 2,180 1,647 1,344 4,168 3,325 2,700 2,088 1,735 4,865 3,940 3,247 2,558 2,156

269.1 364.2 556.1 749.2 943.1

4,575 5,226 5,892 6,571 7,261

260.9 354.6 544.2 735.4 927.6

3,816 4,404 5,009 5,629 6,262

253.9 346,5 534.0 723.5 914.3

3,053 2,603 3,571 3,074 4,107 3,565 4,660 4,075 5,229 4,601 5,142 5,697 6,265 6,844 7,434

246.0 240,7 337.2 330,9 522.4 514,5 709,9 700,7 898,9 888.6

746

Anhang

zu Tab. 4: Ablesebeispiel: χ ϊ . 0 . 0 5 = " 3 3 , 9 3 = 3,93 · 1 0 " 3 = 0,00393 Approximation nach Wilson und Hilferty f ü r 0 < y < 1:

Anhang

Tab.5:

Quantile F

1

"2

„ 2 ... der F-Verteilung 2

3

747

v 2.y

n n

4

5

6

7

8

9

10

5625, 899,6 224,6 55.83

5764. 921.8 230.2 57.24

5859. 937.1 234.0 58.20

5928. 948,2 236,8 58,91

5981, 6022, 6056, 956,7 963,3 968,6 238,9 240,5 241,9 59.44 59,86 60,20

11

6083, 973,0 243,0 60,47

1

0,990 0.975 0,950 0,900

4052, 4999, 5403, 647,8 799,5 864,2 161.4 199,5 215,7 39,86 49,50 53,59

1

0.990 0.975 0,950 0.900

98,50 99,00 99.17 99.25 99.30 99.33 99,36 99,37 99,39 99,40 99,41 38.51 39,00 39,17 39.25 39.30 39.33 39,36 39,37 39,39 39,40 39,41 18.51 19,00 19.16 19.25 19,30 19.33 19,35 19,37 19,38 19.40 19,40 8,526 9,000 9,162 9.243 9,293 9,326 9,349 9,367 9,381 9,392 9.401

3

0.990 0.975 0.950 0.900

34,12 30,82 29,46 28.71 28.24 27,91 17,44 16,04 15.44 15.10 14.88 14.73 10,13 9.552 9.277 9.117 9,013 8,941 5,538 5.462 5.391 5,343 5.309 5.285

4

0.990 0.975 0.950 0.900

21.20 12.22 7.709 4.545

5

0.990 0.975 0.950 0.900

16.26 13,27 12.06 10.01 8.434 7,764 6.608 5.786 5,409 4.060 3,780 3,619

6

0.990 0.975 0.950 0.900

13.75 10.92 9.780 9.148 8.746 8.466 8.813 7.260 6.599 6.227 5.988 5.820 5.987 5.143 4.757 4.534 4.387 4.284 3.776 3.463 3.289 3.181 3.108 3.055

7

0.990 0.975 0.950 0.900

12.25 9.547 8.073 6.542 5.591 4.737 3.589 3.257

X

0.990 0.975 0.950 0.900

1 1.26 7.571 5.318 3.458

9

0.990 0.975 0.950 0.900

10.56 8.022 7.209 5.715 5.117 4.256 3.360 3.006

10

0.990 0.975 0.950 0.900

10.04 7.559 6.552 5.994 5.636 5.386 5.200 6.937 5.456 4.826 4.468 4.236 4.072 3.950 4.965 4.103 3.708 3.478 3.326 3.217 3.135 3.285 2.924 2.728 2.605 2.522 2.461 2.414

27,67 27,49 27,35 27.23 27,13 14.62 14,54 14.47 14.42 14.37 8.887 8,845 8,812 8.786 8.763 5,266 5,252 5.240 5.230 5.222

18,00 16.69 15.98 15,52 15.21 14,98 14,80 14.66 14.55 14.45 10,65 9,979 9,605 9.364 9.197 9,074 8.980 8.905 8.844 8.793 6.944 6.591 6.388 6.256 6.163 6.094 6,041 5,999 5,964 5,936 4.325 4,191 4.107 4.051 4.010 3.979 3,955 3.936 3.920 3.907

8.649 6.059 4.459 3.1 13

11,39 7.388 5.192 3,520

8.451 7.847 5.890 5.523 4.347 4.120 3.074 2.961

10.97 10.67 10,46 10,29 10,16 10.05 9.962 7.146 6.978 6,853 6,757 6,681 6.619 6.568 5.050 4.950 4.876 4.818 4.772 4.735 4.704 3.453 3.405 '3,368 3,339 3,316 3,297 3.282

7.460 5.285 3.972 2.883

8.260 8.102 5.695 5.600 4.207 4.147 3.015 2.983

7.976 7.874 7.789 5.523 5,461 5.409 4.099 4.060 4.027 2.958 2.937 2.919

7.191 6.993 6.840 6.719 5.119 4.995 4.899 4.823 3.866 3.787 3.726 3,677 2.827 2.785 2.752 2.725

7.591 7.006 6.632 6.371 5.416 5.053 4.817 4.652 4.066 3.838 3.687 3.581 2.924 2.806 2.726 2.668

6.620 6,538 4.761 4.709 3.637 3.603 2.703 2.684

6.178 6.029 5.911 4.529 4.433 4.357 3.500 3.438 3.388 2.624 2.589 2.561

5.814 4.295 3.347 2.538

5.734 4.243 3.313 2.518

6.992 6.422 2.057 5.802 5.613 5.467 5.351 5.078 4.718 4.484 4.320 4.197 4.102 4.026 3.863 3.633 3.482 3.374 3.293 3.230 3.179 2.813 2.693 2.611 2.551 2.505 2.469 2.440

5.257 3.964 3.137 2.416

5.177 3.912 3.102 2.396

5.057 3.855 3.072 2.377

4.942 4.849 4.771 3.779 3.717 3.665 3.020 2.978 2.943 2.347 2.323 2.302

748

Anhang

Tab. 5 :

Fortsetzung

13

10

14

15

20

24

30

40

60

120

oo

0,990 0,975 0,950 0,900

6106, 976,7 243,9 60,71

6126, 6143, 6157, 6209, 979,8 982,5 984,9 993,1 244,7 245,4 245,9 248,0 60,90 61,07 61,22 61,74

6235, 6261, 6287, 6313, 997,2 1001, 1006, 1010, 249,1 250,1 251,1 252,2 62,00 62,26 62,53 62,79

6339, 1014, 253,3 63,06

6366, 1018, 254,3 63,33

0,990 0,975 0,950 0,900

99,42 39,41 19,41 9,408

99,42 39,42 19,42 9,415

99,43 39,43 19,42 9,420

99,43 39,43 19,43 9,425

99,45 39,45 19,45 9,441

99,46 39,46 19,45 9,450

99,47 39,46 19,46 9,458

99,49 39,49 19,49 9,483

99,50 39,50 19,50 9,491

0,990 0,975 0,950 0,900

27,05 14,34 8,745 5,216

26,98 14.30 8,729 5,210

26,92 14,28 8,715 5,205

26,87 14,25 8,703 5,200

26,69 14,17 8,660 5,184

26,60 14,12 8,639 5,176

26,50 26,41 26,32 26,22 14,08 14,04 13,99 13,95 8,617 8,594 8,572 8,549 5,168 5,160 5,151 5,143

26,13 13,90 8,526 5,134

0,990 0,975 0,950 0,900

14,37 8,751 5.912 3,896

14.31 8,715 5.891 3,885

14,25 8,684 5,873 3,877

14,20 8,657 5,858 3,869

14,02 8,560 5,803 3,844

13,93 8,511 5,774 3,831

13,84 8,461 5,746 3,817

13,75 8,411 5,717 3,804

13,65 8,360 5,688 3,790

13,56 13,46 8,309 8,257 5,658 5,628 3,775 3,761

0,990 0,975 0,950 0,900

9,888 6,525 4,678 3,268

9,824 6.487 4,655 3,257

9,770 6,455 4,636 3,247

9,722 6,428 4,619 3,238

9,553 6,329 4,558 3,207

9,466 6.278 4,527 3,191

9,379 6,227 4,496 3,174

9,291 6,175 4,464 3,157

9,202 6,123 4,431 3,140

9,112 6,069 4,398 3,123

9,020 6,015 4,365 3,105

0,990 0,975 0,950 0,900

7,718 5,366 4,000 2,905

7,657 5,329 3,976 2.892

7,605 5,297 3,956 2,881

7,559 5,269 3,938 2,871

7,396 5,168 3,874 2,836

7,313 5,117 3,841 2,818

7,229 5,065 3,808 2,800

7,143 5,012 3,774 2,781

7,057 4,959 3,740 2,762

6,969 4,904 3,705 2,742

4,849 3.669 2,722

0,990 0,975 0,950 0,900

6,469 6,410 6,359 6,314 4.666 4,628 4,596 4,568 3,575 3,550 3,529 3,511 2,668 2,654 2,643 2,632

6,155 4,467 3,445 2,595

6,074 4,415 3,410 2,575

5,992 4,362 3,376 2,555

5,908 4,309 3,340 2,535

5,824 4,254 3,304 2,514

5,737 4,199 3,267 2,493

5,650 4,142 3,230 2,471

0,990 0,975 0,950 0,900

5.667 4,200 3,284 2,502

5,609 4,162 3,259 2.488

5,558 4,129 3,237 2,475

5,515 4,101 3,218 2,464

5,359 3,999 3,150 2,425

5.279 3,947 3,115 2,404

5,198 3,894 3,079 2,383

5,116 3,840 3,043 2,361

5,032 3,784 3,005 2,339

4,946 3,728 2,967 2,316

4,859 3.670 2,928 2,293

0,990 0,975 0,950 0,900

5,111 3,868 3,073 2,379

5,054 3,830 3,047 2,364

5,005 3,798 3,025 2,351

4,962 3,769 3,006 2,340

4,808 3,667 2,936 2,298

4,729 3,614 2,900 2,277

4,649 3,560 2,864 2,255

4,567 3,505 2,826 2,232

4,483 4,398 4,311 3,449 3,392 3,333 2,787 2,748 2,707 2,208 2,184 2,159

0,990 0,975 0,950 0,900

4,706 3,621 2.913 2,284

4,649 3,583 2,887 2,269

4,600 3,550 2,864 2,255

4,558 3,522 2,845 2,244

4,405 4,327 4,247 4,165 4,082 3,419 3,365 3,311 3,255 3,198 2,774 2,737 2,700 2,661 2,621 2,201 2,178 2,155 2,132 2,107

99,47 39,47 19,47 9,466

99,48 39,48 19,48 9,475

3,996 3,140 2,580 2,082

6,880

3,909 3,080 2,538 2,055

Anhang

Tab. 5 :

n

2

749

Fortsetzung

\

"l

1

2

3

4

5

6

7

8

9

10

11

!

11

0,990 0,975 0,950 0,900

9,646 7,206 6,217 5,668 6,724 5,256 4,630 4,275 4,844 3,982 3,587 3,357 3,225 2,860 2,660 2,536

12

0,990 0,975 0.950 0,900

9,330 6,554 4,747 3,177

6,927 5,096 3,885 2,807

13

0,990 0,975 0,950 0,900

9,074 6,414 4,667 3,136

6,701 5,739 4,965 4,347 3,806 3,411 2,763 2,560

14

0,990 0.975 0,950 0.900

8,862 6,515 5,564 5,035 4,695 4,456 4,278 4,140 4,030 6,298 4,857 4,242 3,892 3,663 3,501 3,380 3,285 3,209 4,600 3,739 3,344 3,112 2,958 2,848 2,764 2,699 2,646 3.102 2,726 2,522 2,395 2,307 2,243 2,193 2,154 2,122

15

0.990 0.975 0.950 0.900

8,683 6,199 4,543 3,073

6,359 5,417 4,893 4,556 4,318 4,142 4,004 4,765 4,153 3,804 3,576 3,415 3,293 3,199 3,682 3,287 3,056 2,901 2,790 2,707 2,641 2,695 2.490 2,361 2,273 2,208 2,158 2,119

16

0.990 0.975 0.950 0.900

8,531 6.115 4.494 3.048

6,226 5,292 4,773 4,437 4,687 4,077 3,729 3,502 3,634 3,239 3,007 2,852 2,668 2,462 2.333 2,244

17

0.990 0.975 0.950 0.900

8.400 6.112 6.042 4.619 4.451 3.592 3.026 2.645

18

0.990 0.975 0.950 0.900

8.285 6,013 5,092 5.978 4,560 3,954 4.414 3,555 3.160 3.007 2.624 2.416

19

0.990 0.975 0.950 0.900

8.185 5.922 4.381 2.990

5.926 5.010 4.500 4.171 3.939 4.508 3.903 3.559 3.333 3,172 3.522 3.127 2.895 2.740 2.628 2.606 2.397 2.266 2.176 2,109

3,765 3,051 2,544 2.058

20

0.990 0.975 0.950 0.900

8.096 5.871 4.351 2.975

5.849 4.461 3.493 2.589

3.699 3.564 3.457 3.368 3.293 3.007 2.913 2.837 2.774 2.720 2.514 2.447 2.393 2.348 2.310 2.040 1.999 1.965 1.937 1.913

5,316 5,069 4,886 4,044 3,881 3,759 3,204 3,095 3,012 2,451 2.389 2,342

4,744 4,632 3,664 3,588 2,948 2,896 2,304 2,273

4,539 4,462 3,526 3,473 2,854 2,818 2,248 2,227

5,953 5,412 5,064 4,821 4,640 4,474 4,121 3,891 3,728 3,607 3,490 3,259 3,106 2,996 2,913 2,605 2,480 2,394 2,331 2,283

4,499 4,388 3,512 3,436 2,849 2,796 2,245 2,214

4,296 4,219 3,374 3,321 2,753 2,717 2,188 2,166

5,205 3,996 3,179 2,434

4,862 4,620 4,441 3,767 3,604 3,483 3,025 2,915 2,832 2,347 2,283 2,234

4,302 3,388 2,767 2,195

4,248 4,015 3.382 3,221 2.773 2,661 2.196 2,130

4.938 4.431 4.103 3.859 3.515 3.289 3.098 2,866 2.711 2.380 2,249 2.158

3,939 3,863 3,147 3,094 2,602 2,565 2,095 2,073

3,895 3,805 3,730 3,123 3,060 3,007 2,588 2,544 2,506 2,086 2,059 2,036

4,202 4,026 3,890 3,780 3,691 3,616 3,341 3,219 3,125 3.049 2,986 2,933 2,741 2,657 2,591 2,538 2,494 2,456 2,178 2,128 2,088 2,055 2,028 2.005

5,185 4.669 4,336 4,101 3,927 3.791 4.011 3,665 3,438 3,277 3,156 3,061 3.197 2.965 2,810 2,699 2,614 2,548 2.437 2,308 2,218 2,152 2.102 2.061 4,579 3,608 2.928 2.286

4,191 4,100 4,024 3,312 3,250 3,197 2,714 2,671 2,634 2,164 2,138 2,115

3,871 3.128 2.599 2.091

3,841 3.705 3.100 3.005 2,577 2.510 2,079 2.038

3,682 3,593 3,518 2,985 2,922 2,869 2,494 2,450 2,412 2,028 2,001 1,977 3,597 3.508 3,433 2,929 2,866 2,813 2,456 2,412 2,374 2,005 1,977 1,953

3.631 3,523 3.434 3.359 2.956 2.880 2,817 2.764 2.477 2.423 2.378 2.340 2.017 1.984 1,956 1.932

750

Tab. 5:

Anhang

Fortsetzung

13

14

15

20

24

30

40

60

120

oo

11

0,990 0,975 0,950 0,900

4,397 4,341 4,293 4,251 4,099 4,021 3,430 3,391 3,358 3,330 3,226 3,173 2,788 2,761 2,738 2,719 2,646 2,609 2,209 2,193 2,179 2,167 2.123 2,100

12

0,990 0,975 0,950 0,900

4,155 3.277 2,687 2,147

13

0,990 0,975 0,950 0,900

3,960 3,905 3,857 3,153 3,115 3,081 2,604 2,577 2,553 2,097 2,080 2,066

14

0,990 0,975 0,950 0,900

3,800 3,050 2,534 2,054

3,745 3,697 3,656 3,505 3,427 3.348 3,011 2,978 2,949 2,844 2,789 2,732 2,507 2,483 2,463 2,388 2,349 2,308 2,037 2,022 2,010 1,962 1,938 1,912

3,266 3,181 3,094 2,674 2,614 2,552 2,266 2,223 2,178 1,885 1,857 1,828

3,004 2,487 2,131 1,797

15

0,990 0,975 0,950 0,900

3,666 2,963 2,475 2,017

3,611 3,563 3,522 3,372 3,294 3,214 3,132 3,047 2,959 2,924 2,891 2,862 2,756 2,701 2,644 2,585 2,524 2,461 2,448 2,424 2,403 2,328 2 , 2 8 8 2,247 2,204 2,160 2,114 2,000 1.985 1,972 1,924 1,899 1,873 1,845 1,817 1,787

2,868 2,395 2,066 1,755

16

0,990 0,975 0,950 0,900

3,553 3,497 3,450 3,409 3,259 3,181 3,101 2,889 2,850 2,817 2,788 2,681 2,625 2,568 2,425 2,397 2,373 2,352 2,276 2,235 2,194 1,985 1,968 1,953 1,940 1,891 1,866 1,839

17

0,990 0,975 0,950 0.900

3,455 3,400 3,353 3,312 3,162 3,084 3,003 2,920 2,835 2,825 2,786 2,752 2,723 2,616 2,560 2,502 2,442 2,380 2,381 2,353 2,329 2,308 2,230 2,190 2,148 2,104 2,058 1,958 1,940 1,925 1,912 1,862 1,836 1,809 1.781 1,751

2,746 2,315 2,011 1,719

2,653 2,247 1,960 1,686

18

0,990 0,975 0,950 0,900

3,371 3,316 3,268 3,227 3,077 2,999 2,919 2,835 2,749 2.660 2,769 2,730 2,696 2,667 2,559 2,503 2,444 2,384 2,321 2.256 2,342 2,314 2,290 2,269 2,191 2,150 2,107 2,063 2,017 1,968 1,933 1,915 1,900 1,887 1,837 1 , 8 1 0 1,783 1,754 1,723 1.691

2,566 2,187 1,917 1,657

19

0,990 0,975 0,950 0,900

3,297 3,241 3,194 3,153 3,003 2,925 2,720 2,680 2,646 2,617 2,509 2,452 2,308 2,280 2,255 2,234 2,155 2,114 1,912 1,894 1,878 1,865 1,814 1,787

2,844 2,761 2,674 2,584 2,394 2,333 2,270 2,203 2,071 2,026 1,980 1,930 1,759 1,730 1,699 1,666

2,489 2,133 1,878 1,631

20

0,990 0,975 0,950 0,900

3,231 3,176 3,129 3,088 2,938 2,859 2,778 2,695 2,608 2,517 2,676 2,636 2,602 2,573 2,464 2,408 2.349 2,287 2,223 2,156 2.278 2,249 2,225 2,203 2.124 2,082 2,039 1,994 1,946 1,896 1,892 1,874 1,859 1,845 1,794 1,767 1,738 1,708 1,677 1,643

2,421 2,085 1,843 1,607

4,099 3,239 2,660 2,131

3,941 3,860 3,776 3.690 3,118 3,061 3,004 2,944 2,570 2,531 2,490 2.448 2,076 2,052 2,026 2,000

3,602 2,883 2,404 1,972

3,780 3,701 3,619 3,535 3.449 3,019 2,963 2,906 2,848 2,787 2,505 2,466 2,426 2,384 2,341 2,036 2,011 1,986 1,960 1,932

3,361 2,725 2,296 1,904

3,665 3,587 3,507 3,425 3,341 3.255 2,948 2,893 2,837 2.780 2,720 2.659 2,459 2,420 2,380 2,339 2,297 2,252 2,007 1,983 1,958 1,931 1,904 1,876

3,165 2,595 2,206 1,846

4,051 4,010 3,858 3,206 3,177 3,073 2,637 2,617 2,544 2,117 2,105 2,060 3,815 3,053 2,533 2,053

3,018 2,933 2,845 2,509 2,447 2,383 2,151 2,106 2,059 1,811 1,782 1,751

2,753 2,316 2,010 1,718

Anhang

Tab. 5:

n

751

Fortsetzung

10

2

4.817 3,783 3,049 2.351

22

0,990 0,975 0.950 0,900

7,945 5,786 4,301 2,949

5,719 4.383 3,443 2,561

24

0,990 0.975 0,950 0.900

7.823 5,717 4,260 2,927

5,614 4.718 4.319 3,721 3.403 3,009 2,538 2,327

26

0.990 0.975 0,950 0,900

7,721 5.526 5.659 4,265 4,225 3.369 2,909 2,519

28

0.990 0.975 0.950 0.900

7,636 5.610 4.196 2.894

5,453 4.568 4.074 3,754 3,528 3.358 3,226 3,120 3.032 2,958 4,221 3,626 3,286 3.063 2.903 2,782 2,687 2,611 2,547 2.493 3,340 2.947 2.714 2.558 2.445 2.359 2,291 2,236 2,190 2.151 2,503 2,291 2,157 2.064 1.996 1.943 1,900 1,865 1,836 1,811

.10

0.990 0.975 0.950 0,900

7.562 5.568 4.171 2,881

5,390 4,510 4,182 3,589 3.316 2,922 2,489 2,276

40

0.990 0,975 0.950 0.900

7,314 5.179 4,313 5,424 4.051 3.463 4,085 3.232 2.839 2.835 2.440 2,226

60

0.990 0.975 0,950 0.900

7.077 4.977 4,126 3.649 3.339 3.119 2.953 2,823 2.718 2.632 2,558 5.286 3.925 3.343 3,008 2.786 2,627 2.507 2.412 2.334 2.270 2.215 4.001 3.150 2.758 2,525 2.368 2.254 2.167 2.097 2.040 1.993 1.952 2.791 2,393 2.177 2.041 1.946 1.875 1.819 1.775 1.738 1.707 1,680

80

0.990 0.975 0.950 0.900

6.964 4,882 4.036 3.564 3.256 3.037 2.872 2.743 2.639 5.219 3.865 3.285 2.951 2.730 2.571 2.451 2.356 2.278 3.961 3.111 2.719 2.486 2.329 2.214 2.127 2.057 1.999 2.770 2.370 2.154 2.017 1.921 1.849 1.793 1,748 1.711

120

0.990 0.975 0.950 0.900

6.851 4.787 5.152 3.805 3.920 3.072 2.748 2.347

χ

0.990 0.975 0.950 0.900

6.635 5.024 3.841 2.706

4,637 3,670 2.975 2.307

4,313 3,988 3,440 3,215 2,817 2,661 2,219 2,128

3.758 3,587 3,453 3,346 3,258 3.055 2,934 2,839 2,763 2,700 2.549 2,464 2,397 2,342 2,297 2.060 2.008 1,967 1,933 1,904

11

3,183 2,646 2.258 1,880

4,218 3.895 3.667 3.496 3,363 3,256 3,168 3,094 3,379 3,155 2.995 2,874 2.779 2,703 2,640 2,586 2.776 2.621 2.508 2,423 2.355 2,300 2,255 2.216 2.195 2.103 2.035 1.983 1,941 1,906 1,877 1.853 4,140 3.818 3,591 3.421 3,288 3.329 3.105 2,945 2,824 2,729 2,743 2.587 2.474 2,388 2,321 2.174 2.082 2.014 1,961 1,919

3,182 3,094 3,020 2,653 2,590 2.536 2,265 2,220 2 . 1 8 1 1,884 1,855 1,830

4,018 3.699 3.473 3.304 3,173 3,067 3.250 3.026 2.867 2.746 2,651 2,575 2,690 2.534 2.421 2.334 2,266 2,211 2.142 2.049 1.980 1,927 1.884 1,849 3.828 3.126 2.606 2.091

2,979 2.905 2,511 2,457 2,165 2.125 1,8 i9 1,794

3.514 3.291 3.124 2,993 2,888 2.801 2,727 2.904 2.744 2,624 2,529 2,452 2,388 2,334 2,449 2.336 2.249 2,180 2,124 2,077 2.037 1.997 1.927 1.873 1,829 1,793 1,763 1.737

2.552 2.214 1,952 1.680

2.478 2.158 1.910 1.652

3.949 3,480 3,174 2.956 2.792 2.663 2.559 2,472 2.398 3.227 2.894 2.674 2.515 2.395 2.299 2 . 2 2 2 2.157 2.101 2.680 2.447 2.290 2.175 2.087 2.016 1.959 1.910 1.869 2.130 1.992 1.896 1.824 1.767 1,722 1.684 1.652 1.625

4.605 3,782 3.319 3.017 2,802 2.639 2.511 2.407 2.321 2.247 3.689 3.116 2.786 2.567 2.408 2.288 2.192 2.114 2.048 1.992 2.996 2,605 2.372 2.214 2,099 2.010 1.938 1.880 1.831 1.788 2.303 2.084 1.945 1.847 1.774 1.717 1.670 1.632 1.599 1.570

752

Anhang

Tab. 5:

n2

Fortsetzung

Χ " ' )'

12

13

14

15

20

24

30

40

60

120

oo

\

22

0,990 0,975 0,950 0,900

3,121 3,066 3,019 2,978 2,827 2,749 2,667 2,583 2,495 2,403 2,602 2,562 2,528 2,498 2,389 2,332 2,272 2,210 2,145 2,076 2,226 2,197 2,172 2,151 2,071 2,028 1,984 1,938 1,889 1,838 1,859 1,841 1,825 1,811 1,759 1,731 1,702 1,671 1,639 1,604

24

0,990 0,975 0,950 0,900

3,032 2,977 2,930 2,889 2,738 2,659 2,541 2,501 2,467 2,437 2,327 2,269 2,183 2,154 2,129 2,108 2,027 1,984 1,832 1,813 1,797 1,783 1,730 1,702

26

0,990 0,975 0,950 0,900

2,958 2,903 2,856 2,815 2,491 2,451 2,417 2,387 2,148 2,119 2,093 2,072 1,809 1,790 1,774 1,760

28

0,990 0,975 0,950 0,900

2,896 2,448 2,118 1,790

30

0,990 0,975 0,950 0,900

2,843 2,788 2,741 2,700 2,412 2,372 2,337 2,307 2,092 2,062 2,037 2,015 1,773 1,753 1,737 1,722

40

0,990 0,975 0,950 0,900

2,665 2,610 2,563 2,522 2,369 2,288 2,203 2,114 2,019 2,288 2,247 2,212 2,182 2,068 2,007 1,943 1,875 1,803 2,003 1,973 1,947 1,924 1,839 1,793 1,744 1,693 1,637 1,715 1,695 1,677 1,662 1,605 1,574 1,541 1,506 1,467

60

0,990 0,975 0,950 0,900

2,496 2,441 2,393 2,169 2,128 2,092 1,917 1,886 1,860 1,657 1,637 1,619

80

0,990 0,975 0,950 0,900

2,416 2,361 2,313 2,272 2,116 2,033 1,944 2,112 2,070 2,034 2,003 1,885 1,821 1,753 1,876 1,844 1,817 1,793 1,703 1,654 1,602 1,629 1,608 1,590 1,574 1,513 1,479 1,443

1,849 1,679 1,545 1,403

120

0,990 0,975 0,950 0,900

2,336 2,281 2,233 2,192 2,035 2,055 2,013 1,976 1,945 1,825 1,834 1,802 1,774 1,750 1,659 1,601 1,580 1,561 1,545 1,482

1,950 1,760 1,608 1,447

1,860 1,690 1,554 1,409

OG

0,990 0,975 0,950 0,900

2,185 2,129 2,080 1,945 1,902 1,865 1,752 1,719 1,691 1,546 1,523 1,504

1,791 1,696 1,640 1,566 1,517 1,459 1,383 1,342

2,305 2,003 1,783 1,567

2,577 2,492 2,403 2,310 2,211 2,209 2,146 2,080 2,010 1,935 1,939 1,892 1,842 1,790 1,733 1,672 1,641 1,607 1,571 1,533

2,664 2,585 2,503 2,417 2,327 2,233 2,276 2,217 2,157 2,093 2,026 1,954 1,990 1,946 1,901 1,853 1,803 1,749 1,706 1,677 1,647 1,615 1,581 1,544

2,131 1,878 1,691 1,504

2,841 2,794 2,753 2,602 2,522 2,440 2,353 2,263 2,167 2,408 2,374 2,344 2,232 2,174 2,112 2,048 1,980 1,907 2,088 2,063 2,041 1,959 1,915 1,869 1,820 1,769 1,714 1,770 1,754 1,740 1,685 1,656 1,625 1,592 1,558 1,520

2,064 1,829 1,654 1,478

2,549 2,469 2,386 2,299 2,208 2,111 2,195 2,136 2,074 2,009 1,940 1,866 1,932 1,887 1,841 1,792 1,740 1,684 1,667 1,638 1,606 1,573 1,538 1,499

2,352 2,198 2,061 1,944 1,836 1,748 1,603 1,543

2,039 1,833 1,666 1,487

1,878 1,708 1,571 1,421

2,115 2,028 1,936 1,882 1,815 1,744 1,700 1,649 1,594 1,511 1,476 1,437

2,006 1,787 1,622 1,456

1,917 1,805 1,724 1,637 1,577 1,509 1,425 1,377

1,836 1,726 1,667 1,581 1,534 1,467 1,395 1,348

1,601 1,482 1,389 1,291

1,746 1,598 1,482 1,358

1,630 1,507 1,410 1,306

1,491 1,396 1,322 1,242

1,763 1,614 1,495 1,368

1,656 1,530 1,429 1,320

1,533 1,433 1,352 1,265

1,381 1,310 1,254 1,193

1,592 1,484 1,394 1,295

1,473 1,388 1,318 1,240

1,325 1,268 1,221 1,169

1,000 1,000 1,000 1,000

Anhang

zu Tab. 5: Ablesebeispiel: F 7

20.0 99

=

753

3,699 1

Erweiterung der Tafel: F„ „ ; 1 _ y =

Interpolation nach Laubscher: Gesucht ist F n i „ 2 . r Gibt es dann natürliche Zahlen n 3 ^ n! < n 5 sowie n 4 g n 2 < n 6 derart, daß die Quantile F n „ . r , F n 6 i y , F„ 5 ,„ 4;y und F„5_ ? vertafelt sind, so gilt: F„„ „ 2 i , = Ο - c,) · (1 - c 2 ) · F„ 3 „4.y + (1 - c,) · c 2 • F n3 . „ 6 ., +'C, · (1 - c 2 ) · F„ s „4.y + c t · c 2 · F„5,„6. y r ..

für C[ =

n

s ( n l ~~ n 3)

n

i (n5 — n 3)

n , 6 ( n 2 ~~ n 4) und c 2 = . n2(n6-n4)

Läßt sich n 3 = Π] wählen, so wird offensichtlich C! = 0, wie für n 4 = n 2 auch c 2 = 0 ist. In diesen Fällen vereinfacht sich die Interpolationsformel entsprechend. Approximation für 0,5 < y < 1: F„ n !y ^ e u ' a ~ b mit u = u r a = 72-d + c d 2 , c=

0»,)2 ~ 3

und

1 b = 2· ( Vni-1 d=

1 1-

1

\

n2-l/ 1

( 5 · c+ V 6

d

3)

,,

754

Anhang

Nomogramme von Heck (1960) zum Roy-Test (·ό. auch S. 766) CHART I

η

»=2 »= .01

Anhang

CHART _

755

II

i=2 « = .025

Π 1000

.5

.521 .560

.575

.6

.625 .650

.675

.7

.725 .750

.775

.8

-825 .850 .875

.9

.925 .950

.975

I .0

)(


c

r-1'

n

e'

n

h^

Kritische Werte können für α = 0.01, α = 0.025, α = 0.05 den Nomogrammen (Chart I bis Chart XII) auf Seite 754 - 765 entnommen werden; dabei s=min(p,n^)

für

s=2,3,4,5

m=(|nh-p| - D / 2

für

m = - 1 / 2 , 0 , 1 , 2 , . . . ,10

n = (n

für

η =5

-p-D/2

1000

,

ist

Anhang

c

und für die j e w e i l i g e Kombination von s und η wird

767

R.i_a(P>ne>nh)

f o l g t abgelesen: Die untere Kurvenschar im Nomogramm für m = - 1 / 2 , 0 , 1 , 1 0 i s t die Fortsetzung der oberen Kurvenschar ; der k r i t i s c h e Wert c

R-1-a(p,ne'nh'

am

c es

'

Nomograms abgetragen, wobei s i c h die obere

Z e i l e auf die obere, die untere Z e i l e auf die untere Kurvenschar (mit einer Überlappung zwischen 0.50 und 0.55) bezieht. Ablesebeispiel

(verwandt wird jeweils Chart

II):

α = 0.025, s = 2, m = 0, η = 100 :

0.060 ;

α = 0.025, s = 2 , m = 5, n =

15 :

0.545 ;

α = 0.025, s = 2, m = 2, η =

8:

0.615.

Exakte F - T e s t s :

2.2

C

R;1-«(1 > V n h >

c

R;1-a(p'V

ZUM

F

nh.ne;1-a/(1

1}

F

\

p,ne-p+1; 1 - α / (

> ν

1 +

;

ΐ - α )

F

p , n e - p + 1 ;1-α,

WILKS-TEST

Prüfgröße:

Λ„ = ^

K r i t i s c h e r Wert:

ρ

.

=^

ρ

det S

(1 - λ . ) = ^

^

c w (p,n ,n, ) W;a r e h

Verwerfe Η zum Niveau α, f a l l s : ο

Λ,, < c.. (p,n ,n.) W W;a e ' h'

Approximationen: Verwerfe HQ zum Niveau α, f a l l s : A

·

-6'lnAW>Xpnh;1-a

ο

Λ 1 /η

W ·

wobei

;

^ p

n

h

|

C p

'

-

im

9

-

n

e '

n

h

;

2)

)

2

- 2

pn

ö

F a l l e

n

η

F a l l e

-

g

h F

- p - 1

pn^ + n^ -

n

g

-

g

2

= V P

g

'

g i

.

1

2

; 1 - a

2=VP+1

pn^ + n^ -

+

, g

1 > 0

'

1 < 0

( n 9 , = -

;1-ct

- 1 ) / 2

Pn h (n e -P) 1=ne-pnh+nh-1

im

0 ( 2 u + 0 + 1) , 2 ( θ ν + 1 )

,

- p - 1 ) / 2

+

F h

2(θν+1)

9 c

2

0 = m i n ( p , n ^ )

u = ( [ p

B.

Θ

h

e

- p - 1 ) ( n ( n

e

e

- p - 3 ) ( n

- 1 j ( n

e +

n

h

e

- p n

h

- p - 1 j

+ n

h

- 1 )

Anhang

Exakte

F-Tests:

C

H L ; 1 - a

c"HL u, ;

2.4

769

ZUM

-

a

' V

( P > V

Ρ I L LAI -

Prüfgröße:

Kritischer

1

( l

h

1 )

=

) =

^

n

F V

=

V e r w e r f e H q zum N i v e a u α ,

e

n -p+1

λ

pB;i-a(P'

c

^

F

Β ART L ETT

Λρβ = ^

Wert:

n

n

; 1 - a

p,n

-p+1;1-

- Τ EST

.

.

e'lV

falls:

Λρβ

>

c

pB-i-a(P'ne'nh^

Approximation: Verwerfe

Hq

A PB θ -Λρβ

2U+6+1 2ν+θ+1

wobei

>

zum N i v e a u a ,

F

e(2u+6+l),e(2v+e+1);1-a

θ = min(p,nh) u = (|p-nh| v =

Exakte

(n

falls:

, - D / 2

-p-1)/2

e

F-Tests:

c

PB;1-a(

c

PB;1-a(p>ne>

1

'

n

e-

n

1 )

h)-n;

F

n

h

.n

F

e

p,n

;1-a/(

1 +

n;

F

n

- p + l s l - a / O

h

.n

+

e !

1.a)

ηΤ-φ+Τ

;

F

p,n

-p+l

;1-a)

770

3

Anhang

GRIECHISCHES

ALPHABET

A

α

A l pha

Β

β

Beta

Γ

γ

Gamma

Δ

δ

Del t a

Ε

ε

Epsilon

Ζ

ζ

Zeta

Η

η

Eta

0

θ

Theta

I

ι

Jota

Κ

χ

Kappa

Λ

λ

Lambda

Μ

μ

My

Ν

ν

Ny

Η

ξ

Xi

0

0

Omikron

Π

π

Pi

Ρ

Ρ

Rho

ί

σ

Sigma

τ

τ

Tau

ν

υ

Ypsilon

φ

Ψ

Phi

χ

Χ

Chi

ψ

Ψ

Psi

Ω

ω

Omega

771

Literaturverzeichnis

4

LITERATURVERZEICHNIS

1. Afifi, A.A./Elashoff, R.M.{1969): Multivariate two sample tests with dichotomous and continuous variables in the location model. Annals of Mathematical Statistics, vol.40, p.290-298. 2. Ahrens, Η.J.(1974): Multidimensionale

Skalierung.

3. Ahrens, Η./Läuter, J.(1981): Mehrdimensionale Verlag, Berlin. 4. Albert, A.(1972): Regression mic Press, New York.

Beltz, Weinheim.

Varianzanalyse.

and the Moore-Penrose

5. Amemiya, Τ.(1981): Qualitative response models: Economic Literature, vol.XIX, p.1483-1536. 6. Anderson, T.W.(1958): An introduction lysis. Wiley & Sons, New York.

pseudoinverse.

A survey.

to multivariate

7. Andrews, D.F.(1972): Plots of high-dimensional p.125-136.

AkademieAcade-

Journal of

statistical

ana-

data. Biometrics, vol.28,

8. Andrews, D.F./Bickel, P.J./Hampel, F.R./Huber, P.J./Rogers, W.H./Tukey, J.W.(1972): Robust estimates of location: Survey and advances. Princeton University Press, Princeton, New Jersey. 9. Bahrenberg, G./Giese, Ε.(1975): Statistische in der Geographie.

Methoden

und ihre

Anwendung

Teubner, Stuttgart.

10. Bamberg, G./Baur, F.(1980): Statistik.

Oldenbourg, München.

11. Bamberg, G./Rauhut, Β.(1972): Lineare Regression bei alternativen Schadensfunktionen. Operations Research Verfahren, vol.XII, p.1-10. 12. Bamberg, G./Schittko, U.(1979): Einführung Stuttgart.

in die Ökonometrie.

Fischer,

13. Bargmann, R.E.(1955): Signifikanzuntersuchungen der einfachen Struktur in der Faktoren-Analyse. Mitteilungsblatt für die Mathematische Statistik, vol.7, p.1-24. 14. Bargmann, R.E./Baker, F.D.(1977): Α rninimax approach to component analysis. Proceedings of the Symposium on Applied Statistics, Dayton, p.55-69. 15. Bargmann, R.E./Chang, J.C.(1972): Internal multi-dimensional scaling of categorical variables. Themis Technical Report 34, University of Georgia, Athens, Georgia. 16. Bargmann, R.E./Kundert, Κ.R.(1972): Tools of analysis for pattern recognition. Themis Report 22, University of Georgia, Athens, Georgia. 17. Bargmann, R.E./Schünemeyer, J.Η.(1978): Maximum eccentricity as a union -intersection test statistic in multivariate analysis. Journal of Multivariate Analysis, vol.8, p.268-273. 18. Barnett, V.(1981): Interpreting ster.

multivariate

data. W i l e y & S o n s , Chiche-

19. Bartlett, M.S.(1951): A further note on tests of significance analysis. British Journal of Psychology, vol.4, p.1-2. 20. Beals, R./Krantz, D.H./Tversky, A.(1968): Foundations of nal scaling. Psychological Review, vol.75, p.127-142. 21. Beckmann, M.J./Künzi, Η.P.(1973): Mathematik ger, Berlin.

für Ökonomen

in

factor

multidimensioI, II. Sprin-

772

Literaturverzeichnis

22. Ben-Israel, A./Greville, T.N.E.(1980): Generalized applications. Krieger, New York.

inverses:

Theory

and

23. Bennett, J.F./Hayes, W.L.(1960): Multidimensional Unfolding: Determining the dimensionality of ranked preference data. Psychometrika, vol.25, p.27-43. 24. Bleymüller, J./Gehlert, G./GUIicher, Η.(1983): Statistik wissenschaftler.

für

Wirtschafts-

Vahlen, München.

25. Blum, E./Oettli, W.(1975): Mathematische 26. Bock, H.H.(1973): Automatische Göttingen.

Optimierung.

Klassifikation.

Springer, Berlin.

Vandenhoeck&Ruprecht,

27. Bock, H.H.(1980): Explorative Datenanalyse. In: Koller, S./Reichertz, P.L./überla, K. (eds), Explorative Datenanalyse, Springer, Berlin, p.6-37. 28. Bock, H.H.(1983): Statistische Testverfahren im Rahmen der lyse. Studien zur Klassifikation, vol.13, p.161-176. 29. Borg, 1.(1981): Anwendungsorientierte Springer, Berlin. 30. Bosch, K.(1982): Mathematik München.

multidimensional

Clusterana-

Skalierung.

für Wirtschaftswissenschaftler.

31. Box, G.E.P./Jenkins , G.Μ.(1976): Time series analysis, control. Holden-Day, San Francisco. 32. Cailliez, F./Pages, J.-P.(1976): Introduction SMASH, Paris.

Oldenbourg,

forecasting

a l'analyse

des

and

donnees.

33. Chang, C.L./Lee, R.C.T.(1973): A heuristic relaxation method for non -linear mapping in cluster analysis. IEEE Transactions on Systems, Man and Cybernetics, vol.SMC-2, p.197-200. 34. Chatfield, C.(1975): The analysis of time series, theory and practice. Chapman & Hal 1, London. 35. Chatterjee, S./Price, Β. ( 1977): Regression Sons, New York.

analysis

by example.

WileyJ

36. Chernikova, N.N.(1965): Algorithm for finding a general formula for the non-negative solutions of a system of linear inequalities. U.S.S.R. Computational Mathematics and Mathematical Physics, vol.5, p. 228-233. 37. Chernoff, Η.(1971): The use of faces to represent points in n-dimensional space graphically. Technical Report 71, Department of Statistics, Stanford University, Stanford. 38. Chernoff, Η.(1973): The use of faces to represent points in k-dimensional space graphically. Journal of the American Statistical Association, vol.68, p.361-368. 39. Coombs, C.H. (1964): A theory of data. W i l e y & S o n s , New York. 40. Coombs, C.H./Dawes, R.M./Tversky, A.(1975): Mathematische Beltz, Weinheim. 41. Cormack, R.Μ.(1971): A review

of classification.

Psychologie.

Journal of the Royal

Statistical Society, vol.A134, p.321-367. 42. Cox, D.R.( 1970): The analysis

of binary data. Methuen, New York.

43. Cox, N.R.(1974): Estimation of the correlation between a continuous a discrete variable. Biometrics, vol.30, p.171-178.

and

44. Cremers, H./Fieger, W.(1983a): Gleichmäßig beste Schätzfunktionen und Normalverteilungsannahme im Linearen Modell bei konvexen Schadens-

773

Literaturverzeichnis

funktionen.

Methods of Operations Research, vol.47, p.15-27.

45. Cremers, H./Fieger, W.(1983b): Äquivariante Sahätzfunktionen und Normalverteilungsannahme im Linearen Modell. In: Bühler, W./Fleischmann, B. /Schuster, K.-P./Streitferdt, L./Zander, H. (eds), Operations Research Proceedings 1982, Springer, Berlin, p.551-557. 46. Daling, J.R./Tamura, Η.(1970): Use of orthogonal factors for of variables in a regression equation - an illustration. Statistics, vol.9, p.260-268. 47. David, F.N.(1954): Tables

of the correlation

coefficient.

selection Applied

Cambridge Uni-

versity Press, London. 48. Davison, M.L.(1983): Multidimensional

scaling.

W i l e y & S o n s , New York.

49. Degens, P.O.(1978): Clusteranalyse auf topologisch-maßtheoretischer Grundlage. Dissertation, Universität München, München. 50. Degens, P.O.(1983): Hierarchische Clusteranalyse; Approximation und Agglomeration. Studien zur Klassifikation, vol.13, p.189-202. 51. De Leeuw, J./Heiser, W.(1980): Multidimensional scaling with restrictions on the configuration. In: Krishnaiah, P.R. (ed), Multivariate Analysis V, North-Holland, Amsterdam, p.501-522. 52. De Leeuw, J./Young, F.W./Takane, Y.(1976): Regression with qualitative and quantitative variables: An alternating least squares method with optimal scaling features. Psychometrika, vol.41, p.505-529. 53. Dinges, Η./Rost, Η.(1982): Prinzipien

der Stochastik.

Teubner, Stuttgart.

54. Don, F.J.H./Magnus, J.R.(1980): On the unbiasedness of iterated GLS estimators. Communications in Statistics, vol.A9, p.519-527. 55. Draper, Ν.R./Smith, Η.(1981): Applied New York.

regression

56. Drygas, Η.(1970): The coordinate-free tion. Springer, New York.

approach

57. Drygas, H.(1978): Uber multidimensional vol.19, p.63-66.

analysis.

to Gauss-Markov

Skalierung.

58. Dunst, Κ.Η.(1979): Portfolio Management: Konzeption Unternehmensplanung. De Gruyter, Berlin. 59. Eberl, W./Möschlin, 0.(1982): Mathematische lin.

Wiley&Sons, estima-

Statistische für die

Statistik.

Hefte,

strategische

De Gruyter, Ber-

60. Elpelt, B.(1983): Invariante generalisierte quadratische Schätzfunktionen in multivariaten Varianzkomponentenmodellen. Dissertation, Universität Dortmund, Dortmund. 61. Elpelt, Β.(1984): Uber verallgemeinerte MINQ-Schätzungen in multivariaten Varianzkomponentenmodellen. Zeitschrift für Angewandte Mathematik und Mechanik, vol.64, p.328-330. 62. Elpelt, B./Härtung, J.(1982a): Skalierung in multidimensionalen Kontingenztafeln und Strukturanalyse multivariater Daten - Eine anwendungsorientierte Darstellung. Forschungsbericht, Universität Dortmund, Dortmund. 63. Elpelt, B./Härtung, J.(1982b): Zur Fehleranalyse bei der Probenentnahme aus Schüttgütern. Qualität und Zuverlässigkeit, vol.27, p.225-229. 64. Elpelt, B./Härtung, J.(1983a): Zum Schätzen fester und zufälliger Effekte in Gemischten Linearen Modellen. EDV in Medizin und Biologie, vol.14, p.7-12.

774

Literaturverzeichnis

65. Elpelt, Β./Härtung, J.(1983b): Mixed exterior-interior penalty methods revisited. Methods of Operations Research, vol.47, p.29-37. 66. Elpelt, Β./Härtung, J.(1984): On the estimation of parameters in general linear regression models. In: Hammer, G./Pallaschke, D. (eds), Contributions to Mathematical Economics and Operations Research, Athenäum, Königstein/Taunus. 67. Elpelt, Β./Härtung, J.(1985): Diskrete Regression mittels Skalierung. Zeitschrift für Angewandte Mathematik und Mechanik, vol.65, p.303-304. 68. Escofier-Cordier, Β.(1969): L'analyse faatorielle des correspondences. Cahiers du Bureau Universitaire de Recherche Op§rationelle, Institut Statistique, Universite de' Paris 13, Paris, p.25-59. 69. Everitt, Β.(1978): Graphical -Holland, New York.

techniques for multivariate

70. Ezekiel, M.(1930): Methods of correlation York.

analysis.

71. Fahrmeir, L./Hamerle, A.(1984): Multivariate Gruyter, Berlin.

data. North

Wiley & Sons, New

statistische

Verfahren.

72. Farkas, J.(1902): über die Theorie der einfachen Ungleichungen. für die reine und angewandte Mathematik, vol.124, p.1-27. 73. Fechner, G.Τ.(1860): Elemente zig.

der Psychophysik.

74. Fienberg, S.E.(1977): The analysis

De

Journal

Breitkopf & Härtel, Leip-

of cross-classified

categorical

data.

The MIT Press, Cambridge, Massachusetts. 75. Finney, D.(1971): Probit analysis.

Cambridge University Press, London.

76. Fisher, R.A.(1936): The use of multiple measurement blems. Annals of Eugenics, vol.7, p.179-188. 77. Fisher, R.A.(1940): The precision Eugenics, vol.10, p.422-429.

of discriminant

in taxonomic

functions.

pro-

Annals of

78. Fletcher, R./Powell, M.J.D.(1963): A rapidly convergent descent for minimization. Computer Journal, vol.6, p.163-168.

method

79. Flury, B./Riedwyl, Η.(1981): Graphical representation of multivariate data by means of asymmetrical faces. Journal of the American Statistical Association, vol.76, p.757-765. 80. Flury, B./Riedwyl, Η.(1983): Angewandte Stuttgart.

multivariate

Statistik.

Fischer,

81. Flury, B./Riedwyl, Η.{1984): Some applications of asymmetrical faces. Technical Report 11, Institut für Mathematische Statistik und Versicherungsieh re der Universität Bern, Bern. 82. Frohn, J.(1980): Grundausbildung

in Ökonometrie.

Springer, Berlin.

83. Fujicoshi, Y.(1974): The likelihood-ratio test for the dimensionality of regression coefficients. Journal of Multivariate Analysis, vol.4, p. 327-340. 84. Gabriel, K.R.{1971): The biplot graphic display of matrices with applications to principal component analysis. Biometrika, vol.58, p.453-467. 85. Gänsler, P./Stute, W.(1977): Wahrscheinlichkeitstheorie. lin. 86. Galton, F.(1889): Natural inheritance.

Macmillan, London.

Springer, Ber-

775

Literaturverzeichnis

87. Glyn, W.J./Muirhead, R.J.(1978): Inference in canonical correlation analysis. Journal of Multivariate Analysis, vol.8, p.468-478. 88. Gnanadesikan, R.(1977): Methods for statistical data analysis variate observations. Wiley & Sons, New York. 89. Goldstein, M./Dillon, W.R.(1978): Discrete Wiley & Sons, New York.

discriminant

of

multi-

analysis.

90. Gower, J.C.(1966): Some distance properties of latent root and methods used in multivariate analysis. Biometrika, vol.53, p.325-388.

vector

91. Gray, L.N./Williams, J.S.(1975): Goodman and Kruskal's tau b: Multiple and partial analogs. Proceedings of the Social Statistics Section of the American Statistical Association 1975, p.444-448. 92. Graybill, F.A.(1976): Theory and application of the linear model. bury Press, North Scituate, Massachusetts. 93. Graybill, F.A.(1983): Matrices and its applications Wadsworth, Belmont, California.

in

Dux-

Statistics.

94. Green, P.E./Carmone, F.J.(1970): Marketing research applications of nonmetric scaling methods. In: Romney, A.K./Shepard, R.N./Nerlove, S.B. (eds), Multidimensional scaling; theory and applications II, Seminar Press, New York, p.183-210. 95. Green, P.E./Rao, V.R.(1972): Applied Rinehart& Winston, New York.

multidimensional

96. Großmann, C./Kleinmichel, Η.(1976): Verfahren mierung. Teubner, Leipzig.

scaling.

Holt,

der nichtlinearen

Opti-

97. Grubbs, F.E.(1948): On estimating precision of measuring instruments and product variability. Journal of the American Statistical Association, vol.43, p.243-264. 98. Grubbs, F.E.(1973): Errors of measurement, Precision, Accuracy and the statistical comparison of measuring instruments. Technometrics , vol.15, p.53-66. 99. Gruber, J.(1968): ökonometrische Modelle des Bau und Interpretation. Parey, Hamburg.

Cowles-Commission-Typs:

100. Guttman, L.(1941): The quantification of a class of attributes: A theory and method of scale construction. In: Horst, P. (ed), The prediction of personal adjustment, Social Science Research Council, Bulletin 48, New York, p.251-364. 101. Habermann, S.J.(1978): Analysis Press, New York.

of qualitative

data 1,11.

Academic

102. Hamdan, M.A.(1970): The equivalence of tetrachoric and maximum likelihood estimates of ρ in 2x2 tables. Biometrika, vol.57, p.212-215. 103. Hand, D.J.(1981): Discrimination

and classification.

W i l e y & S o n s , New

York. 104. Hannan, E.J.(1970): Multiple 105. Harman, H.H.(1976): Modern Chicago.

time series.

factor

106. Hartigan, J.A.(1975): Clustering

W i l e y & S o n s , New York.

analysis. algorithms.

University of Chicago Press, W i l e y & S o n s , New York.

107. Härtung, J. (1976): On a method for computing pseudoinverses. In: Oettli, W./Ritter, Κ. (eds), Optimization and Operations Research, Springer, Berlin, p.116-125.

776

Literaturverzeichnis

108. Härtung, J.(1977a): Zur Darstellung pseudoinverser der Mathematik, vol.XXVIII, p.200-208.

Operatoren.

Archiv

109. Härtung, J.(1977b): Zur Optimalität von Sahätzungen in linearen Regressionsmodellen. Zeitschrift für Angewandte Mathematik und Mechanik, vol.57, p.328-329. 110. Härtung, J.(1978a): Zur Verwendung von Vorinformation in der Regressionsanalyse. Operations Research Verfahren, vol.XXIX, p.550-558. 111. Härtung, J.(1978b): Uber ein duales Verfahren für lineare Approximationen und dessen statistische Anwendung. Zeitschrift für Angewandte Mathematik und Mechanik, vol.58, p.475-477. 112. Härtung, J.(1978c): A stable interior penalty method for convex mal problems. Numerische Mathematik, vol.29, p.149-158.

extre-

113. Härtung, J.(1978d): Minimum norm solutions of convex programs. In: Henn, R./Korte, B./Oettli, W. (eds), Optimization and Operations Research, Springer, Berlin, p.127-135. 114. Härtung, J.(1979): A note on restricted pseudoinverses. on Mathematical Analysis, vol.10, p.266-273.

SIAM Journal

115. Härtung, J.(1980): On exponential penalty function methods. Mathematische Operationsforschung und Statistik, Series Optimization, vol.11, p.71-84. 116. Härtung, J.(1981): Non-negative minimum biased invariant estimation in variance component models. Annals of Statistics, vol.9, p.278-292. 117. Härtung, J.(1982a): On two-stage minimax Mathematics, vol.102, p.355-368.

problems.

118. Härtung, J.(1982b): An extension of SION's application to a method for constrained Mathematics, vol.103, p.401-408.

Pacific Journal

of

minimax theorem with an games. Pacific Journal of

119. Härtung, J./Elpelt, B./Klösener, Κ.-Η.(1982): Statistik: Lehr- und Handbuch der angewandten Statistik. Oldenbourg, München (2.Auflage 1984, 3.Auflage 1985, 4.Auflage 1986). 120. Härtung, J./Heine, Β.(1984): Schätzung der Varianz von Grubbs'Schätzern für die Präzision von Meßinstrumenten. Allgemeines Statistisches Archiv, vol.68, p.257-272. 121. Härtung, J./Voet, B.(1984): Zur Gütebeurteilung von Varianzkomponentenschätzungen. Zeitschrift für Angewandte Mathematik und Mechanik, vol.64, p.332-334. 122. Härtung, J./Werner, H.J.(1980): Zur Verwendung der restringierten Moore-Penrose Inversen beim Testen von linearen Hypothesen. Zeitschrift für Angewandte Mathematik und Mechanik, vol.60, p.344-346. 123. Härtung, J./Werner, H.J.(1983): Zum Auswerten unbalanzierter EDV in Medizin und Biologie, vol.14, p.13-18.

Daten.

124. Härtung, J./Werner, Η.J.(1984): Hypothesenprüfung im restringierten linearen Modell: Theorie und Anwendungen. V a n d e n h o e c k & Ruprecht, Göttingen. 125. Harville, D.A.(1976): Extension of the Gauss-Markov theorem to include the estimation of random effects. Annals of Statistics, vol.4, p.384-395. 126. Harville, D.A.(1979): Some useful representations for constrained mixed-model estimation. Journal of the American Statistical Association, vol.74, p.200-206.

777

Literaturverzeichnis

127. Haux, R.(1983): Analysis of profiles based on ordinal classification functions and rank tests. Prepint 208, Sonderforschungsbereich 123 "Stochastische Mathematische Modelle", Universität Heidelberg, Heidelberg. 128. Hawkins, D.M.(1973): On the investigations of alternative regressions by principal component analysis. Applied Statistics, vol.22, p.275-286. 129. Hebbel, Η.(1983): Lineare Systeme, Analysen, Schätzungen und Prognosen (unter Verwendung von Splinefunktionen). Habilitationsschrift, Universität Dortmund, Dortmund. 130. Heck, D.L.(1960): Charts of some upper percentage points of the distribution of the largest characteristic root. Annals of Mathematical Statistics, vol.31, p.625-642. 131. Heiler, S.(1980): Robuste Schätzung in linearen Modellen. In: Nowak, Η. /Zentgraf, R. (eds), Medizinische Informatik und Statistik 20 Robuste Verfahren, Springer, Berlin, p.35-55. 132. Heiler, S.(1981): Zeitreihenanalyse heute: Ein Uberblick. Statistisches Archiv, vol.65, p.376-402. 133. Heiler, S.(1982): Zeitreihenanalyse. wissenschaften 36/37, p.582-599.

Allgemeines

Handwörterbuch der Wirtschafts-

134. Henderson, C.R.(1963): Selection index and expected genetic advance. In: Hanson, W.D./Robinson, Η.F. (eds), Statistical genetics and plant breeding, National Academy of Sciences - National Research Council, Washington, Publication 982, p.141-163. 135. Henderson, C.R.(1975): Best linear unbiased estimation and under a selection model. Biometrics, vol.31, p.423-447.

prediction

136. Henderson, C.R./Kempthorne, O./Searle, S.R./Krosigk, C.M. von(1959): The estimation of environmental and genetic trends from records subject to culling. Biometrics, vol.15, p.192-218. 137. Hildreth, C./Houck, J.P.(1968): Some estimators for a linear model with random effects. Journal of the American Statistical Association, vol.63, p.584-595. 138. Hill, M.0.(1974): Correspondence analysis: A neglected method. Applied Statistics, vol.23, p.340-354. 139. Himmelblau, D.M.(1972): Applied New York. 140. Hinderer, Κ.(1975): Grundbegriffe Springer, Berlin.

nonlinear der

141. Hinterhuber, H.H.(1980): Strategische Berlin.

programming.

multivariate McGraw-Hill,

Wahrscheinlichkeitstheorie. Unternehmensführung.

De Gruyter,

142. Hirschfeld, H.0.(1935): A connection between correlation and contingency. Cambridge Philosophical Society Proceedings, vol.31, p.520-524. 143. Hoerl , A.E./Kennard, R.W.(1970): Ridge regression: for non-orthogonal

problems.

144. Holm, K.(1975): Die Befragung

Biased

estimation

Technometrics, vol.12, p.55-67. 3. Francke, München.

145. Holm, S.{1979): A simple sequentially rejective multiple Scandinavian Journal of Statistics, vol.6, p.65-70.

test

procedure.

146. Horst, R.(1975): Eine Bemerkung zur entscheidungstheoretischen Betrachtung des klassischen linearen Regressionsmodells. Operations Research Verfahren, vol.XX, p.44-48.

778

Literaturverzeichnis

147. Hotelling, Η.(1936): Relations ka, vol.28, p.321-377. 148. Huber, P.J.(1973): Robust Monte

Carlo.

between

regression:

two sets of variates. Asymptotios,

Biometri-

conjectures

and

Annals of Statistics, vol.1, p.799-821.

149. Huber, P.J.(1981): Robust

statistics.

150. Humak, K.M.S.(1977): Statistische -Verlag, Berlin.

W i l e y & S o n s , New York.

Methoden

der Modellbildung.

Akademie

151. Immich, H./Sonnemann, Ε. (1974): Which statistical models can be used in practice for the comparison of curves over a few time-dependßnt measure points? Biometrie - Praximetrie, vol.14, p.43-52. 152. Infante, A.M.(1982): Punktschätzung von Streuungsparametern bei balancierten gemischten Modellen. Dissertation, Universität Dortmund, Dortmund. 153. Jambu, Μ.(1978): Classification Dunod, Paris.

automatique

154. Jambu, M./Lebeaux, M.-0.(1983): Cluster North-Holland, Amsterdam.

pour

analysis

155. Jardine, N./Sibson, R. (1971): Mathematical York.

des

and data

analysis.

taxonomy.

156. Jockel, K.-H.(1982): Iterierte Aitken-Schätzer. sches Archiv, vol.66, p.361-375. 157. Joreskog, K.G.(1963): Statistical technique and its foundations.

l'analyse

donnees.

W i l e y & S o n s , New

Allgemeines

Statisti-

estimation in factor analysis: A l m q v i s t & W i k s e i 1 , Stockholm.

158. Judge, G.G./Griffiths, W.E./Hill, R.C./Lee, T.-C.(1980): The and practice of econometrics. W i l e y & S o n s , New York.

A

new

theory

159. Kaiser, H.F.(1958): The varimax criterion for analytic factor analysis. Psychometrika, vol.23, p.187-200.

rotation

160. Kaiser, H.F./Caffrey, J.(1965): Alpha vol.30, p.1-14.

Psychometrika,

factor

analysis.

in

161. Kakwani, Ν.C.(1967): The unbiasedness of Zellner's seemingly unrelated regression equation estimators. Journal of the American Statistical Association, vol.62, p.141-142. 162. Kail, P.(1976): Mathematische

Methoden

des Operations

Research.

Teub-

ner, Stuttgart. 163. Kail, P.(1982): Analysis

für Ökonomen.

Teubner, Stuttgart.

164. Keller, W.J./Wansbeck, Τ.(1983): Multivariate methods for quantitative and qualitative data. Journal of Econometrics, vol.22, p.91-111. 165. Ketellapper, R.H./Ronner, Α.Ε.(1984): Are robust estimation methods useful in the structural errors-in-variables models? Metrika, vol.31, p.33-41. 166. Kirsch, A.(1978): Bemerkung zu Η. Drygas "Uber multidimensionale lierung". Statistische Hefte, vol.19, p.211-212.

Ska-

167. Kleiner, B./Hartigan, J.Α.(1981): Representing points in many dimensions by trees and castles. Journal of the American Statistical Association, vol.76, p.260-269. 168. Klösener, K.-H.(1983): Präzisionsbestimmung von Meßinstrumenten bei zerstörenden Prüfungen. Dissertation, Universität Dortmund, Dortmund. 169. Krafft, 0.(1978): Lineare statistische Modelle pläne. Vandenhoeck& Ruprecht, Göttingen.

und optimale

Versuchs-

779

Literaturverzeichnis

170. Krantz, D.H./Luce, R.D./Suppes, P./Tversky, A.(1971): Foundations measurement I. Academic Press, New York.

of

171. Krauth, J.(1973): Nichtparametrische Ansätze zur Auswertung von laufskurven. Biometrische Zeitschrift, vol.15, p.557-567. 172. Krauth, J.(1980): Skalierungsprobleme.

Ver-

In: Kopeke, W./Überla, K. (eds),

Biometrie - heute und morgen, Springer, Berlin, p.202-233. 173. Krelle, W.(1969): Produktionstheorie. 174. Kres, H.(1975): Statistische ger, Berlin.

Tafeln

Mater, Tübingen. zur multivariaten

175. Kruskal, J.B.(1964): Nonmetrio multidimensional method. Psychometrika, vol.29, p.115-129.

Analysis.

scaling:

176. Kruskal, J.B./Shepard, R.N.(1974): A nonmetric variety tor analysis. Psychometrika, vol.39, p.123-157. 177. Kruskal, J.B./Wish, Μ.(1978): Multidimensional 178. Krzanowski, W.J.(1975): binary and continuous Association, vol.70, 179. Krzanowski, W.J.(1980): bles in discriminant

scaling.

A

Sprin-

numerical

of linear

fac-

Sage, London.

Discrimination and classification using both variables. Journal of the American Statistical p.782-790. Mixtures of continuous and categorical variaanalysis. Biometrics, vol.36, p.493-499.

180. Kshirsagar, A.M.(1972): Multivariate 181. KUchler, M.(1979): Multivariate 182. Kühn, W. (1976): Einführung hardt, München.

Analysis.

Decker, New York.

Analyseverfahren.

Teubner, Stuttgart.

in die multidimensional

183. Lachenbruch, P.A.(1975): Discriminant

analysis.

Skalierung.

Rein-

Hafner Press, New York.

184. Lancaster, Η.0.(1957): Some properties of the bivariate normal distribution considered in the form of a contingency table. Biometrika, vol.44, p.289-291. 185. Lancaster, H.O./Hamdan, M.A.(1964): Estimation of the correlation coefficient in contingency tables with possibly nonmetric characters. Psychometrika, vol.29, p.383-391. 186. Lawley, D.N./Maxwel1, A.E.(1963): Factor thod. Butterworth, London.

analysis

as a statistical

me-

187. Lehmacher, W.(1980): Nichtparametrischer Vergleich zweier Stichproben von Verlaufskurven. In: Schulz, W./Hautzinger, M. (eds), Klinische Psychologie und Psychotherapie, Gesellschaft für wissenschaftliche Gesprächstherapie. 188. Lehner, P.E./Noma, Ε.(1980): A new solution to the problem of finding all numerical solutions to ordered metric structures. Psychometrika, vol.45, p.135-137. 189. Lienert, G.A.(1978): Verteilungsfreie Hain, Meisenheim.

Methoden

der Bi osvQi'Cst-'i'K J. j. .

190. Liew, C.K.(1976): Inequality constrained least squares estimation. Journal of the American Statistical Association, vol.71, p.746-751. 191. Maddala, G.S.(1983): Limited-dependent and qualitative variables econometrics. Cambridge University Press, Cambridge.

in

192. Magnus, J.R.(1978): Maximum likelihood estimation of the GLS model with unknown parameters in the disturbance covariance matrix. Journal of Econometrics, vol.7, p.281-312.

780

Literaturverzeichnis

193. Mardia, Κ.V.(1978): Some properties of classical multidimensional ling. Communications in Statistics, vol.A7, p.1233-1241. 194. Mardia, K.V./Kent, J.T./Bibby, J.M.(1979): Multivariate Academic Press, New York.

sca-

analysis.

195. Massy, W.F.{1965): Principal component regression in exploratory statistical research. Journal of the American Statistical Association, vol.60, p.234-256. 196. Mathar, R.(1983): Bestapproximierende euklidische Studien zur Klassifikation, vol.13, p.227-229.

Distanzmatrizen.

197. Maung, Κ.(1941): Measurement of association in a contingency table with special reference to the pigmentation of hair and eye colours of scottish school children. Annals of Eugenics, vol.11,' p.189-223. 198. McCullagh, P./Neider, J.A.(1983): Generalized Hall, London.

linear

models.

Chapman &

199. McFadden, D.{1974): Conditional logit analysis of qualitative choice behaviour. In: Zarembka, P. (ed), Frontiers in econometrics, Academic Press, New York, p.105-142. 200. McFadden, D.(1976): Quantal choice analysis: A survey. nomic and Social Measurement, vol.5, p.363-390.

Annals of Eco-

201. Morgenstern, D.(1968): Einführung in die Wahrscheinlichkeitsrechnung und mathematische Statistik. Springer, Berlin. 202. Morrison, D.F.(1976): Multivariate New York. 203. Muirhead, R.J.(1982): Aspects Wiley & Sons, New York.

statistical

of multivariate

204. Nagao, Η.(1973): On some test criteria of Statistics, vol.1, p.700-709.

methods.

McGraw-Hill,

statistical

theory.

for covariance

matrix.

Annals

205. Nishisato, S.(1980): Analysis of categorical data: Dual scaling its applications. University of Toronto Press, Toronto. 206. Oberhofer,.W.(1978): Lineare Oldenbourg, München.

Algebra

für

and

Wirtschaftswissenschaftler.

207. Oberhofer, W./Kmenta, J.(1974): A general procedure for obtaining maximum likelihood estimators in generalized regression models. Econometrica, vol.42, p.579-590. 208. Olkin, I./Tate, R.F.(1961): Multivariate correlation models with mixed discrete and continuous variables. Annals of Mathematical Statistics, vol.32, p.448-465. 209. Olsson, U.{1979): Maximum likelihood estimation of the polychoric correlation coefficient. Psychometrika, vol.44, p.443-460. 210. Olsson, U./Drasgow, F./Dorans, N.J.(1982): The polyserial coefficient. Psychometrika, vol.47, p.337-347. 211. Opitz, 0.(1978): Numerische

Taxonomie

in der Marktforschung.

correlation Vahlen,

München. 212. Opitz, 0.(1980): Numerische

Taxonomie.

Fischer, Stuttgart.

213. Owen, D.B.(1962): Handbook of statistical Reading, Massachusetts.

tables.

Addison Wesley,

214. Pearson, K.(1901): Mathematical contributions to the theory of evolution, VII: On the correlation of characters not quantitatively measurable. Philosophical Transactions of the Royal Society of London, vol,A195, p.1-47.

781

Literaturverzeichnis

215. Pearson, Κ.(1909): On a new method for determining the correlation between a measured character A and a character B. Biorretrika, vol.7, p.96. 216. Pearson, K./Lee, A.(1903): On the laws of inheritance

in man.

Biome-

trika, vol.2, p.357-462. 217. Pfanzagl, J.(1972): Theory

of measurement.

218. Pfanzagl, J.(1974): Statistische - De Gruyter, Berlin.

Physica, Würzburg.

Methodenlehre

II. Sammlung

Göschen

219. Pflaumer, Ρ.(1983): Innovative Marketing-Strategien. In: Deutsche Vereinigung zur Förderung der Weiterbildung von Führungskräften (ed), Innovationsmanagement in Mittelbetrieben, Anregungen und Fallstudien, Köln, p.178-195. 220. Phillips, J.P.N.(1971): A note on the representation of ordered metric scaling. The British Journal of Mathematical & Statistical Psychology, vol.24, p.239-250. 221. Plachky, D./Baringhaus, L./Schmitz, Ν.(1978): Stochastik sche Verlagsgesellschaft, Wiesbaden.

I. Akademi-

222. Polak, E./Ribiere, G. (1969): Note sur la convergence de methodes de directions conjugees. Revue Internationale de la Recherche Operationelle, vol.16, p.35-43. 223. Press, S.J.(1972): Applied ston, New York.

multivariate

analysis.

Holt, R i n e h a r t & W i n -

224. Pukelsheim, F.(1981): On the existence of unbiased non-negative estimates of variance-covariance components. Annals of Statistics, vol.9, p.293-299. 225. Rao, C.R.(1955): Estimation and tests of significance lysis. Psychometrika, vol.20, p.93-111,

in factor

226. Rao, C.R.(1972): Estimation of variance and covariance linear models. Journal of the American Statistical vol.67, p.112-115.

components in Association,

227. Rao, C.R.(1973): Linear

statistical

inference

and its

ana-

applications.

Wiley & Sons, New York. 228. Revenstorf, Τ.(1980): Faktorenanalyse.

Kohlhammer, Stuttgart.

229. Riedwyl, Η.(1975): Kurvenanalyse: Verfahren sur Beurteilung der Lage oder Steigung von Kurvenscharen. Unveröffentlichtes Manuskript. 230. Riedwyl, Η.( 1977): Verlaufskurven und ihre Interpretation. Unveröffentlichtes Manuskript, Seminar "Aktuelle Biometrische Methoden in Naturwissenschaft und Medizin" der Österreichisch-Schweizerischen Region der Internationalen Biometrischen Gesellschaft. 231. Riedwyl, H./Schuepbacn , Μ.(1983): Siebdiagramme: Graphische Darstellung von Kontingenztafeln. Technischer Bericht 12, Institut für Mathematische Statistik und Versicherungslehre der Universität Bern, Bern. 232. Rinne, H.(1976): Ökonometrie.

Kohl hammer, Stuttgart.

233. Romney, A.K./Shepard, R.N./Nerlove, S.B.(1972): Multidimensional scaling theory, theory and applications in the behavorial sciences II. Seminar Press, New York. 234. Ronning, G.(1980): Logit, Tobit and Markov chains: Three different approaches to the analysis of aggregated tendency survey data. In: Striegel, W. (ed), Business cycle analysis, Proceedings of the fourteenth CIRET-Conference.

782

Literaturverzeichnis

235. Roy, S.Ν.(1957): Some aspects New York.

of multivariate

analysis.

Wiley&Sons,

236. Sammon, J.W.(1969): A non-linear mapping for data structure IEEE Transactions on computers, vol.C18, p.401-409. 237. Schach, S.(1982): An elementary method for the statistical growth curves. Metrika, vol.29, p.271-282. 238. Schach, S./Schäfer, Τ.(1978): RegressionsBerlin.

und

analysis. analysis

Varianzanalyse.

of

Springer,

239. Schaich, E./Köhle, D./Schweitzer, W./Wegner, F.(1979): Statistik Volkswirte, Betriebswirte und Soziologen I. Vahlen, München.

für

240. Schaich, E./Köhle, D./Schweitzer, W./Wegner, F.(1982): Statistik

für

Volkswirte,

Betriebswirte

und Soziologen

241. Scheffe, H.(1959): The analysis

of variance.

II.

Vahlen, München.

W i l e y & S o n s , New York.

242. Schiffman, S.S./Reynolds, M.L./Young, F.W.(1981): Introduction multidimensional scaling. Academic Press, New York. 243. Schmetterer, L.(1966): Einführung

in die mathematische

to

Statistik.

Springer, Berlin. 244. Schneeweiß, Η.(1971): Ökonometrie. 245. Schneeweiß, Η.(1976): Consistent in the variables.

Physica, Würzburg. estimation

of a regression

with

errors

Metrika, vol.23, p.101-115.

246. Schönfeld, P.(1969): Methoden

der Ökonometrie

I. Vahlen, München.

247. Schönfeld, P.(1971): Methoden der Ökonometrie II. Vahlen, München. 248. Schönfeld, Ρ.(1978): On the relationship between different estimation principles in linear regression models. Quantitative Wirtschaftsforschung, vol.40, p.617-625. 249. Schuchard-Fischer, C./Backhaus, Κ./Hümme, U./Lohrberg, W./Plinke, W./ Schreiner, W.(1980): Multivariate 250. Searle, S. R. (1971): Linear

models.

Analysemethoden.

Springer, Berlin.

W i l e y & S o n s , New York.

251. Seber, G.A.F. (1977): Linear regression analysis. W i l e y & S o n s , New York. 252. Shepard, R.N./Caroll, J.D.(1966): Parametric representation of nonlinear data structures. In: Krishnaiah, P.R. (ed), Multivariate Analysis, Academic Press, New York, p.561-592. 253. Singh, B./Nagar, A.L./Choudry, Ν.K.(1976): On the estimation tural change: A generalization of the random coefficients model. International Economic Review, vol.17, p.340-361. 254. Sitterberg, G.(1978): Zur Anwendung fahren.

hierarchischer

of strucregression

Klassifikationsver-

Statistische Hefte, vol.19, p.231-246.

255. Sixtl, F.(1967): Meßmethoden

der Psychologie.

256. Skarabis, Η.(1970): Mathematische Diskrimination

Grundlagen

und Klassifikation.

Beltz, Weinheim. und praktische

257. Spaeth, Η.(1975): Cluster-Analyse-Algorithmen. 258. Spaeth, Η.(1983): Cluster-Formation

der

Oldenbourg, München.

und -Analyse.

Oldenbourg, München.

259. Srivastava, M.S./Khatri, C.G.(1979): An introduction statistics.

Aspekte

Physica, Würzburg.

to

multivariate

North-Holland, Amsterdam.

260. Steinhausen, D./Langer, Κ.(1977): Clusteranalyse.

De Gruyter, Berlin.

261. Stoer, J.(1971): the numerical solution of constrained least-squares problems. SIAM OnJournal on Numerical Analysis, vol.8, p.382-411.

783

Literaturverzeichnis

262. Stoer, J.(1979): Einführung Berlin.

in die numerische

263. Swamy, P.A.V.B.(1971): Statistical inference regression models. Springer, Berlin.

Mathematik. in random

Springer, coefficient

264. Takeuchi, K./Yanai, H./Mukherjee, B.N.(1982): The foundations variate analysis. Wiley Eastern, New Delhi.

of

multi-

265. Thöni, H./Urfer, W.(1976): Zur Schätzung von Wachstumskurven aufgrund wiederholter Messungen am gleichen Individuum. EDV in Medizin und Biologie, vol.7, p.92-95. 266. Thurstone, L.L.(1931): Multiple vol.38, p.406-427.

factor

analysis.

Psychological

Review,

267. Thurstone, L.L.(1947): Multiple

factor

analysis.

University of Chicago

Press, Chicago. 268. Tintner, G.(1960): Handbuch

der Ökonometrie.

269. Torgerson, W.S.(1952): Multidimensional Psychometrika, vol.17, p.401-419. 270. Torgerson, W.S.(1958): Theory York.

Springer, Berlin.

scaling:

and methods

I. theory

of scaling.

and

method.

W i l e y & S o n s , New

271. Trenkler, D./Trenkler, G.(1984): A simulation study comparing some biased estimators in the linear model. Computational Statistics Quarterly, vol.1, p.45-60. 272. Trenkler, G.(1981): Biased estimators in the linear Oelgeschlager, G u n n & H a i n , Meisenheim.

regression

model.

273. T s o , M.K.-S.(1981): Reduced rank regression and canonical analysis. Journal of the Royal Statistical Society, vol.B43, p.183-189. 274. Tversky, A./Krantz, D.H.(1970): The dimensional representation and the metric structure of similarity data. Journal of Mathematical Psychology, vol.7, p.572-596. 275. Tyron, R.C./Bailey, D.E.(1970): Cluster 276. Oberla, K.(1971): Faktorenanalyse.

McGraw-Hill, New York.

Springer, Berlin.

277. Vastenhouw, J.(1962): Relationships Hague, Paris. 278. Ven, A. van der (1980): Einführung

analysis.

between

meanings.

in die Skalierung.

M o u t o n & C o , The Huber, Bern.

279. Verdooren, L.R.(1980): How large is the probability of a variance comvonent to be negative? Technical Note 80-02, Department of Mathematics, Agricultural University of Wageningen, Wageningen. 280. Voet, Β.(1983): Schätz- und Testverfahren bei balancierten Varianzkomponentenmodellen. Dissertation, Universität Dortmund, Dortmund. 281. Voet, B.(1985): Iterierte Schätzer im allgemeinen linearen Modell. Zeitschrift für Angewandte Mathematik und Mechanik, vol.65, p.327-328. 282. Vogel, W.(1970)r Lineares

Optimieren.

Teubner, Leipzig.

283. Waerden, B.L. van der (1971): Mathematische 284. Waerden, B.L. van der (1975): Mathematik für Bibliographisches Institut, Mannheim. 285. Wang, P.C.C.(1978): Graphical Academic Press, New York.

representation

Statistik.

Springer, Berlin.

Naturwissenschaftler. of multivariate

data.

784

Literaturverzeichnis

286. Weber, Ε.(1974): Einführung Jena.

in die Faktorenanalyse.

VEB G. Fischer,

287. Werner, H.J.(1981): On Bose's estimability concept. Zeitschrift für Angewandte Mathematik und Mechanik, vol .61, p.355-356. 288. Werner, Η.J.(1983): Zur besten linearen minimalverzerrten Schätzung im singulären restringierten linearen Modell. Zeitschrift für A n gewandte Mathematik und Mechanik, vol.63, p.423-425. 289. Wilks, S.S.(1935): On the independence buted

statistical

variables.

290. Witting, H.(1979): Mathematische

of k sets of normally

Statistik.

291. Witting, H./Nolle, G.(1970): Angewandte Teubner, Stuttgart.

Teubner, Stuttgart.

Mathematische

292. Yohai, V.J./Garcia, M.S. Ben (1980): Canonical variables predictors. Annals of Statistics, vol.8, p.865-869. 293. Young, F.W.(1981): Quantitative metrika, vol.46, p.357-388.

distri-

Econometrica, vol.3, p.309-326.

analysis

of qualitative

Statistik. as data.

optimal Psycho-

294. Zellner, A./Lee, Τ. (1965): Joint estimation of relationships involving discrete random variables. Northwestern University Press, Evanston, Illinois.

Stichwortverzeichnis

5

785

STICHWORTVERZEICHNIS

Ablehnungsbereich eines Tests 46 absolute -,... Häufigkeit 19 -,... Summenhäufigkeit 20 Absolutglied 82 Abstand -/euklidischer ... 72 -,Tschebyscheffscher ... 72 Abwe ichung -,mittlere absolute ... vom Median 24 Addition von Matrizen 50 -,... von Vektoren 48 adjustiertes Bestimmtheitsmaß 87 Administration 1 agglomeratives Verfahren 474ff, 478f f Agrarwissenschaften 1 Ähnlichkeit -,... von Merkmalen 8 -,... von Objekten 3,443 Shnlichkeitsinformation 377 Aitken-Schätzer 136 allgemeiner Faktor 509 Alpha-Faktorenanalyse 518 a-Quantil 33 -,empirisches ... 597 ALS-Verfahren 275,375,518 alternating least squares 275,375 518 Alternativhypothese 46 analyse des correspondances 275, 369ff Andrews-Plot 610,622ff Anfangspartition 465,478 Anlagenintensität 639ff Annahmebereich eines Tests 46 Anpassung -,Güte der ... 82 Anpassungstest 45 Archäologie 1 arithmetisches Mittel 20f -,Minimumeigenschaft des ... 24 Assoziation 143,207 -,... von Merkmalen 143 Assoziationsmaß 143,206ff Astronomie 1 Aufbereitung -,... komplexer Datensituationen 1 -,... qualitativer Daten 269ff Ausprägung eines Merkmals 2 Ausreißer 90,598 -,multivariater ... 596,602f,676 —,Auffinden von ... 592,602f Auswertung großer Datenmengen 1 average linkage 457,479 -,Rekursionsformel für ... 487

Baby 601 balanciertes Varianzanalysemodell 693 Bargmann-Test 548 -»kritische Werte des ... 549 Baum 610,629ff Bayes-Ansatz im Regressionsmode11 126 Bayes-Modell 126f Bayessche Formel 27 bedingte Logit-Analyse 138 bedingte Wahrscheinlichkeit 26ff Befragung 18 Beliebtheitsskala 381 Bell-Doksum-Test 204f Beobachtung 2 Beobachtungsdaten 3 Bereichsschätzung 3 Beschreibung von Datenmaterial durch Kenngrößen 3 bestes Vorhersagekriterium 174 Bestimmtheitsmaß 82f,145,168 -,adjustiertes ... 87 -,multiples ... 82f,168 Betrag eines Vektors 64 Bewertungskriterium für Klassifikationen 446,454ff Bias 40 Bilanzkennzahlen der chemischen Industrie 639ff Binomialverteilung 29f -,Erwartungswert der ... 33 Median der ... 35 -,Quantile der ... 34f Varianz der ... 37 -»Verteilungsfunktion der ... 29f Bioassay 13lf Biologie 1 bi-partielle Korrelation 4f,143f,186ff -,kanonische ... 190 -,multiple ... 189f —.Schätzer für die ... 189 —,Test für die ... 190 -.Schätzer für die ... 187 -,Test für die ... 188 Bi-Plot 596,605ff -,... -Sonne 608,611,638f -,... -Sun 1,638 biserialer Korrelationskoeffizient 202 -,punkt... 202 bivariate Normalverteilung 67ff Blockexperiment -,einfaches multivariates ... 705ff Blume 610,623,626 Bonferroni-Prinzip 116,661 box 597,628f Box-Plot 596ff Burg 610,63 3ff -,Zinne einer ... 633 —,AufSpaltung der ... 634

786

Stichwortverzeichnis

— , L ä n g e der ... 635 Calibration pattern 290ff cash-cow 601 castle 63 3 centroid 457 charakteristisches Poynom 58f Chemie 1 Chernikova-Algorithmus 421 Chernoff-face 619 χ 2 -Verteilung 44 -, ßuantile der ... 44 -,zentrale ... 44 Choleski-Zerlegung 325 chorischer Korrelationskoeffizient 204 -,poly... 204 -,tetra.. . 204 City-Block-Metrik 72 Cluster 443 Clusteranalyse 8f,443ff -,entscheidungstheoretische Grundlagen der . .. 445 -,... für Merkmale 446,471ff -,theoretische Modelle der ... 445 Verfahren der ... 445ff Cobb-Douglas-Produktionsfunktion 79,114,122 common factor 509 complete linkage 457,479 -,Rekursionsformel für ... 487 conditional logit analysis 138 CORALS 375 Daten -,Gewinnung von ... 2 graphische Repräsentation von multivariaten ... 593ff -,Präferenz... 381,420ff -,Proximitäts... 380,405ff Datenaufbereitung 269ff Datenmaterial 3 -,Beschreibung von ... durch Kenngrößen 3 Datenmatrix 3,70ff -,... für die Stufen einer Kriteriumsvariablen 27 1,309ff -,gemischte ... 71 -,Gewinnung einer ... 3 -,qualitative ... 71 -»quantitative ... 71 -,skalierte ... 298 --,Verfahren in ... 271,290ff,34Iff ^standardisierte ... 507 -,reduzierte ... 298,515 Datenmengen -,Aufbereitung großer ... 1 -,Auswertung großer ... 1 Datensituation 1 Datentypen 7 -,gemischte ... 7 definite Matrix 64

-,negativ ... 64 -,positiv ... 64 Definitheit einer Matrix 64 Dendrogramm 9,450,481,493f -,... mit Güteskala 488f dependentes Verfahren 15 Design -,... 1.Art 720 -,... 2.Art 720 Designmatrix 118,659 -,... des restringierten Multivariaten Linearen Modells 659 -,... zufälliger Effekte 720 Determinante -,... einer quadratischen Matrix 54, 58 -,Kriterium der minimalen ... 273, 322 ,3 3 Iff ,3 58f —,Skalierung nach dem ... 273 ,322, 331ff,358f -,Laplacescher Entwicklungssatz zur Berechnung einer ... 54 Diamant 610,617f diamond 617 Dichte 31 -,... der mehrdimensionalen Normalverteilung 67 -,... der Normalverteilung 31 — , gemeinsame ... 65 Dichtefunktion 31 Dimensionalität 173 disjunkte Ereignisse 25 diskrete Regression 128ff diskrete Regressionsanalyse 4,128ff diskretes Merkmal 19 diskrete Verteilung 30 diskret verteilter Zufallsvektor 65 diskret verteilte Zufallsvariable 30 Diskriminanzanalyse 142,222,240ff, 446,489ff -,Mehrgruppenfall der ... 240,245ff — generalisierte lineare Diskriminanzfunktion im ... 247 — , l i n e a r e Fishersche Diskriminanzfunktion im ... 24 5ff Zuordnung von Objekten mittels ... 240f f -,Zweigruppenfall der ... 240,242ff —,Entscheidungsregel im ... 243ff — generalisierte lineare Diskriminanzfunktion im ... 244f — , l i n e a r e Fishersche Diskriminanzfunktion im ...243ff Diskriminanzfunktion -»generalisierte lineare ... 244f, 24 7 — , . . . im Mehrgruppenfall 247 --,... im Zweigruppenfall 244f -,lineare Fishersche ... 243ff — , . . . im Mehrgruppenfall 245ff — , . . . im Zweigruppenfall 243ff Diskrimination 5,296ff,489ff

Stichwortverzeichnis

n e u e r O b j e k t e in die K l a s s e n e i n e r K l a s s i f i k a t i o n 489ff - , . . . z w i s c h e n d e n Stufen einer K r i t e r i u m s v a r i a b l e n 296ff — , ... a u f g r u n d d e r K o r r e l a t i o n m i t d e r K r i t e r i u m s v a r i a b l e n 296f — , . . . a u f g r u n d d e r K o r r e l a t i o n zur generalisierten linearen Disk r i m i n a n z f u n k t i o n 298 — , . . . a u f g r u n d des P e a r s o n s c h e n K o n t i n g e n z k o e f f i z i e n t e n 297f D i s k r i m i n a t i o n s p u n k t 140f Distanzfunktion - . m o n o t o n e ... 406 Distanz-Gleichung 423,427ff D i s t a n z i n d e x 72 D i s t a n z m a ß 72 D i s t a n z m a t r i x 3.70ff

787

E i n f l u ß v a r i a b l e 656 -,Effekte e i n e r ... 656 --.fester ...'656ff — , z u f ä l l i g e r ... 719ff - , q u a l i t a t i v e ... 656 - . q u a n t i t a t i v e ... 656 E i n h e i t s m a t r i x 50f Einsermatrix 51 E i n s t i c h p r o b e n g a u ß t e s t 47,155 EinStichprobenproblem - . m u l t i v a r i a t e s ... 5 ,116f ,22 1 ,223f f — , K o n f i d e n z i n t e r v a l l für eine M i t t e l w e r t k o m p o n e n t e im . . . 116

-.rangreduzierte Korrelationsmatrix der ... 326 d u r c h s c h n i t t l i c h e r W e r t 20f d y n a m i s c h e r V e r s c h u l d u n g s g r a d 639ff

,simultanes ... 116f — . S c h ä t z e r für d e n M i t t e l w e r t v e k t o r im ... 116,223f — , S c h ä t z e r für die K o v a r i a n z m a t r i x im ... 116,223f — , s i m u l t a n e r Test ü b e r M i t t e l w e r t v e k t o r u n d K o v a r i a n z m a t r i x im ... 238f — , S y m m e t r i e t e s t über d e n M i t t e l w e r t vektor im . . . 228 — , T e s t über den M i t t e l w e r t v e k t o r im ... 225ff ,... bei b e k a n n t e r K o v a r i a n z m a t r i x 225f ,... b e i u n b e k a n n t e r K o v a r i a n z m a trix 227 Einzelrestfaktor 509 E l e m e n t a r e r e i g n i s 25 e m p i r i s c h e K o v a r i a n z 74 empirisches Lagemaß 2Iff e m p i r i s c h e s M o m e n t 40 empirisches S t r e u u n g s m a ß 23ff empirische V a r i a n z 23 empirische V e r t e i l u n g s f u n k t i o n 20 endogene Variable 77,81 Entscheidungsregel· b e i m T e s t e n 46 Ereignis

Effekt 13 - . f e s t e r ... 13f zufälliger ... 13f,118ff - - , n i c h t - z e n t r i e r t e r ... 126 effektive Dosis 131f Eichtafel 290 Eigenkapitalanteil 639ff Eigenkapitalrendite 639ff E i g e n v e k t o r 58f E i g e n w e r t 58f - , E i g e n v e k t o r zu e i n e m ... 58f einfaches m u l t i v a r i a t e s B l o c k e x p e r i m e n t 705ff E i n f a c h s t r u k t u r 10,512ff,54 7ff - , B a r g m a n n - T e s t über die ... 548 — » k r i t i s c h e Werte des ... 549 einfaktorielle multivariate Varianzanalyse 6 58 ,693f f - . b a l a n c i e r t e ... 658,693ff - . u n b a l a n c i e r t e ... 658,700 Einfaktor-Modell 514,559

- . d i s j u n k t e s ... 25 - , E l e m e n t a r . . . 25 - » k o m p l e m e n t ä r e s ... 25 - , s i c h e r e s ... 25 - , u n m ö g l i c h e s ... 25 - , z u f ä l l i g e s ... 25 E r e i g n i s r a u m 25 E r g i e b i g k e i t s g r a d der Produktion 79f Erhebung 2 e r w a r t u n g s t r e u e S c h ä t z f u n k t i o n 39 Erwartungswert - . B e r e c h n u n g von ... 32f - , . . . der B i n o m i a l v e r t e i l u n g 33 - , . . . der N o r m a l V e r t e i l u n g 36 - , . . . der S t a n d a r d n o r m a l v e r t e i l u o g 33 euklidische Metrik 72 e u k l i d i s c h e r A b s t a n d 72 E v o l u t i o n 10 E v o l u t i o n s b a u m 10 exhaustive K l a s s i f i k a t i o n 452ff exogene V a r i a b l e 77,81 Experiment 2

für die S t u f e n einer K r i t e r i u m s v a r i a b l e n 271,309ff D i s t a n z s c h r a n k e 46 3 d i v i s i v e s Verfahren 474,478 dog 601 Dosis effektive ... 131f - , l e t a l e ... 131f D o s i s - W i r k u n g s - A n a l y s e 131f D r e i e c k s a n a l y s e 421ff D r e i e c k s g e s t a l t 55 30-Regel 36,676 3s-Regel 676 Dummys 285,324ff - . K o v a r i a n m a t r i z e n der ... 324 — , C h o l e s k i - Z e r l e g u n g d e r ... 325 - . K r e u z k o v a r i a n z m a t r i z e n der ... 324

788

Stichwortverzeichnis

-,Zufalls... 25 Extraktion latenter Faktoren 505 Exzentrizität 162 -,Maximum-... 162 Facet 636 Facette 611,636ff face 618ff -.Chernoff-... 619 -.Flury-Riedwyl-... 619ff factor 505 -.... analysis 505 -,... loading 508 -,... pattern 508 -,... structure 514,562 Faktor 10,505ff,668f,679 -.allgemeiner ... 509 -,Einzelrest... 509 -,gemeinsamer ... 509 -.korrelierter ... 511,547ff -.latenter ... 505 -.merkmalseigener ... 509 -.orthogonaler ... 510,547ff -.quantitativer ... 669,679 -.schiefwinkliger ... 511,561ff -.Stufen eines ... 668 -.Test über die Anzahl der ... 551f,527 Faktorenanalyse lOf,115,127,505ff 609 -,Fundamentaltheorem der ... 509 Faktorenmodell -,reduziertes ... 563 Faktorenmuster 508 Faktorenstruktur 514,562 Faktorenwert 11,115,127,508,568ff -,... bzgl. rotierter Faktoren 570f -,Matrix der ...508 —,Schätzen der ... 514,568ff -.Schätzen eines ... 568ff Faktorenwertematrix 508,568ff -,... bzgl. rotierter Faktoren 570f -,Schätzen der ... 508,568ff Faktorladung 508 -,Bestimmung einer ... 518ff -,Matrix der ... 508 Faktorrotation 10,512f,546ff -,orhtogonale ... 512ff,547ff — , . . . mittels Quartimax-Methode 513f,559ff — , . . . mittels Varimax-Methode 513 55 Iff -,schiefwinklige ... 514,547,561ff — , . . . mittels Primärfaktorenmethode 514,561ff Faktorstufenkombination 69 2 Fehler -,... 1.Art 46 -,... in den Variablen 115 —»Regression bei ... 115 -,mittlerer quadratischer ... 40 -,... 2.Art 46

Fehlermatrix 246,662 Fehlerquadratsumme 81f,120 Fishersche z-Transformation 154 flowers 623,626 Flury-Riedwyl-Face l,619ff Formel von Woodbury 119 Fraktil 34 Freiheitsgrad 44f -,... der Hypothese 662 -,... des Fehlers 662 Fundamentaltheorem der Faktor.enanalyse 509 funktionale Beziehung 77 funktionaler Zusammenhang 3f,77,81 F-Verteilung 45 -.Quantile der ... 45 -,zentrale ... 45 Gauß-Markov-Schätzer 120 Gauß'sche Methode der kleinsten Quadrate 8 Iff Gauß'sches Eliminationsverfahren 56f Gaußtest 47 gemeinsame Dichte 65 gemeinsamer Faktor 509 gemeinsame Verteilungsfunktion 65 gemischte Datenmatrix 71 gemischte Datentypen -.Skalierung bei ... 350ff Gemischtes Lineares Modell 80,118ff -.Fehlerquadratsumme im ... 120 -,Linearform der Regressionskoeffizienten im ... 121 —,Konfidenz- Prognoseintervall für eine ... 121 —,Prognose einer ... 121 —,Prognoseintervall für eine ... 122 —.Schätzung einer ... 121 -.Schätzung für den Varianzfaktor im ... 120 -.Schätzer für die Regressionskoeffizienten im ... 119ff —.Aitken-... 119 — .explizite ... 119f —.gewichtete Kleinste-Quadrate-... 119 —.inversionsfreie ... 120 —.weighted Least-Squares-... 119 -.Tests für die festen Parameter des ... 122 general factor 509 generalisierte Inverse 60ff generalisierte lineare Diskriminanzfunktion 244f -,... im Mehrgruppenfall 247 -,... im Zweigruppenfall 244f -.Methode der Korrelation zur ... 251,257f generalized linear model 134ff genotypische Leistung 122 Geodäsie 1 Geographie 1

Stichwortverzeichnis

Geologie 1 Gesetz der universalen Regression 77 Gesicht 610,618ff Gleichungssystem -,lineares ... 55ff —,Koeffizientenmatrix eines ... 57 —,Lösen eines ... 55f,63f —,Lösungsvektor eines ... 57 Gleichung von Bienayme 38 Globaltest -,auf paarweise Unabhängigkeit mehrerer Merkmale 163f -,auf paarweise Unabhängigkeit mehrerer Meßreihen 163f Glyph 610,616f Goode-Phillips-Algorithmus 421, 426f f Gradientenverfahren 330,361f -,Startwerte für ... im Zusammenhang mit Skalierungsverfahren 333,335,362 -,... von Fletcher/Powell 330,362 -,... von Polak/Ribiere 330,362 graphische Repräsentation l,593ff -,... ein- und zweidimensionaler Daten 595ff -,... multivariater Daten l,593ff -,... von Merkmalswerten 610ff --,... durch Gesichter 610,618ff — , . . . durch Strecken 610,612ff — , . . . durch trigonometrische Funktionen 610,622ff — , . . . durch Winkel 610,617f — , . . . unter Berücksichtigung der Diskriminationsgüte 611,636ff — , . . . unter Berücksichtigung der Merkmalsähnlichkeiten 610,626ff — , . . . unter Berücksichtigung der Merkmalskorrelationen 638f graphische Verfahren zur Repräsentation multivariater Daten 593ff Grenzdifferenz 695 Grubbs-Schätzer 737 Grundgesamtheit 2,18 Grundraum 25 Gruppe 443 Güte -,... der Anpassung 82 -,... der Diskrimination 245,247, 252 -,... der Trennung 242 -,... einer Hierarchie 460 -,... einer Klassifikation 458ff -,... einer MDS-Darstellung 382 -,... einer Partition 459f -,... einer Quasihierarchie 460 -,... einer Überdeckung 458f -,Maße für die ... 458ff Gütefunktion 382 -,... der Haupt-Koordinaten-Methode 395f

789

-,... des Verfahrens von Kruskal 406ff ,... von Nonlinear Mapping 385f Gütekriterium 382,406 Güteprüfung einer Skalierung 271, 300ff -,... mittels Clusteranalyse 307 -,... mittels Diskriminanzfunktionen 301f f -,... mittels Mahalanobisdistanzen 304f — (Bewertung der .... 305 Guttmansche Skalierung 271,275,369ff -,Skalierung bei der ... 371 — , . . . für die Merkmale 371 — , . . . für die Objekte 371 Häufigkeit 19ff -,absolute ... 19 -,relative ... 19f -,Summen... 20 --,absolute ... 20 —.relative ... 20 Häufigkeitsverteilung 596 Handel 1 Hauptdiagonale 53 Hauptfaktorenanalyse 512,533 Hauptkomponentenanalyse 115,512,527ff Hauptkomponentenwerte 115,529f,569 Hauptkomponentenwertematrix 529f,569 Haupt-Koordinaten 395 Haupt-Koordinaten-Methode 8,380,393ff -,... für euklidische Distanzmatrizen 593ff -,... für nicht-euklidische Distanzmatrizen 595f Heterogenität -,Maße für die ... 456ff — , . . . disjunkter Klassen 457 — , . . . sich überschneidender Klassen 457 — , . . . sich vollständig überschneidender Klassen 458 -,... zwischen den Klassen 443 —.Bewertungskriterien für die ... 446 Hierarchie 9,448,450ff,478ff,49Iff -Auswirkung verschiedener Heterogenitätsmaße auf eine ... 482ff -(Dendrogramm einer ... 450,481,488f -,Klassen einer ... 450ff —»Zuordnung neuer Objekte zu den ... 491ff -,Konstruktionsverfahren für eine ... 478ff —,agglomeratives ... 478ff —,divisives ... 478 -,Stammbaum für eine ... 450ff Stufen einer ... 460 —,Gütemaße für die ... 460 hierarchische Clusteranalyse-Verfahren 478ff,609f

790

Stichwortverzeichnis

hierarchische Klassifikation 692, 707ff,722ff -,multivariate einfach ... 722ff — , . . . m i t zufälligen Effekten 722f f -,multivariate dreifach ... 722, 727ff --,... mit zufälligen Effekten 722, 727ff - m u l t i v a r i a t e zweifach ... 692, 707ff,722,725ff — , . . . mit festen Effekten 692,707ff — , . . . mit zufälligen Effekten 722 725ff Homogenität -,... innerhalb einer Klasse 443 — ,.Bewertungskriterien für die ... 446 — , M a ß e für die ... 454ff Homogenitätsindex 462 Homogenitätsschranke 462f,469 Hotelling-Lawley-Test 176,665f -,kritische Werte des ... 176,666 ^ A p p r o x i m a t i o n des ... 176,666 Hotelling-Pabst-Statistik 194 -»kritische Werte der ... 194 --,Approximation der ... 194 Hotellings T J - S t a t i s t i k 227ff Hypothese 46 -,allgemeine lineare ... 657,662 — » a l l g e m e i n testbare ... 662 — » e r w e i t e r t e ... 663 -»Alternativ... 46 -,einseitige ... 46 -»Null... 46 -»Reduktions... 87 -»Testen einer ... 46ff -»zweiseitige ... 46 Hypothesenmatrix 246,662 Idealpunkt 381 Idealpunktskala 381 Identifikation 5,222,240ff,489ff identifizierende Nebenbedingung 659f indefinite Matrix 64 Index der Lebenshaltungskosten 494 ff individual scale 381,420 Informatik 1 Ingenieurwissenschaften 1 Instrumentenbias 72 2,737 Instrumentenvariationen 72 2 Intelligenzguotient nach Wechsler 282 Interaktion 692 Interaktionseffekt 701 interdependentes Verfahren 15 Interpretation der Dimensionen bei der MDS 379f Invarianzprinzip 177 Inverse 59

- g e n e r a l i s i e r t e ... 60ff -,Pseudo... 60ff -,Moore-Penrose-... 60ff inverse Matrix 59 -,Berechnung einer ... 59f Irrtumswahrscheinlichkeit 43,46 I-Skala 381,420 Jöreskog-Methode der Faktorenanalyse 512,54 Iff -,Proportionalitätsfaktor b e i der ... 543 joint scale 381,421 J - S k a l a 381,421 Kanonische bi-partielle Korrelation 190 kanonische Paktorenanalyse 511,525ff, 576ff kanonische Korrelation 4,144,172ff -,Kriterium der maximalen ... 274, 323,347ff,360f — , S k a l i e r u n g nach dem ... 274,323 347ff,360f -,maximale ... 173 — , G e w i c h t s v e k t o r e n der ... 285 -,Schätzer für die ... 174 - , T e s t für die ... 175 kanonische Korrelationsanalyse 371f kanonische partielle Korrelation 186 kanonische Variable 371 Kapitalumschlag 639ff kategorielies Merkmal -,gemeinsame Skalierung mehrerer ... 272ff,322ff -,Skalierung zweier ... 270,277,282ff — » V e r f a h r e n im Zusammenhang mit der ... 271»290ff Kendallscher Rangkorrelationskoeffizent 199ff -»partieller ... 201 - » T e s t auf Unkorreliertheit mittels ... 200 Kendall's τ 199ff -partielles ... 201 -»Test auf Unkorreliertheit mittels ... 200 Kenngröße 3,32ff -,Beschreibung mittels ... 3 -,... einer Zufallsvariablen 32ff Kennzahl 596 Kern einer Matrix 64 Kern-restringierte Pseudoinverse 660 Klasse 443 -,... einer Hierarchie 450ff -,... einer Klassifikation 445 -»... einer Partition 447f - , . . . einer Quasihierarchie 448ff - » . . . einer Überdeckung 44 7 -»Heterogenität zwischen den ... 443 — , M a ß e für die ... 456ff -,Homogenität zwischen den ... 443

Stichwortverzeichnis

— , M a ß e für die ... 454ff -.Zuordnung neuer Objekte zu einer ... 489ff Klassenbildung 19 Klasseneinteilung -,... mittels Clusteranalyse 443ff -,... mittels MDS 384ff Klassenzugehörigkeit 443 Klassifikation 8f,307ff,443ff -»exhaustive ... 452ff -,Güte einer ... 458ff -,... im Rahmen der Skalierung 307ff Klassen einer ... 445 -,... multivariater Verfahren 14f -,nichtexhaustive ... 452ff -,Typ einer ... 446 Klassifikationstyp 9,446 -,... Hierarchie 448,450ff,460, 478ff,491ff -,... Partition 447f,459f,465ff, 489f -,... Quaäihierarchie 448ff,460, 473ff -,... Überdeckung 447,458f,460ff, 490 Kleiner-Hartigan-tree l,630ff -,Ast eines ... 630 —,Breite eines ... 630 -,Ast- und Stammlänge eines ... 631 Richtung von Ästen und Stämmen eines ... 631 -,Stamm eines ... 630 Winkel zwischen den Ästen eines ... 630f -,Winkel zwischen Stamm und Ästen eines ... 630f Kleinste Quadrate -.Gauß'sche Methode der ... 41f Kolmogoroffsehe Axiome 26 Kommunalität 510 -.Schätzer für die ... 534f komplementäres Ereignis 2 5 Komponenten -,wesentliche ... 530 Konfidenzbereich 43f Konfidenzellipsoid 85 Konfidenzintervall 43f -,approximatives ... --,... für den korrigierten Pearsonschen Kontingenzkoeffizienten 209 — , . . . für den Pearsonschen Kontingenzkoeffizienten 209 — , ... für den Q-Koeffizienten von Yule 207 -.asymptotisches ... 43 -,... für den Erwartungswert — , . . . der Normalverteilung 45 — , . . . des Regressanden 86 ,individuelles ... 86 ,simultanes ... 86 — , . . . einer zukünftigen Beobachtung

791

im restringierten Multivariaten Linearen Modell 66lf ,individuelles ... 661 ,simultanes ... 661f -,... für die Korrelation zweier normalverteilter Merkmale 156ff -,... für die Parameter der Normalverteilung 45 -,... für die Regressionskoeffizienten 84 f —,individuelle ... 84 —,simultane ··· 34f -,... für eine Mittelwertkomponente im multivariaten Einstichprobenproblem 116f Konfidenz-Prognoseintervall für eine Linearform im Gemischten Linearen Modell 121 Konfidenzstreifen für eine Regressionsgerade 108f -,individueller ... 109 -,simultaner ... 109 konsistente Schätzfunktion 40 Konstruktionsverfahren -,... für Hierarchien 478ff —,agglomeratives ... 478ff —,divisives ... 478 -,... für Klassifikationen 446 -,... für Partitionen 465ff —,iteratives ... 465ff —,rekursives ... 469ff -,... für Quasihierarchien 473ff —,agglomeratives ... 474ff —,divisives ... 474 -,... für Überdeckungen 460ff — ,exhaustives ... 461ff —,iteratives ... 463ff Kontingenzkoeffizient 209 -,Pearsonscher ... 209 —,approximatives Konfidenzintervall für den ... 209 —,korrigierter ... 209 ,approximatives Konfidenzintervall für den ... 209 Kontingenztafel 138f,206ff,275ff -,Assoziationsmaße für eine ... 206ff -,graphische Repräsentation einer ... 609 -,Loglineares Modell für eine ... 211 —,Parameter des ... 211 -,multidimensionale ... 275 -,skalierte ... 290ff —,Verfahren in einer ... 290ff -»unterbesetzte ... 296 Korrelation 4f,8,37f,143ff -,bi-partielle ... 4f,143f,186ff —(kanonische ... 190 — .multiple ... 189f ,Schätzer für die ... 189 .Test für die ... 190 —.Schätzer für die ... 187 —.Test für die ...187

792

Stichwortverzeichnis

-gemeinsame ... 159ff gemeinsamer Schätzer für die ... mehrerer Merkmalspaare 159ff -kanonische ... 4,144,172ff —,maximale ... 173,285 ,Gewichtsvektoren der ... 285 .Kriterium der ... 274,323, 347ff,360f ,Skalierung nach dem ... 274, 323,347ff,360f ,Schätzer für die ... 174 ,Test für die ... 175 -,multiple ... 4,144,167ff —»Kriterium der maximalen ... 274,322f,334ff,359f ,Skalierung nach dem ... 274, 322f,334ff,359f —.Schätzer für die ... 167f — , T e s t für die ... 171f -,... nicht-normalverteilter Zufallsvariablen 190f f — , T e s t für die ... 193f,200 -,Nonsens... 143 -,... normalverteilter Merkmale 144f f -,... ordinaler Merkmale 201ff -,partielle ... 4f,143f,181ff,200 —»kanonische ... 186 —,multiple ... 184f ,Schätzer für die ... 184 ,Test für die ... 184f — »Schätzer für die ... 182,200 — T e s t für die ... 182 -,Produktmoment... 145 -,Schein... 143 -,Vergleich der ... mehrerer Merkmalspaare 159ff -,-..zweier normalverteilter Merkmale 144f f —,Konfidenzintervall für die ... 156f f —»Schätzer für die ... 145ff —»Test für die ... 153ff Korrelationsanalyse 4f,143ff -»kanonische ... 371f Korrelationskoeffizient -,... bei ordinalen Merkmalen 201ff -,chorischer ... 204 -,multipler ... 83 -,Pearsonscher ... 145ff -,polychorischer ... 204 -,polyserialer ... 203 -,punktbiserialer ... 202 -,punktpolyserialer ... 203 -,Rang... 191ff —»Kendallscher ... 199ff »partieller ... 201 »Rest auf Unkorreliertheit mittels ... 200 --»Spearmanscher ... 191ff »Test auf Unkorreliertheit mittels ... 193f

»simultaner ... 196f -,serialer ... 201f -,tetrachorischer ... 204 Korrelationsmaß 4f,143 Korrelationsmatrix 66,152,323ff,510 -,... bei gemischten Datentypen 350ff -,... der Faktoren 514,565f -,geschätzte ... 162 -,rangreduzierte ... 326 -,reduzierte ... 510 -,... von kategoriellen Merkmalen 323f f korrelierte Faktoren 510,561ff korrelierte Fehler 90 Korrespondenzanalyse 271,275,369ff -,Skalenwerte bei der ... 370 Kovariable 13,669,678 Kovarianz 37,74 -»empirische ... 74 Kovarianzanalyse -,multivariate ... 13 ,142,657,667f, 679ff Kovarianzhypothesen 234ff Kovarianzmatrix 66,222,234ff,656f -»empirische ... 73 -»Hypothese über ... 222,234ff -,... im restringierten Multivariaten Linearen Modell 656f —.Schätzen der ... 657,663 -,Schätzer für die ... 223f -»simultaner Test über ... und Mittelwertvektor im multivariaten Einstichprobenproblem 238f -»Test auf Gleichheit mehrerer ... 236f -»Test über die Struktur einer ... 234f -»... von Dummys 324 --»Choleski-Zerlegung der ... 325 Kreuzklassifikation 658,700ff,722, 73 1 ff -,multivariate zweifache ... 658, 700ff,722,731ff — , . . . mit einer Beobachtung pro Zelle 705ff — , . . . mit festen Effekten 692,700ff ,... mit Wechselwirkungen 692, 700f f ,... ohne Wechselwirkungen 692, 705f f --,... mit zufälligen Effekten 722, 73 Iff ,... mit Wechselwirkungen 722, 733f ,...ohne Wechselwirkungen 722, 732f Kreuzkovarianzmatrix -,... von Dummys 324 Kriterium -»... der maximalen kanonischen Korrelation 274 ,323 ,34'7ff ,360f -,... der maximalen Maximum-Exzentri-

Stichwortverzeichnis

793

zität 273,322,331ff,359 -,... der maximalen multiplen Korrelation 274,322f,334ff,359f der minimalen Determinante 273,322,331ff,358f Kriteriumsvariable 6f,271,290 -,beste Diskriminatoren zwischen den Stufen einer ... 271,296ff -,Datenmatrix für die Stufen einer ... 271,309ff -.Distanzmatrix für die Stufen einer ... 271,309ff -,gemeinsame Skalierung gegen eine ... 273,32 2f,334ff,359f — , . .. nach dem Kriterium der maximalen multiplen Korrelation,273, 322f,334ff,359f, gemeinsame Skalierung gegen mehrere ... 274,323,347ff,360f — , . .. nach dem Kriterium der

-,... im Mehrgruppenfall 245ff -,... im Zweigruppenfall 243ff lineare Hypothese 657 -,allgemein testbare ... 662 -,Prüfgröße für allgemeine ... 662 -,Testen allgemeiner ... im restringierten Multivariaten Linearen Modell 657,662 lineare Regressionsfunktion 78 -»Transformation in ... 114 lineares Gleichungssystem 55ff Lineares Modell -,Gemischtes ... 4,80,118ff — , L i n e a r f o r m der Regressionskoeffizienten im ... 121

maximalen kanonischen Korrelation 274,323,347ff,360f -.Skalierung gegen eine ... 271, 290ff,322f,334ff,359f -.Zuordnung neuer Objekte zu den Stufen einer ... 271,307ff kritischer Wert 46 Kroneckerprodukt 52f

»Schätzung einer ... 121 — , S c h ä t z e r für den Varianzfaktor im ... 120 — . S c h ä t z e r für die Regressionskoeffizienten im ... 119ff .Aitken-... 119 .explizite ... 119f g e w i c h t e t e Kleinste-Quadrate-... 119 .inversionsfreie ... 120 .weighted Least-Squares ... 119 — . T e s t s für die festen Parameter des ... 122 -.Multivariates ... 655ff — . r e s t r i n g i e r t e s ... 656ff -.univariates ... 667 -.verallgemeinertes ... 134ff Lineares Wahrscheinlichkeitsmodell 4,80,130,133,136 linear unabhängig 55 Liquidität 639ff

Ladungsmatrix 10,508ff -.Einfachstruktur einer ... 512ff, 547f f rotierte ... 514,548ff -,Schätzung einer ... 511f,518ff — , M a x i m u m - L i k e l i h o o d - . . . 511,519ff mittels Hauptfaktorenanalyse 512,533 — . . . . mittels Hauptkomponentenanalyse 512,527ff — , . . . mittels Jöreskog-Methode 512, 54 Iff — , . . . mittels kanonischer Faktorenanalyse 511,525ff,576ff --,... mittels principal component analysis 512,527ff — , . . . mittels principal factor analysis 512,533 — , . . . mittels Zentroidmethode 512, 534ff Länge eines Vektors 49 Lagemaß -,empirisches ... 21ff Lageparameter 32 ff Laplacescher Entwicklungssatz 54, 166 latente Faktoren 505 leere Zellen 161 letale Dosis 131f kelihood 40 log-... 41 Lneare Fishersche Diskriminanzfunktion 243 ff

,Konfidenz-Prognoseintervall für eine ... 121 ,Prognose einer ... 121 ,Prognoseintervall für eine ... 122

Logistische Verteilungsfunktion Logit 132,137f Logitanalyse 4,80,132f,137 -,bedingte ... 138 logit analysis ^ c o n d i t i o n a l ... 138 Logit-Modell 80,132f,137 log-Likelihood 41 Loglineares Modell 140,211 -,Parameter des ... 211 LognormalVerteilung 132 lokale Struktur 385 L r - M e t r i k 72

132

Mahalanobisdistanz 73 MANOVA 658,692 mapping error 385ff -.Gradientenverfahren zur Minimierung des ... 385ff marginale Normalisierung 270,276ff Marktforschung 313ff

794

Stichwortverzeichnis

Marktanteil 598ff Marktwachstum 598ff Matrix 49ff -,Addition von ... 50 -»Daten... 70ff -»definite ... 64 -»Definitheit einer ... 64 -»Distanz... 70ff -,Einheits... 50f -»Einser... 51 generalisierte Inverse einer ... 60ff ' -»indefinite ... 64 -,inverse ... 59 -,Kern einer ... 64 -»Kern-restringierte Pseudoinverse einer ... 660 -»Koeffizienten... 57 Kroneckerprodukt von ... 52 —,Rechenregeln für das ... 52f -,Moore-Penrose-Inverse einer ... 60f f Multiplikation von ... 51 negativ definite ... 64 negativ semidefinite ... 64 -»Nullspace einer .... 64 -»positiv definite ... 64 -»positiv semidefinite ... 64 Pseudoinverse einer ... 61ff quadratische ... 50,53f —»Determinante einer ... 54 —»Eigenwert einer ... 58f ,Eigenvektor zum ... 58f --,Hauptdiagonale einer ... 53 —,Spaltenvolumen einer 54 —,Spur einer ... 53 trace einer ... 53 -,Rang einer ... 55 -»Rechenregeln für ... 52 -»reguläre ... 59 -,semidefinite ... 64 -»skalare Multiplikation einer ... 50 -»symmetrische ... 50 -»transponierte ... 50 -»vec-Operator für ... 53 -»zufällige ... 70 Matrizenrechnung 3,48ff maximale Exzentrizität 162 Maximalwurzel-Kriterium 177 Maximum-Exzentrizität 332 -»... eines Korrelationsellipsoids 273,322»331ff»359 -»Kriterium der maximalen ... 273» 322 »331 ff»359 --Skalierung nach dem ... 273,322» 331ff»359 Maximum-Likelihood-Methode 40f -»... der Faktorenanalyse 519f MDS 7f,75 » 377ff,609 mean squared error 40 Median 22»33

-»... der Binomialverteilung 35 -»... der Standardnormalverteilung 34 -»Minimumeigenschaft des ... 24 -»mittlere absolute Abweichung vom ... 24 Medizin 1 mehrdimensionale Normalverteilung 65 ff -»Dichte der ... 67 -»Eigenschaften der ... 70 -»Verteilungsfunktion der ... 67 mehrdimensionale Verteilungsfunktion 65 Mehrgruppenfall· der Diskriminanzanalyse 245ff -»Zuordnung von Objekten im ... 245ff —»... mittels generalisierter Diskriminanzfunktion 247 — » . . . mittels linearer Fisherscher Diskriminanzfunktion 245ff Merkmal 2ff,18f -»Ähnlichkeiten von ... 8 -»Ausprägung eines ... 2 -»Auswahl wesentlicher ... 5 -»diskretes ... 19 -»Einfluß eines ... 4 -,... im Koordinatensystem der Faktoren 522f f -»Klassifikation von ... 9 -»Komplexität eines ... 509 -»künstliches ... 10 -»latentes ... 10 -»metrisches ... 19 -»nominales ... 19 -»ordinales ... 19 -»qualitatives ... 6f,18 -»quantitatives ... 7,18 -»standardisiertes ... 508 -»stetiges ... 19 -»Reduktion von ... 222»241,252ff — »Methoden zur ... 251ff —»Methode der Korrelation zur generalisierten linearen Diskriminanzfunktion zur ... 251»257f —»Methode der Unentbehrlichkeit zur ... 251ff —»Trennmaß zur ... 241 -»zusammengesetztes ... 563 Merkmalsausprägung 6»18 merkmalseigener Faktor 509 merkmalseigene Varianz 510 Merkmalstyp 4 Merkmalswert 18 Meßinstrument -»Präzision eines ... 722»736ff --»Schätzer für die ... 738 Messung 2 Methode der kleinsten Quadrate 41f Metrik 72f -»City-Block-... 72 -»euklidische ... 72 -»Lr-... 72

Stichwortverzeichnis

metrische multidimensionale Skalierung 380,384ff -,... mittels Haupt-KoordinatenMethode 380,393ff -,... mittels Nonlinear Mapping 380,384ff metrisches Merkmal 19 Minimax-Lösung der Faktorenanalyse 518 Minimumeigenschaft des arithmetischen Mittels 24 des Medians 24 MINQUE 721 Mittel ^arithmetisches ... 20f Mittelwert 20f einer Zufallsvariablen 32 Mittelwertvektor -,... im multivariaten Einstichprobenproblem 223ff —,Konfidenzintervall für eine Komponente des ... 116f —.Schätzer für den ... 223f —,simultaner Test über Kovarianzmatrix und ... 238f —,Symmetrietest über den ... 228 — » T e s t über den ... 225ff ,bei bekannter Kovarianzmatrix 225f ,bei unbekannter Kovarianzmatrix 227 Mittelwertvergleich -,... im unverbundenen Zweistichprobenproblem 230f — , . . . bei bekannten, gleichen Kovarianzmatrizen 230f — , . . . bei bekannten, ungleichen Kovarianzmatrizen 231 — , . . . bei unbekannten Kovarianzmatrizen 231 im verbundenen Zweistichprobenproblem 232f mittlerer quadratischer Fehler 40 MMDS 380,384ff MMINQUE 721 Modalwert 22,35 Modell -,... der multivariaten Varianzanalyse 658ff — , . . . mit festen Effekten 658f, 692ff — , . . . mit zufälligen Effekten 658f,719ff -(Gemischtes Lineares ... 80,118ff -,multivariates ... 117 -(Multivariates Lineares ... 13f, 655ff --,restringiertes ... 656ff -(Univariates Lineares ... 655ff Modellannahmen -,... im restringierten Multivariaten Linearen Modell 655,659

795

—.Überprüfung der ... 657,675ff, 688ff Modellauswahl 87 Modellreduktion 87 Modelltypen 657 Modellvergleich 87,691 Modus 35 Moment -,k-tes ... 37 -,k-tes zentrales ... 37 -,k-tes empirisches ... 40 Momentenmethode 40 monotone Distanzfunktion 406 Moore-Penrose-Inverse 60ff -,Berechnung einer ... 61ff MORALS 375 MSE 40 multidimensionale Kontingenztafel 275 multidimensionale Skalierung 7f,75, 377ff,609 -,... ausgehend von Präferenzdaten 381,420ff -,... ausgehend von Proximitätsdaten 380 ,405f f -,metrische ... 8,380,382,384ff -,... mittels des Verfahrens von Kruskal 380,383,405ff -,... mittels Haupt-Koordinaten-Methode 380,393ff -,... mittels Nonlinear Mapping 380, 384ff -,...mittels Unfolding-Technik 381, 420f f -,nichtmetrische ... 8,380,405ff Multikollinearität 88 Multinomialverteilung 138 multiple bi-partielle Korrelation 189f -,Schätzer für die ... 189 -,Test für die ... 190 multiple Korrelation 4,144,167ff -,Kriterium der maximalen ... 274, 322f,334ff,359f —,Skalierung nach dem ... 274,322f 334ff ,359f -,Schätzer für die ... 167f -.Test für die ... 171f multiple partielle Korrelation 184f -(Schätzer für die ... 184 -,Test für die ... 184f multiple Regressionsanalyse 4,83ff -,Konfidenzellipsoid für die Regressionskoeffizienten bei der ... 85 -,Konfidenzintervall für den Erwartungswert des Regressanden bei der ... 86 — individuelles ... 86 —,simultanes ... 86 -,Konfidenzintervall für die Regressionskoeffizienten bei der ... 84f —,individuelles ... 84

796

Stichwortverzeichnis

—,simultanes ... 84f -»Prognose des Regressanden bei der ... 86 -»Prognoseintervall für den Regressanden bei der ... 86 —.individuelles ... 86 —,simultanes ... 86 -.Schätzer für die Regressionskoeffizienten bei der ... 83f —»Korrelationen der ... 84 —(Kovarianzen der ... 84 —.Varianzen der ... 84 -»Schätzer für die Varianz bei der ... 84 -»Tests über die Regressionskoeffizienten bei der ... 86f multiple Regressionsfunktion 79, 8 Iff multipler Korrelationskoeffizient 83 multiples Bestimmtheitsmaß 82f multiple Vergleiche -,... bei der multivariaten Einfachklassifikation mit festen Effekten 694f -,... der Korrelationen mehrerer Merkmalspaare 196f -,... nach Holm 196f Multiplikation von Matrizen 51 -,... von Vektoren 48 multivariate analysis of variance 658 multivariate Daten graphische Repräsentation von ... 593ff multivariate dreifach hierarchische Klassifikation mit zufälligen Effekten 722,727ff multivariate Einfachklassifikation 658,693ff,723ff -(balancierte ... 658,693ff,723ff — , . . . mit festen Effekten 693ff --(... mit zufälligen Effekten 723f f -(Unbalancierte ... 658,700 multivariate Kovarianzanalyse 13,142,657,667f,679ff -»adjustierte Bestimmtheitsmaße bei der ... 691 -,Beobachtungsmatrix bei der ... 679 -,Bestimmtheitsmaße bei der ... 688 -,Designmatrix bei der ... 679 -(Fehlermatrizen bei der ... 682 -,Güte der ... 687f -,Hypothesen bei der ... 680f — , T e s t s über die ... 681ff -,Hypothesenmatrizen bei der ... 682 -,Konfidenzintervall für den

Erwartungswert einer zukünftigen Beobachtung bei der ... 680f -»Kovarianzmatrix bei der ... 686 —,Schätzer für die ... 686 -,Nebenbedingungen bei der ... 679 -,Parametermatrix bei der ... 679 —,Schätzer für die ... 680 ,Schätzer für die Korrelationsmatrix des ... 686f ,Schätzer für die Kovarianzmatrix des ... 686f ,... unter der Hypothese 686,688 -,Prognose zukünftiger Beobachtungen im ... 680 -,Prognoseintervall für eine zukünftige Beobachtung im ... 680f -,Projektionsmatrizen bei der ... 682ff -,Residualanalyse bei der ... 688ff multivariate Normalverteilung 3,70 multivariate Regressionsanalyse 13, 142,657,667ff -.adjustierte Bestimmtheitsmaße bei der ... 691 -,Beobachtungsmatrix bei der ... 670 -.Bestimmtheitsmaße bei der ... 674f -,Designmatrix bei der ... 670 -,Fehlermatrix der ... 672 -.Güte der ... 674 -»Hypothesen bei der ... 672 — , T e s t s über die ... 672ff Hypothesenmatrix bei der ... 672 -,Konfidenzintervall für den Erwartungswert einer zukünftigen Beobachtung bei der ... 671f -,Kovarianzmatrix bei der ... 674 —,Schätzer für die ... 674 -,Parametermatrix bei der ... 670 —.Schätzer für die ... 670 .Schätzer für die Korrelationsmatrix des ... 674 .Schätzer für die Kovarianzmatrix des ... 674 ,... unter der Hypothese 674 -»Prognose für eine zukünftige Beobachtung im ... 671 -»Prognoseintervall· für eine zukünftige Beobachtung im ... 671f -,Regressanden bei der ... 668 -,Regressoren bei der ... 668 Residualanalyse bei der ... 675ff multivariates Einstichprobenproblem 5»116f,221,223ff -,Konfidenzintervall für eine Mittelwertkomponente im ... 116 —.simultanes ... 116f -(Schätzer für den Mittelwertvektor im ... 116,22 3f -»Schätzer für die Kovarianzmatrix im ... 116,223f -,simultaner Test über Mittelwertvektor und Kovarianzmatrix im ... 238f

Stichwortverzeichnis

-,Test über den Mittelwertvektor im ... 225ff — , . . . bei bekannter Kovarianzmatrix 225f — , . . . bei unbekannter Kovarianzmatrix 227 —,Symmetrie... 228 Multivariates Lineares Modell 655ff allgemeine Vorgehensweise im ... 657,659ff -.Beobachtungswerte im ... 656 —.Prognose zukünftiger ... 657, 661f -,Designmatrix im ... 659 -,Einflußvariablen im ... 656 -(erweitertes ... 664 -(Fehlermatrix im ... 656,659 -.gemischtes ... 656,719ff -(Hypothesen im ... 657,662 —,erweiterte ... 663 -,Kovarianzmatrix im ... 656f, 659,663 -,... mit festen Effekten 655ff -,... mit zufälligen Effekten 655ff, 719f f -,Modelltypen des ... 657 -,Parametermatrix im ... 656,659f -,Residualanalyse im ... 657 -(Responsevariablen im ... 656 -,Restriktionsmatrix im ... 656, 659 -,restringiertes ... 656,659ff -,Testmatrix im ... 657,662 -,Testverfahren im ... 657,664ff -(Überprüfung der Modellannahmen im ... 657 -,Überprüfung der Modellgüte im ... 657 -,unrestringiertes ... 663 multivariates Modell 117 multivariates r Stichprobenproblem 5,116f,221 ,223ff Multivariate statistische Verfahren Iff ^Klassifikation von ... 14f multivariates Varianzkomponentenmodell 14,719ff Beobachtungsmatrix des ... 720 -(Designmatrix der festen Effekte im ... 720 -(Designmatrix der zufälligen Effekte im ... 720 multivariates Zweistichprobenproblem 5(221,230ff -(unverbundenes ... 230ff -,verbundenes ... 232f multivariate Varianzanalyse 13f, 658f ,692ff -,... mit festen Effekten 658f, 692ff -,... mit zufälligen Effekten 658f(719ff

797

multivariate Varianzkomponenten 720 -(Schätzer für ... 720ff multivariate zweifache Kreuzklassifikation 658(692(700ff,722,731ff -,... mit einer Beobachtung pro Zelle 692,705ff -,... mit mehreren Beobachtungen pro Zelle 692,700ff,722,731ff — , . . . mit Wechselwirkungen 692,700ff 722,733f ,... mit festen Effekten 692,700ff ,... mit zufälligen Effekten 722, 733f —,... ohne Wechselwirkungen 692, 705ff,722,732f ,... mit festen Effekten 705ff ,... mit zufälligen Effekten 722, 732f multivariate zweifach hierarchische Klassifikation 692 ,707ff, 722 ,725ff -,... mit festen Effekten 692,707ff -(... mit zufälligen Effekten 722, 725f f Nebenbedingung -,identifizierende ... 659f -(Verträgliche ... 660 negativ definite Matrix 64 negativ semidefinite Matrix 64 nichtexhaustive Klassifikation 452ff nichtlineare Regressionsfunktion 79 nichtmetrische multidimensionale Skalierung 380,405ff -,... für Präferenzdaten 381,420ff -,... für Proximitätsdaten 380,405ff -,... mittels des Verfahrens von Kruskal 380,383,405ff -,... mittels Unfolding-Technik 381, 420f f nicht-zentrierter zufälliger Effekt 126 Niveau 4 3,46 NLM 380,384ff NMDS 380,405ff nominales Merkmal 19 -,Skalierung von ... 276ff Nomogramm 177 Nonlinear Mapping 8,380,384ff Nonsens-Korrelation 143 Normalengleichung 82 -,... in Matrixschreibweise 83 Normalisierung -(marginale ... 270(276ff Normalverteilung 3,28f,65ff -(bivariate ... 67ff -(Dichte der ... 31 -,Erwartungswert der ... 36 -,Konfidenzintervalle für die Parameter der ... 44f -,Log... 132 -,mehrdimensionale ... 3,65ff —.Dichte der ... 67

798

Stichwortverzeichnis

— Verteilungsfunktion der ... 67 - multivariate ... 3,70 Schätzen der Parameter der ... 39f f -»Standard... 29 -,Test über den Erwartungswert einer ... 47f Varianz der . . .· 36 -»Verteilungsfunktion der ... 28f NormalVerteilungsannahme Überprüfung der ... 596,602f -(Verletzung der ... 90 Norm eines Vektors 64 normierte Residuen 90 Normit 131,137 Normit-Modell 80,130f,133,136f Nullhypothese 46 Nullspace einer Matrix 64 Objekt

2,18

-»Ähnlichkeit von ... 3,443 -»Klassifikation von ... 8,443ff -,gemeinsame Repräsentation von ... 595ff -»Repräsentation einzelner ... 610ff durch Andrews-Plots 622ff durch Bäume 629ff durch Bi-Plot-Sonnen 638f durch Blumen 623(626 durch Burgen 633ff durch Diamanten 617f durch Facetten 636ff durch Gesichter 618ff durch Glyphs 616f durch Poygonzüge 613f durch Profile 613 durch Quader 628f durch Sonnen 614f durch Sterne 614 durch Streifen 613 -(Struktur in einer Menge von ... 44 3 -(Zuordnung von ... 240ff --(... im Mehrgruppenfall der Diskriminanzanalyse 245ff ,... mittels generalisierter linearer Diskriminanzfunktion 247 ,... mittels linearer Fisherscher Diskriminanzfunktion 245ff --,... im Zweigruppenfall der Diskriminanzanalyse 242ff (... mittels generalisierter linearer Diskriminanzfunktion 244f ,... mittels Fisherscher linearer Diskriminanzfunktion 243ff ordinales Merkmal 19 -(marginale Normalisierung eines ... 270,276ff -,Rangzahlen für ... 237

orthogonale Faktoren 510,547ff orthogonale Vektoren 64 Orthogonalrotation 512ff,547ff -,... mittels Quartimax-Methode 513f, 559f f -,... mittels Varimax-Methode 513, 551ff orthonormale Vektoren 64 Paarvergleich

75

Pädagogik 1 Parameter einer Verteilung 3,32ff -,Lage... 32ff -»Schätzer von ... 35ff -,Streuungs... 35ff -,Tests über ... 3,45 Parametermatrix 656,659 -(Schätzen einer ... 656,660 — , ... unter einer Hypothese 663 Parametertest 45 Partialisierung 181 Partialordnung 422 partielle Korrelation 4f,143f,181ff, 200f -,bi-... 186ff —(kanonische ... 190 —.multiple ... 189f .Schätzer für die ... 189 ,Test für die ... 190 —»Schätzer für die ... 187 — , T e s t für die ... 187 -(kanonische ... 186 -,multiple ... 184f —»Schätzer für die ... 184 — , T e s t für die ... 184f -.Schätzer für die ... 182,200f -,Test für die ... 182 partieller Kendallscher Rangkorrelationskoeffizient 201 Partition 9,447f -,Gütemaße für ... 459f -,Klassen einer ... 447f —,Zuordnung neuer Objekte zu den ... 489f -»Konstruktionsverfahren für eine ... 465ff --»iteratives ... 465ff —,rekursives ... 469ff pattern recognition 8 Pearsonscher Kontingenzkoeffizient 209 -,korrigierter ... 209 Pearsonscher Korrelationskoeffizient 145 Permutation 717 Persönlichkeitsprofil 127,508 phänotypische Leistung 122 Phys ik 1 Pillai-Bartlett-Test 176f,666 -(Approximation des ... 177,666 -(kritische Werte des ... 177,666

Stichwortverzeichnis

polychorischer Korrelationskoeffizient 204 polygon 613f Polygonzug 610,613f polynomiale Regression 79,114 polyserialer Korrelationskoeffizient 203 -,punkt... 203 Portfolio-Analyse 600 positiv definite Matrix 64 positiver Schätzer 721,737 positiv semidefinite Matrix 64 P-P-Plot 602 Präferenzdaten 381,420ff Präordnung -»vollständige ... 75 Präzisionsbestimmung von Meß- und Analyseverfahren 14 Präzision von Meßinstrumenten 722, 736ff -,Schätzer für die ... 738 Primärfaktoren-Methode 514,561ff principal component analysis 512, 527f f principal co-ordinate 395 principal factor analysis 512,533 PRINCIPALS 375 probability 26 Probability-Plotting-Technik 596, 602f f Probit 131,137 Probitanalyse 4,80, 130f, 133, 136f Probit-Modell 80,130f,133,136f Produktbewertung 600 Produktforschung 272,313ff Produktion -,Ergiebigkeitsgrad der ... 79f,114 Produktionselastizität 79,114 Produktionsfaktor 79,114,122 -,Bewertung des Einsatzes von ... 79f,114 Produktionsfunktion 78,114 Produkt-Markt-Portfolio 596f,600ff Produktmomentkorrelation 145 Produktplanung 600 Produktvariabilität 722,737 -,Schätzer für die ... 737 Profil 610,613 Profilanalyse 13f,659,7lOff -,Hypothesen der ... 712f -,nichtparametrische Verfahren der ... 717ff -,Normalverteilungsverfahren der ... 713ff Prognose 4,77,86,121 ,657 ,66lf - , . . . einer Linearform im Gemischten Linearen Modell 121f -,... eines Regressanden bei der multiplen Regression 86 -,... zukünftiger Beobachtungen im restringierten Multivariaten Linearen Modell 657,661f

799

Prognosedifferenz 119 Prognoseintervall 86,122,661 -,... für eine Linearform im Gemischten Linearen Modell 122 -,... für einen Regressanden bei der multiplen Regression 86 —.individuelles 86 — . s i m u l t a n e s ... 86 für eine zukünftige Beobachtung im restringierten Multivariaten Linearen Modell 661f — , i n d i v i d u e l l e s ... 661 — , s i m u l t a n e s ... 66lf Prognosequalität 87 Prognosestreifen für eine Regressionsgerade 108f -»individueller "... 109 -,simultaner ... 109 Prognosevektor 661 Proximitätsdaten 380,405ff Prozentrangverfahren 282 Prüfgröße 46 Prüfverfahren 45ff Prüfverteilung 44f PSD-Schätzer 721 Pseudoinverse 60ff Berechnung einer ... 61ff -,Kern-restringierte ... 660 Psychologie 1,192 punktbiserialer Korrelationskoeffizient 202 punktpolyserialer Korrelationskoeffizient 203 Punktschätzung 3,38ff Q-Koeffizient von Yule 207 -.approximatives Konfidenzintervall für den ... 207 Q-Q-Plot 90,602ff,676,688 Q-Technik 15 Quader 610,628f quadratische Matrix 50 Qualitätskontrolle 192 qualitative Datenmatrix 71 qualitative Regression 128ff qualitativer Regressand 128ff qualitatives Merkmal 6f,18 -,Skalierung von ... 269ff Quantil 33,597 -,... der Binomialverteilung 34f - , . . . der x 2 - V e r t e i l u n g 44 -,... der F-Verteilung 45 -,... der Standardnormalverteilung -,... der t-Verteilung 44 -»empirisches ... 597 quantitative Datenmatrix 71 quantitatives Merkmal 7,18 Quartimax-Kriterium 560 Quartimax-Methode 513f,559ff -.Rotationswinkel bei der ... 560 Quasihierarchie 9,448ff - , K l a s s e n einer ... 450ff

34

800

Stichwortverzeichnis

-,Konstruktionsverfahren für eine ... 473ff —,agglomeratives ... 474ff —,divisives ... 474 -,Staumbaum einer ... 448ff Stufen einer ... 460 —,Gütemaße für die ... 460 Random coefficient regression model 126 Randverteilung 65 range 24 Rangkorrelationskoeffizient 191ff -,Kendallscher ... 199ff —,Test auf Unkorreliertheit mittels ... 200 —»partieller ... 201 -,Spearmanscher ... 191ff —,Test auf Unkorreliertheit mittels ... 193f ,simultaner ... 196f Rangzahl 191,277 RCR-Modell 126 Realisation einer Zufallsvariablen 28 Rechenregeln für Matrizen 52f Rechenregeln für Wahrscheinlichkeiten 26 Reduktion Modell... 87 -,... von Daten 505 -,... von Merkmalen 87,222,241,505 —,Methode zur ... 251 —»Methode der Korrelation zur generalisierten linearen Diskriminanzfunktion zur ... 257f —,Trennmaß zur ... 241 Reduktionshypothese 87 Reduktions-Quadratsumme 87 reduzierte Datenmatrix 298 reduziertes Faktorenmodell· 563 Regressand 77,80ff,128ff -,Konfidenzintervall für den Erwartungswert des ... 86 —(individuelles ... 86 —,simultanes ... 86 -»Prognose des ... 86 -,Prognoseintervall für den ... 86 —,individuelles ... 86 —»simultanes ... 86 -qualitativer ... 80,128ff quantitativer ... 81ff Regression 77ff,667ff -,... bei Fehlern in den Variablen 115 -,Gesetz der universalen ... 77 -,multiple ... 78ff - multivariate ... 667ff -»polynomiale ... 114 -»Ridge-... 89 -»robuste ... 116 regressionsähnliche Parameter 174

Regressionsanalyse 3f,13,77ff,142f, 657,667ff -»diskrete ... 4,80,128ff -»multiple ... 4,77,81ff —,Konfidenzellipsoid für die Regressionskoeffizienten bei der ... 85 —,Konfidenzintervall für den Erwartungswert des Regressanden bei der ... 86 ,individuelles ... 86 ,simultanes ... 86 —»Konfidenzintervall für die Regressionskoeffizienten bei der ... 84 f »individuelles ... 84 »simultanes ... 84f —»Prognose des Regressanden bei der ... 86 —,Prognosintervall für den Regressanden bei der ... 86 »individuelles ... 86 »simultanes ... 86 —»Schätzer für die Regressionskoeffizienten bei der ... 83f ».Korrelationen der ... 84 »Kovarianzen der ... 84 »Varianzen der ... 84 —»Schätzer für die Varianz bei der ... 84 —»Tests für die Regressionskoeffizienten bei der ... 86f -»multivariate ... 13,142,657,667ff -.quantitative ... 4,80,128ff -»Ziele der ... 77 Regressionsfunktion 78ff -»geschätzte ... 81 -»lineare ... 78 —»Transformation in ... 114 -»multiple ... 79,8Iff -»nichtlineare ... 79 -,poynomiale ... 79 Regressionsgerade 78,108ff,129ff Konfidenzstreifen für die ... 108f —,individueller ... 109 —,simultaner ... 109 -,Prognosestreifen für die ... 108f —,individueller ... 109 —.simultaner ... 109 Regressionskoeffizienten 80ff,118ff -,... im Gemischten Linearen Modell 118ff —,Linearform der ... 121 ,Konfidenz-Prognoseintervall für eine .... 121 .Prognose einer ... 121 ,Prognoseintervall für eine ... 121 — .Schätzer für die ... 119ff .Aitken-... 119 .explizite ... 119f

Stichwortverzeichnis

»gewichtete Kleinste-Quadrate-... 119 ,inversionsfreie ... 120 ,weighted Least-Squares-... 119 —,Tests für die festen ... 122 -,Konfidenzellipsoid für die ... 85 Konfidenzintervalle für die ... 84f —,individuelle ... 84 —»simultane ... 84f -,Schätzer für die ... 83f — »Korrelationen der ... 84 —»Kovarianzen der ... 84 —»Varianzen der ... 84 -»Test für die ... 86f -»zufälliger ... 80,118ff,126 Regressionsmodell 81ff -»Bayes-Ansatz im ... 126 -»Matrixschreibweise des multiplen ... 83 -»Überprüfung eines ... 89f Regressor 77 reguläre Matrix 59 regula falsi 156f Rekursionsformeln für Verschiedenheitsmaße 487 relative Häufigkeit 19 relative Summenhäufigkeit 20 relativer Marktanteil 598ff Reparametrisierungbedingung 660 Repräsentation -,... der Ähnlichkeit von Merkmalen 383 -,... einzelner Objekte oder Merkmale 61 Off — ... durch Andrews-Plots 622ff — ... durch Bäume 629ff — ... durch Bi-Plot-Sonnen 638f — ... durch Blumen 623,626 — ... durch Burgen 633ff — ... durch Diamanten 617f — ... durch Facetten 636ff — ... durch Gesichter 618ff — . . . durchGlyphs 616f — . . . durchPolygonzüge 613f — . . . durchProfile 613 — .. . durch Quader 628f — . . . durchSonnen 614f — ... durch Sterne 614 — ... durch Streifen 613 -,gemeinsame ... 595ff ... von Merkmalen 401,595ff — --,... von Merkmalen und Objekten 595f»605ff --,... von Objekten 385,595f -»graphische ... l,593ff -»tabellarische ... 1 Repräsentationsraum bei der MDS 385f f Residualanalyse 89f,657,675ff,688ff Residual-Plot 89f,657ff,688ff

801

Residual-Quadratsumme 81f Residuen 82 -»normierte ... 90 -»multivariate ... 675 —»normierte ... 675 Responsevariablen 656 Restriktionsmatrix 656,659 restringierte Pseudoinverse 660 restringiertes Multivariates Lineares Modell 656 »659ff reziproker dynamischer Verschuldungsgrad 639ff Ridge-Regression 89 Ridge-Trace 89 Ringversuch 729 robuste Regression 116 Rotation von Faktoren lOf,512ff,546ff -»orthogonale ... lOf,512ff,547ff — » . . . mittels Quartimax-Methode 513f,559ff — , . . . mittels Varimax-Methode 513, 551f f -»schiefwinklige 1 Of,514,547,56 Iff — , . . . mittels Primärfaktoren-Methode 514,561ff rotierte Ladungsmatrix 514,548ff Roy-Test 177,666 -»kritische Werte des ... 177,666 -,Nomogramme von Heck zum ... 177, 666 r Stichprobenproblem -»multivariates ... 639ff R-Technik 15 Saturiertes Modell 140 Satz von der totalen Wahrscheinlichkeit 27 Satz von Steiner 36 Schätzen 38ff Schätzen von Faktorenwerten 514,568ff Schätzer -»Aitken-... 119 -,Bias eines ... 40 -,... für den Steigungsparameter einer linearen Regression 151 -,... für den Varianzfaktor im Gemischten Linearen Modell 120 -,... für die bi-partielle Korrelation 187 -,... für die gemeinsame Korrelation mehrerer Merkmalspaare 159ff -,... für die kanonische Korrelation 174 -,... für die Korrelation zweier normalverteilter Merkmale 145 -,... für die multiple bi-partielle Korrelation 189 -,... für die multiple Korrelation 167f -,... für die multiple partielle Korrelation 184

802

Stichwortverzeichnis

-,... für die partielle Korrelation 182,200 -,... für die Präzision von Meßinstrumenten 738 -,... für die Produktvariabilität 737 -,... für die Regressionskoeffizienten 83f,119ff — , . . . im Gemischten Linearen Modell 119ff — , . . . im multiplen Regressionsmodell 83f -,... für die Varianz im multiplen Regressionsmodell 84 für eine Korrelationsmatrix 162 -,... für eine Linearform im Gemischten Linearen Modell 121 für multivariate Varianzkomponenten 720f f -,Gauß-Markov-... 120 -,Güte eines ... 40 -,... im multivariaten Einstichprobenproblem 223f -,... im restringierten multivariaten Linearen Modell 660ff -,Kleinste-Quadrate-... 41f -,Maximum-Likelihood-... 40f Momenten... 40 -»Verzerrung eines ... 40 Schätzfunktion 39f -,erwartungstreue ... 39 konsistente ... 40 Schätzung 3,38ff -,Bereichs... 3,43f -,erwartungstreue ... 39 - konsistente ... 40 -,... nach der Maximum-LikelihoodMethode 4Of -,... nach der Methode der Kleinsten-Quadrate 41f -,... nach der Momentenmethode 40 -,Punkt... 38ff -,statistische ... 38ff Schätzverfahren 40ff Scheinkorrelation 143 Scheinvariable 285,324ff -,Kovarianzmatrix einer ... 324 —,Choleski-Zerlegung der ... 325 -,Kreuzkovarianzmatrix von .. 324 -,rangreduzierte Korrelationsmatrix von . . . 326 schiefwinklige Faktoren 511,561ff Korrelation zwischen ... 564 schiefwinklige Rotation 514,547, 561f f -,... mittels PrimärfaktorenMethode 514,561f f Schwerpunktmethode der Faktorenanalyse 534ff Selektionsindex 122 semidefinite Matrix 64

-,negativ ... 64 -,positiv ... 64 serialer Korrelationskoeffizient 201f f -,bi-... 202 -,poly... 203 -,punktbi... 202 -,punktpoly... 203 sicheres Ereignis 25 Signifikanzniveau 46 Simplex-Verfahren 421 simultane Vergleiche nach Holm 163ff single linkage 457,479 -,Diskrimination neuer Objekte in die Klasse einer Hierarchie mittels ... 49lf -,Rekursionsformel für ... 48 7 Skala 19 -,metrische ... 19 -,Nominal... 19 -»Ordinal... 19 skalare Multiplikation 48ff Skalenelastizität 79f,114,122 Skalenniveau -,Senkung des ... 293 Skalenwert 285ff skalierte Datenmatrix 292 Skalierung 6f,269ff,377ff -,... bei gemischten Datentypen 350f f -,... eines kategoriellen Merkmals gegen ein stetiges Merkmal 362 -,... eines ordinalen Merkmals 270, 276f f -,... gegen eine Kriteriumsvariable 271,290ff,322f,334ff,359f -,gemeinsame ... 272,322ff — , . . . bei einer Kriteriumsvariablen 273,322f,334ff,359f — , ... bei gleichberechtigten Merkmalen 272f,322,331ff , ... nach dem Kriterium der maximalen Maximum-Exzentrizität 273,322,331ff,359 ,... nach dem Kriterium der minimalen Determinante 273,322,331ff, 358f -'-,... bei mehreren Kriteriumsvariablen 274,323,347ff,360f Güteprüfung der ... 271,300ff -,Guttmansche ... 271,275 -,... in Kontingenztafeln 277,282ff -,kategorielle ... 277,282ff -.Lancaster-... 277,282ff -,multidimensionale ... 7,377ff — ,- - - ausgehend von Präferenzdaten 381,420ff — , ... ausgehend von Proximitätsdaten 380,405ff —,metrische ... 380,384ff — , . . . mittels des Verfahrens von Kruskal 380,383,405ff

Stich Wortverzeichnis

— , . . . mittels Haupt-KoordinatenMethode 380,393ff — , . . . mittels Nonlinear Mapping 380, 384ff — , . . . mittels Unfolding-Technik 381,420ff —,nichtmetrische ... 380,405ff -,... qualitativer Merkmale 6f 269ff — , ... für Regressionszwecke 69 Iff -,... zweier kategorieller Merkmale 270,282ff Skalierungskriterien 273f,322f,330ff 355ff Sonne 610,614f Sozialwissenschaften 1 Spaltenvektor 48 Spaltenvolumen 54 Spannweite 24 Spearmanscher Rangkorrelationskoeffizient 191ff -,Test auf Unkorreliertheit mittels ... 193f —,simultaner ... 196f Spur 53,58 Stärke des Zusammenhangs mehrerer Merkmale 162 Stammbaum 9,448ff,473f Stamm-und-Blätter 597 Standardabweichung 23,35f Standardnormalverteilung 29 Erwartungswert der ... 33 -,Median der ... 34 -,Quantile der ... 34 Varianz der ... 36 -,Verteilungsfunktion der ... 29 star 601,614 Stern 610,614 Stem-and-Leaves 595ff stetiges Merkmal 19 stetige Verteilung 31f stetig verteilter Zufallsvektor 65 Stichprobe 2,18 -,unverbundene ... 230ff -,.verbundene ... 232f Stichprobenkorrelation 145 stochastisch unabhängig 27 Stress 406ff Stress-1 406 ,41lf Stress-2 407,411f Streifen 610,613 Streubereich 24 Streuungsmaße 23ff,35ff -,empirische ... 23ff Streuungsparameter 35ff Stripe 613 Struktur in einer Menge von Objekten 44 3 Summenhäufigkeit 20 -,absolute ... 20 -,relative ... 20 Summenhäufigkeitsfunktion 20

803

sun 614f Symmetrietest 228 symmetrische Matrix 50 Taxonomie 8 Technik 1 Test 3,45ff -,Ablehnungsbereich eines ... 46 -,Annahmebereich eines ... 46 -,Anpassungs... 45 -,... auf bi-partielle Unkorreliertheit 187 -,... auf multiple bi-partielle Unkorreliertheit 190 -,... auf multiple partielle Unkorreliertheit 184f -,... auf paarweise Unkorreliertheit mehrerer Merkmale 163f -,... auf partielle Unkorreliertheit 182

-,... auf Unkorreliertheit nichtnormalverteilter Merkmale 193,200, 204f einseitiger ... 46 -,... für die Korrelation zweier normalverteilter Merkmale 153ff -,... für die kanonische Korrelation 175 -,... für die multiple Korrelation 171 f -,... im einfachen multivariaten Blockexperiment 705f -,... im Modell der multivariaten Einfachklassifikation 694 -,... im Modell der multivariaten Kreuzklassifikation mit Wechselwirkungen 70 lf -,... im Modell der multivariaten zweifach hierarchischen Klassifikation 708 f -,... im multivariaten Einstichprobenproblem 225ff im multivariaten Zweistichprobenproblem 2 3 Off -,Irrtumswahrscheinlichkeit eines ... 46 -,Niveau eines ... 46 - Konstruktion eines . . . 46f -»kritischer Wert eines ... 46 -,Signifikanzniveau eines ... 46 -,statistischer ... 3,45ff -,... über den Erwartungswert einer Normalverteilung 47f -,... über die Anzahl der Faktoren 521 ,527 -,... über die Einfachstruktur 548 -,... über die Parameter einer Verteilung 3,45ff -,... über die Regressionskoeffizienten im multiplen Regressionsmcdell 86f

804

Stichwortverzeichnis

-,... zum Vergleich der Korrelationen mehrerer Merkmalspaare 159f f -,... zur Bewertung von Klassifikationsstrukturen 446 -»... zur Prüfung von Kovarianzhypothesen 234ff -»zweiseitiger ... 46 Testen 45ff Testmatrix im restringierten Multivariaten Linearen Modell 657,662 Teststatistik 46 Testverfahren im restringierten Multivariaten Linearen Modell 657,664ff tetrachorischer Korrelationskoeffizient 204 totale Wahrscheinlichkeit -,Satz von der ... 27 T2-Statistik 227ff trace 53 Trägermenge 30 Transformation in lineare Regressionsfunktionen 114 Transformationsmatrix 514,548ff -,... einer Orthogonalrotation 548ff -,... einer schiefwinkligen Rotation 562ff transponierte Matrix 50 transponierter Vektor 48 tree 630ff -,Kleiner-Hartigan-,.. l,630ff Trennmaß 241,251ff Trennung -,Güte der ... 242 Treppenfunktion 20 Tschebyscheffscher Abstand 72 Tschebyscheffsehe Ungleichung 35f t-Verteilung 44 -»Quantile der ... 44 -»zentrale ... 44 Lieberdeckung 9,447 -,Gütemaße für eine ... 458f -,Klassen einer ... 447 --,Zuordnung neuer Objekte zu den ... 490 -,Konstruktionsverfahren für eine ... 460ff —,exhaustives ... 461ff —,iteratives ... 463ff Überprüfung einer Normalverteilungsannahme 596,602f Umsatzrendite 639ff Umweltforschung 1 unabhängig linear ... 55 -,stochastisch ... 27,32 Unabhängigkeit mehrerer Merkmale 162ff Unbestimmtheitsmaß 83 Unentbehr1ichke it

-»Methode der ... 251ff Unfolding-Technik 8,381,4 20f f -»Chernikova-Algorithmus zur ... 421 -,Dreiecksanalyse zur ... 421ff -»eindimensionale ... 420ff -,Goode-Phillips-Algorithmus zur ... 421,426ff -,mehrdimensionale ... 421 unifactor model 514 Union-Intersection-Prinzip 116,177, 332 unique factor 509 unkorreliert 144 unmögliches Ereignis 25 unrestringiertes Multivariates Lineares Modell 663 Untersuchungseinheit 2,18 unverbundene Stichprobe 232f Variable

-,endogene ... 77 -,exogene ... 77 -,kanonische ...371 Varianz 23,35f -,... der Binomialverteilung 37 -,... der NormalVerteilung 36 -,... der StandardnormalVerteilung 36 -,empirische ... 23 -,merkmalseigene ... 510 Varianzanalyse -,multivariate ... 13f,658f,692ff — , . . . mit festen Effekten 658f, 692ff — , . . . mit zufälligen Effekten 719ff Varianzkomponenten 127 -»multivariate ... 720ff Varianzkomponentenmodelle -,multivariate ... 14,719ff Varimax-Methode 513,55Iff -»rohe ... 552 -,Rotationswinkel bei der ... 553 Varimax-Kriterium 552 Variationskoeffizient 23,36 vec-Operator 53 Vektor 48ff -,Addition von ... 48 -,Betrag eines ... 64 -,Länge eines ... 49 -,Lösungs... 57 -»Multiplikation von ... 48 -»n-dimensionaler ... 48 -»Norm eines ... 64 -»normierter ... 49 -»orthogonaler ... 64 -»orthonormaler ... 64 -»skalare Multiplikation eines ... 48f -»Spalten... 48 -»transponierter ... 48 -»Zeilen... 48

Stichwortverzeichnis

-.zufälliger ... 64 -.Zufalls... 64 Vektorrechnung 3,48ff Verallgemeinertes Lineares Modell 134ff verbundene Stichproben 230ff Vereinigungs-DurchschnittsPrinzip 332 Verknüpfung der Verfahren der MDS 380f Verlaufskurve 13,659,710ff Verlaufsprofil 717 Verschiebungssatz 36 Verschiedenheitsrelation 75 Verschuldungsgrad 639ff Verteilung 3,28ff,64ff Binomial... 3,29f -,X 2 -..- 44 diskrete ... 30 -,F-... 45 -,gemeinsame ... 65ff -,mehrdimensionale ... 3,64ff mehrdimensionale Normal... 65ff —,Eigenschaften der ... 70 -,Multinomial... 138 -,multivariate ... 3,64ff ^multivariate Normal... 70 -,Normal... 3,28f,64ff -,Prüf... 44f - ,Rand. .. 65 -,Standardnormal... 29 -,stetige ... 31f -,t-... 44 -(Wahrscheinlichkeits... 28 Verteilungsfunktion 20,28,65 -,... der Binomialverteilung 29f -,... der mehrdimensionalen Normalverteilung 67 -,... der Normalverteilung 28f -(empirische ... 20 -(gemeinsame ... 65 -(logistische ... 132 -,mehrdimensionale ... 65 verträgliche Nebenbedingung 660 Vertrauensbereich 43f Verzerrung 40 Vierfeldertafel 206 vollständige Präordnung 75 vollständiges Varianzanalysemodell 692 Vorinformation 127 Wachstumskurve 71Off Wahrscheinlichkeit 3,26ff -,bedingte ... 3,26ff -(Rechenregeln für ... 26 -,Satz von der totalen ... 27 Wahrscheinlichkeitsmodell -,Lineares ... 4,80,130,133,136 Wahrscheinlichkeitspapier 90 Wahrscheinlichkeitsrechnung 3,25ff Wahrscheinlichkeitsverteilung 28,64f

805

-,... einer Zufallsvariablen 28 -,... eines Zufallsvektors 64f Wechse1Wirkung 692,722 -,zufällige ... 722 Wechselwirkungseffekt 701 wesentliches Merkmal 5 Wetterfahne 593f Wilks-Test 175f,665 ^Approximation des ... 175f,665 -»kritische Werte des ... 175,665 Wirkungsfläche 712 Wirkungsverlauf 712 Wirtschaft 1 Wirtschaftlichkeitskoeffizient 122 Wirtschaftswissenschaften 1 Zeilenvektor 48 zeitliches Mittel 712 Zeitreihenanalyse 116 Zentralobjekt 465,469 Zentralwert 22 Zentroidmethode 512,534ff z-Transformation -,Fishersche ... 154 zufällige Matrix 70 zufällige Null 142 zufälliger Effekt 13f,118ff -,nicht-zentrierter 126 zufälliger Regressionskoeffizient 118ff,126 zufälliger Vektor 64 Zufallsexperiment 25 Zufallsstichprobe 39 Zufallsvariable 3,28ff -,binomialverteilte 29f Erwartungswert einer ... 32 -,Kenngröße einer ... 32ff Lageparameter einer ... 32ff -,Mit.telwert einer ... 32 -,normalverteilte ... 28f -,Notation von ... 48 -»standardisierte ... 36 -,standardnormalverteilte ... 29 -(Streuungsparameter einer ... 35ff Zufallsvektor 64f -,diskret verteilter ... 65 stetig verteilter ... 65 - Wahrscheinlichkeitsverteilung eines ... 64f Zuordnung von Objekten 240ff,271, 307f f -,... im Mehrgruppenfall der Diskriminanzanalyse 245ff -,... im Zweigruppenfall der Diskriminanzanalyse 242ff -Wahrscheinlichkeit richtiger ... 245 -,... zu den Klassen einer Klassifikation 489f f -,... zu den Stufen einer Kriteriumsvariablen 271,307ff Zusammenhang 3f,77,509

806

Stichwortverzeichnis

-,funktionaler ... 3f,77,81 -,... zwischen Faktoren und Merkmalen 509 -,... zwischen Faktoren und Objekten 509 -,... zwischen Merkmalen und Objekten 509 zweifache Kreuzklassifikation -,multivariate ... 658,700ff ,722 73 Iff —,... mit einer Beobachtung pro Zelle 705ff —,... mit festen Effekten 692,700ff ,... mit Wechselwirkungen 692, 700f f ,... ohne Wechselwirkungen 692, 705f f — , . . . mit zufälligen Effekten 722,731ff ,... mit Wechselwirkungen 722, 733f ,... ohne Wechselwirkungen 722, 732f

zweifach hierarchische Klassifikation -.multivariate ... 692,707ff,722, 725ff --,... mit festen Effekten 692, 707f f — , . . . mit zufälligen Effekten 722, 725ff Zweigruppenfall der Diskriminanzanalyse 240,242ff -.Zuordnung von Objekten im ... 242ff —,... mittels generalisierter linearer Diskriminanzfunktion 244f —.... mittels linearer Fisherscher Diskriminanzfunktion 243ff Zweistichprobenproblem -.multivariates ... 5,221,230ff —,unverbundenes ... 230ff .Mittelwertvergleich im ... 230f —.unverbundenes ... 232f .Mittelwertvergleich im ... 232f

Symbolverzeichnis

6 SYMBOLVERZEICHNIS 6.1 A L L G E M E I N E

+

SYMBOLE

plus, Addition; minus, Subtraktion; mal, Multipl ikation;

a/b

a dividiert durch b;

^

a dividiert durch b;

0

Kroneckerprodukt;

ε

Element aus;

$

nicht Element aus; gleich;

φ

ungleich;



ungefähr gleich;

>

größer als;