271 29 29MB
German Pages [832] Year 2006
Multivariate Statistik Lehr- und Handbuch der angewandten Statistik
von
o. Prof. Dr. Joachim Härtung Fachbereich Statistik der Universität Dortmund und
Dr. Bärbel Elpelt
7., unveränderte Auflage
R. Oldenbourg Verlag München Wien
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
© 2007 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0 oldenbourg.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere fur Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Lektorat: Wirtschafts- und Sozialwissenschaften, [email protected] Herstellung: Anna Grosser Satz: DTP-Vorlagen des Autors Coverentwurf: Kochan & Partner, München Coverausführung: Gerbert-Satz, Grasbrunn Gedruckt auf säure- und chlorfreiem Papier Gesamtherstellung: Druckhaus „Thomas Müntzer" GmbH, Bad Langensalza ISBN 3-486-58234-8 ISBN 978-3-486-58234-5
Kapitelverzeichnis
EINLEITUNG UND ÜBERBLICK
1
KAPITEL
I:
Einführung und Grundlagen
17
KAPITEL
II:
Die Regressionsanalyse
77
KAPITEL
III:
Die Korrelationsanalyse
143
KAPITEL
IV:
Multivariate Ein- und Zweistichprobenprobleme; Diskriminanzanalyse, Reduktion von Merkmalen
221
K A P I T E L V:
Aufbereitung und Auswertung qualitativer und gemischter Daten - Skalierung kategorieller Merkmale (Skalierung in Kontingenztafeln)
269
KAPITEL V I :
Die Multidimensionale Skalierung (MDS)
377
KAPITEL V I I :
Die Clusteranalyse
443
KAPITEL V I I I :
Die Faktorenanalyse
505
KAPITEL
Graphische Verfahren
593
IX:
K A P I T E L X:
Das Multivariate Lineare Modell
(Multivariate
Regressions-, Varianz-, Kovarianz- und P r o f i l analyse, Multivariate Varianzkomponentenmodelle, Präzisionsbestimmung bei Meßinstrumenten)
655
ANHANG
741 Ende
815
Inhaltsverzeichnis VORWORT
XIII
E I N L E I T U N G UND ÜBERBLICK KAPITEL
I:
EINFÜHRUNG UND GRUNDLAGEN
1 Grundlegende B e g r i f f e und elementare Datenbeschreibung 1.1 Merkmalstypen und Klassenbildung
1 17 18 18
1.2 Häufigkeiten, Summenhäufigkeiten und empirische V e r t e i l u n g s funktion
19
1.3 Empirische Lagemaße
21
1.4 Empirische Streuungsmaße
23
2 Grundlagen der Wahrscheinlichkeitsrechnung 2.1 Wahrscheinlichkeiten und bedingte Wahrscheinlichkeiten
25 26
2.2 Zufal 1 svariabl e und Verteilungen
28
2.3 Kenngrößen von Z u f a l l s v a r i a b l e n
32
3 P r i n z i p i e n des Schätzens und Testens; t - , χ 2 - und F - V e r t e i l u n g
38
4 Vektor- und Matrizenrechnung
48
5 Mehrdimensionale und m u l t i v a r i a t e Verteilungen
64
6 Daten- und Distanzmatrix
70
KAPITEL
77
II:
DIE
REGRESSIONSANALYSE
1 M u l t i p l e Regressionsanalyse für q u a n t i t a t i v e Daten 2 Das Gemischte Lineare Modell
81 118
3 Diskrete Regressionsanalyse für q u a l i t a t i v e Daten; Lineares Wahrs c h e i n l i c h k e i t s m o d e l l , P r o b i t - , Logitanalyse KAPITEL
III:
DIE
KORRELAT IONSANALYSE
1 Die K o r r e l a t i o n normal v e r t e i l t e r Merkmale 1.1 Die K o r r e l a t i o n zweier normal v e r t e i l t e r Merkmale
128 143 144 144
1.1.1 Tests und K o n f i d e n z i n t e r v a l l e f ü r ρ
153
1.1.2 Vergleich von Korrelationen mehrerer Merkmalspaare
159
1.2 Zusammenhangsanalyse mehrerer Merkmale
162
1.3 Die multiple K o r r e l a t i o n
167
1.4 Die kanonische K o r r e l a t i o n
172
1.5 Die p a r t i e l l e K o r r e l a t i o n
181
1.6 Die b i - p a r t i e l l e K o r r e l a t i o n
186
VIII
Inhaltsverzeichnis
2 Die Korrelation von nicht-normal verteilten Zufall svariabl en 2.1 Der Spearmansche Rangkorrelationskoeffizient
190 191
2.2 Der Kendall sehe Korrelationskoeffizient
199
2.3 Korrelationskoeffizienten bei ordinalen Merkmalen
201
3 Assoziationsmaße und loglineares Modell für Kontingenztafeln
206
4 Ein zusammenfassendes Beispiel
212
KAPITEL
I V : MULTIVARIATE E I N - UND ZWEISTICHPROBENPROBLEME; D I SKR I MI NANZANALYSEj REDUKTION VON MERKMALEN
1 Das Multivariate Einstichprobenproblem
221 223
1.1 Schätzen des Mittelwertvektors μ und der Kovarianzmatrix $
223
1.2 Test über den Mittelwertvektor μ bei bekannter Kovarianzmatrix
225
1.3 Test über den Mittelwertvektor μ bei unbekannter Kovarianzmatrix $
227
1.4 Ein Symmetrietest
228
2 Das Multivariate Zweistichprobenproblem
230
2.1 Mittelwertvergleich bei unverbundenen Stichproben
230
2.2 Mittelwertvergleich bei verbundenen Stichproben
232
3 Die Prüfung von Kovarianzhypothesen
234
3.1 Ein Test über die Struktur einer Kovarianzmatrix $
234
3.2 Ein Test auf Gleichheit mehrerer Kovarianzmatrizen
236
3.3 Ein simultaner Test über Mittelwertvektor und Kovarianzmatrix im Einstichprobenproblem
238
4 Die Diskriminanzanalyse ( I d e n t i f i k a t i o n von Objekten) 4.1 Der Zweigruppenfall
240 242
4.2 Der Mehrgruppenfal 1
245
4.3 Ein Beispiel
247
4.4 Ein Trennmaß und die Reduktion von Merkmalen
251
5 Ein zusammenfassendes Beispiel
258
K A P I T E L V: AUFBEREITUNG UND AUSWERTUNG QUALITATIVER UND GEMISCHTER DATEN - SKALIERUNG MERKMALE (SKALIERUNG
KATEGORIELLER
IN KONTINGENZTAFELN)
1 Skalierung ordinaler und nominaler Merkmalsausprägungen 1.1 Skalierung ordinaler Merkmalsausprägungen
269 276 277
1.2 Skalierung nominaler Merkmalsausprägungen in zweidimensionalen Kontingenztafeln - kategorielle Skalierung, Lancaster - Skalierung
282
Inhaltsverzeichnis
IX
2 Multivariate Analyseverfahren in skalierten Kontingenztafeln mit einer Kriteriumsvariablen (Calibration Patterns)
290
2.1 Beste Diskriminatoren zwischen den Stufen der Kriteriumsvariablen 2.2 Methoden der Güteprüfung einer Skalierung
296 300
2.2.1 Die Güteprüfung mittels Diskriminanzfunktionen
301
2.2.2 Die Güteprüfung mittels Mahalanobisdistanzen
304
2.3 Die Klassifizierung neuer Objekte
307
2.4 Gewinnung einer Daten- und Distanzmatrix zur weiteren multivariaten Analyse
309
3 Ein Beispiel aus der Marktforschung zur Analyse multivariater kategorieller Daten 4 Skalierung kategorieller Merkmalsausprägungen von ρ Merkmalen
313 322
4.1 Bestimmung der empirischen Korrelationsmatrix für ρ kategorielle Merkmale
323
4.2 Das Kriterium der maximalen Maximum-Exzentrizität und der minimalen Determinante
331
4.3 Das Kriterium der maximalen multiplen Korrelation
334
4.4 Das Kriterium der maximalen kanonischen Korrelation
347
5 Skalierung kategorieller Merkmalsausprägungen bei gemischten Datentypen
350
6 Korrespondenzanalyse, Guttmansche Skalierung und die ALS-Verfahren ... 369
KAPITEL VI: DIE MULTIDIMENSIONAL^ SKALIERUNG (MDS)
377
1 Nonlinear Mapping
384
2 Die Haupt-Koordinaten-Methode
393
3 Das Verfahren von Kruskal
405
4 Die Unfolding-Technik
420
4.1 Die Methode der Dreiecksanalyse
421
4.2 Der Goode-Phil1ips-Algorithmus
426
KAPITEL VII: DIE CLUSTERANALYSE
443
1 Klassifikationstypen
447
2 ßewertungskriterien für Klassifikationen 2.1 Maße für die Homogenität einer Klasse
454 454
2.2 Maße für die Heterogenität zwischen den Klassen
456
2.3 Maße für die Güte einer Klassifikation
458
X
Inhaltsverzeichnis
3 Konstruktionsverfahren für Überdeckungen
460
3.1 Ein exhaustives Verfahren für kleine Objektmengen
461
3.2 Ein iteratives Konstruktionsverfahren
463
4 Konstruktionsverfahren für Partitionen
465
4.1 Ein iteratives Verfahren
465
4.2 Ein rekursives Verfahren
469
5 Ein Verfahren zur Konstruktion einer Quasihierarchie
473
6 Ein Verfahren zur Konstruktion einer Hierarchie
478
7 Klassenzuordnung neuer Objekte - Diskrimination, Identifikation
489
8 Ein zusammenfassendes Beispiel
494
KAPITEL VIII: DIE FAKTORENANALYSE
505
1 Die Bestimmung der Faktorladungen
518
1.1 Die Maximum-Likelihood-Methode und ein Test über die Anzahl der Faktoren 1.2 Die kanonische Faktorenanalyse
519 525
1.3 Die Hauptkomponenten- und die Hauptfaktorenanalyse
527
1.4 Die Zentroidmethode
534
1.5 Die Jöreskog-Methode
541
2 Die Rotation der Faktoren 2.1 Die orthogonale Rotation der Faktoren
546 548
2.1.1 Die Varimax-Methode
551
2.1.2 Die Quartimax-Methode
559
2.2 Schiefwinkel ige Rotation - Die Methode der Primärfaktoren
561
3 Schätzen von Faktorenwerten
568
4 Ein zusammenfassendes Beispiel
576
KAPITEL IX: GRAPHISCHE VERFAHREN
593
1 Gemeinsame Repräsentation von Objekten und (oder) Merkmalen
595
1.1 Graphische Darstellung ein- und zweidimensionaler Daten
596
1.1.1 Stern and Leaves und Box-Plot
597
1.1.2 Graphische Darstellung zweidimensionaler Daten am Beispiel eines Produkt-Markt-Portfolios
600
1.2 Die Probability-Plotting-Technik: Oberprüfung auf multivariate Normal Verteilung und multivariate Ausreißer (Q-Q-Plot)
602
1.3 Gleichzeitige Repräsentation von Merkmalen und Objekten: Der Bi-Plot
605
1.4 Weitere Graphische Repräsentationsformen für Objekte und Merkmale
608
Inhaltsverzeichnis
2 Repräsentation 2.1
einzelner Objekte oder Merkmale
E i n f a c h e D a r s t e l l u n g s f o r m e n bei
XI
610
Repräsentation
von
Merkmals-
werten durch Strecken
612
2.1.1
613
Profile, Streifen
2.1.2 Polygonzüge
613
2.1.3 Sterne
614
Sonnen
614
2.1.5 Glyphs
2.1.4
616
2.2 Darstellung
von O b j e k t e n v e r m i t t e l s D i a m a n t e n
617
2.3 D a r s t e l l u n g
von O b j e k t e n m i t t e l s G e s i c h t e r n
618
2.4 D a r s t e l l u n g
von Objekten durch trigonometrische
Funktionen
622
2.4.1 A n d r e w s - P l o t s
622
2.4.2 Blumen
623
2.5 Darstellung
von O b j e k t e n u n t e r B e r ü c k s i c h t i g u n g
der
Merkmals-
ähnlichkeiten
626
2.5.1
628
Quader
2.5.2 Bäume
629
2.5.3 Burgen 2.6 D a r s t e l l u n g
633 von Objekten unter Berücksichtigung
nationsgüte der Merkmale: 2.7 Darstellung
3 Bilanzkennzahlen Ein B e i s p i e l zeitlicher
Diskrimi-
der
Merkmals-
Facetten
636
von Objekten unter Berücksichtigung
korrelationen:
der
Bi-Plot-Sonnen
der chemischen
638
Industrie zwischen
für die Anwendung g r a p h i s c h e r
1965 u n d
Verfahren
zur
1980:
Darstellung
Entwicklungen
639
KAPITEL X: DAS MULTIVARIATE LINEARE MODELL
(MULTIVARIATE
REGRESS IONS-, VARIANZ-, KOVARIANZ- UND PROFILANALYSE, MULTIVARIATE
VARIANZKOMPONENTENMODELLE,
PRÄZISIONSBESTIMMUNG BEI MEßINSTRUMENTEN) 1 Das M u l t i v a r i a t e 1.1
L i n e a r e Modell
mit festen
Effekten
(Modell
655 I)
Das a l l g e m e i n e r e s t r i n g i e r t e M u l t i v a r i a t e L i n e a r e Modell
1.2 T e s t v e r f a h r e n
im a l l g e m e i n e n
restringierten
Multivariaten
L i n e a r e n Modell 1.3 M u l t i v a r i a t e
664
Regressions- und Kovarianzanalyse
1.4 E i n i g e M o d e l l e d e r M u l t i v a r i a t e n V a r i a n z a n a l y s e festen 1.4.1
667 (MANOVA)
mit
Effekten
692
Die e i n f a k t o r i e l l e m u l t i v a r i a t e
Varianzanalyse
(Vergleich
von r u n a b h ä n g i g e n S t i c h p r o b e n ) 1.4.2 Die m u l t i v a r i a t e Wechselwirkungen
656 659
zweifache Kreuzklassifikation
693 mit 700
XII
Inhaltsverzeichnis
1.4.3 Die multivariate zweifache Kreuzklassifikation mit einer Beobachtung pro Zelle (Das einfache multivariate Blockexperiment)
705
1.4.4 Die multivariate zweifach hierarchische K l a s s i f i k a t i o n
707
1.5 Die Profilanalyse zur Untersuchung von Wachstums- und Verlaufskurven im Multivariaten Linearen Modell mit festen Effekten
710
1.5.1 Normal verteilungsverfahren
713
1.5.2 Ein nichtparametrisches Verfahren
717
2 Das Multivariate Lineare Modell mit zufälligen Effekten (MANOVA Modelle I I , Multivariate Varianzkomponentenmodelle)
719
2.1 Die balancierte multivariate Einfachklassifikation mit zufälligen Effekten
723
2.2 Das balancierte zweifach hierarchische Modell mit zufälligen Effekten
725
2.3 Das balancierte dreifach hierarchische Modell mit zufälligen Effekten
727
2.4 Die balancierte zweifache Kreuzklassifikation mit zufälligen Effekten
731
2.5 Ein Modell zur Präzisionsbestimmung von Meßinstrumenten bei zerstörenden Prüfungen
736
ANHANG
741
1 Tabellenanhang
741
- Verteilungsfunktion Φ(χ) der Standardnormal Verteilung N(0;1) [Tab. 1]
742
- Quantile u^ der Standardnormal Verteilung N(0;1) [Tab.2]
743
- Quantile t nn .
744
»Y
der t-Verteilung [Tab.3]
- Quantile χ* der x 2 -Verteilung [Tab.4] η ,γ - Quantile F der F-Verteilung [Tab.5]
747
- Nomogramme von D.L. Heck zum Roy-Test [Chart I b i s Chart X I I ]
754
745
ni ,i\2 ,y
2 Erläuterungen zu den multivariaten Testverfahren
756
2.1 Zum Roy-Test
766
2.2 Zum Wilks-Test
767
2.3 Zum Hotel! ing-Lawley-Test
768
2.4 Zum P i l l a i - B a r t l e t t - T e s t
769
3 Griechisches Alphabet
770
4 Literaturverzeichnis
771
5 Stichwortverzeichnis
785
6 Symbolverzeichnis
807 Ende
815
Vorwort zur 6. Auflage Nachdem auch die 5. Auflage dieses Buches recht schnell vergriffen war, liegt hier nun bereits die 6. Auflage vor. Da der Text in den Vorauflagen überarbeitet wurde, konnte er hier weitgehend unverändert bleiben. Auch weiterhin sind wir für Anregungen der Leser dankbar. Joachim Härtung Bärbel Elpelt
Aus dem Vorwort zur 1. Auflage Die Statistik und insbesondere die Multivariate Statistik wird überall dort eingesetzt, wo es gilt, komplexes Datenmaterial auszuwerten. In allen Bereichen der Wissenschaft aber auch in Wirtschaft, Handel, Technik und Administration werden im Zuge der fortschreitenden Technisierung vielfältige Informationen erhoben, gemessen, beobachtet und registriert, aus denen es gilt, relevante Schlüsse zu ziehen.
Dieses Buch, in dem die wohl wichtigsten Verfahren der Multivariaten Statistik dargestellt werden, wendet sich sowohl an den im Beruf stehenden Praktiker als auch an Wissenschaftler und Studenten aller Fachrichtungen. Es ist somit nicht nur ein Lehrbuch sondern vornehmlich auch ein praktisches Handbuch und Nachschlagewerk für jeden, der mit der Auswertung umfangreicher Daten konfrontiert wird.
Um diesem Anspruch gerecht werden zu können, werden die einzelnen Verfahren bzw. die mit ihnen beantwortbaren Fragestellungen anhand von Beispielen aus den verschiedensten Anwendungsgebieten erläutert. An die Darstellung der Methoden respektive ihrer Voraussetzungen und ihrer Durchführung schließt sich stets ein konkretes, nachvollziehbares Zahlenbeispiel an; bis auf ganz wenige Ausnahmen wurden die zahlreichen Beispiele ausschließlich mit Taschenrechnern (TI 51111 und HP 15C) durchgerechnet und alle Zwischenschritte aufgeführt, so daß man einen tieferen Einblick in die Wirkungsweisen der Verfahren erlangt.
Man kann sich fragen, wozu eine solche Darstellung im Zeitalter der Fertigprogramme überhaupt notwendig ist. Wir sind der Meinung, daß eine Anwendung von Fertigprogrammen nur dann sinnvoll erfolgen kann, wenn die implementierten Verfahren zumindest in ihren Grundzügen dem Benutzer bekannt sind.
XIV
Vorwort
Insbesondere ist nur dann eine sachgerechte Interpretation der Ergebnisse möglich.
Das Buch ist so weit wie möglich derart gehalten, daß es eigenständig
und
ohne große mathematische Vorkenntnisse gelesen und verstanden werden kann. Die unbedingt benötigten Grundlagen aus Statistik, Wahrscheinlichkeitsrechnung und Matrizenrechnung sind daher im ersten Kapitel des Buches noch einmal kurz dargestellt. Abgesehen von der erforderlichen Kenntnis der dort eingeführten Grundbegriffe können die einzelnen Kapitel weitgehend unabhängig voneinander gelesen und erarbeitet werden, was den Handbuchcharakter unterstreicht.
An dieser Stelle möchten wir nachstehenden Personen für ihre Unterstützung bei der Erstellung des Buches unseren Dank aussprechen. Frau Dipl.-Stat. BaAbaAa Htine. erstellte das gesamte Typoskript einschließlich der Tuschezeichnungen und war uns durch ihr sorgfältiges Mitlesen sowie das Nachrechnen einiger Beispiele sehr behilflich.
Das Programm zur Erstellung der Flury-Riedwyl-Faces
in Kapitel IX wurde uns
dankenswerter Weise von Herrn Dr. Bernhard Flury und Herrn Prof. Dr. Hans Riedwyl, Universität Bern, zur Verfügung gestellt und konnte unter Verwendung des Graphiksystems Disspla des Hochschulrechenzentrums der Universität Dortmund angewandt werden. In diesem Zusammenhang möchten wir auch die Herren cand. stat. Manfred Jutzi und cand. stat. Thomas Nawrath erwähnen, die sich bei der Implementierung und der Erstellung einiger ComputerAbbildungen, von denen 15 im Text aufgenommen wurden, einsetzten.
Mit Herrn Prof. Dr. Rolf E. Bargmann, University of Georgia, haben wir während seiner von der Deutschen Forschungsgemeinschaft unterstützten Gastprofessur im Sommersemester 1980 an der Universität Dortmund aufschlußreiche Gespräche geführt. Herr Priv.-Doz. Dr. Peter Pflaumer, z.Zt. Universität Dortmund, hat durch anregende Diskussionen während der Entstehungszeit des Buches dessen Ausrichtung
beeinflußt. Joachim Härtung Bärbel Elpelt
Einleitung und Überblick
In v i e l e n Bereichen der WiA&en&cha.$t, z . B .
in den W i r t s c h a f t s - und S o z i a l -
wissenschaften, den Ingenieurwissenschaften, der P s y c h o l o g i e , der Pädagogik, der Umweltforschung, den Agrarwissenschaften, der B i o l o g i e , der Medizin, der Chemie, der A r c h ä o l o g i e , der Astronomie, der Physik, der Geographie, der Geodäsie, der Geologie oder der I n f o r m a t i k , s p i e l e n Auswertung und Int e r p r e t a t i o n großer Datenmengen eine entscheidende R o l l e ; i n zunehmenden Maße der F a l l
i s t dies aber auch in W-crf-icfaxfi, Handel,
XdminiA&iaXion
und
Technik.
Die S t a t i s t i k
und insbesondere d i e Multivan-iaXz
Statistik
und Verfahren zur Verfügung, d i e der A u f b e r e i t u n g ,
s t e l l t Methoden
t a b e l l a r i s c h e n und gra-
phischen Repräsentation und Aufwertung komplexer Datensituationen dienen. Zum B e i s p i e l
ermöglichen gutpfr-oic/ie Repsiäi&n£ation4ioAjnen
wie d i e in A b b . l
abgebildeten F l u r y - Riedwyl - Faces, K l e i n e r - Hartigan - Trees und B i p l o t Suns
Flury-Riedwyl-Face
Kleiner- Hartigan-Tree
Biplot-Sun
A b b . l : Drei B e i s p i e l e zur Graphischen Repräsentation komplexer Datensituationen n i c h t nur einen s c h n e l l e n und klaren ü b e r b l i c k über komplexe Strukturen sondern erlauben auch eine d i r e k t e Analyse und I n t e r p r e t a t i o n der Daten;
2
Einleitung und Überblick
da graphsiche Repräsentationen von Datenraengen oftmals e r s t Ergebnis anderer multivariater Verfahren sind bzw. andere Verfahren benutzt werden, um graphische Darstellungen zu gewinnen, werden wir uns e r s t im neunten Kapitel ausführlich mit ihnen beschäftigen. Die Gewinnung
von Voten,
die der s t a t i s t i s c h e n Analyse natürlich stets vor-
aus geht, e r f o l g t in einem Expe/Ument g e n und M e i n u n g e n , die an Objekten,
oder einer Erhebung
durch B e o b a c h t u n vorgenormien wer-
UnteAiuchangielnhextm
den. Objekte können in diesem Zusammenhang etwa Firmen, Werkstücke, Personen, T i e r e , Länder e t c . sein. Beobachtet bzw. gemessen werden dann an den Objekten die Ausprägungen
verschiedener interessierender MerknaZe.
Bei Per-
sonen können etwa die Ausprägungen von Merkmalen wie Größe, Gewicht, Famil i e n s t a n d , A l t e r , Blutdruck, Beruf, Parteizugehörigkeit i n t e r e s s i e r e n ; bei Firmen sind z . B . Bilanzkennzahlen wie Kapital Umschlag,
Eigenkapitalanteil,
dynamischer Verschuldungsgrad und L i q u i d i t ä t wichtig für die Beurteilung ihrer Kreditwürdigkeit; bei PKW's sind Hubraum, Leistung, Höchstgeschwindigkeit, Preis,
Reparaturanfäl1igkeit,
Kraftstoffverbrauch wesentlich zum
Vergleich verschiedener Typen; Länder lassen sich b z g l . ihrer Einwohnerdichte, ihrer F e r t i l i t ä t s r a t e ,
ihrem Altersaufbau, ihrem I n d u s t r i a l i s i e -
rungsgrad, ihrem Prokopfeinkommen, ihrer landwirtschaftlichen Nutzfläche usw. untersuchen.
In einem Experiment oder einer Erhebung können nun oftmals nicht a l l e Objekte aus einer interessierenden Grundge^amthexX
sondern nur einige s t i c h -
probenartig, z u f ä l l i g ausgewählte Objekte berücksichtigt werden.
Beispiels-
weise können nicht a l l e Werkstücke aus einer Produktion überprüft werden (insbesondere bei zerstörenden Prüfungen) und in einer Meinungsumfrage zur nächsten Wahl können nicht a l l e Wähler befragt werden. Man begnügt sich dann mit einer möglichst repräsentativen Stichprobe
von Objekten aus der
Grundgesamtheit, a n a l y s i e r t diese Stichprobe und möchte dann auch ausgehend von dieser Stichprobe "gültige" Rückschlüsse auf die
interessierenden
Merkmale in der Gesamtheit a l l e r Objekte ziehen.
Bzgl. der Grundlagen von "vernünftigen" Experimenten und Erhebungen sowie der geschichtlichen und philosophischen Begründung des Einsatzes
statisti-
scher Analyseverfahren sei hier auf die ausführliche Einleitung in Härtung et a l .
(1982) hingewiesen.
Multivariate
itatistliche
VeA&ahren
sind nun dadurch ausgezeichnet, daß
sie die gemeinsame, g l e i c h z e i t i g e Analyse mehrerer Merkmale bzw. deren Ausprägungen erlaubt. Werden an Objekten (aus einer Grundgesamtheit) also die
3
Einleitung und Überblick
Ausprägungen von mehreren Merkmalen beobachtet, so können alle Beobachtungsdaten mit Hilfe der Multivariaten Statistik gemeinsam ausgewertet werden. Der Vorteil gegenüber einzelnen, univariaten Analysen für jedes Merkmal
be-
steht darin, daß auf diese Art die Abhängigkeiten zwischen den beobachteten Merkmalen berücksichtigt werden.
Wir werden uns in den Kapiteln I bis X dieses Buches mit den verschiedenen multivariaten Verfahren beschäftigen, wobei insbesondere auch ihre konkrete Anwendung auf Beobachtungsdaten im Vordergrund steht, und die benötigten Grundlagen aus Statistik und Mathematik bereitstellen. Hier soll
zunächst
ein kurzer Oberblick über die behandelten Methoden gegeben werden, wobei die jeweils zu beantwortenden Fragestellungen - also das inhaltliche Ziel der Verfahren - im Vordergrund stehen sollen. Der detaillierter an den Voraussetzungen und Möglichkeiten multivariater statistischer
Verfahren
interessierte Leser sei auf die ausführlichen E - c n l i ^ X u n g i n d&fi Kapitel
bzw.
vzuchizdiimi
Im Kapitel
AbichniXte
hingewiesen, die auch zahVvLichz
A nuiendung ig ebneten
e-inzeln&n
8 e x ^ p l e Z z aus den
enthalten.
I werden wir zunächst in knapper Form die wesentlichen Grund-
lagen der Multivariaten Statistik behandeln. Wir beschäftigen uns mit der Beschreibung von Datenmaterial
durch Kenngrößen (deskriptive
Statistik),
mit Elementen der Wahrscheinlichkeitsrechnung, als da sind Wahrscheinlichkeiten, bedingte Wahrscheinlichkeiten, Zufallsvariablen, Verteilungen, Verteilungsfunktionen, Dichten und Kenngrößen von Verteilungen,und mit der induktiven, schließenden Statistik, d.h. mit den Prinzipien von Punkt- und Bereichsschätzungen für unbekannte Parameter einer Verteilung und mit statistischen Tests über solche Parameter; dabei werden insbesondere die Normal- und die Binomialverteilung berücksichtigt. Weiterhin werden wir uns mit der Vektor- und Matrizenrechnung auseinandersetzen, die ein wesentliches Hilfsmittel
der Multivariaten Statistik
ist. Sodann werden mehrdimen-
sionale und multivariate Normal verteilungen eingeführt, die bei vielen statistischen Verfahren eine große Rolle spielen. Abschließend beschäftigen wir uns noch mit der Gewinnung von Daten- und Distanzmatrix;
Datenmatrizen
enthalten die an Objekten beobachteten Ausprägungen mehrerer Merkmale und Distanzmatrizen beschreiben die Ähnlichkeiten von Objekten.
Das Kapitel
II ist der RigKeAi-iomanatyie.
gewidmet; die dort beschriebenen
Vorgehensweisen sind zwar selbst nicht im eigentlichen Sinne multivariat, jedoch ist ihre Bedeutung in den Anwendungen und für andere multivariate Verfahren so groß, daß wir sie nicht vernachlässigen wollten. Die Regressionsanalyse untersucht den iunktionatin
Zuiammenhang
zwischen einem ein-
4
Einleitung und Überblick
zelnen Merkmal, das an Objekten beobachtet w i r d , und e i n e r R e i h e r w e i t e r e r von den Objekten g e t r a g e n e r Merkmale. Wir b e s c h ä f t i g e n uns mit der S p e z i f i k a t i o n der f u n k t i o n a l e n Beziehung und mit Untersuchungen über d i e
Ein-
den. Μexkmate: Welche der Merkmale s i n d w e s e n t l i c h zur E r k l ä r u n g des
Hiiiit
beobachteten Merkmals, welche der Merkmale können bei B e r ü c k s i c h t i g u n g
der
übrigen v e r n a c h l ä s s i g t werden? Ein w e i t e r e s Z i e l der R e g r e s s i o n s a n a l y s e n a t ü r l i c h d i e Pnognoie
BeiAp-iel:
ist
z u k ü n f t i g e r Werte.
Bei der A n g e b o t s e r s t e l l u n g fUr Produkte i s t d i e K a l k u l a t i o n der
P r o d u k t i o n s k o s t e n von entscheidender Bedeutung. Diese Kosten hängen von verschiedenen E i n f l u ß g r ö ß e n
wie etwa den Rohmaterial k o s t e n , der zur Pro-
d u k t i o n benötigten A r b e i t s z e i t , der zu produzierenden Menge e t c . ab. Bestimmt man aufgrund der bekannten P r o d u k t i o n s k o s t e n f r ü h e r e r Waren m i t t e l s R e g r e s s i o n s a n a l y s e den f u n k t i o n a l e n Zusammenhang zwischen sten und solchen E i n f l u ß g r ö ß e n , so l a s s e n s i c h d i e d i e
Produktionsko-
Produktionskosten
w e s e n t l i c h bestimmenden E i n f l u ß g r ö ß e n e r m i t t e l n und d i e
Produktionskosten
f ü r e i n neues Produkt p r o g n o s t i z i e r e n . Bei der R e g r e s s i o n s a n a l y s e werden nun verschiedene F ä l l e u n t e r s c h i e d e n . wie im obigen B e i s p i e l
es b e l i e b i g e Werte in einem B e r e i c h annehmen, so s p r i c h t man von tiven
quantita-
R e g n e n i o n A a n a l y i e . Werden dann die E i n f l ü s s e der ü b r i g e n Merkmale
durch f e s t e Parameter b e s c h r i e b e n , so l a s s e n s i c h d i e Methoden der plen
multi-
anwenden; s i n d hingegen zumindest e i n i g e der E i n -
RegieMionianalyie
f l ü s s e a l s z u f ä l l i g anzunehmen, so kommt man zu Gemischten ten.
Line.an.zn
Model-
Im F a l l e e i n e s q u a l i t a t i v e n , beobachteten Merkmals, d . h . e i n e s
kreten Merkmals mit nur e i n i g e n möglichen Ausprägungen, kommt d i e Regnebiionianalyie lyie)
Ist
das i n t e r e s s i e r e n d e Merkmal q u a n t i t a t i v , d . h . kann
(Linea/iei
Wahmcheinliahkeitimodell,
Logit-,
disdi&kneXe
Pnobitana-
zur Anwendung.
Wird in der R e g r e s s i o n s a n a l y s e e i n f u n k t i o n a l e r Zusammenhang zwischen v e r schiedenen Merkmalen h e r g e s t e l l t , so dient d i e in K a p i t e l
III
dargestellte
der Bestimmung e i n e r Maßzahl f ü r d i e Stänke
KonnetatlonAanalyie
eines
Zu-
Aa.mmenh.angi. H i e r werden s o l c h e Korrelationsmaße f ü r verschiedene Merkmalstypen v o r g e s t e l l t . Dabei kann der Zusammenhang zwischen zwei Merkmalen (einlache
Komelation),
Merkmale {mxltiple
der zwischen einem Merkmal und e i n e r Gruppe anderer
Konnelation)
Merkmalen ( k a n o n i s c h e Konnelation)
oder auch der zwischen zwei Gruppen von von I n t e r e s s e s e i n . M i t u n t e r i s t
eine
K o r r e l a t i o n z . B . zwischen zwei Merkmalen nur dadurch b e d i n g t , daß beide Merkmale mit w e i t e r e n , noch g a r n i c h t b e r ü c k s i c h t i g t e n Merkmalen s i n d ; der A u s s c h a l t u n g s o l c h e r E i n f l ü s s e dienen d i e pantielle
und
korreliert bi-pan-
Einleitung und Überblick
tiette
KofiAeiatlomanalyie.
5'
Neben Maßen für die Stärke eines Zusammenhangs
werden in diesem Kapitel z.B. auch s t a t i s t i s c h e Tests angegeben, mit denen s i c h etwa überprüfen l ä ß t , ob solche Zusammenhänge auch s i g n i f i k a n t
vor-
handen s i n d . B e s p i e l : Um die Eignung eines Bewerbers f ü r eine bestimmte P o s i t i o n zu prüfen, werden oftmals Eignungstests durchgeführt. Solche Tests müssen nat ü r l i c h so g e s t a l t e t s e i n , daß s i e die t a t s ä c h l i c h e Eignung eines· Bewerbers möglichst gut widerspiegeln. Aufgrund der Testergebnisse f r ü h e r e r , b e r e i t s im Betrieb arbeitender Personen, deren t a t s ä c h l i c h e Eignung s i c h inzwischen erwiesen hat, l ä ß t s i c h mit H i l f e der K o r r e l a t i o n s a n a l y s e die Stärke des Zusammenhangs zwischen Test und t a t s ä c h l i c h e r Eignung ermitteln. Werden an jeweils einer Reihe von Objekten aus r verschiedenen, v e r g l e i c h baren Grundgesamtheiten (Bewohner verschiedener Länder, Betriebe aus verschiedenen Branchen oder Regionen, Tiere oder Pflanzen g l e i c h e r Gattung aber verschiedener A r t , Produkte aus verschiedenen Produktionslosen ρ Merkmale beobachtet, so s p r i c h t man vom multivaA.Xaten Im Kapitel
Stichpiobenpioblem. tivcuujxXm
Ein-
und
IV
beschäftigen wir uns zunächst mit
hMeJj>tJjihpn.obenpKob
lernen
usw.)
(p-variaten)
rmul-
im F a l l e g e m e i n s a m i n d e r
je-
weiligen Grundgesamtheit normal v e r t e i l t e r Merkmale. Von I n t e r e s s e sind dann die Schätzung T e i i i über
den Vcwxmeteh.
dieie
Parameter.
in den ein bzw. zwei Grundgesamtheiten sowie Im E i n s t i c h p r o b e n f a l l überprüft man, ob die
Parameter s i g n i f i k a n t von vorgegebenen Werten verschieden sind,und im F a l l e zweier Stichproben testet man die Gleichheit der Parameter in beiden Grundgesamtheiten. Für den Fall
von r>2
Stichproben
behandeln wir im Kapitel
IV
zudem den Vergleich der Streuungsmatrizen in den r zugrundeliegenden Grundgesamtheiten sowie die Zuordnung "neuer" Objekte zu einer der Grundgesamtheiten; der M i t t e l w e r t v e r g l e i c h im r - Stichprobenproblem wird im Zusammenhang mit der multivariaten Varianzanalyse e r s t im Kapitel X behandelt. Die Zuordnung "neuer" Objekte, an denen die ρ Merkmale beobachtet werden, zu einer von r Grundgesamtheiten nennt man auch O-Uktiminatlon ordnungivorichriften uahZ
oder
Identifi-
Wir werden uns im Rahmen der Diskriminanzanalyse n i c h t nur mit Zu-
kation.
weienttccher
Beispiel:
£ÜA "neue." Objekte Merkmale
für
sondern vielmehr auch mit der Ααό-
die Diskrimination
beschäftigen.
In einem metal 1 verarbeitenden Betrieb werden Werkstücke aus ver-
schiedenen Legierungen g e f e r t i g t . Beobachtet man an einigen Werkstücken, von denen man weiß, zu welchem von zwei unterschiedlichen Gefügen s i e gehören, nun Merkmale wie F e s t i g k e i t , s p e z i f i s c h e s Gewicht usw., so kann a u f grund der Verfahren für m u l t i v a r i a t e Zweistichprobenprobleme überprüft wer-
6
Einleitung und Überblick
den, ob Unterschiede bzgl. Mittelwert und Streuung der Merkmale zwischen den Gefügen bestehen. Basierend auf den Zuordnungsvorschriften der Diskriminanzanalyse kann aufgrund der Beobachtungen der Merkmale an weiteren Werkstücken überprüft werden, welchem der Gefüge diese Werkstücke zuzuordnen sind. Außerdem können die für Unterschiede zwischen den Gefügen wesentlich verantwortlichen Merkmale bestimmt werden. Die nicht oder kaum zwischen den Gefügen trennenden Merkmale werden bei der Zuordnung "neuer" Werkstücke dann oft gar nicht mehr berücksichtigt. Viele (multivariate) statistische Verfahren lassen sich nur anwenden, wenn die an einer Reihe von Objekten beobachteten Merkmale quantitativer Natur sind. Sind die Ausprägungen der interessierenden Merkmale (z.T.) qualitativer Art (z.B. Farben, Bewertungen, Nationalitäten, Berufe usw.) so müssen entweder qualitative Verfahren angewandt werden oder die Daten müssen für die statistische Analyse zunächst aufbereitet werden. Ein universelles Instrumentarium stellt hier die SkcJU.znu.Yi3 quailtaXlvzn. gzn
MzKkmaliauApn.ägun-
dar, die im Kapitel V ausführlich behandelt wird; der Vorteil einer
derartigen VaXznauibznexXung
gegenüber direkten Verfahren für qualitative
Merkmale liegt insbesondere auch darin, daß die Anforderungen an die Datenbasis sehr viel geringer sind. Skalierungsverfahren ordnen den qualitativen, kategoriellen Merkmalsausprägungen Zahlen derart zu, daß die skalierten Daten dem vorgesehenen Auswertungsverfahren möglichst gut angepaßt sind. Wir beschäftigen uns zunächst mit der SkaJLlzMing
zlnu
zinzzlnzn
Mznk-
mxli , dessen qualitative Ausprägungen einer natürlichen Rangfolge unterliegen (moLKginatz tcLtivox
NonmatLilzAung),
Mznkmx&z,
und dann mit der SkaLLznung
ζMzLzn
quaLL-
wobei die Ausprägungen des einen Merkmals derart skaliert
werden, daß sie das andere Merkmal möglichst gut erklären, und umgekehrt, d.h. die Korrelation der skalierten Merkmale wird maximiert. Ausgehend von diesen Skalierungsverfahren werden einige spezielle statistische Verfahren wie z.B. die Güteprüfung solcher Skalierungen, die Diskrimination neuer Objekte zu den Ausprägungen eines der beiden Merkmale den mzh>1 ati
zuizi
quaJUtcutivz
MzAkmalz
usw. behandelt. Wer-
beobachtet, so empfiehlt es sich,
sie alle gemeinsam zu skalieren; ähnlich wie im Fall zweier Merkmale kann die gemeinsame Skalierung derart erfolgen, daß der Gesamtzusammenhang zwischen allen skalierten Merkmalen möglichst groß ist. Oftmals ist es nun so, daß eines oder mehrere der beobachteten Merkmale eine Sonderstellung einnehmen: Wie bei der Regressionsanalyse möchte man diese ausgezeichneten Merkmale, die auch KnJXe.nMimivafUa.blzn
genannt werden, möglichst gut durch
die übrigen Merkmale erklären. In diesem Fall kann eine Skalierung nach dem Kriterium der maximalen multiplen bzw. kanonischen Korrelation erfolgen. Schließlich werden wir im Kapitel V noch Skalierungsverfahren behandeln,
7
Einleitung und Überblick
d i e gemeinsam mit den q u a l i t a t i v e n Merkmalen beobachtete, Merkmale {gmlichtz
Oatmtypzn)
quantitative
berücksichtigen.
ΒίΛΔρ-ίίΖ: ( a ) Im A b s c h n i t t 3 des K a p i t e l s V werden w i r uns a u s f ü h r l i c h mit einem Problem der Produktforschung b e s c h ä f t i g e n . Von der "Consumers Union of the United S t a t e s " wurde eine Befragung von 391 A u t o b e s i t z e r n über d i e Reparat u r a n f ä l l i g k e i t v e r s c h i e d e n e r T e i l e i h r e r PKW's d u r c h g e f ü h r t , um U n t e r s c h i e de zwischen den verschiedenen PKW - H e r s t e l l e r n aufzudecken. Wir b e r ü c k s i c h t i g e n bei der S k a l i e r u n g der insgesamt 14 R e p a r a t u r a n f ä l l i g k e i t s m e r k m a l e ( z . B . Bremsen, A u t o m a t i k g e t r i e b e , innere und äußere K a r o s s e r i e , H e i z u n g s und Bei Leitungssystem) die K r i t e r i u m s v a r i a b l e
" H e r s t e l l e r " auf 5 Stufen
(American M o t o r s , C h r y s l e r , F o r d , General M o t o r s , ( b z g l . des US - Marktes) a u s l ä n d i s c h e H e r s t e l l e r ) , überprüfen d i e Güte der S k a l i e r u n g ,
bestimmen
d i e sieben f ü r d i e Unterschiede zwischen den H e r s t e l l e r n w e s e n t l i c h
ver-
a n t w o r t l i c h e n Merkmale usw. Ausgehend von den sieben w e s e n t l i c h e n Merkmalen wird dann eine Datenmatrix und eine D i s t a n z m a t r i x f ü r d i e f ü n f Hers t e l l e r e r s t e l l t ; d i e Datenmatrix e n t h ä l t m i t t l e r e Skalenwerte der sieben R e p a r a t u r a n f ä l l i g k e i t s m e r k m a l e bei jedem H e r s t e l l e r und die
Distanzmatrix
b e s c h r e i b t b a s i e r e n d auf diesen m i t t l e r e n Skalenwerten d i e Ä h n l i c h k e i t e n der H e r s t e l l e r
zueinander.
(b) Um zu einem optimalen E i n s a t z von Werbung zu g e l a n g e n , werden bei 10 Produkten d i e Werbekosten, d i e A r t der Werbung ( a g g r e s s i v , erlebnisweckend)
einschmeichelnd,
sowie der d a r a u f h i n zu verzeichnende Gewinn und der Ge-
s c h ä f t s t y p mit r e l a t i v höchstem Absatz (Kaufhaus, Supermarkt,
Kleingeschäft)
erhoben. S k a l i e r t man bei diesen gemischt q u a l i t a t i v e n und q u a n t i t a t i v e n Beobachtungsdaten die Merkmale Werbeart und G e s c h ä f t s t y p mit r e l a t i v stem A b s a t z , so l a s s e n s i c h h i e r z u die Methoden des M u l t i v a r i a t e n
höch-
Linearen
M o d e l l s , das wir i n Kapitel X behandeln, e i n s e t z e n . N a t ü r l i c h wird man bei der S k a l i e r u n g so vorgehen w o l l e n , daß aufgrund der Merkmale Werbeetat und Werbeart dann m ö g l i c h s t gut Gewinn und G e s c h ä f t s t y p mit r e l a t i v
höchstem
Absatz f ü r "neue" Produkte p r o g n o s t i z i e r t werden können.
Einen g ä n z l i c h anderen Zweck a l s die in Kapitel V d a r g e s t e l l t e von Ausprägungen q u a l i t a t i v e r Merkmale v e r f o l g t d i e sogenannte s ton ale
SkatieAung
Skalierung Mu&tidimzn-
(MPS), die wir im Kapitel VI behandeln. Ausgehend von
Ä h n l i c h k e i t s i n f o r m a t i o n e n über eine Reihe i n t e r e s s i e r e n d e r Objekte wird bei der M u l t i d i m e n s i o n a l e n S k a l i e r u n g eine (q - dimensionale)
S k a l a bestimmt,
auf der d i e Objekte d a r s t e l l b a r s i n d ; d.h. zu jedem der Objekte wird ein q - dimensionaler Datenvektor d e r a r t bestimmt, daß d i e Distanzen zwischen den Objekten durch d i e Abstände zwischen den Datenvektoren m ö g l i c h s t gut
8
Einleitung und Oberblick
approximiert werden. Ist die gewählte Dimension q des Repräsentationsraumes kleiner als vier, so lassen sich die Objekte als Ergebnis der Multidimensional en Skalierung auch graphisch darstellen. Bei der meVÜAchen rnemionalen
Skalierung
mjJUÄdi-
wird ausgehend von einer Distanzmatrix für die in-
teressierenden Objekte eine q - dimensionale Konfiguration so bestimmt, daß die ursprünglichen Distanzen zwischen je zwei Objekten möglichst gut durch die Distanzen der Skalenvektoren (zahlenmäßig) approximiert werden. Beim klassischen Verfahren, der Haupt - Koordinaten rein algebraische fahren,
- Methode,
Art und Weise, wohingegen das Nonlinear
- Mapping
Ver-
multidimen&ionaZen
Ska-
werden konkrete Zahlenangaben für den Grad der Ähnlichkeit bzw.
Verschiedenheit der interessierenden Objekte nicht benötigt. Das von
-
dessen Zielsetzung die Erhaltung lokaler Strukturen in den Distan-
zen ist, iterativ arbeitet. Bei der nic.hXmeVUAc.hzn lierung
geschieht dies auf
Kruikal
VeA^ahren
geht von der Rangfolge der Ähnlichkeiten von je zwei Objekten
aus und konstruiert eine Skala derart, daß diese Rangfolge möglichst exakt beibehalten wird. Die Unfolding
- Technik
hingegen benötigt sogenannte I - Ska-
len für jedes der Objekte; die I - Skala für ein Objekt gibt dabei die Rangfolge der Ähnlichkeiten der übrigen Objekte zu diesem Objekt an. Davon ausgehend wird dann eine (eindimensionale) Skala bestimmt, die möglichst gut die I - S k a l a wiedergibt.
Will man sich die Ähnlichkeiten
den. an Objekten beobachteten Merkmale
ver-
anschaulichen, so kann z.B. basierend auf den Korrelationen der Merkmale auch hierzu ein Verfahren der Multidimenionalen Skalierung verwandt werden.
Beispiel:
Wir kommen hier noch einmal auf das Beispiel
(a) zu Kapitel V
zurück. Dort wurden Reparaturanfälligkeitsmerkmale von PKW's gegen die Kriteriumsvariable Hersteller skaliert und aufgrund der sieben wesentlichen Merkmale konnten eine Daten- und eine Distanzmatrix für die fünf betrachteten Hersteller bestimmt werden. Ausgehend von einer Distanzmatrix für die fünf Hersteller, die ja Informationen über die Ähnlichkeiten bzgl. der Reparaturanfälligkeitsmerkmale enthält, ist in Abb.2 eine dreidimensionale Konfiguration für die Hersteller graphisch dargestellt, die mittels eines MDS - Verfahrens gewonnen wurde. Umgekehrt können basierend auf den Korrelationen der Reparaturanfälligkeitsmerkmale auch diese repräsentiert werden. |
Im Kapitel VII beschäftigen wir uns dann mit der Cluiteranalyie, Klaiii^ikation
von Objekten
(Taxonomie,
patte/in
recognition).
d.h. der Ausgehend von
einer Datenmatrix oder einer Distanzmatrix werden bei der Clusteranalyse die interessierenden Objekte in Klassen, Gruppen eingeteilt, und zwar derart, daß die Objekte, die zur selbea Klasse gehören, einander möglichst
9
Einleitung und Überblick
General
Abb.2: Dreidimensionale MDS - Konfiguration für fünf Autohersteiler basierend auf Reparaturanfälligkeiten verschiedener P K W - T e i l e
ähnlich sind und Objekte aus verschiedenen Klassen sich möglichst stark unterscheiden, d.h. die Klassen sollen in sich homogen und untereinander heterogen sein. Wir werden Verfahren zur Konstruktion von vier verschiedenen Klaa^lkcutlonitypin
behandeln. Die Klassen einer übzid&ckung
können sich
überschneiden, jedoch darf keine Klasse von Objekten vollständig in einer anderen Klasse enthalten sein. Eine Pcwtction
ist ein
Spezialfall
des
Klassifikationstyps Überdeckung;hier werden die Objekte in disjunkte Klassen von Objekten, also Klassen, die sich auch nicht teilweise eingeteilt. Quai-ihuvic.hlzn
überschneiden,
sind Verfeinerungen der beiden
vorgenannten Klassifikationstypen. Eine Quasihierachie wird gebildet durch eine Folge von Überdeckungen; ausgehend von einer feinsten Überdeckung (Überdeckung mit den meisten Klassen) werden auf jeder Stufe der Quasihierarchie Vergröberungen vorgenommen, indem einander ähnliche Klassen von Objekten zu einer einzigen Klasse zusammengefaßt werden. Ebenso wird eine Hierarchie durch eine Folge von immer gröber werdenden Partitionen gebildet. Quasihierarchien und Hierarchien lassen sich in Form von Hierarchien auch durch sogenannte Vnndnogiamme. man auch Pcuit-it-Lonzn
odeA
übe-Ίdzckung&n gnaphLtch
"Stammbäumm",
veranschaulichen. doaustzJUizn,
Möchte
so kann man
mittels Multidimensionaler Skalierung, vgl. Kapitel VI, zunächst eine etwa zweidimensionale Konfiguration für die interessierenden Objekte bestimmen und in diese dann die Klassen der Partitionen bzw. Überdeckungen
einzeich-
nen. Wie schon bei der Multidimensionalen Skalierung sind auch die Verfahren der C1usteranalyse auf an Objekten beobachtete Merkmale anwendbar, wenn man etwa von den Korrelationen der Merkmale ausgeht. Betrachtet man
10
Einleitung und Überblick
die mittels Clusterarialyse k l a s s i f i z i e r t e n Objekte a l s Lernstichprobe aus einer größeren Gesamtheit, so können m i t t e l s s p e z i e l l e r auf K l a s s i f i k a t i o n zugeschnittener Diskriminationsverfahren auch weitere, "neue" Objekte den Klassen der K l a s s i f i k a t i o n zugeordnet werden. BeXip-ceX: Aufgrund der Evolution, d.h. der stammesgeschichtlichen Entwicklung von Lebenwesen, sind heute existierende T i e r - und Pflanzenarten mehr oder weniger verwandt. Basierend auf einer hierarchischen Clusteranalyse kann man versuchen .diese Entwicklung zu rekonstruieren ( " E v o l u t i o n * - Bäume"). Jede Stufe der Hierarchie entspricht dann einer Evolutionsphase·und die Klassen der feinsten P a r t i t i o n werden gerade durch die heute existierenden, interessierenden Arten gebildet. Je gröber die P a r t i t i o n wird, desto wei-
ι
ter bewegt man sich in die Vergangenheit der Stammesgeschichte.
|
Die an Objekten beobachteten Merkmale sind in der Regel miteinander korrel i e r t und lassen sich auf lat&nte.,
"kümti^iche"
HeAkmxtz
( F a k t o i m ) , die
s e l b s t nicht beobachtet werden können, zurückführen. Beispielsweise dienen Eignungstests für Bewerber zur Feststellung der charakterlichen Eignung, der Fiihrungsqual itäten usw. Solche Eigenschaften sind nicht direkt meßbar oder beobachtbar und werden daher basierend auf speziellen Frage- bzw. Aufgabenstellungen überprüft. Die FaktoA&nancUyi&, mit der wir uns im Kapitel V I I I beschäftigen wollen, dient nun der Reduktion einer Vielzahl beobachteter Merkmale auf wenige latente, s i e beschreibende Merkmale. Zunächst werden orthogonale, unkorrel ierte Faktoren derart bestimmt, daß durch s i e ein möglichst großer Teil der Korrelationen der Merkmale e r k l ä r t wird. Hier g i b t es die verschiedensten Verfahren, die zu diesem Zwecke eine Ladung-imcUAix konstruieren, welche die Korrelationen der beobachteten Merkmale mit den latenten Faktoren enthält; bei höchstens drei extrahierten Faktoren lassen s i c h , basierend auf einer solchen Ladungsmatrix, die beobachteten Μe/ikmaJLe. auch gmpkLich
Im Raum deA Vaktoim
daMtzltm.
Es g i b t
unendlich v i e l e in obigem Sinne optimale Ladungsmatrizen; daher s t e l l e n die verschiedenen KonitnuktioniveAiafaim,
von denen wir die Maximum - L i k e -
lihood - Methode, die kanonische Faktorenanalyse, die Hauptfaktorenanalyse, die Zentroidmethode und das Jöreskog - Verfahren v o r s t e l l e n wollen, stets zusätzliche Bedingungen. Sie l i e f e r n keine im Sinne bestmöglicher Interpret i e r b a r k e i t der latenten Faktoren in Bezug auf die Merkmale optimale Lösung. Daher werden im Anschluß an die. Konstruktion von Ladungsmatrizen zumeist noch FaktowiotAtlcmm
durchgeführt, deren a l l e r Ziel das Erreichen
einer möglichst guten I n t e r p r e t i e r b a r k e i t der Faktoren im Sinne des von Thurstone geprägten B e g r i f f e s der Ein&a.c.ki>tmxktun i s t . Man unterscheidet bei den Rotationsverfahren zwischen orthogonalen und schiefwinkligen Rota-
Einleitung und Überblick
t i o n e n . Bei e i n e r Oitkogonattotation
11
wie z . B . der Variamx- und der Q u a r t i -
max - R o t a t i o n b l e i b t d i e O r t h o g o n a l i t a t der l a t e n t e n Faktoren e r h a l t e n , wohingegen 6ciUeiwj.nkLige
RotcLtLoniveA^alvizn,
von denen w i r d i e Methode
der Primärfaktoren behandeln, auf k o r r e l i e r t e , s c h i e f w i n k l i g e
Faktoren
f ü h r e n . S c h l i e ß l i c h w i r d im Rahmen der F a k t o r e n a n a l y s e noch das von sogenannten F a k t o f i i m u n t & n behandelt. Das Z i e l h i e r b e i
Schätzzn
i s t , einem Ob-
j e k t , an dem die zugrundegelegten Merkmale beobachtet wurden, einen n i e d e r dimensionalen Datenvektor b z g l . der Faktoren zuzuordnen. N a t ü r l i c h
lassen
s i c h bei weniger a l s v i e r Faktoren dann die Objekte aufgrund d i e s e r Datenvektoren im Koordinatensystem der Faktoren auch g r a p h i s c h
veranschaulichen.
Grundvoraussetzung der Faktorenanalyse i s t , daß d i e Zahl der b e t r a c h t e t e n Objekte größer i s t a l s d i e Zahl der an ihnen beobachteten Merkmale. d i e s n i c h t der F a l l , so wird d i e Faktoiznanalyie. a n s t e l l e der Merkmale angewandt,
o f t auch aufi die
was zwar im strengen Sinne n i c h t
Ist Objekte.
erlaubt
i s t , h ä u f i g jedoch zu g u t i n t e r p r e t i e r b a r e n E r g e b n i s s e n f ü h r t , v g l . auch d i e E i n l e i t u n g des K a p i t e l s
VIII.
6eJjspitl: An verschiedenen K l i m a s t a t i o n e n in Europa werden Merkmale wie m i t t l e r e Monatstemperatur, m i t t l e r e Jahrestemperatur,
Temperaturschwankung,
Zahl von F r o s t - und Sonnentagen, r e l a t i v e L u f t f e u c h t i g k e i t ,
Niederschlags-
menge, Zahl der Regen-, G e w i t t e r - , Schneefal1 tage usw. erhoben. Führt man nun eine F a k t o r e n a n a l y s e d u r c h , so l ä ß t s i c h f e s t s t e l l e n , daß a l l e d i e s e Merkmale im wesentlichen durch v i e r l a t e n t e Faktoren beschrieben werden können: d i e thermischen V e r h ä l t n i s s e , die H u m i d i t ä t , die thermische und h y g r i s c h e K o n t i n e n t a l i t ä t bzw. O z e a n i t ä t . S c h ä t z t man nun d i e zugehörigen Faktorenwerte f ü r die einzelnen K l i m a s t a t i o n e n , so i s t es m ö g l i c h , f e s t z u s t e l l e n , welche Regionen b z g l . d i e s e r Faktoren einander ä h n l i c h s i n d ,
ι
a l s o eine K l i m a r e g i o n b i l d e n .
I
Wie b e r e i t s eingangs d i e s e r E i n l e i t u n g erwähnt, dienen gnaph-Liche
VeA^ahAen
der Veranschaulichung komplexer D a t e n s i t u a t i o n e n bzw. der D a r s t e l l u n g von Ergebnissen (multivariater) im K a p i t e l
s t a t i s t i s c h e r A n a l y s e n ; s o l c h e Verfahren werden
IX a u s f ü h r l i c h behandelt. Zunächst werden zwei s p e z i e l l e
ren zur ü b e r s i c h t l i c h e n D a r s t e l l u n g eindimeni-Lonalei und "Box - Plot", Paten
am B e i s p i e l
Voten,
sowie eine M ö g l i c h k e i t zur R e p r ä s e n t a t i o n e i n e s P^iodufei - Maikt
dienen der übexpid^ung
- Poit&olioi
von VenteÄJtangiannahmen
dem Etfceimeji i « n Auiieißein
"Stem
Verfah-
and
Leauei"
zuieldUmenilonalen.
vorgestellt.
Q-Q-Ploti
f ü r mehrere Merkmale sowie
in mul t i v a r i a t e n Daten. In den ü b r i g e n K a p i t e l n
des Buches werden immer wieder g r a p h i s c h e Verfahren zur R e p r ä s e n t a t i o n von Objekten oder den an ihnen beobachteten Merkmalen a l s E r g e b n i s e i n e r m u l t i v a r i a t e n s t a t i s t i s c h e n Analyse angegeben; im B-ί - Plot
l a s s e n s i c h nun Merk-
12
Einleitung und Überblick
male und Objekte g l e i c h z e i t i g zweidimensional
v e r a n s c h a u l i c h e n , und zwar
werden d i e Objekte b a s i e r e n d auf ihren Ä h n l i c h k e i t e n und den konkret an ihnen beobachteten Merkmalswerten, die Merkmale b a s i e r e n d auf i h r e n K o r r e l a t i o n e n und Streuungen r e p r ä s e n t i e r t . Bei den b i s h e r angesprochenen V e r f a h r e n werden a l l e i n t e r e s s i e r e n d e n Objekte und/oder an ihnen beobachtete Merkmale g l e i c h z e i t i g
in einem B i l d d a r g e s t e l l t . Andere g r a p h i s c h e Reprä-
sentationsformen s t e l l e n je.de,6 Objekt
in
ebenem iepanaten
dar, natür-
Βild
l i c h ausgehend von den. an ihm beobachteten Merkmalsausprägungen. Die e i n f a c h s t e n D a r s t e l l u n g s f o r m e n s i n d d i e , bei denen nur d i e Ausprägungen jedes Merkmals durch Streckungen oder Winkel d a r g e s t e l l t werden: Pn.o{ile, gonzüge,
Glyphi
, SteAne,
Sonnen,
Vla.im.nten.
Poly-
Bei den Fluny - Rleduiyl
- FaceA ,
v g l . auch Abb.1, wird jedes Objekt durch e i n G e s i c h t r e p r ä s e n t i e r t . Ton.m von Gei-ichtit&tl&n
Die
wie G e s i c h t s l i n i e , Mund, Nase, Augenbraue, Auge,
P u p i l l e , H a a r s c h r a f f u r usw. hängt dabei von den beobachteten Merkmalswerten ab. Andnem
- Ploti
tAlgonometnliche
und Blumen Funktionen,
dienen der R e p r ä s e n t a t i o n von Objekten durch deren K o e f f i z i e n t e n durch d i e beobachteten
Merkmalsausprägungen bestimmt s i n d . Bei den b i s h e r angesprochenen g r a p h i schen Verfahren i s t d i e Merkmalsanordnung b e l i e b i g . Dagegen e r f o l g t bei QuadeAn,
Bäumen und Bungen,
Hantxgan-Tn.ee, ten.
die Anondnung
v g l . z . B . den in Abb.1 d a r g e s t e l l t e n deA HeAkmale
im B i l d gemäß, ihneA
Kletnen.Ähnlichkei-
Für a l l e Objekte w i r d zunächst ausgehend von diesen Ä h n l i c h k e i t e n eine
gemeinsame S t r u k t u r bestimmt, die dann je nach beobachteten Merkmalsausprägungen f ü r jedes Objekt v a r i i e r t . Bei den Facetten anon.dnu.ng
nach
den Wichtigkeit
e r f o l g t d i e Μesikmali-
f ü r d i e D i s k r i m i n a t i o n zwischen den Objek-
ten. Die W i c h t i g k e i t der Merkmale wird durch f ü r a l l e Objekte g l e i c h e Winkel , d i e konkreten Ausprägungen durch Strecken b e s c h r i e b e n . werden bei den Bi-Plot-Sonnen
Schließlich
d i e K o r r e l a t i o n e n der Merkmale mit d a r g e -
s t e l l t . Ausgehend von der Bi - P l o t - D a r s t e l l u n g der Merkmale werden die an den Objekten beobachteten Merkmalswerte durch Strecken r e p r ä s e n t i e r t ,
vgl.
auch d i e Abb.1.
Beispiel:
Die w i r t s c h a f t l i c h e Entwicklung e i n e s B e t r i e b e s oder e i n e r B r a n -
che l ä ß t s i c h anhand der Beobachtung von B i l a n z k e n n z a h l e n über mehrere Jahre hinweg b e u r t e i l e n .
Im l e t z t e n A b s c h n i t t des K a p i t e l s IX wird m i t t e l s
g r a p h i s c h e r Verfahren die Entwicklung der chemischen I n d u s t r i e der Bundesr e p u b l i k Deutschland in den Jahren 1965 b i s 1980 d a r g e s t e l l t .
Basierend
auf A n l a g e n i n t e n s i t ä t , E i g e n k a p i t a l a n t e i l , E i g e n k a p i t a l r e n d i t e (Return on I n v e s t m e n t ) , Umsatzrendite, L i q u i d i t ä t , dynamischem V e r s c h u l d u n g s g r a d und Kapitalumschlag werden die J a h r e , die h i e r d i e R o l l e der Objekte übernehmen, durch F l u r y - Riedwyl - Faces, Andrews - P l o t s , Burgen, Bäume und Facetten repräsentiert.
Einleitung und Überblick
13
Im abschließenden K a p i t e l X b e s c h ä f t i g e n w i r uns s c h l i e ß l i c h noch mit dem Muttiva^AxU&n
Llnexuizn
H i e r wird der Zusammenhang von m E i n f l u ß -
ttodzll.
v a r i a b l e n und ρ beobachteten Merkmalen u n t e r s u c h t . G r u n d s ä t z l i c h wird dabei zwischen Μod.eZle.ri mit
^eAten
EHekten
und ΜodeJULzn mit
ΕRekten
zu.iöJUU.Qm
u n t e r s c h i e d e n ; bei e r s t e r e n werden die E i n f l u ß g r ö ß e n a l s f e s t , bei
letzte-
ren a l s z u f ä l l i g angenommen. Wir b e s c h ä f t i g e n uns zunächst mit den
atigz-
meinm
bei f e s t e n E i n f l u ß v a r i a b l e n , wie
UaA.gehemmiien
Parameterschätzun-
gen, V e r t r a u e n s i n t e r v a l l e n f ü r die Parameter und f ü r z u k ü n f t i g e Beobachtungen (Piagnoiin),
Tests über die Parameter und entsprechende
Testver-
f a h r e n , usw. Sodann werden zwei s p e z i e l l e M o d e l l k l a s s e n behandelt. Bei der mxttlvaAAJxtm quantitativ
sind alle Einflußvariablen
K&gn&ii-Loniamilyie
A r t , bei der imltivaKiaXen
KovafUanzancUy6e
sind einige
quantitativer
Einflußfaktoren
( K o v a r i a b l e n ) , andere q u a l i t a t i v e r A r t (Faktoren auf e n d l i c h
v i e l e n S t u f e n , d i e mit 0 und 1 k o d i e r t werden, j e nachdem ob die e n t s p r e chende S t u f e e i n e s F a k t o r s v o r l i e g t oder n i c h t ) .
BeXi.pi&t: Wir haben im B e i s p i e l
(b) zum Kapitel V die S k a l i e r u n g der Merk-
male Gewinn und G e s c h ä f t s t y p mit r e l a t i v höchstem Absatz gegen d i e
Einfluß-
v a r i a b l e n Werbeetat und Werbeart angesprochen. Verwendet man d i e Skalenwerte f ü r die Werbeart, so l ä ß t s i c h der E i n f l u ß der Werbung auf die beiden i n t e r e s s i e r e n d e n Merkmale in einem m u l t i v a r i a t e n Regressionsmodell
unter-
suchen. B e t r a c h t e t man hingegen die Werbeart a l s q u a l i t a t i v e n Faktor auf den d r e i Stufen a g g r e s s i v , einschmeichelnd und erlebnisweckend, so wird d i e Analyse in einem Kovarianzanalysemodel 1 mit der K o v a r i a b l e n Werbeetat durchgeführt.
Weiterhin b e s c h ä f t i g e n w i r uns mit Modellen der muZtiva.'Uate.n tijsc
sowie der Pioi-ilanalyie,
VcuUanzana-
bei denen a l l e E i n f l u ß f a k t o r e n
qualitativer
A r t s i n d . Im Zusammenhang mit der m u l t i v a r i a t e n V a r i a n z a n a l y s e werden das Modell mit nur einem E i n f l u ß f a k t o r , dessen Wirkung auf die ρ i n t e r e s s i e r e n den Merkmale u n t e r s u c h t w i r d , sowie verschiedene z w e i f a k t o r i e l 1 e anlagen ( e i n f a c h e s m u l t i v a r i a t e s Blockexperiment, zweifache
Versuchs-
Kreuzklassifi-
k a t i o n mit Wechselwirkungen, zweifach h i e r a r c h i s c h e K l a s s i f i k a t i o n ) d e l t . Bei der P r o f i l a n a l y s e s t e h t n i c h t der g e n e r e l l e E i n f l u ß
behan-
des-qualita-
t i v e n F a k t o r s auf ρ Merkmale im Vordergrund sondern vielmehr d i e U n t e r s u chung e i n e s z e i t l i c h e n V e r l a u f s (Ven£a.txf s i>ku.n\je.n); dazu wird nur e i n e i n z e l nes Merkmal, d i e s e s aber zu ρ verschiedenen Zeitpunkten beobachtet und mit den Stufen eines q u a l i t a t i v e n E i n f l u ß f a k t o r s
BeLspi&l:
in Verbindung
gebracht.
Um den E i n f l u ß des F a k t o r s " R e g i o n " auf den SO^ - Gehalt in der
L u f t zu untersuchen, werden in m Gebieten ( S t u f e n des F a k t o r s
"Region")
14
Einleitung und Überblick
an verschiedenen Stellen (Wiederholungen) die SOg - Gehaltswerte gemessen und zwar am selben Tag jeweils a l l e zwei Stunden (ρ = 12). Mittels einfakt o r i e l l e r multivariater Varianzanalyse kann nun untersucht werden, ob der Faktor "Region" eine generellen Einfluß auf die S0 2 - Gehaltswerte zu verschiedenen Tageszeiten hat. Die Profilanalyse ermöglicht zudem die Untersuchung von Fragestellungen wie z.B.: Sind die Verläufe der Gehaltswerte in den Regionen wesentlich verschieden oder verlaufen sie weitgehend gleichl ä u f i g , nur auf unterschiedlichem Niveau; sind die Tagesmittel werte des SO2 - Gehalts in den Regionen a l s gleich anzusehen, d.h. sind die durchschnittlichen Umweltbelastungen durch S0 2 in den Regionen praktisch gleich? Schließlich behandeln wir im Kapitel X dann spezielle Modelle mit z u f ä l l i gen Effekten, wobei hier die Untersuchung des Einflußes qualitativer Variablen im Vordergrund steht. Erstrecken sich in Modellen mit festen Effekten die Aussagen nur auf die konkret im Experiment betrachteten Stufen qualitativer Einflußvariablen, so geht man nun davon aus, daß die konkreten Stufen nur eine Auswahl aus allen möglichen Faktorstufen darstellen, eine Aussage sich aber auf sämtliche Stufen beziehen s o l l . Die Beantwortung s o l cher Fragestellungen ermöglichen nuttcv(uUat&
VaA-La.nzkompon&ntznmodeZl&,
in denen die auf die Einflußfaktoren zurückzuführenden Streuungsanteile def- ρ beobachteten Merkmale geschätzt werden. Ein hoher Streuungsanteil i s t dann mit einem starken Einfluß des Faktors gleichzusetzen. Wir behandeln hier Modelle der einfach, zweifach und dreifach hierarchischen K l a s s i fikation (ein, zwei bzw. drei hierarchisch angeordnete Faktoren) sowie Modelle der zweifachen Kreuzklassifikation (zwei Einflußfaktoren, deren Stufen kreuzweise kombiniert betrachtet werden). Außerdem beschäftigen wir uns noch mit einem speziellen M&ßmodett zur VnäzliiombutLntnung und
AnatyieveAiahfLzn
faex.
ζz/utöKzndzn
Plu^ung&n
bzu).
von Meß-
P^ioduktva^uab^i-ität.
ΒexApleZ: In einem Erzlager werden aus einigen Bohrlöchern Bodenproben entnommen und bzgl. ihres Gehalts an Metall und an taubem Gestein analysiert. Betrachtet man hier ein Modell mit festen Effekten, so kann sich eine Aussage nur über die speziellen Bohrlöcher erstrecken. Möchte man aber die Streuung von Metallgehalt und Gehalt an taubem Gestein im gesamten Erzlager beurteilen, so kommt man zu einem Modell mit zufälligen Effekten und betrachtet dann die konkreten Bohrlöcher als z u f ä l l i g ausgewählt aus der Gesamtheit a l l e r möglichen Bohrlöcher im Erzlager.
Am Ende dieser Einleitung wollen wir noch kurz auf zwei Unterscheidungsmerkmale hinweisen, die häufig zur K l a s s i f i k a t i o n (multivariater)
statisti-
15
Einleitung und Überblick
s c h e r V e r f a h r e n verwandt werden. Zunächst einmal sogenannten dependenten schen R-Tic.hiu.kzn
Vependente
und inteAdependenten
und Q-
u n t e r s c h e i d e t man zwischen und dann noch
Methoden
zwi-
Techniken.
V e r f a h r e n s i n d dadurch a u s g e z e i c h n e t , daß der E i n f l u ß
einer
Gruppe von V a r i a b l e n a u f e i n e Reihe i n t e r e s s i e r e n d e r , b e o b a c h t e t e r Merkmale u n t e r s u c h t w i r d , wie d i e s b e i der R e g r e s s i o n s - , V a r i a n z - , a n a l y s e und der P r o f i l a n a l y s e
der F a l l
schen zwei Merkmalsgruppen im Vordergrund des I n t e r e s s e s den V e r f a h r e n der K o r r e l a t i o n s a n a l y s e z u t r i f f t . ( i n t r a - dependenten)
statistischen
Kovarianz-
i s t , oder daß der Zusammenhang
zwi-
s t e h t , was b e i
Bei den
inteidependewten
V e r f a h r e n hingegen s i n d a l l e an Objekten
beobachteten bzw. erhobenen Merkmale g l e i c h b e r e c h t i g t s i c h Aussagen und A n a l y s e e r g e b n i s s e
i n dem S i n n e , daß
s t e t s a u f a l l e d i e s e Merkmale i n
glei-
c h e r A r t und Weise e r s t r e c k e n ; s o l c h e interdependenten V e r f a h r e n s i n d etwa die Multidimensionale
Skalierung, die Clusteranalyse,
und d i e meisten g r a p h i s c h e n
Die A u f t e i l u n g scheidung
in R -
die
Faktorenanalyse
Methoden.
und Q - T e c h n i k e n b e z i e h t s i c h n i c h t a u f eine U n t e r -
i n den Merkmalen. V i e l m e h r s p r i c h t man von R - T e e h n i k t n , wenn
Aussagen über d i e i n einem Experiment beobachteten Merkmale g e t r o f f e n werden, und von Q _ - T e c h n i k e n , wenn s i c h A n a l y s e e r g e b n i s s e d i r e k t a u f d i e im Experiment b e r ü c k s i c h t i g t e n Objekte beziehen. H i e r i s t e i n e s t a r r e l u n g der v e r s c h i e d e n e n m u l t i v a r i a t e n da v i e l e Methoden wahlweise a l s R -
Eintei-
s t a t i s t i s c h e n V e r f a h r e n kaum m ö g l i c h , oder Q - T e c h n i k angewandt werden kön-
nen. So i s t z . B . d i e C l u s t e r a n a l y s e an und f ü r s i c h eine Q - T e c h n i k d i e O b j e k t e ; s i e kann jedoch auch a l s
R - T e c h n i k f ü r d i e Merkmale
s e t z t werden, was z . B . bei den im K a p i t e l f a h r e n t e i l w e i s e der F a l l
einge-
IX b e s c h r i e b e n e n g r a p h i s c h e n
i s t ( B u r g e n , Bäume, Q u a d e r ) . D i e
i s t e i n e R - T e c h n i k f ü r d i e Merkmale, so l a n g e das I n t e r e s s e
i n der B e -
s i c h a n s c h l i e ß e n d e Schätzen von Faktorenwerten h i n g e g e n i s t e i n e
z u g e o r d n e t . Zudem w i r d - wie b e r e i t s erwähnt - d i e F a k t o r e n a n a l y s e m i t durchaus g u t i n t e r p r e t i e r b a r e n
Ergebnissen a l s Q - T e c h n i k
wenn d i e Zahl
i s t a l s d i e Zahl
Das
Q-Technik,
denn h i e r w i r d den Objekten j e e i n D a t e n v e k t o r b z g l . der l a t e n t e n
der Objekte g e r i n g e r
Ver-
Faktorenanalyse
stimmung l a t e n t e r F a k t o r e n , welche d i e Merkmale b e s c h r e i b e n , l i e g t .
ten Merkmale.
für
Faktoren häufig
angesetzt,
der an ihnen b e o b a c h t e -
Kapitel I: Einführung und Grundlagen
In diesem ersten Kapitel werden die f ü r die m u l t i v a r i a t e S t a t i s t i k lichen
unerläß-
Grundlagen aus der Wahrscheinlichkeitsrechnung, S t a t i s t i k und M a t r i -
zenrechnung kurz zusammengestellt, um es dem Leser zu ermöglichen, dieses Buch selbständig zu lesen. Im Abschnitt 1 werden zunächst e i n i g e grundlegende B e g r i f f e im Zusammenhang mit Datenmaterial und die wesentlichen Elemente der d e s k r i p t i v e n
(beschrei-
benden) S t a t i s t i k , wie Häufigkeiten, empirische Kenngrößen und empirische Verteilungsfunktion,
dargestellt.
Der zweite Abschnitt i s t der Wahrscheinlichkeitsrechnung gewidmet. Hier werden Wahrscheinlichkeiten, bedingte Wahrscheinlichkeiten,
Zufallsvariablen,
Verteilungen, Verteilungsfunktionen, Dichten und Kenngrößen von V e r t e i l u n gen behandelt. Im d r i t t e n Abschnitt beschäftigen wir uns dann mit den P r i n z i p i e n der i n duktiven (schließenden) S t a t i s t i k . Die B e g r i f f e Punktschätzer und K o n f i denzintervall Schätzung sowie s t a t i s t i s c h e r Test werden einneführt und Kons t r u k t i o n s p r i n z i p i e n f ü r Punkt- und Interval 1 Schätzer sowie s t a t i s t i s c h e Tests werden e r l ä u t e r t . Der v i e r t e Abschnitt dieses K a p i t e l s b e s c h ä f t i g t s i c h mit der Vektor- und Matrizenrechnung. Elemente dieser Gebiete, die f ü r das Verständnis m u l t i v a r i a t e r Verfahren u n e r l ä ß l i c h s i n d , werden in einem kurzen Abriß behandelt. Im fünften Abschnitt werden dann die Grundlagen der W a h r s c h e i n l i c h k e i t s rechnung f ü r mehrdimensionale Z u f a l l s v a r i a b l e n ( Z u f a l l s v e k t o r e n ,
Zufalls-
matrizen) b e r e i t g e s t e l l t . Insbesondere werden die mehrdimensionale und die m u l t i v a r i a t e Normal v e r t e i l u n g sowie die Wishartverteilung
betrachtet.
S c h l i e ß l i c h werden wir uns im sechsten Abschnitt mit einigen elementaren Begriffen im Zusammenhang mit Daten- und Distanzmatrizen f ü r mehrdimens i o n a l e Beobachtungsvektoren auseinandersetzen. Es werden Distanzmaße f ü r
18
Kapitel I: Einßhrung und Grundlagen
beliebig s k a l i e r t e Merkmale untersucht.
1 GRUNDLEGENDE BEGRIFFE UND ELEMENTARE
DATENBESCHREIBUNG
Die S t a t i s t i k beschäftigt sich mit der Beschreibung und Analyse umfangreicher Datenmengen, die z.B. durch Befragungen oder Messungen gewonnen werden Die Objekte.,
an denen Messungen vorgenommen werden, bzw. die Personen, die
befragt werden, nennt man auch UnteA&uchungieinhe-iten. messen bzw. nach denen gefragt wird, heißen Uenkmale,
Die Größen, die geund die an den Unter-
suchungseinheiten f e s t g e s t e l l t e n Werte der Merkmale heißen ΜeAkmat&uieAte oder
MeAkmaliauApiägungen.
BeXApiel:
Um die Altersstruktur in einer Gemeinde zu erfassen, werden a l l e
Einwohner (Objekte, Untersuchungseinheiten) nach ihrem A l t e r (Merkmal) bef r a g t . Die Altersangaben der Personen sind dann die Merkmalsausprägungen. Oft kann man nicht a l l e interessierenden Objekte untersuchen, sondern muß sich mit einem T e i l von einer Stichprobe
(z.B. η Objekten) von ihnen begnügen. Man spricht dann von η Objekten aus der GmndgiiamtheAX
der interes-
sierenden Objekte. Wie man Stichprobenuntersuchungen anlegt, damit sie ein möglichst genaues B i l d der Grundgesamtheit widerspiegeln,wird ausführlich in Härtung et
Bespiel:
a l . ( 1982, Kap.V) d a r g e s t e l l t .
In einem Land ohne Meldepflicht i s t es kaum möglich a l l e Einwoh-
ner (Grundgesamtheit) nach ihrem A l t e r zu befragen. Man muß sich mit einer
ι
Stichprobe von Einwohnern begnügen.
|
1.1
MERKMALSTYPEN
UND
ΚL A SS Ε Ν Β I L D UΝ G
Merkmale werden nach der Art ihrer Ausprägungen k l a s s i f i z i e r t . Zum einen unterscheidet man quantitative und q u a l i t a t i v e Merkmale und zum anderen stetige und diskrete Merkmale. Die Ausprägungen quantitativen.
Menkmxle
(z.B. A l t e r und Gewicht von Personen,
Lebensdauern von Bauelementen) unterscheiden sich in ihrer Größe und die Ausprägungen qualitativΟΛ
Merkmale
(z.B. Farbe, Rasse, Fabrikat, Beruf) in
ihrer A r t . Geht man von der Zahl der möglichen Ausprägungen eines Merkmals aus, so
Kapitel I: Einführung und Grundlagen
gelangt man zur A u f t e i l u n g in d i s k r e t e und s t e t i g e Merkmale. Vliktizti malt
19
HeAk-
( z . B . Geschlecht, Anzahlen) können nur abzählbar v i e l e Werte annehmen, ΜzukmaZz ( z . B . Längenmessungen, Lebensdauern) können b e l i e b i g e Werte
itetigc
in einem bestimmten Bereich annehmen. Eine weitere Unterscheidung von Merkmalstypen e r h ä l t man dadurch, daß man die zugrundeliegende Meß - Skala betrachtet. Die Werte einer
Nominatikala
unterliegen keiner Reihenfolge und s i n d n i c h t v e r g l e i c h b a r , die einer nalikata
Qidi-
unterscheiden s i c h in i h r e r I n t e n s i t ä t und unterliegen einer Rang-
f o l g e und die einer mz£>cü>c.he.n Skala
s i n d d e r a r t , daß s i c h zudem Abstände
zwischen den Werten i n t e r p r e t i e r e n l a s s e n . UomlnaJLz Μn/ikmaJLe. s i n d a l s o z.B. Beruf oder Rasse, o r d i n a l e MeAkmali haben z.B. Ausprägungen wie g u t , m i t t e l , schlecht (etwa Zensuren) und meX/Uichi
MeAkmale. s i n d z.B. Größe
oder Gewicht. Mitunter werden auch, wenn ein Merkmal v i e l e Ausprägungen b e s i t z t , mehrere Merkmalsausprägungen in Klassen zusammengefaßt. Dadurch e r r e i c h t man etwa bei der graphischen D a r s t e l l u n g von Datenmaterial, daß die D a r s t e l l u n g ü b e r s i c h t l i c h i s t . Durch eine solche Kt&iiinbiZdung
gelangt man dann z.B.
zur D i s k r e t i s i e r u n g eines s t e t i g e n Merkmals ( z . B . Gewichtsklassen bei Hühnereiern) . In den folgenden Teilen des A b s c h n i t t s 1 werden e i n i g e wesentliche M ö g l i c h keiten der Beschreibung von Datenmaterial d a r g e s t e l l t . Der s t ä r k e r an Methoden der beschreibenden ( d e s k r i p t i v e n ) S t a t i s t i k i n t e r e s s i e r t e Leser sei auf Härtung et
1.2
a l . (1982, Kap.I)
HÄUFIGKEITEN,
hingewiesen.
SUΜΜ Ε Ν Η A U F I G Κ Ε I Τ Ε Ν
UND
EMPIRISCHE
VERTEILUNGSFUNKTION Bezeichnet man die möglichen Ausprägungen eines Merkmals X mit und beobachtet das Merkmal X dann an η Untersuchungseinheiten, so bezeichnet man mit H
n(
a
j)
=
"Anzahl der F ä l l e , in denen a^. a u f t r i t t "
f ü r j = 1 , . . . , k die abiolute,
Häufigkeit
des Auftretens der Ausprägung aj
und mit
w für j = 1 , . . . , k die κeJi&tLvz Häuilgk&-U
der Ausprägung a j . Die r e l a t i v e
H ä u f i g k e i t von a^· i s t a l s o der prozentuale Anteil der Untersuchungseinhei-
20
Kapitel I: Einßhrung und Grundlagen
ten, die die Ausprägung a^ tragen. Daher nimmt h n U j ) unabhängig von η stets Werte zwischen 0 und 1 an und es gilt:
J>1 natürlich ist
i J=
=
W
H
n(a1)
+
+
—
=
W
n
Bei ordinalen und metrischen Merkmalen lassen sich die Ausprägungen der
Uable. Ζ = (Χ - μ ) / σ :
Var(Z) = 1
Varianz bzw. Standardabweichung sind Maße für die absolute Größe der Streuung um den Erwartungswert. Dagegen mißt der VaxiaXixinikozi^zlznt VK (für positive Zufallsvariablen) die Streuung relativ zum Erwartungswert: VK = v" Var(X)/E(X)
BeXi
.
plel:
(a) Die Varianz der Standardnormal Verteilung, Z ^ N ( 0 ; 1 ) , ergibt sich mit Hilfe des Satzes von Steiner wegen E(Z) =0 und
E(Z ) =
z2·——»e
— CO
\ΓΉ
-
1 1
72 dz.-i\/ 2π
-
2
ζ «e
1
1
72 dz = 1
2
2
zu 1. Bei der Ν(μ;σ ) - Verteilung sind μ der Erwartungswert und σ die Va2 rianz der Verteilung und nach der 3σ - Regei. für Χ^Ν(μ;σ ) i s t , vgl. Härtung et a l . (1982), Ρ ( μ - 3 σ < Χ < μ + 3σ) = 0.9973 = 99.73%
.
(b) Bei einer B(n,p) - verteilten Zufallsvariablen X ergibt sich zunächst E(X2)=
I i 2 f t ) p ^ l - p ) " " 1 » I (1(i-1)+1) w i=0 i=0
ft) w
pVi-p)""1
Kapitel I: Einßhrung und Grundlagen
- I 111-1) i=0 - j
=i
v
'
ftWii-P)"-1'*
37
Σ i (·) ρ\ι-ρ)""1 v i=0 '
K i - 1 ) ( • ) P 1 ( 1 - P j n " i + EIX)
2
Ι Μ - υ τ η ^ Λ ΐ - ρ Λ ^ η ρ
= n(n-1)p2J^
= n ( n
-1)p2·?
(l-2)lfn-i)!
1! (n-i-2)!
= η{η-υρ2·ηϊ2 ( n T 2 ) i=0 v 1 >
^
^
+ "P
P^I-PJ^'^nP
1-p) n ~ 2 "^ + np
2
= n(n-1)p + np und somit nach dem Satz von Steiner Var(X) =E(X 2 ) - ( E ( X ) ) 2 = n(n-1)p 2 + np - n 2 p 2 = n 2 p 2 - np2 + np - n 2 p 2 = np - np2 = np( 1-p)
.
|
ts sei hier noch erwähnt, daß die Größen E(X ) k-£z Mom&ntz und die Grössen E ( X - E ( X ) )
L·
k-te.
z&ntAale.
Mommte. der Zufallsvariablen X genannt wer-
den, die im folgenden bei Verwendung auch existieren mögen. Abschließend seien hier noch zwei Größen eingeführt, die den Zusammenhang zwischen 2 Zufallsvariablen X und Y kennzeichnen. Die Kova/Uanζ von X und V ist Cov(X,Y) =E(X - E ( X ) ) ( Y - E ( Y ) )
;
sie ändert sich durch eine lineare Transformation in folgender Weise CovfcxX + β,γΥ + ε) Eine solche Schätzfunktion,
·η —• >
0
d i e aiymptotlich
für jedes
e>0
r i c h t i g e Werte l i e f e r t ,
heißt
koni'Cste.nt. Ein K r i t e r i u m f ü r d i e Güte eines Schätzers θ f ü r θ i s t der mUXleAi.
quadsiatUAchz
TzhJLvi
(mean iquaAed
sogenannte
MSE):
eJitoh.,
MSE(6,§) = Ε(θ - θ ) 2 = V a r ( § ) + ( Ε ( θ ) - θ ) 2 D i e G r ö ß e Ε ( θ ) - θ n e n n t man a u c h ßlca
o d e r VeAzeAAung
des S c h ä t z e r s
θ.
B e i e i n e m e r w a r t u n g s t r e u e n S c h ä t z e r θ f ü r θ i s t d e r MSE n a t ü r l i c h
gerade
d i e V a r i a n z des S c h ä t z e r s .
natür-
B e i k o n k r e t e n S c h ä t z u n g e n i s t man d a n n
l i c h b e m ü h t , d e n MSE m ö g l i c h s t k l e i n zu
Kommen w i r n u n z u d e n S c h ä t z v e r f a h r e n . d i e s o g e n a n n t e Mcmtn£e.vme£hode.
halten.
Eine einfache Vorgehensweise
ist
D a b e i w i r d d e r zu s c h ä t z e n d e P a r a m e t e r θ
d u r c h d i e Momente d e r V e r t e i l u n g a u s g e d r ü c k t .
D i e s e werden dann d u r c h
e n t s p r e c h e n d e n e m p i r i s c h e n Momente g e s c h ä t z t :
Das k-te
der Stichprobe χ . , . , . , χ
i s t gegeben
Ein Schätzer f ü r die Varianz σ
Momentenmethode
2
Sind
der
ist
1
η
Σ
ι
Σ Vn i i i
Ό V
2
4η
Σ x 1? - x i =i
2
4η
Σ -j = i
( χ 1, · - χ ) 2
X n > so i s t d e r S c h ä t z e r f ü r d e n P a r a m e t e r θ d e r
l u n g n a c h d e r Maximum - Llketihood die
2 d e r Ν(μ;σ ) - V e r t e i l u n g nach
R e a l i s a t i o n e n von η unabhängig i d e n t i s c h v e r t e i l t e n
v a r i a b l e n X1
die
Moment
durch
2 BexApleZ:
emplniiche
- Methode
·
ZufallsVertei-
gerade d e r j e n i g e Wert Θ,
der
Likelihood Γ P(X1 = χ 1 ) · . . . · Ρ ( Χ L(x,
=x
]= I
fY
(χ.)·...·ί
X1
1
γ
*n
(x ) n
)
, bei diskreten teilungen , bei s t e t i g e n teilungen'
VerVer-
i n A b h ä n g i g k e i t von θ m a x i m i e r t .
ßelip-iel:
Seien
unabhängig i d e n t i s c h Ν(μ;1) - v e r t e i l t .
Dann
ist
I
Kapitel I: Einführung und Grundlagen
L(xr....xn)=f
x
1
(x,)-....^
η
(Χη)-
η Π i=l
, --5-U,· - y ) - l - . e v2ir
D i e s e L i k e l i h o o d w i r d m a x i m a l , wenn es d i e z u g e h ö r i g e log - L-LkeZihood
lnL(x1,...,xn)=ln
/ η ι ~ ( Π - L e ν ιi = 1l ν\/Ύπ 2π
1 {
Χ
i
_
41
wird:
\
Vi J \ '
1/
\2
= l 1 η (—— i =1 VT?
'
= Σ Ο ^ - ^ χ τ - μ ) 1 1=1 ν \/Ή '
2
)
'
·
η η 2 2 d . h . wenn - \ (χ.-μ) maximal bzw. \ (χ.-μ) minimal i n Abhängigkeit 1 1 i=1 1=1 von μ w i r d . Wegen d e r M i n i m u m e i g e n s c h a f t des a r i t h m e t i s c h e n M i t t e l s χ , vgl. Abschnitt
1 , e r g i b t s i c h χ a l s Maximum - L i k e l i h o o d - S c h ä t z e r f ü r
•
den P a r a m e t e r μ .
|
A l l g e m e i n i s t d i e L i k e l i h o o d a l s d i e W a h r s c h e i n l i c h k e i t f ü r das V o r l i e g e n d e r S t i c h p r o b e b z w . im s t e t i g e n F a l l a l s d e r W e r t d e r gemeinsamen für die vorliegende Stichprobe d e f i n i e r t , vgl. Abschnitt
5.
A l s l e t z t e s S c h ä t z v e r f a h r e n w o l l e n w i r h i e r d i e MttXhodt deA Quadiate.
vorstellen.
kleXmtzn
D a b e i g e h t man d a v o n a u s , daß d e r E r w a r t u n g s w e r t
zu b e o b a c h t e n d e n u n a b h ä n g i g i d e n t i s c h v e r t e i l t e n Χ^,.,.,Χ
Dichte
der
Zufallsvariablen
i n b e k a n n t e r W e i s e vom i n t e r e s s i e r e n d e n P a r a m e t e r θ a b h ä n g t : E(Xi)=g(9)
und b e s t i m m t
,
d i e Schätzung θ =
, . . . ,x ) f ü r θ s o , daß g i l t :
Σ (χ,·-g(§>)2< I (x. - g(θ))2 1 1 i =1 " i =1 f ü r a l l e m ö g l i c h e n P a r a m e t e r w e r t e θ . Dieses V e r f a h r e n l ä ß t s i c h auch a u f b e l i e b i g e Z u f a l l s v a r i a b l e n X 1 > . . . , X n übertragen, v g l . Härtung e t al . (1982, Kap. I I I ) . B e x A p i e X : A u f g r u n d d e r M i n i m u m e i g e n s c h a f t des a r i t h m e t i s c h e n M i t t e l s x , _ 2 v g l . A b s c h n i t t 1 , i s t χ e i n S c h ä t z e r f ü r den P a r a m e t e r μ e i n e r Ν ( μ ; σ ) V e r t e i l u n g nach der Methode d e r k l e i n s t e n
Quadrate.
42
Kapitel I: Einführung und Grundlagen
2 x n Realisationen aus einer Ν(μ;σ ) -Verteilung, so werden die
Sind x^
Parameter μ und σ^ in der Reael vermittels des arithmetischen Mittels x4(x
1
...+xn)
+
bzw. der empirischen Varianz (für η _>2)
s2 =
(x
F=T
i
geschätzt. (Diese Schätzer für erste und zweite Momente einer Zufallsvariablen werden zumeist auch dann benutzt, wenn nichts über den Verteilungstyp bekannt ist.) Wie wir gesehen haben ist
ein Schätzer für σ
2
nach der Momentenmethode; der aleiche Schätzer eraibt 2 sich auch nach der Maximum - Likelihood - Methode. Weitere Schätzer für σ
findet man in Hartunq et al. (1982, Kap.IV, Abschnitt 1.3). 2 Sind χ,,,.,,χ und y.,...,y Realsiationen aus Normal verteilunqen Ν ( μ ν ; σ ν ; ι 2 Η ι π Λ Λ bzw. Ν(νγ;σγ), so wird deren Kovarianz σ^γ (für η >_Z) durch
s
x v
=
A
i,
(x
i
"^^i
geschätzt, und deren Korrelation Ρ = d u r c h η _ _ I (xi-x)(yi-y) 1 1 i=1 /η η ? / I Ui - χ Λ I 1 y i=1 i=1
ρ (y. - y ) 1
geschätzt. Fehlen in Fällen anderer stetiger Verteilungen weitere Informationen, so werden diese Schätzer häufig ebenfalls verwandt, vgl. jedoch für Korrelationsschätzer auch Abschnitt 2 in Kap.III.
Anstatt den Parameter θ möglichst "gut" durch einen einzigen Wert θ η = θ η ( χ 1 , . . . , x n ) zu schätzen, möchte man oft einen "kleinen" Bereich angeben, in dem θ liegt. Da man Informationen über θ aus einem Zufallsexperiment gewinnt, ist dies i.a. nicht möglich. Wohl aber gibt es Methoden, die nur mit geringer Wahrscheinlichkeit Bereiche liefern, die den Parame-
Kapitel I: Einführung und Grundlagen
ter θ nicht enthalten. Ist diese l M £ u m m k M , c h e A . n L L c h k e A £ höchstens α , so ergibt sich ein Bereich, der θ mit Wahrscheinlichkeit 1-a enthält; ein solcher Bereich heißt auch VeAt>iaue.nA
- oder Kon^ldinzbeAeMih
zum
Niveau
Handelt es sich hierbei um ein Intervall auf der Zahlengerade, so
1-a.
spricht man auch von einem Koni-idmz-LvUeAvcLti (/-α)
-
zum U-ivzau.
oder kurz
1-a
Konildinz-LntztvaZZ.
Bei der Konstruktion von Konfidenzintervallen geht man häufig so vor, daß man sich zunächst einen Punktschätzer θ
n
für den interessierenden 2
Parame-
ter θ beschafft und dessen Erwartungswert μ(θ) und Varianz σ (θ), die meist vom Parameter θ abhängen, bestimmt. Dann bildet man die standardisierte
Zufallsvariable θη-μ(θ) σ(θ)
Hängt deren Verteilung nicht mehr von θ a b , so bestimmt man Zahlen u^ und derart, daß gilt
Ρ
(u.
V
V
• (-5)J
1 •(-3)J
+
+
sich 4 8 x 3 - 9 x 4 = 39
, d.h.
x
4
4 8 x , - 39 = ^ =
und s o m i t 5x 2 - 8X 3 - 6 x 4 = 5X 2 - 8X 3 - 4 8 x 3 + 39 = 1 56x d.h.
x2
-38 5
38
-5-X3-X
und s c h l i e ß l i c h 3x
+ 4x
+ 2x
-3x
Ά
-
, 5 2
+
?x
-
+
2 3 4
«
-
1 5 2
-?
58
Kapitel I: Einßhrung und Grundlagen
Für jede Wahl von x, ist also 30 10 (* y 2 ,χ Ϊ 3 ,χ y 4 ;\ --ν(."τ, y3 +ΊΓ' ^ ΊίΓ ν 3 X38 VX1 ,χ Ί Γ ,γΧ 3 ' Τ y 3- 3
J
eine Lösung unseres Gleichungssystems.
Ein wichtiger Teil der Matrizenrechnung ist die Berechnung von Eigenwerten und Eigenvektoren. Die ELgmuizKtz
einer quadratischen n«n - Matrix Α werden
bestimmt als die Null stellen des chaAakteA^iiCichcn d.h. die η Eigenwerte λ^,.,.,λ det(A-Xln)=0
Polynom
det(A-XI),
von Α sind die Lösungen der Gleichung
.
Die zum Eigenwert λ^ gehörigen Elgenvcktoizn
χ sind dann die Lösungen des
Gleichungssystems (x f 0) Α χ = Χ .χ Es gilt λ^ + ... + λ η = trΑ und für symmetrisches Α auch X^ · ... · λ η = det A. Βζύ,ρίίΖ: Wir wollen die Eigenwerte und die zugehörigen Eigenvektoren der Matrix Α= Ρ 1 berechnen.
3
) 5
Das charakteristische Polynom von Α ergibt sich zu
= (7-λ)(5-λ) - 1·3=35-7λ-5λ + λ 2 - 3 = Χ 2 - 12Χ + 32 = Χ 2 - 1ΖΧ + 36 - 36 + 32 = ( λ - 6 ) 2 - 4 = ( Χ - 6 - 2 ) ( Χ - 6 + 2) = (X - 8) (X - 4)
.
Da für X = 8 oder X = 4 gilt (X - 8) (X - 4) =0 sind X ^ = 8 und X^ = 4 die Eigenwerte von A. Die zu X^ = 8 gehörigen Eigenvektoren sind die Lösungen des Systems Αχ = 8χ
, d.h.
7χ^ + 3Xg = 8χ χ, + 5χ 0 = 8χ, '2
Damit ergeben sich die Eigenvektoren zum Eigenwert X. = 8 zu
59
Kapitel I: Einßhmng und Grundlagen
( x ^ , X 2 ) T = (3x2,X2) T ,und genauso erhalten wir a l s Eigenvektoren zum Eigenwert >>2 = 4 die Vektoren ( x j , x 2 ) T = ( - x 2 » x 2 ) T
mit
x
2 ) i 0 J e w e i l s beliebig.
_
Ein weiteres wichtiges Element der Matrizenrechnung i s t die Bestimmung von inversen Matrizen. Für eine quadratische η χ η - M a t r i x Α mit rg Α = η (äquivalent dazu i s t det A i 0; A l e g o l ä A z Ma&Ux)
i s t die zu A inveue
ΜΟΧΛΛ,Χ.
A ^ bestimmt durch AA" 1 = I
I s t Α eine reguläre Matrix, so i s t jedes Gleichungssystem der Art Ax = b lösbar, und zwar eindeutig. Die Lösung läßt sich angeben a l s x = A ^b. Im folgenden werden wir bei der Vzwendung
eXneA JnveAim
immer i m p l i z i t
unterstellen, daß eine solche auch i x l i t i z i t , ohne dies in den Voraussetzungen immer e x p l i z i t zu erwähnen. Bei der Bestimmung von inversen Matrizen kann man sich wiederum das Gauß'sche Eliminationsverfahren zunutze machen. Man notiert die reguläre Matrix Α und daneben die η - dimensionale Einheitsmatrix I
und m u l t i p l i n z i e r t dann einzelne Zeilen mit Zahlen und addiert Zeilen von Α solange
bis man Α in eine Einheitsmatrix verwandelt hat. Parallel dazu führt man die gleichen Multiplikationen und Additionen ausgehend von I durch. I s t Α dann in eine Einheitsmatrix verwandelt, so i s t I in die inverse Matrix -1 Α verwandelt. 6 (UApitl·. Wir wollen die zur regulären 3*3 - M a t r i x 4 A = 2 1
7
-3
6
1
5
9
„-1 inverse Matrix Α bestimmen. Dazu verwenden wir das Schema aus tab.5, in dem rechts die durchgeführten Multiplikationen und Additionen angegeben sind. Die zu A inverse Matrix ergibt sich also zu .-1
1 τς
49 -17 4
-78 39 -13
25 -10 10
Dieses Ergebnis kann dadurch k o n t r o l l i e r t werden, daß man AA Hat man korrekt gerechnet, so muß gelten AA
-1
Hier ergibt sich
I-
ausrechnet.
60
Kapitel I: Einßhmng und Grundlagen
AA
-1
4
1
2
1
7 - 3 6
5
1
9
49 -17 4
-78 39 -13
25' 65 1 -10 = 0 10 0
0 65 0
τς
0 0 65
wir haben also richtig gerechnet. Cah.5: Berechnung einer inversen Matrix
A =
4 2 1
7 - 3 6 1 5 9
1 0 0
0 1 0
0 0 1
•(-2)>
> (- 4 Η
4 0 0
-5 -13
7 - 3 -5 -39
1 1 1
0 -2 0
0 0 -4
4 0 0
-5 0
7 - 3 -5 130
1 1 8
0 -2 -26
0 0 20
520 0 0
910 -130 0
0 0 130
154 34 8
-78 -78 -26
60 20 20
'520 0 0
0 -130 0
0 0 130
392 34 8
-624 -78 -26
200 20 20
1 0 0
0 1 0
0 0 1
49/65 -17/65 4/65
-78/65 39/65 -13/65
25/65 -10/65 10/65
·13 1+ • (- 5 Η •130η ·
2 6
>
·3
J
+
·7> •1/520 •(-1/130) • 1/130 = A~
,
I s t eine Matrix Α nicht regulär, so läßt sich keine Inverse bestimmen. Stattdessen muß man sich mit sogenannten generalisierten Inversen von A begnügen. Α
heißt eine gweAtili!>.Lzfcte. JnveAie
zur nxm - Matrix A, f a l l s
gilt AAA = A
.
Hat man ein lösbares Gleichungssystem A x = b gegeben, so i s t eine Lösung angebbar a l s x = A b.
Die nxm-Matrix A~ i s t allerdings i . a . nicht e i n -
deutig. Um Eindeutigkeit zu erreichen, wird daher häufig die sogenannte PimdolnveAbz
oder Ikion.z-Vtinft.ot.z-'lnvzKAz
die folgenden 4 Bedingungen bestimmt: AA+A = A A + AA + = A + (A + A) = (A + A) T (AA + ) = (AA + ) T
.
A + von Α verwandt. A + i s t durch
J
Kapitel I: Einßhrung und Grundlagen
61
Da die e r s t e Bedingung gerade der f ü r g e n e r a l i s i e r t e Inverse e n t s p r i c h t , i s t A+ eine s p e z i e l l e g e n e r a l i s i e r t e Inverse, die in F ä l l e n regulärer Mat r i z e n Α mit A - 1 Ubereinstimmt. Zur Berechnung von A+ g i b t es v i e l e Verfahren, v g l . z.B. Albert (1972), B e n - I s r a e l / G r e v i l l e (1980); ein s p e z i e l l e s wollen w i r h i e r angeben. (Dies eignet sich im F a l l e der Existenz auch zur Berechnung einer Inversen.) Wir bezeichnen die Spaltenvektoren einer nxmMatrix Α mit a ^ , . . . , a m und die Matrix der ersten k Spalten von Α mit A^, d.h. A=(a^
a m ) und A^ = (a^
a^) f ü r k=1,...,m. Für k=2
m de-
f i n i e r e n w i r weiter dk=Ak-1ak
Ck = a k
- A k-1 d k
Dann g i l t f ü r k = 2 , . . . ,m
Ak
=
V r
d
k
b
k
L.T
mit , falls j T . \-1jT.+ (1 + d ^ d k ) • d j f t . , Benutzt man, daß die Pimdo-inveAU x+ = xT χ χ
c^O
, falls ck = 0 zinz& ί/zktou
, f a l 1 s χ φ 0 , und
χ durch
x+ = 0
, fal 1 s χ = 0
,
gegeben i s t , so kann man ausgehend von «+ + 1 = a1 sukzessive A^, A * , . . . , A * = A+ bestimmen. I s t Α eine n*m-Matrix mit n 1k Jk kf{i,...,p}
Kapitel I: Einßhrung und Grundlagen
I n A h h . l l s i n d d i e s e s p e z i e l l e n Abstände f ü r d i e Vektoren
B&lbpizZ: y i = (2,1)
T
und y^· = ( 6 , 4 ) T g r a p h i s c h angegeben. Es e r g i b t H
Ahb.ll:
y
i"
y
j ll2=/(2-6)Z
+
(1-4)Z = 5
sich:
,
II Y i - y j II, = | 2 - 6 | + |1 - 4 | = 7
und
||yi-yj IL =
.
raax{|2-6|,|1-4|}=4
E u k l i d i s c h e r Abstand, C i t y - B1ock - Abstand und T s c h e b y s c h e f f s c h e r Abstand im zweidimensionalen Raum
Ein w e i t e r e r h ä u f i g benutzter D i s t a n z i n d e x t r i z e n i s t die (emp^tciciie)
d(i,j) = / (
y i
im F a l l e q u a n t i t a t i v e r Datenma-
Mahalanob-Ud-Utanz
- y j ) T s " 1 ( y i - y j ) = II y,· - y j ll M
Hierbei bezeichnet S ^ d i e I n v e r s e der impVUichzn beobachteten Merkmale
·
KovaAMinzmafUx
der ρ
73
74
Kapitel I: Einßhmng und Grundlagen
S
2 1
s
12 .
s
1p
S=
S
12
S
1p
s
S
2p .
S
2
2p
···
i
Für k = 1 . . ,p i s t dabei (yik-y.k)2
S k ^ die mpituAchi
mit
y . K ^ . I ^ k
VaJvLanz des k-teri beobachteten Merkmals und für k , £ = 1 , . . . ,p
ist
die emp-uuAche KovtvUanz
zwischen dem k-ten und ί,-ten beobachteten Merkmal. -1
Für n > p i s t die Existenz von S
theoretisch mit Wahrscheinlichkeit 1 ge-
sichert. Bei den L - Metriken hängt ein Distanzindex also l e d i g l i c h von den Beobachtungsvektoren y.j und y . ab, wohingegen die empirische Mahalanobisdistanz, die ein gewichteter euklidischer Abstand i s t , auch die Kovarianzen (d.h. Abhängigkeiten) der ρ beobachteten Merkmale berücksichtigt. I s t Y eine qwxZJJjxtive.
so wird überprüft, ob die Merkmalsaus-
VatmmaX^ix,
prägungen jedes der ρ beobachteten Merkmale s t r u k t u r i e r t werden können. Wird durch eine Struktur dann z.B. ein V-Utanz-cnd&K d^ au.& deA Menge de-t MeAknat&auApiägungzn
du
k-tm
ΜeAkmati erzeugt, so kann dieser Distanz-
index für die Ausprägungen des k-ten Merkmals am i-ten und j-ten Objekt a l s Distanzindex d^C i d
) der beiden Objekte bzgl. des k-ten Merkmals
k(i'j)=äk(yik·^^
'
i ,j = 1 , . . . ,n
,
betrachtet werden. Aus den ρ verschiedenen Distanzindizes (bzgl. der einzelnen Merkmale) der Objekte i und j läßt sich dann ein einziger Distanzindex z.B. durch d(i,j)=
min k = l ,.,.,ρ
d.(i,j) K
oder d(i,j)=-i p
Ε d.(i,j) k=1 K
Kapitel 1: Einflhmng und Grundlagen
kombinieren. Eine andere Möglichkeit besteht hier darin, die qualitative Datenmatrix vermittels Skatie/uing
-in KoniLngznztaieZn,
vgl. Kap.V, zu quan-
t i f i z i e r e n , und dann diese quantitative Datenmatrix zur Bestimmung der Distanzindizes heranzuziehen. I s t Y eine gemischte
Ocutmmatriix,
so kann man zunächst getrennt für quan-
titativen und qualitativen Teil von Y Distanzindizes bestimmen. Diese beiden Teilindizes werden dann zu einem einzigen Distanzindex kombiniert. Beispielsweise kann a l s Distanzindex das Maximum, das Minimum oder der M i t t e l wert der beiden Teilindizes gewählt werden; vgl. aber auch Kap.V,5. I s t es zu aufwendig oder zu schwierig ρ Merkmale zu finden, welche die Objekte einer Grundgesamtheit charakterisieren, so kann man Distanzindizes für je zwei Objekte i und j aus der Grundgesamtheit auch durch glz-Lch bestimmen. Dazu sucht man eine Vi/ackLzdinheÄti'ieZatA.on
PcuvwinV in der
Menge a l l e r Paare aus η Objekten. Die Beziehung { i ,j} V {k,«J bedeutet dann gerade, daß sich die Objekte k und l mindestens so stark unterscheiden wie die Objekte i und j . Bei der Festlegung einer solchen Verschiedenheitsrelation V muß man darauf achten, daß a l l e Objektpaare miteinander verglichen werden und daß die Verschiedenheitsrelation widerspruchsfrei i s t , d.h. i s t { i , j } V { k , { , } und {k,i.} V {k' ,SL'}, so i s t { i , j} V {k' ,2.'}. Eine Relation mit dieser Eigenschaft heißt auch eine voZZitäncLige
Vhäondnanq.
Hat man eine solche Verschiedenheitsrelation für eine Menge von η Objekten bestimmt, so legt man eine Funktion f f e s t , welche jedem Objektpaar ( i , j ) eine positive Zahl zuordnet, die um so größer i s t , je verschiedener i und j sind, und setzt dann , falls i = j
Mittels mutXA.cUmini-ioncLte.K SkaZ-ieAung (MVS), vgl. Kap. VI ,
läßt sich dann
aus der so entstandenen Distanzmatrix eine quantitative Datenmatrix für die η interessierenden Objekte aus einer Grundgesamtheit konstruieren.
75
76
Kapitel 1: Einßhrung und Grundlagen
Aus den obigen Ausführungen ergibt sich, daß es möglich i s t , aus jeder beliebigen Datenmatrix eine Distanzmatrix und aus jeder, wie auch immer gewonnenen Distanzmatrix eine quantitative Datenmatrix zu gewinnen.
Kapitel II: Die Regressionsanalyse
Die Regi&ii-wmcLnaJiijie. funktionalen
i s t e i n Instrumentarium zur S p e z i f i k a t i o n
eines
Zusammenhang* zwischen einem Merkmal y , das auch R e g A z u a n d
oder endogene V&rUable. genannt w i r d , und Merkmalen X^ ten Reg/te^o-ten oder exogenen l> . . . , X h die Ausprägung y i des Regressanden y. Aufgrund dieser Daten kann dann der funktionale Zusammenhang zwischen endogener Variable und den exogenen Variablen geschätzt werden. Im Abschnitt 1 wird zunächst die multiple.
R&gnnAi-LonianalyAe.,dargestellt,
wobei eine lineare Regressionsfunktion u = B
o + ß1x1 + ' · ·
+e
hxh
zwischen einem quantitativen Merkmal y (Regressand) und h Einflußgrößen X^
X^ (Regressrren) mit festen aber unbekannten Parametern
ß^,
zugrundegelegt wird; die Regressoren können hier quantitative Merkmale oder Stufen qualitativer Merkmale, die mit 0 und 1 kodiert sind, darstellen. Es g i l t dann aufgrund von Beobachtungen an η Objekten, die Parameter der Regressionsfunktion zu schätzen, Konfidenzintervalle sowie Tests für sie anzugeben und zukünftige Werte oder fehlende Zwischenwerte des Regressanden zu prognostizieren bzw. zu schätzen. Außerdem werden wir uns mit der Reduktion der Anzahl der Regressoren (Multikollinearität), der Modell Überprüfung mittels Residualanalyse und der Behandlung numerisch instabiler Probleme z.B. mittels Ridge - Regression beschäftigen.
ßilip-izl:
(a) Die einfachste Form einer Regressionsfunktion i s t die a =fVBixi
RzgAznion&geMidz
;
die gesamtwirtschaftliche Konsumfunktion für die Bundesrepublik Deutschland i s t eine solche Gerade, die die Regression von privatem Konsum y auf das verfügbare private Einkommen X^ beschreibt. Die Daten für die Jahre 1960 bis 1970 (Quelle: Statistisches Bundesamt) ergeben folgende Schätzung für die Regressionsgerade (in Millionen DM): Η = 18784.341 +0.8227039x 1 An der Steigung der Geraden laßt sich ablesen, daß der private Konsum in geringerem Maße steigt als das verfügbare private Einkommen: Steigt das verfügbare private Einkommen um 1 Million DM, so steigt der private Konsum lediglich um 0.8227039 Millionen DM. (b) Um den Einfluß verschiedener Beimischungen Χ^,.,.,Χ^ auf die Festigkeit von Eisen y zu untersuchen, wird eine multiple Regressionsanalyse durchgeführt. Dazu werden η Eisenproben, welche die einzelnen Beimischungen in
79
Kapitel II: Die Regressionsanalyse
unterschiedlichen Mengen enthalten, analysiert. Von Interesse ist dann insbesondere auch die Frage, welche der Beimischungen die Festigkeit des Eisens wesentlich beeinflußen und welche (bei Berücksichtigung der anderen)
ver-
nachlässigt werden können. (c) Polynomials
RigAeA6-ioni^unk^tUinen
y = ß 0 + ß1x + ß 2 x 2 +... + ß h x h 2 können durch einfache Umbenennungen χ = χ ^ , χ
h = X2>
... , χ
= x ^ in die mul-
tiple Regressionsanalyse eingebettet werden; andere nichttineaA.z Reg-te/SiloM^anktAjontn können häufig durch Transformationen in lineare Regressionsfunktionen überführt werden. Ein Beispiel
ß
„
hierfür ist die Cobb - Vouglxii
-
der Art
PfioduktioniSanktion
Jl J2
o
!J = e
· Χ ι ·χ2
A
•••••X h
die durch die logarithmische In Η = ß 0
+
Transformation
ß 1 ' l n X 1 + ... + ß h - l n x h
und die Umbenennung ij = In § , x ^ = l n x ^ , ... ,
=
*h ™
e
™
e
'
ßj lineare multiple Regressionsfunktion verwandelt werden kann. Für die österreichische Landwirtschaft schätzte Tintner (1960) anhand des Wirtschaftsjahres
1954/55 mittels Regressionsanalyse eine Cobb - Douglas -
Produktionsfunktion
y =e
ßQ
.Α
ß, ßo '.Β ·Κ
mit den P/iodaktiom^aktoim
J
A = Arbeit (Mill. Arbeitstage), Β = Boden
zierte landwirtschaftliche Nutzfläche in 1000 ha) und Κ = Kapital in Mill. öS) und der zu erklärenden Größe S = E r t r a g
(redu-
(Aufwand,
(Rohertrag, in Mill
öS)
zu c 1.84589 .0.28801 „0.13985 „0.59717 a = e ·Α ·Β ·κ = 6.33373.Α°·28801.Β°·13985.Κ0·59717
,
so daß sich für die Summe ε der PAoduktionielMtiz-iXätin
ß^^.ßg
die Schät-
zung ε = 0.28801 + 0.13985 + 0.59717 = 1.02503 ergab.
Die Größe ε, die man auch Skalmelaitiz-UcU duktion
oder tlg-izblgkeJjthQHad
nennt, wird dann zur Bewertung des Einsatzes der
diu
Pro-
Produktionsfaktoren
80
Kapitel II: Die Regressiomanalyse
herangezogen. Aufgrund der Überlegung, daß eine prozentuale Erhöhung der Produktionsfaktoren um a% die Produktion von μ auf a(1 +a/100) e
erhöht,
s c h l i e ß t man im F a l l e e> 1 auf einen unteroptimalen E i n s a t z der
Produktions-
f a k t o r e n , da h i e r eine überproportionale Steigerung der Produktion möglich i s t (nach der Produktionsfunktion), F a l l e ε < 1 auf einen
'überoptimalen
im F a l l e e = 1 auf einen optimalen und im 1
steigerung) der Produktionsfaktoren,
E i n s a t z (unterproportionale vgl.
z.B. Krelle
Produktions-
(1969).
N a t ü r l i c h muß in der Regel ε empirisch bestimmt werden, so daß dann z . B . e r s t anhand eines K o n f i d e n z i n t e r v a l l s Aussagen mit e i n e r p r ä z i s i e r t e n S i -
.
c h e r h e i t gewonnen werden können.
]
Bei der multiplen Regressionsanalyse, wie s i e im Abschnitt
1 behandelt wird
(man v g l . aber auch insbesondere im F a l l e mehrerer Regressanden y^
J}p
die Ausführungen in Kap.X), werden a l l e unbekannten Größen ß Q
der
Regressionsfunktion a l s f e s t e Parameter a n g e s e t z t . I s t d i e s n i c h t der d.h.
sind e i n i g e d i e s e r ReQUeMlomkoe^lzlenten
kommt man zu den im Abschnitt 2 behandelten Ge.mc0c.kten
Fall,
so
Zuiallivtvuablen, Lln.eM.en.
Jodetten.
Hier möchte man dann d i e f e s t e n Parameter und die Realisationen der Zuf a l l s v a r i a b l e n oder auch Linearkombinationen derselben, die z . B .
in der
T i e r - und Pflanzenzüchtung sowie in der Ökonometrie von entscheidender Bedeutung s i n d , schätzen bzw. p r o g n o s t i z i e r e n ; außerdem werden Konfidenzund P r o g n o s e i n t e r v a l l e f ü r solche Linearkombinationen
In den Abschnitten ein quantitatives
angegeben.
1 und 2 s i n d wir davon ausgegangen, daß der Regressand y Merkmal i s t ; bei q u a l i t a t i v e n
insbesondere bei nominalen
Merkmalen y sind diese Verfahren n i c h t mehr anwendbar, es sei denn, man i k a LLenZ
y
zunächst m i t t e l s der in Kap.V d a r g e s t e l l t e n Methoden.
Die in Abschnitt 3 abgehandelte cLii>k>iete Hegiealomanalyie keiten zur Behandlung von Problemen mit qualitativen
bietet
Möglich-
RegieAAandm,ohr\e
Ska-
l i e r u n g s v e r f a h r e n zu verwenden. Hier g i b t es u n t e r s c h i e d l i c h e Ansätze, von denen wir das Pn.obltle. Uakuchelnllchkextimodell Wahuckelnlichkelten
oder Ν o n m i t - Modell,
das Loglt-Modell
und das
ansprechen w o l l e n , die a l l e dazu dienen, zu ichätzen,
Lineadie
mit denen bei vorgegebenen Werten der Re-
gressoren die einzelnen q u a l i t a t i v e n Ausprägungen des Regressanden y a u f treten.
Kapitel II: Die Regressionsanalyse
81
1 MULTIPLE REGRESSIONSANALYSE FÜR QUANTITATIVE DATEN D i e multiple
i s t ein
Regie^i-Lonianalyie
des funktionalen
Instrumentarium zur
Untersuchung
Zusammenhangύ zwischen einem q u a n t i t a t i v e n Merkmal y m i t
A u s p r ä g u n g s v a r i a b l e a und Merkmalen Χ ^ , . , . , Χ ^ m i t A u s p r ä g u n g s v a r i a b l e n x^
x ^ ; X j s t e h t dabei f ü r j = 1 , . . . , h f ü r e i n q u a n t i t a t i v e s Merkmal X j
oder auch f ü r e i n e S t u f e e i n e s q u a l i t a t i v e n Merkmals. ( S e i n e Ausprägung w i r d dann m e i s t m i t 1 oder 0 k o d i e r t , j e nachdem ob d i e s e S t u f e
vorliegt
oder n i c h t ; v g l . auch d i e B e i s p i e l e im A b s c h n i t t 2 und i n den A b s c h n i t t e n 1 . 3 , 1.4 des K a p . X . ) N a t ü r l i c h kann im F a l l e e i n e s q u a l i t a t i v e n Merkmals y d i e s e s auch z u n ä c h s t m i t den Methoden aus Kap.V s k a l i e r t werden. Der m u l t i p l e n R e g r e s s i o n l i e g t nun e i n e » = e 0 ' + ß i * i + •·· zwischen
dem s o g e n a n n t e n
nen (exogene
Regneawmiunkiion
+ eh*h
Regneaanden
(endogene
y u n d den
Va/Uable)
Χ ^ , . , . , Χ ^ zugrunde. A l l e r d i n g s sind die
Vaniablen)
Regneao-
RegneM-iom-
d i e s e r F u n k t i o n unbekannt und müssen daher ge-
koeü-iz-ientm s c h ä t z t werden.
Man b e s c h a f f t s i c h dazu nun j e w e i l s η Beobachtungen ( n > h + 1 ) d e r Merkmale y,xr...,xh yi ,χ^ ,... ,xih
f ü r i = 1 , . . . ,n
;
s t r e n g genommen b e o b a c h t e t man zu den f e s t vorgegebenen Ausprägungen von X 1 5 . . . , X h ( i = 1 , . . . , n ) d i e Z u f a l l s v a r i a b l e y i bzw. deren A u s p r ä g u n g e n , d i e w i r h i e r e b e n f a l l s m i t y^ b e z e i c h n e n w o l l e n . Ausgehend von d i e s e n Beobachtungen l e g t man dann e i n Modell d e r Form y
i
=ß
o
+ ß1xi1 +
···
+ß
hxih
+ e
i
z u g r u n d e , wobei d i e Z u f a l l s v a r i a b l e n
f ü r
1= 1"
····'"
v o n e i n a n d e r unabhängig s i n d
m i t E r w a r t u n g s w e r t 0 und ( i n d e r Regel u n b e k a n n t e r ) V a r i a n z σ 2 , d . h . E(yi) =B0 + ß 1 x i 1 + · · · und b e s t i m m t für
0j
so,
die
n a c h d e r Gauß'ichen
daS m i t 2 =
+
V
§
i
ReA-idual- o d e r
ßhxitl Methode
d e r geichätzten x
i
+
-
Fehlen
+
-
V h Quadnatiumme
Var(yi)=o2 den. klemmten RegnenionifunktLoη
f ü r i = 1 , . . . ,n ,
Quadnate
Schätzer
iL
82
Kapitel II: Die Regressionsanalyse
SSE
=X
( y
i-?i)2
minimal (bzgl. ß Q
=
j,
δ
ι
χ
h
x
i h
< * Γ ν
ι Γ · · · Λ
χ
ι ι /
ß h ) wird; die Größen
V y i - y ^ r
V
§
x
i
i r - " -
g
nennt man dann auch Rei-tdaen. Dieses Vorgehen führt zunächst auf die folgenden Bestimmungsgleichungen, die auch Honjralmghiic.kangen g
1SQX,
+ S
2
S P
genannt werden, für ß^ *1*
,SP. Χ , Χ ^ ^
2 +
+
-
-"
+ S h S
+ 0
h
Vh"
S
V
h
'
S P j t
S P
ß^:
ie
*2»
wobei mit 77
1 Γ i=1
'
77 1 " VJ n "i i, =X1 i j
'
f ü r j = 1
h
gilt
V i , " « - « ; '
2
*
II SP = SP = l (x..-x.)(x.,,-χ.,) und X J J J J j V *j'Xj i=1 η _ _ SP„,,= ι (χ,, -x,)(y,· - y ) für j , j ' = 1 , . . . , h Xjö i = 1 1J J 1
.
Hieraus ergibt sich dann a l s Schätzer für das Absolutglied ßQ gerade
und die Varianz σ 2 der Zufallsvariablen s
2
^
M y r ^ )
2
wird geschätzt durch
^ . ! ^ ?
.
Zur Beurteilung der Güte der Anpassung wird häufig das multiple. htitimaß B = B
y,0,...,h)
=B
u,(xr...,xh)
= s
2
2
y/sy
Butimmt-
83
Kapitel II: Die Regressionsanalyse
= 1-j=i
2
( y r V ¥ i r - - ¥ i h )
η
9
/
n
,
/
i=1 n
9
/ Σ (y-j-y) 2 = 1 - Σ 1 ' i=1 i=1
= ι - Ι i=1
< ^ >
2
n
/
9
ή / l 1 ' i=1
^ - y )
2
1
verwandt, das angibt, welcher Teil der Varianz des Merkmals y durch die Regressoren X^
X^ erklärt wird; die Größe U = 1 - Β nennt man auch UwbeWerden die Regresionskoeffizienten ß Q > ß j
itimmtheA-timaß.
ß^ wie hier
nach der Methode der kleinsten Quadrate geschätzt, so stimmt das multiple Bestimmtheitsmaß mit dem Quadrat des mpOU^chen
mttipten
KoiA.eXa£tonAkoe6-
vgl. Abschnitt 1.3 in Kap.III, überein, d.h. es gilt dann
ilzizntzn,
y
..,x h
Wir wollen im folgenden das multiple Regressionsmodell
in Matrixschreibweise
darstellen und dann auch Tests, Konfidenz- und Prognoseintervalle angeben, wobei wir allerdings dann verlangen müssen, daß die Fehler e^,...,e n sind.
nofwulveAtzitt
Setzt man 1 ,
x,, .
1
y = Xß + e E(y)=Xß,
e
1h ,
X
n1 ·
so erhält man die ikUnXxichxtlbMOMie-
I
x
X =
•yn
wobei
•
1
e =
ß
,
1
ß =
,
• x nh> du
multiplen
iß
o
ß
1
ß
h·
ß =
RnQKZM-LoMmodMA:
mit E(e)=0,
Cov(y) = Cov(e) = σ 2 I n
,
die ηχη - dimensionale Einheitsmatrix, vgl. Abschnitt 4 in Kap.I,
bezeichnet.
Weiterhin wollen wir hier annehmen, daß X T X invertierbar ist; allgemeinere Modelle werden im folgenden Abschnitt 2 und im Kap.X (man setze dort ledig1 ich ρ = 1) betrachtet.
Das Noimale.nglUxicli>ieibweii£
84
Kapitel II: Die Regressionsanalyse
6 = (XTX)"1XTy und der Sc.hä£zeA
VCLHAAYIZ σ 2 kann auch geschrieben werden als
^CU die.
sz=ii=HrryT(in-x(xTx)"1xT)y
·
Setzt man nun C
C .... C u o1 oh
oo
c
o1
C
11
"1h
c
oh
c
1h
L
C = (X T X)" 1
so lassen sich die Va/Uanzin, Quadrate. j=0,1
-
hh
Kovcuiianzm
und KoMelaXlon&n
für
Schätzzn
dvi
KleÄ-nitz
•
β. , die natürlich für
ο 1 o*1'"· h h den Erwartungswert E(ßj) = 3 j besitzen, wie folgt angeben. Für
j,j '=0,1.... ,h, jjij 1 , ist Var(gj)
, Cov(ßj
Corr(ßj >ßj ι) =
C
,) = a 2 c ^ ,
und
jj'
Neben den bisher behandelten Punktschätzern für die Parameter V P 1 ·""' ' p h des multiplen Regressionsmodells können auch Kon^ldenzlnteAuatie. ^ü/i dlue. VajuamoXeA bestimmt werden.
Zunächst erhält man als IndividuetteA für den Parameter ßj (j=0,1 ±
wobei t
Konh-Ldznz-inX.2AvaJLl
zum Niveau 1-γ
h) ein Intervall mit den Grenzen
Vh-iii-Y/z-^^jj
·
das α-Quantil der t - Verteilung mit ν Freiheitsgraden bezeich-
net; diese Quantile sind im Anhang vertafelt. Ein solches Konfidenzintervall für ß. überdeckt den wahren Parameter ßj mit Wahrscheinlichkeit 1-γ; man sagt auch kurz: Mit Wahrscheinlichkeit 1-γ liegt ß^ in diesem Intervall.
Möchte man für alle Parameter ß Q
ß^ gleichzeitig Intervalle angeben,
die die Parameter mit einer Wahrscheinlichkeit von insgesamt 1-γ überdekken, so kommt man zu den ihruliamn
(1-γ) - Kon{,idznzinte.>ivatttn,
Grenzen für j=0,1,...,h nach Scheffe gegeben sind als
deren
85
Kapitel II: Die Regressionsanalyse
2 c ---F, !0- ± v ρ
Hat man zwei sich durchaus Uberschneidende Sätze von Regressoren zur Erklärung des Regressanden y ausgewählt, so kann man sich beim Vergleich der beiden Regressionsmodelle des adjuiJU&nXm
Ba>t*jmvth.eAZinußeA
bedienen:
wobei ν die Anzahl der berücksichtigten Regressoren bezeichnet; man wählt dann das Modell mit höherem Wert F aus, vgl. Ezekiel (1930) und auch Seber (1977, §12) für weitere Kriterien zum Modell vergleich und zur Modellauswahl. Der Sinn der adjustierten Bestimmtheitsmaße wird an folgender Überlegung deutlich. Ist der eine Satz von Regressoren vollständig im anderen enthalten, so ergibt sich stets für ersteren Satz ein geringeres Bestimmtheitsmaß B. Jedoch ist nicht unbedingt die Regression "schlechter" etwa in dem Sinne, daß die Prognosequalität (Kürze von Prognoseintervallen) verringert wird, denn die Länge eines Prognoseintervalls für einen zukünftigen Wert y* hängt von der Anzahl der berücksichtigten Regressoren ab, was beim adjustierten Bestimmtheitsmaß berücksichtigt wird.
88
Kapitel II: Die Regressionsanalyse
An d i e s e r S t e l l e w o l l e n w i r noch kurz a u f d i e Problematik der necvUtät
MuttlkoUl-
der Regressoren e i n g e h e n ; a l l g e m e i n l ä ß t s i c h sagen, daß e i n e hohe
K o r r e l a t i o n zwischen den Schätzern Bj und ß^ f ü r d i e Parameter ß j und ß v (j,v=1
h) auf e i n e ' K o r r e l a t i o n ' zwischen den Regressoren X j und
schließen l ä ß t . Man s p r i c h t von M u l t i k o l l i n e a r i t ä t der Regressoren, wenn d i e Spalten der M a t r i x X " f a s t " l i n e a r abhängig sind bzw. wenn XTX i n der "Nähe" der S i n g u l a r i t ä t l i e g t ( d e t (X T X) " k l e i n " ) ; in diesem F a l l ü b e r l a g e r n s i c h d i e E i n f l ü s s e der Regressoren ( S p a l t e n von X) oder - wie man auch sagt - d i e E i n f l u ß f a k t o r e n sind "vermengt". Eine InteipietaXlon
del einzelnen
i s t dann p r o b l e m a t i s c h , z . B .
Schätzet,
läßt
s i c h e i n e Aussage w i e : "Erhöht sich der Wert des j - t e n Regressors um e i n e E i n h e i t x^ a u f x ^ + 1 , so e r h ö h t sich der e r w a r t e t e Wert des Regressanden um ß j E i n h e i t e n . " nur dann a u f r e c h t e r h a l t e n , wenn ß j p r a k t i s c h
unkorreliert
mit den anderen Parameterschätzern s i n d . Lehnt man beim oben angegebenen Rextuktioniteit
d i e Hypothese n i c h t ab und'
" s c h l i e ß t " , daß d i e E i n f l u ß v a r i a b l e n * ( j ) >· • · »*(f,-q) gressanden a u s r e i c h e n , so sei davor gewannt, d i e r e s t l i c h e n , e l i m i n i e r t e n q Regressoren
zur
K l ä r u n g des Re-
g l e i c h z e i t i g zu f o l g e r n , daß x
(h_q+i)>···keinen
f l u ß auf y haben. Aufgrund der in der Regel hohen ' K o r r e l a t i o n e n ' Multikollinearität)
Ein(bzw.
zwischen den Regressoren i s t vielmehr nur der f o l g e n d e
Schluß e r l a u b t : Die e l i m i n i e r t e n Regressoren bringen bei g l e i c h z e i t i g e r Ber ü c k s i c h t i g u n g von
j
*(h-q)
zu.icitztlc.hen
Beltnag
zur E r k l ä -
rung des Regressanden y . Der B e i t r a g der r e s t l i c h e n Regressoren w i r d von den m i t ihnen hoch ' k o r r e l i e r t e n ' Regressoren z . T . übernommen. Dies w i r d auch d e u t l i c h bei einem V e r g l e i c h der ' a l t e n ' Schätzungen f ü r d i e Regress i o n s k o e f f i z i e n t e n m i t den 'neuen' ( u n t e r der Reduktions - Hypothese gewonnenen) Schätzungen im r e d u z i e r t e n M o d e l l . Der 'Grad der Veränderung' der Schätzungen f ü r d i e v e r b l i e b e n e n R e g r e s s i o n s k o e f f i z i e n t e n g i b t e i n e n H i n w e i s a u f d i e Stänke
mlnienten.
den. Abhängigkeit
den. venbtlebenen
Menkmale
zu den
D e u t l i c h e r t r i t t d i e s z u t a g e , wenn hoch ' k o r r e l i e r t e '
w e c h s e l s e i t i g e l i m i n i e r t werden, und d i e s umso mehr, j e höher d i e
eZl-
Merkmale 'Korre-
l a t i o n ' m i t dem Regressanden i s t . N a t ü r l i c h haben vorgenannte Ergebnisse i n der Regressionsanalyse nur u n t e r der Bedingung i h r e G ü l t i g k e i t , daß d i e x ^ f ü r i = 1 , . . . , n und j = 1 , . . . , h
die
w i r k l i c h e n V e r h ä l t n i s s e i n der i n t e r e s s i e r e n d e n Grundgesamtheit von Objekten ohne größere F e h l e r w i d e r s p i e g e l n , d . h . d i e Ergebnisse sind
bedingt
Kapitel II: Die Regressionsanalyse
89
durch die x ^ · . I s t generell die Bestimmung der Schätzer β
i r u t a b M . , d.h. geringe
Änderungen in X T X bewirken größere Veränderungen von β (man sagt XTX i s t schlecht k o n d i t i o n i e r t ) und insbesondere auch schnelle
Voiztick&nuiechiel.
bei den Komponenten von ß, so bedient man s i c h mitunter der sogenannten R-tdge - RzgAeAi-ion, v g l . Hoerl/Kennard (1970). Man berechnet hierbei f ü r e i n i g e Zahlen k ^ O den Schätzer ß(k) = (X T X + k - I h + 1 ) _ 1 X T y für β und beobachtet die Veränderung in ß ( k ) ; n a t ü r l i c h i s t ß(0) = ß gerade der gewöhnliche K l e i n s t e - Quadrate - Schätzer f ü r ß. M i t t e l s der sogenannten R-idge.- Tnace. kann man s i c h die Veränderungen graphisch veranschaulichen, v g l . auch nachfolgendes B e i s p i e l ; h i e r werden neben den Veränderungen in ß(k) f ü r k e [Ο,ω] zweckmäßigerweise auch noch die Kenngrößen n ? SSE(k) = ^
( y . - ß Q (k) - β , Μ χ . , - . . . - ß h ( k ) x i h )
Q(k) = SS $ E s ( E k)
mit
und
SSE = SSE(O)
abgetragen; f ü r die zugehörigen Bestimmtheitsmaße B(k) e r h ä l t man B(k) = 1 - Q ( k ) ( 1 - B ) = 1 - Q ( k ) - U
mit
B(0)=B
so daß Q(k) auch den Quotienten der Unbestimmtheitsmaße angibt Ofkl Qlk) _ 1 -pBr (gk ) _ U (gk-) Eine grobe Faustregel
.
i s t , daß s i c h die ß(k) a l s Schätzer f ü r β verwenden
lassen (unter Angabe der zugehörigen Bestimmtheitsmaße), solange Q(k)_< 1.1 g i l t , d.h. solange die zugehörige Fehlerquadratsumme SSE(k) bzw. die entsprechende Unbestimmtheit U(k) um höchstens 10% größer i s t a l s SSE bzw. U. Diese Faustregel s c h l i e ß t i n d i v i d u e l l e Vorgehensweisen n a t ü r l i c h nicht aus. Zur übeApA.ü^ung
zineA
R&g/i 3
ist (Faustregel). Schließlich kann überprüft
werden, ob einer gestellten Normal Verteilungsannahme offensichtlich etwas entgegenspricht. Hier lassen sich auf die e " o r m (i=1
n), die unter
Gültigkeit der Normal Verteilungsannahme als approximativ
N(0;1)-verteilt
angesehen werden können und deren Korrelationen in der Regel wenig Einfluß haben, vgl. Seber ( 1977), Verfahren zur Prüfung auf Standardnormal Verteilung anwenden, z.B. der Kolmogoroff - Smirnov - , der χ 2 - Anpassungstest oder das Einzeichnen in Wahrscheinlichkeitspapier, vgl. Härtung et al. (1982, Kap.IV). Alternativ zum Uakuck&^ntichkeXtißip-iz/L
läßt sich der
Q-Q-Plot,
vgl. Kap.IX und X, anwenden; allerdings trägt man hier im univariaten Fall in einem Koordinatensystem direkt die geordneten normierten Residuen inorm ~norm ~norm e ( 1 ) — (2) ± " - ± e ( n ) gegen die i/(n+1) - Quantile
u
- j / ( n + u der Standardnormal Verteilung ab, die
im Anhang vertafelt sind. Die Punkte ( u -j/( n+ i) » e " " ™ ) sollten dann praktisch auf der Geraden durch den Punkt (0,0) mit Steigung 1 (Winkelhalbierende) liegen. Größere Abweichungen von dieser Geraden deuten auf eine Ve.lZ&tzu.ng
d f i HonmatveAteAZangiannahmi
hin, allerdings kann eine in etwa
konstante Drehung der Punkte - 'Geraden' nach rechts auch dadurch entstehen, 2 daß n - h - 1 zu klein ist; s sollte dann durch SSE/(n-1) oder SSE/n ersetzt werden. Liegt ein Punkt im Q - Q - P l o t sehr weit weg von den übrigen, so deutet dies zusätzlich noch auf einen ΑιαΛζίββΛ oder eine Beobachtung
hin.
Natürlich bietet die Residualanalyse noch viele weitere Möglichkeiten; man kann etwa die Residuen auch gegen einen V>uXthaktoK oder einen der Regressoren abtragen. Sind die Daten z.B. nicht gleichzeitig sondern zeitabhängig erhoben worden, so kann als Drittfaktor die Zeit gewählt werden und am Residual plot läßt sich ablesen, ob systematische Abhängigkeiten von der Zeit vorhanden sind; ist dies der Fall, so ist vielleicht eher ein Modell mit koumZJ-zntzn ΐzhlifw angebracht.
Kapitel II: Die Regressionsanalyse
BeÄAp-ieZ: Ausgehend von η = 10 Beobachtungen
soll
plen Regressionsmodell der E i n f l u ß d r e i e r Regressoren
X ^ X g . X j (z.B.
91
in einem m u l t i -
G i f t e ) auf einen Regressanden y (z.B. Lebensdauer nach Giftgabe)
h=3
untersucht
werden. D.h. wir betrachten die Regressionsfunktion U ' ß o + Β,Χ, + ß 2 x 2
+ ß
3*3
und das zugehörige Modell = ß
o
+ ß
1Xi1
+ ß
2xi2
+ ß
3xi3
wobei die Beobachtungsfehler e^
+ e
i
für 1 = 1,...,10
,
e ^ a l s voneinander unabhängig mit E r -
wartungswert 0 und Varianz σ 2 sowie (im F a l l e von T e s t s , Konfidenz- und Prognoseintervallen) normal v e r t e i l t angenommen werden. In der Cab.l s i n d f ü r i = 1 , . . . , 1 0 die Beobachtungswerte y ^ , die zugehörigen Werte x-j ι * x i 2 * x i 3
cler
Regressoren sowie e i n i g e e r s t später bestimmte Größen
angegeben. i a b . l : Beobachtete Werte y^, Werte der Regressoren x - j ι ' x - j 2 , x i 3 ' Modellprognosen y·,Residuen e. und normierte Residuen £ " o r m f ü r i = 1 , . . . , 1 0 im J i ι ι B e i s p i e l zur multiplen Regression i 1 2
3 4 5 6 7 8 9 10
y
i
24 28 25 13 27 14 15 32 14 28
X
i1
31 3 7 29 27 18 28 17 8 12
x
i 2
x
4 6 5 3 5 3 3 6 4 5
i3 22 29 23 15 28 12 14 33 16 24
29 2 6 30 26 19 25 20 6 13
h
e. = y . - y . 1
17467 14899 34740 35956 11520 73727 56541 04221 69170 81723
1 -1 1 -2 -1 1 0 -1 -2 3
82533 14899 65260 35956 11520 26273 43459 04221 69170 18277
~norm e i 0.76189 -0.47959 0.68979 -0.98487 -0.46548 0.52706 0.18140 -0.43502 -1.12351 1.32848
Aus der Tab.1 e r g i b t s i c h dann zunächst unser Modell in Matrixschreibweise (yr
X=
31 3 7 29 27 18 28 17 8 12
"1'
·*10 4 6 5 3 5 3 3 6 4 5
29' 2 6 30 26 19 25 20 6 13
und
β=
'' 'en
92
Kapitel II: Die Regressionsanalyse
und σ 2 des Modells ichätzw;
Wir wollen nun zunächst die Parameter
hier
erhalten wir wegen 180 4194 731 4105
10 180 X X = 44 176 T
C=
o1
C
o1
C
02
c
o3
c
00
c
44 731 206 719
220' yT _ 3773 * y - 1038 3723
176' 4105 719 » 4048
o2
c
11
C
12
C
13
12
c
22
C
23
13
c
23
c
33
und
o3 (X T X)
-1
-385552 87158 60646 -82394
9873050 1 -385552 2246148" -1597232 245416
-1597232 60646 287126 -43054
245416 -82394 -43054 81086
zunächst T
T
1
T
ß = ( ß 0 , § 1 , ß 2 , ß 3 ) = (X X)" X y =
-11.95814 0.09945 6.75515 0.13894
als Schätzung für ß. Die resultierenden Modell - Prognosen -11.95814 + 0.09945/^ + 6.75515x i 2 + 0.13894x i 4
yι
sowie die Residuen e
y
ι
-y.
i
sind für i = 1
10 bereits in der Tab.1 angegeben, so daß wir nun den
Schätzer für σ
2
berechnen können:
(y
i-yi)2
=
1 10-3-1
10
Σ
i=1
e? =1-34.43912 = 5.73985 l b
Hierzu erhalten wir nun sofort das Bestimmtheitsmaß B, das Unbestimmtheitsmaß U und das adjustierte Bestimmtheitsmaß F der Regression. Mit 1 n
n
l i=1
1
1 =1TU V 2 2 0
10 = 22
-
d
-h·
l ( y1| - y ) i=1
9
=468
ergibt sich Β = 1 - Σ° i=1
Λ /
i=1
(yry)2
Β = 1 " T I R F T (1 " ß ) = 1
1
= 1
-341r912 4bö
= 0
·92641
> U = 1-B= 0.07359,
= 1 - ^ ' 0 . 0 7 3 5 9 = 0.87735
;
das (adjustierte) Bestimmtheitsmaß der Regression von y auf Χ.,Χ,,,Χ, ist
93
Kapitel II: Die Regressionsanalyse
h i e r a l s o sehr hoch. Bevor w i r uns mit der Prognose z u k ü n f t i g e r Beobachtungen, mit B e r e i c h s s c h ä t zungen und Tests b e s c h ä f t i g e n , wollen w i r unser Regressionsmodell
mittels
R e s i d u a l a n a l y s e überprüfen. Dazu s i n d in den A b b . 1 - 3 d i e KuldaaZploti
der
beobachteten Werte y^ gegen die b e r e i t s geschätzten Werte y^ und der n o r mierten Residuen e " o r m = e^/s , d i e b e r e i t s in Tab.1 mitangegeben s i n d , g e gen y.j sowie der Q - Q - P l o t der geordneten, normierten Residuen e " ° j m gegen die Q u a n t i l e
u
i/(n+i)
= u
-j/i 1 der S t a n d a r d n o r m a l v e r t e i l u n g , v g l . auch C a b . 2 ,
dargestellt. l a b . 2 : Geordnete, normierte Residuen e " ° ) m > v g l . auch Tab.1, und Q u a n t i l e u · , . . der Standardnormal V e r t e i l u n g f ü r i = 1
i
^norrn e (i)
1 2 3 4 5
-1.12351 -0.98487 -0.47959 -0.46548 -0.43502
u
i/11
-1.34 -0.91 -0.605 -0.35 -0.115
i
ftnorm β
6 7 8 9 10
0.18140 0.52706 0.68979 0.76189 1.32848
(ΐ)
u
10
i/11
0.115 0.35 0.605 0.91 1.34
Keine der d r e i Abbildungen g i b t Anlaß zu s t a r k e n Bedenken gegen die Modellannahmen. Wir gehen nun auf d i e Piognoiz
z u k ü n f t i g e r Werte des Regressanden e i n und
wollen h i e r einmal die folgenden Werte der Regressoren b e t r a c h t e n : X | , = 25, x 2 * = 4 . 5 , X j * = 2 3 , d . h . x * = ( 1 ,25 , 4 . 5 , 2 3 ) T . Es e r g i b t s i c h dann zunächst a l s Prognosewert f ü r d i e z u k ü n f t i g e Beobachtung y * = x*ß + ε * y * = x*ß = -11.95814 + 25-0.09945 + 4.5*6.75515 + 23-0.13894 = 24.122 Nun s o l l e n noch ( i n d i v i d u e l l e und simultane) K o n f i d e n z - und P r o g n o s e i n t e r v a l l e zum 95% Niveau f ü r y * bestimmt werden. M i t x * C x * = 0.29923 e r g i b t s i c h zunächst das i n d i v i d u e l l e K o n f i d e n z i n t e r v a l l
f ü r E ( y * ) mit
den Grenzen xlß ±
t
= 24.122
n-h-1;1-Y/2±
v
^^
t10.3_1;1_0_05/2.^
= 24.122 * t 6 . 0
975·νΓΓΓ7Τ75
= 24.122 ± 3.207
5.73985-0.29923 = 24.122 ± 2 . 4 4 7 - \ / 1 . 7 1 7 5
94
Kapitel II: Die Regressionsanalyse
Abb.2: Residualplot von e " o r m gegen y^ für i=1
10 im Beispiel
Kapitel II: Die Regressionsanalyse
Abb.3: Q - Q - P l o t von
gegen u ^ ^
für i=1
10 im Beispiel
d.h. das individuelle 95% Konfidenzintervall für den Erwartungswert von y* ist [20.915,27.329], und das individuelle 95% Prognoseintervall für y* selbst besitzt die Grenzen xlß *
V h - l i H / 2 ' ^ ^ '
= 24. 122 ± 2.447-v/ 5.73985*1.29923
= 24.122 ± 6.682
d.h. es ist gegeben als [17.44,30.804]. Ist man nicht nur am speziellen y* interessiert, sondern an allen möglichen zukünftigen Beobachtungen gleichzeitig, so bestimmt man simultane
Intervalle zum Niveau 95%. Für unser spe-
zielles y* ergibt sich das simultane 95% Konfidenzintervall
für E(y*) zu
[18.541,29.703], denn xT*ß - / ( h + 1 ) s ^ C x , . F h + 1 > n . h . l ; l . Y = xlB ± = 24. 122 ± und das simultane 95% denn
AsZxiCx,.F4f6;0i95
4-5.73985-0.29923-4.534 = 24.122 ± 5.581
,
Prognoseintervall für y* selbst zu [12.492,35.752],
95
96
Kapitel II: Die Regressionsanalyse
± y (h+Dsz(x2cx* = 24.122 ±
+
i).Fht1>n_h.1;1-Y
4-5.73985-1.29923-4.534 =24.122 ± 11.630
.
Die Konfidenz- und Prognoseintervalle sind hier recht b r e i t , was zum einen bedingt i s t durch die im Verhältnis zur Parameteranzahl geringe Beobachtungsanzahl und zum anderen am r e l a t i v hoch gewählten Niveau von 95% der Intervalle l i e g t ; insbesondere bei den Prognoseintervallen i s t man oft schon mit sehr viel geringeren Niveaus zufrieden. Betrachten wir nun Kon6-idznzbiAej.chz
(zum 95% Niveau) für die PammeXeA ßj
(j=0,1,2,3) unseres Regressionsmodells. Wir können hier zunächst einmal die individuellen 95% Konfidenzintervalle mit den Grenzen (für j = 0 , . . . , 3 ) * Vh-i;i-r/2-^jj
= e
j
*
= 3j ± 2.447·^ 5.73985cjj
^ o . g y s ' ^ j j
,
simultane 95% Konfidenzintervalle für β ^ . , . , β ^ mit den Grenzen (für j=0,...,3)
= ßj ± V 2-5.73985Cjj-4.534 oder z.B. auch simultane 95% Konfidenzintervalle für je zwei der Parameter ß 0 ,...,ß.j bestimmen; für das Paar ß 0 »ß 2 setzt man z.B. L = (£ ^ »Ä.^) mit = (1,0,0,0) T , J>2 = (0,0,1,0) T und als Rang der Matrix L ergibt sich der Wert d = 2. Die Grenzen dieser Konfidenzintervalle ergeben sich dann für j = 0 , . . . ,3 zu * ^dsVFd.n-h-1;1-Y
h
= S
j
1
^2sSj'F2.6;0.95
= ßj ± V 2-b.73985Cjj-b.143 Zu all diesen Konfidenzintervallen vgl. man die Cab.3, aus der sich etwa ablesen l ä ß t , daß das individuelle Konfidenzintervall für ß^ folgende Ges t a l t besitzt [ß 3 - 1.11388 , ß 3 + 1.11388] =[-0.97494,1.25282]
Man sieht, daß die individuellen Konfidenzintervalle am schmälsten und die simultanen Konfidenzintervalle (für a l l e 4 Parameter g l e i c h z e i t i g ) am breitesten sind.
Kapitel II: Die Regressionsanalyse
97
Cab.3: I n d i v i d u e l l e K o n f i d e n z i n t e r v a l l e f ü r β ^ . , . , β ^ , simultane Konfidenzi n t e r v a l l e f ü r ßQ der
ßg
Parameter ßj
1
ß2
-11.95814
0.09945
6.75515
O.13894
9873050
87158
287126
81086
±12.29110
±1.15483
±2.09605
±1.11388
±21.39082
±2.00981
± 3 . 6 4 786
±1.93854
±16.10942
±1.51359
±2.74720
±1.45991
e
Schätzung ß^ 2246148·Cjj indiv.
/4S
ß
o
®3
Konf.-Int.
simult. ±
simultane K o n f i d e n z i n t e r v a l l e f ü r je zwei
Parameter β . . . . . ß ^ (simultane Paare) zum 95% Niveau
Konf.-Int. 2
C..-F
4 ( 6 ; 0 9 5
simultane Paare *
^ S j ' ^ e . - o . g s
Wir wollen nun noch die zweidimensionalen K o n f i d e n z e l l i p s e n zum 95% Niveau f ü r a l l e sechs Paare von je zwei Parametern sowie das 95% K o n f i d e n z e l 1 i p s o i d für d i e Parameter ß 1 , ß 2 und ß 3 bestimmen. Für den Vektor L T ß = ( ß r ß 2 ) T mit L = 0
1 0
0
d.h.
0 0 1 0
(LT(XTX)"1L)"1
-1
c
oo
c
o1
c
o1
C
11
30.21107 -6.38110
-6.38110 9.17067
e r g i b t s i c h z.B. wegen d = rg L = 2 b1-ßl E
L
0.95< >=
1
CN CO
in γ
Ο CN
>1
CD r-
y
rH CN
>1
ro CN
CN
CN CN
CN TH
V0 CN
ro r-»
r
ΓCN
Ο CN
m CN
ο CN
>X ro
σ ο
00 iX
ro m
CO
ο
\D
Ο
ro y
m
»H CN
m
σ\
*~H
ο CN
TJ>1 .
«XI «-Η
σ ro
CN CO ro CN
m CN . II CO >1
m
CN
KD
KD
ΓCN II in >1
in ro
m
CN
τ—ί ro
ro CN
ro CN
ro CN
ro CN
CN
m CN
un
CN CO
en
KD
Ο
σ>
Ο CN
>1
σ> 00 ro
00 1
m
CN vo σ> CN ro CN
I
J,
ro
1
Ο
LT) in r-
CN σ CO CN ω
v£>
KD
LO
ro
σι σι ο
ο τ CN
ο
ο
CO un σ
VO CO r-* ro
»-H
CN
I
m ro rCN ro
,
in cn m CO
KD
in CN
I
m
KD
vX)
KD
m
+
CSJ CNJ X Χ CNJ CNJ ca ca
+
CO Γ» kD in
^
1
1
KD
σ>
•*-«
I
«-Η 1
•P S2
ο ro CO CN in
ΓΟΟ CO CO
CN 1
CN CN
rLO
LO
Cü.
CN CN
Ο CN
ο
CM ca
m CN
ro ro
^
ro
ro CN
>X CN
CN ro
m
>
^
ιΧ
ro m
CN
LT)
CN
0> ο
ο
P-
>
CN r-
CN
KD
^
σ> ro
σ>
KD
CO
CO
KD
lea
φ +-> η - 4Λ Ο. Φ •ι- -Μ •Ρ i/i 3 ε CO
ca
-Ρ Φ 00 J 3 φ υ c a co
ro
^
S
ο
σ
σ CO
CO ο
ο
ο ι
ο
ο in CN
σ> «-Η
^
σ
KD
σ
m τ ο ^Γ
CM CN CN
KD
ο
ο
KD
ro
in ro
Ο
m
CN in
U-) ο CO
w iX rCD
ο I
ο
ro
KD ω
σ CO CO
Ο
KD
σι
σι ΓCN
ο
ο
Ο
ιη IX ro
τ ο
Ο
ο
Ο
ο
ο
ο
ο
CN
CM CNJ X Χ CM CM ca ca
+
+
X
Χ
ca
ca
+
KD
σ
ro CN CN
ο
Ο
KD
ro 'sT
ro ro Χ X co ro ca ca
+
φ
σι Γ-
CN ro σι CO
ro X ro ca
φ φ . Ε -Ρ -Ρ Sε φ ε 3
Λ
in ro r-
Ο τ-
Φ φ c a er: fÖ ε sΦ •ρ - σ
Ζ3 -α
σ
+
ο ο ca ca II II srj Πϊ
+
ro Χ ro
+
CNJ X CM ca
CM X CM ca
+
Χ
+
+
χ
ca ca II
¥
ο
ca
+
ο ο ο ca ca ca II II II 7Si 3Ϊ
ca
Ο
II ni
107
Kapitel II: Die Regressionsanalyse
der Schätzungen im Ausgangsmodell, so zeigt sich, daß der
'Grad' der Ver-
änderungen der Schätzungen in den verschiedenen Modellen sehr stark von diesen Größen abhängig ist.
lab.7: Korrelationen und Varianzen der Parameterschätzungen
Corr(ßj,β^,) j
j'
1
2
3
VartßjVa2
-0.41563
-0.94865 0.38336
0.27429 -0.98010 -0.28217
4.39555 0.03880 0.12783 0.03610
\
0 1 2 3
im Ausgangsmodell
Die Varianz der Schätzungen im Ausgangsmodell
bestimmt die Stärke der Ver-
änderungen in den Schätzungen, d.h. ist die Varianz von ßj im Ausgangsmodell
"groß", so sind die Veränderungen der Schätzungen für ß^ in den Reduk-
tionsmodellen "groß" (s. ß Q ) , ist sie "klein", so sind nur "geringe" Veränderungen möglich. gangsmodell dell
Ist die Korrelation zweier Schätzungen 3j»ßji im Aus-
"hoch", so verändert sich die Schätzung in einem Reduktionsmo-
(bei einer wechselseitigen Elimination) für mindestens einen dieser
Parameter sehr stark (im Rahmen, der durch die Varianz der jeweiligen Schätzung vorgegeben ist), wenn der jeweils andere Parameter bzw. der zugehörige Regressor eliminiert w i r d , und dies umso mehr, je stärker die "Korrelationen" zum Regressanden sind. Ist dagegen die Korrelation
"gering",
so beeinflußt die Elimination des einen Regressors die Schätzung für den anderen Parameter kaum. Eine entsprechende Aussage läßt sich auch anhand der "Korrelationen" der Regressoren untereinander bzw. zwischen
Regressoren
und Regressand ableiten, vgl. C a b . 8 , wo diese "Korrelationen" für unser Beispiel
zu finden sind; es ergibt sich z.B. dort 10
r
U , X
= C 2
°rr(ü'K2)
=
i
/
U^
_ ?V
10
^(yi-y)(x2i-x2)/y'(iIi(yi-y)2)(ji(x2i-x2)2)
= 0.91889 lab.8: "Korrelationen" zwischen Regressoren und Daten aus Tab.l
r
y.x.
-0.27986
r
y>x2
0.91889
r
y,x3
-0.22341
r
x
1
X
Regressand anhand der
ρ 2
-0.56085
Γ χ
ΐ,X3
0.98404
X
2'X3
-0.51032
108
Kapitel II: Die Regressionsanalyse
Diese Tabelle liefert zusätzlich eine Erklärung dafür, daß bei
Berücksich-
tigung des Regressors f.^ der Beitrag von X^ und X^ zur Erklärung des Regressanden y zum 5% Niveau vernachlässigbar ist: Die "Korrelation"
zwischen
y und Xg ist sehr hoch, wohingegen die beiden anderen Regressoren, die zudem sehr stark miteinander "korrelieren", nur schwach m i t dem Regressanden "korreliert"
sind.
Es sei hier noch auf eine weitere Auffälligkeit hingewiesen.
Betrachtet
man in der Tab.6 die Bestimmtheitsmaße genauer, so fällt auf, daß die Summe einzelner Bestimmtheitsmaße stets kleiner ist als das
Bestimmtheitsmaß
des Modells, in dem die betreffenden Regressoren gemeinsam betrachtet werden. Beispielsweise ist B.t , + B„ , = 0.07832 + 0.04991 = 0.12823 kleiner als y»ι By
y »J
2 ^ = 0.16365; dies ist umso erstaunlicher, weil die Regressoren X^ und
X, „ = 0.98404, vgl. Tab.8). j sehr stark positiv korreliert sind (r„ *1 '*3 Wir wollen nun noch einmal auf die R e . g i e . a - L o i u g e A a d i a = ß0 + ß2x2 zurückkommen. Als Schätzung für sie hatten wir anhand der Daten aus Tab.1 y = -2.83871 + 5.64516x 2 bestimmt, d.h. der Prognosewert für eine zukünftige Beobachtung y * berechΔυ tri einer ι c χ~* zu net sich an einer jici Stelle
y * = -2.83871 + 5.64516x
2*
Stellt man nun für beliebige Werte x^*, was natürlich nur für solche Werte x 2 * sinnvoll
ist, die im durch die Beobachtungen
vertretbaren Bereich lie-
gen, die zugehörigen Prognosen y * graphisch dar, so ergibt sich eine Gerade mit Achsenabschnitt -2.83871 und Steigung 5.64516. Diese Regressionsgerade ist in der Abh.ll, in der auch die 10 konkreten Beobachtungen tragen sind, zu finden. Berechnet man zudem an jeder Stelle
einge-
individuelle
sowie simultane Konfidenz- und Prognoseintervalle für den Erwartungswert y^ bzw. für y ^ selbst, so ergeben sich K.on{,lde.nzd-iz
RegACAiZon&goAadz.
und
PnognoieAt>iZA.(,e.n
von ^ΰΛ
Die vier verschiedenen Streifen (zum 95% Niveau)
sind ebenfalls in der Abb.11 eingetragen. Die Grenzen dieser Streifen berechnen sich unter Verwendung der Prognosewerte y* = y*(x2*)
zu
x
2*
folgt. An jeder Stelle Xg* ergeben sich mit der Schätzung s^ = 9 . 1 0 4 8 4 σ2
(vgl. auch Tab.6), der Matrix
und mit x* = ( 1 , x ? * ) T , d.h.
für
109
Kapitel II: Die Regressionsanalyse
X
*C2X*
=
Τ2Γ(206 "
88x
2*
+ 10χ
2*>
die Grenzen des i n d i v i d u e l l e n 95% K o n f i d e n z i n t e r v a l l s f ü r E ( y J = E ( y * ( x 2 * ) ) zu y*(x2*)
±
91(x2*)
=
y*(x2*'
±
t
n-h-1:1-y/2'v^x^2x*
= y*(x2») ± t 8 ; 0 i 9 7 5 V s 2 x l c 2 x * = y*(x2*)
±
2 - 3 0 6 · / 9 . 1 0 4 8 4 · ( 2 0 6 - 8 8 x 2 * + 10x|*)/124
,
die Grenzen des simultanen 95% K o n f i d e n z i n t e r v a l l s zu
y*U2*)
± 92(x2*) =y*(x2*)
± /2s2xIc2x*-f2)8;o.95
= y * ( x 2 * ) ± / 2 - 9 . 1 0 4 8 4 - ( 2 0 6 - 8 8 x 2 * + 10x|*) ·4.459/124
,
die Grenzen des i n d i v i d u e l l e n 95% P r o g n o s e i n t e r v a l l s für y * s e l b s t zu y*(x2*) * g3(x2*) =y*(x2*)
±
^o^s'^
s Z
(
x
*
c
2
x
*
+
= y * ( x 2 * ) ± 2.306·\/9.10484·(206 - 8 8 x 2 , + t0x|* + 124)/124 und die Grenzen des simultanen 95% P r o g n o s e i n t e r v a l l s zu y*(x2J
± g4(x2*) =y*(x2*) ± /2s2(x*c2x* + D * f 2 j 8 . 0 - 9 5
= y * ( x 2 * ) ± /2·9.10484·(206 - 88x2* + 10χ2*+124)·4.459/124
;
für e i n i g e Werte x 2 * s i n d diese I n t e r v a l l e in Cab.9 zusammengestellt. Aus Tab.9 und Abb.11 entnimmt man, daß der i n d i v i d u e l l e
Konfidenzstreifen
s t e t s am schmälsten und der simultane Prognosestreifen s t e t s am breitesten i s t . Der i n d i v i d u e l l e Prognosestreifen i s t im Zentralbereich ( i n der Nähe von ( x 2 , y ) = (4.40,22.00) etwas b r e i t e r a l s der simultane Konfidenzstreifen und sonst etwas schmaler. A l l e v i e r S t r e i f e n s i n d an der S t e l l e (x" 2 ,y) am schmälsten und werden, je weiter man s i c h von diesem Punkt e n t f e r n t , b r e i ter.
Wir kommen nun noch einmal auf unser U = ß0
+
ß1xl+ß2x2
+
AuigangimodeZl
g3x3
zurück und wollen dort einmal eine Ridgi - Reg^eM-ion wollen die Parameter ß. für j=0
3 als
durchführen, d.h. wir
110
Kapitel II: Die Regressionsanalyse
Abb.11: Beobachtete Werte y ^ - . - . y ^ , Regressionsgerade y=-2.83871+5.64516x 2 , individueller 95% Konfidenzstreifen (Grenzen A), individueller 95% Prognosestreifen (Grenzen ß), simultaner 95% Konfidenzstreifen (Grenzen C) und simultaner 95% Prognosestreifen (Grenzen D) für die Regressionsgerade
Kapitel II: Die Regressionsanalyse
111
l a b . 9 : Prognosewerte y * ( x 2 * ) und Grenzen der i n d i v i d u e l l e n und simultanen Konfidenz- und Prognose I n t e r v a l l e zum 95% Niveau an e i n i g e n S t e l l e n
X
2 2 2 2 3 3 3 4 4 4 4 4 5 5 5 5 6 6 6 6 7
2*
y* (y
00 25 50 75 00 25 75 00 25 40 50 75 OO 25 50 75 OO 25 50 75 OO
8 9 11 12 14 15 18 19 21 22 22 23 25 26 28 29 31 32 33 35 36
Konfidenzinterval1
Prognoseintervall
1 individuell 11 88335 10 87505 9 89147 8 94076 8 03461 7 18988 5 79123 5 31440 5 04668 5.00150 5 02163 5 24274 5 68133 6 29209 7 03028 7 86010 8 75551 9 69838 10 67613 11 68002 12 70383
45161 86290 27419 68548 09677 50806 33064 74193 15322 OOOOO 56451 97580 38709 79838 20967 62096 03225 44354 85483 26612 67741
ß(k) = (X T X
simultan 92(χ2*) 15 14 12 11 10 9 7 6 6 6 6 6 7 8 9 10 11 12 13 15 16
individuell 93(Χ2*)
38910 08334 80959 57841 40493 31100 49972 88222 53552 47702 50308 78942 35740 14834 104 32 17893 33851 55954 82574 12578 45164
13 12 12 11 10 10 9 8 8 8 8 8 8 9 9 10 11 11 12 13 14
77063 91057 09369 32932 62879 00553 05287 75551 59565 56920 58097 71220 98297 38118 89147 49749 18370 93628 74347 59555 48460
simultan 94(V) 17 16 15 14 13 12 11 11 11 11 11 12 11 12 12 13 14 15 16 17 18
83315 71937 66150 67162 76443 95730 72360 33851 13148 09724 11247 28246 63307 14876 80959 59440 48305 45765 50297 6064 3 75776
k.I,)"1XTy
+
schätzen, wobei k^>0 i s t . Betrachten wir einmal den Fall k = 0.1 genauer. Hier e r g i b t
sich
ß(0.1) =
10.1 180.0 44.0 176.0
180.0 4194.1 731.0 4105.0
44.0 731.0 206.1 719.0
176.0 4105.0 719.0 4048.1
-1, f 220 3773 1038 3723
9950416.00 -386661.40 -1607685.20 245027.80 -386661.40 119856.14 59940.39 -115376.15 1 59940.39 301741.60 -44478.89 3286893.6' -1607685.20 -44478.89 115056.80 245027.80 -115376.15
220 3773 1038 3723
: (-8.00777,-0.05342,6.10827,0.23709) T so daß wir 10
SSE( 0.1) =
yyi-6o(0.1)-B1(0.1)x1i-ß2(0.1)x2i-ß3(0.1)x3i)i
=37.99418
112
Kapitel II: Die Regressionsanalyse
und mit SSE = SSE(O) = 34.43912 weiterhin Q(0.1) =SSE(0.1)/SSE = 1.10323 erhalten. Damit i s t dann das Bestimmtheitsmaß an der Stelle k = 0.1 wegen Β = B(0) = 0.92641 B(0.1) = 1 - Q(0.1)(1 - B ) = 0.91881 Das Unbestimmtheitsmaß U{0.1) = 1 - B(0.1) =0.08119 i s t also um 10.323% höher a l s U = U(0) = 0.07359. In der Cab.10 sind für einige Werte des Quotienten Q(k) der Wert k sowie die zugehörigen Schätzer ß Q ( k ) . . .ß^ik), die Bestimmtheitsmaße B(k) und die Fehler - Quadratsummen SSE(k) angegeben; in der Abb.12 i s t die R-cdgeTnace. für den Bereich zwischen k = 0 und k = 1 auch graphisch dargestellt. Man s i e h t , daß mit wachsendem k die Schätzung für ß Q (k) ansteigt, die für ß^(k) und ßgik) nahezu konstant bleibt (bei der Schätzung für
tritt
dabei allerdings ein Vorzeichenwechsel auf, vgl. Tab.10) und die Schätzung für ß 2 (k) leicht f ä l l t . Iab.10: Werte k, zugehörige Schätzungen ß j ( k ) , j = 0 , . . . , 3 , Bestimmtheitsmaße B(k) und Quadratsummen SSE(k) für einige Quotienten Q(k) im Beispiel zur Ridge - Regression Q(k)
1 000
1 025
1 050
1 100
1 150
1 200
k
0 000
0 040
0 061
0 098
0 133
0 169
-11 958
- 1 1 733
-9 215
-8 062
-7 193
-6 462
0 099
0 091
-0 007
-0 051
-0 085
-0 112
ß 2 (k)
6 755
6 718
6 307
6 117
5 974
5 854
ß 3 (k)
0 139
0 145
0 207
0 236
0 257
0 275
B(k)
0 926
0 926
0 923
0 919
0 915
0 912
34 439
35 300
36 161
37 883
39 605
41 327
ß 0 (k)
SSE(k)
Insgesamt läßt sich sagen, daß in unserem Beispiel die Bestimmung der Parameterschätzungen recht stabil i s t . Daß eine Ridge-Trace auch ein ganz anderes Aussehen haben kann, zeigt sich im folgenden modH-izlvitzn BeX6pie£, wenn man von den bisherigen Regressoren Χ^,.,.,Κ^ zu den logarithmierten Größen übergeht und das Modell a = ß^ + β^·1η χ 1 + β£·1η χ 2 + β^·1η x 3
Kapitel II: Die Regressionsanalyse
JA)
SSE(k)/10
/ W
0.1
— "I 0.Z |
| 0.3
113
Q(k) 0.4
0.5
I I n I I I I I I II 11 I I I I I I I I I I I I I I I I I I I I Μ I H ΓΤΤ O.e 0.7 0.Θ 0.9 1.0
—
-4
i
w
- 8 -
-13·
/
Abb.12: R i d g e - T r a c e für das Regressionsbeispiel
betrachtet. Mit den Werten x^. (i = 1
(Daten aus Tab.1)
10, j=1,2,3) aus Tab.1 und den
(neuen) Beobachtungswerten z 1 =4.30407, z 2 =4.41884, z 3 = 4.33073, z 4 = 3.66356, z g = 4 . 3 9 4 4 5 , z ß = 3.76120, z ? = 3.80666, z g = 4.56435, z g = 3.73767, z 1 Q =4.45435
0.4-
« k )
ί^Ο.038) = 1.1
0.3-
0.2-
O.L-
SSE(k)/10_ 0.00.1
0.2
HJiU-F.·.·! ι | • ι Μ . I II I 0.4 0.5 0.6 0.7
0.8
O.ß
-0.1-
Abb.13: Ridge - Trace für das modifizierte Regressionsbeispiel
1.0
ψ
114
Kapitel II: Die Regressionsanalyse
für den Regressanden 2 ergibt sich die in Abb.13 dargestellte Ridge-Trace, wobei a l l e r d i n g s nur die Schätzungen für ß.j(k) und ßj(k) sowie die Fehlerquadratsummen SSE(k) abgetragen sind. Die Schätzung für ß.j(k) i s t für k = 0 schwach negativ und s t e i g t dann recht schnell an, wohingegen die Schätzung
u
für ßj(k) zunächst recht stark p o s i t i v i s t , dann negativ wird, um s c h l i e ß l i e h wieder anzusteigen.
Es sei hier noch erwähnt, daß s i c h nichtlineare ( i n den Parametern) Regressionsfunktionen häufig durch eine Tnam^oHmation iunktLonzn duktioni
In LLnejvie.
Rcgieii-iom-
überführen lassen. Betrachtet man etwa eine Cobb - Vouglm
Funktion
.a = eΛ
- ?io-
der A r t
. h •••••X A •x 1 h
so gelangt man vermittels der Transformation S = l n ä = ß 0 + ß 1 - l n χ, + . . . 4 ß h - l n x h = ß o + ß l X l + . . . + ß h * h mit X j = l n Xj für j = 1 , . . . , h zu einer linearen Regressionsfunktion, die sich mit den hier dargestellten Methoden behandeln läßt. Als Linearform der sogenannten V^oduktionieJlMtizitätin
ßj i n t e r e s s i e r t hier insbesondere die Ska-
len e£oi.tiz-6tät z = &] + . . . + ß h
die auch EigizbigkeAMg-tad
, deA Produktion
genannt wird; im Vordergrund steht
hierbei häufig die Frage, ob eine geschätzte S k a l e n e l a s t i z i t ä t ε = β ^ + s i g n i f i k a n t verschieden von 1 i s t , d.h. ob auf einen nicht-optimalen Einsatz der Produktionsfaktoren
geschlossen werden kann. Dies führt zu
einem Test der Hypothese H Q : e = 1 gegen H^: ε ^ 1 bzw. man überprüft, was äquivalent, zum Test i s t , ob das mittels ε konstruierte Konfidenzintervall für ε die 1 enthält oder n i c h t ; vgl. auch die Einleitung zu diesem Kapitel. Bei einer polynomialm
Reg-ΊeAi-ion der Gestalt
B = ß0 + ß1x + ß 2 x 2 + ... + ß h x h gelangt man durch einfache Umbenennung zu einer Regressionsfunktion in der hier betrachteten Form 2 X ~ X,j , X — X 2 , · · ·
h , X
=
Xh
·
Die Auswertung einer multiplen Regressionsanalyse, wie wir s i e hier betrachtet haben, wird natürlich umso kompltxeA je größer die Anzahl h der
Kapitel II: Die Regressionsanalyse
berücksichtigten Regressoren i s t . Um diese Anzahl
zu Kzduzlztim
115
kann man
den oben angegebenen Reduktionstest verwenden; eine andere Möglichkeit besteht d a r i n , m i t t e l s fa.ktoie.n-
odeA Ha.u.ptkompone.ntzna.nalyi&,
die Regressoren auf wenige s i e beschreibende ( ' k ü n s t l i c h e ' )
vgl.
Kap.VIII,
Faktoren zurück-
zuführen und a l s Designmatrix des Regressionsmodel l.s dann die entsprechende Matrix der Faktoren- bzw. Hauptkomponentenwerte zu verwenden; man v g l .
hier-
zu auch Massy (1965), Daling/Tamura (1970), Hawkins (1973). An dieser S t e l l e kommen wir noch einmal auf das Problem der
InAtabilitätzn
( z . B . schlechte Konditionierung von X T X) im Regressionsmodell zurück. Solche I n s t a b i l i t ä t e n entstehen mitunter auch dadurch, daß die Werte des Regressanden und der Regressoren in sehr unterschiedlichen Größenordnungen und Schwankungsbereichen l i e g e n ; h i e r empfiehlt es sich mitunter a l l e Var i a b l e n zu zzn£>ixiLn.m, wie dies zu Beginn des Abschnitts (Schätzen ohne Matrixschreibweise) geschehen i s t , oder zu itandtVidiAlz>im,
d.h. man geht
f ü r j = 1 , . . . ,h von χ • . über zu x ^ = (xH . - 3Γ. )/s . und von y . über zu 1J 1J 1J J J I y i = (y^ - y ) / s y , wobei
S
j
2 sy
J _ 1
1
(
x
i
η
j
'
V w i / i j
„
für j = 1 , . . . , h und
. η
ι (yry> · y=i i =ι1 i=1 1
n
Man e r h ä l t dann n a t ü r l i c h eine Regressionsbeziehung zwischen den standard i s i e r t e n Merkmalen, wobei in der zugehörigen Regressionsfunktion das Abs o l u t g l i e d ßQ e n t f ä l l t , d.h. i n ' d e r ( s t a n d a r d i s i e r t e n ) Designmatrix
ist
die e r s t e Spalte zu streichen: st
st
X 11
···
x 1h
st n1
·•·
st nh
In den angegebenen Formeln für Konfidenz- und Prognoseintervalle sowie Tests i s t dann h+1 durch h zu ersetzen; die Verteilungsannahmen sind dann a l l e r dings v e r l e t z t , was jedoch in der Regel zu keinen wesentlich verfälschten Aussagen f ü h r t . Möchte man sich ausgehend von der Regression f ü r die stand a r d i s i e r t e n Merkmale wieder auf die ursprünglichen Merkmale beziehen, so i s t j e w e i l s zurückzurechnen, d.h. die Transformation rückgängig zu machen; vgl. hierzu auch die B e i s p i e l e im Abschnitt 1.3 des Kap.X. Bzgl. der h i e r behandelten und weiterer Aspekte der Regressionsanalyse, z.B. Regression bei Fehlern in den Regressoren,sei etwa verwiesen auf
116
Kapitel II: Die Regressionsanalyse
Draper/Smith (1981), Schönfeld (1969,1971,1978), Drygas (1970), Schneeweiß (1971,1976), Bamberg/Rauhut (1972), Horst (1975), Chatterjee/Price (1977), Härtung (1977b,1978a ,1978b), Humak (1977), Seber (1977), Krafft (1978), Bamberg/Schittko (1979), Schach/Schäfer (1978), Trenkler (1981), Werner (1981 ,1983), Härtung et al. (1982), Cremers/Fieger (1983a ,1983b), Härtung/ Werner (1983,1984), Trenkler/Trenkler (1984). Für Methoden der sogenannten lobu&ten
R z g n & i i i o n sei hier speziell verwiesen auf Andrews et al. (1972),
Huber (1973,1981), Heiler (1980), Ketellapper/Ronner (1984), und für die Verfahren der Ze^Oiilkimyialyiz, auf die wir aus Platzgründen hier auch nicht eingehen können, weisen wir auf Hannan (1970), Chatfield (1975), Box-Jenkins (1976), Heiler (1981) sowie Kap.XII in der 4. Auflage (1986) von Härtung et al. (1982) hin.
Wir wollen hier nur noch den Fall einer ganz ipezieXZen
X be-
Vu-tgnrnWUx
trachten, nämlich den, daß X gerade die (passend dimensionierte)
Einkziti-
ist. Für eine q - dimensionale Zufallsvariable y mit
mtWUx
E(y) = μ = (μ 1 ,... ,Mq)T betrachtet man dann etwa das Regressionsmodell y = IqM + e = μ + e
mit
E(e) = 0 und Cov(e) = Cov(y) = ί
sowie
y ^ Ν(μ;$)
Sind hier μ und $ unbekannt, so können sie nur dann geschätzt werden, wenn mehrere, sagen wir ν Realisationen von y vorliegen, v > q . Bezeichnen wir die i-te unabhängige Realisation (Wiederholung) von y mit y^ = ( y i 1 , . . . , y i q ) T für i=1
v, so wird μ
geschätzt
durch
μ = (ii1."-'tyT=(v j / i l und eine Schätzung
ν J / l q /
=
(7
1'" '
'
für $ ist gegeben durch, vgl. auch Kap.I, Abschnitt 5.6,
s - ^ l
(Vi-y)(yi-y)T
·
Als individuelles (1-γ) - K o n f j i d m z i n t W J c M für eine Mittel Wertkomponente μj ergibt sich weiter das Intervall mit den Grenzen h
* Vl;1-Y/2^
s
jj/v
»
wobei Sjj das j-te Diagonalelement von S bezeichnet. Verwendet man hier für j=1,...,q als t-Quantil t v _ ^. ^ _ γ /( 2q) * s o A.oninenten
PfUnzip
i-ünultanz
Koni-id&nzlnti^valli
; nach dem sogenannten Union-
ben sich schließlich iinu.lta.ne, Linearkombinationen δ,τμ U
er
hält
man
nac
^
c em
'
Bon&y-
zum Niveau 1-γ für alle KompoTnte/uzction
KonhidmziYvtWjaJULa.
- Pxinzip
erge-
zum Niveau 1-γ für alle
ein beliebiger q - dimensionaler Vektor) aus den
Kapitel II: Die Regressionsanalyse
117
Grenzen
V v(v-q)
q,v-q;1-Y
Wählt man speziell die Komponenten von l gleich 0 bis auf die j-te Komponente (gleich 1), so erhält man auch hieraus simultane (1-γ) - Konfidenzintervalle für die Komponenten μ^ (j=1
q).
Wir sind hier zwangsläufig auf ein muJUlva^UaX.^
ModM
gestoßen, mit dem
wir uns in den folgenden Kapiteln weiter beschäftigen w e r d e n ; beispielsweise werden wir im Kap.IV Tests in diesem mxl£LvaJuate.n phoblm
Einitichpfuibin-
behandeln.
An ν = 8 zufällig aus einem Produktionslos ausgewählten
BeXip-iel:
ken wird deren Länge und Breite gemessen. Die Länge y ^ (q = 2) des i-ten Werkstücks ist für i=1
Werkstük-
und die Breite
y^
,8 in Cab.11 angegeben.
tab.11: Länge y·« und Breite yi9 von ν = 8 Werkstücken aus einem Produktionsi I I 1t los
1
2
3
4
5
6
7
8
17.2
18.0
18.5
17.8
17.6
18.0
18.3
17.4
3.8
3.6
4.2
3.7
3.9
4.1
3.4
3.7
i Länge Breite
y^ yi2
Als Schätzer für den Mittelwertvektor
μ = (μ^^)1»
d.h. für die mittlere
Länge μ^ und die mittlere Breite μ^ der Werkstücke des Produktionsloses ergibt sich hier
ί
- { Ι
j / i 1
'Έ j i y
1 2
)
T
= ( r 1 « . 8 . ^ - 3 0 . 4 ) T = ( 17.85,3.80)T=y
und die Schätzung für die Kovarianzmatrix $ von Länge und Breite der Werkstücke im Produktionslos ist mit y^
= (y.^ •y.jg)1' für i = 1
8 gerade
Wir wollen nun noch individuelle und simultane Konfidenzintervalle zum 95% Niveau für μ^ und
bestimmen. Die Grenzen der individuellen
Konfidenzin-
tervalle ergeben sich zu μ. ± t ,
n
1.36/(7-8) = 17.85 ± 2 . 3 6 5 · ^ 1.36/56 = 15.85 ± 0.37
118
Kapitel II: Die Regressionsanalyse
V2 ± t 7 . 0
975·\/
0.12/(7-8) =3.80 ± 2.365-V 0.48/56 = 3.80 ± 0.22 ,
d.h. [17.48,18.22] i s t ein i n d i v i d u e l l e s 95% K o n f i d e n z i n t e r v a l l
f ü r die
m i t t l e r e Länge der Werkstücke im Produktionslos und [3.58,4.02] i s t ein ebensolches f ü r die B r e i t e . A l s simultane 95% K o n f i d e n z i n t e r v a l l e f ü r μ^ und
ergeben s i c h aus den Grenzen
h
V s S ·
»Z
±
1
·
3 6
' ^ ^ ^
1 7
/^f-°-48'F2,6;0.95=
8 5
· 3
*/Ä-
'80
1
1
-
3 6
-
5
-
1 4 3
= 17
·85
1
°·54'
/ ^ - O ^ - S . 143 = 3.80 ± 0.32
die I n t e r v a l l e [17.31,18.39] f ü r μ, bzw. [3.48,4.12] f ü r μ 2 ·
2 DAS G E M I S C H T E
LINEARE
MODELL
Im Abschnitt 1 haben wir Regressionsmodelle b e t r a c h t e t , in denen nur f e s t e , d.h. n i c h t z u f ä l l i g e Regressions - Parameter (Lineare Modelle mit festen E f fekten) a u f t r e t e n ; bei den Gemc&chtin l i c h zuiULLige.
ilntaum
RzgKtiilonikoiH-Lz-Le.ntin
UodeJLlm
bzw. ζu^älLLge.
werden nun z u s ä t z Edikte,
berücksich-
t i g t , d.h. wir betrachten ein Modell y = Xß + Za + e
,
wobei y einen η - dimensionalen Beobachtungsvektor (bzw. die zugehörige Zuf a l l s v a r i a b l e ) , X die bekannte Designmatrix des unbekannten festen Regress i o n s k o e f f i z i e n t e n - V e k t o r s β, Ζ die bekannte Designmatrix der z u f ä l l i g e n E i n f l ü ß e , die i n einem Vektor a zusammengefaßt s i n d , und e einen z u f ä l l i g e n Restfehlervektor bei der Beobachtung von y bezeichnet. Der Vektor a i s t a l s o hier eine n i c h t ( d i r e k t ) beobachtbare Z u f a l l s v a r i a b l e , von der wir annehmen, daß s i e normal v e r t e i l t i s t mit Erwartungswert 0 und Kovarianzmatrix i L , und e i s t ein von a unabhängiger, normal v e r t e i l t e r Z u f a l l s v e k t o r mit a Erwartungswert 0 und Kovarianzmatrix = a 2 V a und i e
=
Wir gehen h i e r davon a u s , daß
o 2 V g b i s auf den Faktor σ 2 > 0 bekannte Matrizen s i n d , so
daß auch die Kovarianzmatrix von y Cov(y) = ί = σ 2 ν = σ 2 ( Ζ ν 3 Ζ τ + V e ) b i s auf den Faktor σ 2 bekannt
ist.
In solchen Gemischten Linearen Modellen i n t e r e s s i e r t man s i c h dann zunächst f ü r die Schätzung
von β und σ 2 ( f e s t e Parameter) und die Viognoiz
l i s a t i o n e n der Z u f a l l s v e k t o r e n a und e.
der Rea-
Kapitel II: Die Regressionsanalyse
Sind die Matrizen V und XTX invertierbar (.tegaläAen. Fall),
so ergibt s i c h ,
vgl. auch Henderson (1963,1975), Harville (1979) der gewichtete QuacUuite. - Schätze*
(weighted
Lernt
6 = (X T V~ 1 X)~ l X T V" 1 y
- Squanei
- EitUmaton)
119
Kleinste-
f ü r β zu
;
dieser Schätzer ß, der auch Altken - Schätzen,
heißt, i s t der erwartungstreue
Schätzer mit kleinster Varianz für ß. Der Vektor a der zufälligen Effekte bzw. seine Realisation wird prognostiziert bzw. geschätzt durch den erwartungstreuen Schätzer (mit minimaler Varianz für jede Linearform in den Prognosedifferenzen der Art 2,T(a - a)) a =V α Z T V ~ 1 ( y - X ß )
,
und ein entsprechender Schätzer für den Restfehler i s t e = VeV"1(y-Xß)
.
Hat V g eine einfache Gestalt (häufig i s t V g die Einheitsmatrix), so i s t hier die Famei
von ttaodbufiy bei der Inversion der n * n - M a t r i x V nützlich;
f a l l s V und V invertierbar sind, 3g i l t a e v " 1 = V" 1 - V" 1 Z(V~ 1 + ZTV e e a e Im nicht - leguläsien
Fall
z ) ~ 1 z Ve 1
i s t obiges Verfahren nicht mehr anwendbar. Eine
Erweiterung eines Verfahrens (für den regulären F a l l ) von Henderson et a l . (1959), die von Harville (1976) vorgenommen wurde - wir wollen sie hier aus Platzgründen nicht betrachten - , erlaubt für beliebige Matrizen V und X die Schätzung bzw. Prognose von β bzw. a (unter Verwendung einer speziellen generalisierten Inversen, die i . a . nicht die Pseudoinverse i s t ) . V i e l mehr wollen wir hier zwei andere Verfahren vorstellen, die für ß, a und e bei beliebigen V und X Schätzungen bzw. Prognosen l i e f e r n . Zunächst betrachten wir 'explizite'
Schätzungen
(bei Verwendung der Pseudo-
inversen), vgl. Elpelt/Hartung (1983a);man berechnet hier zunächst die Matrix
Q=in-xx+
,
(die gerade die Projektion auf das orthogonale Komplement vom Wertebereich von X i s t ) , wobei X + die Pseudoinverse der Designmatrix X bezeichnet, vgl. Abschnitt 4 in Kap.I. Dann sind die zu obigen Schätzern im regulären Fall analogen Schätzer bzw. Prognosen für ß, a und e gegeben durch
120
Kapitel II: Die Regressionsanalyse
3 = X + y - X + V(QVQ) + y a = Vα Z T (QVQ) + y +
e = V e (QVQ) y
,
, ;
hier sind a und e unverzerrte Schätzer (mit minimaler Varianz in den Prognosedifferenzen) und g i s t ein 'minimalverzerrter r i a n z bzw. e i n s o g e n a n n t e r Gauß - Mankov - Schätzt*.
Schätzer kleinster Va{kleinsten-
Noim).
Im regulären Fall müssten Inverse von Matrizen, die die Dimension η der Daten besitzen, und im Fall obiger ' e x p l i z i t e r ' Schätzungen Pseudoinverse solcher Matrizen bestimmt werden, was leicht zu numerischen Instabilitäten führt; dies läßt sich bei Ausnutzung des folgenden i.nveMj.orui'ieJ.M Verfahrens, vgl. El pelt/Härtung (1983a,1984).vermeiden. I s t (& 0 »ζ 0 ) Τ
elne
Lösung des Gleichungssystems X
V
0
XT
so i s t ß 0 =t> 0 ein (minimal verzerrter Minimum - Varianz - ) Schätzer für ß, und die Schätzungen für a und e lassen sich wie folgt bestimmen: a = V ΖΤζ a ο
,
e=V ζ e ο
.
Es sei noch bemerkt, daß - f a l l s bQ eine Lösungskomponente obigen Systems (das theoretisch mit Wahrscheinlichkeit 1 und bei regulärem V stets lösbar i s t ) i s t - auch 3 dies i s t . Wir b e t r a c h t e n nun d i e Schätzung
du
unbekannten
VaAtanziaktou
a2.
Ausge-
hend von der "Fehlerquadratsumme" SSE = ( y - X g ) V ( y - X ß )
,
für die obiges Gleichungssystem zum inversionsfreien Verfahren die einfachere Darstellung und Berechnung SSE = ^ y erlaubt, wird σ 2 erwartungstreu geschätzt durch s 2 = SSE/n e = ? £y/n e mit n p = r g ( x | V) - rg(X) = tr( [QVQ]+[QVQ]) e
,
wobei rg(A) den Rang (Anzahl der linear unabhängigen Spalten bzw. Zeilen
Kapitel Ii: Die Regressionsanalyse
121
von A) und tr(A) die Spur (Summe der Hauptdiagonal eiemente von A) einer Mat r i x Α bezeichnen, vgl. auch Abschnitt 4 in Kap.I. I s t die Matrix V invertierbar, so ergibt sich natürlich stets rg(X j V) = n, und f a l l s XTX regulär i s t , so g i l t rg(X) = Spaltenzahl von X. Häufig i s t man in dem hier betrachteten Gemischten Linearen Modell an LlmoA^oimm
τ τ τ φ = χ*β + z^a + w e interessiert, φ wird geschätzt
durch
φ = x*ß + z*ä + wTe
,
wobei man anstelle von fä natürlich auch ßQ verwenden kann, und es i s t dann mit c = ( X + ) T x * - [QVQ] + [V(X + ) T x* - ZV a z* - Vew] die Varianz bzw. der Erwartungswert von φ - φ gegeben a l s Var(ip-$) = o 2 ( [ Z T c - z J T V a [ Z T c - z j + [ c -w] T V e [c - w ] ) = σ 2 ν * , Ε(φ - φ) = x*( I - X + X)ß so daß φ eine unveAzeÄnte. x*( I - X + X)ß = 0
,
Schätzung
für φ i s t , f a l l s
,
was wir im folgenden auch annehmen. Wir kommen nun zu Konfidenz- und Prognoseintervallen für solche Linearformen φ. Ein Koni-idtnz-
Piognoii
-
Intvi-
v a l l (Konfidenzintervall bzgl. der festen, Prognoseintervall bzgl. der zuf ä l l i g e n Koeffizienten) zum Niveau l-γ ergibt sich aus den Grenzen * * \ ; 1 - γ / 2 · ^
·
Betrachtet man eine zukünftige Beobachtung Ψ* = x*ß
+
z*a + ε*
,
wobei ε* a l s unabhängig von a und e und a l s normal verteilt mit Erwartungswert 0 und Varianz a 2 angenommen wird, so i s t Φ* = xlß + zlä ein PtägnoieweAt für φ* und unter obiger Bedingung an x* i s t Ε ( φ * - φ * ) = 0 . Weiter i s t mit c , = ( X + ) T x * - [QVQ] + [V(X + ) T x* - ZV a z*]
122
Kapitel II: Die Regressionsanalyse
die Varianz von φ * - φ * gerade Var( ξ α α
J ] , e * N(0;a 2 V e ), Vg : I ,
sowie a und e unabhängig angenommen wird. Es i s t dann y % N(Xß;o2V) mit 1 '
Z
V
+Ve
=
1 3 1 1 4 3
1 3 1 1 3 4
Wir wollen nun einmal, obwohl a l l e vorgestellten Schätzverfahren anwendbar sind, die zweite dargestellte Methode benutzen, um ß, a und e zu schätzen bzw. zu prognostizieren. Die Pseudoinverse der Designmatrix X ergibt sich zunächst zu _ 1 _ [2 2 0 0 0 Ο] 4 0 0 1 1 1 1
Kapitel II: Die Regressionsarmlyse
125
so daß s i c h 2 -2 0 0 0 0
-2 2 0 0 0 0
0 0 3 -1 -1 -1
0 0 -1 3 -1 -1
3 -3 6 2 -4 -4
3 -3 2 6 -4 -4
-3 3 -4 -4 6 2
-3 3 -4 -4 2 6
0 0 -1 -1 3 -1
0 0 -1 -1 -1 3
und damit 5 5 3 3 3 3
QVQ = }
-5 5 -3 -3 3 3
16 -16 1 -6 (QVQ) + : 44 - 6 6 6
-16 16 6 6 -6 -6
Λ L. > α Π
-6 6 -17 27 -5 -5
-6 6 27 17 -5 -5
6 -6 -5 -5 27 -17
6' -6 -5 -5 -17 27
e r g i b t . Wir erhalten somit a l s Schätzung f ü r ß, a und e 3 - x
+
y - x W y . { ( ( g ] - ^ ] ) - i ( { S ]
i - v . i W y - £ ( _ , ! )
.
.
e = V e (QVQ) + y = ^ - ( 2 6 ,-26,59 ,-73 ,-37,51 ) T
.
A l s Schätzung für den Varianzfaktor σ 2 s c h l i e ß l i c h erhalten wir mit -1 43 -1 -1 -18 -18
-17 -1 44 -17 -1 -1
-17 -1 -17 44 -1 -1
s2 = ( y - X ß ) V ( y - X § ) = ^ | l
.
44 -1 1 -17 61 -17 -1 -1
-1 -18 -1 -1 43 -18
-Γ -18 -1 -1 -18 43
gerade
Betrachten wir nun einmal die Linearform φ = (1,0)ß + (0,2)a
,
d.h. x , = (1,0) , ζ * = ( 0 . 2 Γ und
w = 0 , so wird diese geschätzt durch
ί>= (1 ,0)3 + (0,2)a = ^ · 4 0 2 + p " ( - 1 2 ) = ^ · ( 4 0 2 - 24) = ^ · · 3 7 8 = 8.591 . Wir können nun auch ein 95% Konfidenz - Prognose - I n t e r v a l l f ü r ψ bestimmen, da mit
126
Kapitel II: Die Regressionsanalyse
x ^ ( i 2 - x + x ) e = cι , o ) ( i 2 - i 2 ) ß = ο φ u n v e r z e r r t i s t . Hier e r g i b t sich mit n g = n - 2 = 6 - 2 = 4 und c = ( X + ) T x * - [QVQ] + [V(X + ) T x* - ZV a z* - Vew] '2 2' 2 2 0 0 + V 0 0 - [QVQ] 0 0 0 0
-l(S]
14 30 1 -18 -18 8 8
v * = ( Z T c - z J T V a ( Z T c - z j + (c - w) T V e (c - w) = T g W * 8 1 0 8
+
T936"1872
= 9980/1936 = 2495/484 = 5.155 das I n t e r v a l l mit den Grenzen φ ± t4.0
g75
V s 2 v * = 8.591 ± 2.776'V
331-5.155/44 = 8.591 ± 17.287 .
Ein Prognoseintervall zum 95% Niveau f ü r die zukünftige Beobachtung φ* = (1,0)ß + (0,2)a + ε * s c h l i e ß l i c h e r g i b t sich mit φ* = φ = 8.591 ,
c* = c =
(14,30,-18 , - 1 8 , 8 , 8 ) T , ν * * = v*+1 = 6.155
aus den Grenzen φ* ± t 4 . Q
V s 2 v * * =8.591 ± 2.776-V 331 ·6.155/44 = 8.591 ± 18.890.
g 7 5
Zu bedenken i s t h i e r b e i n a t ü r l i c h , daß 2a^ schon eine (geschätzte) Varianz
•
von 4-3s 2 =i 90 h a t .
|
Auch e i n Modell m i t nicht nannter Bayu ziznttn,
- ze.n&UeAte.n
zu^ällxgen
- A n i a t z -im Re.gKeM-LonimodeZl
nandüm coe.Hlc.iint
n.e.gieMlon
E^ekten
[zufällige
modeli,
bzw. e i n sogeRegAUilomkoeü-i-
RCR - ModeZCe)
l ä ß t sich
in
ein Modell obiger Gestalt überführen. Sei β ein f e s t e r Parametervektor und ä e i n z u f ä l l i g e r Vektor, dessen Komponenten auch z u f ä l l i g e Regressionskoeff i z i e n t e n genannt werden, mit bekanntem Erwartungswert E(ä)=ct Q und Kovarianzmatrix Cov(ä)=o 2 V
α
: mit den Designmatrizen X und Ζ erhalten w i r dann
aus dem folgenden Modell, das auch BayeA - Modell
genannt w i r d ,
y = Xß + Zä + e m i t t e l s der Transformation ä = aQ + a (mit E ( a ) = 0 und Cov(a) = $ a = a 2 V g ) und y = y - ZaQ wieder e i n Modell der oben betrachteten Gestalt
127
Kapitel II: Die Regressionsanalyse
y = Xß + Za + e
;
3 wird dann n a t ü r l i c h geschätzt durch ä = a 0 + a . Man v g l . hierzu auch z.B. Hildreth/Houck (1968), Swamy (1971), Singh et a l . (1976), Härtung (1978a). Hier wird n a t ü r l i c h angenommen, daß
und die Kovarianzmatrix V g des von
a unabhängigen Fehlervektors e bekannt bzw. aus früheren Untersuchungen (gut) geschätzt sind. I s t etwa der ( f e s t e ) Parameter α bei einer früheren Untersuchung in einem Linearen Modell der Art y * = X*a + e* mit E ( y * ) = X * a , E(e*) = 0, Cov(y*) = C o v ( e * ) = a ^ V * geschätzt worden durch a = X*[I - V*(Q*V*QJ+]y* ,
wobei Q* = I - X*X*
,
mit Cov(a) = o i x : [ V , - V , ( Q ^ Q j + V J ( x : ) T = a i V a
,
so wird mit α =α ο
,
V = V a α
dann in einem 'neuen' Bayes - Modell der Form y * = Zä + e wobei ä ^ N ( a Q ; a 2 V a ) und ä = a Q + a , diese VoAln{,ofunxtion
ausgenutzt, d.h.
man a r b e i t e t in diesem 'neuen' Modell n i c h t mehr mit dem festen Parameter α. Hierbei muß n a t ü r l i c h s i c h e r g e s t e l l t s e i n , daß die ' a l t e n '
Schätzungen
sehr v e r l ä ß l i c h s i n d und daß die V e r h ä l t n i s s e f ü r das 'neue' Modell nicht wesentlich verändert haben, v g l . auch Härtung Häufig s i n d die Kovarianzmatrizen
und
sich
(1978a).
jedoch derart s t r u k t u r i e r t , daß
s i e b i s auf einen gemeinsamen m u l t i p l i k a t i v e n Faktor a 2 nur von wenigen Parametern (z.B. Varianzkomponenten) abhängen, s . z.B. nächsten A b s c h n i t t , die n a t ü r l i c h zuvor geschätzt werden müssen, v g l . z.B. H a r v i l l e
(1979),
Härtung (1981), E l p e l t (1983) sowie die Ausführungen im Abschnitt 2 des Kap.X. Auch ein mehrstufiges bzw. i t e r a t i v e s Vorgehen i s t möglich, v g l . z.B.
Kakwani (1967), Oberhofer/Kmenta (1974), Magnus (1978), Don/Magnus
(1980), Jockel (1982), Voet (1985). Es sei noch darauf hingewiesen, daß man etwa auch bei der Schätzung von "Faktorenwerten" ( " P e r s ö n l i c h k e i t s p r o f i l e " )
im Rahmen der
v g l . Abschnitt 3 in K a p . V I I I , auf ein Modell mit z u f ä l l i g e n koeffizienten
stößt.
Faktoiznanalyiz, Regressions-
128
Kapitel II: Die Regressionsanalyse
3 DISKRETE REGRESSIONSANALYSE FÜR QULITATIVE DATEN; LINEARES WAHRSCHEINLICHKEITSMODELL, P R O B I T - , LOGITANALYSE Ist die zu erklärende Variable, der Re.gnuia.nd piägimgen)
y diiktzi
{qwxJUXaXive.
Aui-
und möchte man eine Beziehung von y zu h Regressoren
die quantitativ oder qualitativ sein können, herleiten, so kommt man zu einem Problem der sogenannten dü>k/ieXe.n
oder quatctatZven
Rzgiui-Lon.
Silip-Lel.: (a) Es könnte etwa der Einfluß der Variablen Preis und Verpackung auf den qualitativen Regressanden y = "Kaufverhalten" mit den Ausprägungen "kaufen" und "nichtkaufen" interessieren. Man möchte dann aufgrund einer Stichprobe möglicher Käufer die Wahrscheinlichkeit prognostizieren mit der ein Produkt bei bestimmtem Preis und bestimmter Verpackung gekauft wird. (b) Möchte man die Wahrscheinlichkeiten schätzen, mit denen ein neuer PKW Typ in den verschiedenen Farbtönen geordert wird (in Abhängigkeit von Preis, Leistung, Ausstattung usw.), um die Produktion entsprechend zu planen, so kann dies aufgrund einer diskreten Regressionsanalyse anhand der bekannten Daten bereits auf dem Markt befindlicher Typen geschehen. (c) Eine Bank möchte anhand von Bilanzkennzahlen bei einem Kunden auf "kreditwürdig" bzw. "nicht kreditwürdig" schließen. Mittels historischer Daten anderer Kunden, deren Kreditwürdigkeit sich so oder so erwiesen hat, läßt sich vermittels diskreter Regressionsanalyse eine Funktion herleiten, die dann zu Prognosezwecken bzgl. der Kreditwürdigkeit des neuen Kunden verwandt werden kann. (d) Mittels diskreter Regressionsanalyse läßt sich z.B. in umfangreichen Tierversuchen die Menge an Zahnpasta abschätzen, die ein Kleinkind (versehentlich) verzehren muß, um mit einer Wahrscheinlichkeit von 5% zu sterben. (e) Entsprechend läßt sich z.B. eine Belastungsgrenze ermitteln, der eine Baukonstruktion mit 95% Sicherheit standhält, was wiederum Rückschlüsse auf Konstruktionsweisen mit höheren Belastungsgrenzen erlaubt. Skaliert man aufgrund von Beobachtungen an η Objekten zunächst vermittels der in Kap.V beschriebenen Verfahren die Ausprägungen des qualitativen Regressanden y, so kann man - für eine Vielzahl von Fragestellungen - wieder die in Abschnitt 1 dargestellten Methoden der multiplen Regressionsanalyse anwenden (zumindest approximativ). Wir wollen hier jedoch Verfahren beschreiben, die direkt mit dem diskreten Regressanden arbeiten.
129
Kapitel II: Die Regressionsanalyse
Beschäftigen wir uns zunächst mit dem einfachsten F a l l
der d i s k r e t e n Re-
g r e s s i o n , nämlich dem, daß der Regressand y nur zwei Zustände g e n ) , k o d i e r t mit 1 und 0, annehmen kann; auf diesen F a l l d i s k r e t e Problemstellungen
(Ausprägun-
lassen s i c h
viele
zurückführen.
Wir betrachten hierzu einmal folgendes einfache Regressor X=X^ b e r ü c k s i c h t i g t wird.
BeM,p-LeZ,
bei dem nur ein
In der Iah.12 sind η = 12 Beobachtungen
y^ f ü r den Regressanden y bei vorgegebenen Werten x^ des Regressors X (k=1,...,12)
angegeben, die in der Abb.15 auch v e r a n s c h a u l i c h t s i n d ; außer-
dem s i n d in der Tab.12 noch Größen x^ und ρκ f ü r i=1,2,3 angegeben, auf die wir später noch eingehen werden.
l a b . 1 2 : Beobachtungen y k
( k o d i e r t mit 1 , 0 )
gressors f ü r k=1
12; gruppierte
zu vorgegebenen Werten x^ des Re"Regressorenwerte" x^ und zuge-
hörige r e l a t i v e Häufigkeiten p^ der Ausprägung "1" des Regressanden g f ü r i = 1,2,3
k x
k
>'k i x
i
Pi
1
2
3
4
5
6
7
8
9
10
11
12
0.5
0.7
1.0
1.3
1.5
2.0
2.2
2.3
2.7
3.0
3.2
3.4
0
0
1
0
0
1
1
0
1
0
1
1
1
2
3
1
2
3
1/4
2/4
3/4
Legt man h i e r f ü r die j e w e i l i g e n Ausprägungsvariablen x von X und ö von U eine Regressionsbeziehung der Art tj = a 0 + a 1 x
130
Kapitel II: Die Regressionsanalyse
(Regressionsgerade) zugrunde, die anhand der Daten
ur|
d x,j
x^
aus Tab.12 durch y = 0.0179183 + 0.2430664X geschätzt wird (diese Regressionsgerade ist in Abb.15 eingezeichnet), so ist natürlich zu klären, was eine solche Funktion - für ein nur 1 - 0 - wertiges u - zu bedeuten hat; wir kommen am Ende dieses Abschnitts darauf zurück.
Faßt man hingegen die Beobachtungen zu Gruppen an "Meßpunkten" x^
(i=1,...,m)
zusammen, oder hat man von vornherein an den Meßpunkten x^ mehrere, nämlich n^ Beobachtungen gemacht und dabei n . ( 1 ) - m a l so lassen sich an den Stellen x^ die relativen p.j = n i ( 1 ) / n i
für i = 1
das Ereignis ij = 1 beobachtet, Häufigkeiten
m
angeben; p^ ist dann ein Schätzer für die Wahrscheinlichkeit des Auftretens von y = 1 am Meßpunkt x^: p^ = P(u=1|x=x^).
Konzentriert man in unserem Beispiel der Reihe nach jeweils vier Beobachtungen y ^ , wie in Tab.1 bereits angedeutet, auf die Punkte x^ = 1 , Xg = 2 und X3 = 3, so erhalten wir die ebenfalls in Tab.1 angegebenen Häufigkeiten ^
relativen
= 1/4, p 2 = 2/4 = 1/2, p 3 = 3/4.
Eine Regression von p, also der Wahrscheinlichkeit ρ = p ( x ) = P ( y = 1 | χ = χ ) , auf χ p = γ
ο
+ Ύ
1Χ
erklärt also die Wahrscheinlichkeit linear; man spricht auch vom WahAAchiX.Yillc.hkz..), vgl. auch Tab.12, eingezeichnet. Man erkennt hier auch direkt die Grenzen dieses Modells; für χ > 4 wird der Schätzer für die Wahrscheinlichkeit größer als 1 bzw. für x < 0
negativ. Deshalb werden zumeist I h a M ^ o i m x t l o n m
angewandt,
die stets zulässige Werte liefern.
Im sogenannten Ϋ/wb-U
- oder NofwuX-ModM
wird eine Regression von Φ~^(p)
auf χ durchgeführt, wobei Φ die Verteilungsfunktion der Standardnormal Verteilung bezeichnet, vgl. Abschnitt 2 und 3 in Kap.I:
Kapitel II: Die Regressionsanalyse
131
Abb.16: Meßpunkte x i , r e l a t i v e Häufigkeiten p^ f ü r i = 1 , 2 , 3 gemäß Tab.12 und zugehörige Regressionsgerade ρ = 1/4 χ
φ" 1 (ρ) = v
b z w .
Q
ρ = Φ(ν 0 + ν 1 χ )
Hierzu berechnet man, v g l . Tabelle im Anhang, die sogenannten PiobitA
oder
UohmiZt,
gProb=$"1(p.)
für
i=1,....m
und damit dann die Schätzer für v Q und v^. In unserem B e i s p i e l , v g l . Tab.12, ergibt sich g prob = φ
- 1 ( 1 / 4 ) = φ"^ (0.25) = - 0 . 6 7 5
g P r o b = Φ - 1 (0.5) =0
und
,
g P r o b = Φ" 1 (0.75) = 0.675
,
so daß s i c h die Schätzer f ü r v Q und v^ zu vo=-1.350
,
v 1 =0.675
ergeben. In der Abb.17 i s t neben den Punkten ( x ^ , g ? r o b ) f ü r i =1,2,3 auch die Regressionsgerade gProb=$_1(p) =-1.350
+
0.675x
eingezeichnet. Mit dieser Regressionsbeziehung e r g i b t s i c h z.B. an der S t e l l e x = 4 a l s Schätzer für die Wahrscheinlichkeit ρ der Wert ρ = p(4) =Φ(-1.350 + 0.675-4) = 0.91 15
.
Die k l a s s i s c h e Anwendung des Probit - Modells l i e g t im Bereich der Voi-U Wi>ik.ung& - AnaZijiz
(ßioaaaij)
,vgl.
etwa Finney (1971). Dort wird z.B. f ü r
Gifte oder Medikamente die allgemeine Kenngröße ED 50 bzw. LD 50
(effektive
Dosis 50% bzw. l e t a l e Dosis 50%) bestimmt; das i s t diejenige D o s i s , bei der 50% einer Population, die das G i f t oder Medikament e r h ä l t , nicht überl e b t . Hierzu werden Versuche mit verschieden starken Dosen x^ z.B. an j e w e i l s 100 Fliegen durchgeführt; m i t t e l s der beobachteten Häufigkeiten an
132
Kapitel II: Die Regressionsanalyse
C
Abb.17: Daten (x-,g? gP
rob
) für i=1,2,3 und zugehörige
Regressionsgerade
= -1 .350 + 0.67 5x
überlebenden wird dann die Wahrscheinlichkeitsfunktion ρ in Abhängigkeit von der Dosis χ geschätzt. Zur geschätzten Wahrscheinlichkeit ρ = 0 . 5 wird dann das zugehörige x* = E D 5 0 ED 5
(und ebenso die oft interessierenden Größen
und ED 95 ) bestimmt. Meistens geht man jedoch nicht von den Dosen x^
sondern von den logarithmierten Dosen lnx^
aus, d.h. man arbeitet mit der
1inkssteilen - rechtsschiefen Lognormal Verteilung, vgl. z.B. Härtung et al. (1982, Kap.IV).
Im sogenannten LOQAX - ModeLi
wird anstelle der Verteilungsfunktion Φ der
Standardnormal Verteilung die Log-ci-ixiche VeAt&ilung&iunktLcin
verwandt, d.h.
die Wahrscheinlichkeit ρ wird angesetzt als
und somit wird eine Regression ln(p/(1-p)) = λ 0 + λ ι Χ von ln(p/(1-p)) auf χ durchgeführt. Um die Koeffizienten berechnet man also zunächst die
Logiti
für i = 1,... ,m
in unserem Beispiel, vgl. Tab. 12, ergibt sich =l g£
gt
= ln 1 = 0
,
n
gg
{ifl=M=-1.0986 9t
,
= ln 3 = - I n -j= 1.0986
zu schätzen
Kapitel II: Die Regressionsanalyse
so daß wir f ü r λ
ο
und λ, die Werte 1
AQ = - 2 . 1972
und
λ, = 1.0986
erhalten. In der Abb.18 s i n d diese
Regressionsgerade
g l g t = l n ( — ß — ) = -2.1972 + 1.0986x Μ -ρ die z.B. an der S t e l l e χ =4 die Wahrscheinlichkeit ρ des Auftretens von a = 1 p r o g n o s t i z i e r t zu P°P(«>°
1+e
2.1972-1.0986.4
= 0
·8999
'
sowie die Punkte (x H »g^ 9 t ) f ü r i = 1,2,3 eingezeichnet.
Abb.18: Daten
für i = 1 , 2 , 3 und zugehörige Regressionsgerade
g l g t = - 2 . 1972 + 1 .0986X
Um die b i s h e r betrachteten Modelle zur Schätzung von ρ veAglz-aihzn zu können, sind in Cab.13 f ü r verschiedene Werte χ e [ - 1 .00,5.00] die Schätzer ρ ausgehend von unserem B e i s p i e l aus Tab.12 im Linearen W a h r s c h e i n l i c h k e i t s modell (p, . ) , im Probit - (Normit - )Modell (pr . ) und i m L o q i t - M o linear probit dell (p, . ) angegeben. Man erkennt sehr d e u t l i c h , daß a l l e Modelle im logit Zentralbereich (x etwa zwischen 0.75 und 3.25) p r a k t i s c h g l e i c h e Schätzungen l i e f e r n , und nur in den Randbereichen stärkere Abweichungen auftreten. Bei der Bestimmung der Regressionsgeraden im obigen Beispiel
(gruppierte
133
134
Kapitel II: Die Regressiomanalyse
Cab-13: Schätzungen ρ . = ρ = 1/4·χ, ρ w = linear problt
φ(ςΡ Γθ13 ) = $(-i.350+0.675x),
= 1/(l+e"9 l 9 t > \ = 1 / ( 1 + e 2 , 1 9 7 2 " 1 - 0 9 8 6 x ) für die Wahrscheinlichlogit \ ) keit p = P(a=1|x=x) an verschiedenen Stellen χ in den drei Modellen ρ
X -1.00 -0.70 -0.40 -0. 10 0.00 0.20 0.50 0.80 1.00 1.10 1.40 1.70 2.00 2.30 2.60 2.90 3.00 3.20 3.50 3.80 4.00 4.10 4.40 4.70 5.00
ρ
linear
-0 -0 -0 -0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 2
250 175 100 025 000 050 125 200 250 275 350 425 500 575 650 725 750 800 875 950 000 025 100 175 250
p problt
P
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0214 0342 0526 0782 0885 1122 1556 2090 2500 2718 3427 4198 5000 5802 6573 7282 7500 7910 8444 8878 9115 9218 9474 9658 9786
loqit 0357 0490 0668 0905 1000 1216 1614 2111 2500 2712 3409 4183 5000 5817 6591 7288 7500 7889 8386 8784 9000 9095 9332 9510 9643
Daten) ist es so, daß keine Residuen auftreten, d.h. die Geraden gehen exakt durch die vorgegebenen Punkte, vgl. Abb.16 - 18; dies ist natürlich selten der Fall. Beim aZlQmeJjniAin
Ta.lt
wollen wir nun auch gleich die
Berücksichtigung mehrerer Regressoren Χ^,.,.,Χ^, die auf den Regressanden ö Einfluß nehmen, einbeziehen. Bezeichnen wir die Ausprägungsvariablen von X^
X^ mit χ^,.,.,χ^ und die
von y mit u, so möchten wir nun also eine Beziehung der Art
P = G
(ßo
+
j,
V j )
mit zu spezifizierender Funktion G und unbekannten Parametern ß Q >ß^ durch ?
- < v
j,
hxi)
ß^
135
Kapitel II: Die Regressionsanalyse
schätzen, wobei ß j eine Schätzung f ü r ß^ (j=0
h) d e r a r t i s t , daß ρ
eine Schätzung f ü r die Wahrscheinlichkeit ρ des Eintretens von a = 1 unter der Bedingung
x^ i s t :
ρ = P(a=1 |x 1
xh)
;
d.h. f ü r einen Ausprägungsvektor
x0 =
(χ0ι
x oh^ T c ' e r
^ '"' e r ' < m a l e
i s t mit y 0 = a ( x Q ) P0=p(x0) = P ( y 0 = D die Wahrscheinlichkeit dafür, daß bei einer Merkmalskombination xQ das Ereignis a = 1 e i n t r i t t . Um die Regressionskoeffizienten β
zu schätzen, verschaffen wir uns
nun m Merkmalskombinationen xi = ( x ^
x
ih'T
f ü r
i=1
·· ·· >m >
die zusammen unter Berücksichtigung eines Absolutglieds eine Designmatrix 1
x
1
x21
x12
n
x22
X= . X
m1
1h *2h
mh
V
ergeben, j e n^ > 1 (Faustregel: n^ s o l l t e mindestens 5 betragen bei n i c h t zu kleinem m) unabhängige Beobachtungen des Regressanden y ; dabei wollen wir hier voraussetzen, daß XTX i n v e r t i e r b a r i s t . Bezeichnet mit y i P i = P(y· = 1) f ü r i = 1
nun
m die Wahrscheinlichkeit f ü r das Eintreten von
a = 1 an der Kombination x^ und n^(1) die Häufigkeit mit der y^ = 1 an der S t e l l e x i beobachtet w i r d , so i s t mit der r e l a t i v e n p^ =———
Häufigkeit
für y i = 1 an der S t e l l e x^ ,
wobei 0 < fK < 1 gelten s o l l , e i n Schätzer für p^, i = 1 , . . . , m , gegeben, der Erwartungswert bzw. Varianz Ε(^) =
Pi
,
V a K p J = P i ( l -pi)/ni 2
b e s i t z t , und weiterhin bezeichne s^ eine Schätzung für Var(p^), z . B . s^ = ^ ( 1 - p i ) / n i
für
i=1,...,m
Kapitel II: Die Regressionsanalyse
136
Hat die Funktion G eine Umkehrfunktion G " 1 , so l ä ß t s i c h die oben angegebene Regressionsbeziehung f ü r ρ auch schreiben a l s h
-1
3 = G '(ρ) = ß + l j=1
B*.
J
J
und wir führen eine Regression von g auf χ . χ. durch. Setzen wir nun 1 . _λ Λ I ΠΛ Λ Λ g.j = G" ( ρ ^ , g . = G~ ( ρ ^ und g = (g 1 gm) , g = (g1 g m ) , so s t e l l e n β ^ ) τ a l s o folgendes Regressionsmodell
wir mit g = (ß Q ,ß-j g = Xß + e
auf:
,
wobei approximativ E(g)=üXß = g und e ein m - dimensionaler Fehlervektor mit unabhängigen Komponenten e^
e m i s t . A l l e r d i n g s haben die e^ nicht iden-
t i s c h e Varianz, so daß wir die gewichtete Methode der Kleinsten Quadrate zur Schätzung von β anwenden müssen (Aitken - S c h ä t z e r ) , v g l . auch den vorausgegangenen Abschnitt 2; dabei verwenden wir n a t ü r l i c h eine 'Schätzung der approximativen Kovarianzmatrix
von g bzw. e. Wir erhalten dann
f ü r β den Schätzer g = (XTig1X)"1XT|g1g = ( g 0 , B r . . . , g h ) T
,
der n a t ü r l i c h abhängig von der s p e z i e l l gewählten Funktion G i s t ; daher werden wir β bzw. die Komponenten von'β zur Unterscheidung j e w e i l s passend i n d i z i e r e n . Es sei noch erwähnt, daß das hier betrachtete Modell ein B e i s p i e l f ü r ein sogenanntes Ve.nalZgtmeJ.neAte.i Line/m.
UodeZ)
Linzanih
i s t , v g l . z.B. McCullagh/Nelder (1983),
ModeZl
(Ge.nMatized
Fahrmeir/Hamerle
(1984). Im LineaAen
UahuchilntichkeAtimodeZl
i s t nun einfach G = i d die identische
Abbildung (obige Beziehungen s i n d dann n a t ü r l i c h e x a k t ) , d.h. es g = p = (p1,...,pni)'
r
ist
und
jiG>diag(s2,...,sJ) also y
j=1
Im Pfiob-it - oder UonmiX - Modeti
J
J
i s t G=, a l s o G die V e r t e i l u n g s f u n k t i o n der
Standardnormal V e r t e i l u n g , und f G = d i a g ( s ^ ( p t ) 2 , . . . ,s2/ d Λ falls β + g.x* 0 1 < d
p r o g n o s t i z i e r t ; der Diskriminationspunkt d kann dabei etwa so f e s t g e l e g t werden, daß die Fehl Zuordnungen bei den b e r e i t s bekannten Objekten gemäß d i e s e r Regressionsfunktion minimal werden. In diesem Sinne i s t a l s o eine I n t e r p r e t a t i o n d i s k r e t e r Regressionen möglich. Betrachten wir nun noch einmal das Beiip-iet
vom Anfang dieses A b s c h n i t t s ,
v g l . etwa Tab. 12. Dort hatten wir bei der Regression von ij auf X unter Verwendung der Größen y^ und x^ f ü r k=1
12 die Regressionsgerade
ä = 0.0179183 + 0.2430664x , v g l . Abb. 15, bestimmt, f ü r die s i c h der Diskriminationspunkt d = 1 / 2 e r g i b t . Berechnet man dagegen die Regressionsgerade unter Verwendung der g r u p p i e r ten Größen (Meßpunkte) x ^ x g . x - j , d.h. verwendet man a n s t e l l e von x^ f ü r k = 1 . . ,12 nun x^ = x^ = 1 für k=1
4 , x^ =
2 für k=5
8 und
x k = x 3 = 3 f ü r k = 9 , . . . , 1 2 , so e r g i b t s i c h , e b e n f a l l s mit D i s k r i m i n a t i o n s punkt d = 1/2, gruppiert
=1/4
.χ
.
man s i e h t , daß diese Gerade i d e n t i s c h i s t mit derjenigen, die s i c h aus dem Linearen Wahrscheinlichkeitsmodell
e r g i b t , v g l . Abb.16.
Folgt man einem Vorschlag von Fisher (1936) und kodiert die Zustände von y nicht mit 1 und 0 sondern (bei gleichen Gruppengrößen, wie im B e i s p i e l
der
F a l l ) mit 1/2 und - 1 / 2 , so ergeben s i c h die gleichen Regressionsgeraden wie oben, l e d i g l i c h um 1/2 nach unten verschoben, d.h. 3 . .
Fisher
= -0.4820817+0.2430664x
bzw.
g ® r u P p i e r t = - 1 / 2 + 1/4x ; ^Fisher
n a t ü r l i c h verschiebt s i c h h i e r in beiden Fällen auch der D i s k r i m i n a t i o n s -
.
punkt um 1/2 nach unten, a l s o d . , r
1
Fisher
=0
Bei diskreten Variablen mit mehreren möglichen Zuständen kann man entsprechend vorgehen, indem man die Aoipiägungen "günitig"
kodienX
(man sagt
auch, die Variablen werden hka.LLe.nt) und dann den gesamten Apparat der 'normalen' (metrischen) Regressionsanalyse zur Verfügung hat. Bei d e r a r t i gem Vorgehen sind die An^oldeAungen an die Oate.nba.ijj> bzw. deren Umfang wesentlich gelinget,
insbesondere n a t ü r l i c h bei höherdimensionalen
Proble-
men. Zum B e i s p i e l treten bei mehrdimensionalen Kontingenztafeln häufig aus Mangel an Untersuchungseinheiten v i e l e sogenannte "leene
Zellen"
a u f , auch
142
"zaiäti-ige.
Kapitel II: Die Regressionsanalyse
Nutizn"
genannt, die ein Arbeiten im Loglinearen Modell bzw.
Logit-Modell erheblich erschweren bzw. unmöglich machen. Wir werden uns in den nachfolgenden Kapiteln noch ausführlich mit dem Auswerten diskreter Daten beschäftigen; es sei an dieser Stelle insbesondere auf den Abschnitt 4 in Kap.IV (Diskriminanzanalyse), das Kap.V (Skalierungsverfahren) und den Abschnitt 1.3 in Kap.X (multivariate Regressions- und Kovarianzanalyse für diskrete (skalierte) Daten) hingewiesen.
Kapitel III: Die Korrelationsanalyse
Bei der Analyse statistischen Datenmaterials i s t man oft hauptsächlich daran interessiert, Abhängigkeiten und Zusammenhänge mehrerer Merkmale zu quantifizieren, wie dies z.B. mittels der in Kap.II (bzw. Kap.X) dargestellten Regressionsanalyse geschieht, und qualitative Aussagen liber das Vorhandensein und die Stärke von Abhängigkeiten zu gewinnen. Hier s t e l l t die KoiAeZationianalyiz
ein geeignetes Instrumentarium bereit.
Die Kom.idja.tion oder Anozlation
von UeAkmalcn gibt vornehmlich den Grad
des linearen Zusammenhangs wieder.Neben Maßen für Korrelation bzw. Assoziation werden hier Tests auf Signifikanz eines Zusammenhangs und Vergleiche von Korrelationen betrachtet. Dabei beschäftigen wir uns zunächst ausführlich mit der Korrelation normalverteilter Merkmale; in diesem Zusammenhang werden auch einige besonders hervorzuhebende Phänomene bei der Berechnung von Korrelationen dargestellt. Anschließend werden Korrelationen zwischen beliebigen stetigen Merkmalen, zwischen ordinalen Merkmalen, zwischen gemischt stetigen und ordinalen Merkmalen und schließlich zwischen nominalen Merkmalen betrachtet. Im letzteren Fall nominaler Merkmale spricht man anstelle von Korrelat!onsmaßen dann von Assoziationsmaßen. Bei der Berechnung von Korrelationen muß man darauf achten, daß die Merkmale, deren Korrelation man bestimmt, in einem sachloqischen Zusammenhang stehen, da sonst "Nomma - Κ.ο>υιζΙα£ίοη&η", wie z.B. die Korrelation zwischen der Anzahl der Störche und der Geburtenzahl, berechnet werden. Weiterhin sollte man sich vor SchilnkoOielatlonm
hüten, die lediglich durch
die Abhängigkeiten von weiteren Merkmalen entstehen. In solchen Fällen bedient man sich partieller bzw. bi - partieller Korrelationen, die solche Einflüsse weitgehend ausschalten.
144
1
Kapitel III: Die Korrelationsanalyse
DIE KORRELATION NORMALVERTEILTER MERKMALE
In diesem Abschnitt beschäftigen wir uns zunächst mit dem Schätzen der Kon.fLitcutCon
zwIAJLK nonmalvexteWteA
X und Y. Für solche
UeAkmale
Korrelations-
maße werden auch Tests auf Signifikanz, Tests zum Vergleich mehrerer Zusammenhänge und Konfidenzintervalle angegeben. Weiterhin werden globale und simultane TeAti
au£
Unabhängigkeit
eindimensionale Maße iüA
die
von
Stänke
de*
ρ MeAkmaZen
bzw. ρ Μ e ß i e i h e n und von ρ Merkma-
GeAamtzuAammenkangi
len angegeben.
Weiterhin betrachten w i r multiple
und kanonliche
Öie multi-
Kowielallonen.
ple Korrelation ist gerade ein Maß für den Zusammenhang zwischen einem Merkmal X und ρ Merkmalen
, und die kanonische Korrelation mißt den
Zusammenhang zwischen zwei Merkmalsgruppen
und Υ^,.,.,Υ^.
Für einfache, multiple und kanonische Korrelationen werden dann noch Maße betrachtet, die den Einfluß weiterer Merkmale eliminieren. Bei den ellen
KoAAeZationen
mit allen interessierenden Merkmalen korreliert ist, tiellen
Kowielatlomn
parti-
werden Einflüsse einer Variablengruppe eliminiert, die und bei den bl -
werden Einflüsse zweier Variablengruppen
par-
ausgeschal-
tet, die jeweils mit einem Teil der interessierenden Merkmale und untereinander stark korreliert sind.
Einige Teile der Ausführungen in diesem Kapitel findet man auch bei
Härtung
et al. (1982, Kap.I und IX).
1.1 D I E
In Kapitel
KORRELATION
ZWEIER
Ν 0 R Μ A L V Ε R Τ Ε I L Τ ΕR
MERKMALE
I, Abschnitt 3 haben wir als Kenngröße von Zufallsvariablen die
Kovarianz Cov(X,Y) zwischen den Zufallsvariablen X und Y kennengelernt.
Die-
se Größe haben wir, um sie besser interpretieren zu können, so normiert,, daß der Wert der normierten Größe, die Κ o/üielatlon Ρ = PXY
:
deA
Zuhält
Α variablen
X und V
Cov(X,Y) Var(X)-Var(Y)
stets zwischen -1 und +1 liegt. Wir haben dort gesehen, daß die Korrelation von zwei unabhängigen Zufallsvariablen X und Y stets Null unabhängige Zufallsvariable sind stets unko/uiellemt.
ist, d.h. zwei
Umgekehrt können wir
aber i.a. nicht aus der Unkorrel iertheit von X und Y' deren Unabhängigkeit folgern. Wir haben aber gesehen, daß speziell zwei unkorrelierte
normalver-
teilte Zufall svariablen X und Y auch unabhängig sind. Daher ist im Normal-
Kapitel III: Die Korrelationsanalyse
145
verteilungsfall die Korrelation ρ ein eindeutiges Maß für die Stärke der Abhängigkeit zweier Zufallsvariablen. Wir wollen nun die Korrelation zwischen zwei in einer Grundgesamtheit normalverteilten Merkmalen X und Y, die ebenso wie die zugehörigen Zufallsvariablen bezeichnet seien, anhand je einer Stichprobe (bzw. Beobachtungsreihe) vom Umfang η aus dieser Grundgesamtheit schätzen, um so ein Maß für die Abhängigkeit zwischen den Merkmalen zu erhalten. Als SchätzeA fc'in die. KoOieJicuUon ρ zweier normal verteilter Merkmale bzw. Zufall svariablen X und Y können wir natürlich die
Stichph.obznkovieZcüMjn
η _ _ I (x1i - χ)(γ Ί1· - y) XY i-1 VΧs v Y /m η ο sη , / ϊ ( χ1 - χ ) · I ( y1i - y ) / i=l i=l sS
Γχγ
η I x^i-nxy i=1 1 1
=
verwenden, die auch a l s PicuuoracheA
KoAAelatiomkoeii-iz-icyU
bezeichnet wird, wobei die x ^ , . . . , x
mommtkofuielatlon und die y ^ , . . . , y
oder
PiodukX-
Realisationen von X
Realisationen von Y sind und paarweise in der Form
,y n ) erhoben werden. Die Größe R B
X,Y
- rr 2 XY
nennt man auch Bzitimmthextimzß.
Es gibt an, welcher Varianzanteil des Merk-
mals X durch Y erklärt wird und umgekehrt, vgl. auch Kap.II. 8 i i i p i e . 1 : Aus den Daten der Cab.l wollen wir die empirische Korrelation zwischen der Anzahl der Studienanfänger X und der Gesamtzahl von Studenten Y an einer Universität bestimmen. Es ergibt sich n r
i =l 1
= Γη
y
- 2 (χ, - x)(y1H - y) η
l ( X1 i - X ) 2 · ! i=i i=i
( y1 , - y ) 2
146
Kapitel III: Die Korrelationsanalyse
10 1 - 17086.3) ι (x.1 - 2651)(y. i=1
MO ,10 l (x. - 2651) · l 1 i=1 i=1 133195081
, (y . - 17086.3) 1
_ 133195081 ^ Q
V 20173924-920380528
g775
136263300
Es besteht also ein starker (linearer) Zusammenhang zwischen der Anzahl der Studienanfänger und der Anzahl aller Studenten an einer Universität. Das Bestimmtheitsmaß ist hier Βχ
γ
= r2Y=0.97752=0.9555
Cab.l: Studienanfänger im Jahr 1977 und Studenten insgesamt im Jahr 1977 an 10 Universitäten der Bundesrepublik Deutschland (vgl. Grund- und Strukturdaten 1979; der Bundesminister für Bildung und Wissenschaft) Univ. Univ. Univ. Univ. Univ. Univ. Univ. Univ. Univ. Univ. Bochum Bremen Claus- Dort- Frank- Frei- Ham- Heidel- Kiel Münthal mund furt berg ster burg burg Studienanfänger Studenten insgesamt
3970
732
499
1300
3463
24273
5883
2847
5358
23442
3630
3294
17076 28360
19812
2643
1931
5048
12379 31433
Um zu erkennen, wie sich der Pearsonsche Korrelationskoeffizient r^y bei verschiedenen Konstellationen von Ausprägungen der Merkmale X und Υ verhält, werden im folgenden Beispiel jeweils für gleichbleibende Ausprägungen von X die Ausprägungen von Υ so variiert, daß die Standardabweichung Sy von Υ konstant bleibt. ΒϋΑΛρΙιί: In tah.2 sind für je 8 Untersuchungseinheiten die Beobachtungsdaten ( x . j , y . j ) der Merkmale X und Y, wobei die Ausprägungen von X gleichbleiben und die von Υ variieren, die Korrelationskoeffizienten nach Pearson berechnet. Um eine Vorstellung von der Größe des Korrelationskoeffizienten r^y zu bekommen, haben wir in den Abb.l bis 8 diese Kombinationen von Merkmalsausprägungen graphisch dargestellt.
147
Kapitel III: Die Korrelationsanalyse
Cab.2: Korrelationskoeffizient bei verschiedenen Konstellationen von Ausprägungen
x
i
y
2 4 6 8 10 12 14 16 r XY =
i
y
i
y
i
y
i
1 2 3 4 5 6 7 8
2 1 4 3 6 5 8 7
4 3 2 1 8 7 6 5
1 8 2 7 3 6 4 5
1.000
0.905
0.524
0.190
y
i
y
2 7 5 3 8 4 1 6
i 3 8 5 2 7 4 1 6
y
i
y
8 6 4 2 7 3 5 1
i 8 7 6 5 4 3 2 1
0.000 - 0 . 1 4 3 - 0 . 6 1 9 - 1 . 0 0 0
J
Mar sieht am B e i s p i e l , daß r^y nahe 1 l i e g t , wenn der Zusammenhang zwischen X und Y annähernd positiv linear i s t und nahe -1 l i e g t , wenn eine annähernd negativ lineare Abhängigkeit zu erkennen i s t . Je "verstreuter" die Ausprägungen (x.,y-) in der Ebene liegen, desto näher l i e g t r Y Y bei Null.
Abb.l: r x y = 1.000
2
4
6
β
10
12
14
16
X
Abb.2: r x y = 0.905
2
4
6
8
10
12
14
16
X
148
Kapitel III: Die Korrelationsanalyse
7 6• S3
Abb.3:
Γ χ γ = 0.524
Abta.4:
Γχγ =0.190
Abb.5:
Γχγ = 0.000
Abb.6:
Γχγ =-0.143
2^ 1 2
U
6
8
10
12
Η
16
X
Υ
2
2
2
U
i*
4
6
6
6
8
8
8
10
10
10
12
12
12
H
Η
14
16 X
16
16
X
X
149
Kapitel III: Die Korrelationsanalyse
Abh.7: Γ χ γ = - 0 . 6 1 9
2
U
6
8
10
12
14
16
X
Abb.8: r
2
U
6
8
10
12
14
16
XY '
•1.000
X
Daß r^y w i r k l i c h nur den l i n e a r e n Zusammenhang zwischen X und Υ mißt,
sieht
man auch an der folgenden Abb.9. Die Koordinaten (x.j,y.) h i e r z u s i n d in l a b . 3 angegeben.
X
1 2
3
X
4
X
5
6
7
Abb.9: N i c h t l i n e a r e r Zusammenhang mit r ^ = 0
8
150
Kapitel III: Die Korrelationsanalyse
Cab.3: Daten (x^ , y . j ) , i=1 i x
i
7, zu Abb.9
1
2
3
4
5
6
7
1
2
3
4
5
6
7
•7.6
5.6
4.4
4
4.4
5.6
7.6
Die Daten aus Tab.3 stehen in quadratischem Zusammenhang: yi = 0 . 4 ( x i - 4 ) 2 + 4
.
Trotzdem i s t die Korrelation r^y = 0, denn es besteht im ersten Teil ( i = 1 , . . . , 4 ) ein starker negativer linearer Zusammenhang 48-4.2.5.5.4
_^_._0.
/ (30-4·2.5Ζ)(124.48 -4·5.42)
V
(i = 1>...,4)
9 5 8 3
39-2
und im zweiten Teil (i=5,6,7) ein starker positiver linearer Zusammenhang r^y =
108.8 - 3-6.5.867 Ζ
0.9890
= Z
\ / ( 1 1 0 - 3 · 6 ) ( 1 0 8 . 4 8 - 3-5.867 )
10
^
·
(i=5,6,7),
430
so daß sich insgesamt der Zusammenhang ausmittelt: 156.8 - 7-4-5.6 · 3 Ο.Ο-/·Η· 3 .Ο
rxy=
0υ
==
/ (140 - 7-4 2 )(232.96 - 7-5.6 2 )
V
= 0
(i=
1t...t7)
376,32
Im ersten Teil i s t Y gegenläufig zu X und im zweiten Teil g l e i c h l ä u f i g , so daß also liber beide Teile gesehen der Korrelationskoeffizient r^ Y keine Beziehung zwischen X und Y zu erkennen vermag. Ein weiteres Phänomen bei der Korrelationsanalyse wird im folgenden Beispiel k l a r , vgl. hierzu auch ein ähnliches Beispiel in Pfanzagl (1974). Βe-LipteZ: Bei der Messung von Hämoglobingehalt im Blut (X) und mittlerer Oberfläche der Erythrozyten (Y) bei η = 1 6 Personen ergaben sich die Daten der Cab.4, die in Abb-10 auch graphisch dargestellt sind. Aufgrund dieser Daten wird die Korrelation zwischen X und Y mit r
23309.79 - 16-14.9375-96.9875
=
2
/ (3605.4 - 16-14.9375 )(151250.64 - 16-96.9875
=Q
?gg6
2
geschätzt. Wir wollen nun berücksichtigen, daß es sich bei den Personen i = 1 , . . . , 8 um Frauen und bei den Personen i=9,...,16 um Männer gehandelt hat, und die beiden nach Geschlecht getrennten Korrelationen berechnen. Bei den Frauen ergibt sich
151
Kapitel III: Die Korrelationsanalyse
, Γ χ γ (Frauen) =
9955.15 - 8 Ί 3 . 6 7 5 - 9 0 . 9 5
n ,,,„ =0.2619 ,
/ ( 1500.06 - 8-13.675 2 )(66274.14 - 8 - 9 0 . 9 5 2 ) und bei den Männern erhalten wir rxy(Männer)=
13354.64 - 8-16.2-103.025 2
=
„ ^
_
2
/ (2105.34 - 8·16.2 )(84976 - 8-103.025 ) l a b . 4 : Hämoglobingehalt und m i t t l e r e Oberfläche der Erythrozyten bei η = 16 Personen Person i
Hämoglobingehalt X
m i t t l . Oberfläche der E r y t h r o z y t h e n y
Frauen
1 2 3 4 5 6 7 8
13 12 13 14 14 12 14 13
1 9 7 5 1 7 8 6
85 92 94 90 97 88 89 89
2 4 2 8 5 6 1 8
Männer
9 10 11 12 13 14 15 16
16 15 17 14 15 17 15 16
5 7 0 9 8 5 3 9
103 106 99 101 98 103 103 107
1 3 8 4 8 4 8 6
Die hohe Gesamtkorrelation zwischen X und Υ von 0.7996 i s t a l s o nur dadurch bedingt, daß Männer und Frauen g l e i c h z e i t i g b e r ü c k s i c h t i g t werden, denn die geschätzten g e s c h l e c h t s s p e z i f i s c h e n Korrelationen s i n d sehr g e r i n g . Eine s i n n v o l l e Berechnung der Gesamtkorrelation zwischen Hämoglobingehalt und m i t t l e r e r Oberfläche der Erythrozyten i s t a l s o nur möglich, wenn der Ges c h l e c h t s e i n f l u ß ausgeschaltet wird. Dazu dient der in Abschnitt 1.4 darg e s t e l l t e p a r t i e l l e K o r r e l a t i o n s k o e f f i z i e n t . Die S c h w i e r i g k e i t besteht h i e r aber d a r i n , daß das zu p a r t i a l i s i e r e n d e Merkmal Geschlecht nur zwei Ausprägungen b e s i t z t ; man h i l f t s i c h hier dann, indem man zur Schätzung der K o r r e l a t i o n von Geschlecht und einem der anderen Merkmale einen b i s e r i a l e n K o r r e l a t i o n s k o e f f i z i e n t e n verwendet, v g l . Abschnitt 2.3. Es sei h i e r noch ein Zusammenhang zwischen dem Pearsonschen K o r r e l a t i o n s k o e f f i z i e n t e n r^y und dem K l e i n s t e - Quadrate - Schätzer β f ü r den Regress i o n s k o e f f i z i e n t e n (Steigungsparameter) β der linearen Regression vom Merk-
152
Kapitel III: Die Korrelationsanalyse
Y
108H 106104-| 102100· 9896-
94· 9290Θ8Η 86Ö4J
"t
12
13
14
15
16
1?
18
Abb.10: Graphische D a r s t e l l u n g des Hämoglobingehalts und der m i t t l e r e n Oberf l ä c h e der E r y t h r o z y t e n bei η = 16 Personen, v g l . T a b . 4 ; d i e Daten der Frauen s i n d mit " x " , die der Männer mit " · " gekennzeichnet
mal Y auf das Merkmal X, v g l . h i e r z u K a p . I I , erwähnt:
B=
l (xi - x ) ( y i - y ) / Σ 1 1 1=1 / i=1
(i,
1
(*1 - x K Y i - y } ) - J ( y - j - y )
η
/
(xi-x)2
,
l (x^ - χ ) 1 i=1
η
9
2
η
· I ( y , - y ) M 1 i=1 i=1
9
(χ,-χ)2 1
-n2 ^ r
XY'sY/sX
/
J
h
( x
i-*>
153
Kapitel III: Die Korrelationsanalyse
d.h. der S c h ä t z e r β f ü r Β i s t g l e i c h dem Pearsonscheri
Korrelationskoeffi-
zienten m u l t i p l i z i e r t mit dem Quotienten der empirischen
Standardabweichung
des Merkmals Y und der empirischen Standardabweichung des Merkmals X.
1.1.1 TESTS UND KONFIDENZINTERVALLE FOR ρ Sind d i e Z u f a l l s v a r i a b l e n X und Y normal v e r t e i l t , so können w i r aufgrund von η R e a l i s a t i o n e n x ^ , . . . , x n von X und y^
y n von Y mit H i l f e der K o r -
r e l a t i o n t t e t m , ob X und Y unabhängig s i n d : Hat der unbekannte K o r r e l a tionskoeffizient
ρ den Wert N u l l , so
ist
1 / T - r: XY d i e R e a l i s a t i o n e i n e r t - v e r t e i l t e n Z u f a l l s v a r i a b l e n mit n - 2 F r e i h e i t s g r a den. Dabei bezeichnet r d i e
Pearsonsche Schätzung f ü r p. Wollen wir a l s o
die Hypothese V
p= °
gegen d i e A l t e r n a t i v e H^
p^O
zum Niveau α t e s t e n , so müssen w i r d i e Hypothese Η >t
n-2;1-a/2
verwerfen, f a l l s
gilt
·
In den e i n s e i t i g e n Testproblemen Η': p^O
gegen
H|: p < 0
Η"': p f O
gegen
H^1: p > 0
bzw.
verwerfen w i r die Nullhypothese zum Niveau α, f a l l s t < t
,
gilt
bzw.
t > t„ ·> 1 Wollen w i r aber f ü r f e s t e s P Q ^ 0 d i e Hypothese V
p = p0
gegen die A l t e r n a t i v e H
1:
p
^ po
zum Niveau α exakt t e s t e n , so müssen w i r d i e Prüfgröße r^y verwenden. Die
154
Kapitel III: Die Korrelationsanalyse
Verteilung von r^y für verschiedene Werte pQ i s t z.B. bei David (1954) vertäfelt. Einen approximativen Test erhält man, wenn man zunächst die ftbhejac-kz z Tnani
^onmatam 1 + r 1 XY z=arctanhrXY=IlnTrT-
e2z - 1 , d.h. τ χ γ » - j ^ —
,
durchführt. Zur Umrechnung von r y Y in ζ und umgekehrt verwende man Cab.5. Cab.5: Die Fishersche - ζ - Transformation r
XY -
r
0
XY
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
0 0 0 0 0 0 0 0 1 1
000 100 203 310 424 549 693 86 7 099 472
1 0 0 0 0 0 0 0 0 1 1
010 110 213 321 436 563 709 887 127 528
2 0 0 0 0 0 0 0 0 1 1
020 121 224 332 448 576 725 908 157 589
3 0 0 0 0 0 0 0 0 1 1
030 131 234 343 460 590 741 929 188 658
4 0 .040 0 141 0 245 0 354 0 472 0.604 0 758 0 950 1 221 1 738 z -» r
ζ 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 2.0
0 0 0 0 0 0 0 0 0 0 0 0 0
OOO 100 197 291 380 462 537 604 664 716 762 964
2
1 0 0 0 0 0 0 0 0 0 0 0 0
010 110 207 300 388 470 544 611 670 721 800 970
0 0 0 0 0 0 0 0 0 0 0 0
020 119 217 310 397 478 551 617 675 726 834 976
3 0 0 0 0 0 0 0 0 0 0 0 0
030 129 226 319 405 485 558 623 680 731 862 980
Ζ 5 0 0 0 0 0 0 0 0 1 1
040 139 235 327 414 493 565 629 686 735 885 984
0 .060 0 .161 0 266 0 377 0 497 0 633 0 793 0 996 1 293 1 946
0 0 0 0 0 0 0 1 1 2
070 172 277 388 510 648 811 020 333 092
8 0 0 0 0 0 0 0 1 1 2
080 182 288' 400 523 662 829 045 376 298
9 0 .090 0 192 0 299 0 412 0 536 0 678 0 848 1 071 1 422 2 647
ΧΥ
4 0 0 0 0 0 0 0 0 0 0 0 0
050 151 255 365 485 618 775 973 256 832
7
6
5 0 0 0 0 0 0 0 0 0 0 0 0
050 149 245 336 422 501 572 635 691 740 905 987
6 0 0 0 0 0 0 0 0 0 0 0 0
060 159 254 345 430 508 578 641 696 744 922 989
7 0 0 0 0 0 0 0 0 0 0 0 0
070 168 264 354 438 515 585 647 701 749 935 991
8 0 0 0 0 0 0 0 0 0 0 0 0
080 178 273 363 446 523 592 653 706 753 947 993
9 0 0 0 0 0 0 0 0 0 0 0 0
090 188 282 371 454 530 598 658 711 757 956 994
I s t etwa r^y = 0.43, so g i l t z = 0.46; i s t Γ χ γ = 0.61, so g i l t z = 0.709. I s t ζ = 0.25, so i s t r Y V = 0.245; i s t ζ = 1 . 3 , so i s t r Y V = 0.862. Die Größe ζ (eigentlich die ζ zugrundeliegende Zufallsvariable) i s t auch für kleine η recht gut approximativ normal v e r t e i l t mit
155
Kapitel III: Die Korrelationsanalyse
E Daher
^
l
n
j
i
l
U
^
^
und
V a r f z ) ^
.
ist (ζ -
ζ)·\/~n-3
standardnormal v e r t e i l t
(approximativ),
so daß w i r den E i n s t i c h p r o b e n - Gauß-
t e s t , v g l . Kap.I, A b s c h n i t t 3, verwenden können. Wir müssen a l s o z . B .
die
Hypothese p = p
V
o
im Test zum Niveau α gegen d i e Η
Γ
p
^ po
verwerfen, f a l l s lung
Alternative
'
Standardnormal V e r t e i -
gilt: | ( ζ - ζ 0 ) · / 7 Γ 7 | >u1_a/2
Dabei
c er
mit dem (1 -α/2) - Quantil
.
ist
Analog v e r f ä h r t man bei den e i n s e i t i g e n Hypothesen H^ und H^' v g l . nachstehendes
Be.jjsp.ie2:
f ü r p Q ^ 0;
Beispiel.
Bei V o r l a g e n der Beobachtungen aus Tab.1 wollen w i r d i e Hypothe-
se, daß d i e Zahl der Studienanfänger und d i e Gesamtstudentenzahl s i t ä t e n unkorrel i e r t s i n d , zum Niveau α = 0.1
an Univer-
testen.
Da s i c h a l s Schätzer f ü r d i e K o r r e l a t i o n r ^ y = 0 . 9 7 7 5 ergab, müssen w i r beim Testen von HQ: Ρ = 0
gegen
H1: Ρ f 0
die Hypothese H q verwerfen, da t =
0^9775μΓΤ^^=62139
> 1 8 6
= t10.2;0_95 = t8;0>g5
/ 1 - 0. 9775 gilt.
D.h. es besteht eine s i g n i f i k a n t e K o r r e l a t i o n zwischen den beiden
in-
teressierenden Merkmalen.
Mit H i l f e des approximativen Tests wollen w i r nun noch zum Niveau ο = 0.05 Η
ό' : P I 0 - 8
gegen
H-j": ρ >0.8
156
Kapitel III: Die Korrelationsanalyse
testen. Mit τ χ γ = 0.9775 ergibt sich ζ = 2.238 und es ist _
1
ln
1.80
0.80
,
Da (ζ-ς0)
2.897 > 1.645 = u Q > 9 5
ist, wird H" verworfen, d.h. die Korrelation ist zum 5% Niveau siqnifikant ο größer als 0.8. Die Fishersche ζ - Transformation kann auch zur Bestimmung eines 1-a
- Kon-
i£d&nzi.nteAvcMi ίίίΊ ρ benutzt werden. Ein Konfidenzintervall für ζ zum Niveau 1-a ist r_
1' W
,
1 + r
, _ Γ ΐ ι .
p) ~ 7 ^
U
XY
T-r 1
1 -a/2
— —
XY
Ein Konfidenzintervall
1
» 2?
1 + r
1 n
1
1
XY r
XY
.
+
U
1 -α/2
1
— \f~n-3 -I
[ r ^ r ^ ] für ρ ergibt sich hieraus, indem man z^ und
Z£ in die Intervall grenzen r^ und r,, umrechnet. Dabei macht man sich zunutze, daß für i=1,2 gilt: 1
1 + r
r
i
i
und verwendet ein iteratives Verfahren zur Berechnung von r.. Ein recht einfaches Verfahren zur Bestimmung von r^ und r^ ist die "regula falsi", vol. etwa Stoer (1979). Für i=1,2 sucht man zu einem Startwert r°, den man beispielsweise durch die Fishersche z - Transformation (für z ^ aus Tab.5 erhält, ein v°, so daß gilt f(r°)-f(v?) < 0
.
Beginnend mit j = 0 berechnet man dann im j-ten Schritt rJ n^ = r J - f ( r J ) — J U 1 1 1 f(r^) - f(v^)
.
Ist dann ί ( τ φ = 0, so ist r^ = r i die gesuchte Nullstelle der Funktion f, und ist f i n ^ j ^ O , so setzt man
M - ' - f v
f (n^.vj)
,
für f(n^)-f(^')>0
. . Ihj.rj)
,
. : für ί ( τ φ · ί ( φ < 0
·
I
Kapitel III: Die Korrelationsanalyse
157
Approximative r^ erhält man natürlich durch direkte Umrechnung der zmit Tab.5. ΒεΙόρ-ί&Ι: Wir wollen ein Konfidenzintervall zum Niveau 5% für die Korrelation zwischen der Zahl der Studienanfänger und der Gesamtstudentenzahl an Universitäten, vgl. auch Tab.1, bestimmen. Ein Konfidenzintervall zum 5% Niveau für ζ ergibt sich zunächst wegen r^ Y = 0.9775 zu r, [z
- ι - Γ 1 ι - 1-9775 1'z2] " I ?
1.96 '
1 1.9775 , 1.961 7 ,n ÖTÖ223"
= [2.238 - 0.741 , 2.238 + 0.741] =[1.497,2.979] Vermittels der "regula f a l s i " bestimmen wir nun die Grenzen r^ und r^ des 5% - Konfidenzintervalls für die Korrelation p. Als Startwert wählen wir dabei r° = 0.900
und
r ° = 0.999
.
Für die Grenze r^ ergibt sich mittels "regula f a l s i " zunächst mit v° = 0.890
und f(v°) = -0.025629685 : η° = 0.900 - 0 . 0 2 5 2 1 9 4 9 0 . ( ) - 0 2 5 2 a g ; g ; ^ ° 6 2 9 6 8 5 = 0.895040335 und damit dann f(n°) = -0.000565905 Wegen f ( n ° ) - f ( r ° ) U
1-a/2
gilt
·
Natürlich kann man auch die e i n s e i t i g e n Testprobleme zum Niveau α Η
ό:
P
1-P2
gegen
Η"·: P 1 I P 2
gegen
H
i:
P
1 < p2
ünd
H^1: p 1 > p 2
betrachten. Man muß H' verwerfen, wenn q i l t 0 " Τ u, 1 -α
Wird die Hypothese H q der Gleichheit der Korrelationen p 1 und p 2 zum Niveau α nicht verworfen, so kann man einen neuen gemeinsamen Schätzer für p^ und P 2 bestimmen. Der gemeinsame Schätzer für ς i s t (n 1 - 3)z 1 + ( n 2 - 3 ) z 2 Z =
f
V
l i
2
'
160
Kapitel III: Die Korrelationsanalyse
In Tab.5 sucht man dann den zu ζ gehörigen Wert r und hat damit einen gemeinsamen Schätzer für p^ und p 2 gefunden. Aufgrund einer Stichprobe vom Umfang n. = 17 hat sich a l s Schätzer der Korrelation p^ r, =0.72 und aufgrund einer Stichprobe vom Umfang n^=26 hat sich a l s Schätzer für P2
r 2 = 0.58 ergeben. Wir wollen zum Niveau a = 0 . 1 0 die Nullhypothese H0: P 1 = p2
gegen
H 1 : p 1 ji
testen. Aus Tab.5 ergibt sich für r 1 =0.72:
z ^ 0.908
für r 2 = 0.58:
z 2 = 0.662
und
Somit i s t 0.908 - 0.662
Τ
1/(17-3) + 1/(26-3)
: ^ | g = 0.726 < 1.645 = u 0 _ 9 5
so daß wir die Hypothese der Gleichheit von p^ und p 2 zum Niveau 0.10 nicht verwerfen können. Nun wollen wir noch den gemeinsamen Schätzer r für p^ und p 2 bestimmen. Es i s t (17 - 3)·0.908 + (26 - 3)-0.662 27.938 n , , n TTTTs = ^3—=0.650 und somit nach Tab.5
J
r = 0.572
Will man nicht nur die Gleichheit von zwei Korrelationen p^, p 2 überprüfen, sondern vielmehr die Homogenität, d.h. die Gleichheit, von k Korrelationen p ^ , . . . , p^ von je zwei Merkmalen, so bestimmt man zunächst aufgrund von paarigen Stichproben der Umfange n ^ , . . . ^ ^ Schätzer
für diese
unbekannten Korrelationen, die man dann mit Hilfe von Tab.5 in Größen transformiert. Im Test zum Niveau α von H0'· P 1 = P 2 = . . . = P k
gegen
H 1 : es gibt ein Paar (i ,j) mit p i f p..
verwirft man die Nullhypothese H q , f a l l s
Kapitel III: Die Korrelationsanalyse
S I
T=
z
2, , vni " ^
(j,
2
i( R
n
i-
3 )
)
161
2
>xtl;1-a
iS, g i l t , mit dem ( 1 - a ) - Quantil der χ 2 - V e r t e i l u n g mit k - 1 F r e i h e i t s g r a d e n . Wird H
q
zum Niveau α n i c h t verworfen, so kann man, wie schon beim Test auf
G l e i c h h e i t von zwei K o r r e l a t i o n e n , einen gemeinsamen S c h ä t z e r r f ü r bestimmen, indem man mit H i l f e der Tab.5 den Wert
j
z.(nr3) κ
in den Wert r t r a n s f o r m i e r t . Be-όόpleJL: Bei Stichprobenumfängen n^ = 1 1 , r»2 = 15, n 3 = 7 und n^ = 22 ergaben s i c h a l s S c h ä t z e r f ü r ρ^, p^, p^ und p^ die Werte r^ = 0 . 3 7 , ^ = 0 . 2 6 , r^ = 0.19 und ^ = 0.32. Wir wollen nun zum Niveau a = 0.10 d i e Hypothese V
P
1
=
p
2=
p
3
=
p
4
t e s t e n . Es e r g i b t s i c h aus Tab.5 f ü r
Es
r1 =0.37:
z 1 = 0.388
r 2 = 0.26:
z ? = 0.266
r 3 = 0.19:
z 3 = 0.192
r. =0.32:
z„ = 0.332
.
ist 4 ι n, = 11 + 15 + 7 + 22 = 55 i =1 1 4 ι i =1
,
z . ( n . - 3) = 0.388-8 + 0.266-12 + 0.192-4 + 0.332-19 = 13.372 1
,
1
4
l z ? ( n . - 3) = 0 . 3 8 8 2 · 8 + 0 . 2 6 6 2 · 12 + 0. 192 2 ·4 + 0 . 3 3 2 2 · 1 9 = 4 . 2 9 5 i =1 1 1 Damit können w i r wegen
T = 4.295 -
13.372 2 ^ - =
1.0439 < 6 . 2 5 1 = x | ; 0 _ g 0 = x J . 1 . w
d i e Hypothese der Homogenität der 4 K o r r e l a t i o n e n p ^
p,,, p^ und p^ n i c h t
162
Kapitel III: Die Korrelationsanalyse
verwerfen. Der gemeinsame Schätzer r erciibt sich nun wegen ~
1.2
13.372 -ijTj—= 0.24
zu
ZUSAMMENHANGSANALYSE
Sind
J
r = 0.235
MEHRERER
MERKMALE
normal v e r t e i l t e Z u f a l l s v a r i a b l e n mit Korrelationen
Pv γ = P · · "für- i , j = 1 , . . . , p , so f a ß t man die aufarund von Messunnen 1J i j x ^ »· • · > χ ΐη' χ 2ΐ > · · · ' x 2 n ' ' " " , x p 1 ' " " , x pn s c h ä t z t e n Korrelationen (n > p) rv
X
Y
iXj
= r . . für i,j=1
ρ zwischen j e zwei Merkmalen in der
1J
guchätztzn
KofLKelcutLoniiraiAlx R, die auch mit R y oder RΛYΛy bezeichnet w i r d , zusammen. 1
r12
r13
...
r 1p r 2p
R=
r 12
r 23
1
•r1p
r 2p
···
r 3p
·'·
Davon ausgehend lassen sich zlndimmilonali Μ&ΛΛίη) Zuiammenhangi
Maße. (,ϋκ cLLe. Staike.
du
(paan.-
deA ρ MeAkmxle. berechnen. Solche Maße sind zum Bei-
spiel die Determinante det R von R, v g l . K a p . I , Abschnitt 4, oder die maximale E x z e n t r i z i t ä t maex R von R, die sich aus dem größten und dem kleinsten Eigenwert Ag und λ^ von R bestimmt: maex R =
λρ ~ λ , G Κ
.
Dabei liegen det R und maex R zwischen 0 und 1. Die Stärke des Zusammenhanns i s t umso größer, j e näher det R zu Null bzw. maex R zu Eins und umgekehrt i s t s i e umso k l e i n e r , j e näher d e t R Null
liegt,
zu Eins und maex R zu
liegt.
W i l l man ausgehend von der geschätzten Korrelationsmatrix f ü r ρ Z u f a l l s variablen Tests über deren (paarweise) Unabhängigkeit zum Niveau α durchführen, so können zwei verschiedene Arten von Hypothesen i n t e r e s s i e r e n . Zum einen i n t e r e s s i e r t man sich dafür, ob a l l e Z u f a l l s v a r i a b l e n paarweise u n k o r r e l i e r t sind, d.h. f ü r H q : p^j = 0 f ü r a l l e Paare ( i , j ) mit gegen
i/j
163
Kapitel III: Die Korrelationsanalyse
H^: es gibt ein Paar (i,j), i ^ j mit
,
zum anderen möchte man simultan testen, welche Korrelationen p ^
mit i φ j
signifikant von Mull verschieden sind, d.h. H q ( i , j): P-j J = 0
FEGEN
Η 1 (i ,j): p ^ . ^ 0
Im ersten Fall spricht man von Globaltuti,
fiir 1 K. i > . . . > K . . Ί ρ(ρ-1 )/2 J p(p-1 )/2 1 Γ V 2 ~ Dann überprüft man sukzessive f ü r m=1,2
p(p-1)/2, ob
K i n ,j m < t n-2;1-a/(p(p-1)+2-2m)
gilt.
I s t dies f ü r ein m das e r s t e Mal der F a l l , so sind die Korrelationen
ρ.· ,· ,···,?,· i a l s s i g n i f i k a n t verschieden von Null zum Niveau α zu V i V 1 V 1 betrachten. A l l e übrigen Korrelationen p. . , . . . , p . ! mm mJ 1 p(p-1)/2 J p(p-1)/2 sind n i c h t s i g n i f i k a n t von Null verschieden. Dieses Testproblem kann man multiple
Ve.Aglej.che.
nach
Holm nennen, v g l . Holm (1979).
KeAApiel: Zum S c h l e i f e n optischer Linsen stehen p = 5 Maschinen zur Auswahl und an jeder Maschine werden η = 10 Linsen g e s c h l i f f e n . Die Meßergebnisse ' x.j k » i = 1 , . . . , 5 , k=1,...,10 (Abweichungen vom S o l l w e r t ) sind in Cab.6 angegeben. Die drei v o r g e s t e l l t e n Testverfahren s o l l e n nun zum 5% Niveau durchgeführt werden. Dazu sind in Cab.7 die Korrelationen r^ . sowie die Prüfgrößen K...
Kapitel III: Die Korrelationsanalyse
165
f ü r d i e m u l t i p l e n V e r g l e i c h e nach Holm angegeben. Cab.6: V e r s u c h s e r g e b n i s s e f ü r das S c h l e i f e n o p t i s c h e r L i n s e n Maschine i Linse k 1 2 3 4 5 6 7 8 9 10
1
2
3
4
5
5 4 7 -2 0 3 6 1 1 -5
2 0 -1 1 0 1 -3 4 2 0
7 5 -9 -3 0 -6 5 3 -1 0
3 4 -2 5 -4 -1 3 7 -4 -3
-2 1 3 -3 2 -5 0 4 -2 1
Cah.7: Geschätzte K o r r e l a t i o n e n r · · und Prüfgrößen K - . f ü r m u l t i p l e VerJ J g l e i c h e nach Holm
i
j
1 1 1 1 2 2 2 3 3 4
2 3 4 5 3 4 5 4 5 5
r.. 1J -0 0 0 0 0 0 -0 0 0 0
K
3130 0581 1760 0522 0963 2632 0494 4790 1307 0752
Beim Global t e s t von Nagao e r g i b t 4 N = 9
10 =
P
12 =
5
= 10 und
Ρ { χ ^ 0 < Ν } = 0..063 P ( x ^ 2 f Ν} = 0..021
II
Ρ ί χ 2 1 4 < N> = υ..006
P
ergibt:
16 =
sich
l l r 2 , = 9 ( ( - 0 . 3 1 3 0 ) 2 + . . . + 0.07522) = 9-0.4682 =4.2138, 1J i=1 j = i + 1
so daß s i c h mit f = P
ij
0 .9321 0 1646 0 5057 0 1478 0 2736 0 7716 0 1399 1 5434 0 3729 0 2133
Ρ { χ ^ 6 < Ν } = υ..002
166
Kapitel III: Die Korrelationsanalyse
0.063 + 2 ^ 9 ( 2 · 12-0.002 - 3-36-0.006 + 6-24·0.021 - 60-0.063 = 0.063 + 2Yg(-1.356) = 0.0316 < 0.95= 1 - α
.
Nach diesem Globaltest sind die 5 Meßreihen also nicht a l s zum 5% Niveau s i g n i f i k a n t abhängig anzusehen. Beim zweiten Global test von Wilks ergibt sich c = 10 - 5 - g — ^ = 2 . 5 und nach dem Laplaceschen Entwicklungssatz, vgl. Kap.I, Abschnitt 4, ergibt s i c h b e i j e w e i l i g e r Entui.ic.klu.ng
nach
deλ
ΟΛΛΙΖΆ
ZMe.
det R = 0.7572373 - 0.0963-(-0.0230533) + 0.2632-(-0.2141449) + 0.0494-(0.0504981) - (-0.3130)·{(-0.3130)-0.7572373 - 0.0963·(-0.029745) + 0.2632·(-0.1450772) - (0.0494)-0.0325057)} + 0.0581·{(-0.3130)·(-0.0230533) - (-0.029745) + 0.2632·(-0.0039951) - (-0.0494)·(-0.0029732)} - 0.1760·{(-0.3130)·(-0.2141449) - (-0.1450772) + 0.0963·(-0.0039951) - (-0.0494)·(-0.0188673)} + 0.0522·{(-0.3130)·(-0.0504981 ) - 0.0325057 + 0.0963-(-0.0029732) - 0.2632-(-0.0188673)} = 0.7005998 + 0.3130·(-0.2707294) + 0.0581-0.03 5 7623 - 0. 1760-0.2107878 + 0.0522-(-0.0120202) = 0.5802132
.
Damit i s t W = -2.5·1η 0.5802132 = 1.3608991 < 18.3 =
;0>95
= χ*0
;0
95
und auch hier wird die Nullhypothese der Unkorrel iertheit der Meßreihen zum 5% Niveau nicht verworfen. Bei den multiplen Vergleichen nach Holm i s t für m= 1 K
i1J1
=K
34
= 1,5434
< 3-8325 = t
8;1-0.05/20
=t
8;0.9975
;
somit kann keine der Korrelationen p ^ s i g n i f i k a n t verschieden von Null sein, d.h. kein Meßreihenpaar i s t s i g n i f i k a n t abhängig zum 5% Niveau.
167
Kapitel III: Die Korrelationsanalyse
Mit keinem der Tests kann also eine zum 5% Niveau s i g n i f i k a n t e Abhänaigk e i t zwischen einigen der Meßreihen nachgewiesen werden.
1.3
DIE
MULTIPLE
Die multiplz
J
KORRELATION i s t ein Maß f ü r die Abhängigkeit eines Merkmals X
KoM.nZcLtion
von ρ anderen Merkmalen
; dabei wird vorausgesetzt, daß a l l e in-
teressierenden Merkmale in der j e w e i l i g e n Grundgesamtheit normal v e r t e i l t sind. S i e i s t d e f i n i e r t a l s die betragsmäßig größte einfache Korrelation zwischen dem Merkmal X und einer Linearkombination a1Y1+a2Y2 +
V
der Merkmale Y^
p
mit beliebigen Gewichten
multiple Korrelation p v / v 'ii'l
v
y
. W i l l man die
\ zwischen X und Υ,
Y aufgrund Ρ
1
einer Stichprobe vom Umfang η aus der interessierenden Grundgesamtheit schätzen, so mißt man die Ausprägungen von X , Y j , . . . , Y
an jedem der η Ob-
j e k t e aus der Stichprobe und schätzt dann zunächst a l l e möglichen einfachen Korrelationen ρ Ϋ „
und p v
XYi
koeffizienten,
vgl.
v
V j
m i t t e l s des Pearsonschen Korrelations-
auch A b s c h n i t t
1.1.
Der Schätzuizxt
iiin.
tLin
nuttiplz
bestimmt sich dann a l s ( n > p )
KoineZcutLon
r
X,(Yr...,Y
p
)
Γ ^ — —
" V
r
XY,RYY'rXY
(rXY1,",,rXY
'
Υ,Υο Υ,Υ.
Γγ2Υρ
1 '2
rY
γ
Vp
-1
Vp
rY
γ
2 ρ
ΧΥ, ΧΥ,
ΧΥ
S p e z i e l l f ü r ρ= 1 entspricht dies gerade der betraglichen einfachen Korrel a t i o n von X und Y^, denn r
X,(Y1)
=v/
r
XY1'1"rXY1
=
^XYJ
·
für ρ = 2 e r g i b t sich
X,(Y1,Y2) =
rXY2}
1
ry γ Ίτ2
rY
Y 1 2 1
- ι
""ΧΥ, Γ ΧΥ 2 .
1/2
168
Kapitel III: Die
Korrelationsawlyse
1
-r,
Y Y
1 2
Y.Y,,
12
, ~2 r XY,
+r
XY, XY,
2
XY2 "2rXY1rXY2rY1Y2 1 - r!
Y
1Y2
und für ρ = 3 ist
a +b +c -d
X»(Y^ >Y 2 Ύ 3 )
Y Y ' Y Y ' Y Y 1 2 1 3 2 3
r
v ν 1 2
' γ γ 1 3
Υ Υ 2 3
mit
a = r
X Y / 1 -rY2Y3)
b = 2r
C
+r
XY2(1 -r?1Y3)
XY1rXY2(rY1Y2"rY1Y3rY2Y3)
"2rXY2rXY3(rY2Y3 "
d = 2r
Γ
ν2Ι"ΥΐΥ3)
+ r
XY3(1 -
r
5,Y2)
' und
XY1rXY3(rY1Y3 " rY,Y2rY2Y3)
Die Größe B
X.(Y1,....Yp)
=
r
X.(Y1,....Yp)
nennt man auch das mu&tiplz
ButimmtkeJXima.&.
Es gibt a n , wie gut das Merk-
mal X durch die Merkmale Υ,
Y erklärt wird, vql. auch Kap.II. In der Ρ 2 Literatur wird das Bestimmtheitsmaß häufig auch mit R bezeichnet.
BiLipleZ: (a) Man hat bei η = 21 Personen Körpergröße, Gewicht und Alter festgestellt und möchte nun die Abhängigkeit von Körpergröße und Alter bei Menschen aufgrund dieser Stichprobe schätzen. Die Ergebnisse der Untersuchung sind in Cab.8 zu finden.
Gehen wir davon aus, daß Gewicht, Körpergröße und Alter normal verteilte Zufallsvariablen sind, so können wir die gesuchte Abhängigkeit durch Schätzung der multiplen Korrelation zwischen X = "Gewicht" und (Y^Y,,) = ("Körpergröße", "Alter")
schätzen.
Kapitel III: Die Korrelationsamlyse
Cab.8: Gewicht, Körpergröße und A l t e r bei η = 21 Personen
Person i
Gewicht x.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21
Körpergröße
76 72 74 59 52 63 80 85 71 68 73 75 61 87 85 63 59 91 51 62 68
y^
Alter
1.77 1.65 1.83 1.69 1.57 1.72 1.75 1.84 1.69 1.73 1.75 1.71 1.64 1.86 1.93 1.75 1.62 1.87 1.58 1.63 1.67
y2i
25 43 63 56 24 21 47 44 29 51 31 63 57 42 47 38 51 56 36 42 28
Aus den Untersuchungsergebnissen in Tab.8 schätzen w i r zunächst die e i n fache K o r r e l a t i o n zwischen Gewicht und Körpergröße 21 l
Vii"
2 r x y
~i
2565.59 - 2546.21 V (106149 - 103606.81)(62.768 - 62.561 ) = 0.845
,
zwischen Gewicht und A l t e r 21
J,
V 2 i
"21**2
63517 - 62792.45
=
v/ (106149 - 103606.81J(41360 - 38056.30) = 0.250
,
sowie zwischen Körpergröße und A l t e r
19.38 526.23
169
170
Kapitel III: Die Korrelationsanalyse
21 J=] i=1
y1iy2i"y1y2
1549.61 - 1542.99 V/ (62.768 - 62.561)(41360 - 38056.3) = 0.010
Nun können wir r als Schätzer f ü r die multiple Korrelation zwischen Gewicht und Körpergröße, A l t e r berechnen:
= 0.879 (b) Ausgehend von einer Stichprobe k a s t r i e r t e r männlicher Schweine werden Korrelationen zwischen den Merkmalen X Fleisch - Fettverhältnis im Schlachtkörper, Y^ Rückenspeckdicke und Υ^ Karreefläche (musc. long, dorsi) geschätzt, vgl. Haiger (1978). Es ergab sich r^y rv
v
1 2
=-0.52, r χ γ
=0.47 und
=-0.07. Hieraus ersieht man, daß Schweine mit gutem Fleisch - Fett-
Verhältnis im Durchschnitt eine geringe Rückenspeckdicke und eine große Karreefläche haben. Rückenspeckdicke und Karreefläche sind dagegen praktisch unkorreliert. Die multiple Korrelation zwischen Fleisch - Fettverhältnis im Schlachtkörper und den Merkmalen Rückenspeckdicke und Karreefläche ergibt sich nun zu
/
(-0.5Z) 2 + 0.472 - 2(-0.52)(-0.07)·0Τ47_
= 0.68
Kapitel III: Die Korrelationsanalyse
Berechnet man nun die B
X,Y, = rXY
171
Bestimmtheitsmaße = ( - 0 . 5 2 ) 2 = 0.27
,
Vy^XV0·47^0·22 und das multiple
Bestimmtheitsmaß
^ ( Y ^ r ' U Y , ^ ) - -
0
·
6 8
^
0
·
4 6
·
so läßt sich sagen, daß 27% der Schwankungen im Fleisch - Fettverhältnis von kastrierten männlichen Schweinen durch Unterschiede in der
Rückenspeckdik-
ke und 22% der Schwankung durch Unterschiede in der Karreefläche
erklärbar
sind. Insgesamt werden durch Rückenspeckdicke und Karreefläche sogar 46% der Varianz des Fleisch - Fettverhältnisses
erklärt.
Die multiple Korrelation zwischen einem Merkmal X und den ρ Merkmalen Y^,...,Yp ist gerade dann Null, wenn alle einfachen p^Y ,...,ρ χ γ
gleich Null
Korrelationen
sind.
Will man die Hypothese ρ
V
Χ,(ΥΓ...,Υρ)
( =P
X Y , = ··· = P X Y p ) = 0
zum Niveau α gegen die Alternative H^: es gibt ein
tzitzn,
£0
so verwendet man als PrUfgröße
r
X,(Yr...,Yp)(n-1-p) P(1-rx,(Y1,...,Yp))
wobei η die Anzahl der Objekte in der Stichprobe bezeichnet. Die Hypothese Η
ο
wird zum Niveau α verworfen, falls F > F
,
gilt, wobei F„ das γ - Q u a n t i l der F - V e r t e i l u n q bezeichnet. Diese ρ,ν;γ ρ,ν Quantile sind im Anhang vertafelt.
6e-cipLol: Aufgrund der Daten aus Tab.8 wollen wir testen, ob die multiple Korrelation zwischen den Merkmalen Gewicht (X) und Körpergröße ( Υ 1 ) , Alter (Y 2 ) Null
ist. Wir testen also
172
Kapitel III: Die Korrelationsanalyse
V
P
( =P
X,(Y1,Y2)
XY1
=P
XYZ}
= 0
gegen H 1 : ρ χ γ ?ί 0
oder
ρχγ φ 0
Als Niveau wählen wir α = 0.05. In diesem Beispiel i s t η = 21, ρ = 2 und wie schon berechnet r^ ^
j = 0.879. Wegen
γ
ρ _ 0.879^(21 - 1 - 2) _ 13^91 _ 30.585 > 3.555 = F 2 g5 2(1 - 0 . 8 7 9 ^ °·456 2,18,0.95
J
müssen wir die Unabhängigkeitshypothese verwerfen. Will man testen, ob Ρ χ (γ
y j gleich einem Wert p Q ^ 0 i s t , so muß man
eine Tafel der Quantile der nichtzentralen F - Verteilung oder eine spezielle Tafel der Verteilung des multiplen Korrelätionskoeffizienten verwenden. Eine solche findet man etwa bei Graybill
1.4
DIE
KANONISCHE
Die kanorUiche
(1976).
KORRELATION
KowieZcitLon bezeichnet die Korrelation zwischen zwei Grup-
pen von Merkmalen. Die Merkmale bzw. die zugehörigen Zufallsvariablen (die gleich bezeichnet seien) X^
X p der ersten Gruppe und
der
zweiten Gruppe werden a l s in der interessierenden Grundgesamtheit normalv e r t e i l t vorausgesetzt. Ohne Einschränkung sei hier davon ausqegangen, daß p £ q < η g i l t . Die kanonische Korrelation entspricht der betragsmäßig maximalen Korrelation zwischen allen Linearkombinationen α 1 Χ 1 + a 2 X 2 + ... + a p X p d.h. die Gewichte α^
α
ρ'^ι
und
+ werc
+ . . . ßqYq
;
'en hierfür so bestimmt, daß die
einfache Korrelation zwischen den Linearkombinationen ihr betragliches Maximum annimmt. Den Vektor
) nennt man dann auch Vektor der "re-
gressionsähnlichen Parameter", den Vektor (ß^
ß q ) auch Vektor des "be-
sten Vorhersagekriteriums". Die kanonische Korrelation läßt sich auch durch die Quadratwurzel aus dem größten Eigenwert des Matrizenproduktes
Kapitel III: Die Korrelationsanalyse
173
ίχ^ίχγ'ίγ^ίχγ ausdrücken. Dabei
ist Ww 1
tx = Cov(Xr...,X
) =
σγ γ Α ^A^
σ
iY = Cov(Yr...,Y
Y Y V Y 12 13 2 σγ Qy y 23
χ.χ„ 1p
σ
χ,χ„ 2 p
σ
X
1XP
V p
χ,χ„ 3 p
Ρ
)
und σ
σ
χ γ V i
χ Y 12
X
1Yq
V q ^XY '
X
pY1
X
pY2
J
X Y p q
Hierbei bezeichnet σ ν
die unbekannte Varianz i n n e r h a l b des Merkmals X . , 1 i σ ν Y d i e Kovarianz zwischen den Merkmalen X. und X. und σ Ϋ v d i e KovaX X 1 J X Y i j i j r i a n z zwischen den Merkmalen X^ und Y^. x
M i t u n t e r i s t man n i c h t nur an der kanonischen K o r r e l a t i o n
\linteressiert, -1 -1 τ
sondern auch an der Quadratwurzel der ü b r i g e n Eigenwerte von
·$χγ·£γ
Man nennt dann auch d i e s e Größen kanonische K o r r e l a t i o n e n und
·ίχγ·
i s t die
maximale kanonische K o r r e l a t i o n . Diese insgesamt ρ Eigenwerte entsprechen, ausgedrückt a l s b e t r a g l i c h e K o r r e l a t i o n e n von Linearkombinationen der Merkmale, folgenden Größen: Die maximale kanonische K o r r e l a t i o n i s t , wie e r wähnt, d i e betragsmäßig größte K o r r e l a t i o n a l l e r Linearkombinationen, d i e zweitgrößte kanonische K o r r e l a t i o n d i e betragsmäßig größte K o r r e l a t i o n a l l e r auf der e r s t e n Linearkombination senkrecht stehenden Linearkombinationen usw. Man i n t e r e s s i e r t s i c h dann z . B . f ü r d i e Schätzung der Dimens i o n a l i t ä t ( d i m e n s i o n a l i t y ) , d.h. d i e Schätzung der Anzahl s i g n i f i k a n t von Null v e r s c h i e d e n e r kanonischer K o r r e l a t i o n e n ; man v e r g l e i c h e etwa, auch f ü r weitere Aspekte der kanonischen K o r r e l a t i o n s a n a l y s e , F u j i c o s h i Glyn/Muirhead ( 1 9 7 8 ) ,
(1974),
Yohai/Garcia ( 1 9 8 0 ) , Tso (1981) sowie die weiter
unten angegebene L i t e r a t u r , aber auch A b s c h n i t t 6 in Kap.V.
174
Kapitel III: Die Korrelationsanalyse
Die kanonische Korrelation ρ, ν ν wv ur····
ν \ kann aufgrund einer r " " V
Stichprobe von η Objekten aus der interessierenden Grundgesamtheit geschätzt werden, indem zunächst die Ausprägungen x ^ , . . . ,x p i . y ^ · . . ,yqlder Merkmale
Yq bei jedem der η Objekte gemessen werden.
Man schätzt dann die Matrizen
$y und
durch S^, Sy bzw. S^y, indem
man für i=1,...,p die Varianzen o? i durch (xik-3ri)2
2 die Varianzen σγ
*i 4
j ,
x ik
. » t
y - J ^ y ^
·
(i=1»...,q) durch
sy.
(y^-Fi)2
und die Kovarianzen σν
v XiXj
, σν
v XiYj
sprechend schätzt; so i s t etwa
der Schätzer für σ^ man dann Q = Sx
·mit
und σ ν
v YiYj
,
zwischen je zwei Merkmalen ent-
γ . Aus den so entstehenden Schätzmatrizen berechnet ι J
•S^'Sy^y
und e r h ä l t a l s SchäutzvieAt r(X1
X p ),(Y 1
(,ϋΛ die
ka.noynAc.he.
Yq)=v'λ6
Kon>ieJLatLon
d i e Größe
'
wobei Xg den größten Eigenwert der Matrix Q bezeichnet. Die Matrix Q kann wahlweise auch als Produkt der empirischen Korrelationsmatrizen bestimmt werden: Q = SX1·SXY·SY1·SXY = Rx1·RXY-RY1·RXY
·
Den Vektor der "regressionsähnlichen Parameter" α=(α^,...,α ) dann durch einen beliebigen zu Xg gehörigen Eigenvektor der Matrix Q schätzen. Den Vektor ß = ( ß ^ f . . . , ß )
des "besten Vorhersage-
kriteriums" schätzt man dann mittels ß = ( ß ^ , . . . , ß ) C -1 C T
~
kann man
α=(α^,...,α )
gemäß der Gleichung
S
Sy 'Syy-a = β Möchte man nun aufgrund von Beobachtungen Y^,...,Y
für die Merkmale
die (unbekannte) Realisation der Linearkombination
Kapitel III: Die Korrelatiomanatyse
175
«p = S 1 ( X 1 - E ( X 1 ) ) + . . . + S p ( X p - E ( X p ) prognostizieren, so kann man direkt den Schätzer β für das "beste Vorhersagekriterium" verwenden, d.h. φ wird prognostiziert bzw. geschätzt durch Φ = Β,ίν, - Ε(Υ 1 )) + ... + ß q ( y q - E ( Y q ) )
.
Hierbei bezeichnen E(X^) und E(Υ^) die Erwartungswerte der Zufall svariablen X.j und Yj, die im konkreten Fall durch Schätzungen ersetzt werden. Man verwendet dazu die arithmetischen Mittel
bzw. y^ aus einer bereits vorlie-
genden Stichprobe. Zur Prüfung der Hypothese H
o:
p
(X1,...,Xp),(Y1,...,Yq)=0
H
r
p
(X 1 ,...,X p ),(Y 1 ,...,Y q ) ? i 0
gegen
stehen verschiedene Te^ti zur Verfügung, von denen keiner dem anderen generell vorgezogen werden kann. Vier dieser Tests sollen hier vorgestellt werden. Alle Tests verwenden als Prüfgröße Funktionen der Eigenwerte \G'\y>\2>
...>λρ
der Matrix Q. Die kritischen Werte für diese Tests zum Niveau α erfordern eine recht intensive Vertafelung. Die benötigten Tafeln findet man etwa bei Kres (1975). Sofern bekannt, werden hier jedoch Approximationen angegeben, die auf Quantile der χ 2 - bzw. der F-Verteilung zurückgreifen, die im Anhang vertafelt sind. Die für den Roy - Test benötigten sogenannten HeckCharts sind ebenfalls im Anhang zu finden. Der ülltki - T u t verwirft die Hypothese H Q zum Niveau α, falls Λη=
ρ I M 1 - λ . ) < c W ; a (p,n-q-1,q)
Die kritischen Werte c w . a (p,n-q-1,q) sind bei Kres (1975 , Tafel 1) zu finden; stehen keine kritischen Werte zur Verfügung, so kann eine der folgenden Approximationen verwandt werden. Verwerfe die Hypothese H q , falls gilt -δ·1η Λ,. > Aχ* , W pq;1-a oder
176
Kapitel III: Die Korrelationsanalyse
1
AW .Ι/Π AW
pq δη - p q / 2 + 1
F
pq,6r|-pq/2+1 ;1-a
wobei S ^ - , . Ρ υ μ Ι
Und
η = / /
L
jfoV4 pSq -5
Die z w e i t e A p p r o x i m a t i o n l i e f e r t genauere W e r t e , f a l l s n - q - 1 k l e i n im V e r g l e i c h zu q und ρ i s t . Der HoteZZing - Lawlzy - TeAt v e r w i r f t d i e Hypothese H q zum Niveau α ,
HL
falls
,-Λ.
Γ=1
Die k r i t i s c h e n Werte d i e s e s T e s t s f i n d e t man b e i Kres ( 1 9 7 5 , T a f e l 6 ) .
Sie
können a b e r auch d u r c h 6 2 ( 2 u + Θ + 1) 2 ( θ ν + 1")
F
6(2u+e+1),2(9v+1) ;1-a
a p p r o x i m i e r t werden; dabei θ = min(p,q)
ist 1
,
u = ^ ( | p - q | - 1 ) und
1
ν = ^ ( n - ρ - q - 2)
zu s e t z e n . I s t n - q ^ p + 3 , so kann a l s A p p r o x i m a t i o n auch g
2'2PQ ,,-p g2 n - ρ - q - 2 g1>g2;1-a
v e r w a n d t w e r d e n . Dabei s i n d dann g^ und g^ w i e f o l g t zu w ä h l e n :
Ist
n - pq - 2 > 0 , so i s t g i - P q ( n = pq 5 q• - V
1 )
und
92 = n - p - q
und i s t n - p q - 2 j < 0 , so w ä h l t man g.1 S
Beim P-Lilalfalls
= °° und
9 92 = n - pr - q μ- ( n - p - q : 2 (>n t- nq :- 2g ): (qn -- p4 -^ 2" )- M - 2 )
BasM&tt - Tut
.
w i r d d i e Hypothese HQ zum Niveau α v e r w o r f e n ,
gilt Ρ PB= .1,
λ
ι
>
c
PB;1-a(P'n·^1'^
Stehen k r i t i s c h e W e r t e , d i e man etwa b e i Kres ( 1 9 7 5 , T a f e l 7) f i n d e n k a n n ,
Kapitel III: Die Korrelationsanalyse
177
n i c h t zur Verfügung, so kann auch der folgende approximative Test verwandt werden: Verwerfe die Hypothese HQ zum Niveau α, f a l l s A PB θ - Λρβ
2u + θ + 1 2v + θ + 1
F
gilt
θ(2υ+θ+1),θ(2ν+θ+1);1-α
'
wobei, wie beim Hotel 1ing - Lawley Test, θ = min(p,q) ,
1 u=^(|p-q|-1)
und
1 ν = γ ( η - ρ - q - 2)
gilt. Der Roy-Tiit
s c h l i e ß l i c h verwendet a l s Prüfgröße den größten Eigenwert λ^
von Q und wird daher mitunter auch MaximaZuiuAzeZ - KfuXeAlu.m genannt. Die Hypothese H q wird zum Niveau α verworfen, f a l l s A
R
= X
1
>
c
R;1-a(p'n"q-1*qJ
·
K r i t i s c h e Werte zu diesem Test f i n d e t man z.B. in den Tafeln 3,4 und 5 bei Kres (1975) oder in den Nomogrammen von Heck (1960). Diese Nomogramme sind auch im Anhang zu finden. Obige v i e r Tests basieren a l l e auf dem sogenannten I n v a r i a n z p r i n z i p , und z.B. der W i l k s - T e s t auf dem Likel ihood - Quotienten - T e s t p r i n z i p , der Roy Test auf dem Union - I n t e r s e c t i o n - P r i n z i p ; v g l . Roy ( 1957), Anderson (1958) K s h i r s a g a r (1972), Morrison (1976), S r i v a s t a v a / K h a t r i
(1979), Ahrens/Läuter
(1981), Muirhead (1982).
ΒζίΔρίζΖ:
Aufgrund einer Stichprobe vom Umfang η = 15 Frauen s o l l die kano-
nische K o r r e l a t i o n zwischen den Merkmalsgruppen (X^,X 2 ) = (Hämoglobingehalt im B l u t , mittlere Oberfläche der Erythrozyten) und (Y^ ,Υ,,) = (Blutdruck, A l t e r ) geschätzt werden. Die Versuchsergebnisse sind in Cab.9 angegeben. Es i s t h i e r p = 2 und q = 2. Zunächst werden die Matrizen aufgrund der Daten aus Tab.9 geschätzt. Mit
und
Kapitel III: Die Korrelationsanalyse
178
ν
π
^
i-yg)'-154.410 ( y
(x
V r ^ I i
Xi
Y2=T4 ^
% γ
= 1 T
2
ii
_ir Kyr
i
i-i " ^ l 5
108.975
ä3
,
-590
( X n - X ^ l y g i - Y z ) =5.488
,
15
1
V l
1 i - ^ V ^ ^ i =
15
1 s
,
1 =1
= π1
(x
2i-x2)(yii-y1)
= 14
·139
und
15
.Σ, ( x 2 i - x 2 ) ( y 2 i - y 2 ) = 19.386
Cah.9: Häraoglobingehalt, mittlere Oberfläche der Erythrozyten, Blutdruck und Alter von η = 15 Frauen Person i
Hb - Gehalt x ^
Oberfläche x2.j
Blutdruck y ^
13.6 15.4 17.2 12.7 13.9 14.5 17.6 15.2 13.8 15.0 14.7 15.5 13.9 14.2 15.3
92 103 104 95 87 95 108 105 84 102 97 96 93 95 102
123 137 139 127 125 120 132 118 125 140 142 126 131 118 112
1 2
3 4 5 6 7 8 9 10 11 12 13 14 15
ergibt sich also
X1X2
rz
V
Y S
1
Y Y 12
YY S
1 2 2
Y '2
1.701
6.764
6.764
45.886
80.952
108.975
108.975
154.410
Alter y 2 i 36 57 61 42 46 31 49 27 35 58 63 44 47 32 25
179
Kapitel III: Die Korrelationsanaiyse
und
S
XY
5
X,Y 11
S
X„Y 2 1
X
S
3.590
5.488
14.139
19.386
1Y2
X2Y2
A l s zu 5 χ und Sy inverse Matrizen ergeben s i c h
S ' · und somit
1.421
-0.209
-0.209
0.053
0.247
-0.175
-0.175
0.130
--1
ist -1 -1 τ Q = Sx · 5 χ γ · ε γ - S X Y :
' 0. 162
0.390'
-0.007
0.006,
Aus dem c h a r a k t e r i s t i s c h e n Polynom von Q, v g l . K a p . I , Abschnitt 4 , det(Q - λ I ) = (0.162 - λ)(0.006 - λ) + 0.390-0.007 = λ 2 - 0.168λ + 0.004 ergeben s i c h die Null s t e l l e n ( =Eigenwerte) λ 1 =0.139
und
= 0.029
Der größte Eigenwert von Q i s t a l s o AG = λ 1 = 0 . 1 3 9 und somit i s t (X 1 ,X 2 ) ,(Y, Γ
2'
= V λ - = V 0.139 = 0.373
der gesuchte Schätzer f ü r die kanonische K o r r e l a t i o n zwischen (Hämoglobing e h a l t , mittlere Oberfläche der Erythrozyten) und (Blutdruck, A l t e r ) bei Frauen. Zum Niveau α = 0.05 s o l l nun die Hypothese Ho:
ί χ γ
= 0
getestet werden. Zur Demonstration s o l l e n h i e r a l l e angegebenen T e s t s , auch die approximativen, durchgeführt werden. Dazu werden folgende Größen benötigt: ρ = 2, q = 2, η = 15, 6 = 1 5 - 1 - ^ ( 2 + 2 + 1) = 11.5,'
η =/
|
^
1
=/ ?
=2 ,
θ = min(2,2) = 2 ,
u=
| 2
"2j
- 1
= 4
und
180
Kapitel III: Die Korrelationsanafyse
v .
1
5
- y
2
-4.5
Beim W i l k s - T e s t wird wegen Aw = 0.861-0.971 = 0.836 > 0.44 = c H . Q
0 g(2,12,2)
die Hypothese HQ nicht verworfen. Auch die beiden Approximationen des W i l k s Tests verwerfen die Hypothese H q n i c h t , denn - δ · 1 η Λ Μ = - 1 1 . 5 - l n 0.836 = 2.060 < 9 . 4 9 = χ * . 0
g5
und 1 - Λ
1/2
1-νΠΓ556
= 0
Q94
< 0.515
2 .2.83
4
=
11
νΠΠ835"
Z3
~Z
r
4,23-2+1;0.95 '
Weiter i s t Λ
, 0- 139 HL " O S T
0.029 . 0 ÜT97T"
1g.
die Prüfgröße des Hotel 1 ing - Lawley - Tests. Da der k r i t i s c h e Wert C
HL-0 9 5 ^ > 1 2 , 2 ) nicht vertafelt i s t , bedienen wir uns hier direkt der
ersten Approximation /, , , ,Ϊ 4(-1+2+1) F 2 F H L ; 0 . 9 5 U , 1 < : ^ ; - 2(0+1) ' h 2 ( - 1 + 2 + 1),2(9+1) ;0.95 T h 4 , 2 0 ; 0 . 9 5
C
= |·2.87 = 1.148
.
Da nun g i l t A H L = 0.191 < 1.148 kann auch bei diesem Test die Hypothese H o nicht verworfen werden. Bei der zweiten Approximation ergibt sich wegen η - pq - 2 = 15 - 2·2 - 2 = 9 > 0 dann „
2 - 2 ( 1 5 - 2 - 2 - 1)
40
. ..
„
.c
,
,
,,
und somit c
HL;0.95(2'12,2)^"Tr'15-22-22-2*F4.44,11;0.95=A'3·281
= 1 193
'
Die Hypothese HQ kann also auch bei diesem approximativen Vorgehen nicht verworfen werden, denn es i s t A h l = 0 . 1 9 1 < 1.193
.
'
Kapitel III: Die Korrelationsanalyse
181
Auch der P i l l a i - B a r t ! e t t - Test g e s t a t t e t zum 5% Niveau kein Verwerfen der Hypothese H Q , denn Λ ρ Β = 0.139 + 0.029 = 0.168 < 0.57 = c p ß . Q _ g 5 ( 2 , 1 2 , 2 )
.
Das g l e i c h e E r g e b n i s l i e f e r t der approximative Test wegen Λ ΡΒ _ 0.168 = 0.092 < 0.467 = ^ - 2 . 8 0 θ - Λ D D 2 - 0.168
_ -1+2+1. ρ 9+2+1 2 ( - 1 + 2 + 1 ) , 2 ( 9 + 2 + 1 ) ;0.95
Auch der Roy - Test v e r w i r f t d i e Hypothese H q zum 5% Niveau n i c h t , denn A R = A, = 0 . 1 3 9 < U.53 = c R ; 0 : 9 5 ( 2 , 1 2 , 2 )
.
Insgesamt l ä ß t s i c h a l s o zum 5% Niveau keine s i g n i f i k a n t e K o r r e l a t i o n
zwi-
schen den Merkmalsgruppen (Hämoglobingehalt, m i t t l e r e Oberfläche der E r y t h r o z y t e n ) und ( B l u t d r u c k , A l t e r )
1.5
DIE
PARTIELLE
nachweisen.
KORRELATION
Oft i s t eine K o r r e l a t i o n zwischen zwei Merkmalen X und Y nur deshalb v o r handen, weil beide Merkmale mit einem d r i t t e n Merkmal U k o r r e l i e r t
sind,
v g l . auch Abb.10 in A b s c h n i t t 1.1. Die K o r r e l a t i o n von X und Y i s t dann eine r e i n e
Scheinkorrelation.
Βe.U>pie£: Die Anzahl der Störche in e i n e r Renion Morddeutschlands und die Anzahl der Geburten s i n d k o r r e l i e r t . B e r ü c k s i c h t i g t man jedoch a l s Merkmal d i e Größe der Sumpfflächen in der Region a l s einen
drittes
Zivilisations-
index, der mit beiden Merkmalen e i n z e l n k o r r e l i e r t i s t , so verschwindet d i e s e S c h e i n k o r r e l a t i o n zwischen Anzahl der Störche und der K i n d e r . Daher i s t es v i e l m a l s von I n t e r e s s e , eine KowizlcubLon t.in. Paitial-iileAung
tinzi,
ζui-Uchcn X und
V un-
Me-tfemo&j U, d.h. d i e K o r r e l a t i o n von X und Y,
d i e ohne den E i n f l u ß von U vorhanden i s t , zu bestimmen. Eine s o l c h e K o r r e lnation ation Ρ p,y( χ > γY v|.. e i ß t auch kurz partielle nei )|u h S i e i s t gegeben a l s P
XY " P XU" P YU
KoAAilation
von X und V unteA
U.
182
Kapitel III: Die Korrelationsanalyse
Sind die Merkmale Χ, Y und U in einer interessierenden Grundgesamtheit normal v e r t e i l t , so kann man ρ^χ y j ^ aufgrund von je η Realisationen x^
x n , y ^ , . . . , y n und u^
u n schätzen, indem man die einfachen Kor-
relationen ρ χ γ, ρ χ υ und pyjj mittels des Pearsonschen Korrelationskoeffizienten schätzt, vgl. speziell auch die Abschnitte 2.2 und 2.3, wobei in letzterem auch für das Beispiel in Abb.10 ein geeigneter Schätzer der part i e l l e n Korrelation angegeben wird. Der Sch&tzM. für die Korrelation zwischen den Merkmalen X und Y bei Partialisierung des Merkmals U i s t dann r
XY'rXU'rYU
Ausgehend von diesem Schätzwert für die p a r t i e l l e Korrelation kann auch e i n Tut
zum Uive.au
α ααuiiiLL&>ithzlt
bzw.
Unabhängigkeit
von X und Y unter U durchgeführt werden. Die Hypothese P
V
(X,Y)|U =
0
wird im Test gegen die Alternative Η
Γ
ΡίΧ,Υ)!^0
zum Niveau α verworfen, f a l l s Γ
(χ,γ)|υ·νΠΓΓ7
/ 11 V
- rr 2 (X,Y)|U
g i l t . Die Quantile t v
>
t
n-3;1-a/2
der t - V e r t e i l u n g mit ν Freiheitsgraden sind im
Anhang vertafelt. BexApizl: Bei der Untersuchung von η = 142 Frauen wurden 3 Merkmale beobachtet: der Blutdruck (X), die Cholesterin - Konzentration im Blut (Y) und das Alter (U). Dieser Versuch, der aus "Swanson et a l . (1955): Blood Values of Women: Cholesterol, Journal Gerontology 10, 41" entnommen i s t , ergab für die einzelnen Korrelationen folgende Schätzwerte: r x y = 0.2495 ,
r x u = 0.3332 und
r y u = 0.5029
Wie man sieht, i s t sowohl der Blutdruck a l s auch die Cholesterin - Konzentration mit dem Alter der Versuchspersonen k o r r e l i e r t . Daher muß man, um die eigentliche Korrelation zwischen Blutdruck und Cholesterin - Konzentration, die hier hauptsächlich von Interesse i s t , Alter p a r t i a l i s i e r e n .
zu schätzen, das Merkmal
183
Kapitel III: Die Korrelationsanalyse
r
"(X,Y)|U:
XY ~ r X U ' r Y U
/(1 -
U.2495 - 0.3332-0.5029 / ( 1 - 0 . 3 3 3 2 2 ) ( 1 - 0.5029 2 )
- Γγ 0 )
_ 0.0819 "OT50"
:0.1005 Die w i r k l i c h e K o r r e l a t i o n zwischen Blutdruck und Cholesterin - Konzentration wird unter " E l i m i n i e r u n g " bzw. "Konstanthaltung" des E i n f l u s s e s des Merkmals A l t e r a l s o viel geringer geschätzt a l s
vorher.
Zum Niveau α = 0.05 s o l l nun die Hypothese H
o:
P
(X,Y)|U
= 0
ge
9en
Η
P
Γ
(X,Y)|U^°
getestet werden. Es i s t 0.100W139
10 * 99491 = 1 · 1 9 1
F q,n-k-q-1;1-a i s t , mit "(X,(Y1
Yq))|(U1,...,Uk) '(Χ,ίΥ,
Yq)) |(U1
•(n-k-q-1) J U k )7)
I s t n i c h t nur p = 1 sondern auch q = 1, so w i r d der p a r t i e l l e
Korrelations-
k o e f f i z i e n t zwischen X und Y u n t e r K o n s t a n t h a l t u n g des E i n f l u s s e s der Merk-
Kapitel III: Die Korrelationsanalyse
male
auch vorzeichenbehaftet geschätzt durch R
(X.Y) I (U.
u.)-
1
12
ρ 11 22
R
k
/
.
r
(1-R
XY " RXU'RUU'RYU
X U
, -CRXU
) { 1
_Ί -RYU-RUU·^^
Zum Prüfen auf signifikante Verschiedenheit von Null kann natürlich vorstehender Test mit q = 1 herangezogen werden.
1st speziell
k = 2, so berechnet sich die Korrelation zwischen zwei Merk-
isierung zweier Merkmale U^ und U,, zu malen Χ und Y unter Partialisierung
(x,Y)|u 2 " r (x,u 1 )|u ; ; ' r (Y,u 1 )|u 2 r
(X,Y)|(U.,U I j w ^)
ι
*
(1 r
2
2
" lX,U1)|U2)(1-r(Y,Ul)|Uz)
B e X s p i z l · . Aufgrund einer Stichprobe ergeben sich zwischen vier renden Merkmalen X, Y, U 1 und U^ folgenden einfache r X Y = -0.51 , r
^
rXUi=0.92
0.99 und
^
,
^
= -0.22 ,
= -0.28
interessie-
Korrelationen: ^
= -0.56 ,
.
Man ist nun z.B. daran interessiert die Korrelation zwischen den Merkmalen X und Y unter Konstanthaltung der Merkmale U 1 und U^ zu schätzen. Dazu berechnet man zunächst r
r
(X,Y)|U 2
^
r
XY
(1 _ r
r
YU2
^
XU2)(1 "rYU2]
°·0444
\/ 0.0137 r
XU2
(x,u 1 )|u 2 = 0 · 9 0 5
•"(Y.u^iu,^·422
- 0.379
-0.51 - (-0.56)·0.99 / (1 " ("0.56) Z )(1 - 0 . 9 9 2 )
,
u n d
·
Damit ergibt sich die Korrelation zwischen Χ und Y unter
Partialisierung
von U,| und U 2 zu 0.379 - 0.905-0.422 r
(X,Y)|(UrU2) " y ^
2
. -0.00291 2
- 0.905 ) (1 - 0.422 )
Q
Q075
'
Man sieht hier, dali die doch recht hohe Korrelation Γ χ γ = -0.51 zwischen den Merkmalen X und Y beinahe vollständig auf den Einfluß der Merkmale
185
186
Kapitel I f f : Die Korrelationsanalyse
U,|, Ug zurückzuführen i s t , denn schaltet man diese Einflüsse aus, so i s t die Korrelation zwischen X und Y nahezu Null. Ist q_>p>1, P
s o kann man d i e kanonlichc
((X,
Xpi.tY,
paJvLidULe.
YqHKU,
Uk)
xp).(Y1,...,Yq))|(u1
Uk)
KofüieZcution
schätzen durch Γ
((Χ,
= / T
T
'
wobei λ^ der größte Eigenwert der Matrix Q = R 1 ]-R 1 2 -R 2 2-R^2 i s t . Wahlweise können zur Berechnung von Q natürlich wieder Kovarianzmatri zen verwandt werden: Q = S
11rS12'S22'S12
*
Zur Überprüfung, ob die kanonische partielle Korrelation zwischen zwei Merkmalsgruppen zum Niveau α s i g n i f i k a n t von Null verschieden i s t , kann, ausgehend von den Eigenwerten
...>_λ
der Matrix Q, einer der in Ab-
schnitt 1.4 vorgestellten Tests verwandt werden. Es muß dort l e d i g l i c h η durch η - k ersetzt werden.
1.6
DIE
BI-PARTIELLE
KORRELATION
I s t ein Merkmal X mit einem Merkmal U, ein Merkmal Y mit einem Merkmal V korreliert und sind ferner die Merkmale U und V k o r r e l i e r t , so wird die Korrelation zwischen den Merkmalen X und Y von U und V stark beeinflußt. B&iip-ieZ:
Eine Untersuchung ergab, daß in einer Gruppe von Schülern die
Korrelation zwischen räumlichem Denkvermögen X und sprachlich - a n a l y t i scher Begabung Y auf eine Korrelation der Leistungen in Mathematik U und Latein V zurückzuführen war, wohingegen die Korrelation zwischen X und V bzw. Y und U schwächer war. Will man dann aufgrund einer Stichprobe von η Objekten die eigentliche Korrelation zwischen X und Y schätzen, so empfiehlt es s i c h , zunächst das Merkmal X von U und das Merkmal Y von V zu p a r t i a l i s i e r e n . Diese Korrelation
Kapitel III: Die Korreiationsanalyse
P
h e i ß t biunteA
_ P XY " p X U ' p Y U " P X V ' P Y V + p X U , p U V * p Y V X|U,Y|V" , 2 2— ν (1 - P x u ) ( 1 - P Y V ) Kowi&lcuUon von X urvteA PcLhXJjxJUji^eMxnQ ucm U and y
patvbiztld
PaJvtLatu,li>uinq
von V.
Sind d i e Merkmale X, Y, U und V i n der i n t e r e s s i e r e n d e n
Grundgesamtheit
normal v e r t e i l t ( s i e h e spätere A b s c h n i t t e f ü r andere F ä l l e ) , so kann man d i e bi - p a r t i e l l e K o r r e l a t i o n ρ ^ x , | . . ,x
.. ,y
. . . . ,u
tionskoeffizienten
ichätzzn:
r
γ|ν
aufgrund von j e η R e a l i s a t i o n e n
und ν ^ , . , . , ν
m i t t e l s Pearsonscher
_ rXY " r X ü ' r Y U " rXV*rYV + r X U ' r U V ' r Y V X|U,Y|V / 2 Ρ V (1 " r X U ) ( 1 " Γγν'
Korrela-
'
Zum Niveau α l ä ß t s i c h dann auch d i e Hypothese P
V
XIU.YIV
= 0
'
daß X und Y bi - p a r t i e l l H
r
P
XIU,YI V ^
unabhängig s i n d , gegen d i e A l t e r n a t i v e 0
t i i t m . Bei diesem nur approximativen Test w i r d d i e Nullhypothese H Niveau α verworfen, r
r
>
t
n-3;1-a/2
"
X|U,Y|V
ß & u , p i e l : Der Kürze h a l b e r sei h i e r noch einmal auf das B e i s p i e l nischen K o r r e l a t i o n , v g l . Tab.9, verwiesen. H i e r nun s o l l
die
zur kano-
bi-partielle
K o r r e l a t i o n zwischen Hämoglobingehalt im B l u t (X) bei P a r t i a l i s i e r u n g Blutdrucks Alters
zum
falls
XiU,Y|V,v/~^
/ Γ
q
des
(U) und Oberfläche der E r y t h r o z y t e n (Y) bei P a r t i a l i s i e r u n g des
(V) g e s c h ä t z t werden. Man bestimmt zunächst die S c h ä t z e r f ü r d i e
einfachen
Korrelationen rvv XY
( = rv
rvl, ( = r XU
Χ
v
) =
12
v v
Γ1
) =
6 76 · ^ = 0.7656 V 1.701-45.886
,
3 59 " = 0.3059 V 1.701-80.952
,
187
188
Kapitel III: Die Korrelationsanalyse
r
xv
(
r
'YU
r
YV
(
5.488
= r ' X , Y .2' X„Y 2Ί
= r 'X
: 0.3386
1.701 -154.410 14.139
] =
\J 45.886-80.952
j
= 0.2320
19.386
2Y2
:0.2303
\J 45.886-154.410
und r
108.975 -= 0.9747 V 80.952-154.410
v UV ^ " r vY,Y„ ' 12
Damit ergibt sich der Schätzer für r, 'X|U,Y|V'
y|y zu
0.7656-0.3059-0.2320-0.3386-0.2303+0.3059-0.9747-0.2303 v/(1 - 0.3059 2 )(1 - 0.2303 2 ) 0.6853 =0.7397 OZ55
Wie man sieht, ist in diesem Beispiel die Betrachtung einer bi - partiellen Korrelation nicht notwendig, da die Partialisierung von U und V die Korrelation zwischen X und Y kaum verändert. Es soll nun noch der approximative Test von H
o:
P
X|U,Y|V
= 0
9e9en
H
1:
P
X|U,Y|V^°
zum Niveau α = 0.05 durchgeführt werden. Da 0.7397 \) 15 - 3
[2.5624| "076729
/ 1 - 0. 7397
3.808 > 2.179 = t
15-3;0.975
ist, muß die Nullhypothese verworfen werden. Die bi - partielle Korrelation zwischen Hämoglobingehalt im Blut und mittlerer Oberfläche der Erythrozyten ist also zum Niveau a =
0.05 signifikant von Null verschieden.
In diesem Beispiel zahlte sich die Berechnung der bi - partiellen Korrelation zwischen X und Y nicht aus. Anders verhält es sich, wenn man etwa r^y = -0.73 ,
r x u = 0.89 ,
r y v = 0.92 und
r u v = 0.42
r y u = -0.17 ,
rxv=-0.31 ,
erhält. Hier ergibt sich die geschätzte bi - partielle Korrelation zwischen X und Y unter Konstanthaltung der Einflüsse von U bzw. V zu
189
Kapitel III: Die Korrelationsanalyse
r
XY " rXU*rYU " r XV' r YV
Γχ|υ,γ|ν:
+ r
XU' r UV' r YV
/ ( T ^ k T T ^ -0.73 - 0.89'(-0.17) - (-0.31 )-0.92 + 0.89·0.42-0.92 / (1 - 0 . 8 9 Z ) ( 1 - 0.92 2 ) 0.0504 V 0.0319
J
:0.2822
Auch die bi - p a r t i e l l e Korrelation kann man n a t ü r l i c h v i e l betrachten. Will ( X j , . . . ,X
man d i e bi - paJtfieZlz
] bzi
PatiticLLu>izAung
bex. PaAtial-UieMing
ichäXzm,
zwiAchm und
din
dzn
HeAkmatm
Μ VikmaJLin
[Vy...
( V j , . . . , l/^)
von
p(Xt
KoAAel&tcon
von
allgemeiner
XpJliu,
uk),(Y1.....Yq)|(v1
so bestimmt man zunächst aus einer Stichprobe vom Umfang η die
Matrizen (n > p.q.k.ü.) 1 R
r,
rv Χ,Χ.
X1X2
=
XX
R
UU
R
R XU' R x v analοα,
R YU'
YY'
Γ)(1Χρ
Γ) . . . ^ λ ρ der Matrix Q einer der in Abschnitt 1.4 angegebenen Tests verwandt werden. Es ist dort lediglich η durch n - b
2
DIE
KORRELATION
VON
zu ersetzen.
ΝICHT - NORMALVERTEILTEN
ZUFALLSVARIABLEN
In diesem Abschnitt beschäftigen wir uns mit der Korrelationsanalyse beliebiger stetiger und ordinaler Merkmale; für nominale Nerkmale sei auf den nächsten Abschnitt verwiesen, der wegen der Möglichkeit einer Senkung des Skalenniveaus
(durch Klassenbildung) natürlich auch für alle anderen Daten-
Kapitel III: Die Korrelationsanalyse
Situationen n ü t z l i c h
ist.
Zunächst werden der Spearmansche und der Kendal Ische K o r r e l a t i o n s k o e f f i zient für stetige Merkmale sowie zugehörige Tests v o r g e s t e l l t . Sodann werden Korrelationskoeffizienten für ein stetiges normal v e r t e i l t e s und ein ordinales Merkmal v o r g e s t e l l t ; man s p r i c h t dann von serialen und punktserialen Korrelationen. Daran s c h l i e ß t sich eine kurze Darstellung der chorischen K o r r e l a t i o n , a l so der Korrelation zweier ordinaler Merkmale an. In diesem Zusammenhang wird auch ein Test auf Unkorreliertheit f ü r zumindest ordinale Merkmale vorgestel l t .
2.1
DER
SPEARMANSCHE
RΑ ΝG Κ0 R R Ε L Α Τ I 0 ΝS Κ 0 Ε F F I Ζ I Ε Ν Τ
Sind Χ und Υ s t e t i g v e r t e i l t e Z u f a l l s v a r i a b l e n , so kann deren Korrelation ρ mittels des Spe.aman6chen
RangkonAeZationikozM-LzA.e.nte.n
je η Realisationen
bzw. y ^ , . . . , y
r S aufgrund von
von X und Y geschätzt werden.
Wie der Name schon sagt, werden bei diesem Verfahren nur Ranginformationen zur Schätzung von ρ verwandt (z.B. ob eine Realisation x^ größer oder k l e i ner a l s eine andere x^ i s t ) . Vergeben wir die Rangzahlen R(x^) bzw. R(yj) für die je η Realisationen der Z u f a l l s v a r i a b l e n X und Y so, daß in jeder der beiden Reihen die k l e i n s t e ( " s c h l e c h t e s t e " ) Realisation den Rang 1 , . . . , d i e größte ( " b e s t e " )
Realisa-
tion den Rang η e r h ä l t , oder in beiden Reihen genau umgekehrt, so ergibt sich der Spearmansche K o r r e l a t i o n s k o e f f i z i e n t r s durch Einsetzen der Rangzahlen - a n s t e l l e der Realisationen - in die Formel zur Berechnung von r ^ :
r
l ( R ( x1J - R l x T ) ( R ( y ·1 ) - RTyT) i=1
s_
l (R(x,)-W) 1 pieZ: (vgl. R.C. S t o l l : "An improved multipurpose abrasion tester and i t s application for the wear resistance of t e x t i l e s " , Text. Res. Journal, 19, 1949, S.394 - 4 1 9 ) Um einen technologischen Kurzzeitversuch zur Prüfung der Haltbarkeit von Textilien so zu entwickeln, daß dieser die wirkliche Haltbarkeit möglichst gut widerspiegelt, wurden an 7 verschiedenen Textilien Trageversuche und verschiedene Kurzzeitversuche durchgeführt. Die Kurzzeitversuche waren hier Scheuerversuche wie z.B. B'iegescheuerung in Kett - und Schußrichtung. Bei den Scheuerversuchen wurde die Anzahl der Scheuertouren bis zum Bruch der Gewebe gezählt. Bei den Trageversuchen konnte man l e d i g l i c h eine Rangfolge in der Haltbarkeit der Textilien f e s t -
n,
Kapitel III: Die Korrelationsanalyse
193
legen. Um die K o r r e l a t i o n zwischen Trage - und Scheuerversuchen schätzen zu können, wurden auch d i e E r g e b n i s s e der Scheuerversuche i n Rangzahlen umgewandelt, v g l . t a b . 1 0 . Cab.10: E r g e b n i s s e der Trage- und Scheuerversuche bei 7 T e x t i l i e n Gewebeart i
Rangzahl R, im Trageversuch
Scheuertouren b i s zum Gewebebruch i n Kettrichtung
Rangzahl R1. im Scheuerversuch/ Kettrichtung
Scheuertouren b i s zum Gewebebruch in Schußrichtung
Rangzahl R!' im Scheuerversuch/ Schußrichtung
1 2 3 4 5 6 7
6 5 7 4 3 2 1
72 85 78 82 91 138 154
7 4 6 5 3 2 1
115 78 91 102 67 111 136
2 6 5 4 7 3 1
Wir wollen nun d i e Spearmansche R a n g k o r r e l a t i o n r^ zwischen Trageversuch und Scheuerversuch in K e t t r i c h t u n g , r ^ zwischen Trageversuch und Scheuerversuch in Schußrichtung sowie r ^ zwischen Scheuerversuch i n und Scheuerversuch in Schußrichtung berechnen. Es
61
.
ist
m.eJicutioniikoe.(i{ii.zlmt
ΑΛίΙ ^Htj, β·ΛΓ) i,
n
u
x
j - ^ J,
n
ojxj)
/Κ j, »,»H(I, .Λ)") der dem Pearsonschen Korrelationskoeffizienten beim Rechnen mit 1 und 0 für die Ausprägungen von Y entspricht, a l s Schätzer für die Korrelation ρ zwischen X und Y verwandt. Unterstellt man, daß hinter dem nur ordinal meßbaren Merkmal Y eine standardnormal verteil te Z u f a l l s v a r i a b l e η l i e g t , so wird a n s t e l l e von r ^ ^ der zchte.
b-ise/UaJtz
r bis
= r pbis. ^
KoAAeZcutLonikoii^ziznt
'· "·
n-u
α
?
zur Schätzung von ρ verwandt; dabei i s t u^ mit a = n^ nQ /n t i l der Standardnormal Verteilung.
das u^ - Quan-
203
Kapitel III: Die Korrelationsanalyse
Bei beiden b i s e r i a l e r i K o r r e l a t i o n s k o e f f i z i e n t e n
i s t das Vorzeichen n i c h t
i n t e r p r e t i e r b a r ; es hängt davon ab, welche Ausprägung von Y man "1" und welche man "0" nennt.
BzAApizl: Um den Zusammenhang zwischen Hämoglobingehalt im B l u t (X) und m i t t l e r e r Oberfläche der E r y t h r o z y t e n ( Y ) , v g l . Tab.4 und Abb.10 in Abschnitt
1.1, unabhängig vom Geschlecht (U) zu schätzen, verwenden wir den
partiellen
Korrelationskoeffizienten
p
P
(x,v)|u:
XY "
P
XU'PY.U
/ (1 - Ρ χ υ ) ( ι - Ργυ) v g l . A b s c h n i t t 1 . 5 , und schätzen dabei die K o r r e l a t i o n e n ρ χ υ und ρ γ υ v e r m i t t e l s des p u n k t b i s e r i a l e n K o r r e l a t i o n s k o e f f i z i e n t e n .
Es e r g i b t s i c h mit
η = 16 , n, = η = 8 und η . = . . . = η . , = 1, wenn man weibl i c h mit "0" und ι. o. .1 ,1b männlich mit "1" bezeichnet 129.6 - X - 2 3 9 . 0 16
ρχυ = rpbis(X,U) = '
0-8495
° 1 n.n (8 - jg·) (3605.4 - yg-·239.0 )
und 8 2 4 . 2 --RL·· 1 5 5 1 . 8 PV., = I-„K,C(Y,U) = J
YU
= 0.8845
pbis
151250.64
Da die Gesamtkorrelation
-^-1551.8
2
)
mit r ^ Y = 0 . 7 9 9 6 g e s c h ä t z t wurden, v g l . Ab-
s c h n i t t 1 . 1 , berechnet s i c h d i e p a r t i e l l e K o r r e l a t i o n zwischen Hämoglobing e h a l t und m i t t l e r e r Oberfläche der Erythrozyten (unter Ausschaltung des Geschlechtseinflusses) (Χ,Υ)IU
=
zu 0.7996 - 0.8495-0.8845
/ ( 1
N
1Q(-Q
=U.19b9
- 0.84952)(1 - 0.88452)
|
Im F a l l e , daß das o r d i n a l e Merkmal Y mehr a l s zwei Ausprägungen s p r i c h t man von punktpolyizfUal&n
bzw. polyiMJjxlzn
besitzt,
Koin.eZati.onikoi^l-
z teilten, auf die wir h i e r n i c h t eingehen w o l l e n ; man v g l . hierzu etwa Pearson ( 1 9 0 9 ) , Cox ( 1974) und Olsson
et a l .
( 1982). Analoge Tests f ü r die Kor-
r e l a t i o n zwischen einem normal v e r t e i l ten und einem d i s k r e t e n Merkmal man etwa bei O l k i n / T a t e ( 1 9 6 1 ) , A f i f i / E l a s h o f f
Sind X und Y beide o r d i n a l s k a l i e r t e
(nur ordinal
findet
(1969).
meßbare) Merkmale, denen
204
Kapitel III: Die Korretationsanalyse
jedoch gemeinsam normal v e r t e i l t e Z u f a l l s v a r i a b l e n η und ξ mit Korrelation ρ zugrundeliegen, so lassen s i c h die chosUAchen
KoM. u,. a / 2
.
Die Quantile u^ der Standardnormalverteilunq sind im Anhang vertafelt. BeAAp-ieZ:
Zehn weibliche Personen werden zufällig aus einer interessieren-
den Grundgesamtheit ausgewählt und ihre Körpergröße (X) sowie ihr Gewicht (Y) werden gemessen. Zum 10% Niveau soll getestet werden, ob Körpergröße und Gewicht unkorreliert sind. Die ermittelten Körpergrößen x^, Gewichte y. sowie die zugehörigen Rangzahlen sind in Cab.16 zusammengestellt. In Cab.15 findet man 2 Gruppen ä 10 simulierten Zufallszahlen aus einer Standardnormalverteilung (vgl. z.B. Härtung et al.(1982)). In Tab.15 sind dann die zu den Körpergrößen und Gewichten gehörigen Größen A(R(x^)) und B(R(y^)) mit angegeben. Cab.15: 2χ10 simulierte Zufallszahlen aus einer Standardnormal Verteilung Gruppe 2
Gruppe 1 0.76 0.21 1.61 -1.02 - 2 . 50 -0.73 0.52 -1.37 1 .64 0.53
1 1 0 -2 0 -0 0 -0 -1 0
64 28 42 08 64 65 93 19 25 07
i
A(i)
1 2 3 4 5 6 7 8 9 10
-2 -1 -1 -0 0 0 0 0 1 1
50 37 02 73 21 52 53 76 61 64
B(i) -2.08 -1.25 -0.65 -0.19 0.07 0.42 0.64 0.93 1.28 1.64
Aus der Tab.16 ergibt sich nun
iu
i=1
A(R(x.)) -B{ R(y ·)) ι π
=
0.645-0.93+(-0.26)-0.53+1 .64-0.53+...+ (-1 .02) -(-1 .25))
=
12.0973 = 1 .20973
Die Hypothese H q : Körpergröße und Gewicht von Frauen sind unkorreliert
206
Kapitel III: Die Korrelationsanalyse
wird zum 10% Niveau verworfen, denn |\ΓΠΓ·1.209731 = 3.8255 > 1 .645 = u
tab.16: Versuchsergebnisse und Arbeitstabelle zum Bell - Doksum - Test, vgl. auch Tab.15 Person i
Körpergröße x
3
Gewicht
R(y.j)
B(R(y.j))
66
8
0 .93
63
6.5
1.64
63
6.5
R(x.j)
A(RCx-))
( 0 . 5 3 + 0 . 7 6 ) = 0 645 2 1 (-0.73+0.21)=--0.26 2
i
1
167
7.5
2
162
4.5
3
172
10
4
170
9
1.61
75
10
1 64
61
5
0 07
> >
42+0 64) =0 53 42+0 64) =0 53
5
167
7.5
1 ( 0 . 5 3 + 0 . 7 6 ) = 0 645 2
6
165
6
0.52
69
9
1 28
7
154
1
-2.50
52
1
- 2 08
60
4
- 0 19
1 (-0.73+0.21)=--0.26 2
8
162
4.5
9
157
2
-1.37
58
3
- 0 65
10
160
3
-1.02
56
2
- 1 25
ASSOZIATIONSMAßE UND LOGLINEARES MODELL FÜR KONTINGENZTAFELN
In diesem Abschnitt beschäftigen wir uns mit der Analyse von Abhängigkeiten im Falle nominaler Merkmale. Da sich alle anderen Merkmalstypen durch Senkung des Skalenniveaus (z.B. mittels Klassenbildung) in nominale Merkmale überführen lassen, sind die hier vorgestellten Methoden naturlich insbesondere auch für ordinale oder gemischte Merkmalstypen nützlich.
Zunächst werden wir uns mit Maßen für die Abhängigkeit
{AiioziaXioMmaß&)
zweier nominaler Merkmale mit je zwei Ausprägungen beschäftigen. Die insgesamt η Beobachtungspaare zu den Merkmalen X und Y lassen sich in Form einer Vj.eA&zldeA£a.{>el. darstellen. Bezeichnet man die je zwei Ausprägungen von X und V mit "1" und "2", so enthält die Vierfeldertafel, vgl. tab.17 , gerade die beobachteten Häufigkeiten n^. des Ausprägungspaares (i,j) für i,j = 1,2 sowie die Randhäufigkeiten
Kapitel III: Die Korrelationsanalyse
i. t a b . 17: V
= n
i1
+ n
i2
n
·
.j=n1j
+ n
2j
für i ,j=1,2
207
.
Vierfeldertafel
Y
1
x \
2
I
1
n
11
n
12
n
1.
2
n
21
n
22
n
2.
1
n
.i
n
.2
η
Ein Maß f ü r d i e A b h ä n g i g k e i t ( d . h . d i e A&iozicuLLon) z . B . der Q- Ko&H-Lz-Lint _ n11n22 " "n11n22
n
von Vulz,
von X und Y i s t dann
der v e r m i t t e l s
12n21
+ n12n21
g e s c h ä t z t w i r d . Q l i e g t s t e t s zwischen - 1 und +1; es nimmt den Wert 0 bei Unabhängigkeit an. Das Vorzeichen von Q kann wegen der W i l l k ü r der Anordnung der Merkmalsausprägungen jedoch n i c h t im Sinne e i n e r p o s i t i v e n oder negativen A b h ä n g i g k e i t i n t e r p r e t i e r t werden. Ein approximativ zum Niveau 1 - a f ü r den Q - K o e f f i z i e n t e n
intiivati
tu,
Koniidenz-
ist
[ Q - u ^ t i . Q ^ . / n p n p n p n : .
q + u. .jo -Q2)./ 1-a/2 2 V n^ wobei u^ das γ - Q u a n t i l
Bei,ipiel:
+
η12
der Standardnormal V e r t e i l u n g
+
n21
1 n22 J
.
bezeichnet.
Um die Wirksamkeit e i n e r Werbekampagne f ü r e i n Waschmittel zu un-
t e r s u c h e n , wird vor und nach der Kampagne eine Umfage über den B e k a n n t h e i t s grad d u r c h g e f ü h r t , deren E r g e b n i s s e in Cab-18 angegeben s i n d . Der E i n f l u ß der Werbekampagne kann durch den Q - K o e f f i z i e n t e n g e s c h ä t z t werden: n
138-348 - 685-728 138-348 + 685-728
Ein 95% - K o n f i d e n z i n t e r v a l l
=
-450656 - 0,.546704 = " ü · 8 2 4 3
e r g i b t s i c h h i e r zu
·
208
Kapitel III: Die Korrelationsanalyse
[-0.8243 - 1 .960(1 - (-0.8243) V
/
^
·
-0.8243 + 1.960(1 - ( - 0 . 8 2 4 3 ) 2 )
^
^
^
+
,
+
]
= [-0.8243 - 1.960-0.0365 , -0.8243 + 1 .960-0.0365] = [-0.8958,-0.7528]
tab.18: Wirksamkeit einer Werbekampagne ^\Bekanntheitsbekannt
unbekannt
l
vorher
138
658
823
nachher
728
348
1076.
866
1033
1899
Zeitpunkt
I
Haben die Merkmale X und Y mehr als zwei Ausprägungen, nämlich r bzw. s Stück, so kommt man zu einer allgemeinen nx& - KovvLbiQmzta.fatl, vgl. Cab.19. Cab.19: Allgemeine rxs - Kontingenztafel \ X
Y \
2
1
3
1
n
11
n
12
n
2
n
21
n
22
n
3
n
31
n
32
r
n
r1
n
I
n
.1
n
s
I
· •
n
1s
n
23
· •
n
2s
n
2.
n
33
* •
n
3s
n
3.
r2
n
r3
· •
n
rs
n
r.
.2
n
.3
* •
n
.s
13
1.
η
Hier bezeichnen-n^ f ü r i = 1 , . . . , r , j = 1 , . . . , s die beobachteten Häufigkeiten des Ausprägungspaares s η. = Τ n. . i. j t , U
(i,j), und
r η .= Τ -J
η. . U
f ü r i = 1 , . . . , r bzw. j = 1 , . . . , s
die Summenhäufigkeiten der Auprägung i des Merkmals X bzw. j des Merkmals Y und η die Gesamtzahl der Beobachtungen (Objekte).
Kapitel III: Die Korrelationsanalyse
209
Ein Assoziationsmaß für X und Y (das auch für die Vierfeldertafel verwandt werden kann) i s t hier z.B. der PeaA&onbcht
C=
/ /
2
/ r s η?. \ χ2 = η · ( [ J F-!i_-l) M = 1 j = 1 i. n.j '
mit
χ +η
Kontingznzkoz(,^lz-ie.nt
.
der stets Werte zwischen 0 und 1 annimmt. Der maximale Wert von C i s t aber nicht 1 sondern / min(r,s)- 1 \/ min(r,s) Daher verwendet man oft auch den konAlgiviXm (normierten) P e a u o m c h m Kontingznzkoiiij.zlzntzn
C
= c· /
corr
min(r,sT~
V
min(r,s) - 1
als Assoziationsmaß. zum Niveau 1-cc für diese Koeffizienten
Ρφρκοχ.Α,παΛλνζ Koni-Ldrnz-LntcivcMe. sind ( f a l l s g i l t χ 2 f 0)
a / 2
/ V
3
7 ~2 4x2(n+x2)3'V n
C +u
1
'
'
a / 2
/ / V
n
X
4x2(n+X2)3"V
für den Pearsonschen Kontingenzkoeffizienten bzw. Γ
-ι.
n 6 -min(r,s)
/
~2
2
4χ (η + x 2 ) 3 ( m i n ( r , s ) - 1)
J
C corr + u,λ
η
n
·
'α/ί /
6
χ2
'
.
4χ 2 (η + χ 2 ) (min(r,s) - 1)
S2J * *
für den korrigierten Pearsonschen Kontingenzkoeffizienten. Dabei bezeichnet ~2 λ
1
r
s y
η s
ι
rI s3 y + 2> y "1=1 j=i
3 n,, ij
r 3 y
1
/ r
n?.
N
n.. .. // r1 U— ( y n i/n.j
,
, s (y
2
n, II, .. n 2
k.,n.j
einen Schätzer für die Varianz der Größe χ .
2
\2 V
ij
w\ / s3 V y
2
n.. II · „ \ n
i
210
Kapitel III: Die Korrelattonsanalyse
BeÄAp 9 7 5 / \ Γ Π Γ , 1.6689 + u 0 > g 7 5 / V ~ n i ] = [1.0491,2.2887] und durch Umrechnen dieser Grenzen Z y
z^ vermittels der Fisherschen
Transformation eraeben sich die Grenzen eines approximativen tervalls für ρ γ
Y
z-
Konfidenzin-
zu
12 [ r r r z ] = [0.78.U.98]
;
dieses Intervall überdeckt p Q = 0.99 nicht, was in Einklang damit steht, daß die entsprechende Hypothese HQ zum 5% Niveau verworfen werden mußte.
Faßt man die empirischen Korrelationen der vier Merkmale in der empirischen Korrelationsmatrix
R=
1.0000
0.9314
0.8375
0.6949
0.9314
1.0000
0.9329
0.8424
0.8375
0.9329
1.0000
0.8565
0.6949
0.8424
0.8565
1.0000
zusammen, so kann man z.B. auch die globale Hypothese der Unabhängigkeit der Merkmale
zum 5% Niveau testen. Hier ergibt sich etwa der
Wert der Teststatistik von Wilks wegen c = n - ρ - 2 Ρ ± 1 = ΐ 3 - 4 - ^ = 6.8333
W = -c»ln(det R) = -6.8333·1η 0.003396530 = 38.8473 und die Hypothese wird verworfen, da gilt: :χ
6;0.95
χ
ρ(ρ-1)/2;1-α
Wir wollen nun die multiple Korrelation ρ γ
3
,Y
x
f;1-a
Y Y . zwischen Verbrauch 1 ' 2 4
und den Merkmalen Hubraum, Leistung sowie Höchstgeschwindigkeit schätzen. Es ergibt sich (P X3> (X ^ >
*^ 3)
X
> >^ ) 3 X l' X 3 X 2 X 3 X 4
X X
1X2
X
1 2
X,X 4
X2X4
X
1X4
X
X
2 4
-1
Γ)( Χ
3 1
X
3X2
X
. 3X4;
Kapitel ill: Die Korrelationsanalyse
1.0000 0.9314 0.6949 - 1 0.8375
ί(0.8375,0.9329,0.8565)
=
0.88825 = 0.9425
0.9314 1.0000 0.8424
0.9329
0.6949 0.8424 1.0000
0.8565
215
1/2
.
Das m u l t i p l e Bestimmtheitsmaß i s t h i e r gerade 0.88825, d . h . 88.825% (der Varianz) des Merkmals Verbrauch werden durch die übrigen Merkmale e r k l ä r t . Bedenkt man, wie an den einzelnen Bestimmtheitsmaßen BY
= rY
Y
3*1
Y
31
=0.7014
,
BY
3
= 0.8703
Y
und
Βγ
2
3
Y
4
= 0.7336
abzulesen i s t , daß durch das Merkmal Hubraum a l l e i n e 70.14%, durch das Merkmal L e i s t u n g 87.03% und durch das Merkmal Höchstgeschwindigkeit
73.36%
(der V a r i a n z ) des Merkmals Verbrauch e r k l ä r t werden, so z e i g t s i c h , daß h i e r q u a s i die L e i s t u n g zur Erklärung des Verbrauchs ausreichend i s t und die beiden übrigen Merkmale dann kaum noch etwas z u s ä t z l i c h zur Erklärung des Verbrauchs b e i t r a g e n . Zur I l l u s t r a t i o n wollen wir an d i e s e r S t e l l e die (maximale,1-te) Korrelation p ^
χ ) (χ
c er
χ )
'
kanonische
Merkmale Hubraum und L e i s t u n g mit den Merk-
malen Verbrauch und Höchstgeschwindigkeit schätzen. Ein Schätzer f ü r diese kanonische K o r r e l a t i o n i s t gerade d i e Wurzel V λQ aus dem größten Eigenwert der M a t r i x X,X 12
-1 f
r
X
1X3
r
X
1X4
X,X 1 2
X X
3X4
3X4 1
Γ)
8.876 = ^ 4 6 . F 3 ) 4 4 ; 0 - 9 5 d.h. die Hypothese der Gleichheit von μ ^
2.2
Μ I TT E L W Ε R T V Ε R G L Ε I CΗ
BEI
und μ ^
muß verworfen werden
VERBUNDENEN
•J
STICHPROBEN
Sind die Stichproben aus der ersten und zweiten Grundgesamtheit nicht voneinander unabhängig, so nennt man die Stichproben verbunden. In solchen Fällen kann ein Test auf Gleichheit der Mittel wertvektoren (2)
μ ^
und μ*
in beiden Grundgesamtheiten nur durchgeführt werden, wenn p < n ,
n^ = =
η gilt und wenn die gemeinsame Verteilung der Beobachtungsvektoren
am i-ten Individuum aus der 1. und 2. Stichprobe (i=1,...,n) eine Normalverteilung ist. Sind diese Annahmen in konkreten Situationen zu rechtfertigen, so kann man
233
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
mittels e ? i n e r Transformation der Beobachtungsdaten wiederum e i n e F - v e r t e i l t e Τ - T e s t s t a t i s t i k bestimmen:
Die Hypothese Η : ο
μ
(1>=μ
wird dann zum Niveau α verworfen, f a l l s T2
>
gilt:
p(rM).F n-p p,n-p;l-a
B(Uipi.eZ: Wir wollen h i e r einmal die Daten aus Tab. 1 in A b s c h n i t t 1.1 a l s zwei Stichproben a u f f a s s e n . Die e r s t e S t i c h p r o b e ( S c h ä d e l l ä n g e und - b r e i t e bei erstgeborenen Söhnen) und die zweite S t i c h p r o b e (Schädel!änge und - b r e i t e bei zweitgeborenen Söhnen) s i n d s i c h e r l i c h a b h ä n g i g , da ja Ges c h w i s t e r b e t r a c h t e t werden, so daß wir die Hypothese der G l e i c h h e i t der Mittelwertvektoren
in den S t i c h p r o b e n m i t t e l s des in diesem A b s c h n i t t
g e s t e l l t e n Tests prüfen müssen. A l s Niveau des T e s t s wählen w i r einmal Natürlich sind für
vor5%.
i=1...,25
y1i = (yi1,yi2)T
und
y2i = (yi3,yi4)T
so daß s i c h y1 =(185.72,151.12) e r g i b t . Damit
und
y 2 = (183.84,149.24
ist
Τ = 2 5 * 2 4 ( 1 . 8 8 , 1 . 8 8 ) 1362.64
287.64
287.64
702.64
= 25-24(1.88,1.88)
= 0. 1505
-1
0.0008033
-0.0003288
1.88
-0.0003288
0.0015578
1.88
,
und die Hypothese kann n i c h t verworfen werden, denn T2·3.6.2
< ;-H16-S-3.422
.S^Ü-F
2 t 2 3
.
0
.
9 5
J
234
Kapitel IV: Multivariate Ein- und
3 DIE
PRÜFUNG
VON
Zweistichprobenprobleme
KOVARIANZHYPOTHESEN
Die b i s h e r behandelten Tests über Parameter in m u l t i v a r i a t e n Modellen bet r a f e n s t e t s Hypothesen über den M i t t e l w e r t v e k t o r e i n e r Normal V e r t e i l u n g . In v i e l e n F ä l l e n
i s t es jedoch s i n n v o l l , ausgehend von η z u f ä l l i g aus e i n e r
Grundgesamtheit ausgewählten Objekten, Hypothesen über d i e
Kovarianzmatrix
$ zu t e s t e n , denn h ä u f i g hat man Vorstellungen über d i e A r t der Abhängigk e i t von ρ beobachteten Merkmalen, oder man w i l l
p r ü f e n , ob mehrere Kova-
rianzmatrizen a l s g l e i c h anzusehen s i n d , was b e i v i e l e n der Verfahren eine Voraussetzung i s t
Im ersten F a l l trix
vorgestellten
(η > p).
t e s t e t man Hypothesen über d i e S t r u k t u r e i n e r
im zweiten F a l l
t e s t e t man auf G l e i c h h e i t mehrerer
Kovarianzma-
Kovarianzmatri-
zen.
S c h l i e ß l i c h w i r d in diesem A b s c h n i t t noch ein Test f ü r simultane Hypothesen über den M i t t e l wertvektor und d i e Kovarianzmatrix eines normal v e r t e i l ten Merkmalsvektors
3.1
EIN
TEST
MATRIX
vorgestellt.
ÜBER
DIE
STRUKTUR
EINER
KOVARIANZ-
t
Hat man eine V o r s t e l l u n g von der Abhängigkeit von ρ gemeinsam normalvert e i l t e n Merkmalen, so kann man d i e s e V o r s t e l l u n g m i t t e l s eines Tests zum Niveau α der Hypothese H0: t = t 0
gegen
über d i e Kovarianzmatrix
H,: J t
überprüfen.
Zwei h ä u f i g e s p e z i e l l e Matrizen $
sind
und
0 Im ersten F a l l
0
1
ρ
Ρ
1
ρ
ρ
e n t s p r i c h t der Test von H q gegen H^ einem Test auf Unabhän-
g i g k e i t der ρ Merkmale ( e i n i g e w e i t e r e Tests - d i e ohne Kenntnis von o? auskommen - auf Unabhängigkeit von ρ Merkmalen (Meßreihen) f i n d e t man auch in K a p . I I I , A b s c h n i t t
1.2), im zweiten F a l l
einem Test der Hypothese, daß
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
a l l e Merkmalspaare d i e g l e i c h e Kovarianz und somit d i e g l e i c h e
235
Korrelation
haben. D i e P r ü f g r ö ß e n a c h dem Maximum - L i k e l i h o o d - P r i n z i p f ü r d e n T e s t H0: ί = ί
gegen
0
Η,:
i s t f ü r große Stichprobenumfänge
von
$ ί $Q
η
L = ( n - 1 ) ( i n d e t $ Q - I n d e t S + t r ( S * t ~ 1 ) - p) wobei t r A
d i e Spur von Α b e z e i c h n e t , v g l . auch A b s c h n i t t 4 i n K a p . I ,
im F a l l e k l e i n e r S t i c h p r o b e n u m f ä n g e η w i r d f o l g e n d e k o r r i g i e r t e
und
Prüfgröße
vorgeschlagen: L
'
"6ΓϊνΤΙ
=
( 2 ρ +
1
" f t ^ "
1
-
·
D i e M a t r i x S b e z e i c h n e t h i e r den S t i c h p r o b e n s c h ä t z e r f ü r d i e
Kovarianzma-
trix
Die P r ü f g r ö ß e L bzw. L '
ist
approximativ χ 2 - v e r t e i l t
im F a l l e $ = $ Q
- a l s o u n t e r d e r H y p o t h e s e HQ -
mit p(p+1)/2 Freiheitsgraden,
t h e s e H q zum N i v e a u α v e r w o r f e n w e r d e n muß, f a l l s L (bzw. L ' )
BeXipiit:
> Χ^(ρ+1)/2;1_α
s o daß d i e
Hypo-
gilt
·
Anhand der Daten aus T a b . 1 , v g l . A b s c h n i t t
1.1, soll
getestet
w e r d e n , ob d i e S c h ä d e l l ä n g e d e s e r s t e n u n d z w e i t e n S o h n e s v o n F a m i l i e n 2 2 e i n e r G r u n d g e s a m t h e i t d i e g l e i c h e V a r i a n z α.| = σ 2 = 100 h a b e n u n d u n k o r r e liert
s i n d . G e t e s t e t w i r d d a z u zum N i v e a u α = 0 . 0 5 d i e H0: 1 =
100
0
0
100
Der S c h ä t z e r f ü r d i e
Kovarianzmatrix
der h i e r
Hypothese
interessierenden
Merkmale
ist S= und es e r g i b t
91.481
66.875
66.875
96.775
sich
L = 2 4 ^ 1 η 1000 •
ln(91.481-96.775-66.875^) + t r
0.91481
0.66875
0.66875
0.96775
236
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
= 24(9.21034 - 8 . 3 8 4 9 9 + 0.91481 + 0.96775 - 2) = 16.99 2
[bzw. L ' = ( l ~
*
2
+ 1
-§))·16·99 =
Da L = 16.99 (und auch L ' = 16.48) g r ö ß e r a l s χ * . Q
16
·48]
·
= 7.81 i s t , wird die
gg
Hypothese HQ verworfen.
3.2
EIN
TEST
|
AUF
GLEICHHEIT
MEHRERER
KOVARIANZ-
MATRIZEN Um die Annahme der G l e i c h h e i t der unbekannten Kovarianzmatrizen von k Stichproben zu r e c h t f e r t i g e n , p r ü f t man h ä u f i g zum Niveau α d i e Hypothese V
ί 1 = - - - = ik
gegen d i e A l t e r n a t i v e H^: d i e Kovarianzmatrizen der k Stichproben s i n d n i c h t Die j - t e S t i c h p r o b e , j = 1
k , e n t h ä l t n^. z u f ä l l i g aus e i n e r
identisch.
interessie-
renden Grundgesamtheit ausgewählte Objekte, an denen j e w e i l s ρ Merkmale beobachtet werden. Somit l i e f e r t die j - t e Stichprobe n^. Beobachtungsvektoren ( η j > p) y
ji
= (y
y
ji1
jip)T
Berechnet man zunächst d i e
mit i - 1 , . . . , n j
.
Stichprobenkovarianzmatrix
η. V
v
T
^
( y
ji-yj
) ( y
ji"yj
) T
der j - t e n S t i c h p r o b e , j = 1 , . . . , k , und daraus d i e gemeinsame S t i c h p r o b e n k o varianzmatrix
s
= j ,
V )
der k S t i c h p r o b e n , so k X mit
2 = c
ist k
f(£ n . - k V l n d e t S - £ (n . - 1 ) ·1 η det S .] J JJ LVj=1 J / j=1
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
237
eine geeignete Priifgröße für den Test zum Niveau α von Hq gegen H^, denn im Fall der Gültigkeit der Hypothese H q ist sie approximativ χ 2 - verteilt mit p(p+1 )(k-1 )/2 Freiheitsgraden. Die Hypothese wird somit zum Niveau α verworfen, d.h. mit einer Fehlerwahrscheinlichkeit α bestehen signifikante Unterschiede zwischen den Kovarianzmatrizen der k Stichproben, falls gilt χ2
> x
p(p+l)(k-1)/2;1-a
2
"
2
Die Quantile χ . γ der χ - Verteilung sind im Anhang vertafelt. ZüAAploJL·. Wir wollen hier noch einmal auf das Beispiel aus Abschnitt 2.1 (Panzerlänge, Panzerbreite und Panzerhöhe von 24 männlichen und weiblichen Schildkröten) zurückkommen und überprüfen, ob die Kovarianzmatrizen zwischen den ρ = 3 beobachteten Merkmalen bei männlichen und weiblichen Schildkröten gleich sind. Die Stichprobenumfänge n 1 =24 und n,, = 24 in beiden Gruppen sind identisch. Die zur Berechnung der Prüfgröße χ 2 benötigten Stichprobenkovarianzmatrizen S^ und S^ sowie die gemeinsame Stichprobenkovarianzmatrix S sind in Abschnitt 2.1 schon berechnet worden, so daß wir hier nur noch deren Determinanten bestimmen müssen: detS, = 138.77·50.05· 1 1.26 + 2*79.15*21 .65*37.38 - 50.05-37.38 2 - 138.77-21 .65 2 - 11 .26*79.15 2 = 794.05
,
det S 2 = 451.39· 171 .73-66.65 + 2*271 .17· 103.29-168.70 - 171.73-168.70 2 - 451 .39- 103.29 2 - 66.65-271 . 17 2 = 12639.885 detS
= 295.08- 110.89-38.955 + 2-175.16-62.47-103.04 - 110.89-103.04 2 - 295.08-62.47 2 - 38.955*175.16 2 = 5565.6448
Weiter ist ... '1
C
2*9+9-1/2 1\_, 13.3_nq;)q, " H T \ J 3 " ¥ j " 1 "TT46 "°·9293
'
und damit ergibt sich der Wert der Prüfgröße des Tests, der hier zum 5% Niveau durchgeführt werden soll, zu χ 2 = 0.9293((24+24-2) 1 η 5565.6448 - 23*ln 794.05 - 23-ln 12639.885 ) = 0.9293(46*8.6244 - 23*6.6771 - 23*9.4446) = 24.091 Da gilt
238
Kapitel IV: Multivariate Ein- und
Zweistichprobenprobleme
χ2 = 24.091 > 1 2 - 5 9 = X 2 ; 0 . 9 5 = X 2 ( p + 1 ) ( k _ 1 ) / 2 ; l _ a
,
muß d i e Hypothese H q v e r w o r f e n w e r d e n , d . h . es s i n d zum 5% Niveau
signifi-
k a n t e U n t e r s c h i e d e d e r K o v a r i a n z m a t r i z e n von P a n z e r l ä n g e , P a n z e r b r e i t e und Panzerhöhe b e i m ä n n l i c h e n und w e i b l i c h e n S c h i l d k r ö t e n
3.3
EIN
SIMULTANER
TEST
KOVARI ANZMATRIX
ÜBER
IM
vorhanden.
Μ I Τ Τ ΕL W Ε RΤ V ΕΚ Τ 0 R
UND
Ε I Ν S Τ I CΗ Ρ R 0 Β Ε Ν Ρ R 0 Β L Ε Μ
Nachdem b i s h e r e i n z e l n e T e s t s f ü r d i e Model 1 p a r a m e t e r y und | im E i n s t i c h p r o b e n p r o b l e m angegeben w u r d e n , s o l l h i e r d i e s i m u l t a n e Hypothese Η0:μ=μ*
und
t=t*
zum Niveau α gegen d i e A l t e r n a t i v e H^ μ /μ*
oder
$ ft*
g e t e s t e t werden. A u f g r u n d e i n e r S t i c h p r o b e von η O b j e k t e n aus e i n e r G r u n d g e s a m t h e i t , an denen j e w e i l s ρ Merkmale b e o b a c h t e t w u r d e n , b e r e c h n e t man d i e
Stichproben-
s c h ä t z e r y und S f ü r den unbekannten M i t t e l w e r t v e k t o r μ bzw. d i e u n b e k a n n t e Kovarianzmatrix
w i e i n A b s c h n i t t 1.1 d i e s e s K a p i t e l s angegeben. Daraus
kann man den Wert d e r u n t e r d e r N u l l h y p o t h e s e a p p r o x i m a t i v χ 2 m i t p + p(p+1)/2 Freiheitsgraden v e r t e i l t e n χ2 = 1 η η - 1 - n - l n d e t ( S - i ; 1 )
Prüfgröße +
t r ( S · ^ ) - 2n(y - μ * ) τ · ί ; 1 - ( y - μ * )
b e r e c h n e n , und man v e r w i r f t d i e s i m u l t a n e Hypothese H q zum Niveau α ,
falls
gilt χ2
> xp+p(p+1)/2;1-a
Ein w i c h t i g e r S p e z i a l f a l l
'
d e r Hypothese H Q i s t d e r T e s t a u f e i n e m u l t i v a -
r i a t e S t a n d a r d n o r m a l v e r t e i l u n g d e r ρ Merkmale i n der
interessierenden
Grundgesamtheit:
μ =0
und
t = Ir
1 0 0 1 >•0 0
BeXip-ce£: Wir kommen noch einmal a u f das B e i s p i e l aus A b s c h n i t t 1.1 ( S c h ä -
Kapitel IV: Multivariate Ein• und Zweistichprobenprobleme
239
d e l l ä n g e und S c h ä d e l b r e i t e von e r s t - und z w e i t g e b o r e n e n Söhnen aus 25 Fam i l i e n , v g l . T a b . 1 ) z u r ü c k . A u f g r u n d d i e s e r S t i c h p r o b e vom Umfang η = 2 5 s o l l d i e Hypothese 185 150 H o : μ = 185 150
t
'100 0 0 0
0 50 0 0
0 0 100 0
0' 0 0 50,
über d i e ρ = 4 b e o b a c h t e t e n Merkmale zum 5% Niveau g e t e s t e t w e r d e n , d . h . es s o l l ü b e r p r ü f t w e r d e n , ob b e i e r s t - und z w e i t g e b o r e n e n Söhnen d i e Schädel l ä n g e n nach ΝC185; 100) und d i e S c h ä d e l b r e i t e n nach N ( 1 5 0 ; 5 0 ) v e r t e i l t
sind.
D i e S t i c h p r o b e n s c h ä t z e r y und S f ü r den M i t t e l w e r t v e k t o r μ und d i e K o v a r i a n z m a t r i x $ s i n d im B e i s p i e l aus A b s c h n i t t 1.1 b e r e i t s b e s t i m m t w o r d e n , so daß z u r Berechnung d e r P r ü f g r ö ß e χ2 n u r noch Γ100 0 0 0
s-t
-1
0 50 0 0
0 0 100 0
91.481 50.753 66.875 44.267
0 0 0 50
-1
50.753 52.186 49.259 33.651
0.91481 0.50753 0.66875 0.44267
ίο.01 0 0 0
66.875 49.259 96.775 54.278
1.01508 1.04372 0.98518 0.67302
0 0.02 0 0
0 0 0.01 0
0 0 0 0.02
44.267 33.651 54.278 43.222
0.01 0 0 0
0 0.02 0 0
0.66875 0.49259 0.96775 0.54278
0 0 0.01 0
0 0 0 0.02
0.88534 0.67302 1.08556 0.86444
h i e r z u d i e Spur und d i e D e t e r m i n a n t e t r ( S - j ; 1 ) = 0.91481 + 1.04372 + 0.96775 + 0.86444 = 3 . 7 9 0 7 2 d e t ( S - i ; 1 ) = 0.91481-0.1200794 -1.01508-0.0334593 + 0.66875-(-0.0309865) - 0.88534-0.0159848 = 0.04101
'185.72 • μ * = 151.12 183.84 149.24
-
185" 150 185 150
0 1 -1 -0
72 12 16 76
b e s t i m m t werden müssen. Es e r g i b t s i c h s o m i t χ 2 = I n 25 - 1 - 25-1 η 0.04101 + 3.79072 - 2-25(0.72,1 . 1 2 , - 1 . 16,-0.76) 0.01 0 0 0
0 0.02 0 0
0 0
0.01 0
0 0 0 0.02
0 1 -1 -0
72' 12 16 76
240
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
= 3.2189 - 1 - 25(-3.1939) + 3.79072 - 50(0.72^-0.01 + 1.12 2 ·0.02 + 1.16 2 ·0.01 + 0.76 2 ·0.02) = 85.8571 - 50-0.0553 = 83.0921 :χ
14;0.95 = χ ρ+ρ(ρ+1)/2;1-α
so daß die Hypothese H Q verworfen werden muß.
4 DIE DISKRIMI NANZANALYSE
(IDENTIFIKATION VON
Die Problemstellung der ViikHAminanzanalyiz nung von Objekten
|
OBJEKTEN)
{ldznti&-Lk0
,
244
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
Äquivalent zu dieser ZineaAzn gruppenfall
Tlihva>c.km
d i e gmeAaLU-ieKtz
Ü-iikMminanz^unktion
i s t im Zweibei der e i n
LUIQJULZ VLik^iminanziunktion,
Objekt mit Ausprägungsvektor y der i-ten Teil population, i=1,2, zugeordnet wird, f a l l s mit a~ = $
(μ (1)
μ (2),)
gilt: | α Τ · ( μ ( 1 ) - y ) | = min | a T . ( y ( j ) - y) |
.
3=1,2
I s t |α τ · ( μ ^ - y) | = |ατ· ( μ ' ^ - y) |, so wird keine Entscheidung getroffen. Sind μ ' ' ' , y ' ^ ' and $ u.nbtkann£,
so müssen sie zunächst aus sogenannten
Lernstichproben geschätzt werden. Der Vektor der ρ Merkmalswerte wird an n^ Objekten der ersten und n 2 Objekten der zweiten Population beobachtet; diese Beobachtungsvektoren seien hier mit y ^ für k=1,...,n^ und y ^ k=1,...,n2 bezeichnet. Dann sind
y,k
Schätzer für y ^
und
>*
bzw. μ ^ , und der Schätzer für die Kovarianzmatrix $
ergibt sich, wie in Abschnitt 2.1, aus den n ^ + n 2 = n Beobachtungsvektoren zu (n > p) ι
2
n
i (
J ,
y i k - y i
) (
y i k - y i
}
·
Wird dann an einem neu hinzukommenden Objekt der Beobachtungsvektor y gemessen, so k l a s s i f i z i e r t man es vermittels der LLnzaizn
f-UhiMcknn
k^iminanz^unktion
h 1 2 ( y ) = (y, - y 2 ) T - s " 1 - y
- y 2 ) T - s " 1 - ( y 1 + y2)
in Population 1 im Falle h12(y) > 0 und in Population 2 im Falle h12(y) < 0
.
Ansonsten kann keine Entscheidung getroffen werden.
Vii-
Kapitel IV: Multivariate Ein- und
Bei dem äquivalenten Entscheidungsverfahren vermittels der LineaAzn
Viikfumina.nzFunktion
245
Zweistichprobenprobleme
gzneAatii-Lextzn
wird mit
a = S"1(y1 - y 2 ) das neue Objekt mit Beobachtungsvektor y in die i-te Population
(i=1,2)
klassifiziert, falls |a T .(y, - y ) ] =
gilt. Falls gilt
min |ctT·(yi - y ) | J j=l,2
|α τ ·(y 1 - y)| = |a T *(y 2 - y ) | , so wird hier keine Entschei-
dung getroffen.
Die Güte.
deA
V-LikfUmination
läßt sich natürlich dadurch überprüfen, daß
man die Objekte der Lernstichprobe klassifiziert. Da man die wahre Gruppenzugehörigkeit dieser Objekte kennt, kann man den Prozentsatz richtig
klas-
sifizierter Objekte bestimmen,. Ist dieser "hoch", so erreicht man durch die betrachteten Merkmale eine gute Diskrimination zwischen den Gruppen, vgl. hierzu das Beispiel 4.4
in Abschnitt 5. Es sei aber auch auf Abschnitt
hingewiesen.
Für ein neu hinzukommendes Objekt ist die UahAiche-intichkext Zuordnung
deA
nichtigen
natürlich umso größer je näher der Beobachtunnsvektor y am Mit-
telwertvektor μ ^
bzw. y.. der i-ten Population, der es zugeordnet w u r d e ,
liegt und je weiter es vom anderen Mittelwertvektor entfernt liegt.
4.2
DER
MEHRGRUPPENFALL
Erfolgt die Diskrimination nicht nach zwei Populationen sondern nach η > 2 Populationen, so spricht man vom MehAgluppeniatt
deA
V-UktUminanzanalyie
Wir gehen hier wiederum davon aus, daß die Diskrimination von Objekten aus einer Grundgesamtheit, die in m Teilpopulationen zerfällt, aufgrund von ρ Merkmalen Υ^,.,.,Υ
bzw. zugehörigen, gleichbezeichneten
Zufallsvariablen
durchgeführt wird. Diese ρ Merkmale seien in der i-ten Teilpopulation (i = l,...,m) gemeinsam normal verteil t mit Mittelwertvektor μ ^ Populationen gleicher
und in allen
Kovarianzmatrix
Wir behandeln zunächst den Fall, daß μ ' , μ ' "
1
'
iom-ie
$ bekannt
sind.
Zur Diskrimination eines Objekts an der der Vektor y der Ausprägungen von ρ Merkmalen beobachtet wurde, kann dann die lineaAe
¥-ü>heAiche
V-UknXmL-
246
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
verwandt werden. Ein Objekt mit Beobachtungsvektor y wird in
nanziu.nkti.on
die i-te Teilpopulation klassifiziert, falls für alle j t i gilt: hij.(y) = ( y ( i ) - P ( J ) ) T - r 1 - y - i ( w ( i ) - l i ( J , ) T - t " 1 - ( l i ( 1 ) + y ( j ' ) ) Sind μ ' , μ ' "
1
'
and
>0
so werden zunächst Lernstichproben vom
$ unbekannt,
Umfang n^ (i=1,...,m) aus den m Teilpopulationen zur Schätzung der unbekannten Parameter betrachtet. Bezeichnet man mit y ^
den Beobachtungsvek-
tor am k-ten Versuchsobjekt aus der i-ten Teil population, so wird der Mittelwertvektor μ ^
y
durch
ι
η. 1
iι ?nΓi
k=1
=
Σ
fUr
y iiK k
i = 1,
—
geschätzt. Dabei ist selbstverständlich darauf zu achten, daß zur Schätzung von μ ^ ' nur Versuchsobjekte aus der i-ten Teil population herangezogen werden. Die Kovarianmatrix $ kann mit n^ + n£ + ... +
= η > ρ geschätzt werden
durch .
n
m ^
i
_
J,
_
.
m
(n
i-1)si
'
wobei für i=1,...,m
1 S ^ n ^ r
"1 ^
(y
ik~yi)(yik~yi'
ein Schätzer für $ basierend auf den Beobachtungen in der i-ten Teil population ist. Die Matrix S g = (n-m)S nennt man auch V&hlznmcuOUx.
V
n
und die Matrix
m _ _ _ _ Σ ni(yi -y)(yi - y ) T 1 i=1 1 1
auch Hypotliiiznmatiix
mit
_ ι 111 "i y=-L J J n i=1 k=l
y
1K
(zur Hypothese, daß die beobachteten Merkmale nicht
zwischen den Gruppen trennen; vgl. auch Abschnitt 4.4 und die "einfache Varianzanalyse" in Kap.X, Abschnitt 1.4.1). Bei Verwendung der l i n m A i n F-ufre-wchen O-UknA.nU.nanziunktA.on wird dann ein neues, zu identifizierendes Objekt mit Beobachtungsvektor y der i-ten Teil-
.
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
population zugeordnet, falls für alle j / i
247
gilt:
h^.iyJMy^yjr-s^-y-^-yjr-s^.iy.+yj)
> 0
.
Bei der konkreten Berechnung kann man sich hier zunutze machen, daß gilt h
ij(y)
=
"hji(y)
*
Man kann hier auch eine QinvwJLLbiznXz
binzotii
V-LikfUrninanz^unktlon
verwen-
den. Bezeichnet α einen beliebigen Eigenvektor zum größten Eigenwert λ^ der Matrix S" 1 -S. , d.h. e η S ^ 'S. ·α = λ-·α e h b
,
so wird ein neues Objekt mit Beobachtungsvektor y in die i-te tion eingeordnet, falls für alle j ^ i
Teilpoiula-
gilt:
|a T '(y i - y ) | < I a T -(y^ - y) |
Wie im Zweigruppenfall läßt sich die Güte
deA VZikMMrUncutLon
durch den Pro-
zentsatz richtig klassifizierter (mittels der jeweiligen Diskriminanzfunktion) Objekte aus der Lernstichprobe messen; vgl. auch Abschnitt 4.4 und 5.
4.3
EIN
BEISPIEL
lab.3 enthält die ρ =4 Messungen von Länge und Breite der Kelch- und Blütenblätter von je n = n. = 50 Pflanzen der m = 3
Irisarten setosa, versicolor
und virginica;vgl. R.A. Fisher (1936): The use of multiple measurements in taxonomic problems, Ann. Eugen. 7, S.179-188. Betrachtet man die Daten aus Tab.3 als Lernstichprobe, so kann mittels der Diskriminanzanalyse eine beliebige Irispflanze einer der drei Arten zugeordnet werden. Als Kriterium für die Diskrimination sollen hier nur Länge and Bneite.
du
KilckbiatteA
herangezogen werden.
Kommen für die Klassifizierung nur die Arten iris setosa und versicolor in Frage (Zwilguuppiniall), so werden die Mittelwertvektoren durch y^ =(5.006,3.428) T
bzw.
y 2 = (5.936 ,2.770) T
i geschätzt. Der Schätzer für die gemeinsame Kovarianzmatrix der Populationen setosa und versicolor ist
248
Cab.3:
Kapitel IV: Multivariate Ein- und
L ä n g e ( L ) und B r e i t e ( B ) d e r Pflanzen dreier Irisarten
Iris
setosa τ y 1k
3 4 5 6 7
8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27
28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50
5 4 4 4 5 5 4 5 4 4 5 4 4 4 5 5 5 5 5 5 5 5 4 5 4 5 5 5 5 4 4 5 5 5 4 5 5 4 4 5 5 4 4 5 5 4 5 4 5 5
1 9 7 6 0 4 6 0 4 9 4 8 8 3 8 7 4 1 7 1 4 1
3 5 3 0 3 2
1 4 1 4 1 3
0 2 0 2 0 2
3 3 3 3 3 2 3 3 3 3 3 4 4 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 4 4 3 3 3 3 3 3 3 2 3 3 3 3 3 3 3 3
1 5 1 4 1 7 1 4 1 5 1 4 1 5 1 .5 1 .6 1 4 1 .1 1 2 1 .5 1 .3 1 4 1 7 1 5 1 7 1 3 1 0 1 7 1 9 1 6 1 6 1 5 1 .4 1 .6 1 .6 1 .5 1 .5 1 .4 1 .5 1 .2 1 .3 1 .4 1 .3 1 .5 1 .3 1 .3 1 .3 1 .6 1 .9 1 .4 1 .6 1 .4 1 .5 1 .4
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
6 1 8 0 0 2 2 7 8 4 2 5 9 0 5 9 4 1 0 5 4 0 1 .8 1 6 .3 0
1 6 9 4 3 9 1 7 4 0 0 0 4 9 5 8 8 4 7 6 3 4 0 4 5 4 2 1 4 1 2 1 2 5 6 0 4 5 3 2 5 8 0 8 2 7 3
B1 U t e
L
L
2 2 4 3 2 2 1 2 2 1 1 2 4 4 3 3 3 2 4 2 5 2 2 4 2 2 2 2 4 1 2 2 2 2 1 2 2 3 3 2 6 4 3 2 2 2 2
7 0 6 4 6 9 5 5 6 5 5 7 6 3 4 9 6 6 5 2 5 0 5 9 6 0 6 1 5 6 6 7 5 6 5 8 6 2 5 6 5 9 6 1 6 3 6 1 6 4 6 6 6 8 6 7 6 0 5 7 5 5 5 5 5 8 6 0 5 .4 6 .0 6 7 6 .3 5 6 5 .5 5 5 6 1 5 8 5 0 5 6 5 .7 5 .7 6 2 5 1 5 .7
und B l ü t e n b l ä t t e r
versicolor Τ y 2k
Kelch
Β
L
Kelch-
Iris
B1 U t e
Kelch
1 2
Zweistichprobenprobleme
L 3 3 3 2 2 2 3 2 2 2 2 3 2 2 2 3 3 2 2 2 3 2 2 2 2 3 2 3 2 2 2 2 2 2 3 3 3 2 3 2 2 3 2 2 2 3 2 2 2 2
2 2 1 3 8 8 3 4 9 7 0 0 2 9 9 1 0 7 2 5 2 8 5 8 9 0 8 0 9 6 4 4 7 7 0 4 1 3 0 5 6 0 6 3 7 0 9 9 5 8
4 7 4 5 4 9 4 0 4 6 4 5 4 7 3 3 4 6 3 9 3 5 4 2 4 0 4 1 3 6 4 4 4 5 4 1 4 5 3 9 4 8 4 0 4 9 4 7 4 3 4 4 4 8 5 0 4 5 3 5 3 8 3 7 3 9 5 1 4 3 4 5 4 7 4 4 4 1 4 0 4 .4 4 6 4 0 3 3 4 2 4 .2 4 2 4 3 3 0 4 1 '
von j e
Iris
virginica Τ 3k
Kelch
BlUte
L 1 4 1 5 1 5 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
3 5 3 6 0 3 4 0 5 0 4 3 4 5 0 5 1 8 3 5 2 3 4 4 7 5 0 1 0 2 6 5 6 5 3 3 3 2 4 2 0 3 2 3 3 1 3
L
Β
6 3 5 8 7 1 6 6 7 4 7 6 7 6 6 6 5 5 6 6 7 7 6 ' 6 5 7 6 6 7 6 6 6 7 7 7 6 6 6 7 6 6 6 6 6 6 5 6 6 6 6 6 6 5
50
3 5 6 9 3 7 2 5 4 8 7 8 4 5 7 7 0 9 6 7 3 7 2 2 1 4 2 4 9 4 3 1 7 3 4 0 9 7 9 8 8 7 7 3 5 2 9
3 2 3 2 3 3 2 2 2 3 3 2 3 2 2 3 3 3 2 2 3 2 2 2 3 3 2 3 2 3 2 3 2 2 2 3 3 3 3 3 3 3 2 3 3 3 2 3 3 3
3 7 0 9 0 0 5 9 5 6 2 7 0 5 8 2 0 8 6 2 2 8 8 7 3 2 8 0 8 0 8 8 8 8 6 0 4 1 0 1 1 1 7 2 3 0 5 0 4 0
6 5 5 5 5 6 4 6 5 6 5 5 5 5 5 5 5 6 6 5 5 4 6 4 5 6 4 4 5 5 6 6 5 55 6 5 5 4 5 5 5 5 5 5 5 5 5 5 5
0 1 9 6 8 6 5 3 8 1 1 3 5 0 1 3 5 7 9 0 7 9 7 9 7 0 8 9 6 8 1 4 6 1 6 1 6 5 8 4 6 1 1 9 7 2 0 2 4 1
2 5 1 9 2 1 1 8 2 2 2 1 1 7 1 8 1 8 2 5 2 0 2 1 2 1 2 0 2 4 2 3 1 8 2 2 2 3 1 5 2 3 2 0 2 0 1 8 2 1 1 8 1 8 1 8 1 6 1 6 1 9 2 0 2 2 1 5 1 4 2 3 2 4 1 8 1 8 2 1 2 4 2 3 1 9 2 3 2 5 2 3 1 9 2 0 2 3 1 8
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
S =
:
T W
249
^ ( ( η , - D S , + (n 2 -1)S 2 )
98 (
5.9682
4.7628
12.7939
4.0915
4.7628
6.8992
4.0915
4.7285
18.7621
8.8543
8.8543
11.6277
Mittels dieser Schätzer ergibt sich wegen S' 1 =
' 8.153
-6.209'
-6.209
13.156
daß eine neue Irispflanze mit Länge y^ und Breite y 2 des Kelchblattes in die Population iris setosa eingeordnet wird, falls gilt: -11.673y 1 + 14.431y 2 + 19.141 > 0 und in die Art iris versicolor klassifiziert wird, falls gilt: -11.673y 1 + 14.431y 2 + 19.141 < 0
Die gleiche Entscheidungsregel lineare Diskriminanzfunktion
.
würde hier natürlich die generalisierte
liefern.
Kann eine neu hinzukommende Irispflanze auch noch der Art iris virginica angehören (VAIA.gnuppmialt), nica
so muß auch die Lernstichprobe für iris virgi-
aus Tab.3 zur Schätzung der Parameter herangezogen werden. Mit 6.588
[0.3963
0.0919
I0.0919
0.1019
und 2.974
ergibt sich der Schätzer für die gemeinsame Kovarianzmatrix { von Länge und Breite der Kelchblätter der drei Irisarten zu
S = y^feO
Weiterhin ergibt sich • 1SU
Wegen
3
0.2650
0.0927
0.0927
0.1154
+ 5 0 S 2 + 50 S 3 )
50
i=i k=1
5.843 1K
3.057
250
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
s-U
5.248
-4.216'
[-4.216
12.052j
wird bei der Verwendung der linearen Fisherschen Diskriminanzfunktion eine neue I r i s p f l a n z e mit Länge y^ und Breite y 2 des Kelchblattes dann wie f o l g t d i s k r i m i n i e r t . Mit '12
(y) = - 7.655y 1 + 11.851y 2 + 5.154
h 1 3 ( y ) =-10.216y 1 + 12.141y 2 +20.359
,
0.290y 2 + 15.210
1 2 3 ( y ) = - 2.562y^ gehört s i e zur Art i r i s setosa
, falls
h12(y) > 0
und
h,,(y) > 0 13
i r i s versicolor, falls
h^ 2 (y) < 0
und
h9,(y) > 0 23
i r i s virginica , falls
h^(y) < 0
und
h9,(y) < 0 23
Möchte man die g e n e r a l i s i e r t e lineare Diskriminanzfunktion zur D i s k r i m i nation zwischen den drei I r i s a r t e n verwenden, so benötigt man die Matrizen S g = (n-m)S = 147 S ;
38.96
13.63
13.63
16.96
und Sh= n
3 f 63.21 I n(y.-y)(y.-y)T = 1 1 i=1 -19.95
-19.95 11.35
Mit S " 1 =0.01· e
3.5706
-2.8696
-2.8696
8.2024
e r g i b t s i c h dann α a l s Eigenvektor zum größten Eigenwert Aq = 4.171 der Matrix S"1-S. e h
2.829
-1.038
-3.450
1.503
Wir können also z.B. α = ( 1 ,-1.293) wählen. Für eine neue I r i s p f l a n z e mit Beobachtungsvektor y = ( y ^ , y 2 ) T ergibt
251
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
s i c h somit 10tT-(y 1 - y ) I = | 0.5736 - a T * y | | a T - ( y 2 - y ) I = [2.3544 - ccT*y | k
T
-(y
3
-y)|
= 12.7426 - a T - y |
d.h. s i e w i r d , f a l l s -oo
geschlossen, wenn g i l t
^·ΡΡ,η-ρ-1;1-α
'
man vgl. hierzu auch Abschnitt 2.1. . Möchte man nun die Zahl deλ Men kmale neduzienw,
so wird man eine möglichst
geringe Verschlechterung des Trennmaßes in Kauf nehmen wollen. Hat man die Zahl q der Merkmale, die man berücksichtigen möchte, im Vorhinein festge2
legt, so kann man das Trennmaß Τ
für jede Auswahl von q aus ρ Merkmalen
berechnen und dann die Gruppe von q Merkmalen zur Diskrimination verwenden, für die das Trennmaß maximal i s t . Da S^ und
aber jedes Mal neu berech-
net werden müssen, i s t dies Verfahren sehr aufwendig, besonders wenn ρ groß ist. Eine andere Möglichkeit besteht darin, die ick>UXXweM>e Methode den. Unent-
253
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
anzuwenden, die auch dann geeignet i s t , wenn die Anzahl q zu
bihntA£.hkeÄt
berücksichtigender Merkmale nicht im Vorhinein festgelegt i s t . Man berechnet zunächst aus der Lernstichprobe den Schätzer S=
m=n"Se
= (s
jVj,JM
ρ
für die Kovarianzmatrix der ρ beobachteten Merkmale und deren Inverse S
1 = (t
jA)j,£=1
ρ
»
sowie die Matrix a = (y 1 - y , y 2 ~ y
V ^
Daraus ergibt sich dann die Matrix Β
-
5 _ 1
·
Α
·νΜ.....Ρ.1-1
»
·
Nun wird für jedes der ρ Merkmale die Unentbehrlichkeit IK für j=1
ρ
berechnet: m
1
2
Das Merkmal 1 mit der kleinsten Unentbehrlichkeit wird dann eliminiert und das Trennmaß für die verbleibenden p-1 Merkmale i s t Τ2(Υ1,...,Υ,.1,Υ£+1
Yp) = T 2 (Y 1
Yp)-u,
.
Möchte man noch ein Merkmal eliminieren, so bestimmt man den Schätzer für die Kovarianzmatrix der verbleibenden Merkmale S,,
. , „ ,
>
durch Streichen der Jl-ten Spalte und Jl-ten Zeile in der Matrix S und berechnet die dazu inverse Matrix S^j
^
j. Streicht man nun
noch die ϊ,-te Zeile der Matrix A, so erhält man eine Matrix A
(1,...,i-1,U1
p)
und
daraus
1,... ,£-1 ,ί,+ 1,... ,p)
=
dann
1,... ,£.-1 ,ί,+ 1,... ,p)
1,... ,8.-1 ,£+1
p)
Die Unentbehrlichkeit Uj , j = 1 , . . . , £ - 1 , . . . , p der verbleibenden p-1 Merkmale bestimmt man dann analog wie vorher aus diesen Matrizen, eliminiert das Merkmal mit minimaler Unentbehrlichkeit, erhält ein neues Trenn2 maß Τ
und wiederholt die Prozedur, wenn man noch ein Merkmal eliminieren
möchte, usw. 8 i l i p l z l : Im Beispiel der drei I r i s a r t e n , vgl. Tab.3, wollen wir zunächst das Trennmaß für a l l e ρ =4 Merkmale bestimmen. Man erhält hier mit
254
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
= rig = Mg = 50, d.h. η 150, und '5.006' 3.428 1.462 0.246j
—
•
y
2
=
'5.936 2.770 4.260 1.326j
—
y
'
3
=
6.588 2.974 5.552 2.026
und
y =
5.8431 3.057 3.758 1.199
zunächst
Vn
5
0
l (y. - y ) ( y1i - y ) T = 1 i=l
3 V
63.21 -19.95 165.26 71.28
50
A X i=1 k=1
(
yik-yi)(yik-y·!'
-19.95 11.35 -57.24 -22.93
38.96 13.63 24.26 5.64
165.26 -57.24 437.10 186.78
13.63 16.96 8.12 4.81
71.28 -22.93 186.78 80.41
24.62 8.12 27.22 6.27
5.64 4.81 6.27 6.16
und wegen
r-1
0.01·
7.3732 -3.6590 -6.1140 2.3295
-3.6590 9.6865 1.8163 -6.0623
-6.1140 1.8163 10.0572 -6.0571
2.3295 -6.0623 -6.0571 25.0000
dann
S. -S" h e
-3.053 1.079 -8.094 -3.452
1
T2(Y1
-5.565 2.180 -14.976 -6.311
8.076 -2.942 21.503 9.140
10.492 -3.418 27.539 11.840
Y 4 ) = tr(S h -Sg 1 ) = -3.053 + 2.180 +21 .503 + 11.840 = 32.470
und mit, vgl. Abschnitt 1.3 in Kap. III, θ = min(p,m-1) = 2, u =
| p-m+11 -1)
und ν = ^-(n-m-p-1) = 71, ergibt sich das Trennmaß als signifikant zum 5% Niveau : T 2 ( V r . . . ,Y 4 ) = 32.470 > 0.146 = 0.056-2.60
_ 6 2 (2u+6+1) ρ 2(θ ν + υ
0(2u+9+1) ,2(θν+1) ;0.95
~cHL;0.95(p'n_m,m~1) Nun wollen wir zwei entbehrliche Merkmale eliminieren. Es ist
S =
S
S
n-m' e"W' e
und S" 1 = 147 S" 1 . e
:
0.265 0.093 0.167 0.038
0.093 0.115 0.055 0.033
0.167 0.055 0.185 0.043
0.038 0.033 0.043 0.042
·
255
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
Weiter
ist
A=(y,
-0.837 0.371 -2.296 -0.953
-y,y2 -y.y3 -y)
0.093 -0.287 0.502 0.127
0.745 -0.083 1.794 0.827
und somit
1
ι = S~ -A :
6.305 12.147 -16.946 -20.752
-1.525 -4.378 4.689 3.074
-4.771 -7.769 12.242 17.709
Hieraus ergeben s i c h nun d i e U n e n t b e h r l i c h k e i t e n der 4 Merkmale Länne und B r e i t e von K e l c h - und B1 l i t e n b l ä t t e r n zu U
1
=
147-10.839(6·3052 *
U 2 = 5.424
1
·5252
U 3 = 10.561 und
+ 4
· 7 7 1 2 ) = 2.035
,
U 4 = 6.976
Damit i s t das e r s t e zu e l i m i n i e r e n d e Merkmal das Merkmal 1 (Länpe des Kelchblattes). Das Trennmaß der 3 verbleibenden Merkmale
ist
T 2 ( Y 2 > Y 3 , Y 4 ) = T 2 ( Y 1 > Y 2 > Y 3 , Y 4 ) - U 1 = 32.470 - 2.035 = 30.435
.
Wegen r
HL ;0.95
Μ
147
~ e 2 (2u+e+1) .ph ~ 2(θν+1) e(2u+9+1),2(θν+1);0.95 = 0.0417-2.10 = 0.088
(mit θ = 2, u = 0 und ν = 71.5) i s t das Trennmaß auch f ü r d i e Merkmale 2 , 3 und 4 s i g n i f i k a n t zum 5% Niveau. Nun müssen w i r das zweite zu e l i m i n i e r e n d e Merkmal bestimmen. M i t S, (2,3,4)
0.115 0.055 0.033
c-1 (2,3,4)
11.644 -1.752 -7.355
0.055 0.185 0.043
0.033 0.043 0.042
wi rd
weiter
ist
-1.752 7.357 -6.156
-7.355 -6.156 35.891
256
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
0.371 -2.296 -0.953
(2,3,4)
-0.287 0.502 0.127
-0.083 1.794 0.827
und somit
B
(2,3,4)
=S
A
(2,3,4)" (2,3,4)
15.352 -11.675 -22.799
-5.152 3.414 3.579
-10.192 8.253 19.248
Die Unentbehrlichkeiten der 3 verbleibenden Merkmale ergeben sich nun zu U
2
=
147-11 6 4 4 ( 1 5 - 3 5 2 2 + 5.152 2 - M 0 . 1 9 2 2 ) = 10.694
Uj = 9.990 und
,
U 4 =8.559
so daß das Merkmal 4 (Breite des Blütenblattes) eliminiert wird. Wir haben nun die beiden Merkmale, aufgrund derer wir diskriminieren wollen, gefunden. Das Trennmaß dieser Diskrimination ist wegen T 2 ( Y 2 , Y 3 ) = T 2 ( Y 2 , Y 3 , Y 4 ) - U 4 = 30.435 - 8.559 = 21.876 > 0.0828 - 0.0276-3.0 =aC (mit θ = 2, u =
HL ;0
^
^
,
, 2 ( θ ν + 1 ) ;0.95
_ 9 5 (2,147,2)
v = 72) zum 5% Niveau auch noch signifikant.
Im Beispiel aus Abschnitt 4.3 haben wir aufgrund der Merkmale Y^ und Y 2 diskriminiert, was, wie sich hier herausstellt, nicht optimal war. Das dort erreichte Trennmaß war lediglich Τ ( Y r Y 2 ) = 4.363
.
Für die verbleibenden Merkmale wollen wir nun einmal die lineare Fishersche Diskriminanzfunktion bestimmen. Es ist S
(2,3)
S
(2,3)
=
0.115
0.055
0.055
0.185
und somit ( = S
1) =
10.137
-3.014
-3.014
6.301
Weiter ergibt sich (für die Merkmale 2 und 3) (yry2) =
0.658 -2.798
,
( y , - y 2 ) T - S " 1 = (15.103,-19.613)
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
(y,-y3) =
(y2-y3) =
0.454
257
(y, - y 3 ) T - S " 1 =(16.929,-27139)
-4.090 -0.204
( y 2 - y 3 ) T - S " 1 =(1.826,-7.526)
-1.292
so daß h 1 2 ( y ) = 15.103y 2 -19.613y 3 +9.309
,
h 1 3 ( y ) = 16.929y 2 - 27.139y 3 +40.987
und
h 2 3 ( y ) = 1.826y 2 - 7.526y 3 + 31.678 i s t . Bezeichnet also y = ( y 2 > y 3 )
den Beobachtungsvektor für die Breite des
Kelchblattes und die Länge des Blütenblattes einer neuen Irispflanze unbekannter Art, so wird sie der Art setosa zugeordnet, f a l l s h^ 2 (y) > 0 und h^ 3 (y) > 0
,
versicolor zugeordnet, f a l l s h^ 2 (y) < 0 und h 2 3 ( y ) > 0 und virginica zugeordnet, f a l l s h 1 3 ( y ) < 0 und h 2 3 ( y ) < 0 Beobachtet man also zum Beispiel eine Irispflanze mit y =(3.271,4.765) T
,
so ergibt sich h 1 2 ( y ) = 15.103-3.271 - 19.613-4.765 + 9.309 = -34.745 h 1 3 ( y ) =-32.956 und h 2 3 ( y ) = 1.789
,
J
d.h. die Pflanze wird der Art I r i s versicolor zuneordnet.
Ausgehend von der gmeAatli-Le/itzn die ΜeXhodt άζΛ Kovielcution
lineaAzn
kann auch
Vi^knJjnina.nziu.nktlon
mit dieser Funktion a l s Anhaltspunkt für die
Reduktion von Merkmalen verwandt werden. Möchte man die Anzahl ρ von Merkmalen Y^,...,Yp auf die q wichtigsten reduzieren, so schätzt man für £=1,...,p die Korrelation p v
7
'(/
des Merkmals Y„ mit Ζ = α,Υ, + . . . + α Y *
11
und
ρ ρ
eliminiert die p - q Merkmale mit der betragsmäßig geringsten Korrelation. Ausgehend von einer Lernstichprobe von Objekten kann dabei ρ γ werden durch r
Y5Z
= U
* /
geschätzt
für 4=1....,p
I s t et ein Eigenvektor zum größten Eicienwert der Matrix bei
z
^
so i s t hier-
258
Kapitel IV: Multivariate Ein- und
u
u = (u^
p)T
=
Se"a
Zweistichprobenprobleme
w = aT*u
>
und für £=1,...,p bezeichnet trix S . e
^
,
das Jl-te Hauptdiagonal element der Ma-
Beispiele zu dieser Methode werden wir im nachfolgenden Abschnitt 5 und im Abschnitt
2.1 des Kap.V kennenlernen. Diese Vorgehensweise läßt sich na-
türlich ebenfalls schrittweise durchführen. Nach Elimination eines Merkmals gemäß obigen Kriteriums wird die gesamte Prozedur mit den
verbleibenden
Merkmalen wiederholt und dann das nächste Merkmal eliminiert, usw.
5 EIN ZUSAMMENFASSENDES
BEISPIEL
Ober ein Jahr hinweg wurden in η = 15 Gaststätten der vierteljährliche
Pils-
Absatz (in hl) ermittelt; die je vier Quartalsabsätze wollen wir hier als die interessierenden Merkmale interpretieren. Die entsprechenden Daten, die in Cab.4 zusammengestellt sind, verdanken wir der Privatbrauerei
Thier,
Dortmund.
Cab.4: P i l s - A b s a t z (in hl) von η = 15 Gaststätten in ρ = 4
Gaststätte i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Quartal 1
Quartal 2 *i2
75 57 16 61 71 11 79 97 89 57 113 78 151 111 55
30 00 50 20 00 25 00 60 50 00 50 00 00 00 30
68 58 21 67 80 15 53 85 84 54 101 68 149 142 61
00 00 60 20 75 50 00 70 00 00 20 00 00 00 00
Quartal *ί3 51 51 12 43 60 19 41 80 68 44 143 84 161 143 38
50 00 80 30 00 25 30 10 90 00 90 00 00 10 00
3
Quartalen
Quartal 4 y
i4
72 50 16 65 89 6 87 102 96 63 119 79 159 160 63
80 00 00 50 00 00 00 40 30 50 40 00 00 10 00
Wir schätzen nun zunächst Erwartungswert μ und Kovarianzmatrix $ der vier Merkmale in der Grundgesamtheit der Gaststätten aus den Daten der Tab.4. Hier ergeben sich die Schätzer
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
74.943 73.930 69.477 81.933
(1287.850 1233.346 1496.901 1497.847
und
1233.346 1344.534 1561.575 1546.151
1496.901 1561.575 2090.534 1811.010
1497.847 1546.151 1811.010 1881.994
so daß d i e Hypothese
Ho:
μ:
80 80 80 80
u
gegen
Η
Γ
μ
80 J 80 Π80 80
über den E r w a r t u n g s w e r t v e k t o r μ b e i Annahme e i n e r u n b e k a n n t e n trix
Kovarianzmap zum 5% N i v e a u v e r w o r f e n werden muß, denn f ü r d i e H o t e l 1 i n g s c h e Τ -
Statistik ergibt sich mit S-1
10"3
=
11.697 1.792 -2.248 -8.618
1.792 17.321 -3.958 -11.847
-2.248 -3.958 4.073 1.122
-8.618 -11.847 1.122 16.045
dann T2 = n ( y - y J T - S " 1 · ( y 15(-5.057,-6.070,-10.523,1.933)-S
-1
-5.057 -6.070 -10.523 1.933
= 18.214 > 17.090 = 1 1 . 3 . 3 5 7 11
15-4
,, . 0 , = £ i n i Ü . F 4,11 ; 0.95 n-p ρ,η-ρ;1-α
Damit i s t a l s o d e r E r w a r t u n g s w e r t v e k t o r μ i n d e r G r u n d g e s a m t h e i t d e r G a s t s t ä t t e n zum 5% N i v e a u s i g n i f i k a n t von μ * = ( 8 0 , 8 0 , 8 0 , 8 0 ) T
verschieden.
T e s t e n w i r w e i t e r h i n d i e Hypothese Η·. ί = 2000-1,
gegen
H,|: ί ?ί 2000·
daß d i e Merkmale i n d e r G r u n d g e s a m t h e i t u n k o r r e l i e r t m i t V a r i a n z 2000 s i n d , zum 5% N i v e a u , so z e i g t s i c h , daß auch h i e r e i n e s i g n i f i k a n t e Abweichung von d e r Hypothese v o r h a n d e n i s t .
Es i s t
nämlich
L = ( n - 1 ) ( I n d e t i Q - I n d e t S + t r ( S · ^ 1 ) - p) = 1 4 ( I n 2000 4 - I n 3 . 2 8 2 9 1 8 9 1 • 10 9 + 3.302456 - 4) = 1 4 · 7 . 7 9 4 0 6 7 0 6 0 = 109.117 und s o m i t =(
1
- ^ (
2
P
+ 1
- F T ) >
L
= (
1
- 6 A T (
2
-
4
+ 1
- 4 ! T ) ) · 1 0 9 · 117
259
260
Kapitel IV: Multivariate Ein- und
Zweistichprobenprobleme
• 97.945 > 18.31 - X i 0 ; 0 . 9 5 ~ x 4 - 5 / 2 ; 0 . 9 5 ~ x p ( p + 1 ) / 2 ; 1 - c t
'
Auch die diesen beiden Einzelhypothesen über μ und ί entsprechende simultane Hypothese
Ho: μ:
und $ = 2000·I 4
gegen
H1: μ t
oder ί ?* 2000·Ι 4
muß dann natürlich zum 5% Niveau verworfen w e r d e n , denn es ist χ 2 = 1 η η -1 - n - l n d e t ( S - ^ 1 ) + t r ( S · ^ ) " 1 - 2 n ( y - μ * ) Τ · ^ 1 · ( 7 - μ*) = In 15 -1 - 15-1 η — U r - 3 . 2 8 2 9 1 8 9 1 · 10 9 + 3.302456 - 2-1.327 2000 = 129.731 > 2 3
·68
=x
14;0.95
= χ
4+4·5/2;0.95
=χ
ρ+ρ(ρ+1)/2;1-α
'
Bisher haben wir Uber den Erwartungswert μ in der Grundgesamtheit getestet, ob die Erwartungswerte μ^,.,.,μ^ in den Quartalen alle gleich und alle gleich 80 sind. Will man nun lediglich die Gleichheit von μ^,.,.,μ^
testen,
so muß der S y m m i f U ^ t u t verwandt werden. Um zum 5% Niveau die Hypothese H o : μ, = μ
2 "μ3
= μ
4
testen zu können, müssen wir zunächst die transformierten
Beobachtungsgrös-
sen ζ.. = y . . - y . ij 'iJ ip
für i=1,...,n und j=1,...,p-1
bestimmen, vgl. iah.5.
Aus der Tab.5 berechnen sich dann der Mittelwertvektor ζ und die Kovarianzmatrix S dieser transformierten Daten zu -6.990 -8.003 -12.457
174.149 71.342 70.030
und
so daß sich wegen 7.448 S" 1 = 10~ 3 · -3.567 -0.609
-3.567 10.563 -1.891
die hier adäquate Hotellingsche Τ
-0.609 -1.891 3.441
- Statistik zu
71.342 134.226 86.399
70.030 86.399 350.480
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
261
tab.5: Transformierte Beobachtungen z^. für den Symmetrietest Gaststätte i
z
i1
2 50 7 00 0 50 -4 30 -18 00 5 25 -8 00 - 4 80 -6 80 -6 50 -5 90 -1 00 -8 00 -49 10 -7 70
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
z
z
i2
-4 80 8 00 5.60 1 70 -8 25 9 50 -34 00 -16 70 -12 30 -9 50 -18 20 -11 00 -10 00 -18 10 -2 00
i3
-21.30 1.00 -3.20 -22.20 -29.00 13.25 -45.70 -22.30 -27.40 -19.50 24 .50 5.00 2.00 -17.00 -25.00
T 2 = n - z T - S " 1 - z = 15-0.6922 = 10.383 ergibt. Da nun gilt T 2 = 10.383 * 12.212 = « . 3 . 4 9 0 = « . F 3 > 1 2 ; 0 i 9 5 . (p-1)(n-1). F n-p+1 p-1,η-ρ+1;1-a
'
kann die Hypothese H q zum S% Niveau nicht verworfen werden, d.h. die erwarteten Absätze in 4 Quartalen sind in der Grundgesamtheit der Gaststätten zu diesem Niveau nicht signifikant verschieden. Zum Problem zweier v&ibundmeA StLchpiobm wenn man die Quartalsabsätze
gelangt man in unserem Beispiel,
im 1. und 2. Halbjahr vergleichen will. Man
faßt dann die Beobachtungen im 1. und 2. Quartal als eine und die Beobachtungen im 3. und 4. Quartal als die andere Stichprobe auf; in diesem Fall ist die Anzahl ρ der Merkmale natürlich nur noch zwei statt vier. Zum Testen von Ho:
μ (1)
= U(2)
gegen
muß man zunächst Mittelwertvektor und Kovarianzmatrix der Beobachtungsreihen y ^ ^ ü - y ^
und
y(i2)=yi2-y14
bestimmen. Es ergibt sich hier aus den Daten der Tab.4
.1=1
15
262
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
y ( 1 ) = 5.467
w(2) y " ' = -8.003
und a l s empirische Kovarianzmatrix der beiden Reihen S =
'384.570
-15.057]
-15.057
134.226
d.h. S"1 = 10~4·
26.118
2.930
2.930
74.830
Damit i s t der Wert der Hotel 1 ingschen Τ - S t a t i s t i k gegeben als τ2
= 7.979 [y(2)
und die Hypothese H q kann zum 5% Niveau nicht verworfen werden, da g i l t T2 = 7.979 f 8.198 =Ι|·3.806 = I | - F , , , . n Q c = p ( " " 1 ) - F n n n . , 13 13 2,13;0.95 n-p p,n-p;1-a
Wir wissen, daß die 15 Gaststätten in unserer Stichprobe zwei verschiedenen Gastronomie - Typen (z.B. Fast - Food - Gastronomie, Bier - Gastronomie, Speise - Gastronomie) angehören; und zwar gehören die Gaststätten 1 b-ü, 6 zum Τιjp I , die Gaststätten 7 b-iA 15 zum Typ I I . Dies wollen wir im folgenden insofern berücksichtigen, als daß wir zum Problem zweier Stic.hp'wbe.n
unveAbund&M/i
mit n^ = 6 und n^ - 9 übergehen.
Als Schätzer f ü r die Erwartungswerte μ
(1)
(21 und μν ' des Absatzes in den 4
Quartalen und für die entsprechenden Kovarianzmatrizen ^ und ^
i " den
beiden Grundgesamtheiten (Gastronomietypen I und II) ergeben sich zunächst für den Typ I 48.708 51.842 Vi = 39.642 49.883 und für den Typ
y? =
773.905 730.469 507.475 882.547
730.469 721.131 491.778 872.229
507.475 491.778 366.723 586.176
882.547 872.229 586.176 1074.642
II
92.433' 88.656 89.367 103.300
9
V C
_
909 977 1324 1018
702 395 003 566
977 1292 1601 1275
395 244 583 610
1324 1601 2316 1607
Unter der Annahme gleicher Kovarianzmatrizen ^ = ^ =t
in
003 583 573 610
1018.566' 1275.610 1607.610 1337.758
den beiden Grund-
gesamtheiten wollen wir nun zunächst zum 5% Niveau die Hypothese der Gleichheit der Erwartungswerte in den beiden Grundgesamtheiten testen:
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
H0:u(1W2)
gegen
Hi
263
:u(1W2)
Dazu berechnen wir zunächst die gemeinsame Stichprobenkovarianzmatrix S = (5 S, + 8 S 2 )/13 deren Inverse durch
S " 1 = 10~ 3 ·
10.877 1.315 -2.031 -7.697
1.315 23.613 -4.897 -17.613
-2.031 -4.897 3.980 2.114
-7.697 -17.613 2.114 20.706
gegeben i s t . Da nun g i l t = ^n
1+n2
>18.086
(y, - y 9 ) T - S _ l - ( y 1 - y 7 ) =|^|·5.197 = 18.709 52 TU"3·478
52 TtT*F4,10 ;0.95
n^+ng-2 ρ
" η ^ η ρ ρ Ρ Γ Ρ ρ , η 1 + η 2 - ρ - 1 ; 1-α '
muß die Hypothese zu diesem Niveau verworfen werden, d.h. die Unterschiede in den mittleren Absätzen sind bei den Gastronomie - Typen I und I I zum 5% Niveau s i g n i f i k a n t . Daß die Annahme gleicher Kovarianzmatrizen ^
und ^
bei den Typen I und
I I im obigen Test nicht ganz u n r e a l i s t i s c h war, zeigt s i c h beim Testen der Hypothese Ho: t , = $ 2
gegen
H^ ^ t%2
.
Diese Hypothese kann zum 5% Niveau nicht verworfen werden, denn mit 2
c =1
2P +3p - 1 ( 1 + 1 6(p+1)(k-1) V n i n 2 " 1
_ _ 1 _ J \ n i~1+n2_1'
2-16+3-4-1 / 1 1 6(4+1 )(2-1) V 6 ^ T " 9 ^ T " 43 1 - ^ - 0 . 2 4 8 = 0.645 ergibt sich χ 2 = c ( ( n 1 + n 2 - 2 ) - l n d e t S - (η,-1 )·1η det S 1 - ( n 2 - 1 ) - l n d e t S 2 ) = 0.645((6+9-2)·1η 1.80939964-10 9 - 5·1η 1 .212757200·10 7 -8-1 η 3.47271 1980- 109 ] = 12.778 *
18-31 = χ
10 ;0.95
=x
p(p+1)(k-1)/2;1-a
264
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
die Kovarianzmatrizen können a l s o nicht a l s s i g n i f i k a n t (zum 5% Niveau) verschieden nachgewiesen werden. Im Abschnitt 4 dieses Kapitels wurde s c h l i e ß l i c h noch das Problem der D i s kriminanzanalyse angesprochen. Daher wollen wir hier ausgehend von den Daten aus Tab.4 noch eine OiikHAJtUncMz^anktion bestimmen, die es erlaubt zwischen den beiden Typen I und I I von Gaststätten zu d i s k r i m i n i e r e n , d.h. eine Gaststätte einem dieser Typen zuzuordnen. Benutzen wir - wie beim Problem zweier unverbundener Stichproben - , daß die Gaststätten 1 bis 6 in Tab.4 zum Typ I und die Gaststätten 7 b i s 15 zum Typ I I gehören, so läßt sich die Diskriminanzfunktion für diesen Zweigruppenfall unter Verwendung der Mittelwertvektoren y^ und y^ für die b e i den Typen sowie der gemeinsamen Kovarianzmatrix S der beiden Stichproben bestimmen. Diese Größen sowie die Inverse S ^ der Kovarianzmatrix haben wir schon im Zusammenhang mit dem Zweistichprobenproblem (unverbundene) bestimmt, so daß sich mit -43.725 -36.814 -49.725 -53.417
und
y1 +y2 :
141.1411 140.498 129.009 153.183
d.h. (y, - y 2 ) T - s " 1
[-0.0119,0.2575,-0.0417,-0.2262)
und (y 1 - y 2 ) T - S " 1 - ( y 1 + y 2 ) =-5.5310 nun ausgehend von der linearen Fisherschen Diskriminanzfunktion folgende Entscheidungsregel ergibt: I s t f ü r eine Gaststätte der Beobachtungsvektor der v i e r Quartalsabstände a l s y gegeben, so wird die Gaststätte dem Typ I zugeordnet, f a l l s
gilt
(y"i - y 2 ) T - s ~ 1 - y - ; r ( y l - y 2 ) T - s " 1 · ( y , + y 2 ) = (-0.0119,0.2575.-0.0417,-0.2262)y +2.7655 > 0 und sie wird in a l l e n anderen Fällen dem Gaststätten - Typ I I zugeordnet, bzw. im F a l l e , daß die Diskriminanzfunktion den Wert 0 annimmt, i s t die Zuordnung w i l l k ü r l i c h und kann daher auch unterbleiben. Um die Güte dieser Diskriminanzfunktion zu überprüfen, wollen wir hier
265
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
einmal den Prozentsatz mit ihr richtig klassifizierter Gaststätten aus der Lernstichprobe überprüfen, d.h. wir bestimmen den Wert der Diskriminanzfunktion für die η = 15 BeobachtungsVektoren
y=yi
=(
yii>yi2»yi3'yi4)T
aus Tab.4 und vergleichen die Zuordnung mit der wahren Typ - Zugehörigkeit vgl. tab.6. Cab.6: Zuordnung und wahre Zugehörigkeit der 15 Gaststätten, vgl. Tab.4, zu den Gaststätten - Typen I und II
Gaststätte i
(-0.0119,0.2575,-0.0417,- 0.2262)y i +2.7655
0 3 3 2 0 4 -5 -2 -1 -0 -5 -2 -3 -4 1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
7654 5855 9782 7195 0799 4630 9287 8312 3257 2063 5351 0253 3434 1723 9797
Zuordnung
wahre Zugehörigkeit
I I I I I I II II II II II II II II I
I I I I I I II II II II II II II II II
Wir sehen, daß nur die Gaststätte 15 fälschlicherweise dem Typ I zugeordnet wurde; alle übrigen Gaststätten wurden richtig diskriminiert. Damit ist der Prozentsatz richtig klassifizierter Gaststätten hier mit •]£= 0.9333 = 93.33% sehr hoch.
Wir wollen nun noch eine "neue" Gaststätte, deren Typ - Zugehörigkeit wir nicht kennen, diskriminieren. Dazu verwenden wir die P i l s - A b s ä t z e in den vier Quartalen eines Jahres, die im Beobachtungsvektor y = (63.25,57.00,75.50,77.20) T zusammengefaßt sind. Setzt man diesen Vektor y in die Diskriminanzfunktion ein, so ergibt sich
266
Kapitel IV: Multivariate Ein- und Zweistichprobenprobleme
(-0.0119,0.2575,-0.0417,-0.2262)y + 2.7655 = -6.6862 +2.7655 = -3.9207 < 0
,
d.h. diese neue Gaststätte wird dem Typ I I zugeordnet. Die gleichen Diskriminationsergebnisse ergeben sich unter Verwendung der generalisierten linearen Diskriminanzfunktion, bei der in diesem Beispiel der Vektor α n a t ü r l i c h gegeben i s t durch α = S _ 1 (y 1 - y 2 ) = (-0.01 19,0.2575,-0.0417,-0.2262) T
.
Wir v/ollen nun zunächst mit H i l f e der Methode der Unentbehrl i c h k e i t aus Abschnitt 4.3 noch das beste Quartalspaar eines Jahres zur Diskrimination zwischen den Gaststättentypen I und I I bestimmen. In diesem Zweigruppenfall e r g i b t sich das TAznnmaß f ü r ρ =4 Quartalswerte zunächst zu Τ ^ Υ , , . , . , ν ^ - - j f ^ j i y , - y 2 ) T - S " 1 ( y 1 - y 2 ) = - ^ - 5 . 1 9 7 = 1.4392 es i s t s i g n i f i k a n t zum 5% Niveau, denn T 2 ( V 1 , . . . , Y 4 ) = 1.4392 > 1-3912 = ^ - 3 . 4 7 8 = A * F 4 , 1 0 ; 0 . 9 5
'
Um ein erstes Merkmal eliminieren zu können, benötigen wir die Matrix Β = S~ 1 -A, wobei -26.235 -22.088 A = (y 1 - y , y 2 - y ) = -29.835 -32.050
17.490 14.726 19.890 21.367
Es e r g i b t sich wegen
; = S" 1 -A = 10~3·
-7.120 154.536 -25.049 -135.732
4.745] -103.014 16.697 90.483
f ü r die Un^^Ube.lιfU•iclιk^
V
=
des Merkmals üj mit der Kriteriumsvariablen J
1 2
< ά
+
Λ 4
( η
+
^)2
^
+
Λ
π 4 -
15. f 1 2
1
)
+
= 1
12
+
32
·7142857
42
+
'
+
12
22
Λ
Kapitel V: Skalierung qualitativer Daten
c
/ 2 3 (η' Γ \ = 12'( l l - 1 \ = 0.0685714 M = 1 k=1 n i π ^ '
299
und
3 ( 2 ("it'2 \ X | = 12-( I I — - 1 ) = 2.88 J M = 1 k=1 n i n J k '
ergibt
sich C1 = /
12 + x^) = \ l 1 .7142857/( 12 + 1 .7142857) = 0.3535534
C 2 = 0.0753778
und
C 3 = 0.4399413
,
.
Die Pearsonschen K o n t i n g e n z k o e f f i z i e n t e n C^, C^, C^ l i e f e r n somit einen A n h a l t s p u n k t d a f ü r , daß das Merkmal F a m i l i e n s t a n d (y^) kaum etwas zur D i s k r i m i n a t i o n zwischen den Stufen des Einkommens b e i t r ä g t . Die K o r r e l a t i o n e n rγ
s i n d f ü r j = 1 , 2 , 3 gerade d i e Quadratwurzeln aus den
größten Eigenwerten λ ^ rv rv
der M a t r i z e n Q ^ , d i e wir schon bestimmt hatten:
= \ l ü. 1428571 = 0.3779645 ,
rv
T
1
= V 0.0057143 = 0.0755929 und 2
= \ T D 7 Z i = 0.4898979 3
Die kanonischen K o r r e l a t i o n e n b e s t ä t i g e n a l s o den aus den Pearsonschen
Kon-
t i n g e n z k o e f f i z i e n t e n gewonnenen A n h a l t s p u n k t , daß y,, im Gegensatz zu y^ und y 3 kaum etwas zur U n t e r s c h e i d b a r k e i t der Einkommensstufen
beiträgt.
Die Roy - T e s t s auf s i g n i f i k a n t e Unterschiede zwischen den Einkommensstufen b z g l . des Merkmals y^. f ü r j = 1 , 2 , 3 l i e f e r n zum 5% Niveau keine
signifikanten
Unterschiede b z g l . a l l e r drei Merkmale, denn f ü r j = 1 , 2 , 3 i s t , v g l . Anhang, c
R;0.95i2-10'1) =I'F2,9;0.95
1
(1 +
I ' P 2 , 9 ;0.9S 5 = 0 " 4 8 6
>
V
Um nun e n d g ü l t i g f e s t z u l e g e n , welche der d r e i Merkmale in d i e weiteren Anal y s e n einbezogen werden s o l l e n , wollen wir die K o r r e l a t i o n e n zwischen der generalisierten linearen z
=V i
+
V
2
+
Diskriminanzfunktion V
3
und jedem der d r e i Merkmale schätzen. Dazu müssen zunächst d i e Gewichte γ ^ , y 2 und γ 3 berechnet werden, v g l . A b s c h n i t t 4 in K a p . I V . Aus der s k a l i e r t e n Datenmatrix Y, v g l . Tab.10, e r g i b t
sich
Kapitel V: Skalierung qualitativer Daten
300
2
V
"i
10.285714 0.137143 1.073951
I
i . 1=1 k=1
0.137143 11.931429 0.851755
1.073951 0.851755 9.120000
d.h. 0.0984336 -0.0003060 -0.0115627
r-1
-0.0003060 0.0843758 -0.0078442
-0.0115627 -0.0078442 0.1117433
und mit 0.4472135 0.0894427 0.5796550
.
-0 3194384' -0 0638877 y? c = -0 4140394
ergibt sich wegen r = 2 0.0639276 0.0049080 0.1009714
TT = s"1,77 (y! - y 2 )
γ =
Bestimmt man nun den Vektor " =V Y
--1/ = se.se ( y 1 - y 2 ) = y 1 - y 2 :
0.7666519 0.1533304 0.9936944
so erhält man w = Y « u = 0. 1500975
,
und es ergibt sich ZY rzy
; 0.7666519/\/ 0. 1500975· 10.285714 = 0.6170129 = 0.1 14576436 ,
rzy
= 0.8493148
,
.
Das Merkmal y 3 trägt somit am meisten, das Merkmal y^ auch noch recht viel und das Merkmal
kaum etwas zur Diskrimination zwischen den Stufen der
Kriteriumsvariablen bei. Insgesamt werden hier die Ergebnisse aufgrund der Pearsonschen Kontingenzkoeffizienten C. und der Korrelationen r y J
bestätigt. j
Da das Merkmal y2 kaum einen Beitrag leistet, wollen wir es in den Ausführungen der Beispiele zu den folgenden Abschnitten eliminieren und gehen daher von der reduzierten Datenmatrix Y* in lab.11, in der nur die q = 2 Merkmale y^ und y 3 (Alter, politische Einstellung) berücksichtigt worden sind, aus.
2.2
METHODEN
DER
GÜTEPRÜFUNG
EINER
Es ist möglich, daß die Skalierung von Merkmalen
J
SKALIERUNG
gegen eine Kri-
teriumsvariable X auf l Stufen, die ja so erfolgte, daß eine möglichst gute Diskrimination zwischen den ι Stufen möglich ist, nicht ausreichend ist, um
Kapitel V: Skalierung qualitativer Daten
301
i a b . l l : S k a l i e r t e auf die Merkmale y . und 9 - reduzierte Datenmatrix Y* Merkmal
Y* =
»T = «i
«2
= ö
3
0 4472135 0 9838698 - 1 1627554 0 9838698 0 9838698
1 -0 -0 1 1
3801311 3450330 8970852 3801311 3801311
-1 0 -1 0
1 -0 -0 -0 -0 -0 -0
3801311 8970852 8970852 3450330 3450330 8970852 8970852
-1 0
1627554 4472135 1627554 9838698 1627554 9838698 1627554
X
1
2
eine K r i t e r i u m s v a r i a b l e hinreichend zu beschreiben. Das kann zum einen daran l i e g e n , daß die Lernstichprobe, aufgrund derer die S k a l i e r u n g der Merkmale
vorgenommen wurde, zu k l e i n i s t , zum anderen auch daran,
daß die Merkmale
n i c h t ausreichen, um die K r i t e r i u m s v a r i a b l e zu
erklären. Im ersten Fall wird man das Skalierungsverfahren mit e i n e r g r ö s seren Lernstichprobe wiederholen, man wird a l s o die Anzahl η der Objekte erhöhen; im zweiten Fall
i s t zu überlegen, welche z u s ä t z l i c h e n Merkmale an
den Objekten der Lernstichprobe beobachtet werden müssen. Für die Gütip/iäiang e i n e r s k a l i e r t e n Datenmatrix Y oder einer
reduzierten
s k a l i e r t e n Datenmatrix Y* stehen verschiedene Verfahren zur Auswahl, die entweder von Diskriminanzfunktionen, v g l . Abschnitt 4 in Kap.IV, oder von Mahalanobisdistanzen, v g l . Abschnitt 6 in K a p . I , ausgehen. Eine weitere M ö g l i c h k e i t besteht d a r i n , ausgehend von der s k a l i e r t e n Datenmatrix Y f ü r η Objekte (bzw. einer zugehörigen Distanzmatrix D, v g l . Abschnitt 6 in Kap.I) ein Verfahren der C l u s t e r a n a l y s e zur Güteprüfung zu verwenden. Hat man auch für die l Stufen der K r i t e r i u m s v a r i a b l e n Skalenwerte bestimmt, so kann die Güteprüfung (und die K l a s s i f i k a t i o n neuer Objetke, v g l . Abs c h n i t t 2.3) einer Skalierung auch m i t t e l s Regressionsfunktionen
erfolgen;
man v g l . hierzu auch Abschnitt 4 . 3 .
2.2.1
DIE GOTEPROFUNG MITTELS DISKRIMINANZFUNKTIONEN
Unter Verwendung der s k a l i e r t e n (reduzierten) Datenmatrix Y bzw. Y* f ü r
302
Kapitel V: Skalierung qualitativer Daten
die η Objekte der Lernstichprobe lassen sich z.B. die F i i k & u c h z ΙίηζαΛί oder die GzmAatiiX.eAte.
OLikJuminauz^anivtLon
LLnexviz
VLik>Ujnina.n ζ
Funktion
vgl. Abschnitt 4 in Kap.IV, für die Stufen der Kriteriumsvariablen X bestimmen. Berechnet man dann die Werte einer Diskriminanzfunktion für jedes der η Objekte der Lernstichprobe, deren Stufenzugehörigkeiten man ja bereits kennt, so kann man den prozentualen Anteil der mittels Diskriminanzfunktion richtig klassifizierter Objekte auf jeder Stufe der Kriteriumsvariablen bestimmen. Sind diese Anteile "groß", so kann man auf eine recht hohe Güte der Skalierung schließen. BzAAplel: Wir kehren hier zurück zur reduzierten skalierten Datenmatrix Y* aus dem Beispiel
in Abschnitt 2.1, Tab.11. Diese Datenmatrix berücksich-
tigt für die Diskrimination zwischen zwei Einkommensstufen die Merkmale ai=Ui
(Alter)
und
öi=y,
(politische Einstellung)
Wir wollen nun die Güte dieser skalierten Datenmatrix Y* anhand der general isierten Diskriminanzfunktion Ζ = γ*Υ* + γ*Υ* 1 1 uberprüfen, wobei Y | und Y | die den Merkmalen
bzw.
zugeordneten Zu-
fall svariablen bezeichnen. Dazu müssen zunächst die Gewichte γ^ und γ^ bestimmt werden. Die Mittelwertvektoren in den zwei Einkommensstufen sind
und die zur reduzierten Datenmatrix Y* gehörige Matrix S g = S * ist '10.285714 S
ee
=
1.073951
1.073951' 9.120000
Die zu S* inverse Matrix berechnet sich dann zu , S
ee
=
f 0.0984325
-0.0115912'
01 15912
0. 1 1 10141
so daß 0.0639454 = S e~ (y* - y p
0.1014277
ein Gewichtsvektor der generalisierten Diskriminanzfunktion
In Iah.12 sind die Werte
ist.
Kapitel V: Skalierung qualitativer Daten
z i k = (0.0639454,0.1014277)yi k
für i=1,2, k=1
ni
für jede Person aus der Lernstichprobe angegeben. Berechnet man nun 1 z 1 =-ζ
Z
5
l
z l k = 0.0873903 ,
, 7 9=T l z,L· = -0.0624216 d ' k=1
,
so können die η = 12 Personen klassifiziert werden. Ist dann
z i k > 0.01248435
,
so wird die betreffende Person der Stufe 1 der Kriteriumsvariablen zugeordnet, und ist z i k < 0.01248435
,
so wird die Person der Stufe 2 der Kriteriumsvariablen zugeordnet. Diese Zuordnungen sowie die wahren Zugehörigkeiten sind ebenfalls in der Tab. 12 angegeben. Cab-12: Klassifikationsergebnisse im Beispiel der Kriteriumsvariablen Einkommen Person ik
21 22 23 24 25 26 27
ik
Zuordnungsstufe
wahre Stufenzugehörigkeit 1 1 1 1 1
0 0 -0 0 0
1685808 0279180 1653421 2028975 2028975
1 1 2 1 1
I I I I I ο ο ο ο ο ο ο
11 12 13 14 15
Z
0656307 0623920 1653421 0279180 1093488 0280753 1653421
1 2 2 1 2 2 2
*
* *
2 2 • 2 2 2 2 2
Mittels Klassifikation durch die generalisierte Diskriminanzfunktion sind also vier der fünf Personen mit einem Einkommen von mehr als 3000 DM (Stufe 1 der Kriteriumsvariablen) und fünf der sieben Personen mit weniger als 3000 DM (Stufe 2) richtig zugeordnet worden, d.h. der prozentuale Anteil richtig klassifizierter Objekte ist
303
304
Kapitel V: Skalierung qualitativer Daten
4/5 = 0.8 = 80%
in der Stufe 1 und
5/7 = 0.714 = 71.4%
in der Stufe 2.
Diese A n t e i l e s i n d recht hoch, so daß man wohl von e i n e r guten S k a l i e r u n g sprechen kann.
2.2.2
J
DIE GOTEPROFUNG MITTELS MAHALANOBISDISTANZEN
Z u r GiitepsLu^ung
exneA
Skatiejiung
miXXdU,
MahcUanob-Cid.iAtanzin,
vgl.
s c h n i t t 6 in K a p . I , müssen zunächst ausgehend von der s k a l i e r t e n
Ab-
(redu-
z i e r t e n ) Datenmatrix Y bzw. Y* die M i t t e l w e r t e der Beobachtungsvektoren der L e r n s t i c h p r o b e auf jeder der i Stufen der y
i
= (y
mit
ii
y
Kriteriumsvariablen
1 "j· i r n ^ J , y i j k
bzw.
f ü r
]:];;;;;£'
η. η
=
Klassifikation.mittels
Wegen
-0.3194384
und
-0.4140394
0.5796550 .-1
' 0.0984325
-0.0115912
(-0.0115912
0.1110141
vgl. Abschnitt 2 . 2 . 1 , e r g i b t sich y* =
mit
0.4472135) -0.3450330
dann d f = / 1 0 ( y * - y * ) T - S * " 1 - ( y * - y * ) = 0.974281 1
und
: = / 1 0 ( y * - y i ) T , S * " ^ • ( y * - y i ) = 0 . 7560185 Daher
ist d| = min(d^,d|)
und d i e P e r s o n w i r d i n E i n k o m m e n s s t u f e 2 k l a s s i f i z i e r t . e r g e b n i s b e i Verwendung d e r g e n e r a l i s i e r t e n l i n e a r e n
Das
Klassifikations-
Diskriminanzfunktion
wird hier also bestätigt.
2.4
GEWINNUNG WEITEREN
EINER
|
DATEN-
M U L Τ I V AR I AT Ε Ν
UND
D I S Τ Α Ν Ζ ΜΑ Τ R I Χ
ANALYSE
Verschiedene m u l t i v a r i a t e A n a l y s e v e r f a h r e n , wie z . B . d i e oder die M u l t i d i m e n s i o n a l e S k a l i e r u n g ,
ZUR
Clusteranalyse
v g l . K a p . V I , V I I , l a s s e n s i c h auch
im A n s c h l u ß an d i e h i e r b e s p r o c h e n e n Methoden a n w e n d e n . Man k ö n n t e e t w a daran i n t e r e s s i e r t s e i n , d i e verschiedenen Stufen e i n e r graphisch
darzustellen.
Kriteriumsvariablen
310
Kapitel V: Skalierung qualitativer Daten
BeJj>pieZ: Verschiedene Produkte (Stufen der Kriteriumsvariablen) wurden von jeweils mehreren Personen bzgl. ρ verschiedener nominaler oder ordinaler Merkmale beurteilt. Die entstandene Datenmatrix wurde anschließend s k a l i e r t und mit den in diesem Kapitel vorgestellten Methoden weiter analysiert. Nun i s t man etwa daran interessiert, die Produkte im zweidimensionalen Raum graphisch darzustellen, um so eventuelle "Marktlücken" zu entdecken. Außerdem möchte man eine Clusteranalyse durchführen, um zu sehen, welche Klassen von ungefähr gleichartigen Produkten es gibt. Zur Anwendung s o l cher multivariater Verfahren auf die Stufen einer Kriteriumsvariablen muß entweder eine Datenmatrix A, die einen Beobachtungsvektor pro Stufe enth ä l t , oder eine Distanzmatrix D, die die Abstände zwischen den Stufen der Kriteriumsvariablen wiedergibt, vorhanden sein. In diesem Abschnitt soll das Problem behandelt werden, wie man - ausgehend von einer skalierten Datenmatrix für eine Lernstichprobe von Objekten e i n e Vcutznimtulx
und e i n e V^AtanzmcWvix
^ÜA CLLZ Stu^zn
dun.
beXnachttttn
KnjXeMAumvcuUablzn konstruieren kann. Eine VaXunrratAlx Α für die i Stufen einer Kriteriumsvariablen i s t eine Mat r i x mit i Zeilen und ρ bzw. q Spalten, je nachdem ob man von der s k a l i e r ten Datenmatrix Y oder der reduzierten skalierten Datenmatrix Y* einer Lernstichprobe ausgeht. Die Zahl der Spalten von Α i s t also identisch mit der Zahl der Spalten von Y bzw. Y*. Eine sofort ins Auge springende Mögl i c h k e i t zur Bestimmung von Α i s t die,, daß man zu jeder Stufe der K r i t e riumsvariablen aus der Datenmatrix Y bzw. Y* den Mittelwertvektor der Stufe bestimmt, vgl. auch die vorausgehenden Abschnitte. Der Mittelwertvektor für die i - t e Stufe der Kriteriumsvariablen i s t ι y ^ ^
yi = (yil,...,yip)
mit
&
^ijk
yi=(yt,,...,yfq)
, "Ιm i t y * . — Σ ϊ ^ i.K-1
für
]:];;;;;£·
bzw. für i = 1 i, J-I,...,q
und a l s Datenmatrix für die l Stufen der Kriteriumsvariablen ergibt sich ausgehend von der Datenmatrix Y y
ψ
11
y
12
* •
y
£2
' '
y
y
iP
£p-
311
Kapitel V: Skalierung qualitativer Daten
bzw. von der r e d u z i e r t e n Datenmatrix Y* *TI
Ί
y
···
Y"L
1q
A=
ΒίΛΛρ-ίζΙ:
Obwohl w a h r s c h e i n l i c h niemand auf den Gedanken kommen würde,
zwei Einkommensstufen e i n e r weiteren m i l t i v a r i a t e n A n a l y s e zu u n t e r z i e h e n , wollen w i r doch an unserem B e i s p i e l
d i e Gewinnung e i n e r Datenmatrix Α f ü r
die S t u f e n e i n e r K r i t e r i u m s v a r i a b l e n v e r d e u t l i c h e n . Dabei gehen w i r von der r e d u z i e r t e n Datenmatrix V* aus Tab.11, A b s c h n i t t 2.1 aus und berechnen zunächst y f und y ^ , d i e s k a l i e r t e n M i t t e l w e r t v e k t o r e n der
interessierenden
Merkmale A l t e r und p o l i t i s c h e E i n s t e l l u n g e i n e r Person in beiden Einkommensstufen. Es
ist 0.4472135
-0.3194384 und
0.5796550
-0.4140394
so daß s i c h die gesuchte Datenmatrix Α f ü r die beiden Einkommensstufen zu
ν*
1
0.4472135
0.5796550
-0.3194384
-0.4140394
e r g i b t . Die e r s t e Z e i l e d i e s e r M a t r i x
i s t dann der
"Bzabacktungifek-toi"
f ü r die Einkommensstufe 1, d i e zweite Z e i l e der f ü r d i e Einkommensstufe 2. Eine V-c&tanzmcL&Ux D b e s c h r e i b t d i e Abstände v e r s c h i e d e n e r Objekte z u e i n ander, v g l . A b s c h n i t t 6 in K a p . I .
In unserem s p e z i e l l e n F a l l
soll
D d i e Ab-
stände der l S t u f e n der K r i t e r i u m s v a r i a b l e n b e s c h r e i b e n . Da der Abstand von der S t u f e i zu e i n e r S t u f e i '
der g l e i c h e i s t wie der von i '
zu i ,
ist
die D i s t a n z m a t r i x D n a t ü r l i c h symmetrisch zur Hauptdiagonalen. Die Hauptd i a g o n a l e s e l b s t e n t h ä l t nur N u l l e n , da der Abstand e i n e r S t u f e zu s i c h s e l b s t n a t ü r l i c h Null
ist.
Insgesamt i s t die D i s t a n z m a t r i x D f ü r d i e
Stufen e i n e r K r i t e r i u m s v a r i a b l e n n a t ü r l i c h eine JUS. - M a t r i x . d(i,i')
1
Bezeichnet
den Abstand der S t u f e i zur S t u f e i , so hat d i e D i s t a n z m a t r i x
al-
so d i e G e s t a l t 0
d(1,2)
d(1,3)
...
d(1,i>)
d(1,2)
0
d( 2,3)
...
d(2,J>)
d(1,H)
d(2,i)
d(3,Z)
...
Wie bestimmt man nun aber d i e D i s t a n z d ( i , i ' )
zwischen zwei Stufen i und i 1
312
Kapitel V: Skalierung qualitativer Daten
einer Kriteriumsvariablen? P r i n z i p i e l l kann hier jeder der im Abschnitt 6 des Kapitels I angegebenen Distanzindizes verwandt werden. Speziell kann man z.B. ausgehend von einer skalierten Datenmatrix Y bzw. Y* f ü r eine Lernstichprobe vom Umfang η zunächst die Mittelwertvektoren y • bzw. y i (i=1
l ) der n.
Objekte, die zur Stufe i der Kriteriumsva-1
riablen gehören, sowie die
Matrix Sg
-1
bzw. S*
aus Abschnitt 2.2.1 zu Y
bzw. Y* bestimmen, und dann f ü r 1 _< i < i ' _< Ä die Mahalanobisdistanzen d ( i , i ' ) =/(n-Jl)(yi - y i , f - S " 1 · (yi - y ^ )
bzw.
d(i.i') = /(n-JO(yi-y*,)T-S£~My*-y*,) berechnen. Aus diesen Distanzen d ( i , i ' ) läßt sich dann die Distanzmatrix D f ü r die l Stufen der Kriteriumsvariablen bilden. Bexip-iei.: Für das einfache Beispiel dieses Abschnitts wollen wir eine Distanzmatrix D f ü r die beiden Einkommensstufen unter Verwendung von Mahalanobisdistanzen bestimmen. Aus der Datenmatrix Y*, v g l . Tab.11, ergab sich 0.4472135 y* = 0.5796550
-0.3194384' ,
y·? =
-0.4140392
' 0.0984325
-0.0115912'
[-0.0115912
0.1110141
Zur Bestimmung der Distanzmatrix D muß nun l e d i g l i c h d(1,2) berechnet werden, da die Kriteriumsvariable Einkommen nur auf 1 = 2 Stufen v o r l i e g t . Mit i0.7666519' yi - yi = c
[0.9936942
e r g i b t sich f ü r die Mahalanobisdistanz d( 1,2) = / ( 1 2 - 2 ) ( y * - y * ) T - S * " l . ( y * - y * ) = V 10-0.1498119= 1.2239767, so daß die gesuchte Distanzmatrix f ü r die Stufen der Kriteriumsvariablen Einkommen gerade gegeben i s t durch 0
1.2239767]
1 .2239767
0
D =
J
Kapitel V: Skalierung qualitativer Daten
313
3 EIN BEISPIEL AUS DER MARKTFORSCHUNG ZUR ANALYSE MULT IVARIATER KATEGOR I ELLER DATEN In den USA werden alljährlich von der "Consumers Union of the United States" großangelegte Produktbefragungen durchgeführt. Unter anderem handelt es sich dabei um Befragungen zur Reparaturanfälligkeit von Personenkraftwagen. Speziell diese Umfrage kann als Hilfestellung beim Kauf von Neu- und Gebrauchtwagen
aufgefaßt werden. Wir wollen hier ausgehend von den Befragungsergeb-
nissen bei 391 Besitzern von Automatikwagen der Baujahre 1965 - 1970 untersuchen, ob sich die verschiedenen Fabrikate (zu dieser Zeit) unterscheiden und wie diese Unterschiede aussehen.
Die hier zugrundeliegenden Daten entstammen dem Bericht "Consumers Union (1971): Frequency of Repair 1965 - 1970, Consumer Reports, The Buying Guide Issue, Mount Vernon, New York, Consumers Union of the United States, Incl.". Die in diesem Abschnitt vorgenommene Auswertung der Daten erfolgt in enger Anlehung an Bargmann/Kundert (1972), vgl. auch Elpelt/Hartung (1982a). 42 der 391 Autobesitzer fahren Wagen des Herstellers American Motors, 85 Wagen des Herstellers Chrysler,78 Wagen des Herstellers Ford, 128 Wagen des Herstellers General Motors und 58 Autobesitzer fahren (bzgl. des amerikanischen Markts) ausländische Fabrikate. Diese 5 verschiedenen Hersteller bilden die Stufen unserer Kriteriumsvariablen "Hersteller" (HST).
Jeder Autobesitzer wurde nun gebeten, die Reparaturanfälligkeit von 14 Teilen seines Wagens zu bewerten. Diese 14 Reparaturanfälligkeiten sind die Merkmale ljp...
,bzgl. derer die Kriteriumsvariable "Hersteller" unter-
sucht werden soll. Im einzelnen sind diese Merkmale: y1
: Heizungs- und Belüftungssystem , : äußere Karosserie ,
Uj : innere Karosserie , : Eisenteile der Karosserie , Ug : Bremsen , yg : mechanische Teile des Motors , ü^ : elektrische Teile dps Motors , yg : Elektronik , yg : Automatikgetriebe , y 1 Q : Lenkung , y ^ : Kraftstoffsystem , Uj2 : Abgassystem , y.,: Stoßdämpfer
und
314
Kapitel V: Skalierung qualitativer Daten
y 1 4 : Vorderradaufhängung. Die Bewertung der Reparaturanfälligkeit erfolgte bei jedem Merkmal auf einer Fünfpunkteskala: 1 - sehr viel reparaturanfäl1iger a l s andere Teile , 2 - reparaturanfälliger a l s andere Teile , 3 - durchschnittliche Reparaturanfäl 1 igkeit , 4 - geringere Reparaturanfälligkeit a l s andere Teile und 5 - sehr viel geringere Reparaturanfälligkeit a l s andere Teile. Wollte man die Datenmatrix Ϋ, vgl. Abschnitt 2.1, angeben, so müßte man eine Matrix mit 391 Zeilen und 14 Spalten aufschreiben, was natürlich hier viel zu platzaufwendig wäre. Daher sollen hier nur die 14 Calibration Patterns für die Kriteriumsvariable bei jedem Merkmal angegeben werden, vgl. Cab.14-27. Den folgenden Berechnungen l i e g t aber selbstverständlich die gesamte Datenmatrix zugrunde, Cab.15: Calibration Pattern für ü 2
(Tab.14: Calibration Pattern für a. 1
2
3
4
5
I
1 2 3 4 5
5 10 31 24 3
5 8 4 16 3
23 25 25 59 37
5 16 10 18 7
4 26 8 11 8
42 85 78 128 58
Σ
73
36 169
56
57
391
Hsrx.
2
3
4
5
I
1 2 3 4 5
0 4 2 41 0
2 3 11 28 1
26 43 51 50 27
5 15 11 7 12
9 20 3 2 18
42 85 78 128 58
l
47
45
197
50
52
391
2
HST\_
Cab.17: Calibration Pattern
Cah.16: Calibration Pattern für u 3 1 2
1
\ 9
für
3
4
5
I
Hsr^
\ ü
4
y4
1 2
3
4
5
I
1 2 3 4 5
10 22 3 18 0
7 14 9 36 0
23 36 46 59 18
2 12 16 12 8
0 1 4 3 32
42 85 78 128 58
1 2 3 4 5
9 13 6 1 1
10 21 2 5 7
23 37 60 74 26
0 14 8 39 8
0 0 2 9 16
42 85 78 128 58
I
53
66
182
50
40
391
l
30
45 220
69
27
391
315
Kapitel V: Skalierung qualitativer Daten
Cab.18: C a l i b r a t i o n Pattern f ü r jjg
Cab.19: C a l i b r a t i o n Pattern für
^
|JL 1
2
3
5
4
I
H S T ^ ^ .
H S T
T
*
2 1
14
1 2 8
5
5
4 3
5
0
5 8
4 2
3 0
1 8 9
6 5
6 5
3 9 1
5 8
5
5 3
6 2
3 9 1
3 3
3 9
2 0 4
3
6 3
2
3 5
2
17
4
12
1 S
7 8
13
4
Ϊ
l a b . 2 0 : C a l i b r a t i o n Pattern f ü r y.
H
8 5
9
1 2 8
5
I
2 9
16
55
3 1
5
18
3 7
12
3 7
3
2 4
4
10
2
4
4
2
3
9
4 2
3
0
12
16
7
13
7 8
2
4 7
16
3
4
5
I
^
•
I
5
8 5
5 1
1 2
5
4
2 2
0
4 2
3 4
3
^ 2
2
0
2
1
3
1
4
2
1
Cab.21: C a l i b r a t i o n Pattern f ü r yg
1 H
S
T
2
3
5
4
I
^
1
0
1
2 9
10
2
4 2
1
0
0
3 2
8
2
4 2
2
9
6
4 6
16
8
8 5
2
15
15
3 3
2 1
1
8 5
3
3
14
5 1
7
3
7 8
3
10
11
4 2
13
2
7 8
4
8
6
8 2
2 3
9
1 2 8
4
3
10
7 8
3 3
4
1 2 8
5
5
8
3 9
2
4
58
5
1
6
30
8
1 3
58
I
2 5
3 5
2 4 7
5 8
2 6
3 9 1
2 9
4 2
2 1 5
8 3
2 2
3 9 1
Hab.22: C a l i b r a t i o n Pattern für y.
1
1
8
2
3
4
5
I
4
2 6
3
1
4 2
I
Cah.23: C a l i b r a t i o n Pattern für
1 H
S
T
2
3
5
4
I
^
1
6
0
y^
2 8
6
2
4 2 8 5
2
0
0
4 2
2 3
2 0
8 5
2
2 0
6
3 9
12
8
3
7
14
5 1
5
1
7 8
3
4
8
5 8
8
0
7 8
4
14
8
58
13
35
1 2 8
4
11
8
74
2 4
11
1 2 8
5
12
14
31
1
0
5 8
5
1
3
3 9
5
10
58
I
4 1
4 0
2 0 8
4 5
5 7
3 9 1
I
2 5
2 3 8
5 5
3 1
3 9 1
I a h . 2 4 : C a l i b r a t i o n Pattern für y
1
2
3
5
4
4 2
Cab.25: C a l i b r a t i o n Pattern f ü r y
1
I
2
3
Ϊ
5
4
1
6
8
2 8
0
0
4 2
1
1
1
2 5
11
4
4 2
2
16
8
2 9
2 6
6
8 5
2
2
5
3 8
2 1
19
8 5
3
3
12
3 8
19
6
78
3
7
8
2 6
13
2 4
7 8
4
2 4
17
5 7
19
11
1 2 8
4
1 3
17
6 3
2 8
7
128
5
3
3
4 0
8
4
5 8
5
9
7
3 3
4
5
5 8
I
5 2
4 8
1 9 2
7 2
2 7
3 9 1
3 2
3 8
1 8 5
7 7
5 9
3 9 1
I
316
Kapitel V: Skalierung qualitativer Daten
Cah.26: C a l i b r a t i o n Pattern für y ^ ^ 1 3 HST^1^
1
2
3
4
5
l
1 2 3 4 5
0 12 7 18 0
0 12 11 27 1
22 54 51 70 17
14 6 8 11 12
6 1 1 2 28
42 85 78 128 58
I
37
51 214
51
38
391
Cab.27: C a l i b r a t i o n Pattern f ü r ö 14 1
2
3
4
5
l
1 2 3 4 5
0 1 15 22 2
1 2 16 18 0
22 56 41 62 17
16 21 4 19 10
3 5 2 7 29
42 85 78 128 58
I
40
37 198
70
46
391
Ausgehend von den C a l i b r a t i o n Patterns muß zunächst zur Gewinnung einer s k a l i e r t e n Datenmatrix Y jedes der 14 beobachteten Merkmale gegen die K r i teriumsvariable " H e r s t e l l e r " s k a l i e r t werden. Als Skalierungsverfahren wählen wir hier die k a t e g o r i e l l e Skalierung (Lancaster - Skalierung) aus Abschnitt 1.2. Für das Merkmal JJg (Reparaturanfälligkeit der Bremsen) e r g i b t sich dabei z.B. die Matrix 0.039
0.008
0.008
0.102
0.015 -0.045 0.006
«5 =
0.029 -0.145 0.052
0.015 0.029
-0.045 -0.145
0.022 -0.062
-0.062
0.020
0.251 -0.087
0.006 0.052 0.020
-0.087 0.038
Der größte Eigenwert dieser Matrix i s t λ 5( , = 0.3897 und ein Eigenvektor f^ = ( f R 1 , . . . 5 f q c ; ) T
zum Eigenwert ÄgG e r g i b t sich dann aus dem Gleichungs-
system Q 5 - f 5 = A 5 G - f 5 zu f
5"(f51,f52,f53,f54,f55) = (-0.126424,-0.47694,-0.193098,0.800450,-0.280236) T
Nach dem Verfahren aus Abschnitt 1.2 erhält man dann
4
4 1 " i f V ^ v η ^ i=1= 3 j ( 2 - f 5 1 / \ 7 i l + 16-f 5 2 /\785 + 7 - f 5 3 / / 7 & + 3 » f 5 4 / \ n 2 S + 5«f 55 /v75ff) = -^(-0.991487) =-0.0300454 5 ^ n® 2 'f 5 ./\TnT"=3ff(-1.3245395) =-0.0339626 η 2 i=1
ß
5
=
B
5 = 4 n
4
.3
Σ 1=1
n ® 3 . f 5 i / \ n r - = 2 i ¥ ( - 2 . 9 9 9 2 9 2 6 ) =-0.0147024
Kapitel V: Skalierung qualitativer Daten
5
ßg = - g n
.4
Bg = —ςn
.5
l
n ^ 4 - f 5 i / v r n ~ = -^- 1.6022150 = 0.0302305
und
1=1
5 Ϊ
n^ 5 -f5 i / v r T T — = g^'3.7130739 = 0.0598883
.
1 =1
Hiermit ergeben sich die gesuchten Skalierungspunkte y^ für v=1,...,5 für das Merkmal y^ zu
3§F769- 0 5
= 31
-676416-B5
d.h. y^ = 31 .676416-(-0.0300454) =-0.952 , y | = -1 .076, y 3 = -0.466, y g - 0.958 und yjj = 1.897 In Cab.28 sind die Skalenwerte für alle 14 Merkmale
. die sich
bei kategorieller Skalierung gegen die Kriteriumsvariable "Hersteller" ergeben, zusammengestellt. Zudem enthält diese Tabelle die größten Eigenwerte Xjg der Matrix Qj für j=1
14; diese sind gerade die Quadrate der
maximalen Korrelationen r y _ = V Ajg
fur j = 1,... ,14
des Merkmals y^. mit der Kriteriumsvariablen "Hersteller". Außerdem sind für jedes Calibration Pattern, d.h. für jedes der 14 Merkmale, die Pearsonschen Kontingenzkoeffizienten C
j=/xj/(n+xj)
für j = 1 . . ,14
angegeben. Für das zum Merkmal Ug gehörige Calibration Pattern etwa ergibt sich mit , 5 5 χ| = η·( Σ I 3 M = 1 v=1 = 3 9 1
· ( ^
+
(η 5 ) 2 \ - ^ V - i ) η. ·η ' ι. .ν 4 2 ^
+
4^Ιϋ4
+
··· + 58^62 * 0
= 176.68 der Pearsonsche Kontingenzkoeffizient zu Cg = \! 1/6.68/(391 + 176.68) = 0.558
Letztlich sind in der Tab.28 noch die Korrelationen
= 391
' ( 1 · 4 5 1 8 8 · 1}
317
318
Kapitel V: Skalierung qualitativer Daten
rZy
für j=1
14
der Merkmale mit der generalisierten Diskriminanzfunktion Ζ = γ
1ΥΓ···+γ14Υ14
für die 5 Stufen der Kriteriumsvariablen "Hersteller" angegeben. Die Grössen r y , C. und r,„ j
J
dienen natürlich dazu festzustellen, welche der 14 j
Merkmale besonders gut zwischen den verschiedenen Herstellern diskriminieren, d.h. bzgl. welcher Merkmale sich die Hersteller am meisten unterscheiden. Cab.28: Skalenwerte, kanonische Korrelationen, Pearsonsche Kontingenzkoeffizienten und Korrelationen zur generalisierten linearen Diskriminanzfunktion der 14 Merkmale bei Verwendung der Kriteriumsvariablen "Hersteller" Merkmal ö
j
»1 »2 »3 »4
4«δ
»7 «8 »9 «10 8
3 »14
Skalenwerte 1 y j -2 026 - 1 979 -0 772 -2 102 -0 952 0 064 -0 065 -2 315 - 1 101 2 638 0 778 - 1 118 - 0 898 - 1 023
2 y j 0 290 - 1 252 -0 690 - 1 434 - 1 076 -0 978 -2 477 - 0 985 - 1 606 -0 384 -0 320 - 0 687 - 0 807 - 1 252
3 4 y y j j 0 402 0 209 0 202 0 744 -0 186 0 139 0 073 0 786 -0 466 0 958 -0 702 0 472 - 0 098 1 693 0 332 -0 278 -0 207 1 366 -0 578 0 436 -0 862 1 639 -0 479 0 272 -0 311 0 743 -0 250 0 362
ο 5 y j 1 015 1 392 2 832 2 127 1 897 1 979 0 546 2 736 1 596 0 403 0 831 2 197 2 710 2 421
r
0 0 0 0 0 0 0 0 0 0 0 0 0 0
Y. J 299 564 646 448 624 360 245 363 483 259 272 292 619 530
J 0 089 0 318 0.418 0 200 0 390 0 130 0 060 0 131 0 233 0 067 0 074 0 085 0 383 0 281
c
j
0 381 0 522 0 578 0 509 0 .558 0 384 0 285 0 418 0 .477 0 334 0 .340 0 350 0 554 0 545
r 0 0 0 -0 -0 0 -0 0 -0 0 -0 0 0 0
ZY. J 098 495 349 148 540 047 070 036 167 012 049 064 391 321
Nach dem Roy - Test bestehen zum 1% Niveau signifikante Unterschiede zwischen den Herstellern bzgl. a l l e r außer dem 7. Merkmal, denn für j = 1,... ,6,8,... ,14 gilt >"γ
> 0.06 = c R ; 0
9 g (4,386,4)
= c R ; 1 _ a ( C j - 1 ,η-ί.,ί,-1)
Sieht man sich jedoch die Größen r y , Cj und r z y
.
aus Tab.28 etwas genauer
an, so s t e l l t man f e s t , daß zwischen den 7 besten Diskriminatoren und dem Rest ein ziemlicher Unterschied besteht. Daher wollen wir im folgenden von diesen 7 besten Diskriminatoren und der zugehörigen reduzierten skalierten Datenmatrix Y* ausgehen. Die dort eingehenden Merkmale, also die 7 besten Diskriminatoren zwischen den Herstellern, sind
Kapitel V: Skalierung qualitativer Daten
319
0 * = y 2 : äußere Karosserie , : innere K a r o s s e r i e , =
: E i s e n t e i l e der Karosserie ,
ö | = a 5 '· Bremsen , =yg
: Automatikgetriebe ,
y£ = y 1 3 : Stoßdämpfer und Ö7 = 9 1 4 :
Vorderradaufhängung.
Hier f ä l l t a u f , daß drei der besten Diskriminatoren d i r e k t die Karosserie eines Wagens betreffen und daß ein e i g e n t l i c h recht unwichtiges Merkmal, nämlich die R e p a r a t u r a n f ä l l i g k e i t der Stoßdämpfer, zu den besten D i s k r i m i natoren gehört. (Mit r 7 V der inneren K a r o s s e r i e . )
= 0 - 3 9 1 i s t es der zweitbeste D i s k r i m i n a t o r nach 13
'
An dieser S t e l l e sei noch auf ein besonderes Phänomen aufmerksam gemacht. Die S k a l a , auf der die R e p a r a t u r a n f ä l l i g k e i t jedes der 14 T e i l e gemessen wurde, i s t e i g e n t l i c h eine O r d i n a l s k a l a , die wir h i e r aber k a t e g o r i e l l
ska-
l i e r t haben. Bei den guten Diskriminatoren treten nun kaum Umkehrungen in der Reihenfolge der Ausprägungen auf (die größenmäßige Ordnung b l e i b t bei der Skalierung e r h a l t e n ) , bei den schlechten Diskriminatoren sind die Umkehrungen in der Reihenfolge b e t r ä c h t l i c h . Dieses Phänomen l ä ß t sich verallgemeinern: Werden Merkmale mit ordinalen Ausprägungen k a t e g o r i e l l
ska-
l i e r t , so treten Umkehrungen der natürlichen Ordnung in großem Maße nur dann a u f , wenn das Merkmal ein schlechter D i s k r i m i n a t o r f ü r die Stufen der Kriteriumsvariablen i s t . Für gute Diskriminatoren hingegen s p i e l t es kaum eine R o l l e , ob eine ordinale oder eine k a t e g o r i e l l e Skala zugrundegelegt wird, v g l . Bargmann/Kundert (1972).
Nun wollen wir die Daten aus der Befragung von 391 Autobesitzern weiter auswerten und zunächst die Güte der s k a l i e r t e n Datenmatrix Y* m i t t e l s Mahalanobisdistanzen überprüfen. Der prozentuale Anteil r i c h t i g
klassifizierter
Wagen i s t für den H e r s t e l l e r 1: 61.9% , für den H e r s t e l l e r 2: 65.9% , für den H e r s t e l l e r 3: 69.2% , für den H e r s t e l l e r 4: 76.6% , für den H e r s t e l l e r 5: 55.2% . Insgesamt wurden von den 391 Wagen der Lernstichprobe a l s o 68% ihrem w i r k l i c h e n H e r s t e l l e r zugeordnet. Dieses Ergebnis kann noch a l s durchaus bef r i e d i g e n d bezeichnet werden. In lab.29 s i n d die mittleren Distanzen der Wagen jedes H e r s t e l l e r s zum Mittelwert des H e r s t e l l e r s und zum Mittelwert
320
Kapitel
V: Skalierung
qualitativer
Daten
des nächstgelegenen fremden Herstellers angegeben. Cata.29: Mittlere Mahalanobisdistanzen zum Mittelwert des wahren und des nächstgelegenen fremden Herstellers Hersteller i
mittlerer Abstand der Wagen des Herstellers i zum Mittelwert des Herstellers i
1 2 3 4 5
des nächsten anderen Herstellers
2.422
2.600
2.103
2.442
2.051
2 .393
2.709
3.260
3.033
3.518
Man entnimmt der Tab.29, daß die Wagen dem Mittelwert ihres Herstellers im Mittel doch beträchtlich näher liegen als dem nächstgelegenen fremden Hers t e l l e r . Daraus läßt sich auf eine recht gute Skalierung schließen. Auf die Vorführung der Klassifikation neuer Objekte wollen wir hier verzichten und uns direkt der Erstellung einer Datenmatrix Α und einer Distanzmatrix D für die 5 Hersteller widmen. Dabei wollen wir wiederum ledigl i c h die 7 besten Diskriminatoren zwischen den Herstellern berücksichtigen. Die
VaXmmcutfiix
Α besteht aus je einem Mittelwertvektor für die 5 Herstel-
l e r . Diese Mittelwertvektoren y} = (y* 1 >...,y* 7 ) T
furi=i,...,5
bilden jeweils eine Zeile der in trab.30 angegebenen Datenmatrix A Cab.30: Datenmatrix Α für die 5 Hersteller basierend auf den 7 besten Diskriminatoren Hersteller
Merkmal 8?
'1 1 2 3 4 5
A=
η
«2
y7
0.452 0.424 0.063
-0.394 -0.339 -0.045
-0.752 -0.515 -0.008
-0.241 -0.638 -0.270
-0.355 0.643 -0.414
0.472 -0.354 -0.289
0.150 0.026 -0.504
-0.766 0.658
-0.309 1.524
0.358 0.518
0.873 -0.454
0.260 -0.703
-0.360 1.357
-0.287 1.164
Diese Datenmatrix Α und die Distanzmatrix D für die Hersteller, die im f o l genden noch angegeben wird, lassen sich nun für die weitere multivariate Analyse der Hersteller verwenden.
321
Kapitel V: Skalierung qualitativer Daten
Bevor w i r nun d i e M a t r i x D angeben, wollen w i r d i e Datenmatrix Α noch etwas genauer b e t r a c h t e n . Es z e i g t s i c h , daß d i e a u s l ä n d i s c h e n H e r s t e l l e r (5)
al-
l e n amerikanischen H e r s t e l l e r n bzgl der R e p a r a t u r a n f ä l l i g k e i t der äußeren, der inneren und der E i s e n t e i l e der K a r o s s e r i e überlegen s i n d . Weiter s i n d die a u s l ä n d i s c h e n H e r s t e l l e r bei der R e p a r a t u r a n f ä l l i g k e i t der Stoßdämpfer und der Vorderradaufhängung überlegen. Bei den Bremsen i s t General
Motors
(4) a l l e n anderen überlegen und beim Automatikgetriebe i s t C h r y s l e r (2) am besten. Es f ä l l t a u f , daß die a u s l ä n d i s c h e n H e r s t e l l e r , d i e bei 5 der besten D i s k r i m i n a t o r e n a l l e n anderen überlegen s i n d , bei den übrigen beiden Merkmalen (Bremsen, Automatikgetriebe)
die nahezu größte
Reparaturanfällig-
k e i t z e i g e n . Das 1 aßt s i c h f ü r das Merkmal ljg ( A u t o m a t i k g e t r i e b e )
vielleicht
dadurch e r k l ä r e n , daß i n den USA ü b e r d u r c h s c h n i t t l i c h v i e l e Automatikwagen (ca. 80% M a r k t a n t e i l ) betrieben werden, d i e amerikanischen H e r s t e l l e r (zum damaligen Z e i t p u n k t ) sehr v i e l r o u t i n i e r t e r waren. Bei der
also
Interpre-
t a t i o n a l l e r E r g e b n i s s e s o l l t e man jedoch niemals v e r g e s s e n , daß d i e z u grundeliegende Datenmatrix Y*
ausgehend von s u b j e k t i v e n Bewertungen durch
A u t o b e s i t z e r a u f g e s t e l l t wurde. Nun kommen wir s c h l i e ß l i c h noch zur BeAtimrmng
e.ineA D-LitanzmtWUx
D für
die 5 H e r s t e l l e r . A l s Elemente d i e s e r M a t r i x verwenden w i r M a h a l a n o b i s d i stanzen von je zwei H e r s t e l l e r m i t t e l w e r t e n f ü r d i e 7 besten
Diskriminato-
ren zwischen den H e r s t e l l e r n . Das bedeutet, i n die Berechnung geht neben den Z e i l e n der Datenmatrix Α die aus der Datenmatrix Y* g e s c h ä t z t e Kovar i a n z m a t r i x der 7 besten D i s k r i m i n a t o r e n e i n . I n t a b . 3 1 i s t d i e s e Matrix D angegeben.
l a b . 3 1 : D i s t a n z m a t r i x D f ü r die 5 H e r s t e l l e r bei Verwendung von M a h a l a n o b i s distanzen Hersteller
Hersteller
1
2 3 4 5
D =
1
2
3
4
5
0.00 1.70 1.86 3.05 2.70
1.70 0.00 1.97 2.98 3.31
1 .86 1.97 0.00 2.11 2.70
3.05 2.98 2.11 0.00 3.86
2.'7o) 3.31 2.70 3.86 o.ooj
Wie man der D i s t a n z m a t r i x D entnimmt, s i n d s i c h die H e r s t e l l e r Motors) und 2 ( C h r y s l e r )
1 (American
am ä h n l i c h s t e n . Der größte U n t e r s c h i e d besteht
zwischen H e r s t e l l e r 4 (General Motors) und H e r s t e l l e r 5 ( a u s l ä n d i s c h e Fab r i k a t e ) . Außerdem f ä l l t a u f , daß American Motors (1) und Ford (3) weit von den a u s l ä n d i s c h e n H e r s t e l l e r n e n t f e r n t
sind.
gleich-
322
Kapitel V: Skalierung qualitativer Daten
Die Datenmatrix aus Tab.30 sowie die Distanzmatrix aus Tab.31 werden wir in den folgenden Kapiteln VI, VII, VIII und IX häufig als Beispiel für andere multivariate statistische Verfahren verwenden.
k SKALIERUNG KATEGORIELLER MERKMALSAUSPRÄGUNGEN VON Ρ MERKMALEN Im Abschnitt 1.2 haben wir uns mit der Skalierung zweier kategorieller Merkmale in Kontingenztafeln beschäftigt, und zwar haben wir Skalenwerte derart bestimmt, daß die Ausprägungen des einen Merkmals möglichst gut zwischen denen des anderen Merkmals diskriminieren und umgekehrt. Hier wollen wir uns mit dem Problem der gleichzeitigen Skalierung von p> 2 Merkmalen y^
ljp beschäftigen. Nach welchem Kriterium eine solche Ska-
lierung erfolgt,ist dabei situationsabhängig. Zum einen kann man so vorgehen, daß alle Merkmale sich gegenseitig möglichst gut erklären; die Merkmale werden in diesem Falle alle als gleichberechtigt angesehen. Bargmann/Chang (1972) schlagen in diesem Zusammenhang vor, den Merkmalen
derart standardisierte Zufallsvariablen
bzw.
den Ausprägungen derart Skalenwerte zuzuordnen, daß die V&t&iminante. mp-OuJ>c.hm KovieXationima&Ux
deA
zu Υ^,.,.,Υ , vgl. Abschnitt 1.2 in Kap. III,
minimal wird. Bargmann/Schünemeyer (1978) skalieren die Merkmale so, daß der KonAztatloMelLipio-id zur empirischen Korrelationsmatrix für Υ^,.,.,Υ eine maximatz
Maximum- Exzzn&U.zjXä£
besitzt; die Maximum - Exzentrizität
ist dabei gerade der Quotient von Differenz und Summe des größten und kleinsten Eigenwerts einer Korrelationsmatrix. Wie wir an den Beispielen der Abschnitte 2 und 3 gesehen haben, kann man nicht immer davon ausgehen, daß alle Merkmale Up...,0p gleichberechtigt sind. Dort wurde ein Merkmal y^ als Kriteriumsvariable, als Faktor auf endlich vielen Stufen aufgefaßt, und die übrigen Merkmale wurden einzeln gegen diese Kriteriumsvariable skaliert. Um insgesamt eine möglichst gute Diskrimination zwischen.den Stufen einer Kriteriumsvariablen zu erreichen, müßte man alle übrigen Merkmale gleichzeitig gegen sie skalieren. Als Skalierungskriterium schlagen wir in diesem Falle vor, die standardisierten Zufallsvariablen Yp...,Y stimmen, daß man eine maximale.
{mp-oviic-kn)
muttiple.
so zu be-
KoAAelation,
vgl.
Abschnitt 1.3 in Kap.III, zwischen der Kriteriumsvariablen y^ und den übrigen Merkmalen
erhält. Die Merkmale
y ? ,...,y
diskriminieren dann
323
Kapitel V: Skalierung qualitativer Daten
i n s g e s a m t maximal terer Vorteil
z w i s c h e n den S t u f e n der K r i t e r i u m s v a r i a b l e n y ^ .
Ein
wei-
d i e s e r S k a l i e r u n g b e s t e h t d a r i n , daß man auch e i n d e u t i g e
Ska-
l e n w e r t e f ü r d i e S t u f e n der K r i t e r i u m s v a r i a b l e n e r h ä l t , w o h i n g e g e n b e i e i n z e l n e n S k a l i e r u n g e n j e w e i l s a n d e r e S k a l e n w e r t e z u g e o r d n e t werden s e i denn, die K r i t e r i u m s v a r i a b l e
(es
h a t n u r 1 = 2 S t u f e n ) . Dann s i n d Methoden
der m u l t i p l e n R e g r e s s i o n s a n a l y s e a n w e n d b a r , v g l . der d i s k r e t e n R e g r e s s i o n
den
(z.B. Logit - Analyse)
K a p . I I , die die
zumindest z.T.
Verfahren
ersetzen,
und auch noch dann anwendbar s i n d , wenn d i e s e Methoden wegen g e r i n g e r
Stich-
probenumfänge v e r s a g e n ; j e d e K o m b i n a t i o n von A u s p r ä g u n g e n d e r Merkmale y
r
. . . ,Ö P muß d o r t ( z . T . m e h r f a c h ) b e o b a c h t e t w e r d e n , h i e r a b e r
nicht.
D i e s e s S k a l i e r u n g s k r i t e r i u m e r w e i t e r n w i r noch d a h i n g e h e n d , daß w i r mehrere Kriteriumsvariablen
(q < p) b e r ü c k s i c h t i g e n .
den d i e s t a n d a r d i s i e r t e n Z u f a l l s v a r i a b l e n (mp-ouAchz)
Vht>ti
kanon-iichz
Υ^,.,.,Υ
z w i s c h e n den K r i t e r i u m s v a r i a b l e n
einerseits
1.4 i n
Kap.III,
und den Merkmalen
wird.
D i e u n t e r s c h i e d l i c h e n , oben erwähnten V o r g e h e n s w e i s e n b e i der m e h r e r e r k a t e g o r i e l l e r Merkmale b i s 4.4 demonstriert.
wer-
so g e w ä h l t , daß d i e
vgl. Abschnitt
KolKeJUuLLon,
ΰ ς + 1 > · · · > ϋ ρ a n d e r e r s e i t s maxlmil
In diesem F a l l
Skalierung
werden i n den A b s c h n i t t e n
4.2
Z u v o r w i r d j e d o c h im A b s c h n i t t 4 . 1 d i e Bestimmung
empirischen Korrelationsmatrix
f ü r d i e Merkmale
in
von G e w i c h t s v e k t o r e n b p . . . , b
f ü r d i e Merkmale d e m o n s t r i e r t , was b e i
folgenden S k a l i e r u n g s k r i t e r i e n
benötigt
4.1
BESTIMMUNG FÜR
ρ
DER
Werden an η O b j e k t e n j e w e i l s
Κ0 RR Ε L Α Τ I 0 ΝS ΜΑΤ R I Χ
MERKMALE
ρ k a t e g o r i e l l e Merkmale
so l ä ß t s i c h v e r m i t t e l s k a t e g o r i e l l e r tionsmatrix
beobachtet,
Skalierung eine empirische
Korrela-
f ü r d i e s e Merkmale bestimmen. Dabei g e h t man wie f o l g t
D i e k a t e g o r i e l l e n Merkmale
mit
, i=1,...,p,
vor.
verschiedenen
p r ä g u n g e n werden an jedem der η O b j e k t e b e o b a c h t e t , d . h . f ü r das j - t e jekt ergibt sich ein
allen
wird.
EMPIRISCHEN
KATEGORIELLE
der
Abhängigkeit
AusOb-
Beobachtungsvektor
Bj = (»1j,...,Bpj)T
f ü r j = 1 , . . . ,n
Insgesamt wird die k - t e Ausprägung
(k=1,...
.
des M e r k m a l s ij^ dann
n ^ -
mal b e o b a c h t e t , und w e i t e r b e z e i c h n e n., d i e H ä u f i g k e i t d a f ü r , dab an ι * ,τη
324
Kapitel V: Skalierung qualitativer Daten
einem Objekt das Ausprägungspaar (k,n) für die Merkmale wird, wobei ι,τ=1,...,ρ und i^x;
beobachtet
n^>0.
Gesucht sind dann in verschiedenem Sinne "optimale" standardisierte variable
(bzw. zugehörige Realisationen), die den
Merkmalen
Zufalls-
kategoriellen
zugeordnet sind; der Vektor für j = 1,...,n
y H = (, jyr1 ; y ) 'j 1 j ' " - " pnji'
möge die Realisation von (Y^,...,Y
\T ) 1 am j-ten Objekt bezeichnen.
Setzt man analog zum Fall zweier kategorieller Merkmale nun für i =1 Yi=a^Ui wobei U. einen
mita-^a.,,...,^)*.
U i = ( ^ ,,... , U U . )
- dimens'ionalen { 0 , 1 } - w e r t i g e n Zufallsvektor
dessen Realisation der k-te
T
ρ ,
bezeichnet,
- dimensionale Einheitsvektor e^ ^ ist, fall
die k-te Ausprägung des Merkmals
beobachtet wird, so läßt sich die Rea-
lisation y^j der Zufallsvariablen Y.. am j-ten Objekt schreiben als für j=1,... ,n
y. J
. = α.·θ„ , = a.. ij ι I .k lk
Zu bestimmen sind dann in Abhängigkeit vom Skalierungskriterium, vgl. Abschnitt 4.2 bis 4.4, lediglich noch die Koeffizienten (Skalenwerte)
a ^
für i = 1,...,p und k=1,...,S- i .
Gleich welches der Skalierungskriterien man wählt, werden hierzu zunächst die KovaAMinz
Sy y bzw. Sy y der Zufallsveki i ix bestimmt. Hier ergibt sich mit
- and
toren
Ktimzkovcvu.a.nzmcU/u.ze,n
S* = n-S uiui uiui
für i=1,...,p ,
3S*
für i ,τ = 1 ,... ,ρ, ί^τ
U.U IT
=n·S
U.U IT
und mit n^ = (n^ ^
n^
n
i1 0
S*
)
für i=1,... ,p gerade
0
ni2
1
-Έ
V i .
0
η
V
nT i
n
0
sowie für ι,τ = 1,..,ρ, i/τ 111 ,τ 11
"«1 i 1 ,τ2
i 1 ,τΐ
Kapitel
V: Skalierung qualitativer Daten
Natürlich ist dabei s
u.u ιτ
=
τu.^ ι
Für die S,^*^ - Matrizen SJj ^ wird nun eine führt: S*
UiUi
wobei L j
ZeA£egung durchge-
CholukL-
1 1
=L
Ui
·L Ui
für i = 1
ρ
eine obere iL *(Ä.-1) - dimensionale Dreiecksmatrix bezeichnet.
Hierbei ergeben sich mit
S*
S 11
s 12
s12
s22
5Z I .
V i ι
l
Vi die Elemente der Matrix L1 L1 11 12 ··· L1 21
L1 22 ··•
"2^-1
Ui
0
...
0
L
ψ
Γ
1
wie folgt: 1
= Λ1
LL 1
k)l.-1
^s 1 /L1 ki,/ i.^S.^-1
für k=1
H^-1
und für j = 2 , . . . , s.,-1 ist LL 1
jj-1
V - V a t )
kj-1 = ( S k j "
Ist dann Ly
i
2
.
Ljv)/Ljj-1
für k=1
j-1
die Pseudoinverse von L u , vgl. Abschnitt 4 in Kap.I, so g i l t i
Lui'suiui'(Lui)T =
für
i=1
Ρ
·
325
326
Kapitel V: Skalierung qualitativer Daten
Unter Verwendung der Matrizen L^j , . . . , L n U A.angAe.duzi.eJitz Mit
1 äßt sich ein Schätzer für die
der Zufallsvektoren
KoiAeZcutiommtWiix.
r* =ι ·ς* T T υ „ ) U.U U. U-U • α : ) = (RA ι τ ι ι τ τ ι
bestimmen:
für i ,τ = 1 , . . . ,ρ, i/τ
ergibt sich dieser zu Ä.-1 1 RU
=
R u.u
12
V i
l2-1
V i
\
U
"Vp V p
V
2
Hierzu lassen sich dann die Korrelationen der standardisierten Zufallsvariablen Υ ^ , . , . , Υ ρ in Abhängigkeit von Gewichtsvektoren b 1 , . . . , b n berechnen. Γ " " "~p Es i s t r
i,T
( b
i'
b
T
1
}
, l
bT-b l τ τ
b i- R U.U
ι τ
-bT
für i ,τ=1,... ,ρ, ι^τ
die Korrelation von Y. und Υτ in Abhängigkeit von b i und b , so daß die empirische Korrelationsmatrix von
in Abhängigkeit von den Ge-
wichtsvektoren b ^ , . . . , b p gerade gegeben i s t durch 1 Ry(b)
r
rUi[bybz)
1,2(b1'b2)
h,p
( b
1'V
^
W
V
r1j3(b1fb3)
...
r„ ,(b,,b,) 2,3 2 3
...
r1)p(brbp)· r, Jb,,bn) 2,p 2 ρ
r3,p'b3'bp'
Die Vorzeichen der Korrelationen in Ry(b) lassen sich allerdings nicht interpretieren. Die Skalenwerte a ^ ,
i = 1,...,p,
gewählten Gewichtsvektoren b p . . . , b
die abhängig von den speziell sind, lassen sich dann wie f o l g t be-
rechnen. Zunächst werden die Gewichtsvektoren auf die Länge Eins normiert bi = b//bT-b.
für 1 = 1 , . . . , ρ
und mit (L^ ) t m u l t i p l i z i e r t : α^ία^
ctu.)T =
(Li.)T'bi
für i = 1 , . . . , p
.
Kapitel V: Skalierung qualitativer Daten
327
Normiert man nun die Größen αϊ noch d e r a r t , daß s i e den empirischen M i t telwert 0 und die empirische Varianz 1 haben, so ergeben s i c h die Skalenwerte a ^ . Man berechnet a l s o zunächst
ä
ik
= a
1 ^ ik"Tr Σ v=l
für
1=1
ρ
und
"=1.....^
und daraus dann die Skalenwerte
a
ik
=
"ik"^
n
/ JJi^
n
iv""iv
f ü r 1 = 1 . . . . ,p und k=1
i.
.
Έ,ί-ibpieJL: Wir wollen die Vorgehensweise hier einmal an einem sehr einfachen B e i s p i e l demonstrieren. Und zwar wollen wir die empirische
Korrelationsma-
t r i x dreier s t a n d a r d i s i e r t e r Z u f a l l s v a r i a b l e n Y ^ Y ^ . Y j bestimmen, die kat e g o r i e l l e n Merkmalen
Je
.Ugmit
nur
zwe
i Ausprägungen 1,2 zugeordnet
sind. Es wurden η =52 Personen nach der Organisationsform ihres Urlaubs y^ sowie nach der Zufriedenheit mit Unterkunft
und Verpflegung y^ befragt. Beim
Merkmal y^ wurde danach unterschieden, ob der Urlaub p r i v a t (1) oder durch einen R e i s e v e r a n s t a l t e r (2) o r g a n i s i e r t wurde. Bei den Merkmalen waren die Antworten " z u f r i e d e n " (1) und " n i c h t zufrieden" (2)
und y^
zugelassen.
Die Ergebnisse der Befragung lassen s i c h in Form einer dreidimensionalen Kontingenztafel d a r s t e l l e n , v g l . lab.32 und Abb.2. tab.32: Kontingenztafel der Befragungsergebnisse von 52 Personen
«3 \ » 2
= 1
«3 V
1
= 2
a2
2 «
1
2
I
1
3
7
10
K 1
10
6
16
2
11
8
19
2
4
3
7
l
14
15
29
I
14
9
23
Aus der Tab.32 oder der Abb.2 l ä ß t s i c h b e i s p i e l s w e i s e ablesen, daß n 1 2 = 19 + 7 = 26 Personen ihren Urlaub durch einen R e i s e v e r a n s t a l t e r o r g a n i s i e r t haben oder daß
328
Kapitel V: Skalierung qualitativer Daten
Personen mit der Verpflegung zufrieden waren.
zufrieden mit
Unterkunft
Abb.2: Graphische Darstellung der Kontingenztafel zur Befragung von 52 Personen
Aus Tab.32 bzw. Abb.2 e r g i b t sich dann zunächst S*
U1U1
s*
0
0
26
26
12.923
'13
13
15
11
-4.5
S*
4.5
U1U3
1 Ί " 52' 4.5
-4.5
26 26 und
13
-13'
-13
13 12.827
-12.827
-12.827
12.827
c* '
U3U3
•(28,24) =
S*
-1
1'
. ι
-ι.
i-1.615 u
2 3
1.615
1.615] -1.615
f ü r i = 1,2,3 sind h i e r n a t ü r l i c h nur Vektoren, die sich aus =1
Λ
•(26,26) =
-12.923
U1U2
S*
26
-12.923
S*
Die Matrizen Ly
sr
1 1
ί 12.923
U2U2
υ
26
·ΙΤ ui
ui
Kapitel V: Skalierung qualitativer Daten
\J 12.923
' \TTT -\Π7
V
•
[-V 12.923J
V
329
v/ 12.827' bzw.
L
U,
-yj 12.827
ergeben und deren Pseudoinverse, vgl. Abschnitt 4 in Kap.I gerade gegeben sind als Lt
=(0.1387,-0.1387)
,
L^
U1
L*
=(0.1391,-0.1391)
und
2 =(0.1396,-0.1396)
3
Damit erhalten wir nun die rangreduzierten Korrelationsmatrizen, die in diesem Falle Zahlen sind:
R* .. = - 0 . 3 4 8 5 13
und
R*
=-0.1254 2 3
d.h. es ist
R
u:
1 -0.0772 -0.3485
-0.0772 1 -0.1254
-0.3485 -0.1254 1
Da auch die Gewichtsvektoren b^.b^.b^ hier nur Zahlen sind, ist R y ( b )
hier
bis auf die ohnehin nicht interpretierbaren Vorzeichen der Elemente-eindeutig. Wählt man b^, bg und b^ z.B. alle positiv oder alle negativ, so ist Ry(b) = Rjj
.
Auch die Skalenwerte a ^
für i = 1,2,3 und k=1,2 sind bis auf Vorzeichen ein-
deutig, denn die normierten Größen b^, b | und b^ sind je nach Vorzeichen von b^,b2,b 3 gleich 1 oder gleich -1. Wählt man etwa b ^ . b ^ b ^ positiv, so ist b* = b* = b* =
1
und somit a * = ( L ^ ) T - b * = ( L ^ ) T = (0. 1387,-0. 1387) T , ci*= (0.1391,-0.1391 ) τ ,
α* = (0.1396,-0.1396) τ ,
d.h. α
11 " " 1 1 4 < n π il "11
η,,·α* ) = 0.1387 "12 u 1 2
α 2 1 = 0.1284
,
&22 = -0.1498 ,
α 3 1 = 0.1235
,
ä 3 2 = -0. 1557
Somit ergeben sich die Skalenwerte zu
12
-0.1387 ,
330
Kapitel V: Skalierung qualitativer Daten
a 2 1 = 0.926
,
ct22 = -1.080
α,, = 0.891
,
α , , = -1.123
,
Einer Person j,die den Urlaub privat organisiert hat, mit der Unterkunft zufrieden und mit der Verpflegung nicht zufrieden ist, wird somit z.B. der Vektor y
j
= (y
1j'y2j,y3j)T=
( α
1 Γ α 2 Γ α 3 2 ) Τ = ( 1 ,0.926
- 123) T
zugeordnet.
Natürlich hätten wir in diesem rein illustrativen Beispiel
die Skalenwerte
auch direkt (ohne das recht aufwendige Verfahren) bestimmen können, denn falls ein Merkmale y nur zwei mögliche Ausprägungen besitzt, sind die Skalenwerte bis auf Vorzeichen eindeutig und können direkt aus den beobachteten Häufigkeiten n ^ , n 2 der beiden Ausprägungen
1,2 bestimmt werden, wenn
man sich zunutze macht, daß gelten soll η-Γη^
η
Γ
0
1
+ η
F-47i-(n1.af +
2·α2)
= 0
n 2 .a2). = 1
' .
Je nach Ziel einer Skalierung von ρ kategoriellen Merkmalen y^
y ,
vgl. die Ausführungen in den nachfolgenden Abschnitten 4.2 bis 4.4, werden verschiedene Skalierungskriterien bei der Wahl der Gewichtsvektoren b^,...,bp herangezogen.
Allen Kriterien gemeinsam ist, daß eine Funktion der empirischen
Korrela-
tionsmatrix Ry(b) maximiert oder minimiert werden muß. Dazu können unter Verwendung der ersten partiellen Ableitungen dieser Funktionen nach den Komponenten b·,, (i = 1 p, k=1,..., Ä.. -1) der Gewichtsvektoren τ τ b1 = ( b ^ . ,b lJt ^ ,... ,b p = ( b p 1 , . . . .bp^ ) , die in den Abschnitten 4.2 bis 4.4 noch angegeben werden, Gradientenverfahren wie
beispielsweise
das von Polak/Ribiere (vgl. Polak/Ribiere (1969)) oder Davidon/Fletcher/ Powell
(vgl. Fl etcher/Powell
Blum/Oettli
( 1963)), vgl. auch z.B. Himmelblau ( 1972),
(1975), Großmann/Kleinmichel
(1976), verwandt werden, die in
der Regel - bei Wahl günstiger Startvektoren b°,...,b° - sehr schnell
kon-
vergieren; die Wahl der Startvektoren wird in Abhängigkeit vom Skalierungskriterium in den Abschnitten 4.2 bis 4.4 behandelt.
331
Kapitel V: Skalierung qualitativer Daten
Bei der Bestimmung dieser ersten p a r t i e l l e n Ableitungen benötigt man s t e t s die p a r t i e l l e n Ableitungen der Elemente von Ry(b) nach den b ^ für
i=1,...,p
und k = 1 . . ;
daher wollen wir diese b e r e i t s h i e r angeben. Es e r g i b t sich
f ü r ι,χ,τ=1
ρ und k=l,...,S.^ wegen
r gerade
*>
τ
(b ,b ) = x
τ
b T "RS μ -b ι II U τ χ τ
τ. ν b «b -b'-b χ χ τ τ
3r (b ,b ) χ,τ • χ' τ'
0
3bik
und sonst
1
—
, f a l l s \fx
und ί^τ oder ι=χ=τ
3r· ( b . , b ) 3r .(b , b . ) ι ,τ ι τ _ τ ,ι τ ι 3bik
3bik
i
/bTb.-bTb. 11 τ τ
wobei
α ,
V = 1
Jt
11
-1
kv
τν
51k-ri,T{bi»bT))
'
JT 1 l -1 τ
12
R U.U
ι τ
rr "
H.-1 1
1
1
r1T
2 ···
r1T rH.-l I
i
T
-1
gesetzt wurde.
4.2
DAS
KRITERIUM
ΤÄΤ
UND
DER
DER
MAXIMALEN
MINIMALEN
Μ A X I Μ UΜ - Ε Χ Ζ Ε Ν Τ R I Ζ I -
DETERMINANTE
Wir wollen in diesem Abschnitt zwei S k a l i e r u n g s k r i t e r i e n behandeln, die dann geeignet sind, wenn die ρ kcrtzgo/UeJUnn
Mzlkmalz
y ^ . . . ^
glzichbe.-
icicfitcgt nebeneinander stehen, wie dies zum B e i s p i e l bei der Faktorenanal y s e , vgl. K a p . V I I I , der F a l l
ist.
Bargmann/Chang ( 1972) schlagen v o r , die Petetmoianie d e t R y ( b ) Logarithmus l n ( d e t R y ( b ) ) ) dvi
von Gewichtsvektoren ^ . . . . . b
(bzw. deren abhängigen
KoMetatccmima.tr« R y ( b ) , v g l . Abschnitt 4.1,zu mövimiz^in. Im F a l l e ρ = 2 entspricht dies gerade der Determinante d e t ( I - Q), wobei Q diejenige Mat r i x i s t , deren größter Eigenwert das Quadrat der (ersten)
kanonischen
Korrelation der zu ö 1 und y 2 gehörigen Zufal 1 svektoren U 1 und U 2 i s t ,
vgl.
Abschnitt 1.2. Eine direkte Verallgemeinerung der in Abschnitt 1.2 v o r g e s t e l l t e n S k a l i e -
332
Kapitel V: Skalierung qualitativer Daten
rungsmethoden für ρ = 2 kategorielle Merkmale i s t die MaximleAung Maximum -
deA
txzmXxJ-ziXät
λ 1 (b) - A p ( b )
maex(b) =
A,(b) + A p ( b )
(wobei λ^(b) den größten und X p (b) den kleinsten Eigenwert der Korrelationsmatrix R y ( b ) aus Abschnitt 4.1 bezeichnet) des Korrelationsel1ipsoids zur Korrelationsmatrix R y ( b ) , der durch die Vektoren ε bestimmt i s t , für die g i l t E T »Ry(b)·ε = 1, denn die Maximum - Exzentrizität maex eines Korrelat i o n s e l l i p s o i d s i s t eine Prüfgröße für den Test auf Unabhängigkeit von ρ Merkmalen nach dem Union - lnteJU&ction
Pilnzlp,
un -Prinzip),
- Ptvinzlp
(VeAeÄnlgungi
-
VuAchichnltU-
v g l . auch Bargmann/Schünemeyer (1978).
Bei der Minimierung von det R y ( b ) bzw. der Maximierung von maex(b) bzgl. ) T , . . . ,b p = ( b p 1
der Gewichtsvektoren b 1 = ( b 1 , , . . .
b pJl _ 1 ) T kön-
nen die ersten p a r t i e l l e n Ableitungen dieser Funktionen nach b ^ für i = 1 , . . . , ρ und k=1
Jt^ — 1 verwandt werden. Hier ergibt s i c h , v g l . Barg-
mann/Chang (1972) bzw. Bargmann/Schünemeyer (1978), wenn ...
r1p(brbp)
r12(b,,b2)
...
r2p(b2,bp)
ir1P(brbp)
...
r*"(bp,bp)
Y Ry^(b)
1 1
^ ^ )
die Inverse von Ry(b) bezeichnet, für i = 1 , . . . , p und k=1,...,J,.. 31n(det Ry(b)) 3b
l ρ
.
3r.
(b.,b -
v=1
ik
vfi
riv(b.,bv) [L f /v bTb. v=1 ,. ι ι v^i
V 1 iv ( ^ Χ Λ ^ υ I b... νω r,;;. kω + Γ ι ω=1
/ Λ
1 ikj
und 1 3maex(b) IB^-^^bKXptb)
/ 3X,(b) ((1-maex(b)).^—-(Hmaex(b))
hier i s t für t=1 ,p 3X t (b) 3b
ik
= 2ft,(b) t7
ρ 3r X f + (b) tv v=1 ViM
(b.,b ) 1
3b
ik
v
3
V
b )
\ )
;
333
Kapitel V: Skalierung qualitativer Daten
/ Ä1 :1 4V^l' V
wobei f(.(b) = ( f . ^ ( b )
/
λ
V V
«-' " k " Λ 1ν1 "* '
1
f^.p(b)) T einen auf Länge Eins normierten Eigenvek-
tor zum Eigenwert ^ ( b ) der Matrix Ry(b) bezeichnet. Ein Beispiel zur Bestimmung dieser p a r t i e l l e n Ableitungen findet man im Abschnitt 4.3. Will man die Maximum - Exzentrizität konkret mit H i l f e eines numerischen Verfahrens maximieren bzw. die Determinante minimieren, so benötigt man StaAJMiAXi b ° , . . . , b ° für die Gewichtsvektoren
. Da insgesamt bei-
de Kriterien daraus hinauslaufen, die einzelnen Korrelationen zwischen den Zufallsvariablen
möglichst groß (dem Betrage nach) zu machen,
bietet es sich an, diese Startwerte aus der paarweisen Skalierung der Merkmale mittels des Verfahrens aus Abschnitt 1.2 zu bestimmen. Bargmann/Chang (1972) schlagen vor, zunächst jedes Merkmal gegen jedes zu skalieren, und dann den Startvektor b° zum Merkmale y^ für i = 1 , . . . , p durch Prämultiplikation des Vektors der Mittelwerte der p-1 so gewonnenen Skalenwerte mit der Matrix L^
ZU bestimmen.
Noch bessere Startwerte, vgl. Bargmann/Chang (1972), erhält man durch das folgende, allerdings rechenaufwendigere Vorgehen. Man bestimmt den Startvektor b° zum Merkmal y^ für i = 1 , . . . , p als sogenannte kanonische multiple Korrelation des Zufallsvektors IL und der übrigen Zufallsvektoren U t , τ = 1,
mi t
,p, τ / i ; d.h. als Eigenvektor zum größten Eigenwert der Matrix Ui
• ( Rι t ) " 1 · ( R J ) T ι
RUi =
^ RU i u 1 !
(I X*
•"R5iUi-, U1U2
¥ i
.R,•u,u i i +1
ι Ρ
Vl-I
R
V i - 1
V i
¥
i +
i
+1
r
¥
p
V p
D*
Ri = D* ι Ui+1U1
Vi
V l
U
2
R*,
U i + 1 U i-1
RCi+1U2
UpU2
R
Vi-1
R C i-1 U i + 1
h
RU
-1 i+1 U. .
ρ i+1
U i-1 U p R5i+1Up
V1
334
4.3
Kapitel V: Skalierung qualitativer Daten
DAS
KRITERIUM
DER
MAXIMALEN
MULTIPLEN
KORRELA-
TION Im Abschnitt 2 und 3 haben wir Beispiele dafür betrachtet, daß nicht a l l e Merkmale gleichberechtigt sind. Vielmehr wurden dort p-1 kategorielle Merkmale U 2 , . .
einzeln gegen ein auigezexcfmeiai katzQonlMu
linnkmal J ^ ,
die KfUXtKULmivajviabZe., s k a l i e r t . Natürlich wäre es dort wohl günstiger gewesen, a l l e Merkmale y 2
öp gleichzeitig gegen y^ zu skalieren, um zu
erreichen, daß insgesamt bestmöglichst zwischen den Stufen der Kriteriumsvariablen diskriminiert wird. Als Skal ierungskriterium schlagen wir nun in solchen Fällen den rmiUmtm nuttipl&n
bzw. dessen Quadrat, vgl. Abschnitt
KoM-eZaXlomkoiiilzZeMten
1.3 in K a p . I I I , zwischen der Zufallsvariablen Y^, die der Kriteriumsvariablen zugeordnet i s t , und den Zufallsvariablen Y2
Yp, die den übrigen
kategoriellen Merkmalen zugeordnet sind, vor; vgl, El pel t/Hartung ( 1985). Manmaximiert also das nultiplz 2
r (b) = [r1>2(b1,b2) n . S ^ r ^
l
f
l / r V '
ΒiitArnntheJXimaß
"
r2)3(b2,b3) r
2,3(b2·^)
^r2,p(b2'V
der Regression von Y^ auf Y2
r
3,p(b3'V
···
r
2,p(b2'V
r
3,p2(brb2) r
1,3(b1'b3J
1
W
W
Yp bzgl. der Gewichtsvektoren b^,...,bp
Gegenüber den Einzelskalierungen der Merkmale U 2 ,...,Up gegen y^ hat dies den zusätzlichen Vorteil, daß man eindeutige Skalenwerte α ^ , . , . , α ^ für die Stufen der Kriteriumsvariablen erhält und so das Skalierungsergebnis zur Regression verwenden kann, vgl. auch das nachfolgende Beis p i e l . Dadurch werden die Verfahren der diskreten Regression (z.B. LogitAnalyse, vgl. Kap.II) nicht nur ersetzt, denn dort müssen auf allen Stufen des Merkmals y^ a l l e Ausprägungskombinationen der Merkmale y 2 > . . . , y p mehrfach beobachtet werden, wohingegen es hier nur notwendig i s t , daß a l l e Ausprägungen mindestens einmal beobachtet werden. Dies bedeutet, daß ein sehr viel geringerer Stichprobenumfang η von Objekten ausreicht a l s bei den üblichen Verfahren der diskreten Regression. Im Beispiel der Autohersteller aus Abschnitt 3 gibt es etwa pro Reparaturanfälligkeitsmerkmal 5 Ausprägungen und 5 Stufen der Kriteriumsvariablen, d.h. insgesamt 15*5 = 75 Merk15 malsausprägungen und immerhin 5 = 30517578125, d.h. mehr a l s 30 M i l l i a r den Ausprägungskombinationen zu beobachten.
Kapitel
V: Skalierung qualitativer Daten
335
Bei der Maximierung des multiplen Bestimmtheitsmaßes r (b) können wir uns zunutze machen, daß die ersten p a r t i e l l e n Ableitungen dieser Funktion nach den Komponenten b ^ der Gewichtsvektoren ( i = l
p, k=1
Αη--1) für
k=1,... ,ί,^-1 wie f o l g t gegeben sind Ρ Ρ v.v2 3r 2 (b) •2· l t r 1 2(b b ).r, 3b 1k v^=2 v2=2 1 2 und f ü r
(brb )2 2
^l.v/h^v» 3b
1k
i=2,...,p 3r (b) _ 3bik
1vi / Ρ v 3 r i i(bi>M ( y r ^b-.b )-r, (b.,b )Y—Ul-J—L 1 V1 1 ' V 3bik \),=2 ' ' V A
3ri ν
(bi,
v
> f i=2? [
3b i k
v
—
f „ L V 2
v^i
/ ^ ( lb
,b ) · r . V2 V 3 W
(b .,b )]), 1 V J /
wobei gesetzt wurde: 1 r2j3(b2,b3)
^2,pV
Die
StanM.Qe.ttz
1
r
3,p(b3'V
r3j4(b3,b4)
r4,ptb4'bp)
...
2,pVÜ2'üpJ r3jp(b3,bp)
-1
-
.22 r"(b2,b2)
23 r"(b2,b3)
24, r"(b2,b4)
...
r2p(b2,bp)
r23(b2,b3)
r33(b3,b3) r34(b3,b4)
...
r3p(b3>bp)
r2P(b2,bp)
r3P(b3,bp) r4P(b4,bp) . . .
rPP(bp,bp)
b 2 , . . . , b ° für die Gewichtsvektoren wählt man h i e r a l s Skalen-
1 wertevektoren y . = ( y ^ , . . .
z
i t ) , i = 2 , . . . ,p, der Einzelskalierungen gegen die
Kriteriumsvariable y^ p r ä m u l t i p l i z i e r t mit der Matrix Ly , d.h. b? =L
U.'yi
für
i=2,...,P
,
und a l s Startwert b ° f ü r den Gewichtsvektor b^ zur Kriteriumsvariablen kann man den Vektor der Mittelwerte der Skalenwerte a l k > k = 1 , . . . , £ 1 , für y 1 der Einzelskalierungen gegen U 2 > . . . , y p p r ä m u l t i p l i z i e r t mit l J
verwenden.
BeX.ipiel·. Im Abschnitt 2 hatten wir drei Merkmale ( A l t e r y 2 , Familienstand y 3 . p o l i t i s c h e Einstellung y 4 ) mit j e drei Ausprägungen einzeln gegen die Kriteriumsvariable Einkommen y . auf zwei Stufen (weniger a l s 3000 DM, mehr
336
Kapitel V: Skalierung qualitativer Daten
a l s 3000 DM) s k a l i e r t . Um e i n e n m ö g l i c h s t hohen E r k l ä r u n g s g r a d f ü r d i e S t u f e n d e r K r i t e r i u m s v a r i a b l e n zu e r r e i c h e n , i s t es b e s s e r , a l l e Merkmale g e meinsam gegen d i e K r i t e r i u m s v a r i a b l e zu s k a l i e r e n . Diese S k a l i e r u n g m i t dem K r i t e r i u m d e r maximalen m u l t i p l e n K o r r e l a t i o n bzw. des maximalen Bes t i m m t h e i t s m a ß e s s o l l h i e r einmal d u r c h g e f ü h r t werden. Dazu müssen w i r z u n ä c h s t d i e K o r r e l a t i o n s m a t r i x Ry(b) der Merkmale k e i t von den G e w i c h t s v e k t o r e n b^ .. . . . . b ^ )
( i n Abhängig-
m i t H i l f e des V e r f a h r e n s aus Ab-
s c h n i t t 4 . 1 bestimmen. Aus den Daten d e r T a b . 6 i n A b s c h n i t t 2 e r g i b t
sich
z u n ä c h s t m i t η = 12 S*
V i SU
2U2
s* ¥ 3 S*
¥ 4 SU,LL
3
'5 0 0
0 2 0
0' 1 I 0 2 (5,2,5) " 12' 5J 5,
f5
0 0
0 5 0
f4 0 0
0 5 0
1 4
1 1
5 0' 7 -5 -2' 1 0 5 (5,5,2) 7 -2 -5 • π ' 2 -2 -2 4 ι2 o1 32 - 2 0 -12 1 1 0 (4,5,3) = -20 35 -15 3 "TT 27 T2* - 1 2 - 1 5 3 1 -13 2 11) yj(5,2,5) (s* )T 1 13 - 2 - 1 1 2J " T T * II II ' 2 1 T2* - 1 - 1 2 5) τ 1 (5.5.2) (s;
3 1
S* U2U3
S* U2U4
=
(5,7)
" t t
1
1
¥4
U3U4
• τ r [ ?
3
S*
S*
0 7
2 3
S*
V
5 0
(4.5.3)
'TT
1
3
1
1
3
1
1 2
1 1
0 2
" T1T 1
'T2* J_
12"
1 >
-1
5 12'
(4,5,3)
(4,5,3)
-5
-2 4 -2
-5 -2 7
1
-2
1
1
ΤΎ'
16 -16
-13 13
f 11 2 -13
-13 2
1
(5,5,2) =
7 -2
1
TT
4 4 -20
16 4
w
(S*
11
-3)
2
-6
=(s*
9
11 -13 2
i
(>S *II II ') T 3 2
11
-13
)T V
1
1
9] -3 -6
1T
V 2
(S*
4^3
)T
Die C h o l e s k i - Z e r l e g u n g e n d e r M a t r i z e n S*
für i =1 4 l i e f e r n dann d i e u i i f o l g e n d e n oberen D r e i e c k s m a t r i z e n und z u g e h ö r i g e n P s e u d o i n v e r s e n
. 630 l - \ / 24 -vT -2
12 -\TZÄ
\fS
-2
0 4
2.\!
-3] 24
337
Kapitel V: Skalierung qualitativer Daten
l - r m V i * ·
10" 4 müssen wir den zweiten S c h r i t t des Verfahrens durchführen. 1
?
1
Die ersten p a r t i e l l e n Ableitungen der Elemente von R v (b ) und von r (b ) ι ι ' nach den Komponenten der Gewichtsvektoren b.j,. ...b^j sind in der Cab.35 bzw. Cab.36 angegeben.
340
Kapitel V: Skalierung qualitativer Daten
Cab.35: Partielle Ableitungen 3r ι
XT
1 1 1 (b ,b )/3b!. =3r Χ
Τ
IK
XT
1 /9b!. der Elemente von IK j
j
RY(b ) nach den Komponenten der Gewichtsvektoren b . , . . . , b .
i 1 2 2 3 3 4 4
3r
k 1 1 2 1 2 1 2
12
3r
^
0 0 0 0 0 0 0
ar
13
8b
-0 0 0 0
9r
23
3b
!k
0 0 0 0 0 0 0
0 0 0 0 0 0 0
9r
14
ab
!k
0 047007277 031385777 169676283 000361824 0 0
0 -0
-0 0
3r
24
34
3b
!k
0 013112684 008755062 0 0 012404299 060620575
0 0 0 -0
lk
0 0 0 248376020 000529646 013956780 068207661
2 1 Cab.36: Partielle Ableitungen des multiplen Bestinnntheitsmaßes r (b ) nach 1
1
den Komponenten der Gewichtsvektoren b , , . . . , b .
k
3b
1 2
3b
!k
0
ar 2 (b 1 )
arV)
3rV)
3b
k
-0.001821408 0.001216115
k
-0.012493573 -0.000026642
3rV) 3b
lk
0.002239389 -0.010944032
In diesem zweiten Schritt ergeben sich mit
ik ~ ik
•0.3
.3rV) 3b
lk
dann die Gewichtsvektoren 2 1 h 11 b, = hb1 = 1
,
b|=(1.922828131,2.881446311)T bg = (-0.004997429,2.309390443)T b? = (-3.392888209,-0.698820089)'r aus denen man berechnet: 1 Ry(b') = 0.377964425 0.075592718 0.489896319 und r 2 (b 2 )
0.377964425 0.075592718 1.0.489896319
0.377964425 1 -0.040749260 0.274079566
0.075592718 -0.040749260 1
0.107393651
0.489896319 0.274079566 0.107393651 1
1.087078025 0.077185329 -0.306235088 0.077185329 1.017148324 -0.130390194 -0.306235088 -0.130390194 1.097935859
0.377964425) 0.075592718 0.489896319
Kapitel V: Skalierung qualitativer Daten
= 0.305958081 Da g i l t r 2 ( b 2 ) - r 2 ( b 1 ) = 5.1824·10" 5 < 10 - 4
,
brechen wir das Verfahren h i e r ab und bestimmen die Skalenwerte für die Merkmale
gemäß des in Abschnitt 4 . 1 angegebenen Verfahrens. Zu-
nächst erhalten wir b* = b] / Ζ ( b 2 ) T - b 2 = l / / 7 = 1 b*=(0.555072650,0.831801872)
T
b|=(-0.002163955,0.999997659) T
, , ,
b* = (-0.979440831,-0.201731648) T und daraus dann a * = ( L j ) T - b * = (0.292770022,-0.292770022) T α* =(-0.361382715,0.103024383,0.258358332) T α * = (-0.257513983,-0.258882588,0.516396571) T
,
T
.
α * = (0.385510899,-0.271517985,-0.113992913) Damit e r g i b t s i c h a^ = (0.341565026,-0.243975018) T
,
a 2 = (-0.335626619,0.128780479,0.284114428) T ä 3 = (-0.128414840,-0.129783445,0.645495713 ) T ä 4 =(0.398637988,-0.258390896,-0.100865824) T und s c h l i e ß l i c h erhalten wir die folgenden Skalenwertevektoren: α, = ( 1 . 183215956,-0.845154255) T a 2 = (-1.162644713,0.446108664,0.984201248) T a 3 = (-0.444842054,-0.449583042,2.236062742) T a 4 = ( 1.380922498 ,-0.895092320,-0.349409463) T Natürlich hat s i c h hier an den Skalenwerten f ü r die beiden Stufen der K r i teriumsvariablen Einkommen y^ nichts geändert, da diese ja eindeutig f e s t gelegt s i n d . Die Güte der Skalierung und die Zuordnung neuer Objekte kann nun genau wie bei den Einzelskalierungen in den Abschnitten 2.2 und 2.3 m i t t e l s
Diskri-
minanzfunktionen oder Mahalanobisdistanzen e r f o l g e n ; zu diesem Zweck be-
341
342
Kapitel V: Skalierung qualitativer Daten
stimmt man ausgehend von der Datenmatrix aus Tab.6 in Abschnitt 2 die skal i e r t e Datenmatrix Y, die in Cab.37 angegeben i s t . Hierbei wurden nun auch die Skalenwerte für die Stufen der Kriteriumsvariablen berücksichtigt, die die erste Spalte der skalierten Datenmatrix bestimmen. Cab.37: Skalierte Datenmatrix Y nach dem Kriterium der maximalen multiplen Korrelation zu den Daten der Tab.6
1
öl
y
y
1
183215956
1
183215956
1
183215956
1
183215956
1 183215956
- 0 845154255
Y=(y1 »y2»y3
«2 y
ij1
- 0 845154255
«3 y
ij2
0 446108664
ij3
- 0 449583042
0 984201248 - 0 444842054
- 0 349409463
1 380922498
0 984201248
2 236062742
1 380922498
- 1 . 1 6 2 6 4 4 7 1 3 - 0 449583042
1 380922498
0.446108664
- 0 444842054 - 0 895092320 - 0 895092320
0 984201248 - 0 449583042 - 0 349409463 162644713 - 0 444842054 - 0 349409463
0 984201248 - 0 449583042 - 0 895092320
845154255 - 1
162644713
i j
1 380922498 y
0 984201248 - 0 449583042
- 0 845154255 - 1 - 0 845154255
»4 ij4
- 1 162644713 - 0 444842054 - 0 895092320
- 0 845154255 - 1 162644713 - 0 444842054 - 0 845154255
y
2 236062742 - 0 895092320
Τ
ll
τ y 12 Τ y 13 Τ y 14 Τ y 15
1 1 1 2 1 3 1 4 1 5
Τ 2 1 21 Τ 2 2 Y 22 Τ 2 3 y 23 Τ 2 4 y 24 Τ 2 5 y 25 Τ 2 6 y 26 Τ 2 7 y 27 y
Bevor Güteprüfung und K l a s s i f i k a t i o n durchgeführt werden, könnte man hier zunächst noch überprüfen, welche der Merkmale ög»!^»^ nichts zur D i s k r i mination zwischen den Stufen von
beitragen, und diese unwesentlichen
Merkmale eliminieren; man vgl. dazu auch die Ausführungen im Abschnitt 2.1. Darauf wollen wir hier verzichten und direkt die Güteprüfung anhand der Fisherschen linearen Diskriminanzfunktion, vgl. auch Abschnitt 4 in Kap.IV, durchführen. Bei der Fisherschen Diskriminanzfunktion müssen zunächst die Kovarianzmatrizen S1 und S 2 der Merkmale Ü2>Ü3
und
ö 4 und daraus dann die gemeinsame
Kovarianzmatrix S sowie deren Inverse S"^ berechnet werden. Hier ergibt sich
Kapitel V: Skalierung qualitativer Daten
Vr
3.456712212 1.437072310 2.734894242
Vr
6.829002516 -2.268919720 -1.667900019
1.437072310 3.833724391 2.140529242
343
2.734894242 2.140529242 3.489383783
-2.268919720 6.171433386 -1.296196561
-1.667900019 -1.296196561 4.155889920
S = 1 ^(5S 1 + 7S 2 ) und somit "1=12.
0.099543983 0.009537555 -0.014945930
0.009537555 0.101802536 -0.012574007
-0.014945930 -0.012574007 0.134274312 i n den beiden Gruppen
Da d i e m i t t l e r e n Skalenwerte der Merkmale gerade
y 1 =(0.447213539,0.089442510,0.579653142) T
,
y 2 = (-0.319438242,-0.063887507,-0.414037959) T s i n d , e r g i b t s i c h , daß eine Person, bei der e i n Vektor y von Skalenwerten f ü r d i e Merkmale 1)2,03,04 z u t r i f f t ,
der ersten Stufe der
blen (Einkommen unter 3000 DM) zugeordnet w i r d , (y, - y 2 ) T - s : 1 - v { ( y i - y 2 ) T - s " 1 · ^
+
Kriteriumsvaria-
falls y2>
= (0.755115932,0. 125120271 ,1 . 4 4 0 4 9 0 7 0 8 ) y 3 3 8 2 4 9 7 4 4 und der zweiten Stufe zugeordnet w i r d , f a l l s d i e s e r Term k l e i n e r a l s
>0 Null
ist.
Die Werte d i e s e r Diskriminanzfunktion ergeben s i c h f ü r d i e
12 befragten
Personen, wenn man y = ( y . j 2 > y . j j 3 , y i j 4 ' T nacheinander f ü r a l l e
i,j
setzt,
wie i n Cah.38 angegeben.
In der e r s t e n Gruppe haben w i r somit, wie schon bei den E i n z e l s k a l i e r u n g e n im A b s c h n i t t 2, eine F e h l k l a s s i f i k a t i o n und auf der zweiten Einkommensstufe zwei F e h l ' k l a s s i f i k a t i o n e n ; das sind 20% bzw. 28.6% F e h l k l a s s i f i k a t i o n e n .
Zum g l e i c h e n Ergebnis gelangt man, wenn man d i e g e n e r a l i s i e r t e l i n e a r e kriminanzfunktion
Dis-
verwendet.
Die Diskriminanzfunktionen b i e t e n h i e r eine d i r e k t e A l t e r n a t i v e zu den Methoden der d i s k r e t e n Regression ( z . B . L o g i t - Analyse, v g l . K a p . I I ) . andere M ö g l i c h k e i t besteht aber auch d a r i n , d i r e k t e i n
Eine
Regressionsmodell
zu verwenden. Allgemein b i l d e n h i e r d i e Skalenwerte zu den k a t e g o r i e l l e n
344
Kapitel V: Skalierung qualitativer Daten
Cab.38: Werte der Fisherschen linearen Diskriminanzfunktion, wahre und zugeordnete Einkommensstufen für η = 12 Personen einer Befragung, vgl. auch Tab.6 und Tab.37 i
j
1 1 1 1 1 2 2 2 2 2 2 2
1 2 3 4 5 1 2 3 4 5 6 7
Wert 2 0 -2 2 2 0 -1 -2 0 -1 -0 -2
Merkmalen y 2
Zuordnung
100692963 015081328 392087346 507015246 843043974 885897657 177292041 392087346 014488134 606036261 771562951 056651812
wahre
Zugehörigkeit
1 1 2 1 1 1 2 2 1 2 2 2
1 1 1 1 1 2 2 2 2 2 2 2
öp für η Objekte die Designmatrix X der multiplen Regres-
sion von y 1 auf 0 2 >···»1!ρ
und
die Parameter B 1
ß p . 1 der multiplen Re-
gression werden dann unter Verwendung des Vektors der Skalenwerte der K r i teriumsvariablen y,| für die η Objekte a l s Beobachtungsvektor y aus der Regressionsgleichung, vgl. K a p . I I , geschätzt:
= X + .y = (X T .X) + .X T .y
.
Dabei kann man sich hier zunutze machen, daß g i l t 1
r2)3(b2,b3)
r2>3(b2,b3)
1
Χ Τ ·Χ = η· lr2,p(b2'V
r
3,P(b3'V
...
r2>p(b2,bp
··
r3,p0)
--.üp· Mit den Bezeichnungen 1 r1)2(b,,b2)
'•i,2(b1'b2)
•r1.q(b1'bq)
r
··· ···
RY(q)(b) = 2,q(b2>V
r
1,q(bl'bqr
r 2,q< b 2' b q>
"·
rq+1,q+2^bq+1'bq+2^
RY(p)(b) =
1,q+1
y(q,P)(b)
= (R
Y(P,q)(b»
V r V
(
q+2,P(V2'bp»
r q + 2,p (b q + 2> b p^
^ V i - p ' V i ' V
R
V i . P r
rq+1,q+2(bq+1,bq+2)
" r
, b
q+1^
r
1,q+2(b1'bq+2}
'2,q+1(brbq+1)
r2,q+2(b2'bq+2)
q,q+l(bq'bq+l)
r
q,q+2(bq
wird also in diesem F a l l e der größte Eigenwert A„(b) der Matrix u
r
l,p(b1'V
r2,p(b2'bp}
r
q.p
(b ,b ) q' v '
349
Kapitel V: Skalierung qualitativer Daten
( R
Y(q)(b))"1-RV(q,p)(b)'(RY(p)(b))"1'RY(p,q)(b)=A
i n A b h ä n g i g k e i t von den G e w i c h t s v e k t o r e n b j schnitt
1.4 in
bp m a x i m i e r t ,
v g l . auch Ab-
Kap.III.
Dazu b e n ö t i g t man d i e p a r t i e l l e n A b l e i t u n g e n von X g ( b ) n a c h den Komponenten von b j
b p . H i e r e r g i b t s i c h , wenn man
i
r > r b i > r ^ b , ^ )
r
^(bi,b2) r"(b2,b2)
...
^ r V rZq(b2,bq)
r^q(b2,bq)
...
rqq(bq,bq)
-1
(RY(q)(b))
tr
l q
(brbq)
rΓ q + 1 q + 1 f b b ) rq+1 q+2fb b ) , ο Hq + 1 q + 1 r , „' q + 1 ' q + 2 . q+2 q + 2 ( b H ^ rq+1 q+2, ) r q+1 q + 2 r q+2 q+2
rr q + 1 q+2
„q+1 ρ
rPP(bp,bp)
p
(b
b ) 'P q+2 ρ q + 1
Pi
r
(RY(p)(b))( b ^ . b j V T p'
r
q + 2
P1 ( b _ „ b n ) V ' p
s e t z t , und wenn man m i t f(b) = ( f ^ b )
fq(b))T,
g(b) = ( g 1 ( b ) , . . . , g q ( b ) ) T ,
g(b)Tf(b) = 1
E i g e n v e k t o r e n zum E i g e n w e r t X Q ( b ) d e r M a t r i x Α b z w . A T b e z e i c h n e t ,
für
i = 1 , . . . , q und k = 1 , . . . , ί , ^ - 1 3AG(b) 15—=
ϊ
ϊ
S
!
9V (b).rWlUj2(b
•if (b)·r ( b , ,bM ) ' ( r ^ V2 ν2,ωι V 2 ÜJl \
V l i
(b
v
Vi
,b.)-[ ι L
,b
)
3r, (b · ,b ) 1 ,102 ι ω2
~5ETi k
3r. v 3 = 1 vi, = 1 v^i
v 3 = 1 Vi» = 1 vit^i
v3 ,ωι
müssen nun zunächst Kovarianz- und Kreuzkovarianzmatrizen der Zu-
fal 1 svariabl en U 1 ,...> U p> x i····> X q bestimmt werden. Mit V i j / i j
für i = 1 , . . . , q
ergibt sich s
i χ i i
n
=
l ( χ ί i ~ χ·ί'(χτ·ί " Ο 1J 1 TJ τ j=1
η sy
ν
i τ
2
l j=1
(x
ii
-
=
1J
1
_
für
i = 1 » — .q
_ = sy
γ i i
für ΐ,τ = 1
q, ί/τ
352
Kapitel V: Skalierung qualitativer Daten
i"i1 0 S
0
...
0
ni2
...
0
"11 .1. " η"
V i " 0 η
s*
U
0
"12 (η
ι1 ' " i 2 "
"1t, I
11,τ1
Π
ιΊ,τ2
"
"ι2,τ1
η
12,τ2
-
U
1
für i=1 "11 τλ τ "12
A
ρ
"11 ' "12
.1. " η"
(ητ1.η
2,...,n
τ
)
k · (Si^)·
=
X
( s
Vi
für i ,τ=1
i j ~Χϊητ1
x
ij "xi"x2 für i=1
]
wobei die Summation von
x
ρ, ι7τ
i j " V u
T
,
)
q, τ=1,... ,ρ
Uber j:k bedeutet, daß hier die Realisationen
der Zufallsvariablen X, derjenigen Objekte j addiert werden, bei denen die k-te Ausprägung, k=1
£ τ , des Merkmals y T beobachtet wurde.
Nun werden mittels Choleski - Zerlegung, vgl. auch Abschnitt 4.1, obere Dreiecksmatrizen Lj s* V i
für i = 1 , — , ρ derart bestimmt, daß g i l t =1
u
i
«L τ u
i
für i=1
ρ
Weiterhin bestimmt man die Größen für i = 1 und berechnet die Pseudoinversen L^
q der Matrizen Lj
für i = 1 , . . . , p ; die
Pseudoinversen von L Y sind für i = 1 , . . . , q natürlich gerade 1/LV . x *i i Unter Verwendung a l l dieser Größen läßt sich ein Schätzer für die rangreduzierte Korrelationsmatrix der zufälligen Größen X 1 stimmen. Mit r, xixT
= s
xix/(Lxi'LxT)
=r
xTxi
R* „ = L* - S * „ »(Lj1, f = ( R * „ ) T U V x i U A V V i sowie
für i ,τ=1 für i=1
X £ ) ,U 1 ,... ,U beJn P q, i/τ ρ, ί^τ
Kapitel V: Skalierung qualitativer Daten
= S*
ergibt
-(L
)
+
* > τ
Κ
sich
dieser
Ί
X.
/ L
1=1,..
f U r
Γ)(
Γ)(
1Χ2
Γ χ
ι
1Χ2 1
···
r
···
r
x,x
q
X2Xq
1 =
χ
V
i
V
dieser
die
Korrelationen
keit
von
Diese
· "
2
U*2X2
RU
X
ρ
zu ,Y Y 1 · · · natürlich für
X.X ι τ
und
V Y l
τ
( b
u
R
x
u 1 2
R
x
υ
R
x
υ
V
-
q ¥
R
...
R*
x υ V i
V
q
R 5
p
q
V
sich
2U1
i'
T
b
RXY(b)
=
}
male
zu
= r
i T
( b
i '
•
,
V
v
+
-
p )
-
*
M a t r i x R^jj und
und
ί^τ
Υ., b^,
gerade
-bT
1
T '
b
die
folgende
1
12
die
, R
|1
lassen
sich
..,Υρ
in
Abhängig-
..,bp
bestimmen.
Elemente
r
2
>"12(b2)
r
2 2
(b
) 2
)
... ...
r
·•·
W
Gewichtsvektoren ergeben
r
Iq
r
2q
r
sich
b
q 2
1 (
_ b l
(b
2
( b
1
für
in
b
1
)
Ρ
τ = 1
^
i=1,...,q,
·
r
W gehörigen
folgender
ergibt: r
' 2 2 ^ 2 '
··•
r
r
5
12
τ=1,...,ρ
···
q ?
( b
(b
2
)
V
W
und
r
r
für
Weise.
( b
p>
(b
q p
1 p
2p
( b
( b
···
Skalenwerte Art
r
···
1
1p
' 92 np -
rp1+1p1+2(bP1+1'bPl+2)
V i P
( b
P i
+
l ' V
V q ^ l
P+q.,+2^
V q ^ i
ρ+q
rp1+
1p
+ 1 P+q 1 +2 (b)
r P +q 1 + 2
" · ""p+V1 p+q(b) ··· r p+q 1+ 2 p+q ( b )
1
P+q ( b )
( b P l +
rV
rp1+2p(bp1+2'bp>
,"pl+2p(bp1+2'bp)
= (b)
-
1
r p+q 1
1
R X(q)< b >
" ' ?i+qi+1 p + q v ! · " rp1+q1+2 p + q / D '
Kapitel V: Skalierung qualitativer Daten
1
r
r
q,+1 q,+2
q
q 1 + 1 q.+2 " · r q. + 1 q 1 r · · · r q,+2 q
q^+2 q
r
R
1 P1+1(b)
r
1 P1+q,(b)
r
2
r
2
r
Pi
r
P,
pj^»
P,+l(b)
r
R
Y(Pl,P)
(b)
=
(R
Y(P,Pl)
P1+q/b)
11(b1} r2,(b2)
r
12(b15 r22(b2)
· · · r 1q ( b 1 } . . . r 2 (b 2 )
V
V
'··
V
r
1 p1+q1 + 1 ( b )
r
(b)
2p1+ql
+
1
V -·
V
/
V
(b)
Ί
P+qi
r
••• 2P+q/b)
(b))
p1 ρ,+ς,+ι
(hl
r
r
1 p1 + 1 ( b 1 ' b p l + l '
r
b
2 p|+1' 2' p|+1'
r
YX(p1.q)=
R
XY(q,l)(b)
Vp) R
bzw. r'(b)=fRY(p;1)(b) lP
maximiert. Mit
XY(q,D(b)
XY(q,p)(b)
360
Kapitel V: Skalierung qualitativer Daten
RY{p)(b)
RYX(p,q)(b)
R XY(q,p)( b >
RX(q)(b'
r22(b)
r23(b)
r 2 P + ^(b)
rp+q
rp+q
rp+q
2(b)
3(b) _
p+q(b)
lassen sich die partiellen Ableitungen von r (b) nach den Komponenten b ^ der Gewichtsvektoren
wie folgt schreiben. I s t die Kriteriumsva-
riable kategoriell, so i s t für k=1,... ,5,^-1 # 1 = 2
P
3b1k
T
r
»«
( b
,.
r i v
vi=2 V2=2
( H ^ Ü l 3b1k
1Vl
und weiter i s t in diesem F a l l e für i=2
,
ρ und k = 1 . . ik
v2 =
v3
v 2 ^i
diese letztere Form der partiellen Ableitungen g i l t im Falle einer stetigen Kriteriumsvariablen für i = 1 , . . . , p und k=1
Α..
Sind schließlich mehrere der p + q Merkmale, höchstens jedoch p + q - 2 , als Kriteriumsvariablen ausgezeichnet, so i s t die
maximale
eAite
kanoni&che
KowieZation ein geeignetes Skalierungskriterium. Sind p^ kategorielle Merkmale y 1 = z r . . . , ö p
und q, stetige Merkmale = 2p X 1 1 ausgezeichnet, so wird die (erste) kanonische Korrelation zwischen Z . , . . . ,2„
1 p1+q1 ren bj = bf,
Zn
und Ζ „
_
PI+c2p+q in Abhängigkeit von den Gewichtsvekto-
• h^i^i
=M ^Ίτηιτ|
maximiert. Hierbei b_ = b* κ κ,τΗ·|
kann es natürlich sein, daß a l l e Kriteriumsvariablen kategoriell (q^=0) oder stetig (p^ =0) sind, jedoch muß gelten p^ + q ^ 2 . Die kanonische Kor relation i s t gerade die Quadratwurzel aus dem größten Eigenwert X(b) der Matrix RY(Pl)(b) R
XY(qrPl)(b)
R
vx(Pl,qi)(b)
-1
RX(qi)(b)
RY(p)(b) RXY(q,p)(b)
Y(PrP)(b)
^XY(q15p)(b)
R YX(p, q )< b >]~ 1 RX(q)(b)
R
J
iRY(p,Pl)(b'
RYX(prq)(b) RX(qrq)(b)
RYX(p,qi)(b) RX(q,qi)(b)
so daß wir hier also A(b) bzgl. b i , . . . , b * ,b* maximieren 1 P^ " 1 " 1 1 müssen. Bezeichnen f ( b ) und g(b), g(b) T f(b) = 1, Eigenvektoren zum Eigen-
Kapitel V: Skalierung qualitativer Daten
wert x(b) der Matrix Α bzw. A T , und setzt man R
r11(b)
-1
v(Pl)(b)
^ΧΥίς,,ρ,)^)
RY(p)(b)
RX(qi)
RYX(p,q)(b)
KY(q,p)(b>
r
r12(b)
p.+q. 1 p.+q. 2 1 1 (b) r 1 1 (b)
p1+q1+1 p,+q. + 1 (b)
-1
RX(q)(b>
r
p+q +1 p+q 1
·. r
1
r
... r
361
ι ρ,+q, 1 1(b) p.+q. p.+q. 1 1 1 1 (b)
ρ +q +1 p+q 1 1 (b)
„p+q p+q (b)
(b)
so ergeben sich die p a r t i e l l e n Ableitungen von λ(b) nach den Komponenten der Gewichtsvektoren f ü r i = 1 . . , p 1 und k=1 3λ (b) ik
Ρ,+q, p ^ q ! •
I I Vi=1 v
2
p+q
zu
p+q
(b)τ I Ϊ = 1 ω ^ ρ , ^ ^ + Ι ü) =Pj+q,| + 1Vi
1
2(b)
2
/ , -i .(r^ib) [ V L
(b)
P1 q1 P1 q1
3bi k
v
l i=1
v
l i=1
v^i pl+q1
P1+q1
vi-i
vi, νι,/Μ
Für i=p1+q1 + 1
p+q1 und k=1
V2
(b)·r (b) V2CO1
3r, (b). r (b) · r V 3 V l * (b) · ν3ω2 3bik .
+ f H (b) τ ν ωι ( b ) - r V l V 2 ( b ) 2
f
3r. ^
3r.
(bk
(b)
3bik
j^.-l sind die ersten p a r t i e l l e n Ab-
leitungen des Eigenwerts x(b) nach den Komponenten b? k der Gewichtsvektoren b p ^ + 1 .1(h, ik
b p gerade
p1+q1 p1+q1 P1+q1
Σ. Vi=1
Σ. v 2 =1
p+q
SL ( b ) - f v ( b ) - r V l V 2 ( b ) - r U l 1 ( b ) Σ. I 3 v 3 = 1 ü)i=p^+q^+ 1 Vi
,3r.
(b)
p+q
ωιν3 1
3r\,Jb) ωιν2 (
b
)
B t ik
ω3/Γ
p+q
1
p+q I W2 =P 1 +q 1 + 1 ι ^ Ρ ^ , + Ι
3r, (bh] (b).rW2U3(b).—^ J
V3Ü)2
Unter Verwendung der p a r t i e l l e n Ableitungen der verschiedenen Skalierungsfunktionen, können nun G>w.dle.ntinveA(la.h>iw,
wie z . B . die von Davidon/Flet-
Kapitel V: Skalierung qualitativer Daten
362
eher/Powell' ( v g l . Fletcher/Powell
(1963)) oder P o l a k / R i b i e r e ( v g l .
Polak/
R i b i e r e (1969)) verwandt werden, um d i e Funktionen zu o p t i m i e r e n ; man v g l . h i e r z u auch die Bücher von z . B . Himmelblau ( 1 9 7 2 ) , Blum/Oettli Großmann/Kleinmichel
(1975),
(1976). Dazu werden StaLKtWJvt2b2
//ö
1
r- 1 4 (b) r 2 4 ( b ) r 3 4 ( b )
u
2
b
2
/ ^
1b1b2b2
rn(b1)
r23(b) r24(b)
r13(b) r23(b)
2
= 24
r12(b) r,3(b) r14(b)' 1
x
b^iU2b2//bXbfb 112 2
bzw. mit 1J1 = 2 1 , ^ = 2 2 , ö 2 = 2 3 > 1
l2^b1,b2^ 1
b1b1
b
r12(b)
, y^ gerade
r
11(b1>
r34(b)
r12(b1,b2)
1
r21(b1)
,
1
r12(brb2) r12(b2)
r12(b2) '12
r21(b1) '12 r22(b2)
r22(b2)
Nun müssen zunächst Startwerte b° = bf°, b£ = b|° flir die Gewichtsvektoren b 1 = b* und b 2 = b* bestimmt werden. Dazu skalieren wir Ö1 gegen ö 2 , y 1 gegen \
und ü 2 9 e 9en X^ und mittel η dann die beiden resultierenden Werte für b^
und b 2 · Bei der Skalierung von 0.01667 -0.00962 -0.00962
gegen ö 2 e r g i b t s i c h , v g l . Abschnitt 1.2, -0.00962 0.22778 -0.21667
-0.00962 -0.21667 0.22778
mit λ 6 = 0.44444
und
f = (0,-1,1)T
so daß s i c h wegen a 1 = 0 , a 2 = - 1 K T S und α 3 = 1/\TJ die Skalenwerte für das Merkmal y 1 zu "11
0 ,
y 1 2 = -\Γ577 ,
13 =
Kapitel V: Skalierung qualitativer Daten
365
ergeben; weiterhin berechnet sich dann e 1 = - 2 / \ Γ Ζ 7 , ß 2 = 0 , ß 3 = 2/vTZ7 , und die Skalenwerte für das Merkmal ö 2 sind '21
= -\T573 ,
y22 = 0 ,
y „ = \T573 23
Nun wird das Merkmal y 2 gegen X^ skaliert. Dazu fassen wir die Ausprägungen von X^ als Kategorien auf,d.h. wir bilden die Kontingenztafel
aus Iah.42
aus der sich die Matrix 7
-νΠ7
-3
-\Π7
6
-\ΓΤ7
-3
-vTT?
7
ergibt, vgl. auch Abschnitt 1.2.
tah.42: Kontingenztafel
3
7
8
9
10
12
15
17
25
I
1 2 3
0 0 0 ·. 1 1 0
0
0 1 0
0
0
0 1
0 1
1 0 0
1 0 0
0
1 0
1 0
1 0 0
3 4 3
I
1
1
1
1
1
1
1
1
1
10
V i ö 2 \
2
für die Skalierung von y - gegen X
1
Der größte Eigenwert der Matrix Q ist hier Ag = 1
f = (1,-/3,1)T
mit
,
so daß sich α, = 1/V~3 ,
α 2 = -sT37i ,
α3 =
W ~ 3
und somit y21 = vTZ73,
y22 = - / 3 7 7 ,
y 3 2 = \T273
ergibt. Bei Verwendung des anderen angegebenen Verfahrens zur Skalierung
kategoriel-
ler gegen stetige Merkmale hätten sich hier mit b'-(R* 2
^ U ^
)T / '
J7* v
K
fR*
X1U2tKXlU2;
)T-..
J - J '
0
·
5 4 5 7 1
)
-
ί-°·819081
" 0.66625[-0.38222J " [-0.57369J
die Skalenwerte für das Merkmal y 2 ergeben zu yi. = 1.50600, yX? = - 0 . 4 7 2 2 6 , y'
=-0.87632
366
Kapitel V: Skalierung qualitativer Daten
Genauso s k a l i e r e n w i r nun noch ausgehend von I a h . 4 3 das Merkmal y . gegen
Cab.43: K o n t i n g e n z t a f e l \ * 2
f ü r d i e S k a l i e r u n g von y . gegen X
2
5
10
12
15
17
20
21
23
l
1 2 3
0 0 1
0 0 1
0 1 0
2 0 0
0 0 1
0 1 0
1 0 0
0 1 0
1 0 0
4 3 3
l
1
1
1
2
1
1
1
1
1
10
« X j
Hier ergibt
sich
=
TÜ
6
-\ΓΪ2
-\Π7
-νΠ2
7
-3
-VM2
-3
7
mit AQ = 1
und
f = (-v/3,1,1)J
d.h. o 1 = -\J 3/4 ,
α2=1/\/3
,
a3 = \ M 3
und somit y11=-\/37?,
y12 =
2/3 ,
y
n
= V2/3
A l s m i t t l e r e n Skalenwertevektor e r h a l t e n w i r aus diesen paarweisen
Skalie-
rungen y
1
= (y
11,y12'y13)T
=
( - 0 - 6 1 2 3 7 , - 0 . 2 3 7 2 5 , 1 .05375) T
bzw. y 2 = ( y 2 1 . y 2 2 , y 2 3 ) T = (-0-23725,-0.61237,1 .05375)T so daß w i r a l s Startwerte f ü r die Maximierung der kanonischen zwischen
und Q ^ & z
Korrelation
Vektoren
b° = b * ° = Lj^ •y 1 = ( 0 . 4 9 1 1 5 , 2 . 1 8 1 4 7 ) T
,
b° = b * ° = L^ - y 2 = ( - 0 . 4 9 1 1 5 , 2 . 18147) T verwenden. Die m i t t l e r e n Skalenwertevektoren y^ und y,, können noch auf V a r i a n z normiert werden, bevor b° und
berechnet werden. H i e r würde s i c h
yj = (-0.86602,-0.33552,1.49023)T
,
Eins
Kapitel V: Skalierung qualitativer Daten
367
=(-0.33552,-0.86602,1.49023)T und daraus dann = ( 0.69459,3.08506)T
,
b^0= (-0.69459,3.08506)T e r g e b e n . Da a b e r i n t e r n wegen d e r D i v i s i o n d e r G e w i c h t s v e k t o r e n d u r c h i h r e Norm d i e s e a u f Länge E i n s n o r m i e r t w e r d e n , h a t d i e Normierung d e r m i t t l e r e n S k a l e n w e r t e v e k t o r e n k e i n e n E i n f l u ß a u f d i e S k a l i e r u n g und kann daher auch u n t e r l a s s e n werden. Für d i e s e S t a r t w e r t e b e r e c h n e t s i c h 1 Rz(b°) = -0.65271 0.41667 -0.63486
-0.65271 1 -0.25302 0.92344
0.41667 -0.25302 1 -0.16724
-0.63486 0.92344 -0.16724 1
und s o m i t i s t d i e k a n o n i s c h e K o r r e l a t i o n von
und X 2 ,JJ 2 9 e r a t * e d i e
Q u a d r a t w u r z e l aus dem g r ö ß t e n E i g e n w e r t A ( b ° ) = 0.86959 der M a t r i x 1 •0.65271
-0.65271)' 1
J
ί 0.41667 [-0.63486 d . h . es
0.41667 -0.25302
-0.63486) 0.92344)l-0.16724
-0.25302) _ f 0.17252 0.92344J " ^ - 0 . 5 0 5 1 4
-0.16724)
-0.09517) 0.80062J
ist r ( b ° ) = V 0.86959 = 0 . 9 3 2 5 2
Wir b e n ö t i g e n nun im e r s t e n S c h r i t t E i g e n v e k t o r e n f ( b ° ) , g ( b ° ) m i t g ( b ° ) T f ( b ° ) = 1, z . B . f ( b ° ) = ( 1 . 0 0 0 0 , - 7 . 3 2 4 0 ) T , g(b°) = ( 0 . 0 9 0 0 , - 0 . 1242)T sowie d i e p a r t i e l l e n A b l e i t u n g e n d e r Elemente von R „ y ( b ° ) bzw. R z ( b ° ) nach den Komponenten b ^ , b ° 2
von b° und b ^ , b ° 2 von b i j . H i e r e r g i b t
3rn(b°) :-0.04014 3 b
3rn(b°)
0.00904
n
3r12(b°) 3 b'
11
= 0.04103
ar12(b°) 3b
12
-0.00924
sich
368
Kapitel V: Skalierung qualitativer Daten
3r ? 1 (b°)
3r ? 1 (b°)
β
ά
= -0.26890 ,
= -0.06054 ,
3022 3r„(b°) β c =-0.28196 ,
3r,,,(b°) g ^ =-0.06348 , 3b22
3r12(b°b°) 3r1?(b°b°) c —' =-0.10907 , — u 0 ' ί = 0.02456 , 0' 3b11
3b12
3r1?(b°b°) 3r.?(b°b°) — — — = 0.10907 , — ü - j J — — = 0.02456 ,
und a l l e übrigen partiellen Ableitungen haben den Wert Null, so daß sich die partiellen Ableitungen des größten Eigenwerts X(b°) ergeben zu 3A(b°) _ .Q.02Q3 3b
s
3b
11
3A(b
3X(b°) = 0.0Q47
° } = 0.0015
und
,
12
3A(b0) 3b
= 0.0003
22
Bestimmt man nun die Vektoren b!, b! im ersten S c h r i t t mittels des einfa1' 2 chen Vorgehens b
ik
= b
ik
+
für 3b
i=1
ik
.2
und
k=1
'2 .
so erreicht man hier nur noch eine leichte Verbesserung der kanonischen Korrelation gegenüber dem Anfangswert 0.93252. Die Anfangswerte für b^ und b 2 liefern also schon nahezu ein zumindest lokales Maximum, dem man sich mittels obigen Verfahrens nur noch wenig nähern kann. Hier müßten dann f e i nere Verfahren, z.B. das von Davidon/Fl etcher/Powell, v g l . Fletcher/Powell (1963), welche die zweiten Ableitungen aus den ersten nachbilden und benutzen, eingesetzt werden. Um die Vorgehensweise an obigem einfachen Gradientenverfahren jedoch zu demonstrieren, setzen wir hier einmal θ = 0.4, was eine geringfügige Vergrößerung der kanonischen Korrelation bewirkt. Es ergibt sich dann mit 9 = 0.4 b] = b * 1 = (0.48283,2.18335) T , b ^ b * 1 = (-0.49055,2.18159) T
Kapitel V: Skalierung qualitativer Daten
369
und somit
1 Rz(b') =
-0.65235 0.41768 -0.63521
-0.65235 1 -0.25319 0.92344
0.41768 -0.25319 1 -0.16742
-0.63521' 0.92344 -0.16742 1
Die kanonische Korrelation wird dann
r(b ) V
x(b1)
V 0 . 8 6 9 7 7 = 0.93261
Wir wollen nun noch die Skalenwerte für y^ und y 2 angeben, die aus b| und b 2 resultieren. Diese Skalenwerte können dann in die Datenmatrix aus Tab.41
ein-
gesetzt werden, so daß dann die Verfahren für metrische Merkmale zur Analyse von Zusammenhängen zwischen X 1 ,y 1 (Verkauf) und X 2 > ö 2 (Werbung)
eingesetzt
werden können. Der Vektor der Skalenwerte für das Merkmal y . ergibt sich aus 1 b 1 zu τ , α, = (-0.86271,-0.34121,1.49149) und der für y 2 ergibt sich zu a 2 = (-0.33593,-0.86579,1.49031 ) T eine WHAXQAH
AuiuiztUung
;
dieses Beispiels erfolgt im Abschnitt 1.3 von Kap•
iJ
6 KORRESPONDENZANALYSE, GUTTMANSCHE SKALIERUNG UND DIE ALS VERFAHREN Im letzten Abschnitts dieses Kapitels wollen wir noch kurz einige weitere Skalierungsverfahren ansprechen, die zum Teil bei der Skalierung
zweier
kategorieller Merkmale mit den Verfahren aus Abschnitt 1.2 zusammenfallen.
Bei der KoVLeApondenzanaly&e.
und auch bei der G o t t m a n i c h & n
ShatieAung
zweier kategorieller Merkmale X und y mit c bzw. l Ausprägungen, vgl. z.B. Guttman (1941), Escofier - Cordier ( 1969), Hill
( 1974), Cailliez/Pages
Bock (1980), wird jedem der Merkmale eine {0,1} - wertige c -
(1976),
bzw. ί,-di-
mensionale Zufallsvariable U bzw. V zugeordnet. Die Realisation einer solchen Dummy - Variablen ist stets ein c -
bzw. i - dimensional er Einheitsvek-
tor, wobei die 1 an der k-ten Stelle steht, wenn für das Merkmal X bzw. y die k - t e Ausprägung beobachtet wird. Werden die beiden Merkmale an η Objekten beobachtet, so entsteht durch Hintereinanderschreiben der Realisationen von U und V eine nx(c+i.) - dimensionale Datenmatrix A , deren Elemente nur Nullen und Einsen sind, und zwar stehen in jeder Zeile genau zwei
370
Kapitel V: Skalierung qualitativer Daten
Einsen. Berechnet man nun unter Verwendung dieser Datenmatrix die Kovarianzmatrizen 0
n 1.
0
. .
0
.
0
*
n 1.'
(n 1 ,n 2 ,
. .nc.
n 2.
1
II
IS)
n 2.
"n2' 0 S S = 1— · ΰ νν η
0
•nc.·
0 0
;
n.2
0
. .
0
.
0
·
n.l' (n.1'n.2 n.
1
;
2
V
0
für U und V, wobei n^ , . . . , n c
, η ^ , . , . , ή ^ die Spaltensummen der Daten-
matrix bezeichnen, sowie die Kreuzkovarianzmatrix
s^UV= 1η .
n 11
· •
n
n 21
*
n2H
•
U
V 1
(η^,.,.,η^)
n 2.
~n2' ^nc1
so werden bei der
* •
nc£-
KowieApondenzanalyiz
n c.·
die
Skale.nwe.fLte.
für die c Ausprägungen
des Merkmals X a l s gewichtete, normierte Eigenvektoren zum größten Eigenwert X^g der Matrix S
Uli
-s -S -S UV VV UV
und die Skalenwerte für die l Ausprägungen des Merkmals y a l s gewichtete, normierte Eigenvektoren zum größten Eigenwert Agg der Matrix S" .ς τ -S" -S VV UV UU UV bestimmt, wobei S ^ und Sj" n, generalisierte Inverse von S MII und S „ „ bezeichJVV JVV UU nen, z.b. l / n 1.
0
1/n
0
1/n
1/n .2 ···
VV '
0 Natürlich i s t hier
0
2. ···
JUU
0
... 1/n
0
. . . 1/n
Λ·
371
Kapitel V: Skalierung qualitativer Daten
A
1G
X
= r
2G
UV
das Quadrat der kanonischen K o r r e l a t i o n von U und V, v g l . A b s c h n i t t 1.4 in K a p . I I I . Da ^uu*^UV*^VV*^UV 9 e r a c ' e i d e n t i s c h mit der Matrix Q des Verfahrens aus A b s c h n i t t 1.2 i s t , erweist s i c h die Korrespondenzanalyse a l s
äqui-
v a l e n t zur Lancaster - S k a l i e r u n g . Auch die Guttmanichz
SkatieAung
zwe-teA kaXzgohA.eJULzn. M&lkmxlz
erweist s i c h
a l s i d e n t i s c h mit dem Verfahren aus A b s c h n i t t 1.2. Guttman f a ß t die Datenmatrix Α a l s zweidimensionale Kontingenztafel auf und s k a l i e r t mit dem Verfahren aus 1.2 die Objekte gegen die beiden Merkmale. Z u s ä t z l i c h zu den ^öt U 3 bzw. \l y
V 2 , V 3 zu den kanoni-
sehen Variablen M^ =a|-U und M 2 = a m2 » UU zu R
/ / a ^ R u u a 1 = (0.31284,-0.99640,0.46880) UUa1'
,
374
Kapitel V: Skalierung qualitativer Daten
'rU2M2'rU3M2
(
v
(
V i 'Γν2ΜΓΓν3Μ1
( r
V12
2
'rV2M2'rV3M2
(-0.96212,0.12660,0.86281)
,
(0.04106,-0.92471,0.83881)
,
(-0.99994,0.40802,0.51923)
ergeben, v g l . auch Abb.3.
M2· •U3
K
0.5-
x
v3
v2
•u2
0T1-
o!i
-0.5
O!5
M
1
-0.5-
„V,
.Ui
Abh.3: Darstellung der Ausprägungen (bzw. zugehörigen Dummys U,|,U 2 ,U 3 , V^,V,,,V 3 ) der Merkmale X und y im Raum der kanonischen Variablen M,| und Mg
Würde man diese Korrelationen normieren, so würden n a t ü r l i c h U^.UgjU^, V p V g . V g a l l e auf dem E i n h e i t s k r e i s l i e g e n , da die Matrix Q nur zwei pos i t i v e Eigenwerte b e s i t z t . Das h i e r beschriebene Verfahren der kanonischen K o r r e l a t i o n s a n a l y s e kann n a t ü r l i c h auch in dem F a l l e verwandt werden, v g l . Abschnitt 1.4 in K a p . I I I , daß die kanonischen Korrelationen zweier Gruppen von Merkmalen X ^ , . . . , * und U
1
. . d i e
dann an die S t e l l e der Dummys t r e t e n , a n a l y s i e r t wer-
den. Abschließend wollen wir noch kurz auf die sogenannten ALS - VeAiahAnn
ein-
gehen, die von Young, De Leeuw und Takane entwickelt wurden, v g l . De Leeuw/
Kapitel V: Skalierung qualitativer Daten
Young/Takane (1976) sowie die nachfolgenden Arbeiten dieser Autoren in der Psychometrika und Young (1981). Die ALS (aZXMncuUng
leaAt
iqucvieA)
"Ver-
fahren sind zweistufige, iterative Algorithmen, die für vorgegebene statistische Modelle in der ersten Phase zu festen Model 1 Parametern Skalenwerte für Merkmalsausprägungen und in der zweiten Phase für vorgegebene Skalenwerte Model 1 parameter liefern, so daß die Anpassung an das Modell nach dem Prinzip der kleinsten Quadrate möglichst gut ist. Für multiple Regressionsmodelle heißt das Verfahren z.B. MORALS (multiple optimal regression by alternating least squares), für kanonische Korrelationsmodelle (multivariate Regressionsmodelle) z.B. CORALS (canonical optimal regression by alternating least squares), für die Hauptkomponentenanalyse PRINCIPALS (principal component analysis by alternating least squares) usw. Ein Nachteil der ALS - Verfahren ist, daß sie teilweise gar nicht und sonst nur gegen ein lokales Optimum konvergieren.
375
Kapitel VI: Die multidimensionale Skalierung (MDS)
Die Zielsetzung der nvZ£idime.niiotu>ale.n
SkalieAung
(MPS) i s t die Beschrei-
bung von η Objekten durch eine q - dimensionale Datenmatrix, die im F a l l e q O
auch zur graphischen Repräsentation der Objekte verwandt werden kann,
vgl. Abb.l.
m
D
Ε •
Abb.l: Darstellung von f i k t i v e n Objekten Α bis J in einem dreidimensionalen Repräsentationsraum a l s Ergebnis einer multidimensional en Skalierung
Wir suchen bei der multidimensional en Skalierung a l s o eine Skala, die jedem der η interessierenden Objekte einen q - dimensionalen Vektor zuordnet, den wir für das i - t e Objekt bezeichnen wollen mit yi = ( y i 1 » . . . , y i q ) T
für i = 1 , . . . , n
Die Verfahren der MDS, von denen wir im folgenden die wohl wichtigsten behandeln werden, gehen von unterschiedlichen Datensituationen aus. Sie benötigen KhntLc.hkeJXiiniofumXX.onzn
Uber die Objekte, die zum einen aus einer
ρ - dimensionalen Datenmatrix bestimmt werden können, v g l . Abschnitt 6 in
378
Kapitel VI: Die multidimensionale Skalierung (MDS)
in Kap.I, zum anderen aber auch direkt beobachtet werden können. Zunächst wollen wir hier einige typische Situationen beschreiben, bei denen die multidimensionale Skalierung zur Anwendung kommt.
Be^iipZil: (a) Einer Jury bestehend aus 10 Personen werden 20 verschiedene Weinsorten zur Probe ausgeschenkt. Jede Person bewertet die Verschiedenheit von je 2 Weinsorten mit einer Punktzahl zwischen 0 und 5. (Die zu vergebende Punktzahl soll um so größer sein, je stärker sich zwei Weinsorten unterscheiden.) Für jede der Verschiedenheiten zwischen je zwei Weinsorten liegen dann 10 Bewertungen vor und als Distanzindex wird z.B. jeweils der Mittelwert oder der Median dieser Bewertungen gewählt. Alle so erhaltenen Distanzindizes bestimmen dann eine Distanzmatrix D; auch genügt es, von den so erhaltenen Distanzindizes lediglich ihre Rangzahlen innerhalb aller Distanzindizes zu verwenden, je nachdem, welches Verfahren der MDS man benutzt. Nun möchte man sich die Lage der Weinsorten zueinander bzgl. der Verschiedenheit graphisch veranschaulichen. Dazu bestimmt man mittels miltidimensionaler Skalierung zu jeder Weinsorte z.B. einen 2 - dimensionalen quantitativen Vektor und stellt diese 20 Vektoren in einem Koordinatenkreuz graphisch dar. (b) Aufgrund einer Entfernungstabelle zwischen 50 Städten der Bundesrepublik Deutschland, die ja eine Distanzmatrix D darstellt, kann mittels multidimensionaler Skalierung eine Landkarte, in der diese Städte eingezeichnet sind, erstellt werden: Für jeden Ort bestimmt man einen zweidimensionalen Vektor, dessen Elemente dann die Lagekoordinaten der Städte sind. (c) In Interviews wurden insgesamt 300 Personen über bekannte Politiker befragt. Unter anderem beurteilten sie die Ähnlichkeiten bzw. Unterschiede zwischen je zweien der Politiker auf einer Punktskala von 0 bis 7. Kombiniert man die 300 Ähnlichkeitsbeurteilungen für jedes Politikerpaar zu einem einzigen Ähnlichkeitsmaß (z.B. durch Mittelwertbildung und/oder Rangbestimmung der Ähnlichkeiten), so entsteht eine Distanzmatrix für die Politiker, die sich mittels multidimensionaler Skalierung etwa in eine zweidimensionale quantitative Datenmatrix Uberführen läßt. Eine solche Datenmatrix erlaubt dann die graphische Darstellung jedes Politikers im Vergleich zu den übrigen in einer Ebene. (d) Beobachtet man an η verschiedenen Orten Merkmale, die die Umweltgüte bestimmen, so lassen sich Distanzindizes als Maße für die Ähnlichkeiten der Orte bzgl. ihrer Umweltgüte berechnen. Mittels multidimensionaler Skalierung können dann z.B. 2 - dimensionale Ortsvektoren
gewonnen wer-
den, die eine graphische Darstellung der Orte im Hinblick auf ihre Umwelt-
379
Kapitel VI: Die multidimensionale Skalierung (MDS)
glite, nicht im Hinblick auf ihre geographische Lage, ermöglichen
("Umweltgü-
tekarte"). (e) Aufgrund von Umfragen z.B. Uber die Beliebtheit von Filmstars lassen sich mittels multidimensional er Skalierung "Beliebtheitsskalen", etwa eine eindimensionale Anordnung der Filmstars, gewinnen. (f) Eine Umfrage über Eigenschaften von gleichartigen Produkten (z.B. Waschmittel ; Zigaretten; Getränke) kann mittels multidimensionaler
Skalierung
dahingehend ausgewertet werden, daß eine Konfiguration der Produkte im Blickwinkel
der Verbraucher entsteht. Eine graphische Darstellung der Kon-
figuration kann Aufschluß darüber geben, wo "Marktlücken" vorhanden und somit zur Entwicklung von Marketingstrategien
sind,
beitragen.
(g) Werden über längere Zeit die Anforderungen aus einem Lager registriert (Häufigkeit der Anforderung bestimmter Waren, Häufigkeit gemeinsamer Anforderung verschiedener Waren etc.), so läßt sich mittels multidimensionaler Skalierung eine dreidimensionale Konfiguration für die verschiedenen Lagerposten gewinnen, die dazu dienen kann, das Lager nach ökonomischen Gesichtspunkten neu einzurichten. (h) Im Rahmen der Kostenkalkulation bei der Angebotserstellung müssen sehr viele Einflußfaktoren berücksichtigt werden. Um den Kalkulationsprozeß sichtlich zu machen, können die Einflußfaktoren mittels
über-
multidimensionaler
Skalierung systematisiert werden, d.h. es können Gruppen ähnlicher Faktoren visuell
(bei höchstens dreidimensionalen Konfigurationen) erfaßt wer-
den .
Die Komponenten
der mittels multidimensionaler Skalierung gewonnenen
mensionalen Vektoren y^
y n lassen sich oft nur schwer
q-di-
-Lnte.\ptie£Le.ne.n:
Sie können in der Regel nicht eindeutig einem Faktor zugeordnet werden.
Im Beispiel
(a) etwa wird man wohl kaum sagen können, daß die erste Kompo-
nente des quantitativen Vektors zu jeder Weinsorte seiner "Süffigkeit" und die zweite etwa seiner "Blume" zuzuordnen ist. Im Beispiel
(b) hingegen
lassen sich die Komponenten der Ortsvektoren zu den Himmelsrichtungen
in
Bezug setzen. Das liegt aber daran, daß die Lage der Orte durch Längenund Breitengrade vollständig bestimmt ist. Die Dimension des quantitativen Vektors stimmt mit der Dimension eines Vektors, der die Lage eines Ortes vollständig bestimmt, überein. Bei den Weinsorten hingegen ist es sicherlich so, daß mehr als zwei Faktoren für die Verschiedenheit der Weine verantwortlich
sind.
Allgemein läßt sich wohl nur sägen, daß bei der Interpretation der Kompo-
380
Kapitel VI: Die multidimensionale Skalierung (MDS)
nenten eine Rückkopplung
zu den Ausgangsdaten u n e r l ä ß l i c h i s t . Da d i e s e
Rückkopplung in der Regel nur s u b j e k t i v s e i n kann, werden w i r in den noch folgenden konkreten B e i s p i e l e n die Komponenten n i c h t i n t e r p r e t i e r e n und d i e s e Aufgabe dem Leser ü b e r l a s s e n . Wir werden im folgenden v i e r Verfahren der multidimensionalen
Skalierung
kennenlernen. In den A b s c h n i t t e n 1 und 2 werden Verfahren der sogenannten metridahen
MPS (MMPS) behandelt, d i e konkrete Werte f ü r die Ä h n l i c h k e i t e n
von η Objekten, a l s o eine D i s t a n z m a t r i x , benötigen. Die Verfahren der met/vuchen
MPS (NMPS) hingegen, v g l . A b s c h n i t t 3 und 4 , benötigen nur
nichtIn-
formationen über den Grad der Ä h n l i c h k e i t von Objekten, d . h . etwa welches Objektpaar i s t s i c h am ä h n l i c h s t e n , am z w e i t ä h n l i c h s t e n usw.
Im e r s t e n A b s c h n i t t wird das Verfahren Nonlinear
Mapping
(ULM) behandelt.
Hier wird ausgehend von e i n e r D i s t a n z m a t r i x f ü r η Objekte, die d i e D i s t a n z i n d i z e s der Objektpaare e n t h ä l t , eine q - dimensionale Datenmatrix d e r a r t gewonnen, daß d i e zugehörige
e u k l i d i s c h e D i s t a n z m a t r i x die
ursprüngliche
D i s t a n z m a t r i x a p p r o x i m i e r t , und zwar s o , daß ein D i s t a n z i n d e x um so b e s s e r a p p r o x i m i e r t w i r d , je k l e i n e r er i s t . Dadurch werden l o k a l e S t r u k t u r e n timal"
"op-
beibehalten.
Der zweite A b s c h n i t t b e i n h a l t e t e i n
k l a s s i s c h e s MDS - V e r f a h r e n , das in
s e i n e r e i n f a c h s t e n Form auf Torgerson (1952,1958) zurückgeht, nämlich d i e Haupt - Koordinaten
- Methode..
Ohne S t r u k t u r e n in e i n e r D i s t a n z m a t r i x f ü r η
Objekte zu b e r ü c k s i c h t i g e n , wird h i e r eine q - dimensionale f ü r d i e Objekte gewonnen. Der V o r t e i l
Konfiguration
d i e s e s im E r g e b n i s o f t
unbefriedigen-
den Verfahrens l i e g t d a r i n , daß es sehr wenig Rechenaufwand e r f o r d e r t . Im A b s c h n i t t 3 b e s c h ä f t i g e n w i r uns mit dem l / e r f a h r e n von Kruikal,
bei dem
l e d i g l i c h d i e Anordnung der n ( n - 1 ) / 2 Objektpaare nach der S t ä r k e i h r e r V e r s c h i e d e n h e i t b e n ö t i g t wird ( P r o x i m i t ä t s d a t e n ) . Hier v e r s u c h t man d i e o r d i nale Reihenfolge der Objektpaare zu approximieren, d . h . man sucht eine
q-
dimensionale q u a n t i t a t i v e Datenmatrix f ü r d i e η Objekte d e r a r t , daß d i e L
- Distanzen der Objektpaare, v g l . A b s c h n i t t 6 in K a p . I , m ö g l i c h s t genau
die g l e i c h e R e i h e n f o l g e von Objektpaaren
liefern.
Oftmals i s t es s i n n v o l l , eine Verknüpfung
der
Verfahren
aus den A b s c h n i t t e n
1 b i s 3 vorzunehmen. Steht eine D i s t a n z m a t r i x zur Verfügung, so w i r d etwa m i t t e l s Haupt - Koordinaten - Methode eine q - dimensionale K o n f i g u r a t i o n
für
η Objekte bestimmt, d i e dann a l s S t a r t k o n f i g u r a t i o n f ü r Nonlinear Mapping d i e n t . Treten dann in den D i s t a n z i n d i z e s zur NLM - K o n f i g u r a t i o n noch zu
Kapitel VI: Die multidimensionale Skalierung (MDS}
381
viele Vertauschungen in Bezug auf den Grad der Ähnlichkeit in der ursprünglichen Distanzmatrix auf, so können diese mittels des Verfahrens von Kruskal ausgeglichen werden; das Kruskalsche Verfahren wird mit der NLM - Konfiguration als Startkonfiguration durchgeführt. Eine gänzlich andere Datensituation wie in den bisherigen Abschnitten wird von der Unfolding
- Technik,
die im Abschnitt 4 behandelt wird, erfaßt. Ur-
sprünglich wurde die Unfolding - Technik für den Fall entwickelt, daß für jedes Objekt eine I - Skala
(individual
icalz)
vorhanden i s t , die die sub-
jektive Reihenfolge der übrigen Objekte nach deren Grad der Ähnlichkeit zum Bezugsobjekt angibt (Vnä^nAmzdatm). Ausgehend von den η subjektiven I - S k a l e n wird bei der eindimensionalen Unfolding - Technik, die wir hier behandeln, eine
eindimensionale Konfiguration für die Objekte bestimmt,
die man dann auch J - Skala
(joint
bcatz)
nennt.
Bespiel:
(a) Mitglieder von Parteien (oder auch Mitglieder von Religionsgemeinschaften, Staatsbürger bestimmter Länder usw.) können nur subjektiv beurteilen, wie ähnlich andere Parteien ihrer eigenen Partei sind. Aus diesen subjektiven Ähnlichkeitsbeurteilungen werden z.B. durch Mittelwertbildung I - Skalen für jede Partei bestimmt, und mittels Unfolding - Technik entsteht eine eindimensionale Parteienskala. (b)
Die Ähnlichkeit wissenschaftlicher Zeitschriften eines bestimmten
Fachgebiets läßt sich v i e l l e i c h t daran messen, wie oft eine Zeitschrift in einer anderen z i t i e r t wird. I - S k a l e n für η Zeitschriften lassen sich dann etwa dadurch gewinnen, daß man zählt,wie oft jede Z e i t s c h r i f t sich selbst und jede der übrigen Zeitschriften z i t i e r t . Die betragmäßige Differenz der Eigenzitate und der Fremdzitate (für jede der übrigen Zeitschriften) gibt dann die (subjektive) Ähnlichkeitsrangfolge an. Mittels Unfolding - Technik erhält man dann eine eindimensionale Skala für die Zeitschriften. (c) Eine andere Möglichkeit des Einsatzes der Unfolding - Technik stammt aus der Piychologie.:
Sogenannte Idzalpunktikalzn
für η verschiedene Reize wer-
den dabei verwandt. Man läßt hierbei verschiedene Personen angeben, welcher Reiz für sie der ideale (IdeaZpunkt),
der nächstbeste usw. i s t . Die
I - S k a l e n erhält man dann, indem man jeweils über die Personenskalen mitt e l t , die den gleichen Idealpunkt angegeben haben. Diese Situation i s t natürlich beliebig übertragbar etwa auf BeZizbtheAjtiikalm für Personen oder Produkte etc. Somit kann die Unfolding - Technik z.B. gerade in den Bereichen MziHungi- und MaiktfioiAchung
wirkungsvoll eingesetzt werden.
382
Kapitel VI: Die multidimensionale Skalierung (MDSj
Die Gütz
ΖΛΆΖ/Ι VauutMang
der η Objekte im q - dimensional en Re-
präsentationsraum wird bei allen Verfahren der MDS (mit Ausnahme der Unfolding - Technik) durch eine Gixtzianktian
g = g ( y ^ . . ,y ) bewertet. Diese
Gütefunktion ist natürlich bei allen Verfahren unterschiedlich, da die unterschiedlichen Ausgangssituationen und Anforderungen der Verfahren berücksichtigt werden müssen. Gemeinsam ist den Gütefunktionen lediglich, daß sie den Wert 0 annehmen, wenn kein Informationsverlust gegenüber der Ausgangssituation eintritt, und um so größer sind, je größer der
Informationsver-
lust ist.
Neben den hier behandelten Gütefunktionen und zugehörigen Verfahren gibt es noch viele andere, die z.T. auch Nebenbedingungen berücksichtigen, vgl. etwa Shepard/Caroll
(1966), De Leeuw/Heiser (1980), die aber auch alle um so
kleinere Werte Werte annehmen, je besser die Repräsentation der Objekte bzgl. des jeweils gewählten Gütekriteriums
ist.
Eine weitere Gemeinsamkeit ist die folgende: Der minimale Wert der Gütefunktion für η Objekte wird um so kleiner je größer die Dimension q gewählt wird. Will man also nicht von vornherein diese Dimension q festlegen, sondern seine Wahl vom minimalen Wert der Gütefunktion abhängig machen, so kann man zunächst für q = 1
die optimale Konfiguration y^,...,y
jekte und den zugehörigen Wert g(y^
für η Ob-
y ) bestimmen, dann zu q = 2 über-
gehen, usw. Man wählt dann dasjenige q als Dimension des Repräsentationsraumes der η Objekte, bei dem durch Übergang zur Dimension q+1 keine "wesentliche" Abnahme des Minimalwertes der Gütefunktion g mehr erreicht wird.
Bei der metrischen multidimensionalen Skalierung lassen sich mit Ausnahme der Fälle n = 2 und η = 3, η Objekte nicht immer im (n-1) - dimensionalen Raum derart repräsentieren, daß kein Informationsverlust (Wert des Gütekriteriums gleich Null) auftritt, denn dazu müssen Ausgangsdistanzmatrix und Konfigurationsdistanzmatrix η=4
übereinstimmen. Daß dies bereits im Falle
nicht notwendigerweise der Fall
ist, zeigt nachfolgendes Beispiel
von
Drygas (1978), vgl. auch Kirsch (1978).
Be.-l>>pleZ:
Für η = 4 Objekte sei folgende 0 D = u
1
1 2 0
1
Distanzmatrix
1' 2
2 1 0 1 .12 10,
gegeben. Dann gibt es keine Vektoren y ^ ^ ^ ^ derart,daß die euklidischen Abstände
im dreidimensionalen
Raum
| | y ^ - y - II2 für i,j=1,...,4 gleich
383
Kapitel VI: Die multidimensionale Skalierung (MDS)
den Distanzindizes d ( i , j ) in der Distanzmatrix D sind. Dagegen reicht beim Verfahren von Kruskal, das in Abschnitt 3 beschrieben wird, ein Repräsentationsraum der Dimension n-1 immer aus, um η Objekte im Sinne der Kruskalschen Gütekriterien ohne Informationsverlust darzustellen. Die multidimensionale Skalierung kann e i n e r s e i t s a l s Vorstufe zu Verfahren angesehen werden, die eine quantitative Datenmatrix benötigen; solche Verfahren sind etwa die Faktorenanalyse, vgl. K a p . V I I I , oder die Regressionsanalyse, v g l . Kap. I I und Kap.X. Andererseits kann s i e andere Verfahren z.T. auch ersetzen: I s t man z.B. bei der Faktorenanalyse l e d i g l i c h an der Bestimmung von Faktorenwerten für die Objekte i n t e r e s s i e r t oder verwendet man s i e a l s Q - T e c h n i k , so kann auch die multidimensionale Skalierung an ihre S t e l l e gesetzt werden; a l l e r d i n g s kann der Bezug zu etwaigen beobachteten Merkmalen dann nur noch subjektiv und nicht mehr objektiv
(Korrelation mit den latenten Faktoren) herge-
s t e l l t werden. Liegt umgekehrt eine ηχρ - Datenmatrix bereits vor, so kann man natürlich über die Bestimmung von Faktorenwerten im Rahmen der Faktorenanalyse ebenfalls eine q - dimensionale ( q £ p ) Repräsentation der Objekte erzielen, wenn man die Faktorenanalyse nicht direkt a l s Q-Technik einsetzt. Lassen sich bei der Faktorenanalyse die Korrelationen von ρ beobachteten Merkmalen mit latenten Faktoren (also die Zusammenhänge von Merkmalen und Faktoren) repräsentieren, so besteht bei der multidimensionalen Skalierung die M ö g l i c h k e i t , d i e Ähntichk&iXzn
von MeAkmatzn unteAeJ-nandzi
zu
l&pläi&n-
t i & i m . Als Maß für diese Ähnlichkeiten können etwa die Bestimmtheitsmaße dienen; führt man dann ein Verfahren der MDS mit der Matrix der Unbestimmtheitsmaße a l s Distanzmatrix durch, so ergibt sich eine q - dimensionale Repräsentation für die Merkmale, vgl. auch das letzte Beispiel
in Abschnitt 2
Möchte man Objekte und an ihnen beobachtete Merkmale g l e i c h z e i t i g graphisch repräsentieren, so kann das Biplot - Verfahren aus Kap.IX eingesetzt werden. Im Kapitel IX finden sich g l e i c h z e i t i g Methoden zur graphischen Repräsentation der einzelnen interessierenden Objekte. Eine weitere Einsatzmöglichkeit für die multidimensionale Skalierung ergibt sich im Falle eines höchstens dreidimensionalen Repräsentationsraumes im Zusammenhang mit der K l a s s i f i k a t i o n von Objekten (Cl usteranalyse), veil. Kap.VII. Zum einen kann aufgrund der dann möglichen graphischen Darstellung
384
Kapitel VI: Die multidimensionale Skalierung (MDS)
v i s u e l l eine ICtaMe.neAMteÄZang faiin. die. Objekte,
vorgenommen werden, zum an-
deren lassen sich die Ergebnisse von Clusteranalyseverfahren in der MDS Konfiguration der Objekte veranschaulichen, vgl. auch das zweite Beispiel in Abschnitt 4.2 von Kap.VII. Abschließend sei noch auf den Unterschied zwischen der hier behandelten Art von Skalierung und der Skalierung in Kontingenztafeln, vgl. Kap.V, hingewiesen. Die MDS dient der Konstruktion einer q - dimensionalen Konfiguration für η Objekte ohne direkten Bezug zu konkret beobachtbaren Merkmalen. Die Verfahren aus Kap.V dienen der Skalierung von Merkmalsausprägungen nominal e r und ordinaler Merkmale: Jeder Merkmalsausprägung wird eine r e e l l e Zahl (unabhängig von einzelnen Objekten) zugeordnet. Wir beschäftigen uns hier im wesentlichen mit konkreten Verfahren der multidimensionalen Skalierung; bzgl. theoretischer Überlegungen zu Strukturen verschiedener Datentypen ihre Verwendbarkeit bei der MDS betreffend sei etwa verwiesen auf S i x t l
(1967), Beals/Krantz/Tversky (1968), Tversky/Krantz
(1970), Krantz/Luce/Suppes/Tversky (1971), Pfanzagl (1972), Krauth (1980).Die hier beschriebenen Verfahren sowie weitere Verfahren betreffend sei z.B. hingewiesen auf die Bücher von Coombs (1964), Green/Carmone (1970), Green/ Rao ( 1972), Romney/Shepard/Nerlove ( 1972), Ahrens (1974), Coombs/Dawes/ Tversky ( 1975), Kühn ( 1976), Kruskal/Wish (1978), Opitz (1978,1980), Ven (1980), Borg (1981), Schiffman/Reynolds/Young (1981), Davison ( 1983).
1
NONLINEAR
Uonllnmi
MAPPING
(WLM) i s t ein Verfahren der MMDS, das ausgehend von einer
Mapping
ηχρ- Datenmatrix X oder einer ηχη - Distanzmatrix D f ü r η Objekte eine nxq Datenmatrix Y (q ) ·
Raum i s t .
) i s t e i n e F u n k t i o n von n - q V a r i a b l e n ,
l i c h den K o o r d i n a t e n der Objekte
, J
gleich-
Maximierung
r e n , a u f das w i r n i c h t e i n g e h e n w e r d e n , f i n d e t man b e i Chang/Lee
Der mapping e r r o r g ^ ( y ^ , . . . , y
Anfor-
WÜLOK
ver-
Ableitungen.
Ausgehend von e i n e r S t a r t k o n f i g u r a t i o n y ° = ( y ^ , . . . , y ° q ) T , . . . . ( y ^ , . . . , y ^ q ) T der η O b j e k t e im q - d i m e n s i o n a l en Raum w i r d im Ji-ten S c h r i t t ( £ = 1 , 2 , . . . ) ο o e i n e neue K o n f i g u r a t i o n y 1 , . . . , y n f ü r d i e η O b j e k t e b e s t i m m t .
Dazu b e r e c h n e t man im ί,-ten S c h r i t t
zunächst f ü r
i,j =1,...,n,
i
3 3 für i = 1 , . . . ,5 und k = 1,2 die Konfiguration y ^ , . . . , y g für die fünf Autohers t e l l e r gemäß Cab.10. Damit ergibt sich im vierten S c h r i t t die Matrix der euklidischen Distanzen
392
Kapitel VI: Die multidimensionale Skalierung (MDS)
Cab.8: Hilfsgrößeri zur Berechnung der ersten und zweiten partiellen Ableitungen des mapping errors im dritten Schritt i
j
d(i,j)-d*(i,j)
1 1 1 1 2 2 2 2 3 3 3 3 4 4 4 4 5 5 5 5
2 3 4 5 1 3 4 5 1 2 4 5 1 2 3 5 1 2 3 4
0 0 -0 0 0 0 -0 -0 0 0 0 -0 -0 -0 0 0 0 -0 -0 0
d(i,j)
075 024 255 300 075 248 489 414 024 248 145 196 255 489 145 331 300 414 196 331
1 1 5 6 1 1 5 12 1 1 2 9 5 5 2 11 6 12 9 11
806 806 809 500 806 659 770 012 806 659 464 281 809 770 464 955 500 012 281 955
4
~yj1
2 2 yi2-yj2
0 -0 -1 -2 -0 -1 -2 -2 0 1 -1 -1 1 2 1 -0 2 2 1 0
880 238 571 044 880 118 451 924 238 118 333 806 571 451 333 473 044 924 806 473
0 1 1 -1 -0 0 1 -2 -1 -0 0 -2 -1 -1 -0 -3 1 2 2 3
d|(i,j)
967 311 997 265 967 344 030 232 311 344 686 576 997 030 686 262 265 232 576 262
1 1 2 2 1 1 2 3 1 1 1 3 2 2
1
3 2 3 3 3
307 332 541 404 307 170 659 679 332 170 499 146 541 659 499 296 404 679 146 296
Cab.9: Erste und zweite partielle Ableitungen des mapping errors im dritten Schritt nach y?. für i = 1 , . . . , 5 und k=1,2 ( m u l t i p l i z i e r t mit -1/(2-const)) 1 K
i
1 2-const
k
1 1 1 2 2 1 2 2 3 1 3 2 4 1 4 2 5 1 5 2
0 -0 0 0 0 0 -0 0 -0 0
3g
ρ Ρ a 9E(yf.— 1 2-const ,2 2 3 y ik
E i y 1 *— .2 y ik
008006414 088467990 104217619 001088510 130592876 025738020 211334319 044269435 031482590 017372025
0 -0 1 0 -0 0 -0 0 -0 -0
4)
006469824 961560664 356248129 279985862 146464804 850451665 650837725 429184664 258803654 291449759
3 Cab.10: Koordinaten y ^ für i = 1 , . . . , 5 und k=1,2 im dritten Schritt
ν
1
2
3
4
5
1
3 066
2 070
3 269
4.481
4 974
2
1 941
0 983
0 642
-0.037
3 221
393
Kapitel VI: Die multidimensionale Skalierung (MDS)
3
D|
y
("0.000 1.382 = 1.315 2.432 2.298
3 5 1.382 0.000 1.247 2.618 3.666
1.315 1.247 0.000 1.389 3.092
2.432 2.618 1.389 0.000 3.295
2.298' 3.666 3.092 3.295 0.000
und der mapping error zu g E (y^,...,y|) = 0.013624414
Das Verfahren wird hier abgebrochen, da gilt
gE(yf und die lokal
yg)-gE(y?,...,y5)-7.7-io"4 < ε ,
(bzgl. der Startkonfiguration aus Tab.1) optimale Darstellung
der 5 Hersteller im zweidimensionalen Repräsentationsraum wird festgelegt als y
3 3 1 ~ y 1 • ··· ' y 5 ~ y 5
·
d.h. die 5»2 - Datenmatrix für die Hersteller ist '3.066 2.070 Y = 3.269 4.481 4.974
1.941' 0.983 0.642 -0.037 3.221
Diese Konfiguration der Hersteller ist in der Ahb.2 auch graphisch dargestellt.
Zu bemerken ist noch, daß bei Nonlinear Mapping das Koordinatensystem des Repräsentationsraumes für η Objekte beliebig gedreht und verschoben werden kann, ohne daß sich der mapping error verändert. Als Startkonfiguration für Nonlinear Mapping kann man auch diejenige nehmen, die man mit dem Verfahren im nachfolgenden Abschnitt 2 erzielt; vgl. auch das dortige Beispiel
zur
Repräsentation von Merkmalen.
2 DIE HAUPT - KOORDINATEN - METHODE Das Skalierungsverfahren, das in diesem Abschnitt vorgestellt werden soll, ist eine Verallgemeinerung des klassischen MDS-Ansatzes von Torgerson (1952,1958); es benötigt nicht die Vorgabe einer Startkonfiguration weiteren
Iteration.
zur
394
Kapitel VI: Die multidimensionale Skalierung IMDS)
u
ausländische χ Hersteller (5)
3
2
American Motors (1)
x
1 •
Chrysler (21 * x
» 1
Ford (3)
1 ^
1 2
1 i X ^ General 5 Motors H )
y-i
-1 -
Abb.2: Konfiguration f ü r 5 H e r s t e l l e r im zweidimensionalen Repräsentationsraum nach Anwendung von Nonlinear Mapping auf die euklidische Distanzmatrix D
Torgerson ging davon aus, daß f ü r η Objekte eine euklidUche.
D =
0
d(1,2)
...
d( 1 ,n)
d(1,2)
0
...
d(2,n)
d( 1 ,n)
d(2,n)
...
V-UtanzmaXfilx
0
v o r l i e g t , und bestimmte eine r - dimensionale Konfiguration y 1 = ( y , 1 >— , y 1 r ) T v =(y
r
>• • •, y n = ( y n 1 .· · · >y nr ) T >
...,y
n
)
T
d-h· e i n e
nx|"
- Datenmatrix
,
f ü r die η Objekte, wobei r den Rang der p o s i t i v semidefiniten Matrix Ίη
Ί1 = Κ ·Α·Κ = η η ^b1n
···
b nn
bezeichnet;hier i s t A die ηχη - Matrix mit den Elementen a
und
ij
=
1 j2, . . \ " 2 d
f ü r
ί»>Μ»···>η
Kapitel VI: Die multidimensionale Skalierung (MDS)
1 η --!• w
*
1 .1 η
'''
η
.1
""
"η
ν
Diese r - dimensionale Konfiguration e r g i b t sich gerade aus den Eigenvektoren y ^ j = ( y l r . . . , y n l ) T schiedenen Eigenwerten λ ^
y ( r ) = ( y 1 r > . · · , y n r ) T zu den r von Null ver. . . j>X r der Matrix B, die so normiert sind,
daß g i l t f ü r £ = 1 , . . . ,r
.
Die Zeilenvektoren von Y nennt man auch r - dimensionale Haupt (principal
co -
Koordinaten
oldinatzi).
Wählt man als Dimension des Repräsentationsraumes nun eine Zahl q < r , so nimmt die Gütefunktion g 11 (1y 1 . . . . . y nn ) = " i 1 Σ (d2(i ,j) i=1 j=i+1
i ,j))
i h r Minimum an, wenn d * ( i , j ) f ü r i , j = 1 , . . . , n der euklidische Abstand der q - dimensional en Haupt - Koordinaten y^ = ( y 1 1 . - . . . y 1 q ) T
, · · · , yn = (yn1
ynq)T
i s t , vgl. Gower (1966). Ausgehend von euklidischen Distanzen d ( i , j ) , i , j = 1
n , f ü r η Objekte i s t
also durch die Matrix Y= (yr...,yn)T eine optimale Konfiguration der η Objekte im q - dimensional en Repräsentationsraum gegeben im Sinne des Gütekriteriums g1(y1.---.yn) = "f1 Σ (d2(i,j) -d^(i.j)) i=1 j=i+1 n-1 η Σ Σ ( d 2 ( i , j ) - f (y1K - yJ K, J 2 ) i=1 j=i+1 v k=1 >
I s t d i e ViitanzmWUx
D nicht
cuktidiich,
.
so i s t d i e K o n f i g u r a t i o n
noch in dem Sinne optimal, daß das Gütekriterium
y^,...,y
395
396
Kapitel VI: Die multidimensionale Skalierung (MDS)
minimiert w i r d , wobei 0
In
11
4(1,2)
. . . d*( 1 ,n)
d*(2,n)
...
=Κ„·Α*·Κ Γ , mit A * = - - n η η 2 )
V
sd*(1,n)
eine p o s i t i v s e m i d e f i n i t e Matrix mit r g B * £ q λ^ >_ . . .
d i e Eigenwerte von Β und
B* b e z e i c h n e t , f ü r d i e
i s t , v g l . Mardia
...
0
.
(1978),
>_λ* d i e Eigenwerte von
gilt
(
maxU^,0)
,
f ü r k=1
0
,
für
q
k=q+1,...,n
Andere G ü t e k r i t e r i e n , die d i e s e s Verfahren im F a l l e e i n e r
nichteuklidischen
D i s t a n z m a t r i x D m i n i m i e r t , f i n d e t man bei Mathar ( 1 9 8 3 ) . Es s e i noch erwähnt, daß s i c h bei diesem S k a l i e r u n g s v e r f a h r e n s t e t s eine K o n f i g u r a t i o n e r g i b t , deren Schwerpunkt im Ursprung des q - dimensionalen Koordinatensystems l i e g t , was gerade daher kommt, daß d i e M a t r i x Α bzw. A * von l i n k s und von r e c h t s mit Κ m u l t i p l i z i e r t w i r d , denn Κ b e r e i n i g t A, A* η η gerade um den M i t t e l w e r t . N a t ü r l i c h kann d i e s e s Koordinatensystem, wie bei N o n l i n e a r Mapping in A b s c h n i t t 1, b e l i e b i g gedreht und verschoben werden, ohne daß s i c h die Güte ändert. Sz-LipieZ:
Für n = 5 Autoherstel 1 er i s t im A b s c h n i t t 3 des Kap.V eine
5x7-
Datenmatrix angegeben. Im A b s c h n i t t 1, wo d i e s e Datenmatrix X auch noch einmal zu f i n d e n i s t , haben wir m i t t e l s N o n l i n e a r Mapping eine zweidimens i o n a l e K o n f i g u r a t i o n f ü r die fünf H e r s t e l l e r k o n s t r u i e r t . H i e r s o l l zum einen unter Verwendung i h r e r 7 - dimensionalen e u k l i d i s c h e n zum anderen unter Verwendung i h r e r 7 - dimensionalen
nun
Distanzen,
Mahalanobisdistanzen
das in diesem A b s c h n i t t beschriebene Verfahren e i n g e s e t z t werden, um j e w e i l s K o n f i g u r a t i o n e n f ü r die H e r s t e l l e r zu gewinnen. Zunächst e r g i b t s i c h unter Verwendung der zuktidiMckm
D=D eukl
0.000 1.382 1.356 2.286 2.704
1.382 0.000 1.418 2.170 3.265
f ü r d i e fünf H e r s t e l l e r die Matrix
1.356 1.418 0.000 1.644 2.950
2.286 2.170 1.644 0.000 3.627
2.704' 3.265 2.950 3.627 0.000,
V-UtanzmcUilx
Kapitel VI: Die multidimensiomle Skalierung (MDS)
0.000 -0.955 -0.919 -2.613 -3.656
-0.955 0.000 -1.005 -2.354 -5.330
-0.919 -1.005 0.000 -1.351 -4.351
-2.613 -2.354 -1.351 0.000 -6.578
397
-3.656 -5.330 -4.351 -6.578 0.000
und daraus dann die M a t r i x
h ^ h - i -
23.206 6.836 -2.354 -18.354 -9.334
6.836 38.216 3.001 -4.374 -43.679
-2.354 3.001 18.036 10.611 -29.294
-18.354 -4.374 10.611 70.736 -58.619
Um d i e zweidimensionalen Haupt - Koordinaten
-9.334 -43.679 -29.294 -58.619 140.926,
bestimmen zu können,
benötigen w i r nun d i e beiden größten Eigenwerte und
λ 1 = 7.55288
λ 2 = 2.70076
der M a t r i x B. Die zugehörigen auf Norm \7XJ bzw. vOT^ normierten
Eigenvektoren
s i n d gerade :d
= (-0.0215,-0.6562,-0.4866,-1.1796,2.3439)T
und (-0.6916,-0.8539,0.0255,1.1708,0.3491)
(2)
so daß d i e gesuchte K o n f i g u r a t i o n der 5 H e r s t e l l e r im zweidimensionalen D a r s t e l l u n g s r a u m durch die Datenmatrix
γ
-0.0215 -0.6562 ( y ( 1 ) . y ( 2 ) ) = -0.4866 -1.1796 2.3439
y5J
= ί^ι
-0.6916 -0.8539 0.0255 1.1708 0.3491
r e p r ä s e n t i e r t w i r d ; d i e s e K o n f i g u r a t i o n i s t i n der Abb.3 auch g r a p h i s c h dargestel l t . Der Wert des G ü t e k r i t e r i u m s g 1 ( y 1 , . . . , y g ) e r g i b t s i c h unter Verwendung der euklidischen
Distanzmatrix 0
d,(1,2)
...
d*(1,5)'
d*(1,2)
0
...
d*(2,5)
d*(1,5)
d*(2,5)
...
0
0.000 0.655 = 0.855 2.193 2.584
0.655 0.000 0.896 2.091 3.232
0.855 0.896 0.000 1.339 2.849
2.193 2.091 1.339 0.000 3.618
2.584 3.232 2.849 3.618 0.000
398
Kapitel VI: Die multidimemionale Skalierung (MDS)
, General Motors (4)
ausländische Hersteller (5) * Ford
(3)
y-i
American M o t o r s (1)
C h r y s l e r (2)
χ
- 1
·
Abb.3: Zweidimensionale K o n f i g u r a t i o n f ü r 5 A u t o h e r s t e l l e r bei Verwendung der Haupt - Koordinaten - Methode f ü r d i e e u k l i d i s c h e D i s t a n z m a t r i x D
der K o n f i g u r a t i o n y ^ , . . . , y g f ü r d i e H e r s t e l l e r zu g (yi,...,y 1
1
ö
4 5 ) = l l ( d 2 ( i , j ) - d 2 ( i , j ) ) =6.9594 i=1 j = i + 1
.
Möchte man a n s t e l l e e i n e r zweidimensionalen K o n f i g u r a t i o n f ü r d i e Autohers t e l l e r eine d r e i d i m e n s i o n a l e K o n f i g u r a t i o n bestimmen, so b e n ö t i g t man neben den b i s h e r verwandten Eigenwerten λ^, λ^ und Eigenvektoren y ^ , auch den d r i t t g r ö ß t e n
y^)
Eigenwert
λ 3 = 0.78048 der Matrix Β sowie den zugehörigen auf \/A 3 '(3)
normierten
Eigenvektor
= (0.5638,-0.6067,0.2608,-0.0715,-0.1465Γ
Die d r e i d i m e n s i o n a l e K o n f i g u r a t i o n
i s t dann gerade durch d i e Da-
tenmatrix
V =
bestimmt, d i e in Ahb.4 v e r a n s c h a u l i c h t
-0.0215 -0.6562 -0.4866 -1.1796 2.3439
-0.6916 -0.8539 0.0255 1.1708 0.3491
0.5638 -0.6067 0.2608 -0.0715 -0.1465
ist.
Bestimmt man d i e e u k l i d i s c h e D i s t a n z m a t r i x f ü r d i e s e K o n f i g u r a t i o n
399
Kapitel VI: Die multidimensionale Skalierung (MDS)
Abb.4: Dreidimensionale Konfiguration für 5 Autohersteller bei Verwendung der Haupt - Koordinaten - Methode für die euklidische Distanzmatrix D
0.000 1.341 D* = 0.907 2.283 2.680
1.341 0.000 1.247 2.159 3.265
0.907 1.247 0.000 1.379 2.878
2.283 2.159 1.379 0.000 3.619
2.680
3.265 2.878 3.619 0.000
und den Wert des Gütekriteriums 9,(Υ, J1VJ,1
yJ = I I ( d 2 ( i , j ) - d i ( i , j ) ) = 3.0527 i=1 j=i+1
,
so zeigt s i c h , daß in diesem F a l l e durch Hinzunahme einer Dimension die Güte der Skalierung beträchtlich erhöht wird. Nun wollen wir die Haupt - Koordinaten - Methode noch verwenden, um ausgehend von den Μahalanob^Ud-iitanzen für die fünf H e r s t e l l e r , die in der Matrix
D= D Mahal
0.00 1.70 1.86 3.05 2.70
1 0 1 2 3
70 00 97 98 31
1.86 1.97 0.00 2.11 2.70
3.05 2.98 2.11 0.00 3.86
2 3 2 3 0
70 31 70 86 00
zusammengefaßt s i n d , v g l . auch Abschnitt 3 in Kap.V, eine zweidimensionale Konfiguration der H e r s t e l l e r zu konstruieren. Hier ergibt sich die Matrix Α mit Elementen
- - 1j dj2,( i , j ) f ü r i , j = 1
5
400
Kapitel VI: Die multidimensionale Skalierung (MDS)
0.000 -1.445 -1.730 -4.651 -3.645
-1.445 0.000 -1.940 -4.440 -5.478
-1.730 -1.940 0.000 -2.226 -3.645
-4.651 -4.440 -2.226 0.000 -7.450
-3.645 -5.478 -3.645 -7.450 0.000
so daß w i r
:K
41.410 14.445 -11.490 -38.385 -5.980
1
5-A'K5
14.445 59.730 -7.580 -23.950 -42.645
-11.490 -7.580 22.110
12.590 -15.630
-38.385 -23.950 12.590 114.370 -64.625
-5.980 -42.645 -15.630 -64.625 128.880
erhalten. Die beiden größten Eigenwerte d i e s e r Matrix Β s i n d λ., = 7.74242
und
X 2 = 4.78568
und d i e zugehörigen auf Norm vTj" bzw. / X ^ normierten Eigenvektoren ergeben s i c h zu y
(1)
y
(2)
(0.3780,-0.2631 ,-0.3321 ,-1.8145,2.0317)T (-0.8820,-1.3632,0.1917,1.0747,0.9787)T
Die gesuchten zweidimensionalen Haupt - Koordinaten,und damit d i e K o n f i g u r a t i o n y^
y ^ f ü r die f ü n f H e r s t e l l e r , die s i c h aus diesen
Eigenvekto-
ren ablesen l a s s e n , s i n d in der Datenmatrix
Y = (
*i
y5
) T = (
y(i)'y(2)
)
=
0.3780 -0.2631 -0.3321 -1.8145 2.0317
-0.8820 -1.3632 0.1917 1.0747 0.9787
zusammengefaßt, v g l . auch Abb.5. Die M a t r i x der e u k l i d i s c h e n Distanzen der Vektoren
ergibt
sich
h i e r zu 0.000 0.802 1.287 2.939 2.489
0.802 0.000 1.556 2.890 3.279
1.287 1.556 0.000 1.725 3.327
Um den Wert des G ü t e k r i t e r i u m s g 2 ( y 1
2.939 2.890 1.725 0.000 3.847
2.489 3.279 3.327 3.847 0.000^ y 5 ) zu bestimmen, berechnen wir
d i e Eigenwerte der Matrix B: λ 1 = 7.74242, λ 2 = 4 . 7 8 5 6 8 , λ 3 = 1.18958, λ 4 = 0.94232 und M i t q = 2 e r g i b t s i c h dann
=0
Kapitel VI: Die multidimensionale
x General Motors
Skalierung (MDS)
ausländische Hersteller (5)
χ
Ford ( 3 ) x
-1
χ - 1
Chrysler
(2)
•
American Motors (11
χ
Abb.5: Zweidimensionale Konfiguration für 5 A u t o h e r s t e l l e r m i t t e l s Haupt Koordinaten - Methode bei Verwendung von Mahalanobisdistanzen ( i n D)
Wie b e r e i t s in der Einleitung dieses Kapitels erwähnt, s o l l nun noch an einem B e i s p i e l demonstriert werden, wie die multidimensionale Skalierung zur RzpiäAzniation
von Μ z h k m a l m verwandt werden kann. A l s Maß f ü r die
Ä h n l i c h k e i t zweier Merkmale Χ, Y wollen wir dabei ausgehend von ihrer empirischen
Korrelation r i h r e
Unbestimmtheit (1 - Bestimmtheitsmaß, v g l .
K a p . I I und I I I ) d(X,Y) = 1 - r ^ v = 1 - Β XY 'X.Y verwenden, d.h. zwei Merkmale werden hier a l s um so ähnlicher betrachtet, je k l e i n e r i h r Unbestimmtheitsmaß i s t .
Be.-Lbpie£:
Im Abschnitt 3 des Kap.V haben wir eine 5*7 - Datenmatrix f ü r
fünf Autoherstel1 er bestimmt; diese Datenmatrix bzw. daraus resultierende Distanzmatrizen der H e r s t e l l e r wurden in diesem Kapitel b i s h e r benutzt, um Repräsentationen für die H e r s t e l l e r zu gewinnen. Wir wollen nun die sieben Merkmale, die die Datenmatrix bestimmen, m i t t e l s multidimensionaler Skalierung derart graphisch repräsentieren, daß die Abstände zwischen den Merkmalen ihre Ähnlichkeiten widerspiegeln.
401
402
Kapitel VI: Die multidimensionale Skalierung (MDS)
Aus der Datenmatrix, d i e auch im A b s c h n i t t 1 d i e s e s K a p i t e l s angegeben
ist,
berechnen wir zunächst d i e empirischen K o r r e l a t i o n e n von je zweien der s i e ben Merkmale, d i e d i e R e p a r a t u r a n f ä l l i g k e i t der äußeren K a r o s s e r i e ( 1 ) , der inneren K a r o s s e r i e ( 2 ) , der E i s e n t e i l e der K a r o s s e r i e ( 3 ) , der Bremsen ( 4 ) , des A u t o m a t i k g e t r i e b e s ( 5 ) , der Stoßdämpfer (6) und der Vorderradaufhängung (7) s i n d . Daraus bestimmen w i r die zugehörigen Unbestimmtheitsmaße, die in der folgenden M a t r i x D zusammengestellt
Ό.000 0.789 0.880 0.131 0.849 0.597 0.578
0 0 0 0 0 0 0
789 000 558 911 579 298 286
0.880 0.558 0.000 0.831 0.943 0.919 0.910
0.131 0.911 0.831 0.000 0.963 0.879 0.836
sind:
0.849 0.579 0.943 0.963 0.000 0.448 0.783
0.597 0.298 0.919 0.879 0.448 0.000 0.137
0 578 s 0 286 0 910 0.836 0 783 0 137 0 000
Die M a t r i x D verwenden wir a l s D i s t a n z m a t r i x f ü r die sieben Merkmale und bestimmen nun eine zweidimensionale K o n f i g u r a t i o n y ° , . . . , y ° f ü r die Merkmale; dabei wollen w i r das Haupt - Koordinaten - Verfahren verwenden. Die M a t r i x Β e r g i b t s i c h zunächst zu Β = Κ-,·Α·Κ-, - 0 ..0138 - 0 ..1709 - 0 ..0991 0,.2508 - 0 ,.1189 - 0 ..0370 -0,.0049
- 0 ..1709 0,.1006 0,.0927 - 0 ..1953 0,.0342 0,.0571 0,.0815
- 0 ..0991 0..0927 0..3962 0,.0222 - 0 ..0950 - 0 .,1730 - 0 ,.1439
0..2508 - 0 ..1953 0..0222 0..3388 - 0 ..1428 - 0 ,.1657 - 0 ..1080
- 0 ..1189 0,.0342 - 0 ..0950 - 0 ..1428 0..3030 0..1024 - 0 ..0829
- 0 ..0370 0..0571 -0,.1730 - 0 ..1657 0..1024 0..1024 0..1139
- 0 ..0049 0,.0815 - 0 ,.1439 - 0 ..1080 - 0 ..0829 0..1139 0..1442
wobei Α die Matrix mit den Elementen
b e z e i c h n e t . Die beiden größten Eigenwerte und zugehörigen normierten
Eigen-
vektoren d i e s e r Matrix Β s i n d λ 1 = 0.776123 y(
1)
,
λ 2 = 0.555053
= (0.2857 , - 0 . 2 7 9 1 ,0.191 1 ,0.5749 , - 0 . 3 3 8 1 , - 0 . 3 1 3 7 . - 0 . 1 9 2 2 ) T = (0.2222,-0.2194,-0.6096,0.1548,0.0238,0.1790,0.1715)T
, ,
403
Kapitel VI: Die multidimensionale Skalierung (MDS)
so daß s i c h d i e zweidimensionale K o n f i g u r a t i o n y^
y ^ bzw. d i e zugehö-
r i g e 2x7 - Datenmatrix Y° f ü r d i e Merkmale zu
1
OT
Η
Y° =
=
OT ly 7
0.2857 -0.2791 0.1911 0.5749 -0.3381 -0.3137 -0.1922
0.2222
-0.2194 -0.6096 0.1548 0.0238 0.1790 0.1715
e r g i b t ; d i e s e K o n f i g u r a t i o n i s t in der Abb.6 auch g r a p h i s c h
Berechnet man d i e e u k l i d i s c h e 0.000 0.717 0.837 0.297 0.655 0.051 0.106 der Vektoren y °
0 0 0 0 0 0 0
717 000 611 932 250 714 612
veranschaulicht.
Distanzmatrix 0.837 0.611 0.000 0.855 0.825 0.798 0.781
0 0 0 0 0 0 0
297 932 855 000 922 262 383
0.655 0.250 0.825 0.922 0.000 0.670 0.550
0 0 0 0 0 0 0
051 714 798 262 670 000 121
0 0 0 0 0 0 0
106 612 781 383 550 121 000
y ° und v e r g l e i c h t s i e mit der u r s p r ü n g l i c h e n
Distanz-
matrix ( M a t r i x der Unbestimmtheitsmaße) D, so z e i g t s i c h , daß zwischen d i e sen Matrizen doch b e t r ä c h t l i c h e Unterschiede vorhanden
sind.
Daher wollen w i r nun noch das Verfahren N o n l i n e a r Mapping aus A b s c h n i t t 1 benutzen, um eine K o n f i g u r a t i o n f ü r die sieben Merkmale zu bestimmen. A l s S t a r t k o n f i g u r a t i o n wählen w i r dabei d i e mit der Haupt - Koordinaten - Methode gewonnene K o n f i g u r a t i o n y^ M ,-2 = 8.44·10
gE(y?.·. e r g i b t . A l s lokal
y ° , f ü r d i e s i c h der mapping e r r o r zu
( b z g l . der Haupt - Koordinaten - Lösung) optimale K o n f i g u -
r a t i o n e r h a l t e n w i r m i t t e l s N o n l i n e a r Mapping d i e K o n f i g u r a t i o n y^, bzw. d i e entsprechende 0.2267 -0.3734 -0.0882 0.3663 -0.8051 -0.4440 -0.3204
Datenmatrix 0.1160 -0.1206 -0.6592 0.0578 -0.1227 0.1661 0.2175
die in Abb.7 g r a p h i s c h d a r g e s t e l l t i s t . Die e u k l i d i s c h e D i s t a n z m a t r i x sieben Vektoren
e r g i b t s i c h zu
der
404
Kapitel VI: Die multidimensionale Skalierung (MDS)
α, «£ Χ .2
S- S3 Ol 4-> 4J
^
m
ÜJ (Β Λ ω ·•M_ ΙΛ f- c : φ φ Ιοί — , β φ : l/l jC υ s- sΙΛ Φ φ ·•- Ε -σ
χcsi
.Ξ ^ χ
ι •-Ϊ QJ
y
22
f ü r d i e fünf H e r s t e l l e r k o n s t r u i e r e n . Dabei verwenden w i r die Gütefunktion S t r e s s g 1
, =
n
™
07747^ 0 + 0.193 + 0.165 + 0) = y^T^y
12
y ] 2 = y ° 2 - 0 . 4 - 0 . 7 4 7 - ^ | | y = 1.68 - 0 . 4 - 0 . 3 5 8 = 1.54
.
.
414
Kapitel VI: Die multidimensionale Skalierung (MDS)
Cab. 12: A r b e i t s t a b e l l e
(1,2)
(i,j) d*(i
δ2(1
0
Φ
6
0(i
δ6(1
z u r B e s t i m m u n g d e r W e r t e 0.05 = ε
416
Kapitel VI: Die multidimensionale Skalierung (MDS)
2 muß nun die Konfiguration y.
2 y^ berechnet werden. Unter Verwendung der 1 1 10 ersten p a r t i e l l e n Ableitungen von ^ yg) ergeben sich f ü r
i = 1 , . . . , 5 und k=1,2 die in Cab.15 angegebenen Größen gemäß 2 1 4 = 4 -
8gs(yJ....,yJ) 0.4-0.416.— L
.
3yik
2 2 Cab.15: Werte y ^ der Konfiguration y^ \ i k \
1
2
3
1
-1.39
-1.51
-1.09
2.22
2.11
2
1.48
1.34
0.25
-0.89
3.36
4
2 yg im zweiten S c h r i t t
5
Die Tab.15 ermöglicht uns die Berechnung der euklidischen Distanzen
d|(i,j)
und damit die Bestimmung von < S i ( i , j ) , v g l . Cab.16. Aus Tab. 16 e r g i b t sich dann g s (yif
yg) =V 0.060 = 0.245
sowie
9s,nax
=V
23.792 =4.878
und das Verfahren wird wegen η i J J w j η i J g s ( y , . . . · >y5>/9S>nttx • 9 S ( y 1
J \ / J ^^S.max
0-416 0.245 T^TT-078
=
= 0.036 < 0.05 = ε in diesem d r i t t e n S c h r i t t abgebrochen. Die bzgl. der Startkonfiguration y . 2
2
i
y^ lokal optimale Skala wird somit s
a l s y^ =y.| , . . . , y5 = yß f e s t g e s e t z t , d.h. es e r g i b t sich die Datenmatrix -1.39 1.48' -1.51 1.34 Y= -1 .09 0.25 2.22 -0.89 2.11 3.36 die in Abh.8 auch veranschaulicht Die Güte der Konfiguration y^
ist. yg kann (nach Kruskal) a l s nahezu sehr
gut bezeichnet werden, da g i l t 9 S i&izck&a.naJLyAe. in Verbindung mit dem Goodz Pkiltip-i
v g l . Coombs ( 1964), P h i l l i p s ( 1 9 7 1 ) , der eindimen-
- AlgonJXhmLU,,
s i o n a l e n U n f o l d i n g - Technik b e s c h r e i b e n , was zu e i n e r eindimensionalen figuration y^,...,yn
A l t e r n a t i v zum Goode - P h i l l i p s - Algorithmus kann auch der Chzwikova. gofUthrnui
- Al-
bei der eindimensionalen U n f o l d i n g - Technik verwandt werden; man
v g l . h i e r z u Chernikova (1965) und Lehner/Noma
( 1 9 8 0 ) . Es s e i auch auf Ver-
fahren der Linearen Optimierung (Simplex - Verfahren e t c . ) hingewiesen, z . B . Vogel
Kon-
führt.
( 1 9 7 0 ) , Kall
vgl.
(1976).
Eine Erweiterung der U n f o l d i n g - Technik auf mehrere Dimensionen wird von Bennett/Hayes (1960) angegeben, v g l . auch Coombs ( 1 9 6 4 ) , Ven ( 1 9 8 0 ) .
4.1
DIE
METHODE
DER
DREIECKSANALYSE
Wir wollen nun zunächst d i e Methode der D r e i e c k s a n a l y s e b e s c h r e i b e n , mit deren H i l f e man ausgehend von den η I - S k a l e n f ü r die Objekte 1 , . . . , n zunächst eine P a r t i a l Ordnung der unbekannten n ( n - 1 ) / 2 Distanzen ( i , j=1
η i 2 v e r g l e i c h e n , a l s o stehen an zehnter b i s f ü n f z e h n t e r le
Stel-
Striche.
Im Schema der Tab.21 können d i e 2. und 3 . Z e i l e sowie S p a l t e , d i e 4 . und 5.
424
Kapitel VI: Die multidimensionale Skalierung (MDS)
lab.20: Aus den 6 I - S k a l e n resultierendes quadratisches 15x15 Schema (Ausgangspunkt der Dreiecksanalyse); d ( i , j ) = i j 12 12 13 14 15 16 23 24 25 26 34 35 36 45 46 56
1 1 1 1 1 1 1 1
13
14
15
16
23
24
25
26
0
0 0
0 0 0
0 1
0
0
0
-
-
-
-
1
-
-
1 1
-
0 0 0 0
-
-
1
-
-
1
-
-
-
1 1
1
1 0
-
-
-
1
-
1 1 1 0
0 0 0 -
-
1 1
1
-
-
-
-
-
-
-
-
0
0
-
-
-
0
-
-
-
0
0
-
-
-
0
-
-
-
0
1 1 1 0 0 1
0 0
0 0 0
0
-
-
-
0
0 0
-
1 1 0
34
35
36
45
1
1
-
-
-
-
1 0 0 0
1
-
-
-
-
0
-
-
-
0
-
-
-
0
0 0
0
-
-
-
-
0
0 0
1 1 0 0
1 0
-
0
-
-
1 0 0
1 1
56
-
1 1
1 1 1 -
1 1 1 1
-
0 0
46
1 1
1 1 1
-
1 1 -
1 0
1 1 0 1
0
-
tab.21: Z e i l e n - und spaltenvertauschtes 15x15 Schema aus Tab.20; d ( i , j ) = i j 16 16 15 26 14 25 13 24 36 23 35 12 34 46 56 45
15
26
14
25
_
13
24
1 1
-
23
35
12
1
_
_
-
-
1
1
1
-
-
-
-
1 1 1 1
1 1
ι 1 1 1 1 1 1
36
1
1
-
-
1 1
-
-
-
1 1
-
-
-
1
0
-
-
-
0
0 0 0
1 1 1
-
-
1
-
0 0
-
-
0
-
-
-
0
-
-
-
-
-
-
-
0
0 0
-
0 0 0 -
-
0 0 0
-
-
-
0
0 0
0
-
-
-
0 0 0 0 0
-
0 0 -
-
0 0
0 0 -
-
-
-
0 0 0 0 0
-
-
0 0 0
-
-
0 0 0
-
0
-
0 0 0 0 0
-
-
-
0 0 0 -
-
1 1
1
-
0
46
56
1
-
-
1 1 1 1 1
-
-
-
-
1 1 1 1 1 1
1 1 1 1
_ 1 1 1 1
1
-
-
-
-
-
1
1
1
-
-
1
0
0 0
-
45
-
0
-
-
0 0
34
-
1 1 1
0
-
Z e i l e sowie Spalte, die 6. und 7. Z e i l e sowie Spalte und die 7. und 8. Zeil e sowie Spalte miteinander vertauscht werden; außerdem kann die 11.Zeile bzw. Spalte an irgendeiner S t e l l e zwischen 10. und 15. Z e i l e bzw. Spalte stehen, sofern die Reihenfolge innerhalb der Spalten bzw. Zeilen 10, 12, 13, 14 ,15 beibehalten wird. Durch a l l e angegebenen Vertauschungen ändert sich nichts daran, daß im oberen Dreieck des Schemas nur Einsen und im unteren Dreieck nur Nullen stehen.
Für die Partial Ordnung der Distanzen bedeuten diese Vertauschungsmöglich-
Kapitel VI: Die multidimemionale Skalierung {MDSj
425
keiten, daß d(1,5) und d(2,6), d(1,4) und d(2,5), d(1,3) und d(2,4), d(2,4) und d(3,6) nicht miteinander vergleichbar sind sowie daß d(1,2) mit keiner der Distanzen d(3,5) > d(3,4) > d(4,6) > d(5,6) > d(4,5) vergleichbar ist. Unter Berücksichtigung dieser Tatsache ist die Partialordnung der Distanzen in Abb.10 graphisch dargestellt. Die oberste Distanz in dieser Darstellung ist die größte, nach unten hin werden die Distanzen immer kleiner; die Distanzen, zwischen denen keine von oben nach unten führende Verbindungslinie eingezeichnet ist, sind nicht miteinander vergleichbar.
d(1.6)
d(2,3) d (1.2)
d{3,5) d(3A)
I I I
d(4.6) d(5,6)
d(4.5J Abb.10: Aus Tab.21 resultierende Partialordnung der Distanzen d(i,j), i,j=1,...,6, i < j , zwischen 6 Objekten (Religionsgruppen)
Aus der Partialordnung in Abb.10 ergibt sich nun die eindimensionale ordinale Anordnung der 6 Objekte. Die Objekte 1 und 6 sind am weitesten voneinander entfernt, bilden also die Endpunkte der Anordnung; wir wählen hier einmal das Objekt 1 als Anfangsobjekt und das Objekt 6 als Endobjekt, d.h. 0(1) = 1 und 0(6) = 6 . Das dem Objekt 0( 1) = 1 ähnlichste Objekt ist Objekt 2, also ist 0(2) = 2 . Dem Objekt 0(6) = 6 ist das Objekt 5 am ähnlichsten, d.h. 0(5) = 5 . Weiter ist das Objekt 4 dem Objekt 6 am
426
Kapitel VI: Die multidimemionale Skalierung (MDS)
z w e i t ä h n l i c h s t e n ; w i r setzen a l s o 0(4) = 4 . Nun b l e i b t nur noch das Objekt 3 und die d r i t t e S t e l l e in der Anordnung ü b r i g , so daß w i r 0(3) = 3 s e t z e n . Die o r d i n a l e Anordnung der Objekte 0(1)
0(2)
0(3)
0(4)
0(5)
0(6)
e n t s p r i c h t h i e r a l s o gerade der Anordnung 1
2
3
4
5
6
.
Wir s t e l l e n nun die 15 D i s t a n z - Gleichungen j-1 j-1 d(0(i),0(j)) = d(i,j) = l d(0(k),0(k+1)) = \ d(k,k+1) k=i k=i in der durch die P a r t i a l o r d n u n g vorgegebenen Reihenfolge
auf; nicht ver-
g l e i c h b a r e D i s t a n z - Gleichungen werden dabei durch zwei verbundene K r e i s e gekennzeichnet; v g l . Cab.22. Cab.22: D i s t a n z - Gleichungen in der durch d i e P a r t i a l o r d n u n g aus Abb.10 v o r gegebenen Reihenfolge
d(l
c
6) = d (1 2) + d ( 2 , 3 ) + d ( 3 4) + d (4 5) + d ( 5 6 )
d ( l , 5 ) = d ( l 2) + d ( 2 3) + d ( 3 4) + d ( 4 , 5 ) d ( 2 6) d(l
IT C
ο
d(2
5)
d(l
3) = d ( l 2)
DER
=
d (2 4)
=
d ( 3 6)
=
d(2
3)
d(l
2) = d ( l 2)
=
d(2
3) + d ( 3 4)
d ( 2 3) + d ( 3 4) + d ( 4 5) + d ( 2 3) d ( 2 3) + d ( 3 4) d ( 3 4) + d ( 4 5) + d ( 5 6) d(2
3)
d 0 für i = 1 , . . .,m, a,. >0 f ü r k=1 k,u —
m und u=1,... ,n-1 sowie d P ' , . . . , d ' 1 j > 0. ι n-1
Beim Goode - Phil 1ips - Algorithmus wird nun im t-ten S c h r i t t
(t=1,2,...,m-
( =n(n-1)/2 - 1)) die (m-t) - t e Z e i l e des Gleichungssystems d = A(t»-d(t) mit
,(t) «(t)
ä(t)
1,1
1 >s« ak
.(t)
U ÜL° f ü r
k = 1 , . . . ,m und u = 1 , . . . , s t
a«1' m,s.
( n a t ü r l i c h i s t s^ = n-1) und d^)
1
verglichen mit den d i r e k t darunterliegenden Z e i l e n , mit denen s i e gemäß der Partialordnung vergleichbar
ist.
428
Kapitel VI: Die multidimensionale Skalierung (MDS)
I s t keine solche Zeile vorhanden, so setzt man A(t+1)=A(t)
d< t + 1 > = 0 \,u,du für b=1,... ,α
I s t nun für al 1 e u = 1 a(t)
-a(t)
st > 0
so i s t die Ungleichung d
m-t > d £ h b
bereits e r f ü l l t . I s t dies für b=1,...,a der F a l l , so setzt man
und fährt mit dem (t+1) - ten Schritt f o r t . F a l l s die Ungleichung für kein oder lediglich für einige b € { 1
α} er-
f ü l l t i s t , sagen wir für b=ß+1,...,a mit l £ ß _ < a , so gehen wir wie folgt vor. Die Ungleichungen V t
> d
l
b
für b=1,... ,6
sind in jedem Fall dann e r f ü l l t , wenn g i l t ß d
m-t m τ >
Σ d^ b=1 b
.
Nun i s t aber im t-ten Schritt
429
Kapitel VI: Die multidimensionale Skalierung (MDS)
d
t m-t
=
*1 ^
aW - d ^ m-t,u u
und f dÄ = ! I a ^ · « ^ u b=1 b b=1 u=1 V u
·
d.h. d i e obige Ungleichung i s t ä q u i v a l e n t zu S4.
α m
u=1
'l'u
u
s.
b=1 u=1
V
u
u
u=1
Diese l e t z t e Ungleichung s c h r e i b t man dann in der Form (P+)
f
- y a(t) y t )
fa(t)
V
fa(t)
( u ) =(D p .t + 11)) VV V t . ( u ) wobei der e r s t e Teil
(poi-CtiveA
ue { ( 1 ) , . . . , ( p t ) } C { 1 , . . . , s t } a(t>
-
und der zweite T e i l
V
Indizes
> 0
(n&gativeA
y
alle
b =X 1
mit
a(f
u
für (u)=(pt+1)
(qt)
, für (u)=(qt+1)
(st)
mit (1 ) ( v ) ~ V m - t , ( v )
c
-(a(t) (u)(v) A V t . l v )
b^
-
a
für
flb,(v)jd(v)
(v)=(pt+1),...,(qt)
y a(t) y t + 1 ) « - b . ( v ) A t + [ " - 2 ] - [ q t - P t ] + tv-ptl
bt!
für (u)=(2)
(pt), (v)=(pt+1),...,(qt)
.
Hier i s t dann s
t+1
= s
t
+
[p
t"1]'[qt"pt]
'
und d i e Elemente der K o e f f i z i e n t e n m a t r i x (1),...,(pt)
sowie ( q t + 1 )
(u)=(pt+1),...,(qt) a(t+1) a
von A ( t + 1 )
(t) k,(u) " a k , ( u )
stimmmen in den Spalten
( s t ) mit denen von A ^
ü b e r e i n . I n den Spalten
ist
(t) / (t) _ f _(t) \ / ( A t ) k,( 1)V m - t , ( u ) h ^ V ^ V A V u i )
b
§ (t) \ ^aiib)(1)J
für k = 1 . . , m
,
431
Kapitel VI: Die multidimensionale Skalierung (MDS)
und in den neu hinzukommenden Spalten s t +1,s t +2
s t +[p^-1]-[q^-p t ]
ist
a (t+1)
k,st+[u-2]'[qt-pt]+[v-pt] -a(t)
-a(t)
fa(t)
- Y a(t)
. ? , ( «
Ϊ
f ü r k=1,...,m Bei diesem Verfahren sind nach dem S c h r i t t t die Beziehungen zwischen den l e t z t e n (t+1) Zeilen des Distanzenvektors d e r f ü l l t . Also sind mit dem ( m - l ) - t e n S c h r i t t a l l e Beziehungen zwischen den Zeilen von d, die durch die Partialordnung gegeben sind, durch das Gleichungssystem :A(m).d(m)
=A(n(n-1)/2).d(n(n-1)/2)
erfüllt. Nun wird aus dem Gleichungssystem d = A ^ •d'"1^ die Konfiguration y^. der η Objekte bestimmt. Dazu bilden wir das Teilgleichungssystem J
,(m) '(D,1
(1)
( ' ) >Sn
,(m)
(n-1)
Am) (n-1),s n
(n-1) ,1
das aus a l l e n Zeilen k=( 1)
(1)
»
'(n-1)
(n-1) besteht, f ü r die g i l t
dk = d(0(k),0(k+1))
.
Hier bezeichnet 0(k) n a t ü r l i c h wieder das k-te Objekt in der geordneten Obj e k t f o l g e 0(1)
0 ( n ) , die sich durch die Dreiecksanalyse e r g i b t . Die ein-
dimensionalen Skalenwerte
y n bzw. in geordneter Folge y 0 ( i )
y0(n)
ergeben sich dann zu
y0(2) y0(3)
• y 0(n)J
m > ) a ( D a
(1)
,(m) '(1)
a
(2)
a
(2)
(m)
•d(m)+const
+
,(m) (n-1)
wobei constj>0 b e l i e b i g gewählt werden kann, und die Elemente d (m) ) d (m)
d ^ b e l iebig wählbare p o s i t i v e Zahlen sind. m
ße^sp-iel: Ausgehend von I - S k a l e n haben wir zuvor eine Dreiecksanalyse f ü r η =6 Religionsgruppen durchgeführt. Es ergaben sich dabei die P a r t i a l o r d -
432
Kapitel Vi: Die multidimemionale Skalierung (MDS)
nung aus Abb.10 und die Distanz - Gleichungen aus Tab.22. Um nun eindimensioy
nale Skalenwerte
6=yO(6)
d
^e
''9'' o n s 9 r u PP e n
1=0(1) , . . . , 6 = 0(6) bestimmen zu können, müssen wir den Goode - P h i l l i p s Algorithmus anwenden. Dazu bilden wir aus den Distanz - Gleichungen der Tab.22 das Gleichungssystem d= A mit d15)T
d = (d 1
und
A ^
gemäß Cab.23
sowie dC1) = { d j 1 )
d^1))T = (d(1,2),d(2,3),d(3,4),d(4,5),d(5,6))T
.
(1) ' des Gleichungssystems
tab.23: Vektor d sowie Koeffizientenmatrix d = A(1'.d-(-di2>)=d(2>+di2>
433
Kapitel VI: Die multidimensionale Skalierung (MDS)
und d^1)=d^2)
für u=1,2,3,4
setzen. Es i s t dann s , = s, = 5 und die Koeffizientenmatrix Α auf die vierte Spalte mit A
(1)
(2)
stimmt b i s
' überein; in der vierten Spalte von Av
(2)
steht » ! ? ί · ΐ ί - < - » ΰ > = ' ΰ · < ΰ
" " · • >
«
·
also die Summe von vierter und fünfter Spalte der Matrix a ' ^ , vgl. auch Cab.24. Cab.24: Koeffizientenmatrix A
(2) (3) ' = A ' im zweiten und dritten Schritt sowie
Koeffizientenmatrix A ^ = A ^ = A ^ sten Schritt
im vierten, fünften und sech-
,(4)
»(2) d
1
2 3 4 5 6 7 8 9 10 11 12
13 14 15
i
J2)
(2)
i ,1
i ,2
d(i,6) d(l,5) d(2,6) d(l,4) d(2,5) d(l,3) d(2,4) d(3,6) d(2,3) d(l,2) d(3,5) d(3,4) d(4,6) d(5,6) d(4,5)
(2)
(2)
1 1 1 1 1 0 1 1 0 0 1 1 0 0 0
2 1 2 0 1 0 0 2 0 0 1 0 2 1 1
i ,3
i ,4
Zur Bestimmung der Koeffizientenmatrix A
a
,(4) i,1
(2)
i,5 1 0 1 0 0 0 0 1 0 0 0 0 1 1 0
13 '
d und d
d
14
*
13
- a { 2 ) d{2) 13,4 4
14
_ a ( 2 ) j(2) 14,4 4
+
a ( 2 ) d ( 2 ) - 22 dd ( 2 ) 13,5 5 " 4
+
dd
(2)
5
(2) J(2) _ d .(2) + d .(2) 14,5 5 " 4 5
i s t diese Ungleichung äquivalent zu
J47 i,4
a
4 3 4 2 3 0 9 4 0 0 3 2 2 1 1
a
i ,5 2 1 2 1 1 0 1 2 0 0 1 1 1 1 0
(3) ' muß im zweiten Schritt Zeile 13
verglichen werden, denn es i s t gemäß Partial Ordnung d
ι·A ι ,3 1 1 1 1 1 0 1 1 0 0 1 1 0 0 0
mit Zeile 14 des Gleichungssystems
Mit
(4) i ,2
434
Kapitel VI: Die muMdimensionale Skalierung (MDS)
und s o m i t b e r e i t s e r f ü l l t , d . h . es i s t s3 = s2 .
A-(2dJ3>+d(3>)=43>+(-2d53>-d(3>)>0
d ( 3 ^ d ^ - ( - 2 d W - d ( 4 ) ) / 1 = d 5 (3)=d(4) f ü r u=1,2,4,5
4
)
+
2 d ^
d ^
+
,
d
(4) s e t z e n müssen. W e i t e r i s t dann s . = s , und d i e K o e f f i z i e n t e n m a t r i x A (31 s t i m m t i n den S p a l t e n 1 , 2 und 3 m i t A ' ü b e r e i n ; i n d e r S p a l t e 4 s t e h t f ü r k = 1 , . . . , 15
, (3)
a l s o d i e Summe d e r v i e r t e n S p a l t e und zweimal d e r d r i t t e n S p a l t e von A v
,
und i n d e r S p a l t e 5 s t e h t für
5
,
(3) a l s o d i e Summe von f ü n f t e r und d r i t t e r S p a l t e von A v
, v g l . auch T a b . 2 4 .
Im v i e r t e n S c h r i t t des V e r f a h r e n s muß d i e Z e i l e 11 des G l e i c h u n g s s y s t e m s gemäß P a r t i a l o r d n u n g aus Abb.10 m i t Z e i l e 12 v e r g l i c h e n w e r d e n , denn es i s t d11
>
d12
*
Kapitel VI: Die multidimensionale
435
Skalierung (MDS)
Diese Ungleichung i s t wegen d d
11
- a ( 4 ) -d(4) 11 ,3 3
12
- a ( 4 ) - d ( 4 ) + a ( 4 ) - d ( 4 ) ++ aa ( 4 ) -d d 12,3 3 12,4 4 12,5 5
+
a ( 4 ) -d(4) 1 1 ,4 4
( 4 ) + a + a
- d ( 4 ) - d d( 4 ) 11,5d5 ' 3 ( 4 )
-d( " d3
+ + 33 dd
(4)
4
++
4 ) ( 4 ) + +L 2d d ++ d
4
(4) d d 5
d(4) 5
ä q u i v a l e n t zu d5
+
3dj4'
d(4)-(d(4)+2dj4'+d(4))=dj4)
+
und somit b e r e i t s e r f ü l l t , s5 = s4
,
A
,
>0
ist
d (
5
W
4
>
.
Im f ü n f t e n S c h r i t t s t e l l t s i c h anhand der P a r t i a l Ordnung aus Abb.10 h e r a u s , daß d i e 10. Z e i l e des Gleichungssystems :A(5).d(5)
mit k e i n e r der Z e i l e n 11, 12, 13, 14 und 15 v e r g l e i c h b a r i s t . Daher setzen wi r s6 = s 5
,
A
,
d
und führen den sechsten S c h r i t t durch. Die Z e i l e 9 muß im G l e i c h u n g s s y s t e m d = A(6>.d mit den beiden darunter l i e g e n d e n , untereinander n i c h t v e r g l e i c h b a r e n
Zei-
len 10 und 11 v e r g l i c h e n werden, v g l . auch d i e P a r t i a l Ordnung in Abb.10, gemäß derer d9 > d1Q
und
dg > d
n
gelten muß. Nun i s t d -a(6)-d(6)-d(6) 9 ~ 9,2 2 ~ 2 10
_a(6) 10,1
11
- a ( 6 ) - d ( 6 ) + a ( 6 ) - d ( 6 ) + aa ( 6 ) -dd ( 6 ) - dd ( 6 ) 11 ,3 3 11 ,4 4 11,5 5 " 3
d
d d
d
.(6) ,(6) 1 "d1
und somit i s t d i e e r s t e Ungleichung ä q u i v a l e n t zu d^ 6 > - dj 6 > > 0
,
die zweite ä q u i v a l e n t zu d-(di,6>+3d
+
d< 6 >) > 0
.
+ 33 dd
4
(6)
+ dd
5
(6)
436
Kapitel VI: Die multidimensionale Skalierung (MDS)
Beide Ungleichungen sind nicht automatisch erfüllt, so daß wir jetzt die Ungleichung dg > d 1 0 + d 1 t bzw. d< 6 > - ( d S 6 > ^ 6 > + 3 d J 6 > + d ( 6 > ) = d< 6 >
+
(-d5 6 >-d( 6 >-3dj 6 '-d( 6 >) > 0
betrachten müssen. Da der positive Teil lediglich aus dem Term d ^
be-
steht, setzen wir 4 6 > = d ( 7 ) - (-di7>-d(7>-3dj7>-d(7>)/i=47>+dS7>+d$7>+3d57>+d(7> d(6)=d(7)
für u=1 ,3,4,5
.
Dann ist s^ = Sg und A ^ 7 ' stimmt lediglich in Spalte 2 mit A ^
überein.
Die erste Spalte ergibt sich als Summe von erster und zweiter Spalte von a (6)
die dritte Spalte ergibt sich als Summe von dritter und zweiter Spalte von a
(6)
für k=1,..., 15
.
die vierte Spalte ergibt sich als Summe der vierten Spalte und des dreifachen der zweiten Spalte von
A ^ +
für k=1,... ,15
,
und schließlich ergibt sich die fünfte Spalte als Summe der fünften Spalte und der zweiten Spalte von a'®' für „ , , . . . , 1 5
.
Diese Koeffizientenmatrix ist in tab.25 angegeben. Im siebten Schritt wird wegen d
8
> d
9
gemäß Partial Ordnung die 8. Zeile mit der 9. Zeile des Gleichungssystems d = A< 7 >.d( 7 > verglichen. Obige Ungleichung ist mit
v j ,
ΐ
Μ
'
Μ
Μ
Μ
'
Μ
Μ
7
'
437
Kapitel VI: Die muitidimensionale Skalierung (MDS)
Cab.25: K o e f f i z i e n t e n m a t r i x A ^ im s i e b t e n S c h r i t t und K o e f f i z i e n t e n m a t r i x (81 (9) Α =A V ' im achten bzw. neunten S c h r i t t
1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
d
A(8)
A< 7 > Λ1) a ( 7 ) , ( 7 ) i , 1 i ,2 i ,3
i
Im neunten S c h r i t t muß nun die Ungleichung d
6 >
d
8
zwischen 6. und 8. Z e i l e des Gleichungssystems d = A< 9 >.d< 9 > b e t r a c h t e t werden. S i e i s t wegen d
6
dn
ä q u i v a l e n t zu
u=1
.
8
'
+
d(
8
)
+
d^
+
d^
> 0
,
Kapitel VI: Die multidimensionale Skalierung (MDS)
439
( 5 - 4 ) d < 9 ) + (4-4)dj,9) + (1-1)d^9) + ( 3 - 4 ) d J 9 ) + ( 1 - 2 ) d ' 9 ) + (3-2)d£9) + ( 2 - 2 ) d y 9 ' = (d!j9' + dg9^) + ( - d ^ 9 ' - d ^ 9 ' )
> 0
.
H i e r bestehen p o s i t i v e r und n e g a t i v e r T e i l aus j e zwei Summanden, so daß mit dem Lemma von F a r k a s (1902) nun g i l t : =dSio>-(.-d;io>-d(io>)/i=dSio>+d =
4 " i
d
1 0 )-d(l0))/i=d(10'+d(10' 6 1 0 ) - ( -- d j 0 )
-
1 0 )
-
= (-dV
9 )
= (-4
4 " ,(9) u
= d(10)
f ü r u=2 ,3,7
sowie s , n = s Q + 2 = 9 . Die Elemente der K o e f f i z i e n t e n m a t r i x A^ (9)
^ stimmen in
den S p a l t e n 1, 2 , 3 , 6 und 7 mit denen von fir ' ü b e r e i n ; f ü r d i e S p a l t e 4 gilt
für
......5
.
für die Spalte 5 g i l t
4 : ξ Μ ! Μ ! ! · < · < > / < = » Κ · 4 ! ί
» > =
dg
und
d 5 > d^
im zehnten S c h r i t t werden durch das
Gleichungssystem
d = A(10).d(10> b e r e i t s e r f ü l l t , d . h . es s; „ == s s, n 11 10
,
ist
A=A
,
d=d
.
=,.....,5
·
440
Kapitel VI: Die multidimensionale Skalierung (MDS)
Cab.26: K o e f f i z i e n t e n m a t r i x A ^ 1 0 ' =
= ... =
zehnten S c h r i t t sowie r e s u l t i e r e n d e
i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
A(10) d
i
„ ( i ö ) _C 10) . ( 1 0 ) i >2 i ,1 i ,3
d(l,6) cl(l ,5) d(2,6) d(l,4) d(2,5) d(l,3) d(2,4) d(3,6) d(2,3) d(1,2) d(3,5) d(3,4) d(4,6) d(5,6) d(4,5)
8 7 8 6 7 4 6 4 4 0 3 2 2 1 1
9 8 8 7 7 5 6 4 4 1 3 2 2 1 1
2 2 2 2 2 1 2 1 1 0 1 1 0 0 0
i >4
( =A „(10) i >5
16 14 15 12 13 8 11 8 7 1 6 4 4 2 2
12 10 11 9 9 6 8 6 5 1 4 3 3 2 1
Λ(10)
im zehnten b i s
(15)) a(10)
i .6
„ ( 1 0 ) - ( 1 0 ) „(10) i »8 i ,9 i .7
5 4 4 4 3 3 3 2 2 1 1 1 1 1 0
4 3 4 3 3 2 3 2 2 0 1 1 1 1 0
Im e l f t e n S c h r i t t s i n d im System d = A 0 frei gewählt werden kann, gilt. Da dieses Verfahren nur eine lokal (bzgl. der gewählten Anfangspartition) optimale Partition Κ für die η interessierenden Objekte liefert, sollte es stets für verschiedene Anfangspartitionen durchgeführt werden. Die optimale Partition ist dann die mit dem insgesamt gesehen geringsten Gütemaß.
Βίύ>μί&1:
Für die 5 Autohersteller, für die wir in Abschnitt 3 Überdeckun-
gen konstruiert haben, wollen wir nun eine Partition in m = 2 Klassen bestimmen; die Distanzmatrix D für die Hersteller ist in Abschnitt 3.1 bereits angegeben.
Kapitel VII: Die Clusteranalyse
467
Die Güte der P a r t i t i o n s o l l an den Homogenitäten der beiden Klassen gemessen werden, d.h. g(K)=
l h(K.) Κη.€Κ
,
und a l s Homogenitätsmaß wollen wir
1
=
Τ ΤKΓ Τ l ii
l j 0.2 '3 '3 zu K 3 = K° = {3}
mit h(K 3 ) = 0.0000
Schließlich bildet das letzte verbleibende Merkmal 5 die Klasse K^: K 4 = {5}
mit h(K 4 ) = 0.0000
so daß die Partition κ gegeben ist als
die Güte dieser Partition ist gerade 4 g(K) = Τ h(K.) = 0.0655 + 0.2403 = 0.3058 1 i=1
In der Abb.10 ist diese Partition Κ auch araphisch veranschaulicht, und zwar wurden ihre Klassen Κ^,Κ^,Κ^,Κ^ in die zweidimensionale die mittels Nonlinear Mapping
Konfiguration
im Abschnitt 2 des Kao.VI gewon-
nen wurde, vgl. auch die dortige Abb.7, eingezeichnet.
5
EIN VERFAHREN ZUR KONSTRUKTION EINER QUASIΗIERARCHIΕ
Eine Quasihierarchie ist eine Klassifikation, die es erlaubt, auch feine Strukturen in einer Objektmenge {1,... ,n} zu erkennen; sie wird durch eine Folge von Oberdeckunnen gebildet. Stellt man sich eine Quasihierarchie Κ in Form eines "Stammbaums" vor,
so ist die untere Stufe eine sehr arobe über-
474
Kapitel VII: Die Clusteranalyse
Stoßdämpfer
s·—«~Vorderrad•S 7«\authängung
•6
y-2
äußere Karosserie
\ 0.1-
-0.5
/
•
2
Automatikgetriebe
-0.1
J
0.1
Bremsen
-0.1
innere Karosserie
-0.5-
Eisenteile der
Abb.10: Veranschaulichung der P a r t i t i o n Κ f ü r sieben R e p a r a t u r a n f ä l l i g k e i t s merkmale anhand der Nonlinear MapDina K o n f i g u r a t i o n aus Abb.7 im A b s c h n i t t 2 des Kap.VI
deckung, d i e nächste Stufe schon etwas f e i n e r usw. b i s zur oberen S t u f e , d i e die f e i n s t e i n der Q u a s i h i e r a r c h i e enthaltene Überdeckung der η Objekte darstellt. Die K o n s t r u k t i o n e i n e r Q u a s i h i e r a r c h i e kann nun ι ü v - L i i v oder
apgiomeAatiu
e r f o l g e n . Bei e i n e r d i v i s i v e n K o n s t r u k t i o n geht man von e i n e r groben Überdeckung aus und k o n s t r u i e r t nun s c h r i t t w e i s e immer f e i n e r e
Überdeckungen,
b i s man s c h l i e ß l i c h die " S p i t z e " des "Stammbaums" e r r e i c h t hat. Die agglomer a t i v e K o n s t r u k t i o n , d i e in der P r a x i s eine weitaus größere R o l l e
spielt,
oeht von e i n e r f e i n s t e n Oberdeckung aus und b i l d e t dann s c h r i t t w e i s e immer nröbere Oberdeckunoen. Bei anglomerativen K o n s t r u k t i o n s v e r f a h r e n wählt man nun eine f e i n s t e Anfangsüberdeckuno und v e r g r ö b e r t d i e s e s c h r i t t w e i s e s o , daß die Güte der j e w e i l s nachfolnenden nröberen S t u f e b z n l . der Anfangsüberdeckung ootimal
in Abhännigkeit von der Klassenzahl
lokal
auf d i e s e r S t u f e i s t . Man kann
nun die Vergröberung solanne f o r t s e t z e n , b i s nur noch eine K l a s s e ü b r i g b l e i b t ( i s t die Anfangsüberdeckung e x h a u s t i v , so e n t h ä l t d i e s e a l l e η i n t e r e s s i e r e n d e n O b j e k t e ) , oder das Verfahren abbrechen, wenn das gewählte Gütemaß auf e i n e r S t u f e eine festgewählte Schranke ü b e r s t e i g t
(diese
Kapitel VII: Die Clusteranalyse
Schranke ist in Abhänginkeit von der Klassenzahl
475
der Stufe zu wählen).
Konkret bestimmt man mit den Verfahren aus Abschnitt 3 zunächst eine exhaustive bzw. eine nichtexhaustive Anfanqsüberdeckunq K ° = { K ? , . . . , K ° } mit f Κ - J > 1
für alle i. (Die zu konstruierende Quasihierarchie ist dann ex-
haustiv, wenn die Anfanosüberdeckunp exhaustiv ist, und sonst nichtexhaustiv.)
Daraus wird die gröbere überdeckunci Κ
1
konstruiert, daraus dann Κ
2
usw.:
Im t-ten Schritt (t=1,2,...) bestimmt man dazu die maximale Anzahl von Objekten, die zwei Klassen K^"' und Ii gemeinsam sind, d.h. man bestimmt a„ = '
|K*~1nK g* ist (dann bildet
die gröbste
Überdeckung).
Die Quasihierarchie Κ besteht dann aus allen Klassen K ^
die in mindestens
einer der Oberdeckungen enthalten sind.
Da dieses Verfahren nur eine lokal optimale Quasihierarchie bildet, sollte
476
Kapitel VII: Die Clusteranalyse
man es in der Praxis stets mit unterschiedlichen Anfangsüberdeckungen durchführen. BeJ^pleZ:
Für die 5 Autohersteller American Motors ( 1 ) , Chrysler ( 2 ) , Ford
( 3 ) , General Motors (4) und ausländische Hersteller ( 5 ) , deren Distanzmat r i x in Abschnitt 3.1 angegeben i s t , wollen wir eine exhaustive Quaishierarchie konstruieren. Als Maß für die Güte der einzelnen Oberdeckungen K^" ( t = 0 , 1 , . . . ) der Quasihierarchie wollen wir g(Kt)=
l
h(K})
mit
h(K*) =
verwenden und das Verfahren abbrechen, wenn für ein t g i l t : ~t ς(Κ*) > g1" = 2-1K^| Als Anfangsüberdeckung, die gleichzeitig die feinste Überdeckung aus dieser Quasihierarchie i s t , wählen wir einmal
Hier ergibt sich h(K°) = 1 d( 1,3) = 4-1.86 = 0.93 h(K°) = { h(K°) 4
d(2,5) = •£•3.31 = 1.655
und
d(2,4) = •£•2.98 = 1.49
so daß q i l t : ο g(K°) = 0.93 + 1 .655 + 1 .49 = 4.075 < 6 = 2-3 = 2- |κ' Nun wird a. bestimmt; es i s t a, = I
max
| K°. η K° | = | K° η K°| = | {2} | = 1 1l ι2 C o
il/i2 so daß zunächst nur die Klassen K? und K? vereinigt werden, denn wegen | ( κ ° υ κ ° ) η κ ° | = | κ ° η κ ° | =0 f 1 findet keine weitere Klassenvereinigung s t a t t . Damit i s t dann
Kapitel VII: Die Clusleranalyse
Κ
= {Kj ,Ι^,Κ^,Κ^}
und somit K 1 = {K°,K°} = { κ | , ψ da
und
,
ist. Die Güte der Oberdeckung K^ ist wegen
h(K]) = h ( { 1 , 3 } ) = | d(1,3) = 0 . 9 3
und
h(K^) = h ( K ° U K°) = h({2,4,5}) = ^ ( d ( 2 , 4 ) + d ( 2 , 5 ) + d(4,5)) = -^(2.98 + 3.31 + 3.86) = 1.692 qeqeben durch g i K 1 ) = h(l
CM ν£>
CO
(Ν
ΓΟ
^ ^ •P to
ιη (Ν σ>
ΚΩ 00 r-
, K 1 5 = {5,6}, K16 = {9,12}, ^
= { 1 , 2 , 3 } , K,g = { 1 , 2 , 3 , 8 } ,
K l g = {9,10,12}, K20 = {11,13}, K 2 1 = { 4 , 7 } , K22 = {5,6,9,10,12}, K23 ={1,2,3,8,11,13}, K24={1,2,3,4,7,8,11,13}
und
K25 = {1,2,3,4,5,6,7,8,9,10,11,12,13} b e s t e h t , v g l . Abh.15; die P a r t i t i o n e n , d i e auf den e i n z e l n e n Stufen der H i e r a r c h i e entstehen, s i n d a l s o Κ
= ( K ^ , K 2 , Κ ^ , Κ ^ ,Κς,Kg ,Ky , K g , K g Q , κ ^ , κ ^ 2 , κ ^ »
Κ Κ Κ κ
={K2,K^,Kg,Kg,Ky,Kg,Kgι 2 3
,
= {Kg.K^.K^.Kg.Kg.K^Q.K^
,
={K2,K4,K7,K8,K10,K11,K13>K14,K15,K16}
4
={K4.K7.K8»K10.K11,K13,K15,K16,K17}
,
,
5 κ
= { Κ ^ , Κ ^ , Κ ^ >K13,K15.K16,K18}
κ
={ K
4
, K
7
, κ ^ , κ ^
g }
3
κ7={Κ4,Κ7,Κ15,Κ18,Κ19,Κ20} Κ
=
Κ
~
Κ
=
Κ
^K15,K18,K19*K20*K21^
,
,
, '
^Ίg»^20'^21'' >^22'^23^
={Κ22 2
^ ={Κ25}
'
> .
Man s i e h t h i e r recht d e u t l i c h , daß bei Verwendung von s i n g l e l i n k a g e große K l a s s e n sehr f r ü h v e r e i n i g t werden. Bei complete l i n k a g e entstehen
viele
k l e i n e K l a s s e n , und bei average l i n k a g e e r h ä l t man zwar zunächst k l e i n e
.
K l a s s e n , die aber dann doch recht s c h n e l l größer werden.
|
Im e r s t e n B e i s p i e l
haben wir gesehen, daß in jedem S c h r i t t die V e r s c h i e -
denheit der neu g e b i l d e t e n K l a s s e n und jeder anderen K l a s s e neu berechnet werden muß. I s t die Anzahl η der zu k l a s s i f i z i e r e n d e n Objekte sehr g r o ß , so i s t d i e s e s Verfahren recht aufwendig. Daher wollen w i r h i e r eine Rekursionsformel
angeben, die die Berechnung d i e s e r V e r s c h i e d e n h e i t im t - t e n
S c h r i t t aufgrund der Verschiedenheit im vorhergehenden ( t - 1 ) - ten S c h r i t t e r m ö g l i c h t , f a l l s e i n e s der Verschiedenheitsmaße s i n g l e l i n k a g e , complete l i n k a g e oder average l i n k a g e verwandt wird. Es i s t f ü r
t=1,2,...,n-1
Kapitel VII: Die Clusteranalyse
Ui
11 t 13«
2ι
1? 25
3
β 9 19
12 10 · -
5 ·6·Abb.15: Hierarchie für 13 PKW - Typen bei Verwendunn von average linkage
ν ( Κ * ; 1 υ Κ * ; \ ΐ φ =α1.ν(Κ^1,Κ^)
wobei die zu verwendenden Parameter α^, tab.2: Parameter der Rekursionsformel Verschiedenheitsmaß
+α2·ν(Κ^
1
,Κ^)
und α^ in Cab.2 angegeben s i n d ,
für Verschiedenheitsmaße
V
a2
s i n g l e linkane
0.5
0.5
0.5
complete linkane
0.5
0.5
0.5
I C I 1
1Ki*11 2
averane linkage
'Ki*1' 1
+
!Ki*1' 2
I ^ V l K -
a
1
3
0 !
Ertweiterunnen dieser Rekursionsformel auf weitere Verschiedenheitsmaße findet man etwa bei Cormack (1971), Bock (1973) oder Jambu (1978).
487
488
Kapitel VII: Die Clusteranalyse
Eine nichtexhaustive Hierarchie l ä ß t sich mit H i l f e dieses Verfahrens nat ü r l i c h auch konstruieren, wenn man Klassen der A n f a n g s p a r t i t i o n K° wegl ä ß t ; dies i s t aber nicht besonders s i n n v o l l . S e l b s t v e r s t ä n d l i c h kann bei diesem Verfahren auch mit vorgegebener Klassenzahl m gearbeitet werden. Für exhaustive Hierarchien muß a l l e r d i n g s n£m_ = min{d(6,4) - d(3,4) ,d(6,2) - d(2,3) ,d(6,5) - d ( 1 , 5 ) } = min{2.80 - 2.11 ,3.02 - 1 .97,3.40 - 2.70} =min{0.69,1 .05,0.70} = 0.69 = h(K 1 U { 6 } ) - h(K 1 )
,
so daß H e r s t e l l e r 6 der Klasse K^ zugeordnet wird. Nun wollen wir noch ein Verfahren v o r s t e l l e n , das neue Objekte den Klassen einer m i t t e l s des Verfahrens aus Abschnitt 6 konstruierten Hlunafickli
zu-
ordnet; es verwendet die D i s t a n z i n d i z e s eines neuen Objektes zu den η Objekten aus der Hierarchie und das Verschiedenheitsmaß s i n g l e linkage: ν(Κ· ,Κ. ) = 11
12
min d(j,k) jfK. ,kfK. Ii 12
S o l l ein neues Objekt j den Klassen einer Hierarchie K, die aus einer F o l ge
,... , K
n
von
P a r t i t i o n e n gebildet wird, zugeordnet werden, so muß
e s , damit der K l a s s i f i k a t i o n s t y p " H i e r a r c h i e " erhalten b l e i b t , je einer Klasse jeder der η P a r t i t i o n e n zugeordnet werden. Es gehört somit auf j e den Fall zur einzigen Klasse κ " " 1 der P a r t i t i o n K n ~ 1 . Die P a r t i t i o n K n ~ 2 besteht aus zwei Klassen (K1}
1
i s t in zwei Klassen aufgespalten); eine von n-2 ihnen muß das Objekt j aufnehmen. Dies i s t die Klasse K^* , f ü r die g i l t v(K";2,{j})=
min v ( K " ~ 2 , { j } ) i=l,2
.
Besteht diese Klasse aus mehr a l s zwei Elementen, so wird s i e in einer feineren P a r t i t i o n erneut in zwei Klassen gespalten. Dort wird dann das Objekt j der Klasse zugeordnet, der es am ähnlichsten i s t , usw., b i s j einer Klasse zugeordnet wird, die nur ein e i n z i g e s Element e n t h ä l t . Wir wollen dieses Verfahren an einem B e i s p i e l
verdeutlichen.
Be-cip-ieX: In Abschnitt 6 haben wir eine Hierarchie für η = 5 A u t o h e r s t e l l e r k o n s t r u i e r t . Diese b i l d e t eine Folge von η = 5 Partitionen und besteht aus 2n-1 = 9 Klassen: Κ = { K j , K £ , . . . , Kg} mit K,={1}
,
K 2 = {2} ,
K 3 = {3} ,
K 4 = {4} ,
K 5 = {5} ,
= {1,2}
,
492
Kapitel VII: Die Clusteranalyse
K ? = {1,2,3} ,
Kg = {1,2,3,4} und Kg = {1,2,3,4,5}
.
Die 5 Partitionen waren Κ
= {K^ .^.Kj.K^.Kg} ,
Κ
={K^,K^,Kg,Kg} , 2
Κ K
={K^,Kg,Ky} , 3
= { K 5 , K g } und
K 4 = {K g }
.
Nun sollen drei weitere Hersteller j^,
und j^ den Klassen der Hierarchie
Κ zugeordnet werden. Die Distanzindizes sind in der erweiterten (nur soweit gebrauchten) Distanzmatrix D in Cab.3 angegeben.
lab.3: Erweiterte Distanzmatrix D für 8 Hersteller Hersteller J
2
3
4
5
00 70 86 05 70
1.70 0 00 1 97 2 98 3 31
1. 8 6 1.97 0 .00 2 .11 2 .70
3 .05 2 .98 2 .11 0 .00 3 .86
2 .70 3 .31 2 70 3 .86 0 .00
2 84 3 10 3 05
3 60 2 17 1 52
1 96 2 90 3 50
3 20 2 35 2 .73
2 95 1 75 1 65
1
Herstel l e r \ . k 1 2 3 4 5 j. j
2
0 1 1 3 2
1
j2
2.84 3.60 1.96 3.20 2.95
3.10 2.17 2.90 2.35 1.75
j
Das Objekt j. wird natürlich der Klasse K Q der gröbsten Partition Κ 3 geordnet. In Partition Κ
j
3
3.05 1.52 3.50 2.73 1.65
4
zu-
gehört es zur Klasse Kg, denn
v t K g J j , } ) =min{v(K 5 ,{j 1 }),v(K 8 ,{j 1 })} = min{min d(k,j.),min d(k,j.)} k£K,_ keK g = min{d(5,j 1 ),d(3,j 1 )} = min{2.95,1 .96} = 1.96 Die Klasse Kg spaltet sich dann in die Klassen K^ und K^. Das Objekt j^ wird K^ zugeordnet, denn v ( K 7 , { j 1 } ) = min{v(K 4 ,{j 1 }) ,v(K 7 ,{j 1 >)} = d ( 3 , J 1 ) = 1.96
.
Kapitel VII: Die Ousteranalyse
493
Ky s p a l t e t s i c h in die Klassen Kg und K 3 , von denen j 1 nun der ( b i s h e r ) einelementigen Klasse K 3 zugeordnet wird, weil v ( K 3 , { j 1 } ) = m i n { v ( K 3 , { j 1 } ) , v ( K 6 , { j 1 } ) } = 1.96 i s t . Damit i s t der Zuordnungesprozeß für
beendet.
Das Objekt j 2 gehört zur Klasse Kg und zur einelementigen Klasse Kg, denn ν ( K g , { } ) = min{v(K R ,{ j 9 } ) , v ( K p , { j , } ) } = 1.75 5' 2
,
und die Zuordnung von j 2 i s t beendet. S c h l i e ß l i c h wird j 3 den Klassen K g , Kg, K^, Kg und K,, zugeordnet, da g i l t v ( K 8 , { j 3 } ) = m i n { v ( K 5 , { j 3 } ) , v ( K 8 , { j 3 } ) } = 1.52
,
v ( K 7 , { j 3 } ) = m i n { v ( K 4 , { j 3 } ) , v ( K 7 , { j 3 } ) } = 1.52
,
v ( K 6 , { j 3 } ) = m i n { v ( K 3 , { j 3 } ) , v ( K 6 , { j 3 } ) } = 1.52
,
und v ( K 2 , { j 3 } ) = m i n { v ( K 1 , { j 3 } ) , v ( K 2 , { j 3 } ) } = 11.52 Die Zuordnung der neuen Objekte j ^ , j 2 und j 3 kann man im Dendrogramm, z. wie in Abb.17, d e u t l i c h machen.
1 ·-
Abb.17: Dendrogramm f ü r A u t o h e r s t e l l e r unter Berücksichtigung der neuen, diskriminierten Hersteller
N a t ü r l i c h kann man, f a l l s keine Beschränkung der Klassenzahl
erforderlich
i s t , die nach der Zuordnung entstandenen mehrelementigen Klassen auf der untersten Stufe der Hierarchie weiter aufspalten, b i s nur noch einelement i g e Klassen v o r l i e g e n . In Abb.18 i s t eine solche Spaltung für unser Be-iiplet
graphisch d a r g e s t e l l t .
.
494
Kapitel VII: Die Ousteranalyse
1' = 1 •
12' 2'= 2 · 131
3'=j3·3 ·-
111
1
—H· —
5'=j,i 151 6'-!*·-
7"= 5 · -
101 — · —
e'=j2·Ahb.18: Dendrogramm für Autohersteller bei vollständiger Aufspaltung in einelementige Klassen
8
EIN ZUSAMMENFASSENDES
BEISPIEL
Um die Verfahren und Vorgehensweisen der Clusteranalyse noch einmal zu verdeutlichen, wollen wir hier zusammenhängend das folgende Beispiel
betrach-
ten. In der Cab.4 sind die Indizes der Lebenshaltungskosten einiger europäischer Länder für die Jahre 1960 bis 1964 ausgehend von 100 im Basisjahr 1958 angegeben; unterschiedliche zugrundeliegende Warenkörbe, vgl. etwa Kap.I in Härtung et al. (1982), tuen der Vergleichbarkeit wohl keinen Abbruch, da es hier im wesentlichen auf die jeweiligen Steigerungsraten ankommt.
Cab.4: Index der Lebenshaltungskosten einiger Länder mit Basisjahr 1958 Land
(j)
BR Deutschland (1) Belgien (2) Großbritannien (3) Italien (4) Norwegen (5) Osterreich (6) Portugal (7)
1960
1961
1962
1963
1964
102 102 102 103 103 103 103
105 103 105 104 106 106 106
108 104 109 109 111 111 109
111 106 112 117 114 115 111
114 111 115 124 120 119 115
Aufgrund der enthaltenen Information über die Entwicklung der Lebenshai-
Kapitel VII: Die Ousteranalyse
495
tungskosten wollen wir hier Clusteranalysen für die Länder durchführen. Dazu berechnen wir zunächst unter Verwendung euklidischer Abstände die Distanzmatrix 7..348 0..000 9..000 17..776 14..283 11.,283 8.,718
0.000 7.348 1.732 11.747 7.483 7.211 2.000
1..732 9..000 0,.000 10..344 5,.916 5..568 1,.732
11,.747 17..776 10,.344 0,.000 5,.831 6..164 11,.045
7,.483 14,.283 5,.916 5,.831 0 .000 1,.414 6,.164
7,.211 11..283 5,.568 6..164 1,.414 0..000 6,.000
2 .000' 8,.718 1,.732 11,.045 6 .164 6,.000 0 .000
für die sieben Länder, und wollen dann Partitionen und Hierarchien für sie bestimmen. In die Klassen der verschiedenen Klassifikationen sollen dann noch jeweils die Länder Luxemburg
(8) mit den Lebenshaltungskosten - Indi-
zes 101 (1960) ,
101 (1961) ,
102 (1962) ,
105 (1963) ,
108 (1964)
107 (1962)
111 (1963)
114 (1964)
und Schweiz (9) mit den Indizes 101 (1960) ,
103 (1961)
,
,
,
diskriminiert werden. Dazu bestimmen wir an dieser Stelle bereits die erweiterte Distanzmatrix
D=
(soweit benötiqt)
|11.180 | 4.359 |12.806 |21.307 J 18.303 |18.193 112.767
D
2.449' 6.633 3.317 11.916 8.602 8.367 4.243
Als Homogenitätsmaß für eine Klasse K^ werden wir hier stets
1
1K
i!
jU
=
d i a
pq"
9 ( V l
>-i"-"-p'
s i n d gerade d i e merkmalseigenen Varianzen ( e m p i r i s c h e bzw. g e s c h ä t z t e r i a n z e n , wenn a u s e i n e r S t i c h p r o b e b e s t i m m t ) , d . h . der s t a n d a r d i s i e r t e n Faktoren erklären
Mittels
p q
die A n t e i l e der
beobachteten Merkmale, d i e sich n i c h t
durch
Va-
Varianz
gemeinsame
lassen.
d e r M a t r i x L ( d i e im f o l g e n d e n s t e t s
w i r d ) , l ä ß t s i c h e i n e nzduzivvtz 2 2 2 ergibt sich mit k, = 1 - 6. = 1 + J J J' l e r F a k t o r e n zu 12 , 2
Γ2Ρ
r„ 2p
genannt
reproduzieren. ρ im F a l l e
Diese
orthogona-
Ίρ
12
r. 1p
k u r z La.dungAm.&Ux
KowiilationmatAix. ? . . . + 1 . für j =1 JH
...
= R - U'U
k μ-
D i e G r ö ß e n k 2j h e i ß e n f ü r j = 1 ρ a u c h d i e Kommxnal-Uätzn ( e m p i r i s c h e bzw. g e s c h ä t z t e Kommunal i t ä t e n , wenn L a u s e i n e r S t i c h p r o b e g e s c h ä t z t w u r d e ) d e s 2 j - t e n M e r k m a l s . D i e Kommunal i t ä t k^. g i b t a n , w e l c h e r A n t e i l d e r V a r i a n z d e s j - t e n s t a n d a r d i s i e r t e n Merkmals d u r c h gemeinsame F a k t o r e n e r k l ä r t
wird.
.)
511
Kapitel VIII: Die Faktorenanalyse
Im F a l l
von q gemeinsamen kom.eZiiiten
(ichie^wlnkZlgen)
Fa.kXon.rn mit K o r -
relationsmatrix 1
F,F
F
1' 2
R
F.F V 2
F =
1F,
V
,
1
1 q
2q
l a s s e n s i c h wie im orthogonalen F a l l die Kommunalitäten bestimmen. B e z e i c h net L = (1 .. ) . , . , die Ladungsmatrix, so e r g i b t s i c h die Komjk j = i , . . . , ρ , κ - ι , . . . ,q 2
2
munalität k^ = 1 -
des j - t e n s t a n d a r d i s i e r t e n Merkmals f ü r j = 1 , . . . , p aus
R = R - U2 = L - R f ' L t ο
q k=1
ρ
q-i
q
k=1 k ' = k + l
jk
jk
'
F
kFk'
Wir wollen uns im folgenden zunächst mit der Schätzung
eineA
Ladangima.fu.x.
L ( d i e wir genau so wie d i e t h e o r e t i s c h e Ladungsmatrix bezeichnen) f ü r q o r t h o g o n a l e , nichtbeobachtbare Faktoren b e s c h ä f t i g e n . Es g i b t unendlich τ ~ 2 Matrizen L mit L - L
=R = R - U
, so daß jedes Bestimmungsverfahren
viele
Zusatz-
forderungen an d i e Ladungsmatrix L s t e l l e n muß. Im ersten A b s c h n i t t werden nun verschiedene Verfahren zur Bestimmung e i n e r Ladungsmatrix L v o r g e s t e l l t . In A b s c h n i t t 1 . 1 wird zunächst die von Lawley/Maxwel1 (1963) angegebene Max-tmum - Likelihood 2
- Schätzung
von L d a r g e s t e l l t , d i e die Kommunal i t ä t e n
kj simultan zu L s c h ä t z t . Bei der Maximum - L i k e l i h o o d - Methode i s t es a u s serdem möglich zu t e s t e n , ob die Anzahl q der e x t r a h i e r t e n Faktoren
signi-
f i k a n t zu g e r i n g i s t , um die Zusammenhänge zwischen den ρ Merkmalen zu e r klären. Ein Verfahren, das t h e o r e t i s c h ä q u i v a l e n t zur Maximum - L i k e l i h o o d - Methode und rechentechnisch g ü n s t i g e r i s t a l s s i e , i s t d i e von C.R. Rao (1955) w i c k e l t e kanonische
Fa.ktoienanatyie,
deren Ziel
ent-
die Maximierung der kano-
nischen K o r r e l a t i o n zwischen beobachteten Merkmalen und e x t r a h i e r t e n Faktoren i s t . Bei diesem Verfahren, das in A b s c h n i t t 1.2 d a r g e s t e l l t w i r d , l ä ß t s i c h n a t ü r l i c h der in A b s c h n i t t 1 . 1 v o r g e s t e l l t e Test auf zu g e r i n g e Zahl von Faktoren e b e n f a l l s anwenden.
signifikant
512
Kapitel VIII: Die Faktorenanalyse
Im A b s c h n i t t 1.3 w i r d d i e HauptkomponzrutznanalyAe.
(ptvincipal
component
ana-
lyi-ü,), die auf Hotelling (1936) zurückgeht und keine Faktorenanalyse im eigentlichen Sinne i s t , dargestellt. Hier geht man davon aus, daß es keine merkmalseigenen Varianzen g i b t , d.h. man arbeitet mit der ursprüngl ichen Korrelationsmatrix R, und transformiert die ρ beobachteten, abhängigen Merkmale in ρ unabhängige Komponenten, aus denen die q "wesentlichen" ausgewählt werden. Die Hauptkomponentenanalyse dient eigentlich nur zum Erkennen der Struktur von ρ Merkmalen. Führt man die Hauptkomponentenanalyse ausgehend von der reduzierten Korrelationsmatrix R durch, so spricht man auch von e i n e r HauptiaktoKenanaZy&e.
(p^Unc-Lpal
iacXoi
analyili).
Im Abschnitt 1.4 werden wir dann die Ζentto-LdmeXkodz, die auf Thurstone (1931) zurückgeht, kennenlernen. Dieses rechentechnisch sehr einfache und deshalb beliebte Verfahren l i e f e r t keine "exakte" Schätzung einer Ladungsmatrix L; es approximiert jedoch die Schätzung nach der Hauptfaktorenmethode. Ein Nachteil hierbei i s t , daß eine Festlegung der Kommunal itäten im Vorhinein notwendig i s t ; mögliche Schätzer werden im Abschnitt 1.4 ebenfalls angegeben. Ein modellmäßig modifizierter Ansatz zur Schätzung der Ladungsmatrix L geht auf üöreskog (1963) zurück. Sein Verfahren schließlich, die sogenannte Jö/ieifeog - M&thode., wird in Abschnitt 1.5 vorgestellt. Alle erwähnten Verfahren konstruieren q orthogonale Faktoren, die geometrisch gesprochen ein orthogonales Koordinatensystem darstellen, in dem sich die beobachteten Merkmale a l s Punkte darstellen lassen. Die Koordinaten des j-ten Merkmals sind gerade durch die zugehörigen Faktorladungen l j ^ , . . . , l j q gegeben. Die mittels der erwähnten Verfahren konstruierte Ladungsmatrix L i s t nun nur eine von vielen möglichen und keineswegs immer die.optimale im Sinne bestmöglicher Interpretierbarkeit. Der Abschnitt 2 i s t daher der faktonAotatLon
gewidmet, deren Ziel es i s t ,
eine optimale Ladungsmatrix durch Rotation der Faktoren zu bestimmen. Der Begriff der Optimalität wird präzisiert durch den von Thurstone (1947) geprägten Begriff der E-iniaahit^uktan. einer Ladungsmatrix. Im Abschnitt 2.1 wird zunächst die OiXkogonatiotation
beschrieben, die einer
Drehung des gesamten Koordinatensystems der Faktoren entspricht. Zur Durchführung einer solchen Orthogonal rotation werden zwei numerische Verfahren angegeben, die die Faktoren so rotieren, daß sie einer Einfachstruktur mögl i c h s t nahe kommen, ohne die Lage der Merkmale zueinander im Koordinaten-
513
Kapitel VIII: Die Faktorenanalyse
system der Faktoren zu verändern. Da der B e g r i f f der E i n f a c h s t r u k t u r
sehr
komplex i s t , e r f o l g t die Annäherung an eine E i n f a c h s t r u k t u r in u n t e r s c h i e d 1 i c h e r A r t und Weise. Bei der im A b s c h n i t t 2 . 1 . 1 beschriebenen l/ajumax - HeXhodz der mit den Kommunalitäten normierten Ladungen 1 · μ Λ · , JK j
wird d i e V a r i a n z
j=1,...,p,k=1,...,q,
maximiert. Für q = 2 Faktoren F 1 und F 2 i s t eine solche R o t a t i o n näherungsweise in Abb.l g r a p h i s c h d a r g e s t e l l t ; die r o t i e r t e n Faktoren s i n d mit F j , FJ, b e z e i c h n e t . Die eingezeichneten Punkte beschreiben sieben beobachtete Merkmale. Durch die h i e r durchgeführte Orthogonal r o t a t i o n um - 4 4 ° l a s s e n s i c h die Faktoren F^ und
etwa so e r k l ä r e n : Der Faktor F^ e r k l ä r t die
Merkmale Y~, Y , und Y , , der F a k t o r F '
die Merkmale Υ - , Υ . , Υ ς und Y 7 .
Ein w e i t e r e s Verfahren der Orthogonal r o t a t i o n i s t die im A b s c h n i t t v o r g e s t e l l t e Quatitbmx
- MeXkodz,
2.1.2
bei der die Summe der v i e r t e n Potenzen der
514
Kapitel VIII: Die Faktorenanalyse
Ladungen
maximiert wird. Bei dieser Rotation versucht man,einen mög-
lichst großen Teil der in den Merkmalen enthaltenen Information durch einen Faktor zu erklären, d.h. man versucht .einem l-infcakÄon. - ModeJUL model.)
(uni^actoA
möglichst nahe zu kommen, indem man für jedes Merkmal auf einen Fak-
tor eine hohe Ladung und auf die übrigen Faktoren möglichst niedrige Ladungen bringt. Allgemein gesprochen wird man immer versuchen, die Faktoren so zu rotieren, daß die Achsen der rotierten Faktoren je eine Punktwolke schneiden. Dies ist natürlich oft besser möglich, wenn man eine icfUeiuitnklige
Rotation
durchführt, d.h. die Drehungswinkel der q Faktoren unterschiedlich wählt. Eine Methode der schiefwinkligen Rotation, nämlich die Methode der Primärfaktoren, wird in Abschnitt 2.2 vorgestellt. Bei der orthogonalen Rotation bleiben die Faktoren weiterhin unkorreliert und die rotierte Ladungsmatrix, sie sei zur Unterscheidung hier mit L R o t bezeichnet, entsteht aus der ursprünglichen Ladungsmatrix durch Multiplikation mit einer Tnjxnifaonjriatlon&matAA.x L
Rot = L ' A
Δ
*
Bei einer schiefwinkligen Rotation hingegen sind die resultierenden gemeinsamen Faktoren i.a. korreliert und die Multiplikation der ursprünglichen Ladungsmatrix mit einer Transformationsmatrix Δ liefert lediglich die sogenannte taktonznitnuktun.
(faacton
L^ s ; diese Matrix enthält ge-
itmctuAz)
rade Korrelationen von gemeinsamen Faktoren und Merkmalen. Da die Faktoren selbst aber korreliert sind, ergibt sich die rotierte Ladungsmatrix L^ ^ erst durch Multiplikation von L- 1
Rp
den.
mit der InveAAen
KoAAelationi
matrix
Faktoten:
Lfs-L-A
und
L R o t = L f s .R" 1
.
Die in den Abschnitten 1 und 2 beschriebenen Methoden dienen zum Erkennen von Strukturen in einer Menge von ρ Merkmalen und sind somit sogenannte R-Techniken für die Merkmale. Im Abschnitt 3 werden nun Q-Techniken für die Objekte dargestellt. Ausgehend von einer Schätzung L der Ladungsmatrix werden zwei Methoden vorgestellt, die es erlauben, die Matrix F der Faktorenwerte von q gemeinsamen Faktoren zu schätzen und somit die Objekte "neue" Objekte) -im Raum dleiei
Faktoten
zu
(auch
fieptäient-LeAm.
Die Matrix F der Faktorenwerte kann als neue Datenmatrix für die η interessierenden
Objekte angesehen werden und zur weiteren Analyse verwandt
515
Kapitel VIII: Die Faktorenanalyse
werden. Will man etwa eine C1 usteranalyse, v g l . Kapitel V I I , durchführen, so l ä ß t s i c h der Aufwand t e i l w e i s e erheblich reduzieren, wenn die Anzahl der zu berücksichtigenden Merkmale pro Objekt gering i s t . I s t nun die Anzahl q der Faktoren k l e i n e r a l s die Anzahl ρ der beobachteten Merkmale, so würde man s i c h bei einer Clusteranalyse der η beobachteten Objekte A r b e i t ersparen, wenn man mit der Matrix F der Faktorenwerte a n s t e l l e der u r sprünglichen Datenmatrix Y a r b e i t e t ; die Matrix F wird o f t auch a l s zliite.
Da.tenmafUx
nzdu.-
bezeichnet.
Auch "neue" Objekte können mit solchen Faktorenwerten bedacht werden, wenn s i e der gleichen Grundgesamtheit entstammen, wie die betrachteten η Objekte, die dann a l s "Lernstichprobe" zur Bestimmung von L aufgefaßt werden. M i t t e l s der Faktorenwerte a n s t e l l e der ρ ursprünglichen Merkmalswerte können auch weitere Verfahren durchgeführt werden. Z.B. kann man in der Reg r e s s i o n s a n a l y s e , v g l . K a p . I I , so die
mitunter sehr zahlreichen erklären-
den Variablen bei dann meist vorliegender erheblicher M u l t i k o l 1 i n e a r i t ä t durch wenige s i e erklärende (orthogonale) Faktoren, die man m i t t e l s Faktorenanalyse gewonnen hat, ersetzen. S c h l i e ß l i c h wird die Vorgehensweise bei der Faktorenanalyse noch einmal zusammenhängend an einem Beispiel
im Abschnitt 4 d a r g e s t e l l t .
Vor allem im Bereich des Marketing und der Psychologie werden die Methoden der Faktoicnanaltj-ie, die in den Abschnitten 1 und 2 behandelt werden, mitunter auch a l s Q - Technik f ü r die Objekte verwandt. Man geht dann von der ηχη - " K o r r e l a t i o n s m a t r i x "
der η Objekte aus und führt hiermit eine Faktorenanalyse durch. Dabei
ist
jedoch zu bedenken, daß dann die beobachteten Merkmale a l s Objekte aus einer Grundgesamtheit und die Objekte a l s Merkmale aufgefaßt werden. Die η Beobachtungen eines Merkmals s i n d a l s o Realisationen eines Objekts, was n a t ü r l i c h im strengen Sinne nicht r i c h t i g i s t . Jedoch l i e f e r t die Q - Technik der Faktorenanalyse oftmals gut i n t e r p r e t i e r b a r e , anschauliche Ergebn i s s e , wie die folgenden B e i s p i e l e zeigen. Für das Problem der Objektrepräsentation sei aber auch auf die Kap.VI und IX verwiesen. Eine kombinierte Repräsentation von Objekten und Merkmalen f i n d e t s i c h ebenfalls in Kap. IX (Bi - P l o t ) .
B&lbplzl:
( V g l . Harden ( 1972): Lautsprecherboxen, In: H i f i - Report 72/73,
516
Kapitel VIII: Die Faktorenanalyse
fonoforum) Eine Jury von zehn Personen (Tonspezialisten) b e u r t e i l t die Klangeigenschaften von fünf verschiedenen Lautsprecherboxen. Und zwar werden jedem Jurymitglied in einem Vergleichstest a l l e zehn Paare von Boxen zu Beurteilung v o r g e s t e l l t . Bei jedem Boxenpaar entscheidet jede Person, auf welche
Box verschiedene B e g r i f f e , d i e Klangeigenschaften beschreiben
(z.B. angenehm, ausgeglichen, f l a c h , h a r t , h e i s e r , h e l l , sauber, schlank, verschwommen, deutliche Höhen, weiche Höhen, k r ä f t i g e Bässe), besser passen. Dann wird bei jedem B e g r i f f gezählt, wie o f t insgesamt jede Box a l s besser genannt wurde. Diese Häufigkeiten bestimmen die Datenmatrix Y, aus der die "Korrelationsmatrix der Lautsprecher" bestimmt wird, um die Faktorenanalyse durchzuführen. In Abb.2 sind dann die Boxen im Koordinatensystem der beiden ermittelten Faktoren F^, F,, graphisch d a r g e s t e l l t ("Lautsprecherhimmel").
Klangtimbre ( d u r c h s i c h t i g , brillant·)
Klangtimbre (dicht, t o p f i g )
Abb.2: Lautsprecherhimmel für fünf Boxen aus einer P r e i s k l a s s e
_J
Kapitel VIII: Die Faktorenanalyse
517
BeXipj.eZ: In Abh.3 s i n d die Auto - H e r s t e l l e r Ford, C h r y s l e r , American Mot o r s , General M o t o r s , a u s l ä n d i s c h e ( f ü r den amerikanischen Markt)
Herstel-
l e r im Raum zweier orthogonaler Faktoren d a r g e s t e l l t . Diese Repräsentation wurde durch eine Faktorenanalyse a l s Q - T e c h n i k ausgehend von der in Kap.V, A b s c h n i t t 3, angegebenen 5*7 - Datenmatrix f ü r die H e r s t e l l e r
erreicht.
F2 ' 1.0
x
ausländische Hersteller
Ford X 0.5·
-1.0 x
-0.5
0:5
General Motors
x
American Motors
1
' F *
Chrysler
-0.5 Abb.3: Repräsentation von fünf Auto - Herstel1ern im Koordinatensystem zweier Faktoren
B i s h e r haben wir
s t i l l s c h w e i g e n d v o r a u s g e s e t z t , daß die ρ beobachteten
Merkmale q u a n t i t a t i v s i n d . Es g i b t jedoch auch f a k t o r e n a n a l y t i s c h e Ansätze, die qual-Uativi
M&Akirali d i r e k t b e r ü c k s i c h t i g e n . Das Problem dabei i s t die
Schätzung der K o r r e l a t i o n e n zwischen solchen Merkmalen. Eine M ö g l i c h k e i t besteht d a r i n , die q u a l i t a t i v e n Merkmale m i t t e l s der Methoden aus Kap.V zunächst zu s k a l i e r e n und die K o r r e l a t i o n e n der s k a l i e r t e n Merkmale zu schätzen. Bei ordinalen Merkmalen können auch die in K a p . I I erwähnten s e r i a l e n und chorischen K o r r e l a t i o n s k o e f f i z i e n t e n zur Schätzung der K o r r e l a tionen verwandt werden. Ein d i r e k t e s Verfahren zur nichtmetrischen Faktorenanalyse wird z . B . bei Kruskal/Shepard (1974) beschrieben. Außerdem s e i hingewiesen auf die ALS ( A l t e r n a t i n g Least Squares) - A l g o r i t h m e n , bei denen zunächst ausgehend von beliebigem Datenmaterial
Skalenwerte f ü r die Daten
bestimmt werden und dann in e i n e r weiteren S t u f e m u l t i v a r i a t e Verfahren wie z . B . die Faktorenanalyse durchgeführt werden. Diese z w e i s t u f i g e n
ite-
r a t i v e n Verfahren konvergieren a l l e r d i n g s n i c h t immer; man v g l . De Leeuw/ Young/Takane (1976) und nachfolgende Arbeiten in der Z e i t s c h r i f t
Psy-
518
Kapitel VIII: Die Faktorenanalyse
chometrika oder auch Keller/Wansbeek (1983) und die dort zitierte Literatur. Natürlich können in diesem Rahmen auch nicht sämtliche Verfahren der metrischen (quantitativen) Faktorenanalyse vorgestellt w e r d e n ; siehe z.B. auch Jöreskog (1963), Lawley/Maxwel1
(1963), Oberla (1971), Weber (1974),
Holm ( 1975), Harman (1976), Mardia et al. (1979), Takeuchi et al. ( 1982).
1 DIE BESTIMMUNG DER FAKTORLADUNGEN Bei der Schätzung der Ladungsmatrix L , die die Beziehungen zwischen ρ beobachteten
Merkmalen und q nichtbeobachtbaren Faktoren (die die ρ Merkmale
erklären sollen) beschreibt, stellt sich das Problem, daß es unendlich viele Ladungsmatrizen L gibt, da von L generell
nur gefordert wird, daß
L ' R p » L T , wobei Rp die Korrelationsmatrix der Faktoren bezeichnet, die empirische Korrelationsmatrix R der ρ Merkmale bzw. die reduzierte Korrelationsmatrix R reproduziert.
Um eine eindeutige Ladungsmatrix L konstruieren zu können, muß jedes Verfahren Zusatzbedingungen an L stellen. Einige Vorgehensweisen, die alle zunächst einmal fordern, daß die Faktoren orthogonal, also unkorreliert sind, d.h. Rp = I und somit R = L - L T (bzw. R = L - L T ) , werden hier vorgestellt.
Verlangt man, daß R = L*LT ist, so spricht man von Verfahren der Faktorenanalyse im engeren Sinne; fordert man R = L-LT
,
wie das bei der Hauptkomponentenanalyse der Fall
ist, vgl. Abschnitt
so handelt es sich nicht um ein faktorenanalytisches Modell
1.3,
im engeren Sinne.
Da aber Faktorenanalyse und Hauptkomponentenanalyse eng verwandt sind, wird die Hauptkomponentenanalyse
in diesem Rahmen vorgestellt. Probleme, wie
z.B. die Kommunal itätenschäzung
im Vorhinein, werden hier jeweils an der
Stelle behandelt, an der sie auftreten.
Verfahren zur Bestimmung von Faktorladungen, die in diesem Rahmen nicht vorgestellt werden, sind z.B. die Alpha rey ( 1965) oder die HLn-Lmax - Löiung (1977).
- FAktoi&nanalyAe.
de.1 TaktoKznanaZgie.
von
Kaiser/Caff-
von Bargmann/Baker
Kapitel VIII: Die Faktorenanalyse
1.1
DIE ÜBER
M A X I MUM - L I Κ E L I H O O D - Μ Ε Τ Η 0 D Ε U N D DIE
ANZAHL
Die Maximum - Likelihood.
DER
- HeXhodi,
EIN
519
TEST
FAKTOREN v g l . Lawl ey/Maxwel 1 ( 1 9 6 3 ) , i s t e i n
sta-
t i s t i s c h e s V e r f a h r e n z u r Bestimmung e i n e r Ladungsmatrix L . Man nimmt dabei a n , daß d i e an η Objekten beobachteten ρ - d i m e n s i o n a l e n e i n e r S t i c h p r o b e aus e i n e r ρ - dimensional
Merkmalsvektoren
normal v e r t e i l ten Grundgesamtheit
mit M i t t e l w e r t v e k t o r μ und K o v a r i a n z m a t r i x $ s i n d ; d i e
standardisierten
Merkmalsvektoren entstammen dann e i n e r ρ - dimensional en Normal v e r t e i l ung mit M i t t e l w e r t v e k t o r 0 und K o v a r i a n z m a t r i x yf]
f
1
= Λ·
V +
k j
4 *
Man geht aus vom Modell
l v
Dabei i s t Λ e i n e pxq L a d u n g s m a t r i x , ( f p . . . , f q ) T e i n z u f ä l l i g e r V e k t o r mit unabhängigen Komponenten, d i e Erwartungswert 0 und V a r i a n z 1 haben, und ( e . , . . . , e ) T i s t e i n z u f ä l l i g e r F e h l e r v e k t o r mit u n k o r r e l i e r t e n n o r m a l v e r i ρ 2 t e i l t e n Komponenten e ^ , d i e Erwartungswert 0 und V a r i a n z 6. haben. S e t z t man z u s ä t z l i c h v o r a u s , daß d i e f. und die e . unabhängig s i n d , so l ä ß t κ J Σ d a r s t e l 1 en a l s
sich
Σ = Λ · Λ Τ + d i a g ( 6 ^ , . . .6p) λ λ 2 2 2 2 Damit d i e S c h ä t z e r L f ü r Λ und d i a g ( 6 j , . . . ,6 ) f ü r d i a g ( 6 ^ , . . . ,6 ) nach der
Maximum - L i k e l i h o o d - Methode e i n d e u t i g bestimmt werden können, man z u s ä t z l i c h ,
verlangt
daß
LT-diag(1/^,...,1/6p)-L e i n e Diagonal m a t r i x i s t .
Der S c h ä t z e r L f ü r Λ i s t gerade d i e g e s u c h t e L a "7. "2 2 2 dungsmatrix und die S c h ä t z e r für . . . , 6 p s i n d S c h ä t z e r f ü r die merkmalseigenen V a r i a n z e n der ρ beobachteten Merkmale. Das bedeutet a b e r , 2 ? daß man bei diesem Verfahren d i e Kommunal i t ä t e n ( - S c h ä t z e r ) k , , . . . , k ,mit 1 2 ~2 Ρ k . = 1 — .Sj , n i c h t im V o r h i n e i n angeben muß. A l l e r d i n g s muß man h i e r d i e Anzahl q der gemeinsamen Faktoren von Anfang an f e s t l e g e n . Nach Durchführung der Schätzung l ä ß t s i c h dann t e s t e n , ob d i e s e Anzahl s i g n i f i k a n t zu g e r i n g ist. 2 2 Eine e x p l i z i t e Maximum - L i k e l i h o o d - Schätzung f ü r Λ und 6 . , . . . , 6 l ä ß t s i c h 1 "2 Ρ n i c h t angeben; vielmehr müssen L und 6 p . . . , 5 p i t e r a t i v aus dem Eigenwert probem
520
Kapitel VIII: Die Faktorenamlyse
( R - U 2 ) U 2 - A = A-J
,
τ -2 2 2 wobei J = A ·υ ·Α die Diagonalmatrix der Eigenwerte von (R - U )U und A die Matrix der zugehörigen normierten Eigenvektoren bezeichnet, geschätzt 1 /2
werden. (Die Schätzung für Λ i s t dann gerade L = A » J
) Das Iterationsver-
fahren, das mitunter recht langsam konvergiert, soll nun geschildert werden. Aus der standardisierten Datenmatrix Υ ^ berechnet man zunächst die empirische Kovarianz - bzw. Korrelationsmatrix R
= T F T ' Y s t ' Y s t = Ro
'
die ein Schätzer für Σ i s t . Im k-ten Hauptschritt (k=0,1,... ,q-1) wird die (k+1) - te Spalte Λ ^
der Matrix Λ geschätzt. Als Startwert im k-ten Haupt-
s c h r i t t für diesen Schätzer k+1
= il
1k+1
1
)T pk+r
wählt man den Eigenvektor a £ 0 ' = ( a ^ ,...
) T , der zum größten Eigen-
0
wert Λ^ ^ von R^ gehört und so normiert i s t , daß g i l t
M") Im t-ten Schritt ( t = 0 , 1 , 2 , . . . ) des k-ten Hauptschrittes wird zunächst die Matrix ß j ^ der Hauptdiagonalelemente von \ " B^)=diag(Rk-a(t)(a(t))T)
bestimmt, d.h.
.
Dann berechnet man den Eigenvektor c j ^ ' zum größten Eigenwert
der Ma-
trix
(n , , 2 M t , K , ) r · der so normiert i s t , daß
g i l t , berechnet
und geht über zum (t+1) - ten Schritt. Die Iteration wird abgebrochen, wenn in einem Schritt r der Unterschied zwischen a j ^ und klein i s t . Es i s t dann
nur noch sehr
521
Kapitel VIII: Die Faktorenanalyse
(r+i:
k+1
der g e s u c h t e S c h ä t z e r f ü r d i e ( k + 1 ) - te S p a l t e
der t h e o r e t i s c h e n
La-
dungsmatrix Λ. Danach berechnet man R R
-R . a ( k + 1 " R k ak
r + 1
' l.a f a k
r + }
V
und geht über zum ( k + 1 ) - t e n H a u p t s c h r i t t , f ü h r t d i e I t e r a t i o n durch u s w . , b i s man auch d i e q - t e S p a l t e von Λ g e s c h ä t z t h a t , d . h . den ( q - 1 ) - ten H a u p t s c h r i t t d u r c h g e f ü h r t h a t . Insgesamt hat man nun den Maximum - L i k e l i hood - S c h ä t z e r L f ü r Λ bestimmt: 11
iq
pi
pq
Or...,iq)
Der Maximum - L i k e l i h o o d - S c h ä t z e r f ü r d i e M a t r i x der t h e o r e t i s c h e n merk2 2 malseigenen V a r i a n z e n d i a g ( 6 . , . . . ,6 ) i s t gerade d i e im r - t e n S c h r i t t des Ρ (r) ( q - 1 ) - t e n H a u p t s c h r i t t e s bestimmte M a t r i x B ^ : d i a g ( 6 ^ , . . . ,6p) = B ^ j = d i a g
-
Nun kommen w i r zum angekündigten Τ e i t üfaei dlt
? )
Anzahl
dui
F a k t o i i n . Man
kann ü b e r p r ü f e n , ob d i e gewählte Anzahl q der e x t r a h i e r t e n gemeinsamen F a k toren zum Niveau α s i g n i f i k a n t zu g e r i n g war. Dazu w i r d d i e Hypothese Hq: Σ = Λ · Λ
τ
» 2 +diag(6^
2 6p)
, wobei Λ e i n e p x q - M a t r i x
ist,
getestet.
I s t η der Umfang der S t i c h p r o b e , d . h . die Anzahl der Z e i l e n in der Datenmatrix Y bzw. Y s t , so i s t nach B a r t l e t t (1951) u n t e r HQ d i e
x
2
dUeetH( LL -' LL T ++ D„ ß i r.h 1 O \ = n - 1 - i ( 2 p + 5) - f q j - l n ^ v J ° ' det R /
unter der Bedingung q
λV 2 . λ ν; 1-a
der χ 2 - Verteilung sind im Anhang
Die Quantile
vertafelt.
Natürlich ist auch eine durch die Maximum - Likelihood - Methode bestimmte Ladungsmatrix
L in der Regel nicht optimal
bzgl. der
Interpretierbarkeit
der q extrahierten orthogonalen Faktoren. Es empfiehlt sich also auf L noch ein Rotationsverfahren, vgl. Abschnitt 2, anzuwenden.
BeAApliZ:
In Cab.l sind die jeweils erreichten Punktzahlen (auf der Basis
von 100 möglichen Punkten) bei Klausuren in Mechanik (ME), Analytischer Geometrie (AG), Lineare Algebra (LA), Analysis (AN) und Elementare
Stati-
stik (ES) von 88 Studenten angegeben,s. Mardia et al. ( 1979). Die erreichten Punktzahlen geben gerade die Datenmatrix Y mit 88 Zeilen und 5 Spalten, d.h. η = 88 und ρ = 5, an.
Um die Abhängigkeit zwischen den fünf Merkmalen (Punkte in den fünf Klausuren) zu analysieren, soll eine Faktorenanalyse durchgeführt werden; die Ladungsmatrix Λ soll mittels Maximum - Likelihood - Methode geschätzt werden. Dazu berechnet man zunächst die Korrelationsmatrix
R = R Q , vgl.
Cab.2
Werden q = 2
orthogonale Faktoren extrahiert, so ergibt sich als geschätzte
Ladungsmatrix die in tab.3 angegebene Matrix L, aus der sich die Kommuna1itätenschätzungen der fünf Merkmale berechnen lassen: =
+ 1 ^ 2 = 0.630 2 + 0 . 3 7 7 2 = 0.539
kg = 0.579
,
= 0.800
,
k 2 = 0.654 und
kg = 0.572
Wir wollen die fünf beobachteten Merkmale im orthogonalen
Koordinatensystem
der beiden extrahierten Faktoren darstellen, vgl. Abb.4. Das erste Merkmal (Klausurpunkte Mechanik) z.B. wird dort durch den Punkt mit den Koordinaten (l..,!.,) = (0.630,0.377)
dargestellt.
Kapitel VIII: Die Faktorenanalyse
523
C a b . l : Erreichte Punktzahlen von 88 Studenten in 5 Klausuren, Datenmatrix Y
Fach
\
ME
AG
LA
AN
ES
1
2
3
4
5
77 63 75 55 63 53 51 59 62 64 52 55 50 65 31 60 44 42 62 31 44 49 12 49 54 54 44 18 46 32 30 46 40 31 36 56 46 45 42 40 23 48 41 46
82 78 73 72 63 61 67 70 60 72 64 67 50 63 55 64 69 69 46 49 61 41 58 53 49 53 56 44 52 45 69 49 27 42 59 40 56 42 60 63 55 48 63 52
67 80 71 63 65 72 65 68 58 60 60 59 64 58 60 56 53 61 61 62 52 61 61 49 56 46 55 50 65 49 50 53 54 48 51 56 57 55 54 53 59 49 49 53
67 70 66 70 70 64 65 62 62 62 63 62 55 56 57 54 53 55 57 63 62 49 63 62 47 59 61 57 50 57 52 59 61 54 45 54 49 56 49 54 53 51 46 41
81 81 81 68 63 73 68 56 70 45 54 44 63 37 73 40 53 45 45 62 46 64 67 47 53 44 36 81 35 64 45 37 61 68 51 35 32 40 33 25 44 37 34 40
\
Merk\mal
j
Stu-\ dent i n ^ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44
1
j
s
j
Fach
!
2
ME
AG
LA
AN
ES
1
2
3
4
5
46 40 49 22 35 48 31 17 49 59 37 40 35 38 43 39 62 48 34 18 35 59 41 31 17 34 46 10 46 30 13 49 18 8 23 30 3 7 15 15 5 12 5 0
61 57 49 58 60 56 57 53 57 50 56 43 35 44 43 46 44 38 42 51 36 53 41 52 51 30 40 46 37 34 51 50 32 42 38 24 9 51 40 38 30 30 26 40
46 51 45 53 47 49 50 57 47 47 49 48 41 54 38 46 36 41 50 40 46 37 43 37 52 50 47 36 45 43 50 38 31 48 36 43 51 43 43 39 44 32 15 21
38 52 48 56 54 42 54 43 39 15 28 21 51 47 34 32 22 44 47 56 48 22 30 27 35 47 29 47 15 46 25 23 45 26 48 33 47 17 23 28 36 35 20. 9
41 31 39 41 33 32 34 51 26 46 45 61 50 24 49 43 42 33 29 30 29 19 33 40 31 36 17 39 30 18 31 9 40 40 15 25 40 22 18 17 18 21 20 14
Merk-
χ
\mal
Stu-\ dent i \ 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 3
j
4
5
38 9 5 5
50.591
50.602
46 . 6 8 2
42 . 3 0 7
17 4 8 6
13.147
10.625
14 . 8 4 5
17 . 2 5 6
1 1
Kapitel VIII: Die Faktorenanalyse
524
Cab.2: Empirische Korrelationsmatrix R = R Q \
0
2
1 1 0 0 0 0
1 2 3 4 5
000 553 547 410 389
0.553 1.000 0.610 0.485 0.437
0 0 1 0 0
5
4
3 547 610 000 711 665
0 0 0 1 0
der fünf Merkmale
410 485 711 000 607
0 0 0 0 1
389 437 665 607 000
Cab.3: Geschätzte Ladungsmatrix L bei Extraktion von zwei Faktoren nach der Maximum - Likelihood - Methode
^\Faktor
F^
F
Merkmal j 1 2 3 4 5
1
F
2
'jl 0.630 0.696 0.893 0.782 0.729
Um die Faktoren optimal
0.377 0.308 -0.048 -0.205 -0.201
interpretierbar zu machen, muß man sie zunächst
rotieren, wie dies in Abschnitt 2 geschieht.
Aber auch der nichtrotierten Matrix L sieht man etwas an: Nämlich daß sich die Faktorladungen auf die I.Spalte von L konzentrieren. Dies ist ein Hinweis darauf, daß hier die Extraktion eines Faktors F^ schon ausreichend wäre. Dieser Hinweis bestätigt sich, denn führt man die Maximum - Likelihood - Schätzung für q = 1 durch, so ergibt sich L = 1 1 = ( l 1 1 , . . . , l p 1 ) T = (0.599,0.668,0.915,0.773,0.724) T und die Teststatistik des Signifikanztests ergibt sich mit V=^[(5-1)2-(5+1)]=5 zu
X2=8·59
> X5;0.95=11·1
'
so daß die Hypothese H q für q = 1 zum 5% Niveau nicht verworfen werden kann.
525
Kapitel VIII: Die Faktorenanalyse
1
-0.50.4-
* Mechanik
0.3-
* Analytische Geometrie
0.20.1-0.1
o!i
0.5
χ Algebra
-0.1-0.2-
E
I
" S
s
»
1.'0
F,
*
-03-
Abb.4: Darstellung der 5 Merkmale (Klausurpunkte in 5 Fächern) im Koordinatensystem der Faktoren, vgl. auch Tab.3
1.2
DIE
KANONISCHE
Die kanon-csche.
faktoinnanalyiz
das gleiche Modell
FΑ ΚΤ 0 R ΕΝ Α ΝA L VSΕ
geht auf Rao (1955) zurück. Bei ihr liegt
zugrunde wie bei der Maximum - Likelihood - Methode. Ziel
der kanonischen Faktorenanalyse ist es, die q kanonischen
Korrelationen,
vgl. Abschnitt 1.4 in Kap.III, zwischen den ρ Merkmalen und den q Faktoren zu maximieren. Sie hat den Vorteil, daß die Anzahl q der Faktoren nicht im Vorhinein festgelegt werden muß und daß sie rechentechnisch
relativ
leicht handhabbar ist. Obwohl kanonische Faktorenanalyse und M a x i m u m Likelihood - Methode von verschiedenen Schätzprinzipien ausgehen, sind die Methoden theoretisch gleich, d.h. sie liefern (bis auf Rechenungenauigkeiten) bei gleicher Faktorenanzahl
gleiche Schätzungen der Ladungsmatrix.
Dies liegt daran, daß die den beiden Verfahren zugrundeliegenden
Eigen-
wertprobleme identisch sind: Durch Prämultiplikation mit der Matrix U (ü ist die Matrix der merkmalseigenen Varianzen) wird das Eigenwertproblem
2
526
Kapitel VIII: Die Faktorenanalyse
der kanonischen Faktorenanalyse U"1(R-U2)U"1(U"1-A) = (lf1-A)J in das der Maximum - Likelihood - Methode überführt. Konkret geht man bei der kanonischen Faktorenanalyse so vor, daß man zu2
2
nächst Startwerte kj Q für die Kommunalitäten k j , j=1
p, der ρ Merkmale
f e s t s e t z t , hierzu können die in Abschnitt 1.4 angegebenen Schätzungen für Kommunali täten verwandt werden. Mit diesem Startwert hat man natürlich g l e i c h Startwerte 6
jo = 1 " kjo
™·
j=1,...,p
f ü r die ρ merkmalseigenen Varianzen bestimmt. Die reduzierte K o r r e l a t i o n s matrix R q i s t dann n a t ü r l i c h gegeben a l s R = R - U^ ο ο
&2) po
mit U^ = diag(6? J ο 1o
.
Mit U" 1 = d i a g ( 1 / 6 l o
l/6 p Q )
werden nun diejenigen Eigenwerte der Matrix U
- 1
n0
~
- 1
•0' V 0V
bestimmt, die größer a l s Null s i n d ; ihre Anzahl sei hier mit q bezeichnet. Zu den Eigenwerten a
*o
= (a
λ
ι 0 > · · · > λ ^ 0 werden dann zunächst Eigenvektoren
Uo
Vo
) T
«r
bestimmt, die auf Länge 1 normiert s i n d , d.h. a
L'as.o=1
·
Im t-ten S c h r i t t ( t = 1 , 2 , . . . ) werden dann die t - S c h r i t t - Kommunalitäten
' W t - i
l
i t .
f U r j = 1
P
'
die Diagonalmatrix u2 = d i a g ( 6 ^ t , . . . , 6 2 t ) die reduzierte Korrelationsmatrix
mit
6jt = 1 -
fürj=1,...,p
527
Kapitel VIII: Die Faktorenanalyse
und die Matrix U"1=diag(1/61t
1/6 p t )
bestimmt. Dann berechnet man die q größten Eigenwerte
der Ma-
trix
sowie die zugehörigen normierten Eigenvektoren a
«
= ( a
Ut
Vt
) T
'
a
u ' \ t
= 1
für £.= 1,... ,q
und führt dann den ( t + 1 ) - t e n Schritt des Verfahrens durch. Das Verfahren wird im (m+1) - ten Schritt abgebrochen, wenn die Matrizen U ^ und
na-
hezu gleich sind. Die Ladungsmatrix L für q Faktoren ergibt sich dann mit J = diagU1m,...,λ~ ) m Im qm und
/ 2 L = vmv jm1 m
·
r 2 Mit Hilfe des in Abschnitt 1.2 angegebenen T u t A mit Β ^ = überprüft man nun sukzessive für die erste Spalte von L, für die ersten beiden Spalten von L usw. die Hypothese, daß diese Spaltenanzahl nicht signifikant zu gering i s t , um die Merkmale zu erklären. Kann die Hypothese zum erstenmal für die ersten qj< q Spalten von L abgelehnt werden, so wird die resultierende Ladungsmatrix L der kanonischen Faktorenanalyse a l s die Matrix der ersten q Spalten von L festgesetzt. Ein BesL&pieZ zur kanonischen Faktorenanalyse findet man im abschließenden Abschnitt 4 dieses Kapitels.
1.3
DIE
HAUPTKOMPONENTEN-
UND
DIE
Η A UΡΤ F Α ΚΤ 0 R Ε Ν -
ANALYSE D i e Hauptkampomntzmnatyiz
(pu.nc.ipal.
compomnt
analyiii),
die auf
Hotel-
ling (1936) zurückgeht, unterscheidet sich in einem Punkt wesentlich von den Methoden der Faktorenanalyse. Versucht orthogonale Faktoren F . , . . . , F
man bei der Faktorenanalyse q
zu extrahieren, so daß sich durch die Kor-
528
Kapitel VIII: Die Faktorenanalyse
relationsmatrix zwischen beobachteten Merkmalen und extrahierten, nicht beobachtbaren Faktoren (da die Faktoren orthogonal sind, ist dies gerade die Ladungsmatrix L) die reduzierte Korrelationsmatrix R der ρ beobachteten Merkmale widerspiegeln ließ (R = L•L T ), so geht man bei der Hauptkomponentenanalyse von der Korrelationsmatrix R selbst aus; die Annahme merkmalseigener Varianzen wird hier also nicht gemacht. Die ρ beobachteten Merkmale werden hier durch eine lineare Transformation in ρ unkorrelierte, also orthogonale Komponenten überführt.
Ziel der Hauptkomponentenanalyse ist es in der Regel nicht, interpretierbare Komponenten zu konstruieren; daher sieht man auch meist von der Rotation des Ergebnisses einer Hauptkomponentenanalyse ab. Vielmehr dient diese mehr formale Analyse dazu, komplizierte Beziehungen in beobachteten Daten auf eine einfache Form zu reduzieren.
Hat man etwa eine n*2 - Datenmatrix Y, d.h. zwei Merkmale an η Objekten beobachtet, so lassen sich die η Zeilen der Datenmatrix durch η Punkte mit Koordinaten (y^ ^
»· · · >( y n1 ' y n 2 ' zweidimensional darstellen. Geht man
davon aus, daß die beiden Merkmale in einer Grundgesamtheit, aus der die η Objekte einer Stichprobe stammen, normal verteilt sind und eine von Null verschiedene Korrelation haben, so liegen die η Punkte i.w. in einer Ellipse mit Hauptachsen K^ und Kg, die sich ungefähr im Schwerpunkt S schneiden. In Abb.5 werden diese Ausführungen graphisch erläutert; die η = 15 Punkte sind durch Kreuze angedeutet.
Durch Verschieben des Nullpunktes und Drehung transformiert die Hauptkomponentenmethode das Koordinatensystem der beobachteten Merkmale in das der Hauptachsen der Ellipse. Dieses Prinzip läßt sich natürlich auf
p>2
Merkmale ausweiten; es entsteht dann ein Ellipsoid mit ρ Hauptachsen K^ ; ...,Kp. Fordert man zusätzlich, wie wir es im zweidimensionalen Fall implizit getan haben, daß die I.Komponente K^ ein Maximum der Gesamtvarianz aller Merkmale ausschöpft, d.h. der längsten Hauptachse des p - d i mensionalen Ellipsoids entspricht, daß die 2.Komponente K,, ein Maximum der Restvarianz ausschöpft, d.h. der zweitlängsten Hauptachse des p - d i m e n s i o nalen Ellipsoids entspricht usw., so ist diese Transformation eindeutig, falls die Varianzen der ρ beobachteten Merkmale paarweise verschieden sind.
Formal entspricht diese Transformation im Koordinatensystem der Variablen einem Eigenwertproblem: Der Ladungsvektor gerade dem normierten Eigenvektor der empirischen
Korrelationsmatrix
der Komponente K^ entspricht
= 1) zum k - größten Eigenwert A k
529
Kapitel VIII: Die Faktorenanalyse
Yo
Abb.5: Graphische Darstellung einer 15*2 - Datenmatrix Y mit Schwerpunkt und Hauptachsen
R =-
•Υ ·Υ 'st 'st
und die Transformation ist eindeutig, falls alle Eigenwerte
λ^>...>λ
von R verschieden sind. Da R eine empirische Korrelationsmatrix
ist, ist
diese Eindeutigkeit der Transformation in der Praxis wegen n > p quasi
im-
mer erfüllt. Die unkorrelierten, orthogonalen Komponenten entstammen dann einer Grundgesamtheit mit normierter Verteilung (Erwartungswert Null
und
Varianz Eins). Anhand der Eigenwerte A^ von R kann man nun feststellen, wie groß der Anteil der Varianz der standardisierten Merkmale ist, der durch die k-te Komponente K^ erklärt wird. Dieser Anteil
V
V
ist gerade
p
Bei der Bestimmung der Matrix Κ der Komponentenwerte (sie entspricht der
Kapitel VIII: Die Faktorenanalyse
530
Faktorenwertematrix F), vgl. Abschnitt 3, die ja die Beziehung zwischen den η beobachteten Objekten und den Komponenten beschreibt, beschränkt man sich häufig auf q < p wesentliche Komponenten. Und zwar wählt man q so, daß gilt Yq
= Y
1
+ γ
2
+
··· + Y q -
Ύ
und
Ύ Γ " ·
+
ν ΐ
< Ύ
Eine unverbindliche Empfehlung ist γ = 0.9 zu wählen; dann werden mindestens 90% der Gesamtvarianz der beobachteten Merkmale durch die Komponenten Kr...,K
erklärt.
Eine andere Möglichkeit q festzulegen, besteht darin, in einem Diagramm die Größen γ^ als Funktion von k darzustellen. Verbindet man die Punkte im Diagramm, so wählt man q so, daß die Verbindungslinie der Punkte zwischen q und q-1 eine deutliche Sprungstelle besitzt und für k > q keine solche deutliche Sprungstelle mehr auftaucht. Bi-uplii: An den Stämmen von corsischen Pinien wurden ρ = 1 3 physikalische Merkmale, z.B. der Feuchtigkeitsgehalt, die Anzahl der Jahresringe an Basis und Spitze des Stammes, beobachtet, von denen man annahm, daß sie die Druckfestigkeit des Holzes beeinflussen, vgl. Jeffers (1967):"Two case studies in the application of principal component analysis", Appl. Statistics 16, S.225 - 236. Die empirische Korrelationsmatrix der 13 Merkmale ist in Cab.4 angegeben.
Nun soll eine Hauptkomponentenanalyse für die 13 beobachteten Merkmale durchgeführt werden, d.h. das Koordinatensystem der Merkmale soll in oben beschriebener Weise linear in ein Koordinatensystem von 13 orthogonalen Komponenten transformiert werden. Dazu müssen die Eigenwerte von R sowie deren zugehörige normierte Eigenvektoren
... bestimmt
werden. Diese Eigenwerte und Eigenvektoren sind in Cab.5 zusammen mit Ύ1
Υ13 und k u=1
u
K
angegeben. Die Matrix 1 13 L
=< V 2
Ί
13): 13 1
' 13 13
ist natürlich gerade die vollständige Ladungsmatrix der ρ Komponenten. Es müßte eigentlich nun gelten
Kapitel VIII: Die Faktorenanalyse
531
532
Kapitel VIII: Die Faktorenanalyse
533
Kapitel VIII: Die Faktorenanalyse
13 I
X. = 13 = t r R
k=1
,
γ
η
= 1
;
IJ
K
Abweichungen entstehen durch Rechenungenauigkeiten. Durch d i e q = 7 e r s t e n Komponenten s c h ö p f t man b e r e i t s 91.6% der Gesamtvar i a n z a l l e r Merkmale a u s . Zur Berechnung der Faktorenwerte wäre d i e s e Anzahl von Komponenten a l s o s i c h e r l i c h h i n r e i c h e n d genau. Tragen w i r noch d i e γ^ in A b h ä n g i g k e i t von k in e i n Diagramm e i n , v g l . Ahb.6, und verbinden die Punkte des Diagramms. Nach dem Diagramm wären a l s o auch schon v i e r Komponenten, d i e a l l e r d i n g s nur 73.8% der Gesamtvarianz e r k l ä r e n ,
hinreichend.
Ύ„
0.3
0.2
0.1
1
2
3
q=4
5
I
6
7
8
9
10
11
12
13
Ahb.6: D a r s t e l l u n g der Größen γ^ in A b h ä n g i g k e i t von k
|
V i e l f a c h w i r d die Hauptkomponentenanalyse in l e i c h t e r Abwandlung a l s
fakto-
r e n a n a l y t i s c h e Methode angewandt. Man geht dann davon a u s , daß merkmalseigene Varianzen vorhanden s i n d , s c h ä t z t zunächst aus R d i e Kommunalitäten
k?,...,k2 1 , Ρ
der ρ beobachteten Merkmale und b i l d e t die r e d u z i e r t e K o r r e l a t i o n s m a t r i x
R,
v g l . A b s c h n i t t 1.4. Sodann wendet man auf R eine Hauptkomponentenanalyse an, d.h. man bestimmt Eigenwerte und zugehörige Eigenvektoren mit Norm 1; d i e wesentlichen q Eigenvektoren bestimmen dann die Ladungsmatrix L . Diese Methode zur Schätzung e i n e r Ladungsmatrix nennt man auch IfUnaipal
iactoi
analyi-U)
.
Haupt^aktoiinanaly-se
534
1.4
Kapitel VIII: Die Faktorenanalyse
DIE
ZENTROID
METHODE
Die ZtznOioA-dmeXhode. oder SchweApunkXmzthode.
zur Bestimmung einer Ladungs-
matrix L geht auf Thurstone (1931) zurück. Obwohl diese Methode nur eine Näherungslösung für L liefert und viel Raum für Willkür läßt, ist sie wegen ihrer einfachen Durchführbarkeit in der Praxis sehr beliebt. Die Idee der Zentroidmethode wird im folgenden kurz beschrieben. Wie schon eingangs erwähnt, lassen sich die ρ beobachteten Merkmale als Punkte im q - dimensionalen Faktorraum darstellen. Allerdings kennt man die Dimension q, die Anzahl der zu extrahierenden Faktoren, nicht. Bei der Zentroidmethode wird nun verlangt, daß die Achse, die den ersten der q extrahierten Faktoren darstellt, den Schwerpunkt der ρ Merkmalspunkte im q - dimensionalen Raum schneidet, und die übrigen Achsen jeweils orthogonal sind. Damit ist das von den q Faktoren gebildete Koordinatensystem eindeutig (bis auf Umnummerierungen). Da das konkrete Verfahren aber viel Willkür ermöglicht, erhält man stets nur eine Näherungslösung L, die keine bekannten statistischen Eigenschaften besitzt. Das entsprechende exakte Verfahren ist die Hauptfaktorenanalyse, die im Abschnitt 1.3 angesprochen wurde.
Konkret geht man bei der Zentroidmethode wie folgt vor. Die beobachtete ηχρ - Datenmatrix Y wird zunächst standardisiert, d.h. man bestimmt die Matrix Y . mit Elementen y ^ = ( y . . - y H )/s-, wobei y·. die Elemente der MaSX IJ 1J «J J 1J trix Ϋ, y j den Mittelwert der y^j in der j-ten Spalte von Y und Sj die empirische Standardabweichung in der j-ten Spalte von Y bezeichnet. Die empirische Korrelationsmatrix der ρ Merkmale ergibt sich dann zu
An dieser Stelle taucht das erste Problem der Zentroidmethode auf: Die Kom2 munalitäten k., d.h. der Anteil der Varianz des j-ten standardisierten Merkmals, der auf gemeinsame Faktoren entfällt, müssen ä priori angegeben werden, denn es wird mit Korrelationsmatrix R gearbeitet. 2 der reduzierten 2 Da die Kommunalitäten aber erst nach Bestimmung der Ladungsmatrix L bekannt sind, müssen sie aus der Korrelationsmatrix R geschätzt werden. Einige mögliche Schätzer wollen wir hier vorstellen. Die einfachste Möglichkeit ist k. = J
max j' = i
| r ·, . | Ρ J J
für j = 1,...,p
j· ^ j
also die maximale betragliche Korrelation in der j-ten Spalte von R, als
Kapitel VIII: Die Faktorenanalyse
535
S c h ä t z e r zu v e r w e n d e n . D a d u r c h w e r d e n d i e K o m m u n a l i t ä t e n a b e r i n d e r Regel überschätzt.
Man u n t e r s c h ä t z t z u m e i s t d i e K o m m u n a l i t ä t e n , wenn man
kJ H1P j -1=Ρ i
für j =1
j1 j
ρ
2 Ein w e i t e r e r Schätzer f ü r k j
als Schätzer wählt.
.. ist
J τJ '
*
r,
ή I
J1J2
mit r.
.=
max | r . , . | j' Φ j J J
J1J
und
r J•2 J·
für
max j ' Φ j-j,
j=1,...,p.
Das P r o d u k t d e r b e i d e n b e t r a g l i c h g r ö ß t e n K o r r e l a t i o n e n r . . , r . . i n d e r J^J JjjJ j - t e n S p a l t e von R w i r d h i e r d u r c h d i e b e t r a g l i c h e K o r r e l a t i o n d e r Merkmale j j
und j ^ d i v i d i e r t ;
d a d u r c h w e r d e n s e h r hohe K o r r e l a t i o n e n
ausgegli-
chen. Ausgehend von d e r e m p i r i s c h e n K o r r e l a t i o n s m a t r i x werden z u n ä c h s t i n R Vorzeichenwechsel entsteht;
R = R q f ü r d i e ρ Merkmale
vorgenommen, w o d u r c h e i n e M a t r i x R^
i n d i e s e r w e r d e n dann d i e D i a g o n a l e l e m e n t e d u r c h 2 k, 1o'" " ' ζ ο e
Kommunalitäten-
Schätzungen
(0) 12
r(o) Γ1ρ
(o) 12
k2 20
r
»
Jo) 2p
i kK 2 10 r
1p
r
denn b e i dem V o r z e i c h e n w e c h s e l
(o) 2p
i s t zu b e a c h t e n , daß d i e s e s t e t s i n g a n z e n
S p a l t e n und Z e i l e n von R = R q e r f o l g e n m ü s s e n , d . h . w e r d e n i n e i n e r j V o r z e i c h e n v e r t a u s c h t , so w e r d e n s i e a u c h i n d e r j - t e n Z e i l e H i e r b l e i b t dem e i n z e l n e n v i e l
Raum f ü r W i l l k ü r : Man i s t f r e i
Spalte
vertauscht. i n d e r Wahl
d e r K o m m u n a l i t ä t e n s c h ä t z e r und i n d e r Wahl d e r Z e i l e n und S p a l t e n , i n denen Vorzeichenwechsel
vorgenommen w e r d e n . Es muß l e d i g l i c h d a r a u f g e a c h t e t w e r -
d e n , daß d i e S p a l t e n s u m m e n U^q
UpQ von R' u n d d i e Summe d e r E l e m e n t e ο
l U j 0 den f o l g e n d e n B e d i n g u n g e n g e n ü g e n : j =1 Uj0
j =1
> 0
und
ü
1
für
j=1,...,p
536
Kapitel VIII: Die Faktorenanalyse
Zunächst werden nun die Spaltensummen der Matrix R' ο
v
^
j
l
r
,
i?]
fur
j=i
p
j7j und die normierten
v
u
Spaltensummen
ü
J o / y X
j
j o
=1
ρ
berechnet. Dann ist T..
. f a l l s in der j-ten Spalte von R' kein Vorzeichen-
{
J
Wechsel
> für j=1 Vektor ^
ρ
S O n S t
stattfand
die Ladung des I.Faktors Fj auf dem j-ten Merkmal, d.h. der b l 1 d e t
=
die
erste Spalte der geschätzten Ladungs-
matrix L. Nun wird im k-ten Schritt ( k = 1 , 2 , — )
R
k = ~
R
k-rV
T
zunächst die Matrix
k
der k-ten Residualkorrelationen berechnet. Zur Probe kann man hier die Spaltensummen der Matrix R k berechnen, die bis auf
Rechenungenauigkeiten
alle Null sein müssen. Um weitere Faktoren extrahieren zu können, werden nun wieder willkürlich einige Vorzeichen in der Matrix R k vertauscht. Dabei sind die gleichen Regeln und Bedingungen wie bei der Bestimmung von Fl· zu beachten. Dann werden die Spaltensummen der resultierenden Matrix R k
" j k ^ j V j I ,
und die normierten
W
W
/
r
JM
™-J.1....,p
Spaltensummen
/
.
ü
,
Jk
J-1.-.P
berechnet. Ändert man die Vorzeichen derjenigen ϊ ^ + ι · die zu einer Spalte j gehören, deren Vorzeichen vertauscht wurden, so ergeben sich die Ladungen
{
1 -k+« jk+1
, falls in der j-ten Spalte von R. kein Vorzeichenwechsel stattfand -
s o n s t
Kapitel VIII: Die Faktorenanalyse
des ( k + 1 ) - t e n Faktors
537
F ^ ·
Das Verfahren wird im q-ten S c h r i t t abgebrochen, wenn R^ der Nullmatrix genügend ähnlich i s t , d.h. wenn a l l e Elemente von R q "sehr k l e i n " s i n d . Man hat dann q Faktoren e x t r a h i e r t und näherungsweise eine Ladungsmatrix L mit q Spalten bestimmt. Was in diesem Zusammenhang "sehr k l e i n " i s t , b l e i b t dem Einzelnen überlassen. Da das bestimmte L keinem bekannten s t a t i s t i s c h e n P r i n z i p genügt, l ä ß t s i c h , wie dies bei anderen Verfahren möglich i s t , kein Test durchführen, ob die Anzahl q der extrahierten Faktoren s i g n i f i k a n t ausreichend i s t , um die beobachteten Zusammenhänge zwischen ρ Merkmalen zu erklären. 2 Bei der Zentroidmethode waren wir auf eine Schätzung der Kommunalitäten kj im Vorhinein angewiesen. Die e n t g ü l t i g geschätzten Kommunalitäten ergeben s i c h jedoch e r s t im Nachhinein:
fUr j=1
'----p ·
"j-ii^-^Vj, 4
Vergleicht man diese mit den u r s p r ü n g l i c h geschätzten Kommunalitäten k j o und treten starke Abweichungen a u f , so s o l l t e man das ganze Verfahren noch ~
~
2
einmal durchführen und dabei die Diagonale der Matrix R - R' mit den k. anΟ J Ao s t e l l e der k. besetzen, jo Belip-izZ:
Die Cab.6 g i b t die empirische Korrelationsmatrix R von acht ver-
schiedenen M u s i k t e s t s , wie s i e von Jöreskog (1963) e r m i t t e l t wurde, wieder. i a b . 6 : Korrelationsmatrix R f ü r acht Musiktests \
j j \ 1 2 3 4 5 6 7 8
2
1 1 0 0 0 0 0 0 0
000 466 4 56 441 375 312 247 207
0 1 0 0 0 0 0 0
466 000 311 296 521 286 483 314
3 0 0 1 0 0 0 0 0
456 311 000 185 184 300 378 378
5
4 0 0 0 1 0 0 0 0
441 296 185 000 176 244 121 341
0 0 0 0 1 0 0 0
375 521 184 176 000 389 211 153
7
6 0 0 0 0 0 1 0 0
312 286 300 244 389 000 210 289
0 0 0 0 0 0 1 0
247 483 378 121 211 210 000 504
8 0 0 0 0 0 0 0 1
207 314 378 341 153 289 504 000
M i t t e l s der Zentroidmethode wollen wir nun eine Ladungsmatrix L bestimmen, die die Reproduktion der reduzierten Korrelationsmatrix R e r l a u b t . Wir setzen R' = = R o o
2
und müssen zunächst die Kommunalitäten k. schätzen. Wir j
538
Kapitel VIII: Die Faktorenanalyse
wollen hier AO
k. + = max |r.,.| Ot j V j J J
für j=1
8, t=0,1,...
als Schätzer wählen. Diese Schätzer werden in die Diagonale von R = R^ eingesetzt; dadurch entsteht R = Rg> vgl. iah.7, wo auch die Spaltensummen U^q und die normierten Spaltensummen ljj =1
für j=1,...,p angegeben sind.
Cab.7: Reduzierte Korrelationsmatrix R = R' der acht Musiktests; Spaltensummen und normierte Spaltensummen
1 2 3 4 5 6 7 8 U
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
466 521 311 296 521 286 48 3 314
0 0 0 0 0 0 0 0
456 311 456 185 184 300 378 378
2.970
3.198
0.643
0.692 . 0.573
j0
Mit
466 466 456 441 375 312 24 7 207
= (1^,...)
T
2.648
0 0 0 0 0 0 0 0
441 296 185 441 176 244 121 341
2.245 0.486
0 0 0 0 0 0 0 0
375 521 184 176 521 389 211 153
2.530 0.547
0 0 0 0 0 0 0 0
312 286 300 244 389 389 210 289
2.419 0.523
0 0 0 0 0 0 0 0
247 483 378 121 211 210 504 504
0 0 0 0 0 0 0 0
2.658
207 314 378 341 153 289 504 504
2.690
0.575
0.582
haben wir die Ladungen des Faktors F^ bestimmt und
berechnen nun die Matrix
der 1.Residualkorrelation, vgl. Cab.8. Cab.8: Matrix R, der 1.Residualkorrelationen \
j 1
ζ 3 4 5 6 7 8
1 0 0 0 0 0 -0 -0 -0
053 021 088 129 023 024 123 167
2 0 0 -0 -0 0 -0 0 -0
021 042 086 040 142 076 085 089
3 0 -0 0 -0 -0 0 0 0
088 086 128 093 129 000 049 045
5
4 0 -0 -0 0 -0 -0 -0 0
129 040 093 205 090 010 158 058
0 0 -0 -0 0 0 -0 -0
023 142 129 090 222 103 104 165
6 -0 -0 0 -0 0 0 -0 -0
024 076 000 010 103 115 091 015
7 -0 0 0 -0 -0 -0 0 0
123 085 049 158 104 091 173 169
8 -0 -0 0 0 -0 -0 0 0
167 089 04 5 058 165 015 169 165
In der Matrix R. werden sodann Vorzeichen getauscht. Und zwar in der vier-
539
Kapitel VIII: Die Faktorermnalyse
ten S p a l t e , dann i n der v i e r t e n Z e i l e , in der s i e b t e n S p a l t e und Z e i l e und in der achten S p a l t e und Z e i l e . E r s e t z t man zudem die Diagonal g l i e d e r von Rj durch = max | r ( | j | jVj J J
k* J
fürj=1,...,8
,
so e r g i b t s i c h d i e in Cab.9 d a r g e s t e l l t e M a t r i x R.j. In Tab.9 s i n d außerdem d i e Spaltensummen sowie die normierten Spaltensummen
und die L a -
dungen 1j2 d e s 2. e x t r a h i e r t e n F a k t o r s Fg angegeben. lab.9: Matrix mit Spaltensummen U.^, normierten Spaltensummen l . g und Faktorlaiungen 1,?
X 1 2 3 4 5 6 7 8
U
j1
^2
1 0 0 0 -0 0 -0 0 0
2
167 021 088 129 023 024 123 167
0 0 -0 0 0 -0 -0 0
021 142 086 040 142 076 085 089
3 0 -0 0 0 -0 0 -0 -0
088 086 129 093 129 000 049 045
5
4 -0 0 0 0 0 0 -0 0
129 040 093 205 090 010 158 058
0 0 -0 0 0 0 0 0
023 142 129 090 222 103 104 165
7
6 -0 -0 0 0 0 0 0 0
024 076 000 010 103 115 091 015
0 -0 -0 -0 0 0 0 0
123 085 049 158 104 091 173 169
8 0 0 -0 0 0 0 0 0
0 4 36
0 187
0 001
0 209
0 720
0 234
0 368
0 787
0 254
0 109
0 001
0 122
0 420
0 136
0 215
0 459
0 254
0 109
0 001
- 0 122
0 420
0 136
- 0 215
- 0 459
6
7
8
Die M a t r i x der R2
=
2.Residualkorrelationen R-j -
i s t in l a b . 1 0 angegeben.
l a b . 1 0 : Matrix R, der \
j
1
J X \ 1 2 3 4 5 6 7 8
0 -0 0 -0 -0 -0 0 0
102 007 088 160 084 059 068 050
2.Residualkorrelationen
2 -0 0 -0 0 0 -0 -0 0
007 130 086 027 096 091 108 039
3 0 -0 0 0 -0 0 -0 -0
088 086 129 093 129 000 049 045
4 -0 0 0 0 0 -0 -0 0
160 027 093 190 039 007 184 002
5 -0 0 -0 0 0 0 0 -0
084 096 129 039 046 046 014 028
-0 -0 0 -0 0 0 0 -0
059 091 000 007 046 09 7 062 04 7
0 -0 -0 -0 0 0 0 0
068 108 049 184 014 062 127 070
0 0 -0 0 -0 -0 0 -0
*ÜJ1
167 089 04 5 058 165 015 169 169
050 039 04 5 002 028 04 7 070 042
2.942
540
Kapitel Vni: Die Faktorenanalyse
Obwohl diese Matrix der Nullmatrix recht nahe kommt, wollen wir noch einen weiteren Faktor Fg extrahieren. Dazu müssen wir in der Matrix R^ zunächst Vorzeichenwechsel vornehmen. Wir tauschen die Vorzeichen in der ersten Spalte und Zeile und in der d r i t t e n Spalte und Z e i l e ; damit erhalter wir die Matrix R^. Nun schätzen wir die Residual - Kommunalitäten durch kL=max|r^]| J j
f ü r j=1
8
,
und es ergibt s i c h die Matrix R^, die zusammen mit ihren Spaltensummen IK,, normierten Spaltensummen
und den Ladungen 1 .g des 3.Faktors F^ in
C a b . l l angegeben i s t . Cab.11: Matrix R~ mit Spa1 tensummen, normierten Spaltensummen und Ladungen des 3. Faktors \
j 1 2 3 4 5 6 7 8
uj2
'J3
2
1 0 0 0 0 0 0 -0 -0
160 007 088 160 084 059 068 050
0 0 0 0 0 -0 -0 0
007 130 086 027 096 091 108 039
3 0 0 0 -0 0 0 0 0
088 086 129 093 129 000 049 045
5
4 0 0 -0 0 0 -0 -0 0
160 027 093 190 039 007 184 002
0 0 0 0 0 0 0 -0
084 096 129 039 129 046 014 028
6 0 -0 0 -0 0 0 0 -0
059 091 000 007 046 097 062 04 7
7 -0 -0 0 -0 0 0 0 0
068 108 049 184 014 062 184 070
8 -0 0 0 0 -0 -0 0 0
*ÜJ2
050 039 045 002 028 047 070 070
0 503
0 186
0 433
0 134
0 509
0 119
0 019
0 101
0 355
0 131
0 306
0 095
0 360
0 084
0 013
0 071
- 0 355
0 131
- 0 306
0 095
0 360
0 084
0 013
0 071
2.004
Berechnen wir
so ergibt s i c h die Matrix aus tab.12. Diese i s t der Nullmatrix genügend nahe, so daß wir daß Extraktionsverfahren hier abbrechen wollen. Wir haben also mit H i l f e der Zentroidmethode drei orthogonale Faktoren F^, F^, Fj e x t r a h i e r t , die die Zusammenhänge zwischen den acht Musiktests (Merkmalen) erklären. Die Beziehungen zwischen den Merkmalen und den Faktoren werden durch die konstruierte (näherungsweise) Ladungsmatrix ί = aus Cab.13 beschrieben. Da es sich um orthogonale Faktoren handelt, i s t das Element
( j = 1 , . . . , 8 , k=1,2,3) der Matrix L gerade die Korrelation
zwischen dem j-ten Musiktest und dem k-ten Faktor. Eine gute Interpretation der Faktoren wird e r s t durch eine Rotation möglich., v g l . Abschnitt 2.1.1.
541
Kapitel VIII: Die Faktorenanalyse
Cab.12: M a t r i x R.. der
\
y\ 1 2 3 4 5 6 7 8
i
2
1 0 -0 -0 0 -0 0 -0 -0
3.Residualkorrelation
-0 0 0 0 0 -0 -0 0
034 040 021 126 044 029 073 075
3
040 113 046 015 049 102 110 030
-0 0 0 -0 0 -0 0 0
0 0 -0 0 0 -0 -0 -0
021 046 035 122 019 026 045 023
6
5
4 126 015 122 181 005 015 185 005
-0 0 0 0 -0 0 0 -0
044 049 019 005 001 016 009 054
0 -0 -0 -0 0 0 0 -0
029 102 026 015 016 090 061 053
7 -0 -0 0 -0 0 0 0 0
073 110 045 185 009 061 184 069
8 -0 0 0 -0 -0 -0 0 0
075 030 023 005 054 053 069 065
I a h . 1 3 : Nä'herungsweise Ladungsmatrix L f ü r die drei Faktoren nach der Zentroidmethode ^\Faktor
F^ F
Musiki, test j 1 2 3 4 5 6 7 8
0 0 0 0 0 0 0 0
F
1
64 3 692 573 486 54 7 523 575 582
0 0 0 -0 0 0 -0 -0
F
2
254 109 001 122 420 136 215 459
3
-0.355 0.131 -0.306 0.095 0.360 0.084 0.013 0.071
Wir wollen nun noch überprüfen, ob die e n t g ü l t i n oeschätzten Kommunalitä2 ~2 ten kj in etwa mit den u r s p r ü n g l i c h geschätzten Werten kj Q übereinstimmen, oder ob es s i c h h i e r lohnen würde, mit den k 2 das Verfahren zu wiederholen. In i a b . 1 4 s i n d d i e geschätzten und d i e e n t a ü l t i n e n Kommunalitäten anneoe2
ben. So berechnet s i c h etwa k j zu k
3
= ]
31
+]
32
+ Ί
33
=
°·5732
+
0.001 2 + ( - 0 . 3 0 6 2 ) = 0.422
Eine Wiederholung des Verfahrens wäre h i e r unter Umständen angebracht,
vgl.
Tab.14.
1.5
DIE
JÖRESKOG-METHODE
Jöreskog ( 1963) hat d i e sogenannte Jüi&iliog
- Methode der Faktorenanalyse
vorgeschlagen. Wie bei der Zentroidmethode, der Maximum - L i k e l i h o o d - Methode und der kanonischen Faktorenanalyse werden bei der Jöreskog - Methode
Kapitel VM: Die Faktorenanalyse
542
Cab.14: E n t g ü l t i g e und u r s p r ü n g l i c h g e s c h ä t z t e Kommunalitäten der acht Musiktests Musiktest j
2 k)
1 2 3 4 5 6 7 8
0 .604 0 .508 0 422 0 260 0 605 0 299 0. 377 0 554
JO 0.466 0.521 0.456 0.441 0.521 0.389 0.504 0.504
q orthogonale Faktoren e x t r a h i e r t . Jöreskog geht davon a u s , daß s i c h d i e t h e o r e t i s c h e Kovarianzmatrix Σ der s t a n d a r d i s i e r t e n Merkmale d a r s t e l l e n l ä ß t a l s £ = A-AT+diag(0p...,6p)
,
und v e r l a n g t nun, um die E i n d e u t i g k e i t der Schätzer L f ü r die Ladungsmatrix Λ und d i a g ( 6 , , . . . ,ι einer Ladungsmatrix e i n f ü h r t e . Er beschrieb die Einfachstruktur durch fünf Forderungen, die die Ladungsmatrix e r f ü l l e n
soll:
1. Jede Zeile einer Ladungsmatrix s o l l mindestens eine Null enthalten, d.h. die Ladung mindestens eines Faktors je Merkmal i s t N u l l , jedes Merkmal wird durch höchstens q - 1 Faktoren beschrieben. 2. Jede Spalte einer Ladungsmatrix enthält wenigstens q Nulladungen, d.h. jeder Faktor t r ä g t zur Beschreibung von höchstens p - q der ρ Merkmale bei 2 und L enthält mindestens q Nulladungen. 3. In jedem Spaltenpaar der Ladungsmatrix g i b t es mehrere Merkmale, die auf dem einen Faktor eine hohe, auf dem anderen Faktor keine Ladung haben. 4. Wurden mehr a l s 4 Faktoren e x t r a h i e r t , so s o l l jedes b e l i e b i g e Spaltenpaar der Ladungsmatrix für eine große Zahl von Merkmalen in beiden Spalten Nullen enthalten. 5. Für jedes Spaltenpaar s o l l t e n nur wenige Variable in beiden Spalten hohe Ladungen haben. Die grobe Forderung der Einfachstruktur i s t a l s o , daß die beobachteten Merkmale im Koordinatensystem der Faktoren in s i c h ausschließende Gruppen e i n g e t e i l t s i n d , deren Ladungen auf einzelnen Faktoren hoch, auf einigen wenigen Faktoren mäßig hoch und auf den übrigen annähernd Null s i n d . Eine möglichst gute Annäherung an die verbal beschriebene E i n f a c h s t r u k t u r e r r e i c h t man dadurch, daß man eine Faktaiiotati-on, die einer Transformation der konstruierten Ladungsmatrix L e n t s p r i c h t , durchführt, die die Anforderungen der Einfachstruktur
einbezieht.
Man unterscheidet h i e r zwischen ofUhogonal&n tationen.
und ichie.&i F k , ( k , k ' = 1 , . . . ,q, k 1 > k) von zwei Faktoren die
Hilfsgrößen
553
Kapitel VIII: Die Faktorenanalyse
und daraus dann die Größen nh p
n,h k k ' = P' D kk·
onh +2A
Dh kk"*Bkk·
sowie
Q
kk'=P-ckk'-(Akk')2
Der Rotationswinkel
+
(ßkk')2
·
für das Faktorenpaar F^ , F^ , (k ,k' = 1
q, k 1 > k )
ist
dann im h-ten Schritt ph
„(h) 1 fc kk' = 4" \
arc
kk Λ
. g
kk'
wobei Ε gemäß lab.18 zu wählen ist.
Cab.18: Berechnungshilfe für den Rotationswinkel
K
kk
g
Ε
kk'
Grenzen für
θ^ί
6
kk'
positiv
positiv
0°
bis
22.5°
positiv
negativ
180°
22.5°
bis
45°
negativ
positiv
0°
-22.5°
bis
negativ
negativ
-180°
-45°
bis
0°
0° -22.5°
Nun werden
^ r V V V ^ - ' - X - l . q berechnet. Ist V h + 1
V i
noch wesentlich größer als V^, so wird nun der (h+1) -
te Schritt durchgeführt; sonst wird das Iterationsverfahren
abgebrochen
und die nach dem Varimax - Kriterium optimale rotierte Ladungsmatrix L„ Rot berechnet. Die Elemente 1 -k aus der Beziehung ι Rot _ (h+1). K Jk ~ z j k j
·
für j = 1,...,p, k=1,...,q von L R o t ergeben sich
554
Kapitel VIII: Die Faktorenanalyse
B&l&pitl:
(a) In Abschnitt 1.1 haben wir mittels Maximum - Likelihood - Methode eine Ladungsmatrix für 2 Faktoren und 5 Merkmale, die Klausurpunkte in 5 Klausuren von Studenten waren, bestimmt. Diese Matrix, die in Cab.19 noch einmal angegeben i s t , wollen wir orthogonal transformieren, so daß die transformierte Ladungsmatrix nach dem Varimax - Kriterium einer Einfachstruktur möglichst gut entspricht. Wir wollen hier das Rotationsverfahren nach dem r-ten Schritt abbrechen, f a l l s g i l t 1ΙV
r
- V
, I < 0.01 r+1 1
In Tab.19 i s t neben der Matrix L auch die normierte Matrix ZQ angegeben. Da die (geschätzten) Kommunalitäten der 5 Merkmale gerade k
j
= 1
j1+1j2
'
k^ = 0.539 ,
a l s
° k 2 = 0.800 ,
= 0.579 ,
k^ = 0.654 und
k^ = 0.572
sind, ergibt sich z.B. -0-205
So)=}V 42
4
=
_0.2S3
\TÖ354
tab.19: Ladungsmatrix L nach der Maximum - Likelihood - Methode und normierte Ladungsmatrix ZQ zur Korrelationsmatrix aus Tab.13 L \ k J 1 2 3 4 5
Z
1
2
0 0 0 0
630 696 893 782 0 729
o
1
0 377 0 308 - 0 048 -O 205 - 0 201
0 0 0 0 0
858 915 998 967 964
2 0 0 -0 -0 -0
514 405 054 253 266
2 Wir berechnen nun die ρ ( = 25) - fache Summe der Varianzen der quadrierten normierten Ladungen z ^ v
n=5 0
in den beiden Spalten von Z Q . Es ergibt sich
2 5 2 5 2 I I ( z i · ^ ) 4 - I ( l (z ( ° J ) 2 > \ = 5-4.0787054 - 19.9786324 JK JK k=1 j=1 k=1^j=1 '
= 0.4148946 Da q = 2 i s t , müssen im 0-ten Schritt nun l e d i g l i c h die Hilfsgrößen zur Bestimmung eines Rotationswinkels θ ^ Es ergibt sich
der beiden Faktoren berechnet werden.
Kapitel VIII: Die Faktorenanalyse
867876
^ z ^ )
(o)
2
^ 1 .3167305
= -0.116663
und somit P" 2 = 5(-0.116663) - 2-3.867876-0.51324 = -4.553612
Q° 2 = 5-1 .3167305 - (3.867876) 2 + (0.51324) 2 = -8. 1 13397 Da P°2 und
negativ sind, haben wir mit Tab.18 ,(o) 12
1 j4 (-180° + arc tan-j-^) = { (-180° + 29.302147°) = -37.674° V Q ° 7 > * - « S Ü ' O 2 - J , ««Si^Sti'* · Der Rotationswinkel
für die Faktoren F^, F^, ergibt sich dann zu p(h)
e
=
E + arctan
kk' i (
tSt) 4
kk'
•
wobei die Größe Ε der Tab.18 in Abschnitt 2.1.1 entnommen werden kann. Nun werden
h+1 "
h
berechnet. Ist L ^
h " h
12
"13
··· "q-1 ,q
Uund M U
v
h+1 " ^
^
v
' jk
noch wesentlich größer als L ^ , so wird der (h+1) - te
Schritt durchgeführt; ansonsten wird das Iterationsverfahren
abgebrochen
und die rotierte Ladungsmatrix als L
Rot
= L
h+1
festgesetzt.
ftelipiil·. I m Abschnitt 2.1 haben wir die mittels Maximum - Likelihood - Methode gewonnene Ladungsmatrix L = L Q , vgl. z.B. Tab. 19, aus Abschnitt 1.1 nach der Varimax - Methode rotiert. Hier soll sie nun einmal nach der Quartimax - Methode rotiert werden.
Es ergibt sich zunächst das Quartimax - Kriterium
Kapitel VIIL Die Faktorenanalyse
2 Q
0
=
561
5
l l ( l W Jk k=1 j=1
= 1.717108000
Im O-ten Schritt erhält man weiter P ^
= -0.0533
und
so daß der Rotationswinkel
Q ^ ' = 0.8089
gerade p
θ
12)
=
+ a r c
l
(o)
^ n - f | y ) = j (-3.7700°) = -0.9425° Q12
ist. Mit der Transformationsmatrix 0(o)
12
Δ
δ(
Ο = 12
.
,(o) 12
0.9999
0.0164
-0.0164
0.9999
) =
,(o)
12
12
ergibt sich
Li = L ·Δ = 1 ο ο
0.623 0.691 0.894 0.785 0.732
0.387 0.319 -0.033 -0.192 -0.189
und
Q 1 = 1.719673204
Da der Unterschied zwischen Q q und Q^ sehr gering ist, brechen wir das Verfahren ab und setzen L
Rot
= L
1
Rot Rot Der Faktor F^ läßt sich dann etwa als "Denkvermögen" und der Faktor Fg als "Stärke des räumlichen gegenüber dem algorithmischen Denkvermögen"
2.2
SCHIEFWINKELIGE
R O T A T I O N - D I E
METHODE
J
in-
terpretieren.
DER
PRIMÄRFAKTOREN
Einfach ausgedrückt entspricht eine Ladungsmatrix der Einfachstruktur von Thurstone am besten, wenn sich ausschließende Gruppen von Merkmalen auf je einem Faktor hohe Ladung, und auf den meisten Faktoren eine Nulladung haben; diese Gruppen können z.B. durch eine Clusteranalyse, vgl. Kap.VII, bestimmt werden. Dies läßt sich oft am besten erreichen, wenn man die Orthogonal itätsforderung für die Faktoren aufgibt.
Sehen wir uns noch einmal die Abb.4 in Abschnitt 1.1 an. Hier würde man bei
562
Kapitel VIII: Die Faktorenanalyse
q = 2 Faktoren der Einfachstruktur einer Ladungsmatrix wohl am nächsten Rot kommen, wenn man den Faktor so rotiert, daß den Schwerpunkt der Merkmalspunkte für Mechanik Rot und Analytische Geometrie schneidet, und den Faktor F^ so rotiert, daß F^ den Schwerpunkt der übrigen drei Merkmalspunkte schneidet. Eine Orthogonal rotation ergibt in diesem
Beispiel ge-
mäß dem Bargmann - Test keine mit der Einfachstruktur vereinbaren Faktoren, wie wir in Abschnitt 2.1 gesehen haben. Eine schiefwinklige Rotation von q Faktoren wird beschrieben durch eine Transformationsmatrix 511
Mq
Δ = COS
COS
'q1
qq
wobei
den Winkel angibt, um den der Faktor F^. gedreht werden muß, da-Rot mit der rotierte Faktor F^, entsteht. Diese Matrix ist natürlich nicht mehr orthogonal wie bei der orthogonalen Rotation, d.h. es gilt i.a. Δ Τ ·Δ f I
und
Die Matrix Rp = Δ Τ · Δ beschreibt die Korrelation zwischen den schiefwinkligen Faktoren und die rotierte Ladungsmatrix ist gegeben durch L
R o t = L ' A ' R F 1 = "-·Δ(Δτ·Δ)~1 = ί ( Δ τ Γ 1
.
Die reduzierte Korrelationsmatrix R wird dann gerade durch
^
W
V
H
L
wiedergegeben. Die Matrix L-Ä = L f s heißt auch FaktofULMtfiuktMi {^actan
ifuictuAe.).
Sie ist gerade die Korre-
lationsmatrix zwischen den beobachteten Merkmalen und den schiefwinkligen Faktoren. Wie kann man nun aber eine Transformationsmatrix Δ für eine schiefwinklige Rotation von q Faktoren so bestimmen, daß die rotierte Ladungsmatrix L„ . einer Einfachstruktur möglichst gut entspricht?
Kapitel
VIII: Die Faktorenanalyse
Wir wollen hier die Methode deA PfUmäA^aktofitn vorstellen, die auf Thurstone (1947) zurückgeht und von Harmann (1976) als beste schiefwinklige Rotationsmethode empfohlen wurde. Zunächst bildet man ausgehend von einer orthogonalen Ladungsmatrix q disjunkte Gruppen
von einander möglichst ähnlichen standardisierten
Merkmalen und bildet daraus zaiammzngueXztz
ι
V
Y
i
Me*fema£e
·
Die empirische Varianz dieser zusammengesetzten Merkmale ist gerade die Summe der Korrelationen der einzelnen Merkmale, die in der empirischen reduzierten Korrelationsmatrix R, vgl. auch Abschnitt 1, zusammengestellt sind: Sv = Σ I >\ j l "l· irr. ι'rC JJ 'k jGG k j'CG k
Das ΊίάχζΙίΐΧί
+
I
für k ,k ' = 1,... ,q
k·
j
J
FaktoinvtmodzJUL, das die Basis zur Bestimmung der Transfor-
mationsmatrix Δ bildet, ist dann u, = K
J* r v F f. , k 1 =1 Y k ' K
für k=1,... ,q
Die Transformationsmatrix einer optimalen schiefwinkligen Rotation ist somit gegeben durch 11
'iq
Δ =
mit cos Θ . q1
cos
6
...
cos θ
qq für k,k' = 1,... ,q
I rv F 1 k' = 1 k k
k'k = r V k F k ,
cos Θ.
ist gerade der Kosinus des Richtungswinkels vom Rot den rotierten Faktor F k . Die Matrix r
FRotP
Ί
Τ
R p = Δ ·Δ ; r
FRotFRot
1
q
r
Rot 2
F Rot|-Rot
2
q
·"
r
.-Rot r Rot 1 q
Faktor F. , auf
563
564
Kapitel VIII: Die Faktorenanalyse
g i b t gerade d i e K o r r e l a t i o n e n zwischen den s c h i e f w i n k e l i g e n Faktoren an. Aus i h r l a s s e n s i c h d i e Winkel zwischen d i e s e n Faktoren bestimmen: Der WinRot Rot kel zwischen den Faktoren F^ und F^, ist ßkk,=arccosr
.
Qt
k
V
8(uApieJi·. Wir wollen d i e Ladungsmatrix f ü r q = 2 F a k t o r e n , d i e s i c h im B e i s p i e l aus A b s c h n i t t 1.1 (Klausurpunkte von 88 Studenten in 5 Fächern) gab, nun nach der Methode der Primärfaktoren r o t i e r e n . Eine s o l c h e
er-
schief-
w i n k e l i g e Transformation s c h e i n t angebracht zu s e i n , da e i n e Orthogonal r o t a t i o n keine gut i n t e r p r e t i e r b a r e n Faktoren h e r v o r b r a c h t e , v g l .
Abschnitt
2.1. Sehen w i r uns d i e Abb.4 in A b s c h n i t t 1.1 noch einmal a n , d i e die 5 beobachteten Merkmale (Punkte in 5 Klausuren) im Koordinatensystem der o r t h o g o nalen Faktoren F^ und F 2 d a r s t e l l t , so bemerken w i r , daß d i e
(standardi-
s i e r t e n ) Merkmale Klausurpunkte Mechanik (Y^) und A n a l y t i s c h e Geometrie ( Y 2 ) e i n e Gruppe b i l d e n und d i e Merkmale Klausurpunkte L i n e a r e Algebra ( Y j ) , A n a l y s i s ( Y ^ ) , Elementare S t a t i s t i k
(Yg) eine zweite Gruppe b i l d e n .
Wir wollen somit zunächst einmal aus den zugehörigen s t a n d a r d i s i e r t e n Merkmalen d i e zusammengesetzten Merkmale v. = l Yf =Yf 1 ά jeG 1 J
+
Y^ +Yf 4
b
,
v9= d
l y f = Y f + Y® t 1 c jcG2 J
;
eine R e a l i s a t i o n des zusammengesetzten Merkmals V 2 i s t z . B . gerade d i e Summe der s t a n d a r d i s i e r t e n Klausurpunkte e i n e s Studenten in Mechanik und A n a l y t i s c h e r Geometrie. Die zusammengesetzten Merkmale haben die Varianz s2
V
1
= l l r · ·, + l k? = 2r J4 jGG, jCG, J J jGG 1 J
+2r ""
+2r 4b
J
+^ + ^ t b
jYj' = 2 - 0 . 7 1 1 + 2 - 0 . 6 6 5 + 2-0.607 + 0.800 + 0.654 + 0.572 = 5.992 bzw. sl
2
= i l r . ., + l j£G 2 j ' e G 2 J J j e g2 j^j'
j
= 2 r . 7 + k ? + k ? = 2-0.553+0.539+0.579
Kapitel VIII: Die Faktorenanalyse
= 2.224 vgl. auch Tab.2 und Tab.3, so daß sich die empirischen Korrelationen der Faktoren F^, F^ mit den zusammengesetzten Merkmalen V^ und ry
F VV
r.,
1
F
12
zu
= (0.893 + 0.782 + 0.729)/^ 5.992 = 0.982 =-0.185 ,
r.,
= 0.889 und F 2 1
r., F =0.459 22
ergeben. Die Elemente der Transformationsmatrix cos θ ^
cos
cos Θ21
cos Θ22
sind somit cos
'11
21
'12
22
V.F 1' 1 /
r2
+
V i
0.982 r2
ρ 12
-0.185
-= 0.9827
/0^982^+0.185'·
-= -0.1851
/ 0.9822 + 0. 1852 0.889
/ 0.889
2
= 0.8885
und
+ 0.4592
0.459
0.4588
/ 0.8892 + 0.4592
d.h. es i s t Δ =
0.9827 [-0. 1851
0. 0.4588
Durch Drehung um den Winkel 9 1 1 = arc cos (cos Θ 11 ) = arc cos 0.9827 = 10.673° Rot wird also F^ wieder zu F^, durch Drehung um Θ22 =
arc cos
( c o s θ 2 2 ) = arc cos 0.4588 = 62.690°
wird F^ o t wieder in F , überführt. Die Drehwinkel zwischen F ? o t und F„ bzw. 1 ^, ρ . . .f r Rot F2 und F^ sind somit θ 1 2 = θ η +90° = 100.673°
bzw.
= θ 2 2 - 90° = -27.31°
Die Korrelationsmatrix Rp der rotierten Faktoren i s t damit gerade
565
566
Kapitel VIII: Die Faktorenanalyse
RF = ΔΤ·Δ =
0.9827
-0.1851
0.9827
0.8886
1.0000
0.7883'
0.8886
0.4588
-0.1851
0.4588
0.7883
1.0000
Rot und der Winkel ß 1 2 zwischen den s c h i e f w i n k e l i g e n Faktoren F^
Rot und F^
ist ß 1 2 = arc cos r
R(jt
F1
R
F,
t
= arc cos 0.7883 = 37.973°=*θ, | 1 - θ 2 1 = θ 1 2 - Θ 1
Wir wollen uns d i e s e s E r g e b n i s nun g r a p h i s c h v e r a n s c h a u l i c h e n , v g l . Abb.9.
Abb.9 : R o t i e r t e Faktoren nach der Primärfaktoren - Methode im B e i s p i e l Klausurpunkte
J e t z t können w i r d i e F a k t o r e n s t r u k t u r m a t r i x
der
berechnen, die die K o r r e -
l a t i o n der beobachteten Merkmale mit den s c h i e f w i n k l i g e n Faktoren a n g i b t . Es
ist
Kapitel VIII: Die Faktorenanalyse
0.630
0.377
0.549
0 733
0.696
0.308
0.627
0 760
0.893
-0.048
0.886
0 771
0.806
0.601
0.754
0 556
0.782
-0.205
0.729
-0.201
0.9827
0.8886
-0.1851
0.4588
die Korrelation zwischen dem d r i t t e n Merkmal und dem zweiten schiefwinkeligen Faktor F R o t i s t also z . B . gerade 0.771. Um die Ladungsmatrix L R o t berechnen zu können, muß zunächst entweder Δ τ oder Rp i n v e r t i e r t werden, denn es i s t L T 1 L "Rot = ^ > " = f s
RF
Wir wollen Rp i n v e r t i e r e n und es e r g i b t sich 1.0000
-0.7883
2.64143
-2.08224
1 .0000 - 0.7883 -0.7883
1.0000
-2.08224
2.64143
1
-1
so daß wir
LRot
=L f s ' R F 1
-0.076
0.793
0.074
0.702
0.735
0.192
0.878
-0.091
0.834
-0.101
erhalten. Wir können nun noch sehr l e i c h t überprüfen, ob unsere Berechnungen rich2 t i g sind, indem wir aus L R ( J t die Kommunal i t ä t e n k j der Merkmale bestimmen. Diese müssen bis auf Rechenungenauigkeiten mit denen, die sich aus der ursprünglichen Ladungsmatrix ergeben, übereinstimmen. Es i s t z . B . k2 = l 2 1
* λ\ΐ
, ι Rotx2 21 }
=
° · 6 9 6 2 + 0·3082 = 0.579 ,,Rot>2 22 5
Rot, Rot 21 22 r F R o t c R o t h1 2
= 0.074 2 + 0.702 2 + 2-0.074-0.702-0.7883 = 0.580
,
v g l . hierzu auch die Einleitung dieses K a p i t e l s . Die r o t i e r t e Ladungsmatrix L „ . l ä ß t sich nun recht gut i n t e r p r e t i e r e n . Rot Der Faktor F. e r k l ä r t die Merkmale Klausurpunkte in A n a l y s i s , Linearer Rnt Algebra und Elementarer S t a t i s t i k , der Faktor F^ e r k l ä r t die KlausurRnt punkte in Mechanik und Analytischer Geometrie. Der Faktor F , l ä ß t sich
567
568
Kapitel VIII: Die Faktorenanalyse
Rot somit als "algorithmisch - abstraktes Denkvermögen", der Faktor F^ als "räumlich - abstraktes Denkvermögen" interpretieren, vgl. Abb.9.
3 SCHÄTZEN VON FAKTORENWERTEN Am Anfang dieses Kapitels wurde als ein wesentliches Ziel der Faktorenanast lyse die Darstellung jedes Elementes y ^ der standardisierten Datenmatrix Y
t
als Linearkombination von q' Faktoren formuliert: 1
\
jk f ik
fUr
1=1
>····η
und
j=1,--.»P
bzw. in Matrizenschreibweise ~
Y
st = F ' L
T
k=W
T
mit
f
ik = °
Und
J
1
f
?k = 1
für k = 1,...,q·
Bisher haben wir uns nur mit der Bestimmung einer optimal
.
interpretierbaren
Ladungsmatrix L für q = q' - p gemeinsame Faktoren beschäftigt. Diese kann natürlich auch eine rotierte Ladungsmatrix L = Lp Q ^ sein. Da für die reduzierte Korrelationsmatrix R (zumindest näherungsweise) gilt R K
= LL*R » L t = 1 , . γ τ ·γ K F L n^T st st u
wobei Rp. die Korrelationsmatrix der Faktoren (Rp = I für orthogonale Faktoren) und U^ die Diagonal matrix der merkmalseigenen Varianzen bezeichnet, ist durch Y s t = F-LT
,
d.h.
y ^ = M
j k
f
i k
eine Näherung für Υ ^ gegeben. Die Faktorenwertematrix F der gemeinsamen Faktoren ist dabei jedoch unbekannt. In vielen Fällen möchte man aber auch diese Faktorenwertematrix F bestim-' men, denn sie ist eine nxq - Datenmatrix (mit q < p) für die η Objekte, d.h. eine gegenüber Y und Y s t um ρ - q Spalten reduzierte Matrix, die die η beobachteten Objekte in Abhängigkeit von den q extrahierten Faktoren beschreibt.
569
Kapitel VIII: Die Faktorenanalyse
W i l l man z . B . e i n e C l u s t e r a n a l y s e , lyse, vgl.
vgl.
K a p . V I I , oder eine
Regressionsana-
K a p . I I , f ü r d i e η O b j e k t e d u r c h f ü h r e n , so i s t d e r
umso g e r i n g e r , j e k l e i n e r d i e A n z a h l ist also leichter
Rechenaufwand
der Spalten e i n e r Datenmatrix
ist.
Es
z . B . e i n e C l u s t e r a n a l y s e a u f d e r B a s i s von F d u r c h z u f ü h -
r e n , a l s m i t d e r D a t e n m a t r i x Y zu a r b e i t e n , wenn q w e s e n t l i c h k l e i n e r a l s ρ i s t .
inbesondere n a t ü r l i c h
dann,
W i e k a n n man n u n , n a c h d e m man e i n e
Ladungsmatrix L gefunden h a t , d i e Faktorenwerte F schätzen?
Eine e i n d e u t i g e Faktorenwertematrix
(besser
Hauptkomponentenwertematrix)
l ä ß t s i c h n u r aus e i n e r v o l l s t ä n d i g e n Hauptkomponentenanalyse, v g l . schnitt es
1 . 3 , b e s t i m m e n , denn d o r t
Ab-
i s t die Ladungsmatrix L orthonormal,
d.h.
ist LT-L = I
Somit i s t
.
mit
Y
st=F-
L T
gerade Y t - L =F-LT-L = F - I =F
.
B e i d e r e i g e n t l i c h e n F a k t o r e n a n a l y s e g i b t es k e i n e e i n d e u t i g e
Faktorenwer-
tematrix
empirische
F , da d i e L a d u n g s m a t r i z e n L d o r t n u r e i n e r e d u z i e r t e
Korrelationsmatrix
R d e r b e o b a c h t e t e n M e r k m a l e r e p r o d u z i e r e n ; F muß a l s o
e n t s p r e c h e n d g e s c h ä t z t w e r d e n . Zwei S c h ä t z m e t h o d e n , d i e von l i c h e n Modellen ausgehen, s o l l e n h i e r v o r g e s t e l l t B e i d e r zutzn standardisierte (d.h.
E(y
t
y wobei f
a u s . E i n e dem
ρ - d i m e n s i o n a l en B e o b a c h t u n g s v e k t o r y j. z u g r u n d e l i e g e n d e Zufallsvariable,
die ebenfalls mit y ^ bezeichnet
) = 0, V a r ( y s t ) = 1), läßt s t
werden.
g e h t man v o n f o l g e n d e m G r u n d m o d e l l
Methodi
standardisierten
unterschied-
= L-f
+ U
.e
sich darstellen
sei
als
,
und e u n a b h ä n g i g e z u f ä l l i g e V e k t o r e n m i t E r w a r t u n g s w e r t 0 u n d K o -
v a r i a n z - bzw. K o r r e l a t i o n s m a t r i x I , L e i n e p*q - L a d u n g s m a t r i x f ü r o r t h o g o 2 nale Faktoren und U d i e p * p - M a t r i x d e r m e r k m a l s e i g e n e n V a r i a n zen Dann
bezeichnet. ist = L •LT st
+
U2
570
Kapitel VIII: Die Faktorenanalyse
die (theoretische)
K o v a r i a n z - bzw. K o r r e l a t i o n s m a t r i x der ρ Merkmale. S i n d
L und LI e r s t g e s c h ä t z t worden ( u n t e r Verwendung der empirischen t i o n s m a t r i x R ) , so kann man $
Korrela-
durch d i e empirische K o r r e l a t i o n s m a t r i x R
st e r s e t z e n , was w i r im folgenden auch tun. Der zu y
t
g e h ö r i g e Vektor der
Faktorenwerte kann dann durch f = LT-R_1'yst
(d.h. F = Y s t - R " 1 - L )
g e s c h ä t z t werden, v g l . auch K a p . I I , A b s c h n i t t 2. Wurden d i e Faktoren r o t i e r t , so i s t im F a l l e e i n e r Orthogonal r o t a t i o n mit Transformationsmatrix Δ L
L
Rot =
'A
und im F a l l e e i n e r s c h i e f w i n k e l i g e n Rotation mit T r a n s f o r m a t i o n s m a t r i x Δ L
Ro
t
= L
f s ( A T ' A ) ~ 1 =ί·Δ(ΔΤ·Δ)"1 = ί ( Δ Τ Γ 1
I n beiden F ä l l e n g i l t L
=LRot'AT
.
also ·
d . h . ( f ü r die g e s c h ä t z t e n Faktorenwerte b z g l . L im Ausgangsmodell) f T
= aΛ · I
τ -1 -R · ν Rot * st
Die Fa.ktont)Mz.K£p)
T-, y 1
Y=
„T
mittels eines Q - Q - P l o t s überprüfen, ob die Verteilung der Merkmale in der interessierenden Grundgesamtheit von Objekten, die diese Merkmale trägt, wesentlich von einer gemeinsamen, p-dimensionalen Normalverteilung abweicht und ob in den Daten multivariate Ausreißer auftreten. Dazu berechnet man zunächst Stichprobenmittelwert sowie die inverse Stichprobenkovarianzmatrix 1
n
S" 1 = -( 5
i=1
(y,· - y ) ( y i - y f ) " 1
und daraus dann die (quadratischen) Mahalanobisabstände d^ der η Beobachtungsvektoren y^,
,y
vom Stichprobenmittel
= (y i - y) T -S" 1 -(y l · - y )
y:
für i = 1,...,n
Sind die Daten multivariat normal verteilt, so genügen die Abstände d^ approximativ einer χ 2 Abstände der Größe nach
dn
Verteilung mit ρ Freiheitsgraden. Ordnet man nun die
603
Kapitel IX: Graphische Verfahren
d ( 1 ) f d ( 2 ) < ... < d ( n ) und bestimmt die x
(i/(n+1))-Quantile
p;i/(n+1)
™ r i = 1,...,n
der Xp - V e r t e i l u n g , so l i e g e n die η Punkte ( X p . - j / ( n + u > d ( i ) ) '
i=1
n
»
die gerade den Q - Q - Plot b i l d e n , in etwa auf einer Geraden durch den Ursprung (0,0) mit Steigung 1. Wesentliche Abweichungen von der Normal V e r t e i lung bewirken gerade eine starke Abweichung von dieser Geraden. Treten in den Daten Aui-te^ße/i a u f , so wird dies im Q - Q - P l o t dadurch deutl i c h , daß die zugehörigen ( l e t z t e n ) Punkte "sehr weit" nach oben von der Geraden entfernt l i e g e n . Schätzt man den Mittelwert μ einer m u l t i v a r i a t e n Verteilung n i c h t durch das Stichprobenmittel y , sondern - wie dies etwa im Linearen Modell ( v g l . und Kap.X) der F a l l
Kap.II
i s t - nimmt an, daß μ = Xß mit bekannter Designmatrix X
i s t , und schätzt dann Xß durch Xß, so kann obiges Verfahren in m o d i f i z i e r ter Form angewandt werden; es sei auf die entsprechenden Ausführungen im Abs c h n i t t 1 von K a p . I I und im Abschnitt 1.3 von Kap.X verwiesen. Die (quadratischen) Mahalanobisdistanzen werden auch a l s skalare Residuen oder a l s quadratische Residuen bezeichnet.
BeAApieZ: Um die Q - Q - P l o t t i n g - Technik und ihre Ergebnisse zu demonstrieren, wurden jeweils 20 Beobachtungen aus einer vierdimensionalen Normalvert e i l u n g und aus einer vierdimensionalen V e r t e i l u n g , deren Komponenten j e w e i l s Weibul1 - v e r t e i l t mit Parametern α = 1 und ß = 0.5 s i n d , v g l . Abschnitt 4 in Kap.IV von Härtung et a l . (1982), s i m u l i e r t . Die s i c h aus diesen Daten jeweils ergebenden Mahalanobisdistanzen sowie die Quantile X4.i/21 1=1
20 der χ | - Verteilung s i n d in Cab.2 angegeben.
Aus den Angaben in dieser Tab.2 l a s s e n sich nun die beiden Q - Q - P l o t s s t e l l e n . Zunächst i s t in Abb.5 der Plot der Quantile X4 - i/21 9 e 9 e n stanzen d ^
er-
die
aus der Normal v e r t e i l ung d a r g e s t e l l t . Hier z e i g t s i c h , daß die
Punkte CX4-i/21 ' ' ' ( i p
t a t s ä c h l i c h nahezu auf einer Geraden mit Steigung 1
durch den Ursprung l i e g e n . Dagegen i s t in Abb.6, wo die Quantile der χ| Verteilung gegen die geordneten Abstände d ^ j aus der " W e i b u l l v e r t e i l u n g " abgetragen s i n d , eine deutliche Abweichung von der L i n e a r i t ä t len.
festzustel-
Kapitel IX: Graphische Verfahren
604
Cab.2: Geordnete Mahalanobisdistanzen d ^ j
zu den Daten aus e i n e r
vierdi-
mensionalen Normal V e r t e i l u n g und aus e i n e r " W e i b u l l V e r t e i l u n g " Quantile x | . ^ 2 T
i=1
d
i Normal V e r t e i l u n g 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 1 1 2 2 2 2 3 3 3 3 4 4 4 5 5 5 6 6 8
20
'
der
X4 "
V e r t e i l u n
sowie
9
(i) "Weibullverteilung" 0 0 0 0 0 0 1 1 1 1 1 3 3 3 5 6 7 8 12 13
9086 0669 7392 2499 3395 4155 9627 1336 1961 3588 7107 4851 5033 8383 0112 2273 6675 1054 1571 5587
2115 7709 9128 9227 9612 9983 1034 1964 4154 4819 5823 2083 2417 9606 2901 3180 2408 6978 8230 6631
x4;i/21
0 1 1 1 1 2 2 2 2 3 3 3 4 4 5 5 6 6 7 9
6699 0284 3302 6074 8729 1346 3956 6616 9356 2213 5226 8445 1933 5774 0087 5056 0986 8444 8693 5747
5
1 •
1
5
10
γ
2 Η;ΐ /21
Abb.5: Q - Q - P l o t f ü r 20 Beobachtungen aus e i n e r vierdimensionalen verteilung
Normal-
605
Kapitel IX: Graphische Verfahren
10
10
Y
A
2
4,i/21
J
Abb.6: Q - Q - P l o t für 20 Beobachtungen aus einer vierdimensionalen Verteilung mit Weibull - verteilten Komponenten
1.3
GLEICHZEITIGE
REPRÄSENTATION
OBJEKTEN:
BI-PLOT
DER
Werden an η Objekten ρ Merkmale Y 1
VON
MERKMALEN
UND
Yp beobachtet, so bietet der Bi-
Plot
eine Möglichkeit, Objekte und Merkmale gleichzeitig in einem zweidimensionalen Koordinatensystem darzustellen. Dazu betrachten wir die Datenmatrix y
Y=
11
···
y
" '
y
1p
: ^nl
np·
606
Kapitel IX: Graphische Verfahren
bzw. die Matrix Y* mit Elementen y
ij"y.j
für i=1,...,n, j=1
die durch eine Matrix
Y^j
P» y . j
=
1 n η i1
ij
für
j=1..,p,
vom Rang 2 approximiert wird. Hierbei gibt es
verschiedene Mögl ichkeiten; man kann, vgl. Gabriel
(1971), zur Approxima-
tion etwa die Eigenwerte und Eigenvektoren der Matrix Bezeichnen
y
( Y * ) T Y * verwenden.
λ ^ , λ 2 die beiden größten Eigenwerte dieser Matrix, q^, q 2
zu
~
gehörige Eigenvektoren und ist weiterhin für k=1,2
'Y*'qk
=
V λ
so ist die Matrix Y ^ j
gegeben als τ
V λ, ^{2)-(P1,P2)
\t λ.
Nun wird die Matrix Y ^ j
Y
„τ iq 2
in folgender Art und Weise faktorisiert:
(2)=H'M
wobei Η : \/ n-1 - (p 1 ,p 2 ) eine n»2 - Matrix mit orthonormalen Spalten und 1 Μ =\TrPI eine ρ * 2 - M a t r i x
λ
1
·ς
1
λ
2
·ς
2
)
=(Μ^,..
Μ.
ist. Betrachtet man nun die Zeilen von Η und Μ als Koordi-
naten von n+p Punkten im zweidimensionalen Raum, so repräsentiert die i-te Zeile von Η das i-te Objekt und die j-te Zeile Mj von Μ das j-te Merkmal. Im Koordinatensystem werden die Zeilen von Η durch Punkte und die Zeilen von Μ durch Pfeile, die vom Ursprung ausgehend bis zum entsprechenden
Punkt
im Koordinatensystem reichen, dargestellt. Der euklidische Abstand der Punkte i und j approximiert dann die Mahalanobisdistanzen der i-ten und j-ten Zeile von Y ^
und somit die Mahalanobisdistanzen der Beobachtungsvektoren
am i-ten und j-ten Objekt, das Skalarprodukt Μ^·Μ·, repräsentiert die KoJ Γ~χ varianz der Merkmale Yj und Υ .,, die Länge des j-ten Pfei 1s ν Mj·Μj die Standardabweichung
von Y. und der Kosinuns des Winkels zwischen den zu Mj
und Mj, gehörigen Pfeilen die Korrelation zwischen Yj und Yj,. 8eXip-ce£: Im Abschnitt 3 des Kap.V haben wir die Datenmatrix
Kapitel IX: Graphische Verfahren
0.452 0.424 0.063 -0.766 0.658
-0.394 -0.339 -0.045 -0.309 1.524
-0.752 -0.515 -0.008 0.358 0.518
-0.241 -0.638 -0.270 0.873 -0.454
-0.355 0.643 -0.414 0.260 -0.703
0.472 -0.354 -0.289 -0.360 1.357
607
0.150 0.026 -0.504 -0.287 1.164
f ü r d i e η = 5 A u t o h e r s t e l l e r American Motors ( 1 ) , C h r y s l e r ( 2 ) , Ford
(3),
G e n e r a l M o t o r s ( 4 ) , a u s l ä n d i s c h e H e r s t e l l e r ( 5 ) b a s i e r e n d a u f p = 7 Repar a t u r a n f a l l i g k e i t s m e r k m a l e n [ R e p a r a t u r a n f ä l l i g k e i t der äußeren
Karosserie
( M I ) , der inneren Karosserie (M2), der E i s e n t e i l e der Karosserie (M3), der Bremsen ( M 4 ) , des A u t o m a t i k g e t r i e b e s ( M 5 ) , d e r S t o ß d ä m p f e r (M6) und d e r V o r d e r r a d a u f h ä n g u n g ( M 7 ) ] b e s t i m m t . F ü r d i e s e D a t e n m a t r i x w o l l e n w i r nun einen ßi - Plot
erstellen.
Z u n ä c h s t b e r e c h n e n w i r dazu d i e b e i d e n g r ö ß t e n E i g e n w e r t e s o w i e z u g e h ö r i g e Eigenvektoren der Matrix (Υ*)Τ·Υ*. Hier e r g i b t sich mit ' 0.2858 0.2578 -0.1032 -0.9322 0.4918
-0.4814 -0.6722 -0.4264 -0.4352 -0.1324 0.0718 -0.3964 0.4378 1.4366 0 . 5 9 7 8
-0.0950 -0.2412 0.3068 0.0402 -0.4920 0.7568 -0.5192 -0.0838 -0.1240 -0.3002 -0.4542 -0.6138 1.0190 0.3738 -0.5252 -0.3968 -0.3080 -0.5892 1.1918 1.0542
gerade λ 2 = 2.7001
• 7.5525
q1 = ( - 0 . 2 8 1 6 2 , - 0 . 5 5 4 7 0 , - 0 . 1 5 2 2 8 , 0 . 2 0 3 7 0 , 0 . 2 8 6 9 9 , - 0 . 5 2 5 3 7 , - 0 . 4 3 5 8 2 Γ , q2 = (-0.49633,0.27061 ,0.57750,0.58078,-0.09437,0.00762,-0.02537)T, so daß s i c h wegen 1
•Y*.q„
•Y*-q.
JT.
dann
V λ,
0.01574 0.47774 0.35390 0.85835 -1.70573
-0.84155 -1.03903 0.03077 1.42508 0.42472
-0.38697 -0.76221 -0.20925 Μ = 0.27990 0.39435 -0.72191 -0.59886
-0.407781 0.22233 0.47447 0.47717 -0.07753 0.00626
-0.02084
e r g i b t . Ausgehend von d i e s e n M a t r i z e n Η u n d Μ s i n d i n d e r A h h . 7 d i e f ü n f H e r s t e l l e r und d i e s i e b e n R e p a r a t u r a n f ä l l i g k e i t s m e r k m a l e B e r e c h n e t man h i e r e i n m a l d i e
Y
( 2 )
= H . M
T
=
dargestellt.
Approximation
0.337 •0.199 - 0 . 4 0 3 - 0 . 3 9 7 0.071 0.239 •0.595 - 0 . 5 9 3 - 0 . 3 6 2 0.269 -0.149 -0.263 -0.059 0.114 0.137 -0.913 •0.337 0.497 0.920 0.228 0.487 1.395 0.558 •0.275 - 0 . 7 0 6
-0.017 0.008 -0.351 -0.264 -0.255 -0.213 -0.611 -0.544 .234 1.013
608
Kapitel IX: Graphische Verfahren
Dim. 2
General Motors
·
1.0-
Μ 3,
ausländische Hersteller
M4
M2, Ford
M6
M5
-1.0
1°
Dim.1
M1 ι American Motors -1.0·
β
Chrysler
Abb.7: Bi - Plot für fünf Autohersteller und sieben Reparaturanfalligkeitsmer kmale
der Datenmatrix Y* durch die Matrix Y ^ j vom Rang 2, so sieht man, daß diese nicht besonders gut i s t , was bei der Interpretation von B i - P l o t s berücks i c h t i g t werden muß. Natürlich könnte man im Βi - PIot noch die empirischen Standardabweichungen der ρ Merkmale abtragen. Die Pfeillängen geben die Rang - 2 - Approximation derselben an; auf diesen Pfeilen könnten dann zusätzlich noch die wirklichen Werte eingezeichnet werden, was wir aus Gründen der Übersichtlichkeit im obigen Beispiel unterlassen haben. Diese Standardabweichungen ergeben sich a l s Quadratwurzeln der Diagonalelemente von ^ y · ( Υ * ) τ · Y * . Eine Anwendung des Bi - Plots in Zusammenhang mit der Einzelrepräsentation der Objekte wird in Abschnitt 2.7 (B-t - Plot - Sonnen) beschrieben.
1.4
WEITERE
GRAPHISCHE
OBJEKTE
UND
R Ε Ρ RÄ S Ε Ν ΤΑΤ I 0 Ν S F 0 RΜ Ε Ν
FÜR
MERKMALE
In den bisherigen Kapiteln dieses Buches wurden verschiedene s t a t i s t i s c h e Verfahren vorgestellt, die zum Teil dann auch - wie dort demonstriert wur-
609
Kapitel IX: Graphische Verfahren
de - eine graphische Darstellung der interessierenden Objekte oder der an ihnen beobachteten Merkmale erlauben. Die wichtigsten dieser Möglichkeiten einer graphischen Repräsentation sollen hier noch einmal kurz zusammengefaßt werden.
Im Kapitel
VI wurden verschiedene Verfahren der multid-Lmeni-conalen
nang
dargestellt. Diese Methoden basieren darauf, daß aufgrund von
(MS)
Skalie.-
beobachteten Ähnlichkeiten von η Objekten diesen Objekten q - dimensionale Datenvektoren zugeordnet werden. Wählt man als Dimension des Repräsentationsraumes eine Zahl
3, so können diese Datenvektoren natürlich auch
in ein q - dimensionales Koordinatensystem eingetragen werden und somit zur graphischen Repräsentation der η Objekte dienen. Mittels MDS lassen sich auch ρ an η Objekten beobachtete Merkmale repräsentieren; dabei werden dann die Ähnlichkeiten der Merkmale z.B. basierend auf ihren empirischen Korrelationen gemessen.
Die hieAoJuihlichm
Clu&£&rw.naly(,z
vgl. Abschnitt 6 in Kap.VII,
- VzAiaktzn,
erlauben die Darstellung der Ähnlichkeiten von η Objekten mittels eines Dendrogramms. Ausgehend von den einzelnen Objekten (einelementige
Klassen)
werden auf jeder Stufe des Dendrogramms die beiden jeweils ähnlichsten Objektklassen zu einer neuen Klasse zusammengefaßt bis schließlich alle Objekte in einer Klasse vereinigt sind.
Im Kap.VIII schließlich haben wir uns mit der F a k t o n n a n n i y i i
beschäftigt.
Hier werden aufgrund der Beobachtung von ρ Merkmalen an η Objekter aus einer Grundgesamtheit wenige künstliche Merkmale (Faktoren) bestimmt, die die Merkmale beschreiben. Dabei wird die Beziehung zwischen einem Merkmal und einem Faktor durch ihre Korrelation angegeben. Ist die Zahl q der Faktoren kleiner oder gleich drei, so lassen sich die MeAkmaZe q - dimensionalen Raum deA
Taktonm
graphisch -im
repräsentieren, wenn man als Koordina-
ten die Korrelationen von Merkmalen und Faktoren
verwendet; man vgl. auch
Abschnitt 1 und 2 in Kap.VIII. Im Abschnitt 3 des Kap.VIII eine Möglichkeit aufgezeigt worden, bei q O
ist dann noch
Faktoren die η Objekte gra-
phisch zu repräsentieren. Hierzu schätzt man aufgrund der Beobachtungsvektoren für die Objekte und der Korrelationen von Merkmalen und Faktoren die sogenannten Faktorenwerte, d.h. die Datenvektoren für die Öfayefe-ie bzgl.deA Faktoien,
und trägt sie in einem Koordinatensystem ab.
Bzgl. graphischer Darstellungen von Kontingunzta^ttn schnitt 6 in Kap.V und Riedwyl/Schuepbach
sei verwiesen auf Ab-
(1983); man vgl. aber auch nach-
folgende Darstellungen der Kriteriumsvariablen
"Hersteller".
610
Kapitel IX: Graphische Verfahren
2 REPRÄSENTATION EINZELNER OBJEKTE ODER MERKMALE Im ersten Abschnitt haben wir Verfahren kennengelernt, die es ermöglichen, η Objekte, an denen ρ Merkmale beobachtet wurden, (bzw. Merkmale, oder Objekte und Merkmale) gemeinsam graphisch zu repräsentieren. In diesem Abschnitt werden nun Verfahren vorgestellt, mittels derer jedei jedei
Merkmal),
veAanAchaulichX
wenden
(oder
Objekt
für das multivariate Beobachtungsdaten vorliegen,
einzeln
kann, d.h. zu jeder Datenmatrix für z.B. η Objekte
werden η Plots erstellt, die den direkten Vergleich der Objekte erlauben. Ist dabei die Datenmatrix qualitativ oder gemischt, so muß sie zunächst z.B. mit den Verfahren aus Kap.V in eine quantitative Datenmatrix
überführt
werden.
Im Abschnitt 2.1 werden zunächst sehr einfache Darstellungsformen bzw. StAex^en,
Polygonzüge,
SteAne,
Sonnen
und Glyphi)
(PAo^ile
beschrieben, die bei
der Objektrepräsentation lediglich die konkret beobachteten
Merkmalswerte
aus der Datenmatrix benutzen. Diese Verfahren können sehr leicht auch von Hand durchgeführt werden.
Bei den Verfahren aus Abschnitt 2.1 werden die einzelnen Μen.kmaJLmeM.e Strecken
(bzw. Radien.)
repräsentiert. Die Viamanten
gegen stellen die MeAkmaliwelte
du>ich Winkel
du/ich
aus Abschnitt 2.2 hin-
dar.
Im Abschnitt 2.3 wird ein komplexes Verfahren zur Darstellung von Objekten vorgestellt, nämlich die Repiäientation
mitteli
Geiichtetn.
Dabei werden
einzelnen Gesichtsteilen (z.B. Mund, Nase usw.) Merkmale zugeordnet und je nach Ausprägung eines Merkmals gezeichnet (z.B. Breite der Nase oder Form des Mundes).
Vermittels sogenannter Andfiem
- Floth,
die in Abschnitt 2.4
vorgestellt
werden, lassen sich Objekte aufgrund einer trigonometrischen Funktion darstellen. Die Koeffizienten dieser Funktion werden dabei durch die Merkmalswerte bestimmt. Stellt man solche Andrews - Plots in einem polaren Koordinatensystem dar, so ergeben sich auch sogenannte Blumen
für jedes der Objek-
te. Bei den Andrews - PIots sollten die Merkmale ihrer Wichtigkeit entsprechend angeordnet werden, wobei es jedoch keine definitive Vorschrift gibt.
Bei den Verfahren aus Abschnitt 2.5 dann werden Ähnlichkeiten bei der Repräsentation der Objekte einbezogen. Bei Bäumen, dern
den. Bwigen
Menkmale und
Qua-
werden die Merkmale, die zur Objektrepräsentation herangezogen werden
gemäß dem Ergebnis einer hierarchischen Clusteranalyse, vgl. Abschnitt 6
611
Kapitel IX: Graphische Verfahren
in Kap.VII, angeordnet. Bei der Facetten - VaMtettung
von Objekten werden die Merkmale, wie in Ab-
schnitt 2.6 beschrieben, gemäß ihren "Ol6knAjrU.na£ioniiigtnicha{l£e.n"
zwi-
schen den Objekten angeordnet. Dieses Verfahren ist insbesondere dann geeignet, wenn eine Datenmatrix für die Stufen einer Kriteriumsvariablen vorliegt, denn dann können etwa Trennmaße, vgl. Abschnitt 4 in Kap.IV, zur Bewertung der Diskriminationsgüte eines Merkmals herangezogen werden. Bei Beobachtung einzelner Objekte könnte man als Diskriminationsglitemaße hier etwa die Standardabweichungen oder die Variationskoeffizienten der Merkmale verwenden. Im Abschnitt 2.7 wird dannn schließlich noch ein Verfahren zur Objektrepräsentation vorgeschlagen, das die Korrelationen der zugrundeliegenden Merkmale berücksichtigt. Bei den
- Plot - Sonn&n werden die Korrelationen
(approximativ) durch Winkel, die beobachteten Merkmalsausprägungen durch Strecken dargestellt. Grundsätzlich ist zu bemerken, daß bei sämtlichen beschriebenen Verfahren eine "StandaicLUizMung"
der beobachteten Merkmale vonnöten ist. Die Ausprä-
gungen der Merkmale sollten dabei so transformiert werden, daß sich ihre Ausprägungen in etwa der gleichen Größenordnung bewegen. Wie man dabei konkret vorgeht, muß situationsbedingt vom sachlogischen Standpunkt aus entschieden werden. Es muß etwa berücksichtigt werden, ob absolute oder relative Schwankungen der Merkmalswerte von Interesse sind; im zweiten Fall empfiehlt es sich z.B. zu Indexzahlen überzugehen, vgl. auch Abschnitt 3. Außerdem ist zu beachten, daß bei vielen Verfahren alle verwandten Merkmalswerte positiv sein müssen. Treten in der Datenmatrix negative Werte auf, so kann man z.B. so vorgehen, daß man zu den betreffenden Spalten der Datenmatrix einen Wert addiert, der größer ist als der Absolutbetrag des Minimalwerts der jeweiligen Spalte. Als Β ζ λ Λ ρ Ι ζ Ι zu aJULzn Ve.^ahie.n
werden wir im folgenden das der fünf hito-
hzmteJLleA American Motors (1), Chrysler (2), Ford (3), General Motors (4) und (bzgl. des US - Marktes) ausländische Hersteller (5) heranziehen. Im Abschnitt 3 des Kap.V haben wir eine 5x7- Datenmatrix für diese Hersteller basierend auf den RepaAoiu/ian^öti^fee^en der äußeren Karosserie (1), der' inneren Karosserie (2), der Eisenteile der Karosserie (3), der Bremsen (4), des Automatikgetriebes (5), der Stoßdämpfer (6) und der Vorderradaufhängung (7) erstellt. Diese Datenmatrix Y*, bei der die Ausprägungen der 7 Merkmale bereits in etwa der gleichen Größenordnung liegen, ist in der
612
Kapitel IX: Graphische Verfahren
Call.3 noch einmal angegeben. Außerdem enthält die Tabelle eine Datenmatrix Y, bei der zu sämtlichen Merkmalsausprägungen der Wert Eins addiert wurde, so daß dann a l l e Werte aus Y positiv sind; im folgenden werden wir je nach Verfahren mit der Datenmatrix Y* oder Y arbeiten. Cab.3: Datenmatrizen Y* und Y für fünf Autohersteller basierend auf sieben Repa ra tu ra nfäl1i gke i tsmerkma1en Merkmal 1
2
1 2 3 4 5
0 0 Y* = 0 -0 0
452 424 063 766 658
-0 -0 -0 -0 1
1 2 3 4 5
1 1 1 0 1
452 424 063 234 658
0 0 0 0 2
Y=
3
4
6
5
7
394 - 0 752 -0 339 - 0 515 - 0 045 -0 008 - 0 309 0 358 0 524 0 518 - 0
241 - 0 355 0 472 0 638 0 643 -0 354 0 270 - 0 414 - 0 289 - 0 873 0 260 -0 360 -0 454 -0 703 1 357 1
150' 026 504 287 164 j
606 661 955 691 524
759 362 730 873 546
15θ1 026 496 713 264
0 0 0 1 1
248 485 992 358 518
0 0 0 1 0
0 1 0 1 0
645 643 596 260 297
1 0 0 0 2
472 646 711 640 357
1 1 0 0 2
J
Wir werden im folgenden stets von der Repräsentation von Objekten sprechen, aber natürlich können genauso auch Merkmale dargestellt werden, wenn man von der Transponierten einer Datenmatrix ausgeht. Abgesehen von einigen "neuen" Vorschlägen werden die meisten der hier beschriebenen Verfahren in Kleiner/Hartigan (1981) referiert bzw. dargestellt; man vgl. auch die dort angegebene Literatur. Bzgl. der Gesichterdarstellung in Abschnitt 2.3 sei hier insbesondere auf Flury/Riedwyl
2.1
EINFACHE VON
(1981,1983) hingewiesen.
DA RS Τ ΕL L UΝ G S F 0 RΜ Ε Ν BEI
MERKMALSWERTEN
DURCH
REPRÄSENTATION
STRECKEN
In diesem Abschnitt werden einige sehr einfache und daher schnell zu erstellende graphische Repräsentationsformen für Objekte vorgestellt, die l e d i g l i c h die quantitative Datenmatrix für die Objekte verwenden. Bei a l len Verfahren - mit Ausnahme der Polygonzüge - muß dabei die Datenmatrix derart transformiert werden, daß a l l e ihre Elemente positiv sind.
Kapitel IX: Graphische Verfahren
613
2.1.1 PROFILE, STREIFEN Bei der Repräsentation von Objekten durch ΡΛ,οί-cle. bzw. S f i e ^ e n
(pio&ili,
i t t l p m ) wird jedes Objekt durch ein Stabdiagramm d a r g e s t e l l t . Die Anzahl der Stäbe entspricht der Anzahl beobachteter Merkmale und die Höhe eines Stabes i s t proportional der beobachteten Ausprägung des zugehörigen Merkmals. Dabei e r f o l g t die Anordnung der Stäbe in beliebiger Reihenfolge, die jedoch für a l l e Objekte gleich sein muß. ßec6pleZ: In der Abb.8 sind die P r o f i l e von fünf Autoherstellern. darges t e l l t , wobei die Anordnung der Stäbe der Reihenfolge der Merkmale in der Datenmatrix Y* bzw. Y aus Tab.3 entspricht und die Höhe eines Stabes proportional dem zugehörigen Wert des Merkmals in der Datenmatrix Y i s t .
1 2 3 t 5 6 1
mnJ
θή
American Motors
Chrysler
IHti iL in Ford
General Motors
m ausländische Hersteller
Abb.8: P r o f i l e für fünf Autohersteller basierend auf der Datenmatrix Y für sieben Reparaturanfälligkeitsmerkmale; im ersten B i l d i s t die Anordnung der Merkmale angegeben
2.1.2 POLYGONZOGE Bei einem Polygonzug
(polygon)
für ein Objekt werden die an ihm beobachte-
ten Merkmalswerte durch Punkte angegeben, deren Höhen proportional den beobachteten Merkmalswerten sind. Dabei werden die beobachteten Merkmale in bel i e b i g e r Reihenfolge ( i n gleichen Abständen) auf der x - A c h s e angeordnet und die Punkte durch Striche miteinander verbunden. BeÄiplel:
In der Abb.9 sind Polygonzüge für die fünf Autohersteller, vgl.
Tab.3, abgetragen. Dabei wurden die Merkmale in der Reihenfolge belassen, wie s i e in den Datenmatrizen Y* und Y auftauchen und die Höhen der Punkte sind proportional den Werten in der Matrix Y* aus Tab.3.
ι
614
Kapitel IX: Graphische Verfahren
1 2 3 4 5 6 7
American Motors
Chrysler
General Motors
Ford
ausländische Hersteller
Abb.9: Polygonzüge f ü r f ü n f A u t o h e r s t e l l e r b a s i e r e n d auf sieben Reparatura n f ä l l i g k e i t s m e r k m a l e n , v g l . auch d i e Datenmatrix Y* aus Tab.3; im e r s t e n B i l d i s t d i e Anordnung der Merkmale angegeben
2 . 1 . 3 STERNE S t e l l t man Polygonzüge in einem polaren Koordinatensystem d a r , wobei
aller-
d i n g s von nur p o s i t i v e n Merkmalswerten ausgegangen werden muß, so ergeben s i c h d i e sogenannten S-teAne (itau).
Dazu wird e i n K r e i s in ρ g l e i c h g r o ß e
Sektoren a u f g e t e i l t ( f a l l s ρ Merkmale beobachtet wurden), d . h . jeder Sekt o r hat einen Winkel von 360°/p und den ρ B e g r e n z u n g s l i n i e n der Sektoren wird j e w e i l s e i n e s der Merkmale ( i n b e l i e b i g e r R e i h e n f o l g e )
zugeordnet.
Einem Merkmalswert wird dann e i n Punkt auf der entsprechenden Begrenzungsl i n i e zugeordnet, dessen Entfernung vom K r e i s m i t t e l p u n k t p r o p o r t i o n a l
zum
Merkmalswert i s t . Die insgesamt ρ Punkte werden dann durch Strecken v e r bunden und das entstehende ρ - Eck i s t der einem Objekt zugeordnete S t e r n .
BeAAp-Lzl: Geht man von der Datenmatrix Y aus Tab.3 a u s , so l a s s e n
sich
Sterne f ü r die f ü n f A u t o h e r s t e l 1 er zeichnen. Diese s i n d in Abh.10 darges t e l l t , wobei das e r s t e B i l d in der Abbildung die A u f t e i l u n g des K r e i s e s in ρ = 7 Sektoren mit Winkel 360°/p= 51.42857° sowie die Anordnung der Merkmale a n g i b t . D i e s e r K r e i s und s e i n e E i n t e i l u n g s i n d in den übrigen B i l d e r n durch d i e etwas schwächeren L i n i e n angedeutet.
2 . 1 . 4 SONNEN Bei den in A b s c h n i t t 2 . 1 . 3 beschriebenen Sternen können d i e Objekte nur dann ( v i s u e l l )
r i c h t i g b e u r t e i l t werden, wenn man den B e z u g s k r e i s oder zu-
mindest dessen M i t t e l p u n k t im B i l d mitandeutet. Daher schlagen wir a l s Mod i f i k a t i o n der Sterne h i e r Sonnm
(&uni)
a l s graphische
Repräsentations-
form v o r . Wie bei den Sternen wird ein ( i m a g i n ä r e r ) K r e i s in ρ Sektoren e i n g e t e i l t , und auf jeder B e g r e n z u n g s l i n i e der Sektoren w i r d in b e l i e b i g e r
ι |
Kapitel IX: Graphische Verfahren
615
7
Abb.10: Sterne f ü r fünf A u t o h e r s t e l l e r basierend auf den Werten von sieben Reparaturanfälligkeitsmerkmalen ausgehend von der Datenmatrix V; das erste B i l d g i b t die K r e i s e i n t e i l u n g sowie die Merkmalsanordnung an
Anordnung ein Merkmalswert durch die Strecke abgetragen, deren Länge proportional dem Wert s e l b s t i s t ; die Endpunkte der Strecke werden noch gesondert z.B. durch Kreise oder P f e i l e markiert. BeXip-teX: Wiederum ausgehend von der Datenmatrix Y aus Tab.3 sind in Abb.11 Sonnen f ü r fünf A u t o h e r s t e l l e r basierend auf sieben
Reparaturanfälligkeits-
merkmalen d a r g e s t e l l t , wobei die Endpunkte der Strecken durch Kreise mark i e r t s i n d ; das erste B i l d der Abbildung g i b t wie schon bei den Sternen die Zuordnung der sieben Merkmale zu den Begrenzungslinien der Sektoren an. Im Abschnitt 2.7 wird eine M o d i f i k a t i o n der Sonnen dahingehend v o r g e s t e l l t , daß die Anordnung der Merkmale und die K r e i s a u f t e i l u n g (Winkel zwischen den Merkmalen) aufgrund i h r e r Korrelationen e r f o l g t .
616
Kapitel IX: Graphische
Merkmalsanordnung
Ford
Verfahren
American Motors
General Motors
Chrysler
ausländische
Hersteller
Abb.11: Sonnen f ü r fünf A u t o h e r s t e l l e r basierend auf den Werten der Matrix Y von sieben Reparaturanfälligkeitsmerkmalen; das erste B i l d g i b t h i e r die Merkmalszuordnung an
2.1.5 GLYPHS Glyphs werden in zwei verschiedenen Formen verwandt, denen gemeinsam i s t , daß die an einem Objekt beobachteten ρ Merkmal sausprägungen a l s Strecken ausgehend vom Rand eines K r e i s e s mit beliebigem Radius abgetragen werden. Dazu wird etwa das obere Sechstel der Kreisbegrenzung in p-1 Teilstücke u n t e r g l i e d e r t . Ausgehend von den ρ Punkten, die die E i n t e i l u n g angeben, werden die Strecken in b e l i e b i g e r Reihenfolge dann so abgetragen, daß - würde man s i e in den Kreis h i n e i n verlängern - s i e den Mittelpunkt des Kreises schneiden. Bei der ersten Form der Glyphs sind die Strecken gerade proportional
den beobachteten ( p o s i t i v e n ) Merkmalswerten; bei der zweiten
Form werden a l l e Merkmalswerte in einer Datenmatrix in drei gleiche Teile aufgespalten. Die Werte im größenmäßig unteren D r i t t e l werden durch Punkte auf der K r e i s l i n i e , die im mittleren D r i t t e l
durch Strecken f e s t e r Länge c
und die im oberen D r i t t e l durch Strecken der Länge 2c d a r g e s t e l l t .
Kapitel IX: Graphische Verfahren
617
B e i s p i e l : Ausgehend von der Datenmatrix Y aus Tab.3 sind in Ahb.12 beide Arten von Glyphs f ü r fünf Autohersteller basierend auf sieben Reparaturanfälligkeitsmerkmalen d a r g e s t e l l t . Bei der ersten B i l d z e i l e werden die Merkmalswerte durch Punkte sowie Strecken der Länge c bzw. 2c wiedergegeben und bei der zweiten B i l d z e i l e sind die Strecken proportional den Werten aus Y. Im ersten B i l d der ersten B i l d z e i l e i s t außerdem die Anordnung der Merkmale angegeben.
American Motors
Chrysler
Ford
General Motors
ausländische Hersteller
Abb.12: Glyphs f ü r fünf Autohersteller basierend auf sieben Reparaturanf a l l igkeitsmerkmalen; Zeile 1: Darstellung der Merkralswerte durch Punkte und Strecken der Länge c bzw. 2c, Zeile 2: Streckenlänge proportional zum Merkmalswert
2.2
DARSTELLUNG
VON
OBJEKTEN
VERMITTELS
DIAMANTEN
Im Abschnitt 2.1 wurden die an einem Objekt beobachteten Merkmalswerte im wesentlichen durch Strecken d a r g e s t e l l t . Eine andere Repräsentationsform, nämlich Winkel, verwenden die ΌΙΟΜΜΧΖΠ
{diamonds),
die wir hier zur Ob-
jektrepräsentation vorschlagen wollen. Sind an jedem von η Objekten ρ (pos i t i v e ) Merkmalswerte beobachtet worden, so wird zunächst die Summe der Merkmalswerte am i - t e n Objekt ![ y.:,· j=1 1 J
für 1 = 1 , . . . ,n
ι
Kapitel IX: Graphische Verfahren
618
bestimmt. Nun w i r d e i n K r e i s , dessen Radius f ü r das i - t e Objekt p r o p o r t i o nal der Summe s e i n e r Merkmalswerte i s t , in ρ Sektoren z e r l e g t , deren Winkel p r o p o r t i o n a l
zu den beobachteten Merkmalswerten i s t , wobei die Reihen-
f o l g e der Merkmale b e l i e b i g gewählt werden kann. Für das i - t e Objekt
ist
dann der Winkel des S e k t o r s zum j - t e n Merkmal gerade
a
ij
= y
ij
, 3 6 0 O
/Ji
yi
J
« i = 1 , . . . , n , j=1
ρ
.
Die Punkte auf der K r e i s b e g r e n z u n g s l i n i e , d i e d i e Sektoren angeben, werden dann durch Strecken miteinander verbunden; die K r e i s b e g r e n z u n g s l i n i e
sel-
ber w i r d in der Zeichnung n i c h t mit e i n g e t r a g e n .
Beyiip-iet: B a s i e r e n d auf der Datenmatrix Y f ü r f ü n f A u t o h e r s t e i l e r ,
vgl.
Tab.3, wollen wir die Diamanten f ü r d i e H e r s t e l l e r bestimmen. Dazu berechnen w i r f ü r jeden H e r s t e l l e r i ( i = 1 , . . . , 5 ) d i e Summe der Merkmalswerte (Zeilensummen der M a t r i x Y) sowie d i e Winkel
der den sieben
R e p a r a t u r a n f a l l i g k e i t s m e r k m a l e n zugeordneten Sektoren, v g l . h i e r z u Cah.4. Die s i c h aus der T a b e l l e ergebenden Diamanten s i n d i n Abb.13 d a r g e s t e l l t , wobei im e r s t e n B i l d auch die Zuordnung der Merkmale zu den Sektoren angegeben
ist.
Cab.4: A r b e i t s t a b e l l e zur D a r s t e l l u n g von f ü n f A u t o h e r s t e l l e r n durch D i a manten Hersteller
i
»U a a
i2
a
i3
a
i4
a
2.3
i 1
i 5
a
i6
a
i7
2
1 6 332
6 247 '
3
4
5 543
6 769
5 11 164
82 5 5 2 °
82 0 6 2 °
69 1 6 3 °
12 4 4 5 °
53 9 4 8 °
34 4 5 4 °
38 0 9 2 °
62
136°
36 7 5 0 °
82
14 1 0 0 °
27 9 5 0 °
64 5 4 4 °
72 2 2 3 °
49 392° 17 7 6 6 °
43
126°
152°
20 8 6 1 °
47 4 9 7 °
99 6 1 3 °
36 6 7 1 °
94 6 8 2 °
38
128°
67 0 1 1 °
9 664°
83 6 8 9 °
37 2 2 7 °
46 2 6 0 °
34 0 3 8 °
76 6 9 2 °
65 3 8 2 °
39 1 2 6 °
32 2 7 2 °
37 9 2 0 °
70 4 1 2 °
DARSTELLUNG
VON
OBJEKTEN
MITTELS
GESICHTERN
Hat man an η Objekten ρ Merkmale beobachtet, so l a s s e n s i c h d i e Objekte durch η Gei-ichteA
(fjace*) r e p r ä s e n t i e r e n , wenn man den G e s i c h t s t e i l e n un-
t e r s c h i e d l i c h e Merkmale zuordnet. Die e r s t e d e r a r t i g e G e s i c h t e r - D a r s t e l -
J
619
Kapitel IX: Graphische Verfahren
American Motors
Ford
Chrysler
General Motors
ausländische Hersteller
Abb.13: Diamanten f ü r fünf A u t o h e r s t e l l e r basierend auf sieben Reparaturanfäl1igkeitsmerkmalen; im ersten B i l d i s t die Zuordnung der Merkmale zu den Sektoren angegeben
lung, sogenannte CheAnofä - iaceA , geht auf Chernoff (1971, 1973) zurück; s i e haben den N a c h t e i l , daß die einzelnen G e s i c h t s t e i l e n i c h t unabhängig voneinander v a r i i e r t werden können, v g l . z.B. Flury/Riedwyl
(1981).
Eine G e s i c h t e r d a r s t e l l u n g , die diesen Mangel n i c h t a u f w e i s t , wollen wir hier kurz beschreiben. S i e wurde von Flury/Riedwyl
(1981) entwickelt, die
uns dankenswerterweise auch das entsprechende Programm zur Verfügung ten.
D i e f l u i y - Rlzdwyl
-
facti
ermöglichen
die Repräsentation
stell-
von b i s
36 Merkmalen, denn es können je G e s i c h t s h ä l f t e 18 G e s i c h t s t e i l e
zu
variiert
werden: Augengröße, Pupillengröße, P u p i l l e n p o s i t i o n , Neigung der Augen, senkrechte Augenposition, waagerechte Augenposition (Höhe), Krümmung der Augenbraue, Dichte der Augenbraue, senkrechte P o s i t i o n der Augenbraue, waagerechte P o s i t i o n der Augenbraue (Höhe), obere Haarbegrenzung, untere Haarbegrenzung, G e s i c h t s l i n i e , Stärke der H a a r s c h r a f f u r , Neigungswinkel der Haarschraffur, Nase, Größe des Mundes, Krümmung des Mundes. Die Parameter der Funktionen, die die G e s i c h t s t e i l e beschreiben, können Werte zwischen Null und Eins annehmen, so daß die Merkmalswerte für η Objekte (bzw. die zugehörige Datenmatrix) zunächst in folgender A r t und Weise s t a n d a r d i s i e r t werden müssen: Von jeder Spalte der Datenmatrix wird der Minimalwert in der Spalte s u b t r a h i e r t und die entstehenden Werte werden durch die Spannweite der ursprünglichen Spalten d i v i d i e r t : y. . - y. . . τj min * ii ii Jyν ·_ -- νν .· ° j max J j mm
Die beiden Extrem-Gesichter ( a l l e Funktionsparameter g l e i c h Null bzw. g l e i c h
620
Kapitel IX: Graphische Verfahren
Eins) sowie das m i t t l e r e Gesicht ( a l l e Funktionswerte g l e i c h 0.5) s i n d in der Abh.14 d a r g e s t e l l t .
Ahb.14: Extrema und Mittel der Flury - Riedwyl - faces ( l i n k e s B i l d : a l l e Parameter E i n s , m i t t l e r e s B i l d : a l l e Parameter N u l l , rechtes B i l d : a l l e Parameter 0.5) Werden weniger a l s 35 Merkmale an η Objekten beobachtet, so können z.B. e i n i g e Gesichtsparameter konstant gehalten werden oder ein Merkmal mehreren Gesichtsparametern zugeordnet werden; bei weniger a l s 18 Merkmalen können zudem symmetrische Gesichter gewählt werden. Bei weniger a l s 18 Merkmalen besteht auch
die M ö g l i c h k e i t , eine G e s i c h t s h ä l f t e a l s einen konstanten
Standard zu wählen. Zu bemerken i s t , daß n a t ü r l i c h die Erscheinungsform der Gesichter sehr stark von der Merkmalsanordnung abhängt. Insbesondere s o l l t e n den ins Auge springenden G e s i c h t s t e i l e n wie G e s i c h t s l i n i e oder Haarschraffur w e s e n t l i che Merkmale zugeordnet werden, der P u p i l l e z.B. hingegen ein nicht so wes e n t l i c h e s Merkmal. Wird ein G e s i c h t s t e i l
( z . B . das Auge) durch mehrere
Parameter bestimmt, so s o l l t e n diesen Parametern hochkorrel ierte Merkmale zugeordnet werden. Eine a u s f ü h r l i c h e Darstellung nebst interessanten Anwendungen f i n d e t man in dem Buch von Flury/Riedwyl (1983) und in Flury/ Riedwyl
(1984).
Be.i,iii-LeJL: In der Tab.3 i s t eine Datenmatrix Y* für fünf A u t o h e r s t e l l e r basierend auf sieben Reparaturanfälligkeitsmerkmalen angegeben. Für diese A u t o h e r s t e l l e r sind in
Abb.15 und Abb.16 Flury - Riedwyl - faces d a r g e s t e l l t .
Hier wurden jeweils symmetrische Gesichter verwandt und nur 9 der dann zur Verfügung stehenden Gesichtsparameter v a r i i e r t ; die übrigen 9 Parameter wurden konstant auf 0.5 gehalten. Die Zuordnung der
Reparaturanfälligkeits-
merkmale zu den 9 v a r i i e r t e n Gesichtsparametern i s t in Cab.5 angegeben.
622
Kapitel IX: Graphische Verfahren
tab.5: Zuordnung von sieben Reparaturanfälligkeitsmerkmalen zu den Gesichtsparametern der Flury - Riedwyl - faces für fünf Autohersteller in Abb.15 und 16
Gesichtsparameter
Merkmal
in Abb.15
Merkmal
1 2 3 4 5 6 7
Augengröße Krümmung und Größe des Mundes Nase obere und untere Haarbegrenzung Stärke der Haarschraffur Dichte der Augenbraue Gesichtslinie
in Abb.16 7 1 4 6 2 5 3
Schon aus den Abb.15 und 16 wird deutlich, wie stark die Darstellung
von
der Zuordnung der Merkmale beeinflußt ist, obwohl hier in beiden Fällen
•
nur neun gleiche Gesichtsparameter variiert werden.
|
2.4
DARSTELLUNG
VON
OBJEKTEN
DURCH
TRIGONOMETRISCHE
FUNKTIONEN
Bei den bisherigen Typen von Objektdarstellungen wurde jeder beobachtete Merkmalswert einzeln repräsentiert (war direkt aus der Darstellung ablesbar). Hier werden nun zwei Darstellungsformen vorgestellt, dei denen dies nicht mehr der Fall
ist, sondern vielmehr alle Merkmalsausprägungen
gemein-
sam das gesamte Bild bestimmen und somit einen Gesamteindruck von der Verschiedenheit der Objekte entstehen lassen.
2.4.1 ANDREWS - PLOTS
Bei den Andiem
- Ploti,
die von Andrews ( 1972) zur Repräsentation mehrdi-
mensionaler Daten entwickelt wurden, wird jedes von η Objekten durch eine trigonometrische Funktion (Summe von Sinus- und Kosinusschwingungen) gestellt. Für das i-te Objekt (i = 1
dar-
n) ist diese Funktion
f,.(t) = c, •/v r 2 + c-.-sin t + c-, .-cos t + c. .-sin 2t + c c i - c o s 2t 1 II L\ Ol 41 Ol + c i -.*sin3t+ c 7 - * c o s 3 t + c 0 - ' s i n 4 t + Ol /I öl
...
,
wobei t alle Zahlen zwischen -π und π durchläuft. Die Koeffizienten c
1i>c2i»···»cpi
entsprechen den nicht notwendigerweise positiven Merkmals-
werten von ρ an den Objekten beobachteten Merkmalen. Die Zuordnung der Merkmale zu den Koeffizienten ist dabei beliebig, sollte jedoch so gewählt wer-
Kapitel IX: Graphische Verfahren
623
den, daß w i c h t i g e Merkmale den e r s t e n und weniger w i c h t i g e Merkmale den l e t z t e n K o e f f i z i e n t e n zugeordnet werden. Die Andrews - P l o t s können dann e i n z e l n oder bei g e r i n g e r Zahl von Objekten auch i n einem gemeinsamen B i l d gezeichnet werden. BesUpieZ: Für f ü n f A u t o h e r s t e l l e r s o l l e n ausgehend von der Datenmatrix Y* aus Tab.3 Andrews - P l o t s b a s i e r e n d auf sieben
Reparaturanfälligkeitsmerk-
malen e r s t e l l t werden. Um die Auswirkung u n t e r s c h i e d l i c h e r
Merkmalsanord-
nungen zu demonstrieren, haben w i r h i e r zwei u n t e r s c h i e d l i c h e
Anordnungen
gewählt. Bezeichnet y i j f ü r i = 1 , . . . , 5 und j = 1 , . . . , 7 den Merkmalswert des j - t e n R e p a r a t u r a n f a l l i g k e i t s m e r k m a l s am i - t e n Objekt, so i s t in Abb.17 d i e Anordnung 2 , 4 , 6 , 7 , 1 , 3 , 5 , d.h. d i e Funktionen +
f.j(t) =
y * 4 ' s i n t + y * 6 * c o s t + y ^ y s i n 2t + y ^ ' c o s 2t -
+ y * 3 s i n 3t + y i g * c o s 3t für i = 1
5 im I n t e r v a l l
[ - π , π ] d a r s t e l l t , und in Abb.18 wurde die Anord-
nung der Merkmale in der Datenmatrix b e i b e h a l t e n , d.h. es r
r
ist
-
f i ( t ) = y t 1 / v ? + y * 2 s i n t + y i y c o s t + y ^ - s i n 2t + y* 5 'COS 2t + yig-sin3t+ f ü r i = 1 , . . . , 5 im I n t e r v a l l
yi7-cos3t
[-ττ,ττ] gezeichnet worden.
2 . 4 . 2 BLUMEN Β I w m m (&lowzJui)
s i n d Andrews - P l o t s , d a r g e s t e l l t
natensystem. H i e r wird f ü r jedes Objekt i ( i = 1 ?η·(ί) - f ^ t ) + c wobei f i
in einem polaren K o o r d i ,n) d i e Funktion
f ü r t e [-π,π]
die Funktion f ü r Andrews - P l o t s aus A b s c h n i t t 2 . 4 . 1 b e z e i c h n e t ,
und c eine Konstante mit c > |
min f,(t)| t £ [-τι,π] 1 i=l,...,n
i s t (um das B i l d n i c h t zu v e r f ä l s c h e n , s o l l t e c etwa g l e i c h diesem Wert g e wählt werden), im polaren Koordinatensystem d a r g e s t e l l t , v g l . h i e r z u Abb.19.
Bz-iipl&l:
I n der Abb.20 s i n d die Blumen f ü r f ü n f A u t o h e r s t e l l e r
basierend
auf sieben R e p a r a t u r a n f a l l i g k e i t s m e r k m a l e n d a r g e s t e l l t . Dabei wurde von der Datenmatrix Y* aus Tab.3 ausgehend die Funktion
626
Kapitel IX: Graphische Verfahren
f i ( t ) = y * 2 / V ~ ? + y * 4 - s i n t + yig-cos t + y ] 7 * s i n 2t + y ^ - c o s 2t + y*2'Sin3t + y*5-cos3t +2.4 für i = 1
5 und t e [-π,π] in einem polaren Koordinatensystem dargestellt.
American Motors
, Chrysler
_ , Ford
Q
General Motors
ausländische Hersteller
Ό
Abh.20: Blumen für fünf Autohersteiler basierend auf sieben Reparaturanfall igkeitsmerkmalen in der Anordnung 2,4,6,7,1,3,5; vgl. Tab.3 und Abb.17
2.5
DARSTELLUNG DER
VON
OBJEKTEN
UNTER
BERÜCKSICHTIGUNG
M E R K M A L S Ä H N L I C Η Κ Ε IΤ Ε Ν
Bisher spielte die Anordnung der ρ an η Objekten beobachteten Merkmale bei der graphischen Darstellung der Objekte eine sehr untergeordnete Rolle. In diesem Abschnitt nun sollen Verfahren vorgestellt werden, die die Ähnlichkeiten von Merkmalen bei ihrer Anordnung berücksichtigen; bei allen drei behandelten Methoden muß eine Datenmatrix für die Objekte verwandt werden, die nur positive Werte enthält.
Als Maß für die Ähnlichkeit oder besser Verschiedenheit zweier Merkmale kann z.B. ihr euklidischer Abstand oder ihre betragliche Korrelation verwandt werden.
Ist
627
Kapitel IX: Graphische Verfahren
y
11
" ·
y
1p
y
2i
···
y
2p
*-yn1
""
y
np-
Y=
eine ηχρ - Datenmatrix f ü r η Objekte, an denen ρ Merkmale beobachtet wurden, so i s t der e u k l i d i s c h e Abstand zweier Merkmale j , k e { 1 , . . . , p }
und i h r e b e t r a g l i c h e
gerade
Korrelation
irJk\-\(l
I ' M - y ^ ' i k - W f t h
{
W i
)
2
X h
(y
ik-yk)2)|
.
wobei y . bzw. y. den M i t t e l w e r t der j - t e n bzw. k - t e n S p a l t e von Y bezeichnet: J κ y
j
=
1 n n ^
y
ij
'
y
k
=
1 η
n y
ik
'
Unter Verwendung e i n e r s i c h ergebenden D i s t a n z m a t r i x f ü r d i e Merkmale - d i e s kann z . B . die M a t r i x der e u k l i d i s c h e n Distanzen d ( j , k ) oder d i e M a t r i x der 2 Unbestirrmtheitsmaße 1 - I r ^ l s e i n - wird dann eine h i e r a r c h i s c h e C l u s t e r a n a l y s e f ü r die ρ Merkmale, v g l . A b s c h n i t t 6 in K a p . V I I , d u r c h g e f ü h r t und das zugehörige Dendrogramm e r s t e l l t ; K l e i n e r / H a r t i g a n (1981) empfehlen, dabei das Verschiedenheitsmaß
"complete l i n k a g e " , v g l . A b s c h n i t t 2 in
K a p . V I I , zu verwenden. Da wir d i e Methoden des A b s c h n i t t s 2 . 5 wieder am B e i s p i e l s t e l l e r demonstrieren w o l l e n , s o l l
der f ü n f Autoher-
die h i e r a r c h i s c h e C l u s t e r a n a l y s e f ü r die
sieben R e p a r a t u r a n f ä l l i g k e i t s m e r k m a l e b e r e i t s an d i e s e r S t e l l e
durchgeführt
werden. B e X i p i n t : Unter Verwendung der M a t r i x der Unbestimmtheitsmaße der sieben Reparaturanfalligkeitsmerkmale 0.000 0.789 0.880 D = 0.131 0.849 0.597 0.578
0.789 0.000 0.558 0.911 0.579 0.298 0.286
0.880 0.558 0.000 0.831 0.943 0.919 0.910
0.131 0.911 0.831 0.000 0.963 0.879 0.836
0.849 0.579 0.943 0.963 0.000 0.448 0.783
0.597 0.298 0.919 0.879 0.448 0.000 0.137
0.578 0.286 0.910 0.836 0.783 0.137 0.000
v g l . auch A b s c h n i t t 2 in Kap.VI und A b s c h n i t t 4 . 2 in K a p . V I I , e r g i b t
sich
durch das C l u s t e r a n a l y s e - Verfahren aus A b s c h n i t t 6 in K a p . V I I mit dem Ver-
628
Kapitel IX: Graphische Verfahren
schiedenheitsmaß "complete linkage" eine Hierarchie mit den Klassen K 1 = {1 > , K 2 = {4}, Kj ± {3}, K 4 = {6}, Kg = {7}, Kg = {2}, K ? = {5}, Kg = F = {1,4}, Kg = Ε = {6,7}, K 1 q = D = {2,6,7}, K ^ = C = {2 ,5,6,7}, K 1 2 = B = {1,3,4}
und
K 1 3 = A = {1,2,3,4,5,6,7}
deren Dendrogramm in Abb.21 dargestellt ist. In diesem Dendrogramm sind die Gütemaße g auf den einzelnen Stufen der Hierarchie direkt mitangegeben.
U u
1
U
F
0 0.137- 0.131 0.29 8
0.183 •0.880 0.963 9 Abb.21: Dendrogramm für sieben Reparaturanfälligkeitsmerkmale von PKW's unter Verwendung ihrer Unbestimmtheitsmaße und "complete linkage"
2.5.1 QUADER Quad&ti (boxii)
eignen sich zur Repräsentation von Objekten, falls die Zahl
ρ der interessierenden Merkmale nicht allzu groß ist. Die ρ Merkmale werden in drei möglichst homogene Gruppen aufgeteilt und jeder Gruppe wird eine der Dimensi onen Höhe, Breite und Tiefe des Quaders zugeordnet. Konkret kann die Einteilung in drei Gruppen mittels des Clusteranalyse - Verfahrens für Partitionen aus Abschnitt 4.1 gewonnen werden, oder man wählt die Gruppen gemäß der Complete - 1inkage - Hierarchie, indem man die Gruppen benutzt, die auf der Stufe der Hierarchie, die aus drei Klassen besteht, entstanden sind. Innerhalb der drei Gruppen werden die Merkmale nun in einer Reihe angeordnet, wobei wiederum die Ähnlichkeiten der Merkmale berücksichtigt werden sollten. Die Kantenlängen des Quaders für das i-te Objekt (i-1
n) sind dann ge-
ι
Kapitel IX: Graphische Verfahren
629
rade proportional der Summe der an ihm beobachteten Merkmalswerte d e r j e n i gen Merkmale, die der Dimension des Quaders zugeordnet s i n d . Die einzelnen Kanten werden dann noch proportional den einzelnen Merkmalswerten am i - t e n Objekt a u f g e t e i l t . Dadurch erhalten die Quader die G e s t a l t von
Paketm.
B&UpleA: Im B e i s p i e l der A u t o h e r s t e l l e r i s t die d r e i k l a s s i g e P a r t i t i o n
in-
nerhalb der Complete - 1 inkage - H i e r a r c h i e , v g l . Abb.21, durch die Klassen K 3 = { 3 } , Kg = F = {1,4} und
K ^ = C = {2,5,6,7}
gegeben. Ordnen wir nun der Dimension "Höhe" des Quaders die Klasse K ^ der Merkmalsanordnung (von unten nach oben) 5 , 6 , 7 , 2 , der Dimension
mit
"Breite"
die Klasse Kg mit der Merkmalsanordnung (von l i n k s nach rechts) 1,4 und der Dimension " T i e f e " die K l a s s e K^, die nur das Merkmal 3 e n t h ä l t , zu, so e r geben s i c h für die fünf A u t o h e r s t e l l e r unter Verwendung der Datenmatrix Y aus Tab.3 die in Abb.22 d a r g e s t e l l t e n Quader.
1
u
American Motors
Chrysler
Ford
Qeneral Motors
ausländische Hersteller
Abb.22: Quader f ü r fünf A u t o h e r s t e l l e r unter Verwendung von sieben Reparat u r a n f a l l igkeitsmerkmalen; die Merkmalsanordnung i s t im ersten B i l d angegeben
2.5.2 BÄUME Sind bei den Quadern noch Wahlfreiheiten bei der Anordnung der Merkmale gegeben, z.B. kann die Zuordnung der Merkmalsgruppen zu den Dimensionen des
ι
630
Kapitel IX: Graphische Verfahren
Quaders b e l i e b i g e r f o l g e n , so s i n d die V o r s c h r i f t e n bei der R e p r ä s e n t a t i o n von Objekten durch Bäume {üizu)
d e r a r t , daß eine nahzu e i n d e u t i g e Anord-
nung der Merkmale e r f o l g t . Diese Bäume, die auf K l e i n e r / H a r t i g a n zurückgehen und die deshalb auch mitunter KlzineA
(1981)
- Hcuvtigan - ttiZA
genannt
werden, verwenden das Dendrogramm der H i e r a r c h i e flir d i e ρ an η Objekten beobachteten Merkmale und verwandeln es in einen Baum bestehend aus einem Stamm und s i c h nach oben verjüngenden Ästen. Die S t r u k t u r e i n e s
solchen
Baumes i s t abgesehen von der Länge des Stammes und der Äste f ü r jedes Objekt gleich.
Beginnend mit dem unteren Stammende, iri dem a l l e Merkmale zusammengefaßt s i n d , e r f o l g t s u k z e s s i v e die A u f s p a l t u n g der Merkmale in Merkmalsgruppen (Äste) gemäß der durch d i e H i e r a r c h i e vorgegebenen R e i h e n f o l g e b i s
schließ-
l i c h den oberen Ästen die einelementigen Klassen ( e i n z e l n e Merkmale) der H i e r a r c h i e zugeordnet s i n d , v g l . auch das nachfolgende B e i s p i e l .
Zunächst
e r f o l g t n a t ü r l i c h eine A u f s p a l t u n g des Stammes in zwei T e i l e , die durch d i e z w e i k l a s s i g e S t u f e der H i e r a r c h i e gegeben w i r d . Diese T e i l e werden dann wie im Dendrogramm j e w e i l s weiter a u f g e s p a l t e n . E i n A s t e n t s p r i c h t
somit
der V e r b i n d u n g s s t r e c k e zwischen zwei- Klassen im Dendrogramm.
Die B r e i t e jedes A s t e s (und des Stammendes) wird nun p r o p o r t i o n a l
der An-
zahl der in ihm v e r e i n i g t e n Merkmale gewählt. E i n i g e Äste werden dann dem Stamm zugerechnet. Bei der A u f s p a l t u n g des Stammendes i s t d i e s der b r e i t e r e der beiden Ä s t e ; wird d i e s e r Teil des Stammes weiter a u f g e s p a l t e n , so w i r d wiederum der b r e i t e r e der Äste zum Stamm gewählt usw. b i s s c h l i e ß l i c h auch der Stamm in zwei Ä s t e , denen j e w e i l s nur e i n Merkmal zugeordnet i s t ,
zer-
f ä l l t . Wird der Stamm auf e i n e r Stufe in zwei g l e i c h b r e i t e Äste u n t e r t e i l t , so kann e i n e r von ihnen a l s Stammfortsetzung gewählt werden.
Wird e i n Ast oder e i n Teil
des Stammes g e t e i l t , so muß der Winkel
zwischen
den beiden T e i l e n f e s t g e l e g t werden. Dazu wählt man zunächst einen maximalen Winkel α ( z . B . a = 80°) f ü r d i e A u f s p a l t u n g des Stammendes und einen minimalen Winkel @ ( z . B . β = 3 0 ° ) , der derjenigen A u f s p a l t u n g e i n e r zweielementigen K l a s s e zugeordnet w i r d , bei der die beiden einelementigen
Klas-
sen s i c h am ä h n l i c h s t e n s i n d , die die g e r i n g s t e H e t e r o g e n i t ä t aufweisen. A l l e n übrigen Winkeln werden dann Werte zwischen α und β in f o l g e n d e r A r t und Weise zugeordnet. Die H e t e r o g e n i t ä t zweier K l a s s e n , die auf e i n e r S t u fe der H i e r a r c h i e zusammengefaßt werden, i s t gerade die
Verschiedenheit
d i e s e r K l a s s e n , h i e r gemessen m i t t e l s des Verschiedenheitsmaßes
"complete-
l i n k a g e " , v g l . A b s c h n i t t 6 i n K a p . V I I . Bezeichnen wir d i e mehrelementigen Klassen der H i e r a r c h i e f ü r ρ Merkmale mit A , B , C , . . .
, wobei Α die p-elemen-
631
Kapitel IX: Graphische Verfahren
tige Klasse bezeichnet, Β die als vorletzte zusammengefaßte Klasse von Merkmalen, C die als drittletzte zusammengefaßte Klasse u s w . , und benennen wir die Heterogenitäten der jeweils zusammengefaßten Klassen mit g^,g B ,gj,,... C
, so berechnen sich die Winkel
gemäß
x = [ß(ln(g A +1) - l n ( g x + 1 ) ) + a ( l n ( g x + 1 ) - l n ( g m i n + 1 ) ) ] /[ln(gA+l)-ln(gmin+1)]
für X = B,C,... .wobei g .
die Heterogenität der zuerst
zusammengefaßten
Klassen mit zugeordnetem Winkel β bezeichnet. Die Aufspaltung eines Winkels rechts und links der Vertikalen erfolgt gemäß der Breite der jeweiligen Äste. Wird ein Ast aufgespalten, so werden Teilwinkel
proportional
den bei-
den Astbreiten gewählt, wird der Stamm aufgespalten, so werden sie umgekehrt proportional
den beiden Breiten
festgelegt.
Nun müssen die Richtungen von Ästen und Stamm an den Aufspaltungen
festge-
legt werden. Die Richtung des Stammes wird von Aufspaltung zu Aufspaltung umgekehrt, was zusammen mit der Wahl des Winkels bewirkt, daß der Stamm möglichst senkrecht verläuft. Bei der Aufspaltung eines Astes wird der breitere Teilast stets nach außen, der schmalere Teilast stets in Richtung des Stammes weitergeführt, wodurch Überschneidungen im Baum vermieden werden .
Damit ist nun die Struktur der Bäume für eine Menge von Objekten festgelegt, nur die Astlängen und Starmilängen sind noch variabel und werden für jedes Objekt abhängig von den an ihm beobachteten Merkmalswerten
festge-
setzt. Die Länge eines Astes oder Stammteiles für das i-te Objekt (i=1,...,n) wird proportional
dem Mittelwert der zugehörigen Merkmalswerte gewählt.
Insbesondere ist also die Länge des Stammendes proportional
dem Mittelwert
aller am Objekt beobachteten Merkmalswerte, und die Astlängen derjenigen Äste, denen nur ein einziges Merkmal zugeordnet ist, sind proportional beobachteten
ΒίΛΔρΙζΖ:
dem
Merkmalswert.
In Abb.21
ist das Dendrogramm für sieben
Reparaturanfälligkeits-
merkmale, die bei fünf Autoherstellern beobachtet wurden, dargestellt. Wir wollen nun die Kleiner - Hartigan - trees für die fünf Autohersteller
bestim-
men.
In der Klasse Α sind alle sieben Merkmale zusammengefaßt. Das Stammende reicht also vom Nullpunkt 0 bis zum Punkt A , wo es aufgespalten wird in den Ast mit den Merkmalen 1,3,4 und dem Stammteil mit den Merkmalen
2,5,6,7.
Der Stammteil wird dann im Punkt C aufgespalten in den A s t , der nur das
632
Kapitel IX: Graphische Verfahren
Merkmal
5 enthält und einen weiteren Teil des Stammes mit den Merkmalen
2,6,7. Dieser wiederum teilt sich im Punkt D in den Ast m i t Merkmal
2 und
den Stammteil mit den Merkmalen 6 und 7, der schließlich im Punkt C in die Äste mit den Merkmalen 6 bzw. 7 zerfällt. Weiterhin wird der Ast mit den Merkmalen 1,3,4 im Punkt Β in die Äste mit einerseits dem Merkmal 3 und andererseits den Merkmalen 1 und 4 unterteilt. Zuletzt wird im Punkt F der Ast mit den Merkmalen 1 und 4 in die beiden Äste, die die Merkmale 1 und 4 getrennt tragen, unterteilt.
Zeichnet man das Stammende Μ setzung Μ
(von 0 nach A) senkrecht und die Stammfort-
nach rechts, den Ast AB nach links, so können die übrigen Rich-
tungen wie folgt gewählt werden: C5 verläuft nach rechts und Ϊ 0 als Stammfortsetzung nach links. Dann verläuft DE nach rechts und D2 nach links. Die Richtungen der Äste von Ε nach 6 und von Ε nach 7 können dann beliebig gewählt werden. Wir lassen hier "E6 nach links und Ϊ 7 nach rechts verlaufen. Bei der Aufspaltung
im Punkt Β muß der breitere Ast vom Stamm wegführen,
d.h. BF verläuft nach links und damit B3 nach rechts. Schließlich legen wir willkürlich fest, daß FT nach links und F4 nach rechts verläuft.
Als maximalen Winkel
im Verzweigungspunkt Α wählen wir a = 80° und als mini-
malen Winkel, der gemäß Abb.21 dem Verzweigungspunkt F zugeordnet werden muß, wählen wir β = 30°. Die Winkel
in den Verzweigungspunkten
X=B,C,D,E
berechnen sich somit wegen g . = g r zu 3
X = [30(ln(g A +1) - ln(g x +1)) + 8 0 ( l n ( g x + 1 ) - l n ( g F + 1 ) ) ] /[ln(g A +1) - ln(g F +1)]
,
wie in Cab.6 angegeben. In dieser Tabelle sind auch für jede Verzweigung £ r X = A,B,...,F die linken und rechten Nachfolger N Y bzw. N v sowie die Breite — I — r der zugehörigen Äste D ( X N V ) , D(XN V ) und die Winkel zwischen den Ästen und ö" ^ r der Vertikalen "ίΧΝ^,ν
, £ΧΝχ,ν
zusammengestellt, so daß die gesamte
Baumstruktur angegeben ist. Nun müssen für jeden der fünf Autohersteller noch die Astlängen unter Verwendung von Mittelwerten der jeweils beobachteten Merkmalsausprägungen
be-
stimmt werden. Dazu verwenden wir die Datenmatrix Y aus Tab.3 und berechnen für jeden Ast des Baumes für den i-ten Hersteller (i=1,...,5) den mittleren Merkmalswert der dem Ast zugeordneten Merkmale, vgl. eah.7. Die Äste eines Baumes sind dann in der Länge proportional
diesen Werten.
In der Ahb.23 sind die Bäume für die fünf Autohersteller dargestellt; das erste Bild dieser Abbildung gibt die Baumstruktur gemäß Tab.6 sowie die
633
Kapitel IX: Graphische Verfahren
Zuordnung der Merkmale und Verzweigungen wieder. Cah.6: S t r u k t u r der Bäume f ü r f ü n f A u t o h e r s t e l l e r aufgrund von sieben Rep a r a t u r a n f ä l l i g k e i t s m e r k m a l e n : Verschiedenheitsmaße und deren L o g a rithmen, Gesamtwinkel, Nachfolgeverzweigungen und i h r e B r e i t e sowie Winkel zwischen Ästen und V e r t i k a l e r
Verzweigung X Α Β C D Ε F
(Stamm) (Stamm) (Stamm) (Stamm)
9Χ 0 963 0 .880 0 783 0 .298 0 137 0 131
ln(gx+1)
n g ^ r g Y = p , wobei rg Α den Rang einer Matrix Α bezeichnet, und n^j>1 gilt. (Da wir hier n > p annehmen, ist theoretisch mit Wahrscheinlichkeit Eins r g Υ = ρ .) Die Matrizen S^ und S , letztere als invertierbar angenommen (was unter obigen Annahmen ebenfalls theoretisch mit Wahrscheinlichkeit Eins erfüllt ist), liefern dann die Pnä^gnäßen,
die alle Funktionen der Eigenwerte von S^Sg
sind,
für die in Abschnitt 1.2 beschriebenen Testverfahren.
Geben die jeweiligen Prüfgrößen keine Veranlassung zum Verwerfen der Hypothese
H Q , SO läßt sich nur im Falle einer allgemein testbaren Hypothese
schließen, daß die Abweichungen von der Hypothese H q zum Niveau γ nicht signifikant sind. Wird dagegen H q verworfen, so kann auch im n i c h t - t e s t baren Fall auf signifikante Abweichungen von der Hypothese geschlossen werden.
[
steht für diejenige Matrix, die man durch einfache Untereinan-
derreihung der Elemente aus Ζ und Κ erhält.]
663
Kapitel X: Das multivariate lineare Modell
Bevor d i e konkreten T e s t v e r f a h r e n im A b s c h n i t t h i e r noch e i n i g e a l l g e m e i n e Aussagen Ausgehend von der F e h l e r m a t r i x ίϋΛ die
der
dann
des
Kleinste
ne
z u r Schätzung
- QuadnaXe
^
Schätzet
e p bestimmen:
e
seinerseits
C
l ä ß t s i c h e i n e>utfvrtungsth.eue>i
$ der F e h l e r v e k t o r e n e^
KovaAAanzmWUx +
1.2 b e s c h r i e b e n werden, s e i e n
festgehalten.
den
Kovarianz-
bzui.
KoAAeZatlonimcuOUx
iü>i ψ v e r w a n d t w e r d e n
- Schätzen*
= X z ( X z J T « f = ( s i j i i . j = 1....,mp
kann;
es
ist
'
wobei " § " das Kroneckerprodukt b e z e i c h n e t ( v g l . A b s c h n i t t 4 in K a p . I ) , bzw. Corr(v) = ( r . .). •J
· ,
I JJ -
mit
mn
I J · · . jllip
r,.= »J
l j yj
v
c
—
«c
ii
f ü r i , j = 1 , . . . ,mp.
JJ
I s t r ^ . nahe 1 bzw. - 1 , so h e i ß t d i e s , daß d i e z u g e h ö r i g e n
Parameterschät-
zungen i n $ s t a r k voneinander abhängen, i s t r . j u n g e f ä h r 0 , so s i n d p r a k t i s c h u n a b h ä n g i g ; v g l . auch
Auch untei
sie
Kap.III.
H q : Kf = 0 l ä ß t s i c h d i e Parametermatrix Τ
schät-
zen und s i c h e i n S c h ä t z e r f ü r d i e K o v a r i a n z - bzw. K o r r e l a t i o n s m a t r i x
dieser
einen
Hypothese
Schätzung angeben:
Corr(?H^)
Ist
das
gieit,
=
( r < jj)-j j = i
interessierende
allgemeine
mp
mit
Multlvanlate
r° . =
^
L-ineane
f ü r i , j = 1 , . . . ,mp.
Modelt
unxest/Un-
d . h . Z = 0, und i s t d i e Hypothese H q : ΚΨ = 0 a l l g e m e i n t e s t b a r
ist hier
immer e r f ü l l t , wenn X T X i n v e r t i e r b a r n g = η - rg X
,
n h = rg Κ
i s t ) , so g i l t
(dies
stets
,
und d i e Hypothesenmatrix S^ kann g e s c h r i e b e n werden a l s Sh = YT(X+)TKT(K(XTX)+KT)+KX+Y
Mitunter interessieren ν = χψ + e enmexteite
Hypothesen
H * : KfL = 0
,
.
im a l l g e m e i n e n r e s t r i n g i e r t e n M u l t i v a r i a t e n Modell ΖΨ = ο der
Form
664
Kapitel X: Das multivariate lineare Modell
mit einer (ρχρ*) - dimensional en Matrix L vom Rang p*, r g L = p*_p+2, so kann als Approximation auch 92 ~ 2 g
Pnh n
2
F
"p " 1
e
9γ92;1-Ύ
verwandt werden, wobei im Falle n g - pn^ + n^ - 1 > 0 p n h ( n e " P) 9
1=ne-Pnh
und im Falle η
+
nh-1
·
^2 = n e " Ρ +
1
- pn. + n. - 1 < 0 e
h
9,=»
,
n
-
(n - p - 1 ) ( n e - p - 3 ) C n
92 = n e - p + l
[ir e -1)(n e
+
- p n h + n h - 1)
nh-p-1)
zu setzen ist. Das TeAtveAia.h/im
von PMal-
BcuvtleXt
verwirft die Hypothese Hq zum Niveau
γ , falls gilt Ρ Λ
ΡΒ =
Cj
ΤΤξΤ > cPB;1-r(p,ne'nh)
die kritischen Werte c p ß . ΐ - γ ( Ρ > η ε > \ )
s
^nc'
;
zu
finden
Ζ
· Β · bei Kres ( 1975,
Tafel 7). Falls keine kritischen Werte zur Verfügung stehen, kann auch folgender approximativer Test verwandt werden: Verwerfe Hq zum Niveau γ, wenn A PB θ - Apg
2u + θ + 1 ρ 2ν + θ + 1 θ(2U+0+1),θ(2ν+θ+1) ;1-γ
ist, wobei θ, u und ν wie beim Hotel 1ing - Lawley - Test gewählt werden. Schließlich verwirft der Roy-Te.it ξ, A
R
=
die Hypothese Hq zum Niveau γ, falls
T T I j > cR;1-Y(P'ne'nh'
i
kritische Werte zu diesem Test findet man bei Kres (1975, Tafeln 3,4,5) oder in den Nomogrammen von Heck (1960), die im Anhang zu finden sind. Beispiele zu diesen Testverfahren werden wir in den sich anschließenden Abschnitten 1.3- 1.5 kennenlernen. An dieser Stelle sei erwähnt, daß man an-
667
Kapitel X: Das multivariate lineare Modell
stelle der Eigenwerte ξ 1 ^ - · - iL ^ p von
von
S
hSe1
auch
die
Ei
9enwerte
verwenden kann, wenn man folgende Beziehung
λ
ιϋ···ϋλρ
zwischen die-
sen Eigenwerten ausnutzt: Es ist ξ i, "=1τ- 4A νi
?1 λ. i= 1 + ? i
bzw.
'
Hieraus erklärt sich auch die Tatsache, daß wir im Kapitel zur Prüfung der multivariaten Unabhängigkeitshypothese
III obige Tests
(zwischen den "Merk-
mal sgruppen" X und Y), die der Hypothese Η ^ : ψ = 0 entspricht, konnten. Dort waren die Eigenwerte
verwenden
der Matrix
zur Prüfung dieser globalen Unabhängigkeitshypothese verwandt worden, die mit den speziellen Größen Sg — Sy — Sj^ySy ^^γ
>
Kapitel
S
X:
Oos multivariate
lineare Modell
6 7 3
YT(X+)TK^[K1(XTX)+K^']+K1X+Y
hd) =
= YTXT(XTX)-1(J][(1,0)(XTX)-1(J]]-1(1,0)(XTX)-1XTY -5! 1395 S
h(2)
=
γΤ
l i S )
mit
n
h(1)
= rg
K
1
= 1
Freiheitsgraden ,
(χ+)Τκ2[κ2(χΤχ)+Κ2]+Κ2Χ+Υ
ί 0. 1050 = -0.3251
-0.3251) 1.0066
m l-4. t
n h ( 2 ) =rg
„
, r ·,. ... j = 1 Freiheitsgraden .
Weiter erhalten wir wegen r-1
S
e
i0.752
0.050
~ [0.050
0.205
zunächst für den Test von ς
h(1)
die Matrix
c - 1 _ ί 5.76241 e " [-3.69991
-0.65337 0.41950
mit den Eigenwerten ξ 1 = 6.18191 un(
Wegen ^ ( 1 )
und
ξ2 =0
' P = ^ ergibt sich h i e r , vgl. die Ausführungen zum Roy -
Test im Anhang, daß g i l t cR;1.Y(2.8,1)-fF2>7;1.Y/(L+fF2>7;IG so daß mit F 2
7.0
g5
,
= 4.737 die Hypothese H q 1 zum 5% Niveau verworfen werden
muß da Τ
^
=
7 Τ Κ
= 0
·
8 6 1
> 0
·575 4
4
·
7 3 7
/
(1
+
f
4
·
7 3 7
= C
)
R;1-0.95(2,8,1)
d.h. der Werbeetat hat einen zum 5% Niveau s i g n i f i k a n t e n Einfluß auf die Responsevariablen Gewinn und Geschäftstyp. Dagegen i s t der Einfluß der Werbeart (bei g l e i c h z e i t i g e r Berücksichtigung der Werbeausgaben) zum 5% Niveau nicht s i g n i f i k a n t , denn die Matrix ς
h(2)
ς - 1 _ ί 0.062705 e [-0.194145
-0.061396) 0.190098J
b e s i t z t die Eigenwerte ξ 1 =0.252803
und
ξ2 = 0
so daß ( n h ( 2 ) = 1) die Hypothese H q 2 wegen ^ | | | | ° | = 0.202 ^ 0.575 = C R ; 0 _ 9 5 ( 2 , 8 , 1 ) nicht verworfen werden kann.
;
674
Kapitel X: Das multivariate lineare Modell
Nun wollen wir unter Verwendung des erwartungstreuen ί J_ * ~ ig
iüA. diu
ς
f 0 . 169 [-0.041
e
KovaAMinzmatAAx
Sch&tzvu,
-0.041) 0.619J
$ der Fehlervektoren
sowie die KonxzlatixtviimUfU-x.
du
die
KovaAÄanzmtVüx
Ψ = X + Y dex PcutameXeAmWUx Ψ
Schätzen
bestimmen. Mit Οον(Ψ) = X + ( X + ) T β I = (X T X)
X T [(X T X)
' 0.0174 -0.0042 0.0029 -0.0007
0.0029 -0.0007 0.0174 -0.0042
-0.0042 0.0638 -0.0007 0.0105
Χ τ ] τ β I = (X T X)
βf
-0.0007" 0.0105 -0.0042 0.0638_
e r g i b t sich die geschätzte Korrelationsmatrix von Φ wie in Cab.3 angegeben. Cab.3: Schätzer Corr(T) für die Korrelationsmatrix der Parameterschätzung Ψ Werbeetat Gewinn Geschäftstyp
Gewinn
ß12
12
®21 ß
22
e21
s22 -0.021
1.000
-O.126
0.167
-0.126
1.000
-0.021
0.165
0.167
-0.021
1.000
-O.126
-0.021
0.165
-0.126
1.000
§11 ß
Werbeart Geschäftstyp
Die Korrelationen der Schätzer sind hier a l l e nicht besonders hoch, so daß sich die Schätzer f ü r ß 2 i
un
d 622
unter
H
01
^12
unter
^02
nur geringfügig gegenüber denen im Modell verändern werden: Unter H
o1 : ( 3 1 1 , B 1 2 ) = 0 ergibt sich
=
und unter H q 2 : ( 1
® er,1alten
Um nun die Götz dzn. multivanMUen
w
''r
Reg/ιzii-Lon zu überprüfen, können wir zu-
nächst einmal die ßnit-immtheXtiiraßi der Regressionen von den einzelnen Responsevariablen betrachten, v g l . auch K a p . I I . Hier ergibt sich für die Regression vom Gewinn auf Werbeetat und Werbeart
3
U(1,2) =
1
" j=1 ^ ν 1 - § 1 1 χ ν 1 - β 2 ΐ ν ) 2 / ν ^
(y
>v 1 - y . 1 > 2
675
Kapitel X: Das multivariate lineare Modell
10
.
7
= 1 " ! (yv1 - 0.908xv1+0.104xv2)710= 1-^j-1.3726 v=1 = 0.86274 und für die Regression von Geschäftstyp mit r e l a t i v höchstem Absatz auf Werbeetat und Werbeart B
2,(1,2) = 1 " j , =1"
(
yv2-g12xvl""B22Xv2)2/ J ,
10
K z ' * ^
2
.
?
I ( y v 2 + 0.583x v 1 - 0 . 3 2 2 X v 2 ) 7 1 0 = 1 - ^ - 4 . 9 6 7 5 v=1
= 0.50325
,
so daß die beiden Bestimmtheitsmaße, insbesondere natürlich das erste, a l s recht hoch bezeichnet werden können. Nun wollen wir das Regressionsmodell, insbesondere auch die Normalverteilungsannahme, mittels nuZtivaAiaXeA Ruldaata.nalyii
anhand sogenannter Re-
iiduaJL- Plotb überrpüfen; hier gibt es verschiedene Möglichkeiten. Zum einen kann man die Mahalanobisdistanzen der Beobachtungsvektoren y v = ( y v 1 , . . . » y v p ) T zu einem festen Vektor a (z.B. a = y) 6a = / ( y v - a ) T t " 1 ( y v - a )
für v = 1 , . . . , n
betrachten und mit den Mahalanobisdistanzen der Schätzungen y v = ( y v 1 , . . . , y v p ) T , wobei Y = ( y v j ) v = 1
n
,j=i,...,P
= x$
-
von
diesem
Wert
vergleichen: 6^ = \ / ( i v - a ) T i " 1 ( y v - a )
für v = 1 . . ,n
a
.
a
Im konkreten Fall wird man dann 6 bzw. 6 betrachten, worin dann ί ' durch -1 ν ν ι·. ersetzt i s t und S eine Schätzung für $ (z.B. S = — S g oder S ,
S
e
f a l l s n fi ' k l e i n ' i s t ) bezeichnet. I s t das Modell adäquat, so liegen die Punkte, die man bei einem Plot von 6 a gegen 6® bzw. 0
·
6 9 8 =
! ·
5
·
7 8 6
/ (
1
+
|·
5
7 8 6
·
fF2,5;0.95 / (1 +f1F2,5;0.9s)
)
= C
R;0.95(2'6'1}
'
so daß dann aufgrund der Ausführungen zum Roy - Test im Anhang die Hypothese HQ2 verworfen wird, d.h. der 'Werbeetat' hat einen zum 5% Niveau s i g n i f i kanten Einfluß auf die Responsevariablen 'Gewinn' und 'Geschäftstyp mit r e l a t i v höchstem Absatz'. Nun soll die
KovajUanz-
bzw.
KonnelaXiommaXAAX
du
Ψ
Schätzern
iün. dLLe
VaJuxmeXeAmWilx ψ g e s c h ä t z t werden. Verwendet man a l s eJwxwtungAt>ieu.e Schätzung
faü/i
die
f -_L + ng
KovafuAnzmcrfAix ς
f 0-2255 e ~ [-0.0530
$
-0.0530} 0.7657J
so ergibt sich Cov(T) = Χ * ( Χ ζ ) τ « ί wie in cab-15 angegeben, wo auch die Matrix Corr(¥) zu finden i s t . Aufgrund der hohen Korrelationen der Parameterschätzungen, die zu den Stufen des Faktors 'Werbeart' gehören, und der Parameterschätzungen zur Kovariablen 'Werbeetat' (innerhalb jeder der beiden Responsevariablen) i s t zu erwarten, daß sich unter H ^ die Schätzungen für
und
a
Hq2 die Schätzungen für a ^ ,
rec lt
c ^ , 0-22' 3 i > "32
'
unter
stark verändern
werden gegenüber Ψ; dagegen werden wir bei beiden Hypothesen kaum Veränderungen der Schätzungen für
und ß Q 2 f e s t s t e l l e n , denn a l l e Korrelationen
zu diesen Parametern sind nur gering; d.h. g l e i c h z e i t i g , daß sich unter die Schätzungen für a l l e Parameter (außer natürlich
und ß ^ ) kaum
verändern werden. Man vergleiche hierzu auch die trab. 16 in der neben Ψ auch die
Schätzen
?„ Hoi
antin
dm
=X/7XV
für 1=1,2,3
(i)
Wir wollen nun noch die
Hypotheken
Güte
du
zu finden sind: .
KovaMAAnzanaZyiemode&Li
für die Response-
variablen 'Gewinn' und 'Geschäftstyp mit realtiv höchstem Absatz' näher untersuchen. Dazu bestimmen wir zunächst einmal die
BeAtirnntheitimaße
der
einzelnen Kovarianzanalysemodelle, vgl. auch Kap.II. Für den Gewinn ergibt sich
α > Η
sc
Gesamtmittel Gewinn G. •
iο Γ Ο m οσ\ ο ο Ο ο I
-0.039 0.009
-0.047 0.011
-0.040 0.009
«Η Ο ο ο
οο ο
οο ο
0. -0.
-0. 0..004 0. -0.,006
-0., 1 1 8 1 ,.000
0.001 -0.000 -0.002 [ 0.000
ί 1.000
1 Beobach-
701
Kapitel X: Das multivariate lineare Modell
tungen der ρ Merkmale gemacht. Weiterhin nehmen wir eine Wechselwirkung zwischen den Faktoren Α und Β ( " F a k t o r " AB) in das Modell a u f , so daß zus ä t z l i c h zum E f f e k t μ des Gesamtmittels und zu den Effekten ß ^ , . . . , ß s der Stufen von Α und Β ein TnteAaktiomeiiekt i h l e k t ) (ctß).jj , i = 1 , . . . , r , j = 1
,
(WichAzlMUikungi-
s , für die Wechselwirkung zwischen i - t e r
Stufe des Faktors Α und j - t e r Stufe des Faktors Β berücksichtigt wird. D.h. wir betrachten das Modell y1--k = μ + a i + ß j + (aß)-jj wobei dann y^
+e -jj|
cii = y i
-y
ßj = y j ( ^ i j
ijk
=
für i = 1 , . . . , r
-y
f ü r j = 1 , . . . ,r
y i j . ~y-i.. " y . j . + y . . .
Die in diesem Modell
äb&ichen
α, = . . . = a r = 0
, ,
für i = i , . . . , r ,
j=i,...,s
Hypotheken
,
H^: S, = . . . = ß«. = 0
h£ B : ( α β ) η = ( α β ) 1 2 = . . . = ( a ß ) r s = 0
und
702
Kapitel X: Das multivariate lineare Modell
Uber das Verschwinden der Effekte der Faktoren Α und Β bzw. der Interaktionseffekte
können hier unter Verwendung der in Abschnitt 1.2 dargestell-
ten Testverfahren zum Niveau γ getestet werden, wobei die Fehlermatrix und deren Freiheitsgrade durch
v i ,
j, l
·
"e-«[^-7) = - 1 7 * l n y -
1
ΪΓ0777
= 0.131 j< 5.99 = χ |
0
95
A
Λ so daß die Hypothese H q n i c h t verworfen werden kann, d.h. zum 5% Niveau bestehen keine s i g n i f i k a n t e n Unterschiede b z g l . des Gewichtsverlustes zwischen männlichen und weiblichen Ratten (χ 2 - Approximation des Wilks - T e s t s ) . G l e i c h f a l l s zum Niveau 5% s o l l die Hypothese l·^, daß keine Unterschiede zwischen den drei Medikamenten bestehen, getestet werden; es e r g i b t s i c h h i e r zunächst die Matrix c B c - 1 ί5.4576 h e = 1^1.6940
-2.8070] -0.I880J
·«.
mlt
r ξ
Γ
4
. ·5
C7C. 7 6 1
und
.
r
52
n = 0
„,,,. ·0635
•
Verwenden wir nun den Hotel 1ing - Lawley - T e s t , wobei der k r i t i s c h e Wert c
HL-0 9 5 ^ > 1 8 , 2 ) durch die F - Approximation e r s e t z t wird, v g l . Abschnitt 1.2,
so wird mit θ = min(p.n^) = 2 , u =
HL;0.95
(9 1« ?)
**
| p-n®|-1)
, ν =^ V
P
~
1 )
S 2 (2u+9+1) ρ 2{lTv+T] r 6(2u+6+1),2(θν+1) ;0.95
= 7.5 ,
d.h.
ρ 32'r4,32;0.95
= ^ - • 2 . 6 7 = 0.6675
• die Hypothese H 0 zum 5% Niveau verworfen, d.h. die Unterschiede zwischen den Medikamenten b z g l . der Gewichtsverluste s i n d zum 5% Niveau s i g n i f i k a n t , da gilt 2 Ahl= J
• ξ^ = 4.6396 > 0 . 6 6 7 5 ^ c H L ; 0 _ 9 5 ( 2 , 1 8 , 2 ) = ο Η 1 _ ; 1 . γ ( ρ , η θ , η ° )
S c h l i e ß l i c h testen wir unter Verwendung von ςΑΒς-l h Se
S
=
! 0.0004 [-0.0084
0.1869] 0.2893J
·
m l t+
, n 7Q,7 ? ! = 0.2837
und
.
, _n nn,n ξ 2 - 0.0060
AB zum 5% Niveau die Hypothese HQ , daß keine s i g n i f i k a n t e Wechselwirkung
.
705
Kapitel X: Das multivariate lineare Modell
zwischen Geschlecht und Medikament vorhanden ist. Verwenden wir dabei den R o y - T e s t , d.h. die Nomogramme
A
im Anhang, so ergibt sich wegen
R=TT^j- = 0 , 2 2 1 0 * °-390
= c
R;0.95(2'18»2)=cR;1-r(P'ne'nhB)
'
AB daß H q nicht verworfen werden kann, so daß also die Wechselwirkung zum 5% Niveau nicht signifikant ist.
1.4.3
DIE MULTIVARIATE ZWEIFACHE KREUZKLASSIFIKATION MIT EINER BEOBACHTUNG PRO ZELLE
(DAS EINFACHE MULTIVARIATE BLOCKEXPERIMENT)
Im Abschnitt 1.4.2 sind wir davon ausgegangen, daß pio tion
[ZeJULe)
ζvielen
Faktoten
tungen vorliegen. Hat man pro Zelle lediglich eine keine.
Beobachtung,
so kann
im Modell berücksichtigt werden, und die p - d i m e n s i o -
Wechielwlnkung
nalen Beobachtungsdaten müssen in einem einlachen penJjment
faktofutuienkombina-
Α und Β mit r bzw. s Stufen mehrere Beobach-
nultLvajUaten
ausgewertet werden. Bezeichnen
Blockexdie Effekte der
Stufen der Faktoren Α und Β und μ das Gesamtmittel, so läßt sich ein solsches Modell in der Form y ^ = μ + a i + ßj + e^.
fur i = 1,...,r; j=1,...,s
angeben, wobei für alle i und j y ^
den Beobachtungsvektor bei der i-ten
Stufe des Faktors Α und der j-ten Stufe des Faktors Β sowie e ^
den zuge-
hörigen Ν(0;ί) - verteilten Fehlervektor bezeichnet. Nehmen wir weiter an, daß die Fehlervektoren voneinander unabhängig sind, so ergeben sich unter den
RepaAameXAJA-ietungibecLingungen Σ > r » i=1
.
I j=1
ßJ
r
mi t i. die Kleinste und ß 1 ,...
c s
I
j=1
y,, ij · y.ji r_ ·I= 1 yυ^
- Quadrate
- Schätzungen
, y..
r«; ^ rs i=1
=
ßj = y
-y_
^ü ij
für die Parametervektoren μ, α^,-.,α
zu J =y__
^
I
für i=1,... ,r
,
für j=1,... ,s
Man testet in diesem Modell üblicherweise die
Hypotheken
706
Kapitel X: Das multivariate lineare Modell
Hj:
ai
= ...=ar = 0
über das Verschwinden der Effekte des Faktors Α und HB0:
Ρι
= ...=β5=0
über das Verschwinden der Effekte des Faktors B. Dabei kann man mit r s s
e
= i
_ .1
_
_
_
_
'yij~yi.~y.j+y. ,^yij~yi.~y. j
_ +
T y
. .
ne = (r-U(s-n,
und den Hypothesenmatrizen -y..)(yi. - y . . ) T
sj = S
.
nj = r-i
,
die in Abschnitt 1.2 angegebenen Testverfahren verwenden. ΖζλΛρΙζΙ: An s = 6 verschiedenen Orten wird in ρ = 2 Jahren-der Ertrag von r = 5 verschiedenen Gerstensorten je einmal beobachtet. Faßt man die Sorten als Stufen eines Faktors Α und die Orte als Stufen eines Faktors Β auf, so können die Beobachtungsergebnisse in einem einfachen multivariaten Blockmodell ausgewertet werden. In der Cab.22 sind die Versuchsergebnisse (vgl. Immer/Hayes/Powers (1934): Statistical determination of barley varietal adaption, Journal Amer. Soc. Agron. 26, S.403 - 407) sowie die Größen y yi
, y j und die Schätzer für die Effekte μ, α^ und 3j (i = 1
5, j = 1,...,6)
angegeben. Α Β Wir wollen nun zum 5% Niveau die Hypothesen H Q und H q testen, d.h. wir wollen feststellen, ob die Sorten bzw. Orte einen zum 5% Niveau signifikanten Einfluß auf die Erträge in den beiden Jahren haben. Dazu berechnen wir ς
e
ςΑ
h
_ [3279 [ 802
802) 4017J
'
c-1 _ 1 f4017 e " 12528539' [-802
_ ί2788 [2550
2550) 2863J
A * nh
Η
, '
ςΒ s
h
ίΐ8.011 [ 7.188
-8021 3279J '
_ . ,
n
>
7.188] Β _ , 10.345J ' n h 3
und erhalten ςΑς-1
h e
ίθ.7307 [0.6343
0.4889] 0.5861J
'
ς Β ς -1
V e
_ [Ό.0053 [0.0016
0.0007] 0.0022J
"
Verwenden wir nun jeweils die Nomogramme zum Roy - Test im Anhang, so ergibt A A -1 sich beim Test von H q , da S^S e C 1 = 1.1526
und
die Eigenwerte
ξ 2 = 0.1642
707
Kapitel X: Das multivariate lineare Modell
Cab-22:
E r t r ä g e von r = 5 G e r s t e n s o r t e n an s = 6 O r t e n i n ρ = 2 J a h r e n
besitzt,
wegen V t ^ V
0
·
5 3 5 4
> °-465
= c
R;0.95(2'20'4> =cR;1-Y(P'"e'nS)
•
Α Β 1 daß d i e H y p o t h e s e H q zum 5% N i v e a u v e r w o r f e n w i r d , u n d da Sf,Sg d i e werte ξ 1 = 0.0038 besitzt,
und
ξ 2 = 0.0037
wegen A
R
=
t 4 T T 0 · g
0 0 3 8
daß d i e H y p o t h e s e H q n i c h t
'
°-500
= C
R;0.95(2'20'5)=cR;1-Y(P'ne'nhß)
zum 5% N i v e a u v e r w o r f e n w e r d e n k a n n . D i e
s c h i e d e z w i s c h e n den S o r t e n b z g l . festzustellen
Untersigni-
Ortsunterschiede
sind.
D I E MULTIVARIATE ZWEIFACH HIERARCHISCHE
I n den b i s h e r
·
d e r E r t r ä g e s i n d a l s o zum 5% N i v e a u
f i k a n t , w o h i n g e g e n k e i n e zu d i e s e m N i v e a u s i g n i f i k a n t e n
1.4.4
Eigen-
im A b s c h n i t t
1 . 4 . 2 und A b s c h n i t t
KLASSIFIKATION 1.4.3 behandelten
Modellen
f ü r zwei F a k t o r e n Α und Β wurde j e d e S t u f e des e i n e n F a k t o r s m i t j e d e r
Stu-
Kapitel
708
X: Das multivariate
lineare
Modell
f e des anderen Faktors kombiniert b e t r a c h t e t ; man spVicht dann von fcteuzklaAiA.6 0.28 = c R . 0 - 9 5 ( 2 , 2 7 , 2 ) = c R ; 1 _ Y ( p , n e , n £ ) wohingegen die Hypothese H,Bq zum 5% Niveau nicht verworfen wird:
,
710
Kapitel X: Das multivariate lineare Model!
Cah.23: Untersuchungsergebnisse und Parameterschätzer im Versuch zur Untersuchung der Qualität von Transistoren i n Abhängigkeit von Betrieben und Maschinen (M.) TranBetrieb sistor ' Ί ί Γ Π MTT2 k '11k '12k
1
Betrieb ΊΟΤ— Ϊ Ο Γ
FΠΤ
y
13k
y
21k
M.23 y
22k
23k
Betrieb 3 Ο M 7 3 2 M 7 3 3 y
31k
y
y
32k
33k
ISJ (/»)
l "
(s (ä
1
[ü]
(.
(s
[S]
'lj.
54.75 54.50 52.75 121.75J ^27. 75j [30.00
37.50 34.50
30.00 35.25
37.50 35.25
27.00 44.75
34.75 55.75
22.25 43.50
"1J
f 0.75)[ 0.501I 1.25 1-4.75)1 1.25J[ 3.50
2.50 -0.50
-5.00 0.25
2.50 0.25
-1.00 -3.25
6.75 7.75
-5.75 -4.50
54.00 26.50
35.00 35.00
48.00
15.00
-4.00 -1.50
-11.00 11.50
-10.00
39.00 36.50
μ =y
A
R
=
T ^
=™
= 0
·
0 9 7
28.00
* °-44=cR;0.95(2'27'5)=cR;1-Y(P'ne'nhB»
Die Maschinen (innerhalb der Betriebe) sind somit zum 5% Niveau nicht s i g n i f i k a n t verschieden, wohingegen s i g n i f i k a n t e Unterschiede über die Betriebe hinweg vorhanden sind, d.h. die Betriebe sind bzgl. der Maschinen s i g n i f i kant verschieden.
1.5
DIE
PROFILΑ Ν ALYSΕ
TUMSREN
UND
MODELL
Die Pio^llanalyie.,
ZUR
UNTERSUCHUNG
VERLAUFSKURVEN MIT
FESTEN
IM
VON
WACHS-
Μ U L Τ I V AR I Α Τ Ε Ν
LINEA-
EFFEKTEN
ein Instrumentarium zur Unteuuchung
von Wachitumi-
und
Ve.Alau{AkuAven, zeigt einmal mehr die V i e l f a l t der Anwendungsmöglichkeiten multivariater Linearer Modelle; s i e s o l l daher hier in ihren Grundzügen be-
·
Kapitel X: Das multivariate lineare Modell
711
handelt werden. Bei der P r o f i l a n a l y s e geht man anders a l s in den b i s h e r betrachteten Modellen n i c h t davon aus, daß "p Merkmale" an η Objekten beobachtet werden, sondern davon, daß an jzde.ni Objzkt ZexXpanfeten t^
t
dies aber zu ρ
tun MeAkmal,
vzuckLzdiMn
beobachtet wird, d.h. der Beobachtungsvektor am i - t e n
Objekt i s t yn- = ( y i ( t 1 ) , y i ( t 2 ) , . . . , y i ( t p ) ) T
;
warum man auch von Wachstums- oder Verlaufskurven s p r i c h t , wird d e u t l i c h , wenn man s i c h die Punkte ( t ^ . . . . , ( t , y ^ ( t p ) )
beim i - t e n Objekt zu
einem Polygonzug verbunden denkt, v g l . Ahh.7, wo die mittleren A b s a t z z i f fern f ü r Produkte von 4 Betrieben über 12 Monate d a r g e s t e l l t s i n d ; siehe auch das verbale B e i s p i e l am Ende der E i n l e i t u n g zum Abschnitt 1.
Monate
712
Kapitel X: Das multivariate lineare Modell
Wir wollen h i e r einmal s p e z i e l l ilioLnalyHL
ι Stu^m
eMtte
den F a l l b e t r a c h t e n , daß man irUXteti ΫκαA veAgleMihm
faktou
w i l l . Handelt es s i c h
bei
diesen Stufen etwa um r verschiedene Medikamente, d i e n ^ r ^ i · · · bzw. n r Personen v e r a b r e i c h t werden, so beobachtet man d i e Wirkung der Medikamente auf d i e Probanden zu den Zeitpunkten t^
t
nach Verabreichung des Me-
dikaments. Den Beobachtungsvektor an der j - t e n P e r s o n , der das Medikament i (i = 1 , . . . , r , j = 1
n.j) v e r a b r e i c h t wurde, kann man dann schreiben a l s y
= Bezeichnet nun φ^ =
(
i j
) T
V
·
i((.j(tp)) T für i = 1
t^)
r den E f f e k t des i - t e n
Medikaments (der i - t e n S t u f e des F a k t o r s A ) , so i n t e r e s s i e r e n bei der Prof i l a n a l y s e im wesentlichen d r e i verschiedene FAagutettungen.
Zum einen
d i e s d i e Hypothese, daß d i e WiAJiungiveAZäuie der r Medikamente g l e i c h (Tut
sind
der über d i e n^ Objekte auf der i - t e n Stufe des
aut5 VanjxlLdUxat
Faktors A ( i = 1
ist
r ) g e m i t t e l t e n Verl a u f s k u r v e n ) . Diese Hypothese l ä ß t
s i c h auch s c h r e i b e n a l s H^: es g i b t Konstante k^ v
1
y . . . = « '
r
* k
r
k r d e r a r t , daß g i l t i
·
p
wobei 1p den p-dimensionalen E i n s e n v e k t o r b e z e i c h n e t . A l s zweite F r a g e s t e l lung i n t e r e s s i e r t d i e z e i t l i c h Gtzichhz'it
den zeMtLuihen
Η*: ψ κ = . . . =Ψ Γ _ und zweitens e i n Tut
m i t t l e r e Wirkung: E r s t e n s e i n Tut
aui
Mittet
mit
^
autj GleXchhelt
£
ψ.(^)
f ü r i=1
r
WF^ ( F l ä c h e zwischen
diu WiAkungiflächen
N u l l a c h s e und V e r l a u f s k u r v e ) a l l e r Stufen des F a k t o r s A Hg*: WF1 = . . . = W F r t
t
mit a * = ( 2 " i
,t3~
t
l
d i e j e n i g e über d i e GleMih.he.lt
, t
wobei WF.j=i|^a*/2 t
p" p-2'tp"tp-1^T'
den E^ekte
Dle
d r i t t e Hypothese
ist
der Stufen des F a k t o r s A
Diese Hypothese i s t n a t ü r l i c h gerade d i e in A b s c h n i t t
1.4.1 angegebene Hy-
pothese der einfachen V a r i a n z a n a l y s e und s i e l ä ß t s i c h wie d o r t angegeben 3 t e s t e n ; f ü r das Medikamentenbeispiel besagt d i e in H 0 f o r m u l i e r t e F r a g e s t e l l u n g gerade, daß die m i t t l e r e n Verl a u f s k u r v e n der Medikamenteneffekte g l e i c h s i n d . S i n n v o l l i s t das Testen d i e sι e r l e t z t e n Hypothese zum Niveau γ n a t ü r l i c h nur dann, wenn d i e Hypothese H„ p a r a l l e l e r V e r l ä u f e zu diesem 3 1 Niveau n i c h t verworfen werden kann, denn Η0 i s t eine Verschärfung von Η 0 ο ο*
Kapitel X: Das multivariate lineare Modell
1
0
Die Hypothesen H^ und Η
0
713
*
bzw. H^
sind sogenannte eMXuXeAtz
Hypothum
im
Multivariaten Linearen Modell der Form Η*: Κψί = 0 ψ Γ ) τ und passend dimensionierten Matrizen Κ und L, wie sie
mit ψ = (ψ^
am Ende des Abschnitts 1.1 erwähnt werden, d.h. hier werden Zusammenhänge auch zwischen den Zeilen der Parametermatrix ψ getestet. Wir werden im folgenden Tests für alle drei Hypothesen im Normalverteilungsfall behandeln und außerdem ein nichtparametrisches Verfahren zum Testen von H^, d.h. zum Testen paralleler Verläufe, behandeln.
1.5.1
NORMALVERTEILUNGSVERFAHREN
Linter NoAmalveAXeAXungiannahme können die Hypothesen der Profilanalyse mittels der in Abschnitt 1.2 dargestellten Testverfahren zum Niveau γ gek prüft werden. Dabei werden zum Testen von H Q , k=1,2,3, die Fehlermatrix
e und die Hypothesenmatrix r
benötigt, wobei obei gilt:
Die Freiheitsgrade des Fehlers und der Hypothese sind hier jeweils (k} n„ = η = n. + ... + η - r e e l r
bzw.
(kl nj; - n, = r-1 h h
und die Matrizen L^, L^, L^ sind wie folgt gegeben. Beim Prüfen von H^ ist L
i =(yi
>- i p-i ) T
zu setzen und in den kritischen Werten der Tests ist ρ durch p* = p-1 zu 2 2* ersetzen; beim Testen von Η bzw. Η wird ο ο L2=1p
bzw.
L 2 = a,
gesetzt und ρ ist durch p*= 1 zu ersetzen, d.h. die angegebenen Tests ent2 2* arten zu F - Tests und H Q bzw. H q wird zum Niveau γ verworfen, falls
714
Kapitel X: Das multivariate lineare Modell
S c h l i e ß l i c h i s t , wie b e r e i t s erwähnt,
und i n den k r i t i s c h e n Werten b l e i b t ρ e r h a l t e n . B e A A p l e l : Um den E i n f l u ß e i n e s K o n t a k t a k t i v i e r u n g s p r o d u k t s .auf d i e V e r l ä n gerung d e r B l u t g e r i n n u n g s z e i t zu u n t e r s u c h e n , werden 30 Kaninchen z u f ä l l i g a u s g e w ä h l t und j e n = n^ = 10 Kaninchen werden e i n e r d e r r = 3 Behandlungen K o n t a k t a k t i v i e r u n g s p r o d u k t ( 1 ) , E n d o t o x i n ( 2 ) und Placebo ( = N a t r i u m c h l o r i d ) ( 3 ) z u g e o r d n e t , v g l . Immich/Sonnemann ( 1 9 7 4 ) . Vor V e r s u c h s b e g i n n ( t ^ = 0 ) wurde den T i e r e n B l u t entnommen und d i e G e r i n n u n g s z e i t
bestimmt.
Danach wurde das j e w e i l i g e M i t t e l i n d i e Ohrvene e i n g e s p r i t z t und dann nach t g = 10, t j = 6 0 , t ^ = 120 und t g = 180 M i n u t e n d i e G e r i n n u n g s z e i t des B l u t e s b e s t i m m t . D i e d e r a r t gewonnenen Daten s i n d i n Cab.24 angegeben und i n Abb.8 s i n d d i e m i t t l e r e n V e r l ä u f e
veranschaulicht.
Wir w o l l e n nun z u n ä c h s t d i e Hypothese H^ d e r P a r a l l e l i t ä t d e r m i t t l e r e n V e r l ä u f e d e r B l u t g e r i n n u n g s z e i t e n b e i den 3 Behandlungen t e s t e n . Dazu b e rechnen w i r d i e F e h l e r m a t r i x ,„ s
/ 3
10
i ' - » p - r - w U , '238.9 150.8 164.3 100.3
150.8 154.5 123.0 108.1
j l
164.3 123.0 161.4 96.5
s ( y
ij"7i.
) ( y
ir7i·
5
/ V r ' V i '
100.3' 108.1 96.5 119.0
und d i e H y p o t h e s e n m a t r i x ^ • » p - i ' - V i K j , '555.80 343.30 294.30 J48.10
343.30 212.47 181.47 91.10
" ^ . - y J f f i . - y . / ) » 294.30 181.47 156.07 78.70
ρ
- γ Λ - Ι
) Τ
148.10' 91.10 78.70 39.80
Zum P r ü f e n von H^ zum b% Niveau w o l l e n w i r h i e r d i e χ 2 - A p p r o x i m a t i o n des, W i l k s - T e s t s verwenden, wobei η = 3 . 1 0 - 3 = 27 e g i l t . Bezeichnen ξ ^ . , . , ξ
und
hier n. = 3 - 1 = 2 h
d i e E i g e n w e r t e von
, so e r g i b t
sich
Kapitel X: Das multivariate lineare Model!
715
I a h . 2 4 : B l u t g e r i n n u n g s z e i t bei Kaninchen ( d i e angegebenen Rangzahlen R ^ - ( t ^ ) werden s p ä t e r noch b e n ö t i g t
Behandlung (1)
Beobachtungszeit y · . ( t v ) i n min/2 J
1 2 3 Kontakt- 4 aktivie- 5 rungs6 produkt 7 8 (1) 9 10
10
18 17 21 21 16 19 16 18 19 21
1 1 1 1 1 1 1 1 1 1
22 18 25 22 17 24 23 19 22 22
1 1 1 1 1 1 1 1 1 1
22 17 19 20 23 26 27 29 21 21
182
1 2 3 4 Placebo 5 (NaCl) 6 (3) 7 8 9 10
w
60
2 2 2 2 2 2 2.5 3 2 2
23 19 21 21 24 28 27 23 23 23
2.5 2.5 2.5 1. 5 2 2 4.5 4.5 4. 5 4
18 24 22 21 19 24 20 22 19 20
120
2.5 3.5 3 4 4 3 2 3 3 3.5
23 19 31 22 19 28 25 22 22 25
19 22 22 21 20 24 22 20 19 19
ijcktm ditlzn
und Μ o d M & n mix
daß neben den i n t e r e s s i e r e n d e n Merkmalen auch zumindest e i n i g e der vivUablen
zu^ältig
Mo-
E^efe-ten hingegen geht man davon a u s ,
zuiätUgin
Einiluß-
s i n d ; bei q u a l i t a t i v e n , z u f ä l l i g e n E i n f l u ß v a r i a b l e n , wie
wir s i e h i e r betrachten werden, bedeutet d i e s , daß es s i c h bei den in einem Experiment b e t r a c h t e t e n , e n d l i c h v i e l e n F a k t o r s t u f e n l e d i g l i c h um eine A u s wahl aus e i n e r (unendlichen) Anzahl
von i n t e r e s s i e r e n d e n F a k t o r s t u f e n han-
d e l t und s i c h Aussagen über d i e E f f e k t e des F a k t o r s b z g l . der
interessie-
renden Merkmale auf a l l e Stufen des F a k t o r s beziehen.
BeXipieX·.
Im A b s c h n i t t 1.4.1 haben wir in einem Modell mit f e s t e n
den ' E i n f l u ß '
Effekten
von 6 Bohrlöchern in einem E r z l a g e r auf den Gehalt an Metall
und taubem Gestein u n t e r s u c h t .
I n t e r e s s i e r t man s i c h aber f ü r d i e
Struktur
des gesamten E r z l a g e r s , so muß man d i e konkret betrachteten Bohrlöcher a l s
720
Kapitel X: Das multivariate lineare Modell
eine ( z u f ä l l i g e ) Auswahl aus a l l e n möglichen Bohrlöchern betrachten, d.h. der Faktor "Bohrloch" i s t z u f ä l l i g anzusetzen, um so Aussagen über die Schwankungen innerhalb des Erzlagers bzgl. der Merkmale Metallgehalt und Gehalt an taubem Gestein zu gewinnen.
J
Allgemein betrachtet man Modelle der Gestalt Υ = Χψ+ W.E. + . . . + W E 11 mm
,
wobei Y die ηχρ - BeobachXung-imvOUx für die ρ interessierenden Merkmale an η Versuchsobjekten, X die VeiignmcUfux feste ?cuiamete/unaXM.x, W^ zen und E^
den. Reiten
Ψ die zugehörige
Efäekte,
bekannte ηχη^ - dimensionale Oeb-Lgnmcuüu.-
Em z u f ä l l i g e , voneinander unabhängige η^χρ -
Veklenmatnlzen
mit jeweiligem Erwartungswert 0 und zugehörigen Kovarianzmatrizen von der Gestalt Cov(E k ) = I
e$k
für k=1
m
sind ( e = Kroneckerprodukt); d.h. die Zeilen der Matrizen E k = ( e ^ sind miteinander u n k o r r e l i e r t und die Kovarianzmatrix
ekn)
zu jeder p-dimensiona
len Zeile von E^ i s t $ k f ü r k=1,...,m. Bezogen auf das Modell mit festen Effekten aus Abschnitt 1 bedeutet dies a l s o , daß die Fehlermatrix Ε zerlegt wird in m E =
ι k=1
w E Kk k K
mit bekannten Designs W^
Wm< Zur Unterscheidung heißt die Designmatrix
X der festen Effekte auch VeAlgn l.AxX, und die Designmatrizen W ^, ·..,w m der z u f ä l l i g e n Effekte heißen V e i i g m l . b x t . Die Fehlermatrix Ε b e s i t z t dann hier im Modell mit z u f ä l l i g e n Effekten den Erwartungswert 0 und die Kovarianzmatrix
m Cov(E)= Σ U k « t k
mit
U k = WkWk
Man nennt obiges Modell mit z u f ä l l i g e n Effekten auch Vcuüanzkomponentenmodeti,
und
sind die ρχρ - dimensionalen multivcuUaXen VajUanzkom-
ponenten. Zur Beurteilung des Einflußes der z u f ä l l i g e n Effekte verwendet man dann Schätzungen
^ÜA die. unbekannten
VaftMinzkompanenten ^
gen für die Diagonalelemente der Matrizen
τ
$ m · Die Schätzunsind natürlich gerade
Schätzungen für die Anteile der Variation der ρ Merkmale, die auf die zugehörigen Faktoren zurückzuführen s i n d , und die übrigen Schätzungen für die
721
Kapitel X: Das multivariate lineare Modell
Elemente von
sind entsprechend Schätzungen für die Kovarianz
zwischen den ρ Merkmalen. Wir werden nier, abgesehen von Abschnitt 2.5, einige Modelle, ten
muZtiucvUatcn
VajUanza.na.lyie.
mit
Ε Rekten
zuiätLigen
den.
balancleA-
(nur ein festes
Gesamtmittel wird betrachtet, d.h. X = 1 n ) betrachten, in denen dann die Varianzkomponente ^
für k=1,...,m-1 einem zufälligen qualitativen Einfluß-
faktor oder einem Wechselwirkungsfaktor zwischen zwei Faktoren, der auf n^ ausgewählten Stufen im Experiment betrachtet wird, zugeordnet ist, und ist die Restkovarianzmatrix, die nicht durch die Einflußfaktoren erklärt wird.
Dabei werden wir jeweils zwei verschiedene Schätzer für die multivariaten Varianzkomponenten, die sich im univariaten Fall ( p = 1 ) gerade auf eine Varianz reduzieren, angeben. Den Schätzer ^ fuAte. Minimum
Horn
Invasuant
QuadlttiMi
nennen wir MMINQUE
Unbiaied
(Multiva-
da er eine
ΕitUmaXoA.),
Verallgemeinerung des univariaten MINQUE'* ist, wie er von Rao (1972) eingeführt wurde; dieser quadratische Schätzer ist invariant gegenüber Translationen (linearen Verschiebungen) des Erwartungswertes ΧΨ von Y und hat außerdem unter allen erwartungstreuen (unbiased) Schätzungen die kleinste Norm. Der Nachteil
deA MMINQUE'i
ist, daß er wie auch der univariate MINQUE
unzulässige Schätzungen liefern kann: Der MINQUE führt mitunter (teils mit recht hoher Wahrscheinlichkeit, vgl. z.B. Verdooren (1980)) zu negativen Schätzwerten für natürlich positive Varianzkomponenten, und der MMINQUE liefert zum Teil keine positiv semidefiniten Schätzmatrizen für die natürlich stets positiv semidefiniten multivariaten Varianzkomponenten, die ja selbst gerade Kovarianzmatrizen sind. Daher werden wir auch Schätzer für die multivariaten Varianzkomponenten ί^,.,.,ί
angeben, denen
ein Schätzkonzept zugrundeliegt, daß den Nachteil nicht positiv semidefiniter Schätzwerte vom MMINQUE nicht besitzt. Das univariate Konzept dieser poiixlvm
Schätzungen
wurde von Härtung (1981) entwickelt; im Fall der mul-
tivariaten Verallgemeinerung, die stets positiv semi definite, quadratische Schätzungen für
liefert, werden wir hier vom PSV - Schät zen
spre-
chen. Dieser gegenüber Translationen des Erwartungswerts invariante Schätzer ist zwar nicht unverzerrt (erwartungstreu), jedoch besitzt er unter allen positiv semidefiniten Schätzungen die minimale
VeAzeAAung
(mininim
bicu>)
und ist unter allen minimal verzerrten Schätzungen der Schätzer mit kleinster Norm. Die allgemeinen Prinzipien der Verallgemeinerungen von Rao's MINQUE und Hartung's positivem Schätzer sind in Elpelt ( 1983) dargestellt. Es sei an
722
Kapitel X: Das multivariate lineare Modell
dieser Stelle lediglich noch darauf hingewiesen, daß die Schätzwerte für die Reststreuungen $
(und nur diese) in den hier behandelten M A N O V A - M o -
dellen bei beiden Schätzkonzepten übereinstimmen, d.h. es gilt stets i m = i m Im Anschluß an diese einleitenden Bemerkungen werden wir nun einige spezielle MANOVA - Modelle mit zufälligen Effekten behandeln. Und zwar beschäftigen wir uns zunächst mit kieAOAckcich&n kieuzkta.alilz-ieJvte.n
UodeZten.
KlaM-i^cutiomn
und dann mit
Die Entsprechung der mMxveAAxUen
2 werden Schätzungen für σ γ und — 2 2 Schätzungen für die lnitmme.ntmva>vLaiA.onm
σ^,.,.,σ^, die für
inva-
riant gegenüber der Produktvariabilität sind, angegeben. Der näher an den Prinzipien und der Theorie der Schätzung von Varianzkomponenten interessierte Leser sei etwa verwiesen auf Rao (1972), Härtung (1981), Pukel sheim (1981), El pel t/Hartung ( 1982b), Infante (1982), Elpelt (1983,1984), Voet (1983), Hartung/Voet (1984), betreffend die numerische
Kapitel X: Das multivariate lineare Modell
723
Berechnung der positiven Schätzer in unbalancierten Modellen auf Verfahren wie in El pelt/Hartung
(1983b), Härtung (1978c ,1978d,1980,1981 ,1982a,1982b),
und bzgl. der Präzisionsbestimmung
von Meßinstrumenten speziell auch auf
Grubbs (1948,1973), Klösener (1983), Hartung/Heine
2.1
DIE
BALANCIERTE
Τ I0Ν
MIT
MULTIVARIATE
ZUFÄLLIGEN
Bei der baZancxeAtin
miMxvanAate.n
(1984).
Ε IΝFA C Η ΚLA S S IF IΚA -
EFFEKTEN
E-in^achkicLii^ikatAXin
m-iX
zu^äZtcge.n
E d i k t e n wird der Einfluß eines qualitativen Faktors Α auf ρ interessierende Merkmale untersucht, und zwar werden in einem Experiment auf r zufällig ausgewählten Stufen des Faktors Α jeweils s Beobachtungen gemacht. Bezeichnet μ den natürlich festen Gesamtmittelwert, A^ den zufälligen Effekt der i-ten Stufe des Faktors A (i=1,...,r) und e^j fur i=1,...,r, j = 1,...,s den zufälligen Restfehler bei der Beobachtung der ρ Merkmale am j-ten Objekt auf der i-ten Stufe des Faktors A , so wird der zugehörige p-dimensionale Beobachtungsvektor y ^ y
zerlegt in
= μ + Ai + ei .
für i = 1,...,r, j = 1
Gehen wir davon aus, daß die A^ und die e ^
s
für i=1,...,r, j = 1,...,s von-
einander unabhängige Zufal1svektoren mit Erwartungswert 0 sind, wobei A.,...,A die Kovarianzmatrix I r trix £
=
Vs'
E
= (A
1
, ,,...,y )T, X = 1 , Ψ = μ τ , W, = I e 1 , "rl "rs rs 1 r s
wobei V = (y.. ,y 1 0 ,... J 11 -Ί2 "is 2
und die e. · alle die gleiche Kovarianzmaιj
besitzen, so kommen wir zu einem Modell der Form Y = XY + W 1 E 1 + W 2 E 2
W
μ
1 .A 2 ,... , A r ) T und
= ( e 1 1 , . . . ,e 1 s ,... , e H ,... , e r s ) T
mit E r w a r t u n g s w f t von E^ = 0, k = 1,2 und Cov(E^) = I β
ist,
Cov(E^) = I r s * $ e ·
Zur Schätzung der beiden multivariaten p*p - Varianzkomponenten
und ί
müssen nun zunächst die Matrizen SA = s α
[
i=1
(y - 7 )(y - 7 ) T und S = { ι. .. i. .. e i=1
\
j=1
(y υ
-y
H
y ^ )T lj i.
bestimmt werden, die mit -
y
I
iι·
s
=
Is
Σ
j=1
y
iij i
und
y
-
1
r
= .. 7 ?rs iΣ= 1
s
^
j=1
y
i iij
gerade mit den Matrizen S^ und S g im Modell der balancierten
multivariaten
Einfachklassifikation mit festen Effekten, vgl. Abschnitt 1.4.1, übereinstimmen. Unter Verwendung dieser Matrizen ergeben sich dann die Schätzer
724
für
Kapitel X: Das multivariate lineare Modell
sowie
und zwar ergibt sich der MM1NQUE für
h=J
("FT,SA"FTsW'Se)
der entsprechende ϊ
s
PSV - SchätzeΛ 1
zu
'
zu
c
sowie der bei beiden Schätzkonzepten gleiche Schätzer für ie
=
ie=K?rTy'Se
zu
'
Bz-L&p-Lel.
(a) Im Abschnitt 1.4.1 haben wir den Effekt von r = 6 Bohrlöchern aufgrund der Beobachtungen an jeweils s = 5 Proben auf den Metallgehalt und den Gehalt an taubem Gestein {ρ = 2) untersucht, vgl. Tab.19. Möchte man Aussagen nicht nur über diese 6 Bohrlöcher sondern vielmehr über a l l e möglichen Bohrlöcher im
Erzlager, d.h. über das gesamte Erzlager machen, so muß man
hier ein einfaches hierarchisches Modell mit zufälligen Effekten ansetzen und aufgrund der Daten der Tab.19 die Streuungsmatrix
von Metallgehalt
und Gehalt an taubem Gestein, die auf die Bohrlöcher zurückzuführen i s t , sowie die Reststreuungsmatrix £
schätzen. Es ergibt sich hierzu, vgl.
auch Abschnitt 1.4.1, ς ä
A
.[223.852 -5.934
-5.934) 14.804 '
ς
^e
_ f 187.636 -102.586
-102.586 70.588
so daß wir als IWINQUE für J A 7.39044 0.61752
0.61752) 0.00388
erhalten; der MMINQUE i s t hier nicht positiv semidefinit (die Kovarianz der beiden Merkmale wird hier überschätzt), denn
hat die Eigenwerte
7.44171 und -0.04738, wohingegen der PSD - Schätzer natürlich eine zulässige Schätzung, nämlich & _ 5 1 c _ 5 c _ i 8.60969 *A = ^ ' F T A = T30" S A = t-0.22823
-0.22823 0.56938
l i e f e r t . Schließlich ergibt sich die Schätzung für die Reststreuungsmatrix t_ zu e
2 2 1 , ^e ~ ^e - 6(5-1) e
1 ,
r 7.81817 e ~ [-4.27442
-4.27442 2.94117
[Eine Matrix mit z.T. negativen Eigenwerten i s t nicht p o s i t i v semidefinit.] (b) Zur I l l u s t r a t i o n wollen wir auch das zweite Beispiel der Irisarten aus Abschnitt 1.4.1, wo auch die Matrizen S ^ = S ^ und S g bereits angegeben sind,
Kapitel X: Das multivariate lineare Modell
725
h i e r noch einmal a u f g r e i f e n . Geht man davon a u s , daß d i e r = 3 I r i s a r t e n , von denen j e w e i l s s = 50 Pflanzen b z g l . ρ = 4 Merkmalen u n t e r s u c h t wurden, v g l . Tab.3 in K a p . I V , nur eine Auswahl aus ( u n e n d l i c h v i e l e n )
interessie-
renden Arten d a r s t e l l e n , so kommt man h i e r zu einem Modell mit z u f ä l l i g e n E f f e k t e n , i n dem
die Streuung, die auf d i e Arten z u r ü c k g e f ü h r t werden
kann, durch d i e j e w e i l s p o s i t i v s e m i d e f i n i t e n Matrizen 0.6268 -0.2014 1.6493 0.7120
*A~TWSA~735Ö"Se 0.6318 -0.1994 1.6519 0.7125
50 ς 5ÜÜ?'V
tΑ
-0.1994 0.1135 -0.5722 -0.2292
-0.2014 0.1112 -0.5735 -0.2300 1.6519 -0.5722 4.3693 1.8671
1.6493 -0.5735 4.3673 1.8668
0.7120] -0.2300 1.8668 0.8033
0.7125 -0.2292 1.8671 0.8038
g e s c h ä t z t wird und s i c h der S c h ä t z e r f ü r die Reststreuung 1
te = :
2.2
S
0.2650 0.0927 0.1675 0.0384
W V
DAS
BALANCIERTE
MIT
ZUFÄLLIGEN
Beim Modell
11 dvi
0.0927 0.1154 0.0552 0.0327
ZWEIFACH
0.1675 0.0552 0.1852 0.0427
e r g i b t zu
0.0384 0.0327 0.0427 0.0419
HIERARCHISCHE
J MODELL
EFFEKTEN
balancieMm
zw&^ach
hLe>ia.>Lchiic.hin
Ktaiiiiikation
wird wie im entsprechenden Modell mit f e s t e n E f f e k t e n , v g l . A b s c h n i t t
1.4.4,
der E i n f l u ß zweier Faktoren Α und Β auf ρ i n t e r e s s i e r e n d e Merkmale u n t e r s u c h t , wobei die Stufen des Faktors Β nur j e w e i l s mit e i n e r S t u f e des Fakt o r s Α kombiniert b e t r a c h t e t werden. Wählt man z u f ä l l i g j e w e i l s r Stufen des F a k t o r s A ai's und e b e n f a l l s z u f ä l l i g j e w e i l s s Stufen des Faktors Β innerhalb der Stufen von A , auf denen dann im Experiment je t Beobachtungen von ρ Merkmalen gemacht werden, so kommt man zum Modell der zweifach h i e r a r c h i s c h e n K l a s s i f i k a t i o n mit z u f ä l l i g e n y
ijk
= μ + A
i
+ B
ij
+e
ijk
Effekten
f ü r i = 1 , . . . , r , j = 1 , . . . , s , k = 1 , . . . ,t
;
h i e r bezeichnet y ^ ^ den p-dimensionalen Beobachtungsvektor am k - t e n Objekt bei der j - t e n S t u f e des Faktors Β innerhalb der i - t e n S t u f e des Faktors A , μ das f e s t e Gesamtmittel, A^ f ü r i = 1
r den z u f ä l l i g e n E f f e k t der i - t e n
Stufe des F a k t o r s A , B^. f ü r i = 1 , . . . , r , j = 1 , . . . , s den z u f ä l l i g e n E f f e k t der j - t e n Stufe des F a k t o r s Β innerhalb der i - t e n S t u f e des F a k t o r s Α und e^.^ den R e s t f e h l e r bei der Beobachtung von y . ^ ·
Weiter nehmen w i r an, daß die
A.j, d i e B . j und d i e e^·^ f ü r i = 1 , . . . , r , j = 1 , . . . , s , k = 1 , . . . , t
voneinander
726
Kapitel X: Das multivariate lineare Modell
unabhängig mit Erwartungswertvektor 0 sind, daß gilt Cov(A^) C o v ( B . j j ) = $ ß und Covfe^ - k ) =
für i = 1,...,r, j=1
s und k=1
t.
Mit den Bezeichnungen r
1
*•··
=
^
s
t
^
_
kl/ijk '
y
,
s
i·· = i t
t k
_
|/ijk '
y
ι
^
id- = t , Σ / i j k
ergeben sich dann die Matrizen SA=st
[ (y i=1 1
A
S
B
= t
j,
-y
)(y> 1
)T ,
-y
I / ' i ^ i J ^ i . /
Α
'
Β
die den Matrizen S^, S^ und S g im Modell mit festen Effekten entsprechen und aus denen sich die Schätzer für die Varianzkomponenten
und $ e >
welche auf die durch die Faktoren Α und Β verursachten Streuungen bzw. die Reststreuung zurückzuführen sind, ergeben. Die MMINQUE'a für $ A bzw. $ ß sind
h=Jt
bzw
(fT^A-FTFTT^b)
·
^B = l ( ? r F T F , S B " ? s l t n ' S e )
die entsprechenden PSV - Schätz zu ergeben sich zu
^
T
^
k
?
'
bzw
^
·
ν ^ - κ π τ τ
5
! »
und für die Reststreuung £ e erhalten wir
^e
=
rs(t-1)' S e
'
BeAAplei.·. Im Abschnitt 1.4.4 haben wir den Einfluß von s = 3 Maschinen in r = 3 Betrieben auf p = 2 Qualitätsmerkmale von Transistoren in einem Modell mit festen Effekten untersucht, vgl. auch Tab.23. Interessiert man sich für den generellen Einfluß von Betrieben und Maschinen, so muß ein Modell der zweifach hierarchischen Klassifikation mit zufälligen Effekten verwandt werden. Bezeichnet μ das feste Gesamtmittel
der
Qualitätsmerkmale,
A.j für i=1,2,3 den Effekt des i-ten zufällig ausgewählten Betriebs,
B^
für j=1,2,3 den Effekt der j-ten zufällig ausgewählten Maschine im i-ten Betrieb (i = 1,2,3) und e ^ ^
den Restfehler bei der Beobachtung y^
der
'
727
Kapitel X: Das multivariate lineare Modell
Qualitätsmerkmale am k-ten Transistor, der von der j-ten Maschine im i-ten Betrieb gefertigt wurde (i,j=1,2,3, k=1,2,3,4), so ergibt sich das Modell y
ijk
= M + A
i+Bij
+ e
ijk
für i,j=1,2,3, k=1,2,3,4
.
Nehmen wir an, daß die zufälligen Effekte A i des Faktors Α (Betriebe), des Faktors Β (Maschinen), e ^ ^
B^
des Restfehlers für i,j=1,2,3 und k=1,2,3,4
voneinander unabhängig sind, den Erwartungswert 0 sowie die Kovarianzmatrizen Cov(A.)=tA
,
Cov(Bij)=tB
,
Cov(eijk)=ie
besitzen, so ergeben sich aus den Daten der Tab.23 in Abschnitt 1.4.4 die Matrizen Γ 4344 A ~ [-3246
ς
-3246] 2814J *
ί478.0 Β "[289.0
ς
289.0] 510.5j
ς
'
_ f4610.0 [2223.0
2223.0] 5728.5j
'
aus denen sich mit r,s = 3, t = 4 die MMINQUE 's und PSD - Schätzer für $ A > und Tί berechnen lassen: e f J /I Α 12 \2
Ψ
ς
1 ς \ - 1 A " 6 By ^
f 12 1 ^A ~T44+T6+T*2 Ϊ Φ
6 A " 161
ς
A
_ L ς - ί 174.361 A " 72 Β " [-139.264 ί 161.888 [-120.969
1/1 ς 1 ς \ _]_ c 1 ς Β " 4 V6 ,;>B " S T ' V " B ~ W " e
Ϊ +
c
ς
B
ί
4 l c - 1 c . ί 18.745 T6+T°6 Β 51 Β [11.333
ί
l c -f170.741 27 e [ 82.333
In diesem Beispiel
-120.969] 104.870J Γ-22.769 [ -8.542
-8.542] -31.771J
11.333] 20.020j
82.333] 212.167J
sind weder der MMINQUE für
semidefinit; bei der Schätzung
-139.264] 110.160J
noch der für
positiv
liegt das daran, daß die Kovarianz zwi-
schen den Qualitätsmerkmalen bzgl. der Betriebe überschätzt wird, und bei der Schätzung
werden die Varianzen der Qualitätsmerkmale beide negativ
geschätzt. Die übrigen Schätzer sind natürlich positiv
2.3
DAS
BALANCIERTE
MIT
ZUFÄLL IGEN
DREIFACH
semidefinit.
HIERARCHISCHE
MODELL
EFFEKTEN
Sind nicht nur die Stufen zweier Faktoren Α und Β hierarchisch angeordnet, wie dies in Abschnitt 1.4.4 und Abschnitt 2.2 der Fall
ist, sondern zusätz-
lich noch die Stufen eines dritten Einflußfaktors ε hierarchisch
innerhalb
der Stufen des Faktors Β angeordnet, so spricht man von einem cUe^iach kie.1-
728
Kapitel X: Das multivariate lineare Modell
aAiiku>c.hm ΜodelZ. Geht man davon aus, daß r Stufen mit Effekten Α^,.,.,Α^ des Faktors Α z u f ä l l i g für ein Experiment ausgewählt werden, daß innerhalb jeder Stufe i = 1 , . . . , r s Stufen des Faktors Β mit Effekten B ^
Βη.
zu-
f ä l l i g ausgewählt werden, daß innerhalb der j-ten Stufe des Faktors Β bei der i-ten Stufe des Faktors A (i=1 C mit Effekten C ^ ^
C^
r , j = 1 , . . . , s ) t Stufen des Faktors
z u f ä l l i g ausgewählt werden und daß auf jeder
Stufe ijk des Faktors C ρ interessierende Merkmale an u Objekten beobachtet werden, so ergibt sich ein Modell mit zufäl1 igen Effekten w " * V B
c
1 j +
l J k +
e
i=1,
'
1 J k l
k=i;^it!ä=i',.'?.\u
.
wobei hier y . ^ ^ den Beobachtungsvektor am «.-ten Objekt auf der k-ten Stufe des Faktors ε innerhalb der j-ten Stufe des Faktors B, die wiederum innerhalb der i-ten Stufe des Faktors Α l i e g t , e.j
den nicht durch die drei
Faktoren erklärbaren Restfehler bei der Beobachtung y ^ j ^ und μ ein festes Gesamtmittel bezeichnet. Nimmt man-an, daß für i = 1 , . . . , r , j = 1 , . . . , s , k=1
t, i = 1
u die Effekte
A.j, B^j, C . ^ und e ^ . ^ unabhängig mit Erwartungswert 0 und Kovarianzmatrizen Cov(Ai)=iA,
Cov(B.jj) =
, Cov(Cijk) =|c , C o v f e ^ ) = | e
sind, so ergeben sich die Schätzer für
ig,
und
unter Verwendung
der Matrizen S A = stu a
J
(y.
r B=
tu
C=
u
e=^
)T
-y
1
h
JI j
^ tu
,
s J
(7
ji
·
i3k.-7ij..)(yijk.-yij..)T (Vijkryijk.^yijkii-yijk.)
l
r
i
ij..
)(y.
.Σ, / = 1
wobei g i l t _
y
-y
1
i =1
t
s
t
u
u J^
_
_ y
ijk«. '
y
Ϊα=ΤΕΓ ( t V V t T F T T
u J,
und S
b)
t
u
^ u
ijk.
wie folgt. Die MMISIQUE'i für
s
1
'
y
i jki,
'
sind gerade *B
=
tu ( t T s W j ' ^ B " r s ( t - 1
'
729
Kapitel X: Das multivariate lineare Modell
u (rs(t-1)'SC~ rst(u-1)'Se
*C
und d i e entsprechenden PSD - Schätze.*, stu
s _ +A =
ι '7=rsi\
rs(t-1)
ergeben s i c h zu c
itu u
a _ h~
'
ι c ' F r s ^ r y ^B
-S, C
der Schätzwert f ü r die Reststreuung {
e r g i b t s i c h bei beiden Schätzkonzep-
ten zu ^e
=
^e " r s t ( u - 1
ΒβΛΔΡ'teZ: Wir wollen h i e r einmal e i n u n i v a r i a t e s Experiment, d.h. es wird nur e i n Nerkmal beobachtet ( p = 1 ) , in einem Modell der b a l a n c i e r t e n
drei-
fach h i e r a r c h i s c h e n K l a s s i f i k a t i o n mit z u f ä l l i g e n Effekten auswerten. Um d i e Verschmutzung des Rheins mit anorganischen W a s s e r i n h a l t s s t o f f e n zu unt e r s u c h e n , werden r = 2 L a b o r a t o r i e n ( F a k t o r A , E f f e k t e A^.Ag) und i n n e r halb der L a b o r a t o r i e n je s = 3 A n a l y s e g e r ä t e ( F a k t o r B , E f f e k t e B ^ , Β ^ , Β ^ f ü r i = 1 , 2 ) z u f ä l l i g ausgewählt. Nun werden in jedem Labor an jedem Gerät von j e w e i l s t = 2 Laboranten ( F a k t o r C, E f f e k t e C-j-jj . C ^
f ü r i = 1,2, j = 1 , 2 , 3 )
je u = 5 Wasserproben ( d i e am selben Ort zur selben Z e i t entnommen wurden) a n a l y s i e r t ; d i e A n a l y s e e r g e b n i s s e d i e s e s sogenannten RingveAiuchei
s i n d in
tab.27 zusammengestellt ( v g l . auch El pelt/Hartung ( 1982b)). Bezeichnet μ die m i t t l e r e Verunreinigung mit anorganischen S t o f f e n , y . ^ ^ das A n a l y s e e r g e b n i s ( i n mg/s.) f ü r d i e i - t e Probe, die vom k - t e n Laboranten am j - t e n A n a l y s e g e r ä t im i - t e n Labor a n a l y s i e r t wurde, so l ä ß t s i c h d i e s e r Versuch in einem Modell y
ijk£^
+ A
i
+ B
ij
+ C
i ji jkk +
e
i = 1 , 2 ; j = 1,2,3;k = 1,2;i> = 1 , . . . , 5 ,
ijkj>
der b a l a n c i e r t e n d r e i f a c h h i e r a r c h i s c h e n K l a s s i f i k a t i o n mit z u f ä l l i g e n fekten auswerten, wenn man annimmt, daß die E f f e k t e der d r e i
Ef-
Einflußfakto-
ren a l l e unabhängig mit Erwartungswert 0 und Kovarianzmatrizen Cov(Ai)=iA,
Cov(Bij) = t ß . Cov(Cijk) = i c , C o v ^
für i = l , 2 , j = 1 , 2 , 3 , k=1,2, £ = ! , . . . , 5
M
)
=
sind.
Dazu berechnet man zunächst aus den Daten der Tab.27 d i e wegen p = 1 s k a l a ren Größen V
3
0
2
i
(y
i..."y....}
?
2801
·64
'
•s
l
-
Probe
Labor 1
Gerät 12
Gerät 13
Gerät 21
Labor 2 Gerät 22
cm co «ί* cn
1051.9
ι>Γ ι>Γ Ι>Γ
Ό
1060.667
1055.6
1062.8
1040 1062 1083 1052 1077 1105.6
1099.8
1094.0
1110 1081 1114 1106 1059
1067.5
1065.0
1061 1086 1083 1055 1040
1074.5
1084.0
1105 1076 1113 1068 1058 ω y) co f cn r- (Ν cN σι ο OrtHOH
1048.4
1067 1025 1020 1080 1050 1062.2
1018 1046 1062 1072 1113
1074.333
1060.0
1057.8
1054 1086 1020 1068 1061
1066.2 1063.2
1060.2
^ kß ΓΊ I CN co σ* ^m Ο ο ο ο ο
1051.2
1020 1031 1050 1060 1095
ΤΗ Ο Ο ο ο kO Ο ώ Ο Ο ο ο
1052.6
1054 1031 1049 1025 1104
Gerät 23 Laborant Laborant Laborant Laborant Laborant Laborant Laborant Laborant Laborant Laborant Laborant Laborant 111 112 121 122 131 132 211 212 221 222 231 232
Gerät 11
730 Kapitel X: Das multivariate lineare Modell
Ό
Kapitel X: Das multivariate lineare Modell
2 3 X l (y i · -y, ) 2 = 12718.36 1 J 1 i = 1 j=1 " ···
S B = 10 b
°
°
L
2
°
1JK
i=1 j=1 k=1
Ve
731
·
J
= 1900.6
·· ) 2 =31320.4
l Σ l l (i'iik^ijk 1JK J i=1 j=1 k=1 Jl=1
.
Nun ergeben sich die MINQUE's für die den Faktoren Labor (Α), Analysegerät (B), Laborant (C) zugeordneten Streuungsanteile zu ? A = 5 A = 3V ( f
S
A "
S
ß) = 3 T V
T ^ f SB = " 1 2 " 5 9 8
*Β = σ Β = τ τ ( r V r ^ w ' V e V v ίC = °C = { ( r S C · i ' S e ) = I Ö " S C • M Ö " S e
286
=
·282
"67 ·148
' ' '
Der MINQUE liefert hier also nur für die Streuung der Analyseergebnisse bzgl. des Faktors Analysegeräte (B) einen positiven, zulässigen Schätzwert. Hingegen sind die Schätzer nach Härtung (1981) natürlich alle positiv: = σ
^B
=σ
Α
=
900+100+25+1 'T'^A = T 7 T " S A
Β "TÖÜ+25+T'4' S B
ic = °C = 2 Ä T T
S
=
= 81 -919
2§2' S B " 2 5 2 - 3 4 8
C = ll6- S C = 6 0 · 9 1 7
Der Schätzwert für die Reststreuung f
' '
*
ergibt sich für MINQUE und positiven
Schätzer schließlich noch zu L T
e
2.4
DIE
=
r
e
e
e
=7Or' s Q 48 e
BALANCIERTE
ZUFÄLLIGEN
=
652.508
.
ZWEIFACHE
I
Κ R ΕU Ζ Κ LA S S IΚ Α Τ I0 Ν
MIT
EFFEKTEN
Liegen die zufällig ausgewählten Stufen zweier Faktoren Α und Β nicht in hierarchischer Anordnung vor, wie dies im Abschnitt 2.2 der Fall war, sondern wird jede der r zufällig ausgewählten Stufen des Faktors Α mit jeder der s zufälligen Stufen des Faktors Β kombiniert bei jeweils t Objekten betrachtet, an denen dann ρ interessierende Merkmale beobachtet werden, so kommt man zu den Modellen
deA zivexf,achen
Κleuzklcuiiiikation
mit
zu^äLLigen
B U e h t e n . Unterschieden wird noch der Fall, daß zwischen den Stufen der beiden Faktoren keine (zufällige) Wechselwirkung berücksichtigt wird, von
732
Kapitel
X: Das multivariate
lineare
Modell
dem Fall mit Wechselwirkungen zwischen den Faktoren. Das Analogon mit festen Effekten im letztgenannten Fall wird im Abschnitt 1.4.2 behandelt. Kommen wir zunächst zum Modelt
ahm
UtchAelwlnkungzn;
festen Gesamtmittel - E f f e k t , A i für i=1
hier bezeichnet μ den
r den zufälligen Effekt der
i-ten Stufe des Faktors A, Bj für j=1
s den zufälligen Effekt der j-ten
Stufe des Faktors B , y . ^ den Beobachtungsvektor am k-ten Objekt auf der i-ten Stufe des Faktors Α und der j-ten Stufe des Faktors Β (i=1 j = 1 , . . . , s , k=1
t) sowie e..
r,
den zufälligen Restfehler bei der Beob-
achtung Y-jj^· Dann läßt sich das Modell schreiben als y i j k ^ + W ^ j k
'1=1
r
wobei wir weiterhin annehmen, daß für i=1
-j=1
s·k=1
r , j=1
1
•
k=1,...,t die
zufälligen Effekte Α ·, Β-, e... unabhängig mit Erwartungswert 0 und Kova1 J 1J κ rianzmatrizen Cov(Ai)=iA,
Cov(Bj) =
,
Cov(eijk)=|e
sind. Mit den Bezeichnungen
1
r
I*™
t
Ι*™
lassen sich in diesem Modell die Kovarianzmatrizen
$g und
und
unter Ver-
wendung der Matrizen VA
s t
l
i=1
SB = r t b
(y.1 -y
f
j=1
r
s
(y
. -y
-J
) ( y .1 -y
)T
)(y . - y J· ·"
,
)T ,
t
V J ,
(yijk-yi..-y.j.+y...)(yijk-yi..-y.j.+y...)
schätzen. Und zwar ergeben sich die
MMINQUE'i
für die Streuungsanteile
und i g , die auf die Faktoren Α und Β zurückzuführen sind, zu * A = ? t ( r V S A ~ rst-r-s+f S e ) ' ^B = r t (sTT'^B " rst-r-s+l' S e) ' die entsprechenden
PSV
- Schätz2Λ
zu
733
Kapitel X: Das multivariate lineare Modell
ί
_
st
1 3
zu schätzen. Hier bezeichnet für i = 1
'
J=1
N
-
2
n, j=1,...,N y ^
die Messung für
das i-te Objekt mit dem j-ten Meßinstrument, ß^ die (unbekannte) feste Verzerrung, den ImtnumentenbicUi des j-ten Meßinstruments, x^ den zufälligen (zu messenden) Wert des i-ten Objekts und e^. den zufälligen Fehler des j-ten Instruments bei der i-ten Messung. Weiterhin nehmen wir an, daß die x. unabhängig sind mit unbekanntem Erwartungswert μ und der ebenfalls 1 2 unbekannten Varianz V a r ( x . ) = a v für i = 1,...,n, daß die e·· voneinander und 1 Λ IJ von den x. unabhängig sind mit dem Erwartungswert 0 und der unbekannten 2 2 2 Varianz Var(e,· ·) = σ . für i = 1,... ,n, j=1,... ,N. Die Größen σAγ und σ · >J J J (j=1,...,N), die es hier zu schätzen gilt, nennt man dann auch Pnoduktvaniabll-ität
und Pnäz-Li-Lon
d&i j-ten
Me/UnitMtmenti;
dabei wollen wir verlan-
gen, daß die Schätzungen unabhängig (invariant) vom Instrumentenbias und die Präzisionsschätzungen im Fall N > 2 zudem auch invariant gegenüber der 2 2 Produktvariabilität σ χ (σ χ - invariant) sind. Im folgenden werden wir die klassischen Gmbbi - Schätzen, vgl. Grubbs (1948), 2 die mit dem (für N > 2 σ ν - invarianten) MINQUE übereinstimmen und mitunter 2 negative Werte annehmen, sowie die (für N > 2 σ γ - invarianten) poi-ctiven 2 Schätzen nach Härtung (1981) für die Produktvariabilität σ γ und die Präzisionen σ^2 σ^2 angeben; dabei verwenden wir die Bezeichnung
s
k £ = T P i i=1
I1
y
ik
=
für k=1,... ,N
Für N ^ 2 ergibt sich zunächst der Gnabbi 2 σ„ zu
N
^
.
- Schätzen
tät
-2 2 °X = N U F T T
N
"1
N
und der entsprechende positive σ
χλ
=
Ν Ν N γ Υ c 3— L l S.K Ν +1 k=1 Ü=1
S
' kS.
Schätzen
mit
ist
{>ün die
PnoduktutVLiab-lli-
Kapitel X: Das multivariate lineare Modell
738
Beim Schätzen der Präzisionen müssen wir den F a l l Ν = 2 vom F a l l N> 2 unterscheiden. Wir erhalten dann im f a l l zuxJjfi ~2 ~2 Oy und die poi-CUven Sc.hätzeA
SchätzeA
die Gtiubbi -
Me.ßltu,tfoimrtfe "2 ~2 σ^, σ2 ΙΰΛ dlt
ΡΛάζ-ίί-ωη&η
2 σ^,
σ2 in folgender Form: 5
r
S
jj"
S
f Ü r j =1 2
12
'
'
=1(45^ + S 2 2 - 4S 12 )
und
a\ = |(S,,1 + 4S 22 - 4S 12 )
2 Im F a l l W>2 hingegen ergeben sich für die Präzisionen σ^ instrumente die Gmbbi
sowie die poi-ütlvm S
Z J
=
-
.
2 σ^ der Ν Meß-
Schätzm
Schätz&i
JJtnL( (N-1) +1
v
2
s JJ
"
1
l
s JK
k=1
I (N-1)
l
s
)
für j=1
N.
KJt/
k=1 «.=1
BeXip-cel: Um die Präzision von Ν = 3 Meßinstrumenten zur Bestimmung der Startgeschwindigkeit von Geschossen zu schätzen, werden η=10 Geschosse aus einer Produktion z u f ä l l i g ausgewählt und mit jedem Instrument wird die Startgeschwindigkeit jedes Geschosses gemessen, vgl. tab.29 ( i n der auch die mittlere Startgeschwindigkeit beim j-ten Meßinstrument y . für j=1,2,3 angegeben ist),wobei y.^ die mit dem j-ten Instrument gemessene Startgeschwindigkeit des i - t e n Geschosses bezeichnet. Cab.29: Startgeschwindigkeiten von η = 10 Geschossen gemessen mit Ν = 3 Meßinstrumenten Meßinstrument 1 1 1 2 3 4 5 6 7 8 9 10
Meßinstrument 2 y
242. 255. 260. 245. 240. 252 262. 257. 235 242
5 0 0 0 0 5 5 5 0 5
249. 25
y
i2
247 257 252 262 245 247 272 262 255 240
Meßinstrument 3
5 5 5 5 0 5 5 5 0 0
2 54 25
i3
237 247 250 252 235 245 257 250 237 235
5 5 υ 5 0 0 5 0 5 0
244 75
739
Kapitel X: Das multivariate lineare Modell
Wir wollen nun im Modell + x
y-jj
i
+ e
ij
f ü r i = 1 , . . . . 1 0 , j = 1,2,3
,
wobei β^ den festen Instrumentenbias des j - t e n Meßinstruments, x^ die (wahre) Geschwindigkeit des i - t e n Geschosses und e. · den Fehler bei der Messung ιJο y . · bezeichnet, die V a r i a b i l i t ä t der Geschosse σ γ sowie die Präzisionen der ιJ 2 2 2 Instrumente σ^, σ 2 und σ 3 mittels Grubbs - Schätzern und p o s i t i v e n Schätzern bestimmen. Dazu berechnen wir zunächst S
1
1 0
11=?
>12 =
S
sowie
( y
2 1
=
-
iry1}
2
88
·958
s
·
1 lu ? J (yi1-yi)(yi2"y2)
22
=95
·903
=52
·153
'
'
S
S 3 3 = 64.514 ,
= S
13
31
=62
·292
S j 3 = S ^ 2 =67.847
und erhalten a l s Schätzungen für die P r o d u k t v a r i a b i l i t ä t °X=I(S12
+ S
=Ä(S11
13 + S 2 3 ) = § - 182.292 = 60.764
+ S
22
+ S
+ 2S
33
12
+ 2S
13
+ 2S
bzw.
23} = Μ ' 6 1 3 · 9 5 9 =6 5 ' 7 8 1
'
für die Präzision des ersten Meßinstruments °1
=S
° M
11 -|(S12
+ S
13)+!
(S11 -|(S12
+ S
S
23
= S
11+S23-S12"S13
13> + I < S 2 2
+ S
33
+ 2S
= 42
·360
23>) =4 3 ' 1 4 7
bzw
'
'
für die P r ä z i s i o n des zweiten Meßinstruments σ2 = S 2 2 - | ( S 2 1 + S 2 3 )
+
| S,3 = S22
+
S 1 3 - S , 2 - S 2 3 = 38.195
°2=f i S 2 2 - f ( S 2 l + S 2 3 ) + l < S n t S 3 3 + 2 S 1 3 ) j =
40
bzw.
·371
und für die P r ä z i s i o n des d r i t t e n Instruments s c h l i e ß l i c h °3 J
= S
33 " f ( S 3 1
+ S
32>
3 " I V 33 ~ "T 31
+
! 32
S
12 +
= S
33
4vi11
+ S
12 " S 13 " S 23
=
"13·472
bzW
"
"22
Wir sehen h i e r , daß der Grubbs - Schätzer für die P r ä z i s i o n des d r i t t e n Meßinstruments einen unzulässigen, negativen Wert l i e f e r t .
Anhang 1 TABELLENANHANG Tab.l:
Verteilungsfunktion Φ(χ) der Standardnormal Verteilung N(0;1) .. 742
Tab.2:
Quantile u^ der Standardnormal Verteilung N(0; 1)
743
Tab.3:
Quantile t
744
der t-Verteilung
Tab. 4: Quantile χ*.^ der x 2 -Verteilung
745
Tab. 5: Quantile F„
747
„
der F-Verteilung
."2 ;γ Chartibis
Chart
XII:
Nomogramme von D.L. Heck
zum Roy-Test
(Erläuterungen hierzu: Seite 766)
ι
754
Reprinted from Heck, D.L. (1960): Charts o f some upper p e r c e n t a g e p o i n t s of the d i s t r i b u t i o n o f the l a r g e s t c h a r a c t e r i s t i c r o o t . Annals of Mathem a t i c a l S t a t i s t i c s , 31, 625-642, w i t h the kind permission o f : The I n s t i t u t e o f Mathematical S t a t i s t i c s .
742
Anhang
φ(χΙ
Tab. 1:
V e r t e i l u n g s f u n k t i o n Φ(χ) d e r Standardnormalverteilung N(0,1)
χ
0,00
0,01
0,02
0,03
0,04
0,05
0,06
0,07
0,08
0,09
0,0 0,1 0,2 0,3 0,4
0,5000 0,5398 0,5793 0,6179 0,6554
0,5040 0,5438 0,5832 0,6217 0,6591
0,5080 0,5478 0,5871 0,6255 0,6628
0,5120 0,5517 0,5910 0,6293 0,6664
0,5160 0,5557 0,5948 0,6331 0,6700
0,5199 0,5596 0,5987 0,6368 0,6736
0,5239 0,5636 0,6026 0,6406 0,6772
0,5279 0,5675 0,6064 0,6443 0,6808
0,5319 0,5714 0,6103 0,6480 0,6844
0,5359 0,5753 0,6141 0,6517 0,6879
0,5 0,6 0,7 0,8 0,9
0,6915 0,7257 0,7580 0,7881 0,8159
0,6950 0,7291 0,7611 0,7910 0,8186
0,6985 0,7324 0,7642 0,7939 0,8212
0,7019 0,7357 0,7673 0,7967 0,8238
0,7054 0,7389 0,7704 0,7995 0,8264
0,7088 0,7422 0,7734 0,8023 0,8289
0,7123 0,7454 0,7764 0,8051 0,8315
0,7157 0,7486 0,7794 0,8078 0,8340
0,7190 0,7517 0,7823 0,8365
0,7224 0,7549 0,7852 0,8133 0,8389
1,0 1,1 1,2 1.3 1.4
0,8413 0,8643 0,8849 0,9032 0,9192
0,8438 0,8665 0,8869 0,9049 0,9207
0,8461 0,8686 0,8888 0,9066 0,9222
0,8485 0,8708 0,8907 0,9082 0,9236
0,8508 0,8729 0,8925 0,9099 0,9251
0,8531 0,8749 0,8944 0,9115 0,9265
0,8554 0,8770 0,8962 0,9131 0,9279
0,8577 0,8790 0,8980 0,9147 0,9292
0,8599 0,8810 0,8997 0,9162 0,9306
0,8621 0,8830 0,9015 0,9177 0,9319
1.5 1.6 1.7 1.8 1,9
0,9332 0,9452 0,9554 0,9641 0,9713
0,9345 0,9463 0,9564 0,9649 0,9719
0,9357 0,9474 0,9573 0,9656 0,9726
0,9370 0,9484 0,9582 0,9664 0,9732
0,9382 0,9495 0,9591 0,9671 0,9738
0,9394 0,9505 0,9599 0,9678 0,9744
0,9406 0,9515 0,9608 0,9686 0,9750
0,9418 0,9525 0,9616 0,9693 0,9756
0,9429 0,9535 0,9625 0,9699 0,9761
0,9441 0,9545 0,9633 0,9706 0,9767
2,0 2,1 2,2 2.3 2.4
0,9772 0,9821 0,9861 0,9893 0,9918
0,9778 0.9826 0,9864 0,9896 0,9920
0,9783 0,9830 0,9868 0,9898 0,9922
0,9788 0,9834 0,9871 0,9901 0,9925
0,9793 0,9838 0,9875 0,9904 0,9927
0,9798 0,9842 0,9878 0,9906 0,9929
0,9803 0,9846 0,9881 0,9909 0,9931
0,9808 0,9850 0,9884 0,9911 0,9932
0,9812 0,9854 0,9887 0,9913 0,9934
0,9817 0,9857 0,9890 0,9916 0,9936
2.5
2,9
0,9938 0,9953 0,9965 0,9974 0,9981
0,9940 0,9955 0,9966 0,9975 0,9982
0,9941 0,9956 0,9967 0,9976 0,9982
0,9943 0,9957 0,9968 0,9977 0.9983
0,9945 0,9959 0,9969 0,9977 0,9984
0,9946 0,9960 0,9970 0,9978 0,9984
0,9948 0,9961 0,9971 0,9979 0,9985
0,9949 0,9962 0,99.72 0,9979 0,9985
0,9951 0,9963 0,9973 0,9980 0,9986
0,9952 0,9964 0,9974 0,9981 0,9986
3,0
0,9987
0,9987
0,9987
0.9988
0,9988
0,9989
0,9989
0,9989
0,9990
0,9990
2.6 2.7
2.8
0,8106
zu Tab. 1: Ablesebeispiel: Φ( 1,56) = 0,9406 Erweiterung d e r T a f e l : ( —x) = 1 — (x) Approximation nach Hastings f ü r χ > 0 : 1
Φ(χ) — 1
— - e
λ
' > , , , - · ( a , t + a , t - + ι ι 3 Γ ' + a 4 t 44 + a , t 5 )
ν'2π b = 0.2316419,
" a , = 0,31938153,
a 4 = - 1,821255978.
· mit
'
t = 1
a2 = -0,356563782.
a 5 = 1.330274429.
a 3 = 1,781477937,
Anhang
Tab. 2:
743
Q u a n t i l e u.. der S t a n d a r d n o r m a l v e r t e i l u n g N ( 0 , 1)
0,9999 0,9998 0,9997 0,9996 0,9995
3,7190 3,540! 3,4316 3,3528 3,2905
0,9975 0,9970 0,9965 0,9960 0,9955
2,8070 2,7478 2,6968 2,6521 2,6121
0,965 0,960 0,955 0,950 0,945
1,8119 1,7507 1,6954 1,6449 1,5982
0,83 0,82 0,81 0,80 0,79
0,9542 0,9154 0,8779 0,8416 0,8064
0,9994 0,9993 0,9992 0,9991 0,9990
3,2389 3,1947 3,1559 3,1214 3,0902
0,9950 0,9945 0,9940 0,9935 0,9930
2,5758 2,5427 2,5121 2,4838 2,4573
0,940 0,935 0,930 0,925 0,920
1,5548 1,5141 1,4758 1,4395 1,4051
0,78 0,76 0,74 0,72 0,70
0,7722 0.7063 0,6433 0,5828 0,5244
0,9989 0,9988 0,9987 0,9986 0,9985
3,0618 3,0357 3,0115 2,9889 2,9677
0,9925 0,9920 0,9915 0,9910 0,9905
2.4324 2,4089 2,3867 2,3656 2,3455
0.915 0.910 0,905 0,900 0,890
1,3722 1,3408 1,3106 1,2816 1,2265
0,68 0,66 0,64 0,62 0,60
0,4677 0,4125 0,3585 0,3055 0,2533
0,9984 0,9983 0,9982 0,9981 0,9980
2,9478 2,9290 2,9112 2,8943 2,8782
0,9900 0,9850 0,9800 0,9750 0,9700
2,3263 2,1701 2.0537 1,9600 1,8808
0,880 0,870 0,860 0,850 0.840
1,1750 1,1264 1,0803 1,0364 0.9945
0,58 0,56 0,54 0.52 0.50
0,2019 0,1510 0,1004 0,0502 0,0000
zu Tab. 2: Ablesebeispiel: u 0
95
= 1,6449
Erweiterung d e r T a f e l : u, _ = — u Approximation nach Hastings f ü r 0.5 < y < 1: a0 + a , t + a , t 3 , ' -I + b, t + b , t - + b 3 t
mit
t = ν — 21n(1 - ; • ) .
a 0 = 2.515517.
a , = 0,802853.
a , = 0,010328.
b, = 1,432788.
b , = 0.189269.
b} = 0,001308.
744
Anhang
Tab. 3:
7
Quantile t„... der t-Verteilung n
0,990
0,975
0,950
'Y
0,900
η
zu Tab. 3: Ablesebeispiel: t i 5 . 0
95
= 1,753
1 2 3 4 5
31,821 6,965 4,541 3,747 3,365
12,706 4,303 3,182 2,776 2,571
6,314 2,920 2,353 2,132 2,015
3,078 1,886 1,638 1,533 1,476
6 7 8 9 10
3,143 2,998 2,896 2,821 2,764
2,447 2,365 2,306 2,262 2,228
1,943 1,895 1,860 1,833 1,812
1,440 1,415 1,397 1,383 1,372
t1:v = tan(jr·
11 12 13 14 15
2,718 2,681 2,650 2,624 2,602
2,201 2,179 2,160 2,145 2,131
1,796 1,782 1,771 1,761 1,753
1,363 1,356 1,350 1,345 1,341
Approximation f ü r 0,5 < y < 1:.
16 17 18 19 20
2,583 2,567 2,552 2,539 2,528
2,120 2,110 2,101 2,093 2,086
1,746 1,740 1,734 1,729 1,725
1,337 1,333 1,330 1,328 1,325
21 22 23 24 25
2,518 2,508 2,500 2,492 2,485
2,080 2,074 2,069 2,064 2,060
1,721 1,717 1,714 1,711 1,708
1,323 1,321 1,319 1,318 1,316
26 27 28 29 30
2,479 2,473 2,467 2,462 2,457
2,056 2,052 2,048 2,045 2,042
1,706 1,703 1,701 1,699 1,697
1,315 1,314 1,313 1,311 1,310
40 50 60 70 80
2,423 2,403 2,390 2,381 2,374
2,021 2,009 2,000 1,994 1,990
1,684 1,676 1,671 1,667 1,664
1,303 1,299 1,296 1,294 1,292
90 100 150 200 300
2,369 2,364 2,352 2,345 2,339
1,987 1,984 1,976 1,972 1,968
1,662 1,660 1,655 1,653 1,650
1,291 1,290 1,287 1,286 1,284
400 600 800 1000 X
2,336 2,333 2,331 2,330 2,326
1,966 1,964 1,963 1,962 1,960
1,649 1,647 1,647 1,646 1,645
1,284 1,283 1,283 1,282 1,282
Erweiterung der Tafel: 1-V
=
—
*·ιι;
und speziell {y~i}),
V2-(2-y-1)
t 7 ... —
Vi-(2-y-D
2
t^... = u... c 9 u 9 + c 7 u 1 + c 5 u 5 + c 3 u 3 + c, u 92160 n 4
- ~
mit u = U-., c 9 = 79, c 7 = 720n + 776, c 5 = 4800 η 2 + 4560η + 1482, c 3 = 23040η 3 + 15360η 2 + 4080η - 1920, c, = 9 2 1 6 0 η + + 23040η 3 + 2880η 2 -3600 η - 9 4 5 ; f ü r η § 10 kann man auch die Formel von Peizer und Pratt verwenden: t„... ^ y f n - e * ' " — η
η
3
u = u..
und
5
η 2
mit
6 1
1 10η
( A n m e r k u n g : Die Peizer-Pratt-Approximation liefert bereits f ü r η = 3 und 0,5 < γ < 0,99 eine passable Anpassung, wobei die absolute Abweichung zum wahren Wert höchstens 0,08 wird.)
Anhang
Tab. 4:
\
7
Quantile χ 2 . der x 2 -Verteilung
745
χ2
0,995 0,990 0,975 0,950 0,900 0,750 0,500 0,250
0,100 0,050 0,025 0,010
0,005
Ιλ ~ 3 3,93"" 4 9 , 8 2 ~ 4 1 , 5 7 ' " 5 3,93 0,103 ~ 2 5,06 " 2 2,01 "_ 2 1 , 0 0 0,352 0,216 0,115 ' 2 7,17 0,711 0,484 0,297 0,207 1,145 0,381 0,554 0,412
1 2 3 4 5
7,879 10,60 12,84 14,86 16,75
6,635 9,210 11,34 13,28 15,09
5,034 7,378 9,348 11,14 12,83
3,841 5,991 7,815 9,488 11,07
2,706 4,605 6,251 7,779 9,236
1,323 2,773 4,108 5,385 6,626
0,455 1,386 2,366 3,357 4,351
0,102 " 2 1 , 5 8 0,575 0,211 1,213 0,584 1,923 1,064 2,675 1,610
6 7 8 9 10
18,55 20,28 21,96 23,59 25,19
16,81 18,48 20,09 21,67 23,21
14,45 16,01 17,53 19,02 20,48
12,59 14,07 15,51 16,92 18,31
10,64 12,02 13,36 14,68 15,99
7,841 9,037 10,22 11,39 12,55
5,348 6,346 7,344 8,343 9,342
3,455 4,255 5,071 5,899 6,737
11 12 13 14 15
26,76 28,30 29,82 31,32 32,80
24,73 26,22 27,69 29,14 30,58
21,92 23,34 24,74 26.12 27,49
19,68 21,03 22,36 23,68 25,00
17.28 18,55 19,81 21,06 22,31
13,70 14,85 15,98 17,12 18,25
10,34 11,34 12,34 13,34 14,34
7,584 5,578 8,438 6,304 9,299 7,042 10,17 7,790 11,04 8,547
16 17 18 19 20
34,27 35.72 37.16 38,58 40,00
32.00 33.41 34,81 36,19 37.57
28,85 30,19 31,53 32,85 34,17
26,30 27,59 28,87 30.14 31,41
23,54 24,77 25,99 27,20 28,41
19,37 20,49 21,60 22,72 23,83
15,34 16,34 17,34 18,34 19,34
11,91 9,312 7,962 6,908 5,812 12,79 10,09 8,672 7,564 6,408 13,68 10,86 9,390 8,231 7,015 14,56 11,65 10,12 8,907 7,633 15,45 12,44 10,85 9,591 8,260
21 22 23 24 25
41,40 42,80 44.18 45.56 46.93
38,93 40.29 41.64 42.98 44.31
35.48 36,78 38,08 39,36 40,65
32,67 33,92 35,17 36,42 37,65
29,62 30.81 32.01 33,20 34,38
24,93 26,04 27.14 28,24 29.34
20,34 21,34 22.34 23.34 24,34
16,34 17.24 18.14 19,04 19.94
13,24 14,04 14.85 15,66 16.47
11,59 12,34 13,09 13,85 14,61
10,28 8,897 8,034 10,98 9,542 8,643 11,69 10,20 9,260 12,40 10,86 9,886 13,12 11,52 10,52
26 27 28 29 30
48.29 49,64 50,99 52.34 53.67
45.64 46.96 48.28 49.59 50.89
41,92 43.19 44,46 45.72 46.98
38,89 40.11 41.34 42.56 43.77
35.56 36.74 37,92 39.09 40,26
30,43 31,53 32.62 33.71 34.80
25,34 26.34 27,34 28,34 29.34
20.84 17,29 21.75 18.11 22.66 19.94 23,57 19.77 24.48 20.60
15,38 16,15 16,93 17.71 18,49
13.84 14,57 15,31 16,05 16.79
12,20 12,88 13,56 14,26 14.95
11,16 11,81 12,46 13,12 13,79
40 50 60 70 80
66.77 79,49 91,95 104,2 116,3
63.69 76.15 88.38 100,4 112.3
59.34 71.42 83.30 95.02 106.6
55.76 67,50 79.08 90,53 101.9
51,81 63.17 74,40 85.53 96,58
45,62 56,33 66,98 77,58 88,13
39,34 49.33 59,33 69,33 79.33
33.66 42,94 52.29 61.70 71.14
29,05 26.51 37.69 34.76 46.46 43.19 55.33 51.74 64.28 60.39
24.43 32,36 40,48 48,76 57,15
22,16 29,71 37,48 45,44 53.54
20,71 27,99 35,53 43,28 51,17
90 100 150 200 250
128.3 140,2 198.4 255.3 311.3
124.1 135.8 193.2 249.4 304.9
118.1 129.6 185.8 241.1 295.7
113.1 124.3 179,6 234.0 287.9
107.6 118,5 172.6 226.0 279.1
98,65 109.1 161.3 213.1 264.7
89.33 99.33 149.3 199.3 249.3
80.62 73.29 69.13 65,65 61.75 59,20 90.13 82,36 77.93 74.22 70.06 67,33 138.0 128.3 122.7 118,0 112,7 109.1 186.2 174.8 168.3 162.7 156.4 152,2 234.6 221.8 214.4 208,1 200.9 196,2
300 400 600 800 1000
366.8 476.6 693.0 906.8 1119.
359.9 468.7 683.5 896.0 1107.
349.9 457.3 669.8 880.3 1090,
341.4 447.6 658.1 866.9 1075.
331.8 436.6 644.8 851.7 1058.
316.1 418.7 623.0 826.6 1030.
299.3 399.3 599.3 799.3 999.3
283.1 380,6 576.3 772.7 969,5
2,204 1,635 1,237 0,872 0,676 2,833 2,167 1,690 1,239 0,989 3,490 2,733 2,180 1,647 1,344 4,168 3,325 2,700 2,088 1,735 4,865 3,940 3,247 2,558 2,156
269.1 364.2 556.1 749.2 943.1
4,575 5,226 5,892 6,571 7,261
260.9 354.6 544.2 735.4 927.6
3,816 4,404 5,009 5,629 6,262
253.9 346,5 534.0 723.5 914.3
3,053 2,603 3,571 3,074 4,107 3,565 4,660 4,075 5,229 4,601 5,142 5,697 6,265 6,844 7,434
246.0 240,7 337.2 330,9 522.4 514,5 709,9 700,7 898,9 888.6
746
Anhang
zu Tab. 4: Ablesebeispiel: χ ϊ . 0 . 0 5 = " 3 3 , 9 3 = 3,93 · 1 0 " 3 = 0,00393 Approximation nach Wilson und Hilferty f ü r 0 < y < 1:
Anhang
Tab.5:
Quantile F
1
"2
„ 2 ... der F-Verteilung 2
3
747
v 2.y
n n
4
5
6
7
8
9
10
5625, 899,6 224,6 55.83
5764. 921.8 230.2 57.24
5859. 937.1 234.0 58.20
5928. 948,2 236,8 58,91
5981, 6022, 6056, 956,7 963,3 968,6 238,9 240,5 241,9 59.44 59,86 60,20
11
6083, 973,0 243,0 60,47
1
0,990 0.975 0,950 0,900
4052, 4999, 5403, 647,8 799,5 864,2 161.4 199,5 215,7 39,86 49,50 53,59
1
0.990 0.975 0,950 0.900
98,50 99,00 99.17 99.25 99.30 99.33 99,36 99,37 99,39 99,40 99,41 38.51 39,00 39,17 39.25 39.30 39.33 39,36 39,37 39,39 39,40 39,41 18.51 19,00 19.16 19.25 19,30 19.33 19,35 19,37 19,38 19.40 19,40 8,526 9,000 9,162 9.243 9,293 9,326 9,349 9,367 9,381 9,392 9.401
3
0.990 0.975 0.950 0.900
34,12 30,82 29,46 28.71 28.24 27,91 17,44 16,04 15.44 15.10 14.88 14.73 10,13 9.552 9.277 9.117 9,013 8,941 5,538 5.462 5.391 5,343 5.309 5.285
4
0.990 0.975 0.950 0.900
21.20 12.22 7.709 4.545
5
0.990 0.975 0.950 0.900
16.26 13,27 12.06 10.01 8.434 7,764 6.608 5.786 5,409 4.060 3,780 3,619
6
0.990 0.975 0.950 0.900
13.75 10.92 9.780 9.148 8.746 8.466 8.813 7.260 6.599 6.227 5.988 5.820 5.987 5.143 4.757 4.534 4.387 4.284 3.776 3.463 3.289 3.181 3.108 3.055
7
0.990 0.975 0.950 0.900
12.25 9.547 8.073 6.542 5.591 4.737 3.589 3.257
X
0.990 0.975 0.950 0.900
1 1.26 7.571 5.318 3.458
9
0.990 0.975 0.950 0.900
10.56 8.022 7.209 5.715 5.117 4.256 3.360 3.006
10
0.990 0.975 0.950 0.900
10.04 7.559 6.552 5.994 5.636 5.386 5.200 6.937 5.456 4.826 4.468 4.236 4.072 3.950 4.965 4.103 3.708 3.478 3.326 3.217 3.135 3.285 2.924 2.728 2.605 2.522 2.461 2.414
27,67 27,49 27,35 27.23 27,13 14.62 14,54 14.47 14.42 14.37 8.887 8,845 8,812 8.786 8.763 5,266 5,252 5.240 5.230 5.222
18,00 16.69 15.98 15,52 15.21 14,98 14,80 14.66 14.55 14.45 10,65 9,979 9,605 9.364 9.197 9,074 8.980 8.905 8.844 8.793 6.944 6.591 6.388 6.256 6.163 6.094 6,041 5,999 5,964 5,936 4.325 4,191 4.107 4.051 4.010 3.979 3,955 3.936 3.920 3.907
8.649 6.059 4.459 3.1 13
11,39 7.388 5.192 3,520
8.451 7.847 5.890 5.523 4.347 4.120 3.074 2.961
10.97 10.67 10,46 10,29 10,16 10.05 9.962 7.146 6.978 6,853 6,757 6,681 6.619 6.568 5.050 4.950 4.876 4.818 4.772 4.735 4.704 3.453 3.405 '3,368 3,339 3,316 3,297 3.282
7.460 5.285 3.972 2.883
8.260 8.102 5.695 5.600 4.207 4.147 3.015 2.983
7.976 7.874 7.789 5.523 5,461 5.409 4.099 4.060 4.027 2.958 2.937 2.919
7.191 6.993 6.840 6.719 5.119 4.995 4.899 4.823 3.866 3.787 3.726 3,677 2.827 2.785 2.752 2.725
7.591 7.006 6.632 6.371 5.416 5.053 4.817 4.652 4.066 3.838 3.687 3.581 2.924 2.806 2.726 2.668
6.620 6,538 4.761 4.709 3.637 3.603 2.703 2.684
6.178 6.029 5.911 4.529 4.433 4.357 3.500 3.438 3.388 2.624 2.589 2.561
5.814 4.295 3.347 2.538
5.734 4.243 3.313 2.518
6.992 6.422 2.057 5.802 5.613 5.467 5.351 5.078 4.718 4.484 4.320 4.197 4.102 4.026 3.863 3.633 3.482 3.374 3.293 3.230 3.179 2.813 2.693 2.611 2.551 2.505 2.469 2.440
5.257 3.964 3.137 2.416
5.177 3.912 3.102 2.396
5.057 3.855 3.072 2.377
4.942 4.849 4.771 3.779 3.717 3.665 3.020 2.978 2.943 2.347 2.323 2.302
748
Anhang
Tab. 5 :
Fortsetzung
13
10
14
15
20
24
30
40
60
120
oo
0,990 0,975 0,950 0,900
6106, 976,7 243,9 60,71
6126, 6143, 6157, 6209, 979,8 982,5 984,9 993,1 244,7 245,4 245,9 248,0 60,90 61,07 61,22 61,74
6235, 6261, 6287, 6313, 997,2 1001, 1006, 1010, 249,1 250,1 251,1 252,2 62,00 62,26 62,53 62,79
6339, 1014, 253,3 63,06
6366, 1018, 254,3 63,33
0,990 0,975 0,950 0,900
99,42 39,41 19,41 9,408
99,42 39,42 19,42 9,415
99,43 39,43 19,42 9,420
99,43 39,43 19,43 9,425
99,45 39,45 19,45 9,441
99,46 39,46 19,45 9,450
99,47 39,46 19,46 9,458
99,49 39,49 19,49 9,483
99,50 39,50 19,50 9,491
0,990 0,975 0,950 0,900
27,05 14,34 8,745 5,216
26,98 14.30 8,729 5,210
26,92 14,28 8,715 5,205
26,87 14,25 8,703 5,200
26,69 14,17 8,660 5,184
26,60 14,12 8,639 5,176
26,50 26,41 26,32 26,22 14,08 14,04 13,99 13,95 8,617 8,594 8,572 8,549 5,168 5,160 5,151 5,143
26,13 13,90 8,526 5,134
0,990 0,975 0,950 0,900
14,37 8,751 5.912 3,896
14.31 8,715 5.891 3,885
14,25 8,684 5,873 3,877
14,20 8,657 5,858 3,869
14,02 8,560 5,803 3,844
13,93 8,511 5,774 3,831
13,84 8,461 5,746 3,817
13,75 8,411 5,717 3,804
13,65 8,360 5,688 3,790
13,56 13,46 8,309 8,257 5,658 5,628 3,775 3,761
0,990 0,975 0,950 0,900
9,888 6,525 4,678 3,268
9,824 6.487 4,655 3,257
9,770 6,455 4,636 3,247
9,722 6,428 4,619 3,238
9,553 6,329 4,558 3,207
9,466 6.278 4,527 3,191
9,379 6,227 4,496 3,174
9,291 6,175 4,464 3,157
9,202 6,123 4,431 3,140
9,112 6,069 4,398 3,123
9,020 6,015 4,365 3,105
0,990 0,975 0,950 0,900
7,718 5,366 4,000 2,905
7,657 5,329 3,976 2.892
7,605 5,297 3,956 2,881
7,559 5,269 3,938 2,871
7,396 5,168 3,874 2,836
7,313 5,117 3,841 2,818
7,229 5,065 3,808 2,800
7,143 5,012 3,774 2,781
7,057 4,959 3,740 2,762
6,969 4,904 3,705 2,742
4,849 3.669 2,722
0,990 0,975 0,950 0,900
6,469 6,410 6,359 6,314 4.666 4,628 4,596 4,568 3,575 3,550 3,529 3,511 2,668 2,654 2,643 2,632
6,155 4,467 3,445 2,595
6,074 4,415 3,410 2,575
5,992 4,362 3,376 2,555
5,908 4,309 3,340 2,535
5,824 4,254 3,304 2,514
5,737 4,199 3,267 2,493
5,650 4,142 3,230 2,471
0,990 0,975 0,950 0,900
5.667 4,200 3,284 2,502
5,609 4,162 3,259 2.488
5,558 4,129 3,237 2,475
5,515 4,101 3,218 2,464
5,359 3,999 3,150 2,425
5.279 3,947 3,115 2,404
5,198 3,894 3,079 2,383
5,116 3,840 3,043 2,361
5,032 3,784 3,005 2,339
4,946 3,728 2,967 2,316
4,859 3.670 2,928 2,293
0,990 0,975 0,950 0,900
5,111 3,868 3,073 2,379
5,054 3,830 3,047 2,364
5,005 3,798 3,025 2,351
4,962 3,769 3,006 2,340
4,808 3,667 2,936 2,298
4,729 3,614 2,900 2,277
4,649 3,560 2,864 2,255
4,567 3,505 2,826 2,232
4,483 4,398 4,311 3,449 3,392 3,333 2,787 2,748 2,707 2,208 2,184 2,159
0,990 0,975 0,950 0,900
4,706 3,621 2.913 2,284
4,649 3,583 2,887 2,269
4,600 3,550 2,864 2,255
4,558 3,522 2,845 2,244
4,405 4,327 4,247 4,165 4,082 3,419 3,365 3,311 3,255 3,198 2,774 2,737 2,700 2,661 2,621 2,201 2,178 2,155 2,132 2,107
99,47 39,47 19,47 9,466
99,48 39,48 19,48 9,475
3,996 3,140 2,580 2,082
6,880
3,909 3,080 2,538 2,055
Anhang
Tab. 5 :
n
2
749
Fortsetzung
\
"l
1
2
3
4
5
6
7
8
9
10
11
!
11
0,990 0,975 0,950 0,900
9,646 7,206 6,217 5,668 6,724 5,256 4,630 4,275 4,844 3,982 3,587 3,357 3,225 2,860 2,660 2,536
12
0,990 0,975 0.950 0,900
9,330 6,554 4,747 3,177
6,927 5,096 3,885 2,807
13
0,990 0,975 0,950 0,900
9,074 6,414 4,667 3,136
6,701 5,739 4,965 4,347 3,806 3,411 2,763 2,560
14
0,990 0.975 0,950 0.900
8,862 6,515 5,564 5,035 4,695 4,456 4,278 4,140 4,030 6,298 4,857 4,242 3,892 3,663 3,501 3,380 3,285 3,209 4,600 3,739 3,344 3,112 2,958 2,848 2,764 2,699 2,646 3.102 2,726 2,522 2,395 2,307 2,243 2,193 2,154 2,122
15
0.990 0.975 0.950 0.900
8,683 6,199 4,543 3,073
6,359 5,417 4,893 4,556 4,318 4,142 4,004 4,765 4,153 3,804 3,576 3,415 3,293 3,199 3,682 3,287 3,056 2,901 2,790 2,707 2,641 2,695 2.490 2,361 2,273 2,208 2,158 2,119
16
0.990 0.975 0.950 0.900
8,531 6.115 4.494 3.048
6,226 5,292 4,773 4,437 4,687 4,077 3,729 3,502 3,634 3,239 3,007 2,852 2,668 2,462 2.333 2,244
17
0.990 0.975 0.950 0.900
8.400 6.112 6.042 4.619 4.451 3.592 3.026 2.645
18
0.990 0.975 0.950 0.900
8.285 6,013 5,092 5.978 4,560 3,954 4.414 3,555 3.160 3.007 2.624 2.416
19
0.990 0.975 0.950 0.900
8.185 5.922 4.381 2.990
5.926 5.010 4.500 4.171 3.939 4.508 3.903 3.559 3.333 3,172 3.522 3.127 2.895 2.740 2.628 2.606 2.397 2.266 2.176 2,109
3,765 3,051 2,544 2.058
20
0.990 0.975 0.950 0.900
8.096 5.871 4.351 2.975
5.849 4.461 3.493 2.589
3.699 3.564 3.457 3.368 3.293 3.007 2.913 2.837 2.774 2.720 2.514 2.447 2.393 2.348 2.310 2.040 1.999 1.965 1.937 1.913
5,316 5,069 4,886 4,044 3,881 3,759 3,204 3,095 3,012 2,451 2.389 2,342
4,744 4,632 3,664 3,588 2,948 2,896 2,304 2,273
4,539 4,462 3,526 3,473 2,854 2,818 2,248 2,227
5,953 5,412 5,064 4,821 4,640 4,474 4,121 3,891 3,728 3,607 3,490 3,259 3,106 2,996 2,913 2,605 2,480 2,394 2,331 2,283
4,499 4,388 3,512 3,436 2,849 2,796 2,245 2,214
4,296 4,219 3,374 3,321 2,753 2,717 2,188 2,166
5,205 3,996 3,179 2,434
4,862 4,620 4,441 3,767 3,604 3,483 3,025 2,915 2,832 2,347 2,283 2,234
4,302 3,388 2,767 2,195
4,248 4,015 3.382 3,221 2.773 2,661 2.196 2,130
4.938 4.431 4.103 3.859 3.515 3.289 3.098 2,866 2.711 2.380 2,249 2.158
3,939 3,863 3,147 3,094 2,602 2,565 2,095 2,073
3,895 3,805 3,730 3,123 3,060 3,007 2,588 2,544 2,506 2,086 2,059 2,036
4,202 4,026 3,890 3,780 3,691 3,616 3,341 3,219 3,125 3.049 2,986 2,933 2,741 2,657 2,591 2,538 2,494 2,456 2,178 2,128 2,088 2,055 2,028 2.005
5,185 4.669 4,336 4,101 3,927 3.791 4.011 3,665 3,438 3,277 3,156 3,061 3.197 2.965 2,810 2,699 2,614 2,548 2.437 2,308 2,218 2,152 2.102 2.061 4,579 3,608 2.928 2.286
4,191 4,100 4,024 3,312 3,250 3,197 2,714 2,671 2,634 2,164 2,138 2,115
3,871 3.128 2.599 2.091
3,841 3.705 3.100 3.005 2,577 2.510 2,079 2.038
3,682 3,593 3,518 2,985 2,922 2,869 2,494 2,450 2,412 2,028 2,001 1,977 3,597 3.508 3,433 2,929 2,866 2,813 2,456 2,412 2,374 2,005 1,977 1,953
3.631 3,523 3.434 3.359 2.956 2.880 2,817 2.764 2.477 2.423 2.378 2.340 2.017 1.984 1,956 1.932
750
Tab. 5:
Anhang
Fortsetzung
13
14
15
20
24
30
40
60
120
oo
11
0,990 0,975 0,950 0,900
4,397 4,341 4,293 4,251 4,099 4,021 3,430 3,391 3,358 3,330 3,226 3,173 2,788 2,761 2,738 2,719 2,646 2,609 2,209 2,193 2,179 2,167 2.123 2,100
12
0,990 0,975 0,950 0,900
4,155 3.277 2,687 2,147
13
0,990 0,975 0,950 0,900
3,960 3,905 3,857 3,153 3,115 3,081 2,604 2,577 2,553 2,097 2,080 2,066
14
0,990 0,975 0,950 0,900
3,800 3,050 2,534 2,054
3,745 3,697 3,656 3,505 3,427 3.348 3,011 2,978 2,949 2,844 2,789 2,732 2,507 2,483 2,463 2,388 2,349 2,308 2,037 2,022 2,010 1,962 1,938 1,912
3,266 3,181 3,094 2,674 2,614 2,552 2,266 2,223 2,178 1,885 1,857 1,828
3,004 2,487 2,131 1,797
15
0,990 0,975 0,950 0,900
3,666 2,963 2,475 2,017
3,611 3,563 3,522 3,372 3,294 3,214 3,132 3,047 2,959 2,924 2,891 2,862 2,756 2,701 2,644 2,585 2,524 2,461 2,448 2,424 2,403 2,328 2 , 2 8 8 2,247 2,204 2,160 2,114 2,000 1.985 1,972 1,924 1,899 1,873 1,845 1,817 1,787
2,868 2,395 2,066 1,755
16
0,990 0,975 0,950 0,900
3,553 3,497 3,450 3,409 3,259 3,181 3,101 2,889 2,850 2,817 2,788 2,681 2,625 2,568 2,425 2,397 2,373 2,352 2,276 2,235 2,194 1,985 1,968 1,953 1,940 1,891 1,866 1,839
17
0,990 0,975 0,950 0.900
3,455 3,400 3,353 3,312 3,162 3,084 3,003 2,920 2,835 2,825 2,786 2,752 2,723 2,616 2,560 2,502 2,442 2,380 2,381 2,353 2,329 2,308 2,230 2,190 2,148 2,104 2,058 1,958 1,940 1,925 1,912 1,862 1,836 1,809 1.781 1,751
2,746 2,315 2,011 1,719
2,653 2,247 1,960 1,686
18
0,990 0,975 0,950 0,900
3,371 3,316 3,268 3,227 3,077 2,999 2,919 2,835 2,749 2.660 2,769 2,730 2,696 2,667 2,559 2,503 2,444 2,384 2,321 2.256 2,342 2,314 2,290 2,269 2,191 2,150 2,107 2,063 2,017 1,968 1,933 1,915 1,900 1,887 1,837 1 , 8 1 0 1,783 1,754 1,723 1.691
2,566 2,187 1,917 1,657
19
0,990 0,975 0,950 0,900
3,297 3,241 3,194 3,153 3,003 2,925 2,720 2,680 2,646 2,617 2,509 2,452 2,308 2,280 2,255 2,234 2,155 2,114 1,912 1,894 1,878 1,865 1,814 1,787
2,844 2,761 2,674 2,584 2,394 2,333 2,270 2,203 2,071 2,026 1,980 1,930 1,759 1,730 1,699 1,666
2,489 2,133 1,878 1,631
20
0,990 0,975 0,950 0,900
3,231 3,176 3,129 3,088 2,938 2,859 2,778 2,695 2,608 2,517 2,676 2,636 2,602 2,573 2,464 2,408 2.349 2,287 2,223 2,156 2.278 2,249 2,225 2,203 2.124 2,082 2,039 1,994 1,946 1,896 1,892 1,874 1,859 1,845 1,794 1,767 1,738 1,708 1,677 1,643
2,421 2,085 1,843 1,607
4,099 3,239 2,660 2,131
3,941 3,860 3,776 3.690 3,118 3,061 3,004 2,944 2,570 2,531 2,490 2.448 2,076 2,052 2,026 2,000
3,602 2,883 2,404 1,972
3,780 3,701 3,619 3,535 3.449 3,019 2,963 2,906 2,848 2,787 2,505 2,466 2,426 2,384 2,341 2,036 2,011 1,986 1,960 1,932
3,361 2,725 2,296 1,904
3,665 3,587 3,507 3,425 3,341 3.255 2,948 2,893 2,837 2.780 2,720 2.659 2,459 2,420 2,380 2,339 2,297 2,252 2,007 1,983 1,958 1,931 1,904 1,876
3,165 2,595 2,206 1,846
4,051 4,010 3,858 3,206 3,177 3,073 2,637 2,617 2,544 2,117 2,105 2,060 3,815 3,053 2,533 2,053
3,018 2,933 2,845 2,509 2,447 2,383 2,151 2,106 2,059 1,811 1,782 1,751
2,753 2,316 2,010 1,718
Anhang
Tab. 5:
n
751
Fortsetzung
10
2
4.817 3,783 3,049 2.351
22
0,990 0,975 0.950 0,900
7,945 5,786 4,301 2,949
5,719 4.383 3,443 2,561
24
0,990 0.975 0,950 0.900
7.823 5,717 4,260 2,927
5,614 4.718 4.319 3,721 3.403 3,009 2,538 2,327
26
0.990 0.975 0,950 0,900
7,721 5.526 5.659 4,265 4,225 3.369 2,909 2,519
28
0.990 0.975 0.950 0.900
7,636 5.610 4.196 2.894
5,453 4.568 4.074 3,754 3,528 3.358 3,226 3,120 3.032 2,958 4,221 3,626 3,286 3.063 2.903 2,782 2,687 2,611 2,547 2.493 3,340 2.947 2.714 2.558 2.445 2.359 2,291 2,236 2,190 2.151 2,503 2,291 2,157 2.064 1.996 1.943 1,900 1,865 1,836 1,811
.10
0.990 0.975 0.950 0,900
7.562 5.568 4.171 2,881
5,390 4,510 4,182 3,589 3.316 2,922 2,489 2,276
40
0.990 0,975 0.950 0.900
7,314 5.179 4,313 5,424 4.051 3.463 4,085 3.232 2.839 2.835 2.440 2,226
60
0.990 0.975 0,950 0.900
7.077 4.977 4,126 3.649 3.339 3.119 2.953 2,823 2.718 2.632 2,558 5.286 3.925 3.343 3,008 2.786 2,627 2.507 2.412 2.334 2.270 2.215 4.001 3.150 2.758 2,525 2.368 2.254 2.167 2.097 2.040 1.993 1.952 2.791 2,393 2.177 2.041 1.946 1.875 1.819 1.775 1.738 1.707 1,680
80
0.990 0.975 0.950 0.900
6.964 4,882 4.036 3.564 3.256 3.037 2.872 2.743 2.639 5.219 3.865 3.285 2.951 2.730 2.571 2.451 2.356 2.278 3.961 3.111 2.719 2.486 2.329 2.214 2.127 2.057 1.999 2.770 2.370 2.154 2.017 1.921 1.849 1.793 1,748 1.711
120
0.990 0.975 0.950 0.900
6.851 4.787 5.152 3.805 3.920 3.072 2.748 2.347
χ
0.990 0.975 0.950 0.900
6.635 5.024 3.841 2.706
4,637 3,670 2.975 2.307
4,313 3,988 3,440 3,215 2,817 2,661 2,219 2,128
3.758 3,587 3,453 3,346 3,258 3.055 2,934 2,839 2,763 2,700 2.549 2,464 2,397 2,342 2,297 2.060 2.008 1,967 1,933 1,904
11
3,183 2,646 2.258 1,880
4,218 3.895 3.667 3.496 3,363 3,256 3,168 3,094 3,379 3,155 2.995 2,874 2.779 2,703 2,640 2,586 2.776 2.621 2.508 2,423 2.355 2,300 2,255 2.216 2.195 2.103 2.035 1.983 1,941 1,906 1,877 1.853 4,140 3.818 3,591 3.421 3,288 3.329 3.105 2,945 2,824 2,729 2,743 2.587 2.474 2,388 2,321 2.174 2.082 2.014 1,961 1,919
3,182 3,094 3,020 2,653 2,590 2.536 2,265 2,220 2 . 1 8 1 1,884 1,855 1,830
4,018 3.699 3.473 3.304 3,173 3,067 3.250 3.026 2.867 2.746 2,651 2,575 2,690 2.534 2.421 2.334 2,266 2,211 2.142 2.049 1.980 1,927 1.884 1,849 3.828 3.126 2.606 2.091
2,979 2.905 2,511 2,457 2,165 2.125 1,8 i9 1,794
3.514 3.291 3.124 2,993 2,888 2.801 2,727 2.904 2.744 2,624 2,529 2,452 2,388 2,334 2,449 2.336 2.249 2,180 2,124 2,077 2.037 1.997 1.927 1.873 1,829 1,793 1,763 1.737
2.552 2.214 1,952 1.680
2.478 2.158 1.910 1.652
3.949 3,480 3,174 2.956 2.792 2.663 2.559 2,472 2.398 3.227 2.894 2.674 2.515 2.395 2.299 2 . 2 2 2 2.157 2.101 2.680 2.447 2.290 2.175 2.087 2.016 1.959 1.910 1.869 2.130 1.992 1.896 1.824 1.767 1,722 1.684 1.652 1.625
4.605 3,782 3.319 3.017 2,802 2.639 2.511 2.407 2.321 2.247 3.689 3.116 2.786 2.567 2.408 2.288 2.192 2.114 2.048 1.992 2.996 2,605 2.372 2.214 2,099 2.010 1.938 1.880 1.831 1.788 2.303 2.084 1.945 1.847 1.774 1.717 1.670 1.632 1.599 1.570
752
Anhang
Tab. 5:
n2
Fortsetzung
Χ " ' )'
12
13
14
15
20
24
30
40
60
120
oo
\
22
0,990 0,975 0,950 0,900
3,121 3,066 3,019 2,978 2,827 2,749 2,667 2,583 2,495 2,403 2,602 2,562 2,528 2,498 2,389 2,332 2,272 2,210 2,145 2,076 2,226 2,197 2,172 2,151 2,071 2,028 1,984 1,938 1,889 1,838 1,859 1,841 1,825 1,811 1,759 1,731 1,702 1,671 1,639 1,604
24
0,990 0,975 0,950 0,900
3,032 2,977 2,930 2,889 2,738 2,659 2,541 2,501 2,467 2,437 2,327 2,269 2,183 2,154 2,129 2,108 2,027 1,984 1,832 1,813 1,797 1,783 1,730 1,702
26
0,990 0,975 0,950 0,900
2,958 2,903 2,856 2,815 2,491 2,451 2,417 2,387 2,148 2,119 2,093 2,072 1,809 1,790 1,774 1,760
28
0,990 0,975 0,950 0,900
2,896 2,448 2,118 1,790
30
0,990 0,975 0,950 0,900
2,843 2,788 2,741 2,700 2,412 2,372 2,337 2,307 2,092 2,062 2,037 2,015 1,773 1,753 1,737 1,722
40
0,990 0,975 0,950 0,900
2,665 2,610 2,563 2,522 2,369 2,288 2,203 2,114 2,019 2,288 2,247 2,212 2,182 2,068 2,007 1,943 1,875 1,803 2,003 1,973 1,947 1,924 1,839 1,793 1,744 1,693 1,637 1,715 1,695 1,677 1,662 1,605 1,574 1,541 1,506 1,467
60
0,990 0,975 0,950 0,900
2,496 2,441 2,393 2,169 2,128 2,092 1,917 1,886 1,860 1,657 1,637 1,619
80
0,990 0,975 0,950 0,900
2,416 2,361 2,313 2,272 2,116 2,033 1,944 2,112 2,070 2,034 2,003 1,885 1,821 1,753 1,876 1,844 1,817 1,793 1,703 1,654 1,602 1,629 1,608 1,590 1,574 1,513 1,479 1,443
1,849 1,679 1,545 1,403
120
0,990 0,975 0,950 0,900
2,336 2,281 2,233 2,192 2,035 2,055 2,013 1,976 1,945 1,825 1,834 1,802 1,774 1,750 1,659 1,601 1,580 1,561 1,545 1,482
1,950 1,760 1,608 1,447
1,860 1,690 1,554 1,409
OG
0,990 0,975 0,950 0,900
2,185 2,129 2,080 1,945 1,902 1,865 1,752 1,719 1,691 1,546 1,523 1,504
1,791 1,696 1,640 1,566 1,517 1,459 1,383 1,342
2,305 2,003 1,783 1,567
2,577 2,492 2,403 2,310 2,211 2,209 2,146 2,080 2,010 1,935 1,939 1,892 1,842 1,790 1,733 1,672 1,641 1,607 1,571 1,533
2,664 2,585 2,503 2,417 2,327 2,233 2,276 2,217 2,157 2,093 2,026 1,954 1,990 1,946 1,901 1,853 1,803 1,749 1,706 1,677 1,647 1,615 1,581 1,544
2,131 1,878 1,691 1,504
2,841 2,794 2,753 2,602 2,522 2,440 2,353 2,263 2,167 2,408 2,374 2,344 2,232 2,174 2,112 2,048 1,980 1,907 2,088 2,063 2,041 1,959 1,915 1,869 1,820 1,769 1,714 1,770 1,754 1,740 1,685 1,656 1,625 1,592 1,558 1,520
2,064 1,829 1,654 1,478
2,549 2,469 2,386 2,299 2,208 2,111 2,195 2,136 2,074 2,009 1,940 1,866 1,932 1,887 1,841 1,792 1,740 1,684 1,667 1,638 1,606 1,573 1,538 1,499
2,352 2,198 2,061 1,944 1,836 1,748 1,603 1,543
2,039 1,833 1,666 1,487
1,878 1,708 1,571 1,421
2,115 2,028 1,936 1,882 1,815 1,744 1,700 1,649 1,594 1,511 1,476 1,437
2,006 1,787 1,622 1,456
1,917 1,805 1,724 1,637 1,577 1,509 1,425 1,377
1,836 1,726 1,667 1,581 1,534 1,467 1,395 1,348
1,601 1,482 1,389 1,291
1,746 1,598 1,482 1,358
1,630 1,507 1,410 1,306
1,491 1,396 1,322 1,242
1,763 1,614 1,495 1,368
1,656 1,530 1,429 1,320
1,533 1,433 1,352 1,265
1,381 1,310 1,254 1,193
1,592 1,484 1,394 1,295
1,473 1,388 1,318 1,240
1,325 1,268 1,221 1,169
1,000 1,000 1,000 1,000
Anhang
zu Tab. 5: Ablesebeispiel: F 7
20.0 99
=
753
3,699 1
Erweiterung der Tafel: F„ „ ; 1 _ y =
Interpolation nach Laubscher: Gesucht ist F n i „ 2 . r Gibt es dann natürliche Zahlen n 3 ^ n! < n 5 sowie n 4 g n 2 < n 6 derart, daß die Quantile F n „ . r , F n 6 i y , F„ 5 ,„ 4;y und F„5_ ? vertafelt sind, so gilt: F„„ „ 2 i , = Ο - c,) · (1 - c 2 ) · F„ 3 „4.y + (1 - c,) · c 2 • F n3 . „ 6 ., +'C, · (1 - c 2 ) · F„ s „4.y + c t · c 2 · F„5,„6. y r ..
für C[ =
n
s ( n l ~~ n 3)
n
i (n5 — n 3)
n , 6 ( n 2 ~~ n 4) und c 2 = . n2(n6-n4)
Läßt sich n 3 = Π] wählen, so wird offensichtlich C! = 0, wie für n 4 = n 2 auch c 2 = 0 ist. In diesen Fällen vereinfacht sich die Interpolationsformel entsprechend. Approximation für 0,5 < y < 1: F„ n !y ^ e u ' a ~ b mit u = u r a = 72-d + c d 2 , c=
0»,)2 ~ 3
und
1 b = 2· ( Vni-1 d=
1 1-
1
\
n2-l/ 1
( 5 · c+ V 6
d
3)
,,
754
Anhang
Nomogramme von Heck (1960) zum Roy-Test (·ό. auch S. 766) CHART I
η
»=2 »= .01
Anhang
CHART _
755
II
i=2 « = .025
Π 1000
.5
.521 .560
.575
.6
.625 .650
.675
.7
.725 .750
.775
.8
-825 .850 .875
.9
.925 .950
.975
I .0
)(
c
r-1'
n
e'
n
h^
Kritische Werte können für α = 0.01, α = 0.025, α = 0.05 den Nomogrammen (Chart I bis Chart XII) auf Seite 754 - 765 entnommen werden; dabei s=min(p,n^)
für
s=2,3,4,5
m=(|nh-p| - D / 2
für
m = - 1 / 2 , 0 , 1 , 2 , . . . ,10
n = (n
für
η =5
-p-D/2
1000
,
ist
Anhang
c
und für die j e w e i l i g e Kombination von s und η wird
767
R.i_a(P>ne>nh)
f o l g t abgelesen: Die untere Kurvenschar im Nomogramm für m = - 1 / 2 , 0 , 1 , 1 0 i s t die Fortsetzung der oberen Kurvenschar ; der k r i t i s c h e Wert c
R-1-a(p,ne'nh'
am
c es
'
Nomograms abgetragen, wobei s i c h die obere
Z e i l e auf die obere, die untere Z e i l e auf die untere Kurvenschar (mit einer Überlappung zwischen 0.50 und 0.55) bezieht. Ablesebeispiel
(verwandt wird jeweils Chart
II):
α = 0.025, s = 2, m = 0, η = 100 :
0.060 ;
α = 0.025, s = 2 , m = 5, n =
15 :
0.545 ;
α = 0.025, s = 2, m = 2, η =
8:
0.615.
Exakte F - T e s t s :
2.2
C
R;1-«(1 > V n h >
c
R;1-a(p'V
ZUM
F
nh.ne;1-a/(1
1}
F
\
p,ne-p+1; 1 - α / (
> ν
1 +
;
ΐ - α )
F
p , n e - p + 1 ;1-α,
WILKS-TEST
Prüfgröße:
Λ„ = ^
K r i t i s c h e r Wert:
ρ
.
=^
ρ
det S
(1 - λ . ) = ^
^
c w (p,n ,n, ) W;a r e h
Verwerfe Η zum Niveau α, f a l l s : ο
Λ,, < c.. (p,n ,n.) W W;a e ' h'
Approximationen: Verwerfe HQ zum Niveau α, f a l l s : A
·
-6'lnAW>Xpnh;1-a
ο
Λ 1 /η
W ·
wobei
;
^ p
n
h
|
C p
'
-
im
9
-
n
e '
n
h
;
2)
)
2
- 2
pn
ö
F a l l e
n
η
F a l l e
-
g
h F
- p - 1
pn^ + n^ -
n
g
-
g
2
= V P
g
'
g i
.
1
2
; 1 - a
2=VP+1
pn^ + n^ -
+
, g
1 > 0
'
1 < 0
( n 9 , = -
;1-ct
- 1 ) / 2
Pn h (n e -P) 1=ne-pnh+nh-1
im
0 ( 2 u + 0 + 1) , 2 ( θ ν + 1 )
,
- p - 1 ) / 2
+
F h
2(θν+1)
9 c
2
0 = m i n ( p , n ^ )
u = ( [ p
B.
Θ
h
e
- p - 1 ) ( n ( n
e
e
- p - 3 ) ( n
- 1 j ( n
e +
n
h
e
- p n
h
- p - 1 j
+ n
h
- 1 )
Anhang
Exakte
F-Tests:
C
H L ; 1 - a
c"HL u, ;
2.4
769
ZUM
-
a
' V
( P > V
Ρ I L LAI -
Prüfgröße:
Kritischer
1
( l
h
1 )
=
) =
^
n
F V
=
V e r w e r f e H q zum N i v e a u α ,
e
n -p+1
λ
pB;i-a(P'
c
^
F
Β ART L ETT
Λρβ = ^
Wert:
n
n
; 1 - a
p,n
-p+1;1-
- Τ EST
.
.
e'lV
falls:
Λρβ
>
c
pB-i-a(P'ne'nh^
Approximation: Verwerfe
Hq
A PB θ -Λρβ
2U+6+1 2ν+θ+1
wobei
>
zum N i v e a u a ,
F
e(2u+6+l),e(2v+e+1);1-a
θ = min(p,nh) u = (|p-nh| v =
Exakte
(n
falls:
, - D / 2
-p-1)/2
e
F-Tests:
c
PB;1-a(
c
PB;1-a(p>ne>
1
'
n
e-
n
1 )
h)-n;
F
n
h
.n
F
e
p,n
;1-a/(
1 +
n;
F
n
- p + l s l - a / O
h
.n
+
e !
1.a)
ηΤ-φ+Τ
;
F
p,n
-p+l
;1-a)
770
3
Anhang
GRIECHISCHES
ALPHABET
A
α
A l pha
Β
β
Beta
Γ
γ
Gamma
Δ
δ
Del t a
Ε
ε
Epsilon
Ζ
ζ
Zeta
Η
η
Eta
0
θ
Theta
I
ι
Jota
Κ
χ
Kappa
Λ
λ
Lambda
Μ
μ
My
Ν
ν
Ny
Η
ξ
Xi
0
0
Omikron
Π
π
Pi
Ρ
Ρ
Rho
ί
σ
Sigma
τ
τ
Tau
ν
υ
Ypsilon
φ
Ψ
Phi
χ
Χ
Chi
ψ
Ψ
Psi
Ω
ω
Omega
771
Literaturverzeichnis
4
LITERATURVERZEICHNIS
1. Afifi, A.A./Elashoff, R.M.{1969): Multivariate two sample tests with dichotomous and continuous variables in the location model. Annals of Mathematical Statistics, vol.40, p.290-298. 2. Ahrens, Η.J.(1974): Multidimensionale
Skalierung.
3. Ahrens, Η./Läuter, J.(1981): Mehrdimensionale Verlag, Berlin. 4. Albert, A.(1972): Regression mic Press, New York.
Beltz, Weinheim.
Varianzanalyse.
and the Moore-Penrose
5. Amemiya, Τ.(1981): Qualitative response models: Economic Literature, vol.XIX, p.1483-1536. 6. Anderson, T.W.(1958): An introduction lysis. Wiley & Sons, New York.
pseudoinverse.
A survey.
to multivariate
7. Andrews, D.F.(1972): Plots of high-dimensional p.125-136.
AkademieAcade-
Journal of
statistical
ana-
data. Biometrics, vol.28,
8. Andrews, D.F./Bickel, P.J./Hampel, F.R./Huber, P.J./Rogers, W.H./Tukey, J.W.(1972): Robust estimates of location: Survey and advances. Princeton University Press, Princeton, New Jersey. 9. Bahrenberg, G./Giese, Ε.(1975): Statistische in der Geographie.
Methoden
und ihre
Anwendung
Teubner, Stuttgart.
10. Bamberg, G./Baur, F.(1980): Statistik.
Oldenbourg, München.
11. Bamberg, G./Rauhut, Β.(1972): Lineare Regression bei alternativen Schadensfunktionen. Operations Research Verfahren, vol.XII, p.1-10. 12. Bamberg, G./Schittko, U.(1979): Einführung Stuttgart.
in die Ökonometrie.
Fischer,
13. Bargmann, R.E.(1955): Signifikanzuntersuchungen der einfachen Struktur in der Faktoren-Analyse. Mitteilungsblatt für die Mathematische Statistik, vol.7, p.1-24. 14. Bargmann, R.E./Baker, F.D.(1977): Α rninimax approach to component analysis. Proceedings of the Symposium on Applied Statistics, Dayton, p.55-69. 15. Bargmann, R.E./Chang, J.C.(1972): Internal multi-dimensional scaling of categorical variables. Themis Technical Report 34, University of Georgia, Athens, Georgia. 16. Bargmann, R.E./Kundert, Κ.R.(1972): Tools of analysis for pattern recognition. Themis Report 22, University of Georgia, Athens, Georgia. 17. Bargmann, R.E./Schünemeyer, J.Η.(1978): Maximum eccentricity as a union -intersection test statistic in multivariate analysis. Journal of Multivariate Analysis, vol.8, p.268-273. 18. Barnett, V.(1981): Interpreting ster.
multivariate
data. W i l e y & S o n s , Chiche-
19. Bartlett, M.S.(1951): A further note on tests of significance analysis. British Journal of Psychology, vol.4, p.1-2. 20. Beals, R./Krantz, D.H./Tversky, A.(1968): Foundations of nal scaling. Psychological Review, vol.75, p.127-142. 21. Beckmann, M.J./Künzi, Η.P.(1973): Mathematik ger, Berlin.
für Ökonomen
in
factor
multidimensioI, II. Sprin-
772
Literaturverzeichnis
22. Ben-Israel, A./Greville, T.N.E.(1980): Generalized applications. Krieger, New York.
inverses:
Theory
and
23. Bennett, J.F./Hayes, W.L.(1960): Multidimensional Unfolding: Determining the dimensionality of ranked preference data. Psychometrika, vol.25, p.27-43. 24. Bleymüller, J./Gehlert, G./GUIicher, Η.(1983): Statistik wissenschaftler.
für
Wirtschafts-
Vahlen, München.
25. Blum, E./Oettli, W.(1975): Mathematische 26. Bock, H.H.(1973): Automatische Göttingen.
Optimierung.
Klassifikation.
Springer, Berlin.
Vandenhoeck&Ruprecht,
27. Bock, H.H.(1980): Explorative Datenanalyse. In: Koller, S./Reichertz, P.L./überla, K. (eds), Explorative Datenanalyse, Springer, Berlin, p.6-37. 28. Bock, H.H.(1983): Statistische Testverfahren im Rahmen der lyse. Studien zur Klassifikation, vol.13, p.161-176. 29. Borg, 1.(1981): Anwendungsorientierte Springer, Berlin. 30. Bosch, K.(1982): Mathematik München.
multidimensional
Clusterana-
Skalierung.
für Wirtschaftswissenschaftler.
31. Box, G.E.P./Jenkins , G.Μ.(1976): Time series analysis, control. Holden-Day, San Francisco. 32. Cailliez, F./Pages, J.-P.(1976): Introduction SMASH, Paris.
Oldenbourg,
forecasting
a l'analyse
des
and
donnees.
33. Chang, C.L./Lee, R.C.T.(1973): A heuristic relaxation method for non -linear mapping in cluster analysis. IEEE Transactions on Systems, Man and Cybernetics, vol.SMC-2, p.197-200. 34. Chatfield, C.(1975): The analysis of time series, theory and practice. Chapman & Hal 1, London. 35. Chatterjee, S./Price, Β. ( 1977): Regression Sons, New York.
analysis
by example.
WileyJ
36. Chernikova, N.N.(1965): Algorithm for finding a general formula for the non-negative solutions of a system of linear inequalities. U.S.S.R. Computational Mathematics and Mathematical Physics, vol.5, p. 228-233. 37. Chernoff, Η.(1971): The use of faces to represent points in n-dimensional space graphically. Technical Report 71, Department of Statistics, Stanford University, Stanford. 38. Chernoff, Η.(1973): The use of faces to represent points in k-dimensional space graphically. Journal of the American Statistical Association, vol.68, p.361-368. 39. Coombs, C.H. (1964): A theory of data. W i l e y & S o n s , New York. 40. Coombs, C.H./Dawes, R.M./Tversky, A.(1975): Mathematische Beltz, Weinheim. 41. Cormack, R.Μ.(1971): A review
of classification.
Psychologie.
Journal of the Royal
Statistical Society, vol.A134, p.321-367. 42. Cox, D.R.( 1970): The analysis
of binary data. Methuen, New York.
43. Cox, N.R.(1974): Estimation of the correlation between a continuous a discrete variable. Biometrics, vol.30, p.171-178.
and
44. Cremers, H./Fieger, W.(1983a): Gleichmäßig beste Schätzfunktionen und Normalverteilungsannahme im Linearen Modell bei konvexen Schadens-
773
Literaturverzeichnis
funktionen.
Methods of Operations Research, vol.47, p.15-27.
45. Cremers, H./Fieger, W.(1983b): Äquivariante Sahätzfunktionen und Normalverteilungsannahme im Linearen Modell. In: Bühler, W./Fleischmann, B. /Schuster, K.-P./Streitferdt, L./Zander, H. (eds), Operations Research Proceedings 1982, Springer, Berlin, p.551-557. 46. Daling, J.R./Tamura, Η.(1970): Use of orthogonal factors for of variables in a regression equation - an illustration. Statistics, vol.9, p.260-268. 47. David, F.N.(1954): Tables
of the correlation
coefficient.
selection Applied
Cambridge Uni-
versity Press, London. 48. Davison, M.L.(1983): Multidimensional
scaling.
W i l e y & S o n s , New York.
49. Degens, P.O.(1978): Clusteranalyse auf topologisch-maßtheoretischer Grundlage. Dissertation, Universität München, München. 50. Degens, P.O.(1983): Hierarchische Clusteranalyse; Approximation und Agglomeration. Studien zur Klassifikation, vol.13, p.189-202. 51. De Leeuw, J./Heiser, W.(1980): Multidimensional scaling with restrictions on the configuration. In: Krishnaiah, P.R. (ed), Multivariate Analysis V, North-Holland, Amsterdam, p.501-522. 52. De Leeuw, J./Young, F.W./Takane, Y.(1976): Regression with qualitative and quantitative variables: An alternating least squares method with optimal scaling features. Psychometrika, vol.41, p.505-529. 53. Dinges, Η./Rost, Η.(1982): Prinzipien
der Stochastik.
Teubner, Stuttgart.
54. Don, F.J.H./Magnus, J.R.(1980): On the unbiasedness of iterated GLS estimators. Communications in Statistics, vol.A9, p.519-527. 55. Draper, Ν.R./Smith, Η.(1981): Applied New York.
regression
56. Drygas, Η.(1970): The coordinate-free tion. Springer, New York.
approach
57. Drygas, H.(1978): Uber multidimensional vol.19, p.63-66.
analysis.
to Gauss-Markov
Skalierung.
58. Dunst, Κ.Η.(1979): Portfolio Management: Konzeption Unternehmensplanung. De Gruyter, Berlin. 59. Eberl, W./Möschlin, 0.(1982): Mathematische lin.
Wiley&Sons, estima-
Statistische für die
Statistik.
Hefte,
strategische
De Gruyter, Ber-
60. Elpelt, B.(1983): Invariante generalisierte quadratische Schätzfunktionen in multivariaten Varianzkomponentenmodellen. Dissertation, Universität Dortmund, Dortmund. 61. Elpelt, Β.(1984): Uber verallgemeinerte MINQ-Schätzungen in multivariaten Varianzkomponentenmodellen. Zeitschrift für Angewandte Mathematik und Mechanik, vol.64, p.328-330. 62. Elpelt, B./Härtung, J.(1982a): Skalierung in multidimensionalen Kontingenztafeln und Strukturanalyse multivariater Daten - Eine anwendungsorientierte Darstellung. Forschungsbericht, Universität Dortmund, Dortmund. 63. Elpelt, B./Härtung, J.(1982b): Zur Fehleranalyse bei der Probenentnahme aus Schüttgütern. Qualität und Zuverlässigkeit, vol.27, p.225-229. 64. Elpelt, B./Härtung, J.(1983a): Zum Schätzen fester und zufälliger Effekte in Gemischten Linearen Modellen. EDV in Medizin und Biologie, vol.14, p.7-12.
774
Literaturverzeichnis
65. Elpelt, Β./Härtung, J.(1983b): Mixed exterior-interior penalty methods revisited. Methods of Operations Research, vol.47, p.29-37. 66. Elpelt, Β./Härtung, J.(1984): On the estimation of parameters in general linear regression models. In: Hammer, G./Pallaschke, D. (eds), Contributions to Mathematical Economics and Operations Research, Athenäum, Königstein/Taunus. 67. Elpelt, Β./Härtung, J.(1985): Diskrete Regression mittels Skalierung. Zeitschrift für Angewandte Mathematik und Mechanik, vol.65, p.303-304. 68. Escofier-Cordier, Β.(1969): L'analyse faatorielle des correspondences. Cahiers du Bureau Universitaire de Recherche Op§rationelle, Institut Statistique, Universite de' Paris 13, Paris, p.25-59. 69. Everitt, Β.(1978): Graphical -Holland, New York.
techniques for multivariate
70. Ezekiel, M.(1930): Methods of correlation York.
analysis.
71. Fahrmeir, L./Hamerle, A.(1984): Multivariate Gruyter, Berlin.
data. North
Wiley & Sons, New
statistische
Verfahren.
72. Farkas, J.(1902): über die Theorie der einfachen Ungleichungen. für die reine und angewandte Mathematik, vol.124, p.1-27. 73. Fechner, G.Τ.(1860): Elemente zig.
der Psychophysik.
74. Fienberg, S.E.(1977): The analysis
De
Journal
Breitkopf & Härtel, Leip-
of cross-classified
categorical
data.
The MIT Press, Cambridge, Massachusetts. 75. Finney, D.(1971): Probit analysis.
Cambridge University Press, London.
76. Fisher, R.A.(1936): The use of multiple measurement blems. Annals of Eugenics, vol.7, p.179-188. 77. Fisher, R.A.(1940): The precision Eugenics, vol.10, p.422-429.
of discriminant
in taxonomic
functions.
pro-
Annals of
78. Fletcher, R./Powell, M.J.D.(1963): A rapidly convergent descent for minimization. Computer Journal, vol.6, p.163-168.
method
79. Flury, B./Riedwyl, Η.(1981): Graphical representation of multivariate data by means of asymmetrical faces. Journal of the American Statistical Association, vol.76, p.757-765. 80. Flury, B./Riedwyl, Η.(1983): Angewandte Stuttgart.
multivariate
Statistik.
Fischer,
81. Flury, B./Riedwyl, Η.{1984): Some applications of asymmetrical faces. Technical Report 11, Institut für Mathematische Statistik und Versicherungsieh re der Universität Bern, Bern. 82. Frohn, J.(1980): Grundausbildung
in Ökonometrie.
Springer, Berlin.
83. Fujicoshi, Y.(1974): The likelihood-ratio test for the dimensionality of regression coefficients. Journal of Multivariate Analysis, vol.4, p. 327-340. 84. Gabriel, K.R.{1971): The biplot graphic display of matrices with applications to principal component analysis. Biometrika, vol.58, p.453-467. 85. Gänsler, P./Stute, W.(1977): Wahrscheinlichkeitstheorie. lin. 86. Galton, F.(1889): Natural inheritance.
Macmillan, London.
Springer, Ber-
775
Literaturverzeichnis
87. Glyn, W.J./Muirhead, R.J.(1978): Inference in canonical correlation analysis. Journal of Multivariate Analysis, vol.8, p.468-478. 88. Gnanadesikan, R.(1977): Methods for statistical data analysis variate observations. Wiley & Sons, New York. 89. Goldstein, M./Dillon, W.R.(1978): Discrete Wiley & Sons, New York.
discriminant
of
multi-
analysis.
90. Gower, J.C.(1966): Some distance properties of latent root and methods used in multivariate analysis. Biometrika, vol.53, p.325-388.
vector
91. Gray, L.N./Williams, J.S.(1975): Goodman and Kruskal's tau b: Multiple and partial analogs. Proceedings of the Social Statistics Section of the American Statistical Association 1975, p.444-448. 92. Graybill, F.A.(1976): Theory and application of the linear model. bury Press, North Scituate, Massachusetts. 93. Graybill, F.A.(1983): Matrices and its applications Wadsworth, Belmont, California.
in
Dux-
Statistics.
94. Green, P.E./Carmone, F.J.(1970): Marketing research applications of nonmetric scaling methods. In: Romney, A.K./Shepard, R.N./Nerlove, S.B. (eds), Multidimensional scaling; theory and applications II, Seminar Press, New York, p.183-210. 95. Green, P.E./Rao, V.R.(1972): Applied Rinehart& Winston, New York.
multidimensional
96. Großmann, C./Kleinmichel, Η.(1976): Verfahren mierung. Teubner, Leipzig.
scaling.
Holt,
der nichtlinearen
Opti-
97. Grubbs, F.E.(1948): On estimating precision of measuring instruments and product variability. Journal of the American Statistical Association, vol.43, p.243-264. 98. Grubbs, F.E.(1973): Errors of measurement, Precision, Accuracy and the statistical comparison of measuring instruments. Technometrics , vol.15, p.53-66. 99. Gruber, J.(1968): ökonometrische Modelle des Bau und Interpretation. Parey, Hamburg.
Cowles-Commission-Typs:
100. Guttman, L.(1941): The quantification of a class of attributes: A theory and method of scale construction. In: Horst, P. (ed), The prediction of personal adjustment, Social Science Research Council, Bulletin 48, New York, p.251-364. 101. Habermann, S.J.(1978): Analysis Press, New York.
of qualitative
data 1,11.
Academic
102. Hamdan, M.A.(1970): The equivalence of tetrachoric and maximum likelihood estimates of ρ in 2x2 tables. Biometrika, vol.57, p.212-215. 103. Hand, D.J.(1981): Discrimination
and classification.
W i l e y & S o n s , New
York. 104. Hannan, E.J.(1970): Multiple 105. Harman, H.H.(1976): Modern Chicago.
time series.
factor
106. Hartigan, J.A.(1975): Clustering
W i l e y & S o n s , New York.
analysis. algorithms.
University of Chicago Press, W i l e y & S o n s , New York.
107. Härtung, J. (1976): On a method for computing pseudoinverses. In: Oettli, W./Ritter, Κ. (eds), Optimization and Operations Research, Springer, Berlin, p.116-125.
776
Literaturverzeichnis
108. Härtung, J.(1977a): Zur Darstellung pseudoinverser der Mathematik, vol.XXVIII, p.200-208.
Operatoren.
Archiv
109. Härtung, J.(1977b): Zur Optimalität von Sahätzungen in linearen Regressionsmodellen. Zeitschrift für Angewandte Mathematik und Mechanik, vol.57, p.328-329. 110. Härtung, J.(1978a): Zur Verwendung von Vorinformation in der Regressionsanalyse. Operations Research Verfahren, vol.XXIX, p.550-558. 111. Härtung, J.(1978b): Uber ein duales Verfahren für lineare Approximationen und dessen statistische Anwendung. Zeitschrift für Angewandte Mathematik und Mechanik, vol.58, p.475-477. 112. Härtung, J.(1978c): A stable interior penalty method for convex mal problems. Numerische Mathematik, vol.29, p.149-158.
extre-
113. Härtung, J.(1978d): Minimum norm solutions of convex programs. In: Henn, R./Korte, B./Oettli, W. (eds), Optimization and Operations Research, Springer, Berlin, p.127-135. 114. Härtung, J.(1979): A note on restricted pseudoinverses. on Mathematical Analysis, vol.10, p.266-273.
SIAM Journal
115. Härtung, J.(1980): On exponential penalty function methods. Mathematische Operationsforschung und Statistik, Series Optimization, vol.11, p.71-84. 116. Härtung, J.(1981): Non-negative minimum biased invariant estimation in variance component models. Annals of Statistics, vol.9, p.278-292. 117. Härtung, J.(1982a): On two-stage minimax Mathematics, vol.102, p.355-368.
problems.
118. Härtung, J.(1982b): An extension of SION's application to a method for constrained Mathematics, vol.103, p.401-408.
Pacific Journal
of
minimax theorem with an games. Pacific Journal of
119. Härtung, J./Elpelt, B./Klösener, Κ.-Η.(1982): Statistik: Lehr- und Handbuch der angewandten Statistik. Oldenbourg, München (2.Auflage 1984, 3.Auflage 1985, 4.Auflage 1986). 120. Härtung, J./Heine, Β.(1984): Schätzung der Varianz von Grubbs'Schätzern für die Präzision von Meßinstrumenten. Allgemeines Statistisches Archiv, vol.68, p.257-272. 121. Härtung, J./Voet, B.(1984): Zur Gütebeurteilung von Varianzkomponentenschätzungen. Zeitschrift für Angewandte Mathematik und Mechanik, vol.64, p.332-334. 122. Härtung, J./Werner, H.J.(1980): Zur Verwendung der restringierten Moore-Penrose Inversen beim Testen von linearen Hypothesen. Zeitschrift für Angewandte Mathematik und Mechanik, vol.60, p.344-346. 123. Härtung, J./Werner, H.J.(1983): Zum Auswerten unbalanzierter EDV in Medizin und Biologie, vol.14, p.13-18.
Daten.
124. Härtung, J./Werner, Η.J.(1984): Hypothesenprüfung im restringierten linearen Modell: Theorie und Anwendungen. V a n d e n h o e c k & Ruprecht, Göttingen. 125. Harville, D.A.(1976): Extension of the Gauss-Markov theorem to include the estimation of random effects. Annals of Statistics, vol.4, p.384-395. 126. Harville, D.A.(1979): Some useful representations for constrained mixed-model estimation. Journal of the American Statistical Association, vol.74, p.200-206.
777
Literaturverzeichnis
127. Haux, R.(1983): Analysis of profiles based on ordinal classification functions and rank tests. Prepint 208, Sonderforschungsbereich 123 "Stochastische Mathematische Modelle", Universität Heidelberg, Heidelberg. 128. Hawkins, D.M.(1973): On the investigations of alternative regressions by principal component analysis. Applied Statistics, vol.22, p.275-286. 129. Hebbel, Η.(1983): Lineare Systeme, Analysen, Schätzungen und Prognosen (unter Verwendung von Splinefunktionen). Habilitationsschrift, Universität Dortmund, Dortmund. 130. Heck, D.L.(1960): Charts of some upper percentage points of the distribution of the largest characteristic root. Annals of Mathematical Statistics, vol.31, p.625-642. 131. Heiler, S.(1980): Robuste Schätzung in linearen Modellen. In: Nowak, Η. /Zentgraf, R. (eds), Medizinische Informatik und Statistik 20 Robuste Verfahren, Springer, Berlin, p.35-55. 132. Heiler, S.(1981): Zeitreihenanalyse heute: Ein Uberblick. Statistisches Archiv, vol.65, p.376-402. 133. Heiler, S.(1982): Zeitreihenanalyse. wissenschaften 36/37, p.582-599.
Allgemeines
Handwörterbuch der Wirtschafts-
134. Henderson, C.R.(1963): Selection index and expected genetic advance. In: Hanson, W.D./Robinson, Η.F. (eds), Statistical genetics and plant breeding, National Academy of Sciences - National Research Council, Washington, Publication 982, p.141-163. 135. Henderson, C.R.(1975): Best linear unbiased estimation and under a selection model. Biometrics, vol.31, p.423-447.
prediction
136. Henderson, C.R./Kempthorne, O./Searle, S.R./Krosigk, C.M. von(1959): The estimation of environmental and genetic trends from records subject to culling. Biometrics, vol.15, p.192-218. 137. Hildreth, C./Houck, J.P.(1968): Some estimators for a linear model with random effects. Journal of the American Statistical Association, vol.63, p.584-595. 138. Hill, M.0.(1974): Correspondence analysis: A neglected method. Applied Statistics, vol.23, p.340-354. 139. Himmelblau, D.M.(1972): Applied New York. 140. Hinderer, Κ.(1975): Grundbegriffe Springer, Berlin.
nonlinear der
141. Hinterhuber, H.H.(1980): Strategische Berlin.
programming.
multivariate McGraw-Hill,
Wahrscheinlichkeitstheorie. Unternehmensführung.
De Gruyter,
142. Hirschfeld, H.0.(1935): A connection between correlation and contingency. Cambridge Philosophical Society Proceedings, vol.31, p.520-524. 143. Hoerl , A.E./Kennard, R.W.(1970): Ridge regression: for non-orthogonal
problems.
144. Holm, K.(1975): Die Befragung
Biased
estimation
Technometrics, vol.12, p.55-67. 3. Francke, München.
145. Holm, S.{1979): A simple sequentially rejective multiple Scandinavian Journal of Statistics, vol.6, p.65-70.
test
procedure.
146. Horst, R.(1975): Eine Bemerkung zur entscheidungstheoretischen Betrachtung des klassischen linearen Regressionsmodells. Operations Research Verfahren, vol.XX, p.44-48.
778
Literaturverzeichnis
147. Hotelling, Η.(1936): Relations ka, vol.28, p.321-377. 148. Huber, P.J.(1973): Robust Monte
Carlo.
between
regression:
two sets of variates. Asymptotios,
Biometri-
conjectures
and
Annals of Statistics, vol.1, p.799-821.
149. Huber, P.J.(1981): Robust
statistics.
150. Humak, K.M.S.(1977): Statistische -Verlag, Berlin.
W i l e y & S o n s , New York.
Methoden
der Modellbildung.
Akademie
151. Immich, H./Sonnemann, Ε. (1974): Which statistical models can be used in practice for the comparison of curves over a few time-dependßnt measure points? Biometrie - Praximetrie, vol.14, p.43-52. 152. Infante, A.M.(1982): Punktschätzung von Streuungsparametern bei balancierten gemischten Modellen. Dissertation, Universität Dortmund, Dortmund. 153. Jambu, Μ.(1978): Classification Dunod, Paris.
automatique
154. Jambu, M./Lebeaux, M.-0.(1983): Cluster North-Holland, Amsterdam.
pour
analysis
155. Jardine, N./Sibson, R. (1971): Mathematical York.
des
and data
analysis.
taxonomy.
156. Jockel, K.-H.(1982): Iterierte Aitken-Schätzer. sches Archiv, vol.66, p.361-375. 157. Joreskog, K.G.(1963): Statistical technique and its foundations.
l'analyse
donnees.
W i l e y & S o n s , New
Allgemeines
Statisti-
estimation in factor analysis: A l m q v i s t & W i k s e i 1 , Stockholm.
158. Judge, G.G./Griffiths, W.E./Hill, R.C./Lee, T.-C.(1980): The and practice of econometrics. W i l e y & S o n s , New York.
A
new
theory
159. Kaiser, H.F.(1958): The varimax criterion for analytic factor analysis. Psychometrika, vol.23, p.187-200.
rotation
160. Kaiser, H.F./Caffrey, J.(1965): Alpha vol.30, p.1-14.
Psychometrika,
factor
analysis.
in
161. Kakwani, Ν.C.(1967): The unbiasedness of Zellner's seemingly unrelated regression equation estimators. Journal of the American Statistical Association, vol.62, p.141-142. 162. Kail, P.(1976): Mathematische
Methoden
des Operations
Research.
Teub-
ner, Stuttgart. 163. Kail, P.(1982): Analysis
für Ökonomen.
Teubner, Stuttgart.
164. Keller, W.J./Wansbeck, Τ.(1983): Multivariate methods for quantitative and qualitative data. Journal of Econometrics, vol.22, p.91-111. 165. Ketellapper, R.H./Ronner, Α.Ε.(1984): Are robust estimation methods useful in the structural errors-in-variables models? Metrika, vol.31, p.33-41. 166. Kirsch, A.(1978): Bemerkung zu Η. Drygas "Uber multidimensionale lierung". Statistische Hefte, vol.19, p.211-212.
Ska-
167. Kleiner, B./Hartigan, J.Α.(1981): Representing points in many dimensions by trees and castles. Journal of the American Statistical Association, vol.76, p.260-269. 168. Klösener, K.-H.(1983): Präzisionsbestimmung von Meßinstrumenten bei zerstörenden Prüfungen. Dissertation, Universität Dortmund, Dortmund. 169. Krafft, 0.(1978): Lineare statistische Modelle pläne. Vandenhoeck& Ruprecht, Göttingen.
und optimale
Versuchs-
779
Literaturverzeichnis
170. Krantz, D.H./Luce, R.D./Suppes, P./Tversky, A.(1971): Foundations measurement I. Academic Press, New York.
of
171. Krauth, J.(1973): Nichtparametrische Ansätze zur Auswertung von laufskurven. Biometrische Zeitschrift, vol.15, p.557-567. 172. Krauth, J.(1980): Skalierungsprobleme.
Ver-
In: Kopeke, W./Überla, K. (eds),
Biometrie - heute und morgen, Springer, Berlin, p.202-233. 173. Krelle, W.(1969): Produktionstheorie. 174. Kres, H.(1975): Statistische ger, Berlin.
Tafeln
Mater, Tübingen. zur multivariaten
175. Kruskal, J.B.(1964): Nonmetrio multidimensional method. Psychometrika, vol.29, p.115-129.
Analysis.
scaling:
176. Kruskal, J.B./Shepard, R.N.(1974): A nonmetric variety tor analysis. Psychometrika, vol.39, p.123-157. 177. Kruskal, J.B./Wish, Μ.(1978): Multidimensional 178. Krzanowski, W.J.(1975): binary and continuous Association, vol.70, 179. Krzanowski, W.J.(1980): bles in discriminant
scaling.
A
Sprin-
numerical
of linear
fac-
Sage, London.
Discrimination and classification using both variables. Journal of the American Statistical p.782-790. Mixtures of continuous and categorical variaanalysis. Biometrics, vol.36, p.493-499.
180. Kshirsagar, A.M.(1972): Multivariate 181. KUchler, M.(1979): Multivariate 182. Kühn, W. (1976): Einführung hardt, München.
Analysis.
Decker, New York.
Analyseverfahren.
Teubner, Stuttgart.
in die multidimensional
183. Lachenbruch, P.A.(1975): Discriminant
analysis.
Skalierung.
Rein-
Hafner Press, New York.
184. Lancaster, Η.0.(1957): Some properties of the bivariate normal distribution considered in the form of a contingency table. Biometrika, vol.44, p.289-291. 185. Lancaster, H.O./Hamdan, M.A.(1964): Estimation of the correlation coefficient in contingency tables with possibly nonmetric characters. Psychometrika, vol.29, p.383-391. 186. Lawley, D.N./Maxwel1, A.E.(1963): Factor thod. Butterworth, London.
analysis
as a statistical
me-
187. Lehmacher, W.(1980): Nichtparametrischer Vergleich zweier Stichproben von Verlaufskurven. In: Schulz, W./Hautzinger, M. (eds), Klinische Psychologie und Psychotherapie, Gesellschaft für wissenschaftliche Gesprächstherapie. 188. Lehner, P.E./Noma, Ε.(1980): A new solution to the problem of finding all numerical solutions to ordered metric structures. Psychometrika, vol.45, p.135-137. 189. Lienert, G.A.(1978): Verteilungsfreie Hain, Meisenheim.
Methoden
der Bi osvQi'Cst-'i'K J. j. .
190. Liew, C.K.(1976): Inequality constrained least squares estimation. Journal of the American Statistical Association, vol.71, p.746-751. 191. Maddala, G.S.(1983): Limited-dependent and qualitative variables econometrics. Cambridge University Press, Cambridge.
in
192. Magnus, J.R.(1978): Maximum likelihood estimation of the GLS model with unknown parameters in the disturbance covariance matrix. Journal of Econometrics, vol.7, p.281-312.
780
Literaturverzeichnis
193. Mardia, Κ.V.(1978): Some properties of classical multidimensional ling. Communications in Statistics, vol.A7, p.1233-1241. 194. Mardia, K.V./Kent, J.T./Bibby, J.M.(1979): Multivariate Academic Press, New York.
sca-
analysis.
195. Massy, W.F.{1965): Principal component regression in exploratory statistical research. Journal of the American Statistical Association, vol.60, p.234-256. 196. Mathar, R.(1983): Bestapproximierende euklidische Studien zur Klassifikation, vol.13, p.227-229.
Distanzmatrizen.
197. Maung, Κ.(1941): Measurement of association in a contingency table with special reference to the pigmentation of hair and eye colours of scottish school children. Annals of Eugenics, vol.11,' p.189-223. 198. McCullagh, P./Neider, J.A.(1983): Generalized Hall, London.
linear
models.
Chapman &
199. McFadden, D.{1974): Conditional logit analysis of qualitative choice behaviour. In: Zarembka, P. (ed), Frontiers in econometrics, Academic Press, New York, p.105-142. 200. McFadden, D.(1976): Quantal choice analysis: A survey. nomic and Social Measurement, vol.5, p.363-390.
Annals of Eco-
201. Morgenstern, D.(1968): Einführung in die Wahrscheinlichkeitsrechnung und mathematische Statistik. Springer, Berlin. 202. Morrison, D.F.(1976): Multivariate New York. 203. Muirhead, R.J.(1982): Aspects Wiley & Sons, New York.
statistical
of multivariate
204. Nagao, Η.(1973): On some test criteria of Statistics, vol.1, p.700-709.
methods.
McGraw-Hill,
statistical
theory.
for covariance
matrix.
Annals
205. Nishisato, S.(1980): Analysis of categorical data: Dual scaling its applications. University of Toronto Press, Toronto. 206. Oberhofer,.W.(1978): Lineare Oldenbourg, München.
Algebra
für
and
Wirtschaftswissenschaftler.
207. Oberhofer, W./Kmenta, J.(1974): A general procedure for obtaining maximum likelihood estimators in generalized regression models. Econometrica, vol.42, p.579-590. 208. Olkin, I./Tate, R.F.(1961): Multivariate correlation models with mixed discrete and continuous variables. Annals of Mathematical Statistics, vol.32, p.448-465. 209. Olsson, U.{1979): Maximum likelihood estimation of the polychoric correlation coefficient. Psychometrika, vol.44, p.443-460. 210. Olsson, U./Drasgow, F./Dorans, N.J.(1982): The polyserial coefficient. Psychometrika, vol.47, p.337-347. 211. Opitz, 0.(1978): Numerische
Taxonomie
in der Marktforschung.
correlation Vahlen,
München. 212. Opitz, 0.(1980): Numerische
Taxonomie.
Fischer, Stuttgart.
213. Owen, D.B.(1962): Handbook of statistical Reading, Massachusetts.
tables.
Addison Wesley,
214. Pearson, K.(1901): Mathematical contributions to the theory of evolution, VII: On the correlation of characters not quantitatively measurable. Philosophical Transactions of the Royal Society of London, vol,A195, p.1-47.
781
Literaturverzeichnis
215. Pearson, Κ.(1909): On a new method for determining the correlation between a measured character A and a character B. Biorretrika, vol.7, p.96. 216. Pearson, K./Lee, A.(1903): On the laws of inheritance
in man.
Biome-
trika, vol.2, p.357-462. 217. Pfanzagl, J.(1972): Theory
of measurement.
218. Pfanzagl, J.(1974): Statistische - De Gruyter, Berlin.
Physica, Würzburg.
Methodenlehre
II. Sammlung
Göschen
219. Pflaumer, Ρ.(1983): Innovative Marketing-Strategien. In: Deutsche Vereinigung zur Förderung der Weiterbildung von Führungskräften (ed), Innovationsmanagement in Mittelbetrieben, Anregungen und Fallstudien, Köln, p.178-195. 220. Phillips, J.P.N.(1971): A note on the representation of ordered metric scaling. The British Journal of Mathematical & Statistical Psychology, vol.24, p.239-250. 221. Plachky, D./Baringhaus, L./Schmitz, Ν.(1978): Stochastik sche Verlagsgesellschaft, Wiesbaden.
I. Akademi-
222. Polak, E./Ribiere, G. (1969): Note sur la convergence de methodes de directions conjugees. Revue Internationale de la Recherche Operationelle, vol.16, p.35-43. 223. Press, S.J.(1972): Applied ston, New York.
multivariate
analysis.
Holt, R i n e h a r t & W i n -
224. Pukelsheim, F.(1981): On the existence of unbiased non-negative estimates of variance-covariance components. Annals of Statistics, vol.9, p.293-299. 225. Rao, C.R.(1955): Estimation and tests of significance lysis. Psychometrika, vol.20, p.93-111,
in factor
226. Rao, C.R.(1972): Estimation of variance and covariance linear models. Journal of the American Statistical vol.67, p.112-115.
components in Association,
227. Rao, C.R.(1973): Linear
statistical
inference
and its
ana-
applications.
Wiley & Sons, New York. 228. Revenstorf, Τ.(1980): Faktorenanalyse.
Kohlhammer, Stuttgart.
229. Riedwyl, Η.(1975): Kurvenanalyse: Verfahren sur Beurteilung der Lage oder Steigung von Kurvenscharen. Unveröffentlichtes Manuskript. 230. Riedwyl, Η.( 1977): Verlaufskurven und ihre Interpretation. Unveröffentlichtes Manuskript, Seminar "Aktuelle Biometrische Methoden in Naturwissenschaft und Medizin" der Österreichisch-Schweizerischen Region der Internationalen Biometrischen Gesellschaft. 231. Riedwyl, H./Schuepbacn , Μ.(1983): Siebdiagramme: Graphische Darstellung von Kontingenztafeln. Technischer Bericht 12, Institut für Mathematische Statistik und Versicherungslehre der Universität Bern, Bern. 232. Rinne, H.(1976): Ökonometrie.
Kohl hammer, Stuttgart.
233. Romney, A.K./Shepard, R.N./Nerlove, S.B.(1972): Multidimensional scaling theory, theory and applications in the behavorial sciences II. Seminar Press, New York. 234. Ronning, G.(1980): Logit, Tobit and Markov chains: Three different approaches to the analysis of aggregated tendency survey data. In: Striegel, W. (ed), Business cycle analysis, Proceedings of the fourteenth CIRET-Conference.
782
Literaturverzeichnis
235. Roy, S.Ν.(1957): Some aspects New York.
of multivariate
analysis.
Wiley&Sons,
236. Sammon, J.W.(1969): A non-linear mapping for data structure IEEE Transactions on computers, vol.C18, p.401-409. 237. Schach, S.(1982): An elementary method for the statistical growth curves. Metrika, vol.29, p.271-282. 238. Schach, S./Schäfer, Τ.(1978): RegressionsBerlin.
und
analysis. analysis
Varianzanalyse.
of
Springer,
239. Schaich, E./Köhle, D./Schweitzer, W./Wegner, F.(1979): Statistik Volkswirte, Betriebswirte und Soziologen I. Vahlen, München.
für
240. Schaich, E./Köhle, D./Schweitzer, W./Wegner, F.(1982): Statistik
für
Volkswirte,
Betriebswirte
und Soziologen
241. Scheffe, H.(1959): The analysis
of variance.
II.
Vahlen, München.
W i l e y & S o n s , New York.
242. Schiffman, S.S./Reynolds, M.L./Young, F.W.(1981): Introduction multidimensional scaling. Academic Press, New York. 243. Schmetterer, L.(1966): Einführung
in die mathematische
to
Statistik.
Springer, Berlin. 244. Schneeweiß, Η.(1971): Ökonometrie. 245. Schneeweiß, Η.(1976): Consistent in the variables.
Physica, Würzburg. estimation
of a regression
with
errors
Metrika, vol.23, p.101-115.
246. Schönfeld, P.(1969): Methoden
der Ökonometrie
I. Vahlen, München.
247. Schönfeld, P.(1971): Methoden der Ökonometrie II. Vahlen, München. 248. Schönfeld, Ρ.(1978): On the relationship between different estimation principles in linear regression models. Quantitative Wirtschaftsforschung, vol.40, p.617-625. 249. Schuchard-Fischer, C./Backhaus, Κ./Hümme, U./Lohrberg, W./Plinke, W./ Schreiner, W.(1980): Multivariate 250. Searle, S. R. (1971): Linear
models.
Analysemethoden.
Springer, Berlin.
W i l e y & S o n s , New York.
251. Seber, G.A.F. (1977): Linear regression analysis. W i l e y & S o n s , New York. 252. Shepard, R.N./Caroll, J.D.(1966): Parametric representation of nonlinear data structures. In: Krishnaiah, P.R. (ed), Multivariate Analysis, Academic Press, New York, p.561-592. 253. Singh, B./Nagar, A.L./Choudry, Ν.K.(1976): On the estimation tural change: A generalization of the random coefficients model. International Economic Review, vol.17, p.340-361. 254. Sitterberg, G.(1978): Zur Anwendung fahren.
hierarchischer
of strucregression
Klassifikationsver-
Statistische Hefte, vol.19, p.231-246.
255. Sixtl, F.(1967): Meßmethoden
der Psychologie.
256. Skarabis, Η.(1970): Mathematische Diskrimination
Grundlagen
und Klassifikation.
Beltz, Weinheim. und praktische
257. Spaeth, Η.(1975): Cluster-Analyse-Algorithmen. 258. Spaeth, Η.(1983): Cluster-Formation
der
Oldenbourg, München.
und -Analyse.
Oldenbourg, München.
259. Srivastava, M.S./Khatri, C.G.(1979): An introduction statistics.
Aspekte
Physica, Würzburg.
to
multivariate
North-Holland, Amsterdam.
260. Steinhausen, D./Langer, Κ.(1977): Clusteranalyse.
De Gruyter, Berlin.
261. Stoer, J.(1971): the numerical solution of constrained least-squares problems. SIAM OnJournal on Numerical Analysis, vol.8, p.382-411.
783
Literaturverzeichnis
262. Stoer, J.(1979): Einführung Berlin.
in die numerische
263. Swamy, P.A.V.B.(1971): Statistical inference regression models. Springer, Berlin.
Mathematik. in random
Springer, coefficient
264. Takeuchi, K./Yanai, H./Mukherjee, B.N.(1982): The foundations variate analysis. Wiley Eastern, New Delhi.
of
multi-
265. Thöni, H./Urfer, W.(1976): Zur Schätzung von Wachstumskurven aufgrund wiederholter Messungen am gleichen Individuum. EDV in Medizin und Biologie, vol.7, p.92-95. 266. Thurstone, L.L.(1931): Multiple vol.38, p.406-427.
factor
analysis.
Psychological
Review,
267. Thurstone, L.L.(1947): Multiple
factor
analysis.
University of Chicago
Press, Chicago. 268. Tintner, G.(1960): Handbuch
der Ökonometrie.
269. Torgerson, W.S.(1952): Multidimensional Psychometrika, vol.17, p.401-419. 270. Torgerson, W.S.(1958): Theory York.
Springer, Berlin.
scaling:
and methods
I. theory
of scaling.
and
method.
W i l e y & S o n s , New
271. Trenkler, D./Trenkler, G.(1984): A simulation study comparing some biased estimators in the linear model. Computational Statistics Quarterly, vol.1, p.45-60. 272. Trenkler, G.(1981): Biased estimators in the linear Oelgeschlager, G u n n & H a i n , Meisenheim.
regression
model.
273. T s o , M.K.-S.(1981): Reduced rank regression and canonical analysis. Journal of the Royal Statistical Society, vol.B43, p.183-189. 274. Tversky, A./Krantz, D.H.(1970): The dimensional representation and the metric structure of similarity data. Journal of Mathematical Psychology, vol.7, p.572-596. 275. Tyron, R.C./Bailey, D.E.(1970): Cluster 276. Oberla, K.(1971): Faktorenanalyse.
McGraw-Hill, New York.
Springer, Berlin.
277. Vastenhouw, J.(1962): Relationships Hague, Paris. 278. Ven, A. van der (1980): Einführung
analysis.
between
meanings.
in die Skalierung.
M o u t o n & C o , The Huber, Bern.
279. Verdooren, L.R.(1980): How large is the probability of a variance comvonent to be negative? Technical Note 80-02, Department of Mathematics, Agricultural University of Wageningen, Wageningen. 280. Voet, Β.(1983): Schätz- und Testverfahren bei balancierten Varianzkomponentenmodellen. Dissertation, Universität Dortmund, Dortmund. 281. Voet, B.(1985): Iterierte Schätzer im allgemeinen linearen Modell. Zeitschrift für Angewandte Mathematik und Mechanik, vol.65, p.327-328. 282. Vogel, W.(1970)r Lineares
Optimieren.
Teubner, Leipzig.
283. Waerden, B.L. van der (1971): Mathematische 284. Waerden, B.L. van der (1975): Mathematik für Bibliographisches Institut, Mannheim. 285. Wang, P.C.C.(1978): Graphical Academic Press, New York.
representation
Statistik.
Springer, Berlin.
Naturwissenschaftler. of multivariate
data.
784
Literaturverzeichnis
286. Weber, Ε.(1974): Einführung Jena.
in die Faktorenanalyse.
VEB G. Fischer,
287. Werner, H.J.(1981): On Bose's estimability concept. Zeitschrift für Angewandte Mathematik und Mechanik, vol .61, p.355-356. 288. Werner, Η.J.(1983): Zur besten linearen minimalverzerrten Schätzung im singulären restringierten linearen Modell. Zeitschrift für A n gewandte Mathematik und Mechanik, vol.63, p.423-425. 289. Wilks, S.S.(1935): On the independence buted
statistical
variables.
290. Witting, H.(1979): Mathematische
of k sets of normally
Statistik.
291. Witting, H./Nolle, G.(1970): Angewandte Teubner, Stuttgart.
Teubner, Stuttgart.
Mathematische
292. Yohai, V.J./Garcia, M.S. Ben (1980): Canonical variables predictors. Annals of Statistics, vol.8, p.865-869. 293. Young, F.W.(1981): Quantitative metrika, vol.46, p.357-388.
distri-
Econometrica, vol.3, p.309-326.
analysis
of qualitative
Statistik. as data.
optimal Psycho-
294. Zellner, A./Lee, Τ. (1965): Joint estimation of relationships involving discrete random variables. Northwestern University Press, Evanston, Illinois.
Stichwortverzeichnis
5
785
STICHWORTVERZEICHNIS
Ablehnungsbereich eines Tests 46 absolute -,... Häufigkeit 19 -,... Summenhäufigkeit 20 Absolutglied 82 Abstand -/euklidischer ... 72 -,Tschebyscheffscher ... 72 Abwe ichung -,mittlere absolute ... vom Median 24 Addition von Matrizen 50 -,... von Vektoren 48 adjustiertes Bestimmtheitsmaß 87 Administration 1 agglomeratives Verfahren 474ff, 478f f Agrarwissenschaften 1 Ähnlichkeit -,... von Merkmalen 8 -,... von Objekten 3,443 Shnlichkeitsinformation 377 Aitken-Schätzer 136 allgemeiner Faktor 509 Alpha-Faktorenanalyse 518 a-Quantil 33 -,empirisches ... 597 ALS-Verfahren 275,375,518 alternating least squares 275,375 518 Alternativhypothese 46 analyse des correspondances 275, 369ff Andrews-Plot 610,622ff Anfangspartition 465,478 Anlagenintensität 639ff Annahmebereich eines Tests 46 Anpassung -,Güte der ... 82 Anpassungstest 45 Archäologie 1 arithmetisches Mittel 20f -,Minimumeigenschaft des ... 24 Assoziation 143,207 -,... von Merkmalen 143 Assoziationsmaß 143,206ff Astronomie 1 Aufbereitung -,... komplexer Datensituationen 1 -,... qualitativer Daten 269ff Ausprägung eines Merkmals 2 Ausreißer 90,598 -,multivariater ... 596,602f,676 —,Auffinden von ... 592,602f Auswertung großer Datenmengen 1 average linkage 457,479 -,Rekursionsformel für ... 487
Baby 601 balanciertes Varianzanalysemodell 693 Bargmann-Test 548 -»kritische Werte des ... 549 Baum 610,629ff Bayes-Ansatz im Regressionsmode11 126 Bayes-Modell 126f Bayessche Formel 27 bedingte Logit-Analyse 138 bedingte Wahrscheinlichkeit 26ff Befragung 18 Beliebtheitsskala 381 Bell-Doksum-Test 204f Beobachtung 2 Beobachtungsdaten 3 Bereichsschätzung 3 Beschreibung von Datenmaterial durch Kenngrößen 3 bestes Vorhersagekriterium 174 Bestimmtheitsmaß 82f,145,168 -,adjustiertes ... 87 -,multiples ... 82f,168 Betrag eines Vektors 64 Bewertungskriterium für Klassifikationen 446,454ff Bias 40 Bilanzkennzahlen der chemischen Industrie 639ff Binomialverteilung 29f -,Erwartungswert der ... 33 Median der ... 35 -,Quantile der ... 34f Varianz der ... 37 -»Verteilungsfunktion der ... 29f Bioassay 13lf Biologie 1 bi-partielle Korrelation 4f,143f,186ff -,kanonische ... 190 -,multiple ... 189f —.Schätzer für die ... 189 —,Test für die ... 190 -.Schätzer für die ... 187 -,Test für die ... 188 Bi-Plot 596,605ff -,... -Sonne 608,611,638f -,... -Sun 1,638 biserialer Korrelationskoeffizient 202 -,punkt... 202 bivariate Normalverteilung 67ff Blockexperiment -,einfaches multivariates ... 705ff Blume 610,623,626 Bonferroni-Prinzip 116,661 box 597,628f Box-Plot 596ff Burg 610,63 3ff -,Zinne einer ... 633 —,AufSpaltung der ... 634
786
Stichwortverzeichnis
— , L ä n g e der ... 635 Calibration pattern 290ff cash-cow 601 castle 63 3 centroid 457 charakteristisches Poynom 58f Chemie 1 Chernikova-Algorithmus 421 Chernoff-face 619 χ 2 -Verteilung 44 -, ßuantile der ... 44 -,zentrale ... 44 Choleski-Zerlegung 325 chorischer Korrelationskoeffizient 204 -,poly... 204 -,tetra.. . 204 City-Block-Metrik 72 Cluster 443 Clusteranalyse 8f,443ff -,entscheidungstheoretische Grundlagen der . .. 445 -,... für Merkmale 446,471ff -,theoretische Modelle der ... 445 Verfahren der ... 445ff Cobb-Douglas-Produktionsfunktion 79,114,122 common factor 509 complete linkage 457,479 -,Rekursionsformel für ... 487 conditional logit analysis 138 CORALS 375 Daten -,Gewinnung von ... 2 graphische Repräsentation von multivariaten ... 593ff -,Präferenz... 381,420ff -,Proximitäts... 380,405ff Datenaufbereitung 269ff Datenmaterial 3 -,Beschreibung von ... durch Kenngrößen 3 Datenmatrix 3,70ff -,... für die Stufen einer Kriteriumsvariablen 27 1,309ff -,gemischte ... 71 -,Gewinnung einer ... 3 -,qualitative ... 71 -»quantitative ... 71 -,skalierte ... 298 --,Verfahren in ... 271,290ff,34Iff ^standardisierte ... 507 -,reduzierte ... 298,515 Datenmengen -,Aufbereitung großer ... 1 -,Auswertung großer ... 1 Datensituation 1 Datentypen 7 -,gemischte ... 7 definite Matrix 64
-,negativ ... 64 -,positiv ... 64 Definitheit einer Matrix 64 Dendrogramm 9,450,481,493f -,... mit Güteskala 488f dependentes Verfahren 15 Design -,... 1.Art 720 -,... 2.Art 720 Designmatrix 118,659 -,... des restringierten Multivariaten Linearen Modells 659 -,... zufälliger Effekte 720 Determinante -,... einer quadratischen Matrix 54, 58 -,Kriterium der minimalen ... 273, 322 ,3 3 Iff ,3 58f —,Skalierung nach dem ... 273 ,322, 331ff,358f -,Laplacescher Entwicklungssatz zur Berechnung einer ... 54 Diamant 610,617f diamond 617 Dichte 31 -,... der mehrdimensionalen Normalverteilung 67 -,... der Normalverteilung 31 — , gemeinsame ... 65 Dichtefunktion 31 Dimensionalität 173 disjunkte Ereignisse 25 diskrete Regression 128ff diskrete Regressionsanalyse 4,128ff diskretes Merkmal 19 diskrete Verteilung 30 diskret verteilter Zufallsvektor 65 diskret verteilte Zufallsvariable 30 Diskriminanzanalyse 142,222,240ff, 446,489ff -,Mehrgruppenfall der ... 240,245ff — generalisierte lineare Diskriminanzfunktion im ... 247 — , l i n e a r e Fishersche Diskriminanzfunktion im ... 24 5ff Zuordnung von Objekten mittels ... 240f f -,Zweigruppenfall der ... 240,242ff —,Entscheidungsregel im ... 243ff — generalisierte lineare Diskriminanzfunktion im ... 244f — , l i n e a r e Fishersche Diskriminanzfunktion im ...243ff Diskriminanzfunktion -»generalisierte lineare ... 244f, 24 7 — , . . . im Mehrgruppenfall 247 --,... im Zweigruppenfall 244f -,lineare Fishersche ... 243ff — , . . . im Mehrgruppenfall 245ff — , . . . im Zweigruppenfall 243ff Diskrimination 5,296ff,489ff
Stichwortverzeichnis
n e u e r O b j e k t e in die K l a s s e n e i n e r K l a s s i f i k a t i o n 489ff - , . . . z w i s c h e n d e n Stufen einer K r i t e r i u m s v a r i a b l e n 296ff — , ... a u f g r u n d d e r K o r r e l a t i o n m i t d e r K r i t e r i u m s v a r i a b l e n 296f — , . . . a u f g r u n d d e r K o r r e l a t i o n zur generalisierten linearen Disk r i m i n a n z f u n k t i o n 298 — , . . . a u f g r u n d des P e a r s o n s c h e n K o n t i n g e n z k o e f f i z i e n t e n 297f D i s k r i m i n a t i o n s p u n k t 140f Distanzfunktion - . m o n o t o n e ... 406 Distanz-Gleichung 423,427ff D i s t a n z i n d e x 72 D i s t a n z m a ß 72 D i s t a n z m a t r i x 3.70ff
787
E i n f l u ß v a r i a b l e 656 -,Effekte e i n e r ... 656 --.fester ...'656ff — , z u f ä l l i g e r ... 719ff - , q u a l i t a t i v e ... 656 - . q u a n t i t a t i v e ... 656 E i n h e i t s m a t r i x 50f Einsermatrix 51 E i n s t i c h p r o b e n g a u ß t e s t 47,155 EinStichprobenproblem - . m u l t i v a r i a t e s ... 5 ,116f ,22 1 ,223f f — , K o n f i d e n z i n t e r v a l l für eine M i t t e l w e r t k o m p o n e n t e im . . . 116
-.rangreduzierte Korrelationsmatrix der ... 326 d u r c h s c h n i t t l i c h e r W e r t 20f d y n a m i s c h e r V e r s c h u l d u n g s g r a d 639ff
,simultanes ... 116f — . S c h ä t z e r für d e n M i t t e l w e r t v e k t o r im ... 116,223f — , S c h ä t z e r für die K o v a r i a n z m a t r i x im ... 116,223f — , s i m u l t a n e r Test ü b e r M i t t e l w e r t v e k t o r u n d K o v a r i a n z m a t r i x im ... 238f — , S y m m e t r i e t e s t über d e n M i t t e l w e r t vektor im . . . 228 — , T e s t über den M i t t e l w e r t v e k t o r im ... 225ff ,... bei b e k a n n t e r K o v a r i a n z m a t r i x 225f ,... b e i u n b e k a n n t e r K o v a r i a n z m a trix 227 Einzelrestfaktor 509 E l e m e n t a r e r e i g n i s 25 e m p i r i s c h e K o v a r i a n z 74 empirisches Lagemaß 2Iff e m p i r i s c h e s M o m e n t 40 empirisches S t r e u u n g s m a ß 23ff empirische V a r i a n z 23 empirische V e r t e i l u n g s f u n k t i o n 20 endogene Variable 77,81 Entscheidungsregel· b e i m T e s t e n 46 Ereignis
Effekt 13 - . f e s t e r ... 13f zufälliger ... 13f,118ff - - , n i c h t - z e n t r i e r t e r ... 126 effektive Dosis 131f Eichtafel 290 Eigenkapitalanteil 639ff Eigenkapitalrendite 639ff E i g e n v e k t o r 58f E i g e n w e r t 58f - , E i g e n v e k t o r zu e i n e m ... 58f einfaches m u l t i v a r i a t e s B l o c k e x p e r i m e n t 705ff E i n f a c h s t r u k t u r 10,512ff,54 7ff - , B a r g m a n n - T e s t über die ... 548 — » k r i t i s c h e Werte des ... 549 einfaktorielle multivariate Varianzanalyse 6 58 ,693f f - . b a l a n c i e r t e ... 658,693ff - . u n b a l a n c i e r t e ... 658,700 Einfaktor-Modell 514,559
- . d i s j u n k t e s ... 25 - , E l e m e n t a r . . . 25 - » k o m p l e m e n t ä r e s ... 25 - , s i c h e r e s ... 25 - , u n m ö g l i c h e s ... 25 - , z u f ä l l i g e s ... 25 E r e i g n i s r a u m 25 E r g i e b i g k e i t s g r a d der Produktion 79f Erhebung 2 e r w a r t u n g s t r e u e S c h ä t z f u n k t i o n 39 Erwartungswert - . B e r e c h n u n g von ... 32f - , . . . der B i n o m i a l v e r t e i l u n g 33 - , . . . der N o r m a l V e r t e i l u n g 36 - , . . . der S t a n d a r d n o r m a l v e r t e i l u o g 33 euklidische Metrik 72 e u k l i d i s c h e r A b s t a n d 72 E v o l u t i o n 10 E v o l u t i o n s b a u m 10 exhaustive K l a s s i f i k a t i o n 452ff exogene V a r i a b l e 77,81 Experiment 2
für die S t u f e n einer K r i t e r i u m s v a r i a b l e n 271,309ff D i s t a n z s c h r a n k e 46 3 d i v i s i v e s Verfahren 474,478 dog 601 Dosis effektive ... 131f - , l e t a l e ... 131f D o s i s - W i r k u n g s - A n a l y s e 131f D r e i e c k s a n a l y s e 421ff D r e i e c k s g e s t a l t 55 30-Regel 36,676 3s-Regel 676 Dummys 285,324ff - . K o v a r i a n m a t r i z e n der ... 324 — , C h o l e s k i - Z e r l e g u n g d e r ... 325 - . K r e u z k o v a r i a n z m a t r i z e n der ... 324
788
Stichwortverzeichnis
-,Zufalls... 25 Extraktion latenter Faktoren 505 Exzentrizität 162 -,Maximum-... 162 Facet 636 Facette 611,636ff face 618ff -.Chernoff-... 619 -.Flury-Riedwyl-... 619ff factor 505 -.... analysis 505 -,... loading 508 -,... pattern 508 -,... structure 514,562 Faktor 10,505ff,668f,679 -.allgemeiner ... 509 -,Einzelrest... 509 -,gemeinsamer ... 509 -.korrelierter ... 511,547ff -.latenter ... 505 -.merkmalseigener ... 509 -.orthogonaler ... 510,547ff -.quantitativer ... 669,679 -.schiefwinkliger ... 511,561ff -.Stufen eines ... 668 -.Test über die Anzahl der ... 551f,527 Faktorenanalyse lOf,115,127,505ff 609 -,Fundamentaltheorem der ... 509 Faktorenmodell -,reduziertes ... 563 Faktorenmuster 508 Faktorenstruktur 514,562 Faktorenwert 11,115,127,508,568ff -,... bzgl. rotierter Faktoren 570f -,Matrix der ...508 —,Schätzen der ... 514,568ff -.Schätzen eines ... 568ff Faktorenwertematrix 508,568ff -,... bzgl. rotierter Faktoren 570f -,Schätzen der ... 508,568ff Faktorladung 508 -,Bestimmung einer ... 518ff -,Matrix der ... 508 Faktorrotation 10,512f,546ff -,orhtogonale ... 512ff,547ff — , . . . mittels Quartimax-Methode 513f,559ff — , . . . mittels Varimax-Methode 513 55 Iff -,schiefwinklige ... 514,547,561ff — , . . . mittels Primärfaktorenmethode 514,561ff Faktorstufenkombination 69 2 Fehler -,... 1.Art 46 -,... in den Variablen 115 —»Regression bei ... 115 -,mittlerer quadratischer ... 40 -,... 2.Art 46
Fehlermatrix 246,662 Fehlerquadratsumme 81f,120 Fishersche z-Transformation 154 flowers 623,626 Flury-Riedwyl-Face l,619ff Formel von Woodbury 119 Fraktil 34 Freiheitsgrad 44f -,... der Hypothese 662 -,... des Fehlers 662 Fundamentaltheorem der Faktor.enanalyse 509 funktionale Beziehung 77 funktionaler Zusammenhang 3f,77,81 F-Verteilung 45 -.Quantile der ... 45 -,zentrale ... 45 Gauß-Markov-Schätzer 120 Gauß'sche Methode der kleinsten Quadrate 8 Iff Gauß'sches Eliminationsverfahren 56f Gaußtest 47 gemeinsame Dichte 65 gemeinsamer Faktor 509 gemeinsame Verteilungsfunktion 65 gemischte Datenmatrix 71 gemischte Datentypen -.Skalierung bei ... 350ff Gemischtes Lineares Modell 80,118ff -.Fehlerquadratsumme im ... 120 -,Linearform der Regressionskoeffizienten im ... 121 —,Konfidenz- Prognoseintervall für eine ... 121 —,Prognose einer ... 121 —,Prognoseintervall für eine ... 122 —.Schätzung einer ... 121 -.Schätzung für den Varianzfaktor im ... 120 -.Schätzer für die Regressionskoeffizienten im ... 119ff —.Aitken-... 119 — .explizite ... 119f —.gewichtete Kleinste-Quadrate-... 119 —.inversionsfreie ... 120 —.weighted Least-Squares-... 119 -.Tests für die festen Parameter des ... 122 general factor 509 generalisierte Inverse 60ff generalisierte lineare Diskriminanzfunktion 244f -,... im Mehrgruppenfall 247 -,... im Zweigruppenfall 244f -.Methode der Korrelation zur ... 251,257f generalized linear model 134ff genotypische Leistung 122 Geodäsie 1 Geographie 1
Stichwortverzeichnis
Geologie 1 Gesetz der universalen Regression 77 Gesicht 610,618ff Gleichungssystem -,lineares ... 55ff —,Koeffizientenmatrix eines ... 57 —,Lösen eines ... 55f,63f —,Lösungsvektor eines ... 57 Gleichung von Bienayme 38 Globaltest -,auf paarweise Unabhängigkeit mehrerer Merkmale 163f -,auf paarweise Unabhängigkeit mehrerer Meßreihen 163f Glyph 610,616f Goode-Phillips-Algorithmus 421, 426f f Gradientenverfahren 330,361f -,Startwerte für ... im Zusammenhang mit Skalierungsverfahren 333,335,362 -,... von Fletcher/Powell 330,362 -,... von Polak/Ribiere 330,362 graphische Repräsentation l,593ff -,... ein- und zweidimensionaler Daten 595ff -,... multivariater Daten l,593ff -,... von Merkmalswerten 610ff --,... durch Gesichter 610,618ff — , . . . durch Strecken 610,612ff — , . . . durch trigonometrische Funktionen 610,622ff — , . . . durch Winkel 610,617f — , . . . unter Berücksichtigung der Diskriminationsgüte 611,636ff — , . . . unter Berücksichtigung der Merkmalsähnlichkeiten 610,626ff — , . . . unter Berücksichtigung der Merkmalskorrelationen 638f graphische Verfahren zur Repräsentation multivariater Daten 593ff Grenzdifferenz 695 Grubbs-Schätzer 737 Grundgesamtheit 2,18 Grundraum 25 Gruppe 443 Güte -,... der Anpassung 82 -,... der Diskrimination 245,247, 252 -,... der Trennung 242 -,... einer Hierarchie 460 -,... einer Klassifikation 458ff -,... einer MDS-Darstellung 382 -,... einer Partition 459f -,... einer Quasihierarchie 460 -,... einer Überdeckung 458f -,Maße für die ... 458ff Gütefunktion 382 -,... der Haupt-Koordinaten-Methode 395f
789
-,... des Verfahrens von Kruskal 406ff ,... von Nonlinear Mapping 385f Gütekriterium 382,406 Güteprüfung einer Skalierung 271, 300ff -,... mittels Clusteranalyse 307 -,... mittels Diskriminanzfunktionen 301f f -,... mittels Mahalanobisdistanzen 304f — (Bewertung der .... 305 Guttmansche Skalierung 271,275,369ff -,Skalierung bei der ... 371 — , . . . für die Merkmale 371 — , . . . für die Objekte 371 Häufigkeit 19ff -,absolute ... 19 -,relative ... 19f -,Summen... 20 --,absolute ... 20 —.relative ... 20 Häufigkeitsverteilung 596 Handel 1 Hauptdiagonale 53 Hauptfaktorenanalyse 512,533 Hauptkomponentenanalyse 115,512,527ff Hauptkomponentenwerte 115,529f,569 Hauptkomponentenwertematrix 529f,569 Haupt-Koordinaten 395 Haupt-Koordinaten-Methode 8,380,393ff -,... für euklidische Distanzmatrizen 593ff -,... für nicht-euklidische Distanzmatrizen 595f Heterogenität -,Maße für die ... 456ff — , . . . disjunkter Klassen 457 — , . . . sich überschneidender Klassen 457 — , . . . sich vollständig überschneidender Klassen 458 -,... zwischen den Klassen 443 —.Bewertungskriterien für die ... 446 Hierarchie 9,448,450ff,478ff,49Iff -Auswirkung verschiedener Heterogenitätsmaße auf eine ... 482ff -(Dendrogramm einer ... 450,481,488f -,Klassen einer ... 450ff —»Zuordnung neuer Objekte zu den ... 491ff -,Konstruktionsverfahren für eine ... 478ff —,agglomeratives ... 478ff —,divisives ... 478 -,Stammbaum für eine ... 450ff Stufen einer ... 460 —,Gütemaße für die ... 460 hierarchische Clusteranalyse-Verfahren 478ff,609f
790
Stichwortverzeichnis
hierarchische Klassifikation 692, 707ff,722ff -,multivariate einfach ... 722ff — , . . . m i t zufälligen Effekten 722f f -,multivariate dreifach ... 722, 727ff --,... mit zufälligen Effekten 722, 727ff - m u l t i v a r i a t e zweifach ... 692, 707ff,722,725ff — , . . . mit festen Effekten 692,707ff — , . . . mit zufälligen Effekten 722 725ff Homogenität -,... innerhalb einer Klasse 443 — ,.Bewertungskriterien für die ... 446 — , M a ß e für die ... 454ff Homogenitätsindex 462 Homogenitätsschranke 462f,469 Hotelling-Lawley-Test 176,665f -,kritische Werte des ... 176,666 ^ A p p r o x i m a t i o n des ... 176,666 Hotelling-Pabst-Statistik 194 -»kritische Werte der ... 194 --,Approximation der ... 194 Hotellings T J - S t a t i s t i k 227ff Hypothese 46 -,allgemeine lineare ... 657,662 — » a l l g e m e i n testbare ... 662 — » e r w e i t e r t e ... 663 -»Alternativ... 46 -,einseitige ... 46 -»Null... 46 -»Reduktions... 87 -»Testen einer ... 46ff -»zweiseitige ... 46 Hypothesenmatrix 246,662 Idealpunkt 381 Idealpunktskala 381 Identifikation 5,222,240ff,489ff identifizierende Nebenbedingung 659f indefinite Matrix 64 Index der Lebenshaltungskosten 494 ff individual scale 381,420 Informatik 1 Ingenieurwissenschaften 1 Instrumentenbias 72 2,737 Instrumentenvariationen 72 2 Intelligenzguotient nach Wechsler 282 Interaktion 692 Interaktionseffekt 701 interdependentes Verfahren 15 Interpretation der Dimensionen bei der MDS 379f Invarianzprinzip 177 Inverse 59
- g e n e r a l i s i e r t e ... 60ff -,Pseudo... 60ff -,Moore-Penrose-... 60ff inverse Matrix 59 -,Berechnung einer ... 59f Irrtumswahrscheinlichkeit 43,46 I-Skala 381,420 Jöreskog-Methode der Faktorenanalyse 512,54 Iff -,Proportionalitätsfaktor b e i der ... 543 joint scale 381,421 J - S k a l a 381,421 Kanonische bi-partielle Korrelation 190 kanonische Paktorenanalyse 511,525ff, 576ff kanonische Korrelation 4,144,172ff -,Kriterium der maximalen ... 274, 323,347ff,360f — , S k a l i e r u n g nach dem ... 274,323 347ff,360f -,maximale ... 173 — , G e w i c h t s v e k t o r e n der ... 285 -,Schätzer für die ... 174 - , T e s t für die ... 175 kanonische Korrelationsanalyse 371f kanonische partielle Korrelation 186 kanonische Variable 371 Kapitalumschlag 639ff kategorielies Merkmal -,gemeinsame Skalierung mehrerer ... 272ff,322ff -,Skalierung zweier ... 270,277,282ff — » V e r f a h r e n im Zusammenhang mit der ... 271»290ff Kendallscher Rangkorrelationskoeffizent 199ff -»partieller ... 201 - » T e s t auf Unkorreliertheit mittels ... 200 Kendall's τ 199ff -partielles ... 201 -»Test auf Unkorreliertheit mittels ... 200 Kenngröße 3,32ff -,Beschreibung mittels ... 3 -,... einer Zufallsvariablen 32ff Kennzahl 596 Kern einer Matrix 64 Kern-restringierte Pseudoinverse 660 Klasse 443 -,... einer Hierarchie 450ff -,... einer Klassifikation 445 -»... einer Partition 447f - , . . . einer Quasihierarchie 448ff - » . . . einer Überdeckung 44 7 -»Heterogenität zwischen den ... 443 — , M a ß e für die ... 456ff -,Homogenität zwischen den ... 443
Stichwortverzeichnis
— , M a ß e für die ... 454ff -.Zuordnung neuer Objekte zu einer ... 489ff Klassenbildung 19 Klasseneinteilung -,... mittels Clusteranalyse 443ff -,... mittels MDS 384ff Klassenzugehörigkeit 443 Klassifikation 8f,307ff,443ff -»exhaustive ... 452ff -,Güte einer ... 458ff -,... im Rahmen der Skalierung 307ff Klassen einer ... 445 -,... multivariater Verfahren 14f -,nichtexhaustive ... 452ff -,Typ einer ... 446 Klassifikationstyp 9,446 -,... Hierarchie 448,450ff,460, 478ff,491ff -,... Partition 447f,459f,465ff, 489f -,... Quaäihierarchie 448ff,460, 473ff -,... Überdeckung 447,458f,460ff, 490 Kleiner-Hartigan-tree l,630ff -,Ast eines ... 630 —,Breite eines ... 630 -,Ast- und Stammlänge eines ... 631 Richtung von Ästen und Stämmen eines ... 631 -,Stamm eines ... 630 Winkel zwischen den Ästen eines ... 630f -,Winkel zwischen Stamm und Ästen eines ... 630f Kleinste Quadrate -.Gauß'sche Methode der ... 41f Kolmogoroffsehe Axiome 26 Kommunalität 510 -.Schätzer für die ... 534f komplementäres Ereignis 2 5 Komponenten -,wesentliche ... 530 Konfidenzbereich 43f Konfidenzellipsoid 85 Konfidenzintervall 43f -,approximatives ... --,... für den korrigierten Pearsonschen Kontingenzkoeffizienten 209 — , . . . für den Pearsonschen Kontingenzkoeffizienten 209 — , ... für den Q-Koeffizienten von Yule 207 -.asymptotisches ... 43 -,... für den Erwartungswert — , . . . der Normalverteilung 45 — , . . . des Regressanden 86 ,individuelles ... 86 ,simultanes ... 86 — , . . . einer zukünftigen Beobachtung
791
im restringierten Multivariaten Linearen Modell 66lf ,individuelles ... 661 ,simultanes ... 661f -,... für die Korrelation zweier normalverteilter Merkmale 156ff -,... für die Parameter der Normalverteilung 45 -,... für die Regressionskoeffizienten 84 f —,individuelle ... 84 —,simultane ··· 34f -,... für eine Mittelwertkomponente im multivariaten Einstichprobenproblem 116f Konfidenz-Prognoseintervall für eine Linearform im Gemischten Linearen Modell 121 Konfidenzstreifen für eine Regressionsgerade 108f -,individueller ... 109 -,simultaner ... 109 konsistente Schätzfunktion 40 Konstruktionsverfahren -,... für Hierarchien 478ff —,agglomeratives ... 478ff —,divisives ... 478 -,... für Klassifikationen 446 -,... für Partitionen 465ff —,iteratives ... 465ff —,rekursives ... 469ff -,... für Quasihierarchien 473ff —,agglomeratives ... 474ff —,divisives ... 474 -,... für Überdeckungen 460ff — ,exhaustives ... 461ff —,iteratives ... 463ff Kontingenzkoeffizient 209 -,Pearsonscher ... 209 —,approximatives Konfidenzintervall für den ... 209 —,korrigierter ... 209 ,approximatives Konfidenzintervall für den ... 209 Kontingenztafel 138f,206ff,275ff -,Assoziationsmaße für eine ... 206ff -,graphische Repräsentation einer ... 609 -,Loglineares Modell für eine ... 211 —,Parameter des ... 211 -,multidimensionale ... 275 -,skalierte ... 290ff —,Verfahren in einer ... 290ff -»unterbesetzte ... 296 Korrelation 4f,8,37f,143ff -,bi-partielle ... 4f,143f,186ff —(kanonische ... 190 — .multiple ... 189f ,Schätzer für die ... 189 .Test für die ... 190 —.Schätzer für die ... 187 —.Test für die ...187
792
Stichwortverzeichnis
-gemeinsame ... 159ff gemeinsamer Schätzer für die ... mehrerer Merkmalspaare 159ff -kanonische ... 4,144,172ff —,maximale ... 173,285 ,Gewichtsvektoren der ... 285 .Kriterium der ... 274,323, 347ff,360f ,Skalierung nach dem ... 274, 323,347ff,360f ,Schätzer für die ... 174 ,Test für die ... 175 -,multiple ... 4,144,167ff —»Kriterium der maximalen ... 274,322f,334ff,359f ,Skalierung nach dem ... 274, 322f,334ff,359f —.Schätzer für die ... 167f — , T e s t für die ... 171f -,... nicht-normalverteilter Zufallsvariablen 190f f — , T e s t für die ... 193f,200 -,Nonsens... 143 -,... normalverteilter Merkmale 144f f -,... ordinaler Merkmale 201ff -,partielle ... 4f,143f,181ff,200 —»kanonische ... 186 —,multiple ... 184f ,Schätzer für die ... 184 ,Test für die ... 184f — »Schätzer für die ... 182,200 — T e s t für die ... 182 -,Produktmoment... 145 -,Schein... 143 -,Vergleich der ... mehrerer Merkmalspaare 159ff -,-..zweier normalverteilter Merkmale 144f f —,Konfidenzintervall für die ... 156f f —»Schätzer für die ... 145ff —»Test für die ... 153ff Korrelationsanalyse 4f,143ff -»kanonische ... 371f Korrelationskoeffizient -,... bei ordinalen Merkmalen 201ff -,chorischer ... 204 -,multipler ... 83 -,Pearsonscher ... 145ff -,polychorischer ... 204 -,polyserialer ... 203 -,punktbiserialer ... 202 -,punktpolyserialer ... 203 -,Rang... 191ff —»Kendallscher ... 199ff »partieller ... 201 »Rest auf Unkorreliertheit mittels ... 200 --»Spearmanscher ... 191ff »Test auf Unkorreliertheit mittels ... 193f
»simultaner ... 196f -,serialer ... 201f -,tetrachorischer ... 204 Korrelationsmaß 4f,143 Korrelationsmatrix 66,152,323ff,510 -,... bei gemischten Datentypen 350ff -,... der Faktoren 514,565f -,geschätzte ... 162 -,rangreduzierte ... 326 -,reduzierte ... 510 -,... von kategoriellen Merkmalen 323f f korrelierte Faktoren 510,561ff korrelierte Fehler 90 Korrespondenzanalyse 271,275,369ff -,Skalenwerte bei der ... 370 Kovariable 13,669,678 Kovarianz 37,74 -»empirische ... 74 Kovarianzanalyse -,multivariate ... 13 ,142,657,667f, 679ff Kovarianzhypothesen 234ff Kovarianzmatrix 66,222,234ff,656f -»empirische ... 73 -»Hypothese über ... 222,234ff -,... im restringierten Multivariaten Linearen Modell 656f —.Schätzen der ... 657,663 -,Schätzer für die ... 223f -»simultaner Test über ... und Mittelwertvektor im multivariaten Einstichprobenproblem 238f -»Test auf Gleichheit mehrerer ... 236f -»Test über die Struktur einer ... 234f -»... von Dummys 324 --»Choleski-Zerlegung der ... 325 Kreuzklassifikation 658,700ff,722, 73 1 ff -,multivariate zweifache ... 658, 700ff,722,731ff — , . . . mit einer Beobachtung pro Zelle 705ff — , . . . mit festen Effekten 692,700ff ,... mit Wechselwirkungen 692, 700f f ,... ohne Wechselwirkungen 692, 705f f --,... mit zufälligen Effekten 722, 73 Iff ,... mit Wechselwirkungen 722, 733f ,...ohne Wechselwirkungen 722, 732f Kreuzkovarianzmatrix -,... von Dummys 324 Kriterium -»... der maximalen kanonischen Korrelation 274 ,323 ,34'7ff ,360f -,... der maximalen Maximum-Exzentri-
Stichwortverzeichnis
793
zität 273,322,331ff,359 -,... der maximalen multiplen Korrelation 274,322f,334ff,359f der minimalen Determinante 273,322,331ff,358f Kriteriumsvariable 6f,271,290 -,beste Diskriminatoren zwischen den Stufen einer ... 271,296ff -,Datenmatrix für die Stufen einer ... 271,309ff -.Distanzmatrix für die Stufen einer ... 271,309ff -,gemeinsame Skalierung gegen eine ... 273,32 2f,334ff,359f — , . .. nach dem Kriterium der maximalen multiplen Korrelation,273, 322f,334ff,359f, gemeinsame Skalierung gegen mehrere ... 274,323,347ff,360f — , . .. nach dem Kriterium der
-,... im Mehrgruppenfall 245ff -,... im Zweigruppenfall 243ff lineare Hypothese 657 -,allgemein testbare ... 662 -,Prüfgröße für allgemeine ... 662 -,Testen allgemeiner ... im restringierten Multivariaten Linearen Modell 657,662 lineare Regressionsfunktion 78 -»Transformation in ... 114 lineares Gleichungssystem 55ff Lineares Modell -,Gemischtes ... 4,80,118ff — , L i n e a r f o r m der Regressionskoeffizienten im ... 121
maximalen kanonischen Korrelation 274,323,347ff,360f -.Skalierung gegen eine ... 271, 290ff,322f,334ff,359f -.Zuordnung neuer Objekte zu den Stufen einer ... 271,307ff kritischer Wert 46 Kroneckerprodukt 52f
»Schätzung einer ... 121 — , S c h ä t z e r für den Varianzfaktor im ... 120 — . S c h ä t z e r für die Regressionskoeffizienten im ... 119ff .Aitken-... 119 .explizite ... 119f g e w i c h t e t e Kleinste-Quadrate-... 119 .inversionsfreie ... 120 .weighted Least-Squares ... 119 — . T e s t s für die festen Parameter des ... 122 -.Multivariates ... 655ff — . r e s t r i n g i e r t e s ... 656ff -.univariates ... 667 -.verallgemeinertes ... 134ff Lineares Wahrscheinlichkeitsmodell 4,80,130,133,136 linear unabhängig 55 Liquidität 639ff
Ladungsmatrix 10,508ff -.Einfachstruktur einer ... 512ff, 547f f rotierte ... 514,548ff -,Schätzung einer ... 511f,518ff — , M a x i m u m - L i k e l i h o o d - . . . 511,519ff mittels Hauptfaktorenanalyse 512,533 — . . . . mittels Hauptkomponentenanalyse 512,527ff — , . . . mittels Jöreskog-Methode 512, 54 Iff — , . . . mittels kanonischer Faktorenanalyse 511,525ff,576ff --,... mittels principal component analysis 512,527ff — , . . . mittels principal factor analysis 512,533 — , . . . mittels Zentroidmethode 512, 534ff Länge eines Vektors 49 Lagemaß -,empirisches ... 21ff Lageparameter 32 ff Laplacescher Entwicklungssatz 54, 166 latente Faktoren 505 leere Zellen 161 letale Dosis 131f kelihood 40 log-... 41 Lneare Fishersche Diskriminanzfunktion 243 ff
,Konfidenz-Prognoseintervall für eine ... 121 ,Prognose einer ... 121 ,Prognoseintervall für eine ... 122
Logistische Verteilungsfunktion Logit 132,137f Logitanalyse 4,80,132f,137 -,bedingte ... 138 logit analysis ^ c o n d i t i o n a l ... 138 Logit-Modell 80,132f,137 log-Likelihood 41 Loglineares Modell 140,211 -,Parameter des ... 211 LognormalVerteilung 132 lokale Struktur 385 L r - M e t r i k 72
132
Mahalanobisdistanz 73 MANOVA 658,692 mapping error 385ff -.Gradientenverfahren zur Minimierung des ... 385ff marginale Normalisierung 270,276ff Marktforschung 313ff
794
Stichwortverzeichnis
Marktanteil 598ff Marktwachstum 598ff Matrix 49ff -,Addition von ... 50 -»Daten... 70ff -»definite ... 64 -»Definitheit einer ... 64 -»Distanz... 70ff -,Einheits... 50f -»Einser... 51 generalisierte Inverse einer ... 60ff ' -»indefinite ... 64 -,inverse ... 59 -,Kern einer ... 64 -»Kern-restringierte Pseudoinverse einer ... 660 -»Koeffizienten... 57 Kroneckerprodukt von ... 52 —,Rechenregeln für das ... 52f -,Moore-Penrose-Inverse einer ... 60f f Multiplikation von ... 51 negativ definite ... 64 negativ semidefinite ... 64 -»Nullspace einer .... 64 -»positiv definite ... 64 -»positiv semidefinite ... 64 Pseudoinverse einer ... 61ff quadratische ... 50,53f —»Determinante einer ... 54 —»Eigenwert einer ... 58f ,Eigenvektor zum ... 58f --,Hauptdiagonale einer ... 53 —,Spaltenvolumen einer 54 —,Spur einer ... 53 trace einer ... 53 -,Rang einer ... 55 -»Rechenregeln für ... 52 -»reguläre ... 59 -,semidefinite ... 64 -»skalare Multiplikation einer ... 50 -»symmetrische ... 50 -»transponierte ... 50 -»vec-Operator für ... 53 -»zufällige ... 70 Matrizenrechnung 3,48ff maximale Exzentrizität 162 Maximalwurzel-Kriterium 177 Maximum-Exzentrizität 332 -»... eines Korrelationsellipsoids 273,322»331ff»359 -»Kriterium der maximalen ... 273» 322 »331 ff»359 --Skalierung nach dem ... 273,322» 331ff»359 Maximum-Likelihood-Methode 40f -»... der Faktorenanalyse 519f MDS 7f,75 » 377ff,609 mean squared error 40 Median 22»33
-»... der Binomialverteilung 35 -»... der Standardnormalverteilung 34 -»Minimumeigenschaft des ... 24 -»mittlere absolute Abweichung vom ... 24 Medizin 1 mehrdimensionale Normalverteilung 65 ff -»Dichte der ... 67 -»Eigenschaften der ... 70 -»Verteilungsfunktion der ... 67 mehrdimensionale Verteilungsfunktion 65 Mehrgruppenfall· der Diskriminanzanalyse 245ff -»Zuordnung von Objekten im ... 245ff —»... mittels generalisierter Diskriminanzfunktion 247 — » . . . mittels linearer Fisherscher Diskriminanzfunktion 245ff Merkmal 2ff,18f -»Ähnlichkeiten von ... 8 -»Ausprägung eines ... 2 -»Auswahl wesentlicher ... 5 -»diskretes ... 19 -»Einfluß eines ... 4 -,... im Koordinatensystem der Faktoren 522f f -»Klassifikation von ... 9 -»Komplexität eines ... 509 -»künstliches ... 10 -»latentes ... 10 -»metrisches ... 19 -»nominales ... 19 -»ordinales ... 19 -»qualitatives ... 6f,18 -»quantitatives ... 7,18 -»standardisiertes ... 508 -»stetiges ... 19 -»Reduktion von ... 222»241,252ff — »Methoden zur ... 251ff —»Methode der Korrelation zur generalisierten linearen Diskriminanzfunktion zur ... 251»257f —»Methode der Unentbehrlichkeit zur ... 251ff —»Trennmaß zur ... 241 -»zusammengesetztes ... 563 Merkmalsausprägung 6»18 merkmalseigener Faktor 509 merkmalseigene Varianz 510 Merkmalstyp 4 Merkmalswert 18 Meßinstrument -»Präzision eines ... 722»736ff --»Schätzer für die ... 738 Messung 2 Methode der kleinsten Quadrate 41f Metrik 72f -»City-Block-... 72 -»euklidische ... 72 -»Lr-... 72
Stichwortverzeichnis
metrische multidimensionale Skalierung 380,384ff -,... mittels Haupt-KoordinatenMethode 380,393ff -,... mittels Nonlinear Mapping 380,384ff metrisches Merkmal 19 Minimax-Lösung der Faktorenanalyse 518 Minimumeigenschaft des arithmetischen Mittels 24 des Medians 24 MINQUE 721 Mittel ^arithmetisches ... 20f Mittelwert 20f einer Zufallsvariablen 32 Mittelwertvektor -,... im multivariaten Einstichprobenproblem 223ff —,Konfidenzintervall für eine Komponente des ... 116f —.Schätzer für den ... 223f —,simultaner Test über Kovarianzmatrix und ... 238f —,Symmetrietest über den ... 228 — » T e s t über den ... 225ff ,bei bekannter Kovarianzmatrix 225f ,bei unbekannter Kovarianzmatrix 227 Mittelwertvergleich -,... im unverbundenen Zweistichprobenproblem 230f — , . . . bei bekannten, gleichen Kovarianzmatrizen 230f — , . . . bei bekannten, ungleichen Kovarianzmatrizen 231 — , . . . bei unbekannten Kovarianzmatrizen 231 im verbundenen Zweistichprobenproblem 232f mittlerer quadratischer Fehler 40 MMDS 380,384ff MMINQUE 721 Modalwert 22,35 Modell -,... der multivariaten Varianzanalyse 658ff — , . . . mit festen Effekten 658f, 692ff — , . . . mit zufälligen Effekten 658f,719ff -(Gemischtes Lineares ... 80,118ff -,multivariates ... 117 -(Multivariates Lineares ... 13f, 655ff --,restringiertes ... 656ff -(Univariates Lineares ... 655ff Modellannahmen -,... im restringierten Multivariaten Linearen Modell 655,659
795
—.Überprüfung der ... 657,675ff, 688ff Modellauswahl 87 Modellreduktion 87 Modelltypen 657 Modellvergleich 87,691 Modus 35 Moment -,k-tes ... 37 -,k-tes zentrales ... 37 -,k-tes empirisches ... 40 Momentenmethode 40 monotone Distanzfunktion 406 Moore-Penrose-Inverse 60ff -,Berechnung einer ... 61ff MORALS 375 MSE 40 multidimensionale Kontingenztafel 275 multidimensionale Skalierung 7f,75, 377ff,609 -,... ausgehend von Präferenzdaten 381,420ff -,... ausgehend von Proximitätsdaten 380 ,405f f -,metrische ... 8,380,382,384ff -,... mittels des Verfahrens von Kruskal 380,383,405ff -,... mittels Haupt-Koordinaten-Methode 380,393ff -,... mittels Nonlinear Mapping 380, 384ff -,...mittels Unfolding-Technik 381, 420f f -,nichtmetrische ... 8,380,405ff Multikollinearität 88 Multinomialverteilung 138 multiple bi-partielle Korrelation 189f -,Schätzer für die ... 189 -,Test für die ... 190 multiple Korrelation 4,144,167ff -,Kriterium der maximalen ... 274, 322f,334ff,359f —,Skalierung nach dem ... 274,322f 334ff ,359f -,Schätzer für die ... 167f -.Test für die ... 171f multiple partielle Korrelation 184f -(Schätzer für die ... 184 -,Test für die ... 184f multiple Regressionsanalyse 4,83ff -,Konfidenzellipsoid für die Regressionskoeffizienten bei der ... 85 -,Konfidenzintervall für den Erwartungswert des Regressanden bei der ... 86 — individuelles ... 86 —,simultanes ... 86 -,Konfidenzintervall für die Regressionskoeffizienten bei der ... 84f —,individuelles ... 84
796
Stichwortverzeichnis
—,simultanes ... 84f -»Prognose des Regressanden bei der ... 86 -»Prognoseintervall für den Regressanden bei der ... 86 —.individuelles ... 86 —,simultanes ... 86 -.Schätzer für die Regressionskoeffizienten bei der ... 83f —»Korrelationen der ... 84 —(Kovarianzen der ... 84 —.Varianzen der ... 84 -»Schätzer für die Varianz bei der ... 84 -»Tests über die Regressionskoeffizienten bei der ... 86f multiple Regressionsfunktion 79, 8 Iff multipler Korrelationskoeffizient 83 multiples Bestimmtheitsmaß 82f multiple Vergleiche -,... bei der multivariaten Einfachklassifikation mit festen Effekten 694f -,... der Korrelationen mehrerer Merkmalspaare 196f -,... nach Holm 196f Multiplikation von Matrizen 51 -,... von Vektoren 48 multivariate analysis of variance 658 multivariate Daten graphische Repräsentation von ... 593ff multivariate dreifach hierarchische Klassifikation mit zufälligen Effekten 722,727ff multivariate Einfachklassifikation 658,693ff,723ff -(balancierte ... 658,693ff,723ff — , . . . mit festen Effekten 693ff --(... mit zufälligen Effekten 723f f -(Unbalancierte ... 658,700 multivariate Kovarianzanalyse 13,142,657,667f,679ff -»adjustierte Bestimmtheitsmaße bei der ... 691 -,Beobachtungsmatrix bei der ... 679 -,Bestimmtheitsmaße bei der ... 688 -,Designmatrix bei der ... 679 -(Fehlermatrizen bei der ... 682 -,Güte der ... 687f -,Hypothesen bei der ... 680f — , T e s t s über die ... 681ff -,Hypothesenmatrizen bei der ... 682 -,Konfidenzintervall für den
Erwartungswert einer zukünftigen Beobachtung bei der ... 680f -»Kovarianzmatrix bei der ... 686 —,Schätzer für die ... 686 -,Nebenbedingungen bei der ... 679 -,Parametermatrix bei der ... 679 —,Schätzer für die ... 680 ,Schätzer für die Korrelationsmatrix des ... 686f ,Schätzer für die Kovarianzmatrix des ... 686f ,... unter der Hypothese 686,688 -,Prognose zukünftiger Beobachtungen im ... 680 -,Prognoseintervall für eine zukünftige Beobachtung im ... 680f -,Projektionsmatrizen bei der ... 682ff -,Residualanalyse bei der ... 688ff multivariate Normalverteilung 3,70 multivariate Regressionsanalyse 13, 142,657,667ff -.adjustierte Bestimmtheitsmaße bei der ... 691 -,Beobachtungsmatrix bei der ... 670 -.Bestimmtheitsmaße bei der ... 674f -,Designmatrix bei der ... 670 -,Fehlermatrix der ... 672 -.Güte der ... 674 -»Hypothesen bei der ... 672 — , T e s t s über die ... 672ff Hypothesenmatrix bei der ... 672 -,Konfidenzintervall für den Erwartungswert einer zukünftigen Beobachtung bei der ... 671f -,Kovarianzmatrix bei der ... 674 —,Schätzer für die ... 674 -,Parametermatrix bei der ... 670 —.Schätzer für die ... 670 .Schätzer für die Korrelationsmatrix des ... 674 .Schätzer für die Kovarianzmatrix des ... 674 ,... unter der Hypothese 674 -»Prognose für eine zukünftige Beobachtung im ... 671 -»Prognoseintervall· für eine zukünftige Beobachtung im ... 671f -,Regressanden bei der ... 668 -,Regressoren bei der ... 668 Residualanalyse bei der ... 675ff multivariates Einstichprobenproblem 5»116f,221,223ff -,Konfidenzintervall für eine Mittelwertkomponente im ... 116 —.simultanes ... 116f -(Schätzer für den Mittelwertvektor im ... 116,22 3f -»Schätzer für die Kovarianzmatrix im ... 116,223f -,simultaner Test über Mittelwertvektor und Kovarianzmatrix im ... 238f
Stichwortverzeichnis
-,Test über den Mittelwertvektor im ... 225ff — , . . . bei bekannter Kovarianzmatrix 225f — , . . . bei unbekannter Kovarianzmatrix 227 —,Symmetrie... 228 Multivariates Lineares Modell 655ff allgemeine Vorgehensweise im ... 657,659ff -.Beobachtungswerte im ... 656 —.Prognose zukünftiger ... 657, 661f -,Designmatrix im ... 659 -,Einflußvariablen im ... 656 -(erweitertes ... 664 -(Fehlermatrix im ... 656,659 -.gemischtes ... 656,719ff -(Hypothesen im ... 657,662 —,erweiterte ... 663 -,Kovarianzmatrix im ... 656f, 659,663 -,... mit festen Effekten 655ff -,... mit zufälligen Effekten 655ff, 719f f -,Modelltypen des ... 657 -,Parametermatrix im ... 656,659f -,Residualanalyse im ... 657 -(Responsevariablen im ... 656 -,Restriktionsmatrix im ... 656, 659 -,restringiertes ... 656,659ff -,Testmatrix im ... 657,662 -,Testverfahren im ... 657,664ff -(Überprüfung der Modellannahmen im ... 657 -,Überprüfung der Modellgüte im ... 657 -,unrestringiertes ... 663 multivariates Modell 117 multivariates r Stichprobenproblem 5,116f,221 ,223ff Multivariate statistische Verfahren Iff ^Klassifikation von ... 14f multivariates Varianzkomponentenmodell 14,719ff Beobachtungsmatrix des ... 720 -(Designmatrix der festen Effekte im ... 720 -(Designmatrix der zufälligen Effekte im ... 720 multivariates Zweistichprobenproblem 5(221,230ff -(unverbundenes ... 230ff -,verbundenes ... 232f multivariate Varianzanalyse 13f, 658f ,692ff -,... mit festen Effekten 658f, 692ff -,... mit zufälligen Effekten 658f(719ff
797
multivariate Varianzkomponenten 720 -(Schätzer für ... 720ff multivariate zweifache Kreuzklassifikation 658(692(700ff,722,731ff -,... mit einer Beobachtung pro Zelle 692,705ff -,... mit mehreren Beobachtungen pro Zelle 692,700ff,722,731ff — , . . . mit Wechselwirkungen 692,700ff 722,733f ,... mit festen Effekten 692,700ff ,... mit zufälligen Effekten 722, 733f —,... ohne Wechselwirkungen 692, 705ff,722,732f ,... mit festen Effekten 705ff ,... mit zufälligen Effekten 722, 732f multivariate zweifach hierarchische Klassifikation 692 ,707ff, 722 ,725ff -,... mit festen Effekten 692,707ff -(... mit zufälligen Effekten 722, 725f f Nebenbedingung -,identifizierende ... 659f -(Verträgliche ... 660 negativ definite Matrix 64 negativ semidefinite Matrix 64 nichtexhaustive Klassifikation 452ff nichtlineare Regressionsfunktion 79 nichtmetrische multidimensionale Skalierung 380,405ff -,... für Präferenzdaten 381,420ff -,... für Proximitätsdaten 380,405ff -,... mittels des Verfahrens von Kruskal 380,383,405ff -,... mittels Unfolding-Technik 381, 420f f nicht-zentrierter zufälliger Effekt 126 Niveau 4 3,46 NLM 380,384ff NMDS 380,405ff nominales Merkmal 19 -,Skalierung von ... 276ff Nomogramm 177 Nonlinear Mapping 8,380,384ff Nonsens-Korrelation 143 Normalengleichung 82 -,... in Matrixschreibweise 83 Normalisierung -(marginale ... 270(276ff Normalverteilung 3,28f,65ff -(bivariate ... 67ff -(Dichte der ... 31 -,Erwartungswert der ... 36 -,Konfidenzintervalle für die Parameter der ... 44f -,Log... 132 -,mehrdimensionale ... 3,65ff —.Dichte der ... 67
798
Stichwortverzeichnis
— Verteilungsfunktion der ... 67 - multivariate ... 3,70 Schätzen der Parameter der ... 39f f -»Standard... 29 -,Test über den Erwartungswert einer ... 47f Varianz der . . .· 36 -»Verteilungsfunktion der ... 28f NormalVerteilungsannahme Überprüfung der ... 596,602f -(Verletzung der ... 90 Norm eines Vektors 64 normierte Residuen 90 Normit 131,137 Normit-Modell 80,130f,133,136f Nullhypothese 46 Nullspace einer Matrix 64 Objekt
2,18
-»Ähnlichkeit von ... 3,443 -»Klassifikation von ... 8,443ff -,gemeinsame Repräsentation von ... 595ff -»Repräsentation einzelner ... 610ff durch Andrews-Plots 622ff durch Bäume 629ff durch Bi-Plot-Sonnen 638f durch Blumen 623(626 durch Burgen 633ff durch Diamanten 617f durch Facetten 636ff durch Gesichter 618ff durch Glyphs 616f durch Poygonzüge 613f durch Profile 613 durch Quader 628f durch Sonnen 614f durch Sterne 614 durch Streifen 613 -(Struktur in einer Menge von ... 44 3 -(Zuordnung von ... 240ff --(... im Mehrgruppenfall der Diskriminanzanalyse 245ff ,... mittels generalisierter linearer Diskriminanzfunktion 247 ,... mittels linearer Fisherscher Diskriminanzfunktion 245ff --,... im Zweigruppenfall der Diskriminanzanalyse 242ff (... mittels generalisierter linearer Diskriminanzfunktion 244f ,... mittels Fisherscher linearer Diskriminanzfunktion 243ff ordinales Merkmal 19 -(marginale Normalisierung eines ... 270,276ff -,Rangzahlen für ... 237
orthogonale Faktoren 510,547ff orthogonale Vektoren 64 Orthogonalrotation 512ff,547ff -,... mittels Quartimax-Methode 513f, 559f f -,... mittels Varimax-Methode 513, 551ff orthonormale Vektoren 64 Paarvergleich
75
Pädagogik 1 Parameter einer Verteilung 3,32ff -,Lage... 32ff -»Schätzer von ... 35ff -,Streuungs... 35ff -,Tests über ... 3,45 Parametermatrix 656,659 -(Schätzen einer ... 656,660 — , ... unter einer Hypothese 663 Parametertest 45 Partialisierung 181 Partialordnung 422 partielle Korrelation 4f,143f,181ff, 200f -,bi-... 186ff —(kanonische ... 190 —.multiple ... 189f .Schätzer für die ... 189 ,Test für die ... 190 —»Schätzer für die ... 187 — , T e s t für die ... 187 -(kanonische ... 186 -,multiple ... 184f —»Schätzer für die ... 184 — , T e s t für die ... 184f -.Schätzer für die ... 182,200f -,Test für die ... 182 partieller Kendallscher Rangkorrelationskoeffizient 201 Partition 9,447f -,Gütemaße für ... 459f -,Klassen einer ... 447f —,Zuordnung neuer Objekte zu den ... 489f -»Konstruktionsverfahren für eine ... 465ff --»iteratives ... 465ff —,rekursives ... 469ff pattern recognition 8 Pearsonscher Kontingenzkoeffizient 209 -,korrigierter ... 209 Pearsonscher Korrelationskoeffizient 145 Permutation 717 Persönlichkeitsprofil 127,508 phänotypische Leistung 122 Phys ik 1 Pillai-Bartlett-Test 176f,666 -(Approximation des ... 177,666 -(kritische Werte des ... 177,666
Stichwortverzeichnis
polychorischer Korrelationskoeffizient 204 polygon 613f Polygonzug 610,613f polynomiale Regression 79,114 polyserialer Korrelationskoeffizient 203 -,punkt... 203 Portfolio-Analyse 600 positiv definite Matrix 64 positiver Schätzer 721,737 positiv semidefinite Matrix 64 P-P-Plot 602 Präferenzdaten 381,420ff Präordnung -»vollständige ... 75 Präzisionsbestimmung von Meß- und Analyseverfahren 14 Präzision von Meßinstrumenten 722, 736ff -,Schätzer für die ... 738 Primärfaktoren-Methode 514,561ff principal component analysis 512, 527f f principal co-ordinate 395 principal factor analysis 512,533 PRINCIPALS 375 probability 26 Probability-Plotting-Technik 596, 602f f Probit 131,137 Probitanalyse 4,80, 130f, 133, 136f Probit-Modell 80,130f,133,136f Produktbewertung 600 Produktforschung 272,313ff Produktion -,Ergiebigkeitsgrad der ... 79f,114 Produktionselastizität 79,114 Produktionsfaktor 79,114,122 -,Bewertung des Einsatzes von ... 79f,114 Produktionsfunktion 78,114 Produkt-Markt-Portfolio 596f,600ff Produktmomentkorrelation 145 Produktplanung 600 Produktvariabilität 722,737 -,Schätzer für die ... 737 Profil 610,613 Profilanalyse 13f,659,7lOff -,Hypothesen der ... 712f -,nichtparametrische Verfahren der ... 717ff -,Normalverteilungsverfahren der ... 713ff Prognose 4,77,86,121 ,657 ,66lf - , . . . einer Linearform im Gemischten Linearen Modell 121f -,... eines Regressanden bei der multiplen Regression 86 -,... zukünftiger Beobachtungen im restringierten Multivariaten Linearen Modell 657,661f
799
Prognosedifferenz 119 Prognoseintervall 86,122,661 -,... für eine Linearform im Gemischten Linearen Modell 122 -,... für einen Regressanden bei der multiplen Regression 86 —.individuelles 86 — . s i m u l t a n e s ... 86 für eine zukünftige Beobachtung im restringierten Multivariaten Linearen Modell 661f — , i n d i v i d u e l l e s ... 661 — , s i m u l t a n e s ... 66lf Prognosequalität 87 Prognosestreifen für eine Regressionsgerade 108f -»individueller "... 109 -,simultaner ... 109 Prognosevektor 661 Proximitätsdaten 380,405ff Prozentrangverfahren 282 Prüfgröße 46 Prüfverfahren 45ff Prüfverteilung 44f PSD-Schätzer 721 Pseudoinverse 60ff Berechnung einer ... 61ff -,Kern-restringierte ... 660 Psychologie 1,192 punktbiserialer Korrelationskoeffizient 202 punktpolyserialer Korrelationskoeffizient 203 Punktschätzung 3,38ff Q-Koeffizient von Yule 207 -.approximatives Konfidenzintervall für den ... 207 Q-Q-Plot 90,602ff,676,688 Q-Technik 15 Quader 610,628f quadratische Matrix 50 Qualitätskontrolle 192 qualitative Datenmatrix 71 qualitative Regression 128ff qualitativer Regressand 128ff qualitatives Merkmal 6f,18 -,Skalierung von ... 269ff Quantil 33,597 -,... der Binomialverteilung 34f - , . . . der x 2 - V e r t e i l u n g 44 -,... der F-Verteilung 45 -,... der Standardnormalverteilung -,... der t-Verteilung 44 -»empirisches ... 597 quantitative Datenmatrix 71 quantitatives Merkmal 7,18 Quartimax-Kriterium 560 Quartimax-Methode 513f,559ff -.Rotationswinkel bei der ... 560 Quasihierarchie 9,448ff - , K l a s s e n einer ... 450ff
34
800
Stichwortverzeichnis
-,Konstruktionsverfahren für eine ... 473ff —,agglomeratives ... 474ff —,divisives ... 474 -,Staumbaum einer ... 448ff Stufen einer ... 460 —,Gütemaße für die ... 460 Random coefficient regression model 126 Randverteilung 65 range 24 Rangkorrelationskoeffizient 191ff -,Kendallscher ... 199ff —,Test auf Unkorreliertheit mittels ... 200 —»partieller ... 201 -,Spearmanscher ... 191ff —,Test auf Unkorreliertheit mittels ... 193f ,simultaner ... 196f Rangzahl 191,277 RCR-Modell 126 Realisation einer Zufallsvariablen 28 Rechenregeln für Matrizen 52f Rechenregeln für Wahrscheinlichkeiten 26 Reduktion Modell... 87 -,... von Daten 505 -,... von Merkmalen 87,222,241,505 —,Methode zur ... 251 —»Methode der Korrelation zur generalisierten linearen Diskriminanzfunktion zur ... 257f —,Trennmaß zur ... 241 Reduktionshypothese 87 Reduktions-Quadratsumme 87 reduzierte Datenmatrix 298 reduziertes Faktorenmodell· 563 Regressand 77,80ff,128ff -,Konfidenzintervall für den Erwartungswert des ... 86 —(individuelles ... 86 —,simultanes ... 86 -»Prognose des ... 86 -,Prognoseintervall für den ... 86 —,individuelles ... 86 —»simultanes ... 86 -qualitativer ... 80,128ff quantitativer ... 81ff Regression 77ff,667ff -,... bei Fehlern in den Variablen 115 -,Gesetz der universalen ... 77 -,multiple ... 78ff - multivariate ... 667ff -»polynomiale ... 114 -»Ridge-... 89 -»robuste ... 116 regressionsähnliche Parameter 174
Regressionsanalyse 3f,13,77ff,142f, 657,667ff -»diskrete ... 4,80,128ff -»multiple ... 4,77,81ff —,Konfidenzellipsoid für die Regressionskoeffizienten bei der ... 85 —,Konfidenzintervall für den Erwartungswert des Regressanden bei der ... 86 ,individuelles ... 86 ,simultanes ... 86 —»Konfidenzintervall für die Regressionskoeffizienten bei der ... 84 f »individuelles ... 84 »simultanes ... 84f —»Prognose des Regressanden bei der ... 86 —,Prognosintervall für den Regressanden bei der ... 86 »individuelles ... 86 »simultanes ... 86 —»Schätzer für die Regressionskoeffizienten bei der ... 83f ».Korrelationen der ... 84 »Kovarianzen der ... 84 »Varianzen der ... 84 —»Schätzer für die Varianz bei der ... 84 —»Tests für die Regressionskoeffizienten bei der ... 86f -»multivariate ... 13,142,657,667ff -.quantitative ... 4,80,128ff -»Ziele der ... 77 Regressionsfunktion 78ff -»geschätzte ... 81 -»lineare ... 78 —»Transformation in ... 114 -»multiple ... 79,8Iff -»nichtlineare ... 79 -,poynomiale ... 79 Regressionsgerade 78,108ff,129ff Konfidenzstreifen für die ... 108f —,individueller ... 109 —,simultaner ... 109 -,Prognosestreifen für die ... 108f —,individueller ... 109 —.simultaner ... 109 Regressionskoeffizienten 80ff,118ff -,... im Gemischten Linearen Modell 118ff —,Linearform der ... 121 ,Konfidenz-Prognoseintervall für eine .... 121 .Prognose einer ... 121 ,Prognoseintervall für eine ... 121 — .Schätzer für die ... 119ff .Aitken-... 119 .explizite ... 119f
Stichwortverzeichnis
»gewichtete Kleinste-Quadrate-... 119 ,inversionsfreie ... 120 ,weighted Least-Squares-... 119 —,Tests für die festen ... 122 -,Konfidenzellipsoid für die ... 85 Konfidenzintervalle für die ... 84f —,individuelle ... 84 —»simultane ... 84f -,Schätzer für die ... 83f — »Korrelationen der ... 84 —»Kovarianzen der ... 84 —»Varianzen der ... 84 -»Test für die ... 86f -»zufälliger ... 80,118ff,126 Regressionsmodell 81ff -»Bayes-Ansatz im ... 126 -»Matrixschreibweise des multiplen ... 83 -»Überprüfung eines ... 89f Regressor 77 reguläre Matrix 59 regula falsi 156f Rekursionsformeln für Verschiedenheitsmaße 487 relative Häufigkeit 19 relative Summenhäufigkeit 20 relativer Marktanteil 598ff Reparametrisierungbedingung 660 Repräsentation -,... der Ähnlichkeit von Merkmalen 383 -,... einzelner Objekte oder Merkmale 61 Off — ... durch Andrews-Plots 622ff — ... durch Bäume 629ff — ... durch Bi-Plot-Sonnen 638f — ... durch Blumen 623,626 — ... durch Burgen 633ff — ... durch Diamanten 617f — ... durch Facetten 636ff — ... durch Gesichter 618ff — . . . durchGlyphs 616f — . . . durchPolygonzüge 613f — . . . durchProfile 613 — .. . durch Quader 628f — . . . durchSonnen 614f — ... durch Sterne 614 — ... durch Streifen 613 -,gemeinsame ... 595ff ... von Merkmalen 401,595ff — --,... von Merkmalen und Objekten 595f»605ff --,... von Objekten 385,595f -»graphische ... l,593ff -»tabellarische ... 1 Repräsentationsraum bei der MDS 385f f Residualanalyse 89f,657,675ff,688ff Residual-Plot 89f,657ff,688ff
801
Residual-Quadratsumme 81f Residuen 82 -»normierte ... 90 -»multivariate ... 675 —»normierte ... 675 Responsevariablen 656 Restriktionsmatrix 656,659 restringierte Pseudoinverse 660 restringiertes Multivariates Lineares Modell 656 »659ff reziproker dynamischer Verschuldungsgrad 639ff Ridge-Regression 89 Ridge-Trace 89 Ringversuch 729 robuste Regression 116 Rotation von Faktoren lOf,512ff,546ff -»orthogonale ... lOf,512ff,547ff — » . . . mittels Quartimax-Methode 513f,559ff — , . . . mittels Varimax-Methode 513, 551f f -»schiefwinklige 1 Of,514,547,56 Iff — , . . . mittels Primärfaktoren-Methode 514,561ff rotierte Ladungsmatrix 514,548ff Roy-Test 177,666 -»kritische Werte des ... 177,666 -,Nomogramme von Heck zum ... 177, 666 r Stichprobenproblem -»multivariates ... 639ff R-Technik 15 Saturiertes Modell 140 Satz von der totalen Wahrscheinlichkeit 27 Satz von Steiner 36 Schätzen 38ff Schätzen von Faktorenwerten 514,568ff Schätzer -»Aitken-... 119 -,Bias eines ... 40 -,... für den Steigungsparameter einer linearen Regression 151 -,... für den Varianzfaktor im Gemischten Linearen Modell 120 -,... für die bi-partielle Korrelation 187 -,... für die gemeinsame Korrelation mehrerer Merkmalspaare 159ff -,... für die kanonische Korrelation 174 -,... für die Korrelation zweier normalverteilter Merkmale 145 -,... für die multiple bi-partielle Korrelation 189 -,... für die multiple Korrelation 167f -,... für die multiple partielle Korrelation 184
802
Stichwortverzeichnis
-,... für die partielle Korrelation 182,200 -,... für die Präzision von Meßinstrumenten 738 -,... für die Produktvariabilität 737 -,... für die Regressionskoeffizienten 83f,119ff — , . . . im Gemischten Linearen Modell 119ff — , . . . im multiplen Regressionsmodell 83f -,... für die Varianz im multiplen Regressionsmodell 84 für eine Korrelationsmatrix 162 -,... für eine Linearform im Gemischten Linearen Modell 121 für multivariate Varianzkomponenten 720f f -,Gauß-Markov-... 120 -,Güte eines ... 40 -,... im multivariaten Einstichprobenproblem 223f -,... im restringierten multivariaten Linearen Modell 660ff -,Kleinste-Quadrate-... 41f -,Maximum-Likelihood-... 40f Momenten... 40 -»Verzerrung eines ... 40 Schätzfunktion 39f -,erwartungstreue ... 39 konsistente ... 40 Schätzung 3,38ff -,Bereichs... 3,43f -,erwartungstreue ... 39 - konsistente ... 40 -,... nach der Maximum-LikelihoodMethode 4Of -,... nach der Methode der Kleinsten-Quadrate 41f -,... nach der Momentenmethode 40 -,Punkt... 38ff -,statistische ... 38ff Schätzverfahren 40ff Scheinkorrelation 143 Scheinvariable 285,324ff -,Kovarianzmatrix einer ... 324 —,Choleski-Zerlegung der ... 325 -,Kreuzkovarianzmatrix von .. 324 -,rangreduzierte Korrelationsmatrix von . . . 326 schiefwinklige Faktoren 511,561ff Korrelation zwischen ... 564 schiefwinklige Rotation 514,547, 561f f -,... mittels PrimärfaktorenMethode 514,561f f Schwerpunktmethode der Faktorenanalyse 534ff Selektionsindex 122 semidefinite Matrix 64
-,negativ ... 64 -,positiv ... 64 serialer Korrelationskoeffizient 201f f -,bi-... 202 -,poly... 203 -,punktbi... 202 -,punktpoly... 203 sicheres Ereignis 25 Signifikanzniveau 46 Simplex-Verfahren 421 simultane Vergleiche nach Holm 163ff single linkage 457,479 -,Diskrimination neuer Objekte in die Klasse einer Hierarchie mittels ... 49lf -,Rekursionsformel für ... 48 7 Skala 19 -,metrische ... 19 -,Nominal... 19 -»Ordinal... 19 skalare Multiplikation 48ff Skalenelastizität 79f,114,122 Skalenniveau -,Senkung des ... 293 Skalenwert 285ff skalierte Datenmatrix 292 Skalierung 6f,269ff,377ff -,... bei gemischten Datentypen 350f f -,... eines kategoriellen Merkmals gegen ein stetiges Merkmal 362 -,... eines ordinalen Merkmals 270, 276f f -,... gegen eine Kriteriumsvariable 271,290ff,322f,334ff,359f -,gemeinsame ... 272,322ff — , . . . bei einer Kriteriumsvariablen 273,322f,334ff,359f — , ... bei gleichberechtigten Merkmalen 272f,322,331ff , ... nach dem Kriterium der maximalen Maximum-Exzentrizität 273,322,331ff,359 ,... nach dem Kriterium der minimalen Determinante 273,322,331ff, 358f -'-,... bei mehreren Kriteriumsvariablen 274,323,347ff,360f Güteprüfung der ... 271,300ff -,Guttmansche ... 271,275 -,... in Kontingenztafeln 277,282ff -,kategorielle ... 277,282ff -.Lancaster-... 277,282ff -,multidimensionale ... 7,377ff — ,- - - ausgehend von Präferenzdaten 381,420ff — , ... ausgehend von Proximitätsdaten 380,405ff —,metrische ... 380,384ff — , . . . mittels des Verfahrens von Kruskal 380,383,405ff
Stich Wortverzeichnis
— , . . . mittels Haupt-KoordinatenMethode 380,393ff — , . . . mittels Nonlinear Mapping 380, 384ff — , . . . mittels Unfolding-Technik 381,420ff —,nichtmetrische ... 380,405ff -,... qualitativer Merkmale 6f 269ff — , ... für Regressionszwecke 69 Iff -,... zweier kategorieller Merkmale 270,282ff Skalierungskriterien 273f,322f,330ff 355ff Sonne 610,614f Sozialwissenschaften 1 Spaltenvektor 48 Spaltenvolumen 54 Spannweite 24 Spearmanscher Rangkorrelationskoeffizient 191ff -,Test auf Unkorreliertheit mittels ... 193f —,simultaner ... 196f Spur 53,58 Stärke des Zusammenhangs mehrerer Merkmale 162 Stammbaum 9,448ff,473f Stamm-und-Blätter 597 Standardabweichung 23,35f Standardnormalverteilung 29 Erwartungswert der ... 33 -,Median der ... 34 -,Quantile der ... 34 Varianz der ... 36 -,Verteilungsfunktion der ... 29 star 601,614 Stern 610,614 Stem-and-Leaves 595ff stetiges Merkmal 19 stetige Verteilung 31f stetig verteilter Zufallsvektor 65 Stichprobe 2,18 -,unverbundene ... 230ff -,.verbundene ... 232f Stichprobenkorrelation 145 stochastisch unabhängig 27 Stress 406ff Stress-1 406 ,41lf Stress-2 407,411f Streifen 610,613 Streubereich 24 Streuungsmaße 23ff,35ff -,empirische ... 23ff Streuungsparameter 35ff Stripe 613 Struktur in einer Menge von Objekten 44 3 Summenhäufigkeit 20 -,absolute ... 20 -,relative ... 20 Summenhäufigkeitsfunktion 20
803
sun 614f Symmetrietest 228 symmetrische Matrix 50 Taxonomie 8 Technik 1 Test 3,45ff -,Ablehnungsbereich eines ... 46 -,Annahmebereich eines ... 46 -,Anpassungs... 45 -,... auf bi-partielle Unkorreliertheit 187 -,... auf multiple bi-partielle Unkorreliertheit 190 -,... auf multiple partielle Unkorreliertheit 184f -,... auf paarweise Unkorreliertheit mehrerer Merkmale 163f -,... auf partielle Unkorreliertheit 182
-,... auf Unkorreliertheit nichtnormalverteilter Merkmale 193,200, 204f einseitiger ... 46 -,... für die Korrelation zweier normalverteilter Merkmale 153ff -,... für die kanonische Korrelation 175 -,... für die multiple Korrelation 171 f -,... im einfachen multivariaten Blockexperiment 705f -,... im Modell der multivariaten Einfachklassifikation 694 -,... im Modell der multivariaten Kreuzklassifikation mit Wechselwirkungen 70 lf -,... im Modell der multivariaten zweifach hierarchischen Klassifikation 708 f -,... im multivariaten Einstichprobenproblem 225ff im multivariaten Zweistichprobenproblem 2 3 Off -,Irrtumswahrscheinlichkeit eines ... 46 -,Niveau eines ... 46 - Konstruktion eines . . . 46f -»kritischer Wert eines ... 46 -,Signifikanzniveau eines ... 46 -,statistischer ... 3,45ff -,... über den Erwartungswert einer Normalverteilung 47f -,... über die Anzahl der Faktoren 521 ,527 -,... über die Einfachstruktur 548 -,... über die Parameter einer Verteilung 3,45ff -,... über die Regressionskoeffizienten im multiplen Regressionsmcdell 86f
804
Stichwortverzeichnis
-,... zum Vergleich der Korrelationen mehrerer Merkmalspaare 159f f -,... zur Bewertung von Klassifikationsstrukturen 446 -»... zur Prüfung von Kovarianzhypothesen 234ff -»zweiseitiger ... 46 Testen 45ff Testmatrix im restringierten Multivariaten Linearen Modell 657,662 Teststatistik 46 Testverfahren im restringierten Multivariaten Linearen Modell 657,664ff tetrachorischer Korrelationskoeffizient 204 totale Wahrscheinlichkeit -,Satz von der ... 27 T2-Statistik 227ff trace 53 Trägermenge 30 Transformation in lineare Regressionsfunktionen 114 Transformationsmatrix 514,548ff -,... einer Orthogonalrotation 548ff -,... einer schiefwinkligen Rotation 562ff transponierte Matrix 50 transponierter Vektor 48 tree 630ff -,Kleiner-Hartigan-,.. l,630ff Trennmaß 241,251ff Trennung -,Güte der ... 242 Treppenfunktion 20 Tschebyscheffscher Abstand 72 Tschebyscheffsehe Ungleichung 35f t-Verteilung 44 -»Quantile der ... 44 -»zentrale ... 44 Lieberdeckung 9,447 -,Gütemaße für eine ... 458f -,Klassen einer ... 447 --,Zuordnung neuer Objekte zu den ... 490 -,Konstruktionsverfahren für eine ... 460ff —,exhaustives ... 461ff —,iteratives ... 463ff Überprüfung einer Normalverteilungsannahme 596,602f Umsatzrendite 639ff Umweltforschung 1 unabhängig linear ... 55 -,stochastisch ... 27,32 Unabhängigkeit mehrerer Merkmale 162ff Unbestimmtheitsmaß 83 Unentbehr1ichke it
-»Methode der ... 251ff Unfolding-Technik 8,381,4 20f f -»Chernikova-Algorithmus zur ... 421 -,Dreiecksanalyse zur ... 421ff -»eindimensionale ... 420ff -,Goode-Phillips-Algorithmus zur ... 421,426ff -,mehrdimensionale ... 421 unifactor model 514 Union-Intersection-Prinzip 116,177, 332 unique factor 509 unkorreliert 144 unmögliches Ereignis 25 unrestringiertes Multivariates Lineares Modell 663 Untersuchungseinheit 2,18 unverbundene Stichprobe 232f Variable
-,endogene ... 77 -,exogene ... 77 -,kanonische ...371 Varianz 23,35f -,... der Binomialverteilung 37 -,... der NormalVerteilung 36 -,... der StandardnormalVerteilung 36 -,empirische ... 23 -,merkmalseigene ... 510 Varianzanalyse -,multivariate ... 13f,658f,692ff — , . . . mit festen Effekten 658f, 692ff — , . . . mit zufälligen Effekten 719ff Varianzkomponenten 127 -»multivariate ... 720ff Varianzkomponentenmodelle -,multivariate ... 14,719ff Varimax-Methode 513,55Iff -»rohe ... 552 -,Rotationswinkel bei der ... 553 Varimax-Kriterium 552 Variationskoeffizient 23,36 vec-Operator 53 Vektor 48ff -,Addition von ... 48 -,Betrag eines ... 64 -,Länge eines ... 49 -,Lösungs... 57 -»Multiplikation von ... 48 -»n-dimensionaler ... 48 -»Norm eines ... 64 -»normierter ... 49 -»orthogonaler ... 64 -»orthonormaler ... 64 -»skalare Multiplikation eines ... 48f -»Spalten... 48 -»transponierter ... 48 -»Zeilen... 48
Stichwortverzeichnis
-.zufälliger ... 64 -.Zufalls... 64 Vektorrechnung 3,48ff Verallgemeinertes Lineares Modell 134ff verbundene Stichproben 230ff Vereinigungs-DurchschnittsPrinzip 332 Verknüpfung der Verfahren der MDS 380f Verlaufskurve 13,659,710ff Verlaufsprofil 717 Verschiebungssatz 36 Verschiedenheitsrelation 75 Verschuldungsgrad 639ff Verteilung 3,28ff,64ff Binomial... 3,29f -,X 2 -..- 44 diskrete ... 30 -,F-... 45 -,gemeinsame ... 65ff -,mehrdimensionale ... 3,64ff mehrdimensionale Normal... 65ff —,Eigenschaften der ... 70 -,Multinomial... 138 -,multivariate ... 3,64ff ^multivariate Normal... 70 -,Normal... 3,28f,64ff -,Prüf... 44f - ,Rand. .. 65 -,Standardnormal... 29 -,stetige ... 31f -,t-... 44 -(Wahrscheinlichkeits... 28 Verteilungsfunktion 20,28,65 -,... der Binomialverteilung 29f -,... der mehrdimensionalen Normalverteilung 67 -,... der Normalverteilung 28f -(empirische ... 20 -(gemeinsame ... 65 -(logistische ... 132 -,mehrdimensionale ... 65 verträgliche Nebenbedingung 660 Vertrauensbereich 43f Verzerrung 40 Vierfeldertafel 206 vollständige Präordnung 75 vollständiges Varianzanalysemodell 692 Vorinformation 127 Wachstumskurve 71Off Wahrscheinlichkeit 3,26ff -,bedingte ... 3,26ff -(Rechenregeln für ... 26 -,Satz von der totalen ... 27 Wahrscheinlichkeitsmodell -,Lineares ... 4,80,130,133,136 Wahrscheinlichkeitspapier 90 Wahrscheinlichkeitsrechnung 3,25ff Wahrscheinlichkeitsverteilung 28,64f
805
-,... einer Zufallsvariablen 28 -,... eines Zufallsvektors 64f Wechse1Wirkung 692,722 -,zufällige ... 722 Wechselwirkungseffekt 701 wesentliches Merkmal 5 Wetterfahne 593f Wilks-Test 175f,665 ^Approximation des ... 175f,665 -»kritische Werte des ... 175,665 Wirkungsfläche 712 Wirkungsverlauf 712 Wirtschaft 1 Wirtschaftlichkeitskoeffizient 122 Wirtschaftswissenschaften 1 Zeilenvektor 48 zeitliches Mittel 712 Zeitreihenanalyse 116 Zentralobjekt 465,469 Zentralwert 22 Zentroidmethode 512,534ff z-Transformation -,Fishersche ... 154 zufällige Matrix 70 zufällige Null 142 zufälliger Effekt 13f,118ff -,nicht-zentrierter 126 zufälliger Regressionskoeffizient 118ff,126 zufälliger Vektor 64 Zufallsexperiment 25 Zufallsstichprobe 39 Zufallsvariable 3,28ff -,binomialverteilte 29f Erwartungswert einer ... 32 -,Kenngröße einer ... 32ff Lageparameter einer ... 32ff -,Mit.telwert einer ... 32 -,normalverteilte ... 28f -,Notation von ... 48 -»standardisierte ... 36 -,standardnormalverteilte ... 29 -(Streuungsparameter einer ... 35ff Zufallsvektor 64f -,diskret verteilter ... 65 stetig verteilter ... 65 - Wahrscheinlichkeitsverteilung eines ... 64f Zuordnung von Objekten 240ff,271, 307f f -,... im Mehrgruppenfall der Diskriminanzanalyse 245ff -,... im Zweigruppenfall der Diskriminanzanalyse 242ff -Wahrscheinlichkeit richtiger ... 245 -,... zu den Klassen einer Klassifikation 489f f -,... zu den Stufen einer Kriteriumsvariablen 271,307ff Zusammenhang 3f,77,509
806
Stichwortverzeichnis
-,funktionaler ... 3f,77,81 -,... zwischen Faktoren und Merkmalen 509 -,... zwischen Faktoren und Objekten 509 -,... zwischen Merkmalen und Objekten 509 zweifache Kreuzklassifikation -,multivariate ... 658,700ff ,722 73 Iff —,... mit einer Beobachtung pro Zelle 705ff —,... mit festen Effekten 692,700ff ,... mit Wechselwirkungen 692, 700f f ,... ohne Wechselwirkungen 692, 705f f — , . . . mit zufälligen Effekten 722,731ff ,... mit Wechselwirkungen 722, 733f ,... ohne Wechselwirkungen 722, 732f
zweifach hierarchische Klassifikation -.multivariate ... 692,707ff,722, 725ff --,... mit festen Effekten 692, 707f f — , . . . mit zufälligen Effekten 722, 725ff Zweigruppenfall der Diskriminanzanalyse 240,242ff -.Zuordnung von Objekten im ... 242ff —,... mittels generalisierter linearer Diskriminanzfunktion 244f —.... mittels linearer Fisherscher Diskriminanzfunktion 243ff Zweistichprobenproblem -.multivariates ... 5,221,230ff —,unverbundenes ... 230ff .Mittelwertvergleich im ... 230f —.unverbundenes ... 232f .Mittelwertvergleich im ... 232f
Symbolverzeichnis
6 SYMBOLVERZEICHNIS 6.1 A L L G E M E I N E
+
SYMBOLE
plus, Addition; minus, Subtraktion; mal, Multipl ikation;
a/b
a dividiert durch b;
^
a dividiert durch b;
0
Kroneckerprodukt;
ε
Element aus;
$
nicht Element aus; gleich;
φ
ungleich;
=«
ungefähr gleich;
>
größer als;