193 7 25MB
German Pages 250 [252] Year 1998
Multivariate Verfahren Von Universitätsprofessor
Dr. Gerhard Marineil Leopold-Franzens-Universität Innsbruck
5., unwesentlich veränderte Auflage
R. Oldenbourg Verlag München Wien
Die Deutsche Bibliothek - CIP-Einheitsaufnahme Marinell, Gerhard: Multivariate Verfahren / von Gerhard Marinell. - 5., unwesentl. veränd. Aufl. - München ; Wien : Oldenbourg, 1998 ISBN 3-486-24785-9
© 1998 R. Oldenbourg Verlag Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0, Internet: http://www.oldenbourg.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Gedruckt auf säure- und chlorfreiem Papier Gesamtherstellung: Huber KG, Dießen ISBN 3-486-24785-9
Inhalt
Vorwort zur 5. Auflage
IX
Vorwort zur 3. Auflage
XI
Einführung
1
1
Beschreibung der Verfahren
1
2
Beobachtungsmatrix
4 6
3
Signifikanztest
4
Normalverteilung
5
SPSS-Programme für Windows
9 11
6
Anmerkungen
12
7
Literatur
14
Unterschiede
17
1
23
2
3
Varianzanalyse 1.1
Allgemein
23
1.2
Numerisches Beispiel
25
1.3
Anmerkungen
27
1.4
Aufgaben
32
1.5
Literatur
39
Kovarianzanalyse
41
2.1
Allgemein
41
2.2
Numerisches Beispiel
42
2.3
Anmerkungen
45
2.4
Aufgaben
46
2.5
Literatur
54
Diskriminanzanalyse
56
3.1
Allgemein
56
3.2
Numerisches Beispiel
57
VI
4
3.3
Anmerkungen
60
3.4
Aufgaben
63
3.5
Literatur
68
Clusteranalyse
70
4.1
Allgemein
70
4.2
Numerisches Beispiel
73
4.3
Anmerkungen
82
4.4
Aufgaben
85
4.5
Literatur
91
Zusammenhänge
93
1
Kanonische Korrelationsanalyse
97
1.1
Allgemein
97
1.2
Numerisches Beispiel :
99
2
3
4
1.3
Anmerkungen
1.4
Aufgaben
101 105
1.5
Literatur
111
Regressionsanalyse
113
2.1
Allgemein
113
2.2
Numerisches Beispiel
115
2.3
Anmerkungen
119
2.4
Aufgaben
126
2.5
Literatur
132
Hauptkomponentenanalyse
134
3.1
Allgemein
134
3.2
Numerisches Beispiel
137
3.3
Anmerkungen
139
3.4
Aufgaben
143
3.5
Literatur
150
Faktorenanalyse
152
4.1
Allgemein
152
4.2
Numerisches Beispiel
155
4.3
Anmerkungen
158
4.4
Aufgaben
164
4.5
Literatur
172
VII Anhang 1
175 Definitionen und Regeln aus der Matrixalgebra
175
1.1
Typen von Matrizen
175
1.2
Matrixoperationen
176
1.3
Vektorraum
180
1.4
Eigenwerte und Eigenvektoren
181
1.5
Symmetrische Matrizen
182
1.6
Matrixdifferentiation
184
2
SPSS Programme für Windows
3
F-, χ - und ¿-Verteilung
232
4
Stichwortverzeichnis
235
2
187
Vorwort zur 5. Auflage Wie die angeführten multivariaten Verfahren mit EDV berechnet werden, wird in einem eigenen Abschnitt für das Programmpaket „SPSS für Windows" in dieser 5. Auflage gezeigt. Auch ein Abschnitt über den Signifikanztest allgemein sowie über das Prüfen der multivariaten Normalverteilungshypothese ist neu hinzugekommen. Gerhard Marinell
Vorwort zur 3. Auflage Multivariate statistische Verfahren sind wegen ihrer umfangreichen und aufwendigen Rechenabläufe erst mit dem Aufkommen elektronischer Rechenanlagen ein wichtiges und häufig angewandtes Instrument der empirischen Forschung geworden. Jedermann ist heute in der Lage, seine Beobachtungen und Datensätze mit Hilfe multivariater Verfahren in Bruchteilen einer Sekunde zu analysieren, indem er durch einfache Prozedurbefehle das gewünschte statistische Verfahren in einem entsprechenden Softwarepaket einer Rechenanlage aufruft. Diese leichte Verfügbarkeit erlaubt es, die Realität in ihrer Vielfältigkeit und Komplexität besser und adäquater zu analysieren, als dies mit univeriaten statistischen Verfahren möglich ist. Die sinnvolle Anwendung verlangt jedoch, daß m a n nicht nur die Voraussetzungen kennt, an die das statistische Analyseinstrument gebunden ist, sondern auch in der Lage ist, die mit einfachem Tastendruck verfügbaren Ergebnisse richtig zu interpretieren. Dem Sinn einer Einführung entsprechend wurde eine Beschränkung des behandelten Stoffes in dreifacher Hinsicht vorgenommen. Im Hinblick auf die Skalierung der beobachtbaren Variablen, werden nur multivariate Verfahren behandelt, die zumindest intervallskaliert sind. Verfahren für ordinal oder nominal skalierte Variablen werden nicht berücksichtigt. Die zweite Einschränkung betrifft die Verteilungsform. Für die angeführten Testverfahren wird jeweils vorausgesetzt, daß die Beobachtungen aus Ausgangsverteilungen stammen, die multivariat normalverteilt sind. Diese Voraussetzung ist zwar für viele Stichproben auf Grund des zentralen Grenzwertsatzes zumindest asymptotisch gerechtfertigt. Für Stichproben kleineren Umfanges muß dies aber keineswegs zutreffen. Verfahren die ohne dieser Normalverteilungsannahme auskommen, werden jedoch nicht behandelt. Die letzte Einschränkung bezieht sich auf die Informationsbasis, die berücksichtigt wird. Weder Aprioriinformationen noch explizite Informationen über Schäden möglicher Fehlentscheidungen werden bei den beschriebenen multivariaten Verfahren in Rechnung gestellt. Nur jene Informationen, die aus einer Zufallsstichprobe s t a m m e n , werden in die Analyse einbezogen. Dieses sogenannte klassische Modell ist der Ausgangspunkt für die dargestellten multivariaten Test- und Schätzverfahren. Die dargestellten multivariaten statistischen Verfahren werden in zwei Ka-
XII pitel zusammengefaßt. Im ersten werden die multivariate Varianz- und Kovarianzanalyse sowie die Diskriminanz- und Clusteranalyse behandelt. Kanonische Korrelationsanalyse, Regressionsanalyse, Hauptkomponenten- und Faktorenanalyse werden im zweiten Kapitel beschrieben. Für jedes Verfahren wird an Hand eines einfachen numerischen Beispiels gezeigt, wie eine entsprechende Analyse durchgeführt wird. Neben diesem numerischen Beispiel und den allgemeinen Formeln wird aber auch für den mathematisch interessierten Leser in den Anmerkungen auf die Ableitung der jeweiligen Formeln hingewiesen. Aufgaben aus den verschiedensten Anwendungsgebieten sowie ein spezifisches Literaturverzeichnis zur Vertiefung der Kenntnisse ergänzen jeden Abschnitt über ein bestimmtes multivariates Analyseverfahren. Die 3. Auflage unterscheidet sich von der 2. durch die Angabe des ausführlichen Lösungsweges für die einzelnen Aufgaben. Diese sind in einem gesonderten Anhang zusammengefaßt. Für die Unterstützung bei der Anfertigung dieser erweiterten Auflage bin ich Frau Dr. Gabriele Steckel-Berger zu Dank verpflichtet. Mein Dank gilt auch Frl. Angelika Schimann, die mit großem Fleiß und Akribie eine lesbare Druckvorlage erstellte. Gerhard Marinell
Kapitel I Einführung 1
Beschreibung der Verfahren
Univariate statistische Verfahren werden zur Analyse von Untersuchungseinheiten verwendet, die nur nach einem einzigen Merkmal verteilt sind. Um die Effizienz zweier U n t e r r i c h t s m e t h o d e n a und b zu vergleichen, kann m a n z.B. die literarischen Kenntnisse der entsprechend u n t e r r i c h t e t e n Schüler prüfen und gegenüberstellen. Einziges M e r k m a l ist hier das Literaturwissen. Mit Hilfe der univariaten Varianzanalyse stellt m a n fest, ob dieses Wissen in den beiden Schülergruppen signifikant oder nur zufällig verschieden ist, ob also Methode a oder b im Hinblick auf die Vermittlung von Literaturwissen besser ist. Zwei verschiedene U n t e r r i c h t s m e t h o d e n finden ihren Niederschlag nicht nur im unterschiedlichen Literaturwissen der Schüler, sondern meist in den verschiedensten Merkmalen. Es ist daher sinnvoll und angebracht, weitere Variable wie ihr naturwissenschaftliches Wissen, ihre Konzentrationsfähigkeit oder auch ihr logisches Denkvermögen in die Untersuchung einzubeziehen. Sicherlich kann man eine Variable nach der anderen mit Hilfe univariater Verfahren analysieren. Abgesehen von der UnWirtschaftlichkeit einer solchen Vorgangsweise b e a n t w o r t e n diese Einzeltests aber nicht die gestellte Frage: Lassen sich die beiden U n t e r r i c h t s m e t h o d e n auf G r u n d der insgesamt gemessenen Fähigkeiten d e r Schüler unterscheiden? Bei der einen oder anderen Variablen werden signifikante Unterschiede a u f t r e t e n , bei den anderen hingegen nicht. Ein umfassendes Urteil ist daher k a u m möglich. Die Analyse gemeinsamer Verteilungen ist charakteristisch f ü r multivariate Verfahren. O b signifikante Unterschiede zwischen U n t e r r i c h t s m e t h o d e a u n d b an H a n d der vier a n g e f ü h r t e n Variablen nachweisbar sind, wird mit Hilfe der m u l t i v a r i a t e n Varianzanalyse geklärt. Ist m a n jedoch der Ansicht, daß die Unt e r r i c h t s m e t h o d e n a und b zwar Unterschiede im naturwissenschaftlichen und literarischen Wissen bewirken können, aber nicht die Konzentrationsfähigkeit und das logische Denkvermögen verändern, dann wird m a n nicht alle vier, sondern nur die beiden ersten Variablen einer multivariaten Varianzanalyse
2
Kapitel I.
Einführung
unterziehen. Das Problem ist damit jedoch noch nicht befriedigend gelöst, d a vermutlich die Konzentrationsfähigkeit und das logische Denkvermögen der Schüler einen Einfluß auf die Aneignung haben und ein festgestellter Unterschied teilweise durch diese Begabungen verursacht sein kann. Das geeignete Verfahren, das diesem Tatbestand gerecht wird, ist die multivariate Kovarianzanalyse. Mit ihrer Hilfe wird der Einfluß von Konzentrationsfähigkeit und logischem Denkvermögen eliminiert und die Wirksamkeit der beiden Unterrichtsmethoden auf den Wissenserwerb unabhängig von der Begabung der Schüler geprüft. Bestätigt das Analyseergebnis die Vermutung, daß sich die Lehrmethoden o u n d b in ihrer Effizienz wesentlich unterscheiden, dann ist auch vorhersagbar, welche Testpunkte Schüler im Durchschnitt erreichen werden, wenn man sie nach einer der beiden Methoden unterrichtet. Für die umgekehrte Schlußfolgerung von den Testpunkten auf die Lehrmethode benötigt man die Diskriminanzanalyse. Man kennt z.B. die Prüfungsergebnisse eines Schülers in den naturwissenschaftlichen und literarischen Fächern, weiß aber nicht, nach welcher Methode man ihn belehrte. Mit Hilfe der Diskriminanzanalyse kann aus der Zahl der erreichten P u n k t e abgeleitet werden, nach welcher Methode ihm sein Wissen vermutlich beigebracht wurde. Bisher wurde angenommen, daß man von jedem in die Untersuchung einbezogenen Schüler weiß, nach welcher Methode er unterrichtet wurde. Jeder Schüler gehört daher entweder zur Gruppe α oder b. Wenn man jedoch nur die Ergebnisse von Schülern in den vier Tests zur Verfügung hat und nicht weiß, ob sie nach verschiedenen Methoden unterrichtet wurden, dann hilft die Clusteranalyse, die Schüler auf Grund ihrer Testergebnisse aufzuteilen. Das Ergebnis der Clusteranalyse sind also Gruppen von Schülern, die eventuell nach verschiedenen Lehrmethoden unterrichtet wurden oder aus verschiedenen sozialen Schichten stammen oder sich nach einem anderen Merkmal unterscheiden. Jedenfalls sind die Testergebnisse der Schüler, die in einer Gruppe zusammengefaßt sind, untereinander ähnlicher als die zwischen zwei Gruppen. Multivariate Varianz-, Kovarianz-, Diskriminanz- und Clusteranalyse dienen dazu, die Unterschiedlichkeit von Stichproben zu finden, zu beurteilen und zu „diskriminieren". Kanonische Korrelations-, multivariate Regressions-, Hauptkomponenten- und Faktorenanalyse sind hingegen Methoden, mit denen man Zusammenhänge zwischen Variablen erforscht. Der einfachste Fall eines Zusammenhanges zwischen zwei Variablen kann durch einen einzigen Korrelationskoeffizienten ausgedrückt werden, jener von drei Variablen erfordert bereits drei Koeffizienten. Bei vier Variablen benötigt m a n schon sechs solcher Maßzahlen, um alle möglichen paarweisen Zusammenhänge zu durchleuchten. Für die genaue Analyse der Zusammenhänge zwischen den vier erwähnten Variablen der Schüler sind folgende sechs Korrelationskoeffizienten zu berechnen und zu interpretieren: Konzentrationsfähigkeit mit logi-
1. Beschreibung
der Verfahren
3
schem Denkvermögen, naturwissenschaftlichem und literarischem Wissen, logisches Denkvermögen mit naturwissenschaftlichem und literarischem Wissen und schließlich der Zusammenhang zwischen naturwissenschaftlichem und literarischem Wissen. Eine Gesamtbeurteilung ist hier kaum noch möglich und wird mit zunehmender Variablenzahl immer schwieriger und komplizierter. Mit Hilfe der kanonischen Korrelationsanalyse können die Zusammenhänge zwischen sehr vielen Variablen einfach und leicht analysiert werden, wenn sie zu zwei Variablengruppen zusammengefaßt sind. Die Frage, ob z.B. zwischen Konzentrationsfähigkeit und logischem Denkvermögen einerseits und naturwissenschaftlichem und literarischem Wissen der Schüler andererseits ein Zusammenhang besteht, beantwortet die kanonische Korrelationsanalyse mit einer einzigen Maßzahl. Es wird nicht der Zusammenhang zwischen zwei Variablen der Reihe nach geprüft wie bei der einfachen Korrelationsanalyse, sondern der zwischen den zwei Gruppen von Variablen. Zum Unterschied von der kanonischen Korrelationsanalyse besteht bei der multiplen Regressionsanalyse die zweite Variablengruppe nur aus einer einzelnen Variablen. Diese nennt man „abhängige" oder zu „erklärende" Variable. Erklärt wird sie durch die Gruppe der „unabhängigen". Wie stark hängt z.B. der naturwissenschaftliche Kenntnisstand der Schüler von ihrer Konzentrationsfähigkeit und ihrem logischen Denkvermögen ab? Das statistische Werkzeug zur Beanwortung dieser Frage ist die multiple Regressionsanalyse. Mit ihrer Hilfe kann man die Ausprägung der abhängigen Variablen, die Testpunkte des naturwissenschaftlichen Wissens, durch die unabhängigen Variablen Konzentrationsfähigkeit und logisches Denkvermögen erklären und prognostizieren. Gibt es weder abhängige noch unabhängige Variablengruppen, will man lediglich die Variablenzahl verringern und zwar durch ein rechnerisch eindeutiges Verfahren, dann verwendet man dazu die Hauptkomponentenanalyse. Sie dient zur Reduktion der Variablenvielfalt auf wenige Hauptkomponenten, die den ursprünglichen Informationsgehalt ausreichend wiedergeben. Diese Reduktion ist nur möglich, wenn zwischen den Variablen Zusammenhänge bestehen, deren Redundanz für die Komponentenkonstruktion heranziehbar ist. Auch die Faktorenanalyse verwendet die eventuell vorhandene Redundanz zwischen den Variablen zur Bestimmung von sogenannten gemeinsamen Faktoren, die nicht direkt beobachtbar sind, aber mit den beobachtbaren Variablen stark korrelieren. Im angeführten Beispiel kann etwa ein anlagebedingter Faktor angenommen werden, der durch das logische Denkvermögen der Schüler aufgeladen wird, sowie ein lernbedingter Faktor, der für naturwissenschaftliches und literarisches Wissen sowie für die Konzentrationsfähigkeit steht.
4
2
Kapitel
I.
Einführung
Beobachtungsmatrix
U m den Rechengang der einzelnen Verfahren zu erläutern, wird folgendes einfache numerische Beispiel verwendet: Tests, die das naturwissenschaftliche Wissen (= Zi), das literarische Wissen ( = x2), die Konzentrationsfähigkeit ( = x3) u n d das logische Denkvermögen ( = χ4) prüfen, werden von sechs Schülern absolviert. In den vier Tests können P u n k t e zwischen 1 und 10 erreicht werden. 1 bedeutet hierbei sehr schlecht, 10 hingegen ausgezeichnet. In folgender Beobachtungsmatrix sind die Ergebnisse ausgewiesen:
X
£1
x2
X3
X4
ei / 7 9 e-i e3 4 = e4 2 3 e5 ee l 1
9 8 3 3 1 1
10 8 1 2 2 1
8 \ 10 2 2 4 4
)
Dieses zur Demonstration aller Verfahren verwendete Beispiel ist so einfach gewählt, daß die notwendigen Rechnungen ohne besondere Hilfsmittel durchgeführt werden können. In der Praxis benützt man für die Berechnungen Datenverarbeitungsanlagen mit so allgemeinen Programmen, daß jede Aufgabe auch ohne Kenntnis der einzelnen Rechenschritte lösbar ist. Für die Auswahl der adäquaten Verfahren und für die Interpretation der Ergebnisse ist jedoch dieses Wissen eine wichtige Hilfe. Die Beobachtungsmatrix, die mit X abgekürzt wird, ist Ausgangspunkt für jede multivariate Analyse: e1...en Einheiten sind nach x\ . .. xt Merkmalen verteilt. Hier werden 6 Einheiten nach 4 Merkmalen verteilt. In den Spalt e n der X - M a t r i x stehen die Merkmalsausprägungen der t Variablen. In den Zeilen findet m a n die Ausprägungen der jeweiligen Einheit. Xij ist die Merkmalsausprägung der ¿-ten Einheit und der j-ten Variablen. Will m a n die Einheiten der Beobachtungsmatrix betonen, so kann man sie auch folgendermaßen schreiben:
\»β ' mit Xu
X; =
i = 1 >
6.
Xi4 ,
Wenn m a n die Variablen der Beobachtungsmatrix hervorheben will, dann kann dies wie folgt geschehen: X = ( * ( ! ) , . . . , 3(4)) ,
2.
Beobachtungsmatrix
5
mit
xj,...,
Xg sind also die Zeilen von X und ® ( i ) , . . . , ®(4) die Spalten der Beob-
achtungsmatrix. (a;, ist die i-te Zeile von X , geschrieben als Spaltenvektor) In multivariaten Analysen werden üblicherweise die Zeilen X\,... ,xn als Zufallsstichproben 1 ' betrachtet, nicht aber die Spalten a : ^ ) , . . . ,
Dies wird
durch die Klammern beim Spaltenindex zum Ausdruck gebracht. Je nach Ziel der Analyse wird die Beobachtungsmatrix X horizontal oder vertikal in Submatrizen zerlegt. Bei den Verfahren zur Prüfung von Unterschieden werden die η Einheiten, die den η Zeilen der Beobachtungsmatrix X entsprechen, zu g Stichproben zusammengefaßt. Die Beobachtungsmatrix wird also horizontal in g Submatrizen Xa, X¡,,...,
Xg
aufgeteilt. Jede dieser Subma-
trizen hat gleich viele Spalten wie die Beobachtungsmatrix X , die Zahl der Zeilen ist jedoch geringer:
Χι
ÍXA X
Xi . . . Xj . . . Xi
ei
Χα =
=
\XJ X9 =
/
\
Die Aufteilung der Beobachtungsmatrix in g Stichproben ist bei der Varianz-, Kovarianz- und Diskriminanzanalyse vorgegeben. Die Clusteranalyse ist hingegen ein Verfahren, um die Einheiten der Beobachtungsmatrix in g Stichproben zu trennen. Zur Prüfung von Zusammenhängen zwischen den t Variablen wird die Matrix X nicht horizontal, sondern vertikal in mindestens zwei Submatrizen X i mit ρ und X2 mit q Variablen zerlegt. Hier hat jede Submatrix gleich viele Zeilen wie die Beobachtungsmatrix, aber weniger Spalten:
X\ ... xp ei /
X =
(X1|X2)
Xi=
\
:
en
ei f
x2= \
/
1 · · · ^p+q \
; \
/
Die Trennung der t Variablen der Beobachtungsmatrix X in zwei Gruppen mit ρ und q Variablen wird bei der kanonischen Korrelationsanalyse, sowie der
6
Kapitel I.
Einführung
multiplen Regressionsanalyse vorweg durchgeführt, nicht aber bei der Hauptkomponenten- und Faktorenanalyse. Eine zweite „Variablengruppe" wird bei diesen Verfahren erst aus den gesamten t Variablen der Beobachtungsmatrix X errechnet.
3
Signifikanztest
Vermutungen über die Beziehungen zwischen Ausgangsverteilungen formuliert m a n in Form von Hypothesen. Man nimmt z.B. an, daß zwischen den Punktezahlen, die die Schüler für ihr literarisches Wissen erhalten, im Durchschnitt kein Unterschied besteht, gleichgültig ob sie nach Methode α oder b unterrichtet wurden. Diese Hypothese wird formal wie folgt angeschrieben: H0 • μα = ßbEine Alternativhypothese dazu ist Hi • μ α φ μί· Die durchschnittlichen Punktezahlen der Schüler, die nach der Methode α unterrichtet wurden, unterscheidet sich vom Durchschnitt der Schüler, die nach der zweiten Methode belehrt wurden. An Hand einer Stichprobe wird entschieden, ob die sogenannte Null- (nach dem Index) oder Alternativhypothese angenommen bzw. abgelehnt wird. Folgende Konsequenzen können bei dieser Entscheidung auftreten: Man entscheidet sich für die Alternativhypothese, n i m m t also an, daß sich die durchschnittlichen Punktezahlen der Schüler der beiden Unterrichtsmethoden unterscheiden. Wenn dies tatsächlich zutrifft, hat m a n richtig entschieden. Ist dies aber nicht der Fall, dann liegt eine Fehlentscheidung vor, die man als Fehler 1. Art oder α-Fehlerbezeichnet. Wenn man sich für die Nullhypothese entscheidet, also annimmt, daß die Durchschnittspunktezahlen in beiden Ausgangsverteilungen gleich sind, dann kann dies in Wirklichkeit zutreffen. In diesem Fall war es eine richtige Entscheidung. Eine Fehlentscheidung liegt vor, wenn sich tatsächlich die Durchschnittspunktezahlen unterscheiden. Diese Art von Fehlentscheidung bezeichnet m a n als Fehler 2. Art oder /3-Feh 1er. In folgender Ubersicht sind die Konsequenzen der beiden Entscheidungen zusammengefaßt:
Entscheidung Annahme von H0 Annahme von H\
Tatsächlich richtig Η! Ho richtig falsch: /^-Fehler richtig falsch: α-Fehler
3.
7
Signifikanztest
Man möchte natürlich die Wahrscheinlichkeiten für die möglichen Fehlentscheidungen minimieren. Die gleichzeitige Minimierung der beiden Fehlerwahrscheinlichkeiten ist nicht möglich. Es besteht folgendes Dilemma: Bei Verringerung der Wahrscheinlichkeit für den α-Fehler erhöht sich die Wahrscheinlichkeit für den /3-Fehler und umgekehrt. Beim Signifikanztest berücksichtigt man nur den a-Fehler durch die Vorgabe eines Signifikanzniveaus. Wird z.B. ein Test mit einem 5%-igen Signifikanzniveau durchgeführt, dann weiß man, daß die Wahrscheinlichkeit höchstens 5% beträgt, die richtige Nullhypothese abzulehnen. Die exakte Wahrscheinlichkeit kann 2% oder 1.5% betragen. Das Risiko für den Fehler 1. Art ist jedenfalls höchstens 5%. Wenn man also die Nullhypothese auf Grund der Stichprobenergebnisse auf einem 5%-igen Signifikanzniveau ablehnen kann, dann kennt man die Obergrenze seines Fehlerrisikos. Wenn die Stichprobenergebnisse keine Ablehnung der Nullhypothese auf dem gewählten Signifikanzniveau nahelegen, dann kann die Nullhypothese nicht abgelehnt werden. Das heißt aber keinesfalls, daß man in dieser Situation die Nullhypothese annimmt. Denn das Risiko einer Fehlentscheidung ist in diesem Fall unbekannt und kann daher auch sehr hoch sein. Man wird wohl kaum bereit sein, eine Nullhypothese mit einem Fehlerrisiko von z.B. 90% anzunehmen. Beim Signifikanztest weiß man von diesem Risiko des Fehlers 2. Art, daß es bei der Nichtablehnung der Nullhypothese auftritt, man weiß aber nichts über seine Höhe. Durch die Vorgabe des Signifikanzniveaus α wird die Wahrscheinlichkeitsverteilung der jeweiligen Testmaßzahl in einen kritischen und einen Nichtablehnungsbereich zerlegt. Folgende Grafik zeigt dies für die Testmaßzahl F und ein Signifikanzniveau von z.B. 5%.
f(F)
•> F 0
Nichtablehnungsbereich H 0n nicht ablehnen
Kritischer Bereich HΌn ablehnen c
8
Kapitel I.
Einführung
Wenn die aus der Stichprobe errechnete Testmaßzahl größer oder gleich dem kritischen Wert c ist, dann wird die Nullhypothese abgelehnt und die Alternativhypothese angenommen. Das Risiko der Fehlentscheidung ist auf maximal 5% beschränkt. Ist die Testmaßzahl kleiner als c, dann kann die Nullhypothese nicht abgelehnt werden und die Wahrscheinlichkeit der Fehlentscheidung ist nicht bekannt. Wenn man auf diese Art vorgeht, dann vergleicht man die aus der Stichprobe errechnete Testmaßzahl mit dem entsprechenden Perzentil der theoretischen Verteilung dieser Maßzahl, die sich bei Gültigkeit der Nullhypothese ergibt. Man kann z.B. m i t Hilfe eines Signifikanztests zum Niveau von 5% prüfen, ob sich die durchschnittliche Punktezahl im literarischen Wissen zwischen den ersten beiden Schülern und den vier restlichen nur zufällig oder wesentlich unterscheidet. Die beiden Hypothesen sind Ho
'• μα
Hl
: μα φ ßb
=
fJ-b
und die beiden Stichprobendurchschnitte sind
xb
=
9+ 8 = 9.5 2 3+3+1+1 „ = 2. 4
Will m a n die Frage an Hand eines .F-Tests klären, dann muß man den kritischen Wert c aus der .F-Verteilung mit i/i = 1 und i/2 — 4 bestimmen. Das 95.te Perzentil dieser Verteilung ist 7.71. Wenn die aus den beiden Stichproben errechnete Testmaßzahl FCTT größer gleich 7.71 ist, dann kann die Nullhypothese abgelehnt werden. Im vorliegenden Beispiel ist 1 - Λ FerT = —τ Λ
1/2 ut
=
0.926
4
0.074
1
= 50.074,
da Λ gleich ist |W| 4.5 „„„ Λ = -ι—r = = 0-074. |Γ| 60.83 Mit 50.074 ist FeTT größer als der kritische Wert c = 7.71. Man kann daher die Nullhypothese ablehnen und behaupten, daß sich die durchschnittlichen Punktezahlen der beiden Gruppen in den Ausgangsverteilungen signifikant unterscheiden. Das Risiko einer Fehlentscheidung ist höchstens 5%. Man kann dieses Problem nicht nur über den kritischen Wert c lösen, sondern auch über die Wahrscheinlichkeit der Testmaßzahl. Dazu berechnet man die Wahrscheinlichkeit, daß die aus den Stichproben errechnete Testmaßzahl unter der Gültigkeit der Nullhypothese einen so großen oder größeren Wert a n n i m m t .
9
Norm al verteil u ng
4.
F ü r d e n o b i g e n F - T e s t wird also d i e W a h r s c h e i n l i c h k e i t b e r e c h n e t , d a ß u n t e r G ü l t i g k e i t der N u l l h y p o t h e s e ein Wert v o n 50.074 o d e r größer a u f t r i t t :
W(F
> 50.074) = 0.002.
D a d i e s e W a h r s c h e i n l i c h k e i t mit 0.2% w e i t a u s kleiner ist, als d a s g e w ä h l t e S i g n i f i k a n z n i v e a u von 5 % , w i r d a u c h n a c h dieser A r t d i e N u l l h y p o t h e s e a b g e lehnt. H i e r weiß m a n a b e r nicht nur ü b e r d a s m a x i m a l e F e h l e r r i s i k o B e s c h e i d , s o n d e r n kennt es· g e n a u : I m v o r l i e g e n d e n B e i s p i e l ist d a s R i s i k o eines α - F e h l e r s 0.2%. N a c h d i e s e r zweiten B e r e c h n u n g s a r t w i r d a l s o die N u l l h y p o t h e s e a b g e l e h n t , wenn d i e Wahrscheinlichkeit für d a s A u f t r e t e n einer so großen o d e r größeren e r r e c h n e t e n T e s t m a ß z a h l h ö c h s t e n s so groß ist wie d a s S i g n i f i k a n z n i v e a u .
Ist
d i e W a h r s c h e i n l i c h k e i t der T e s t m a ß z a h l größer als d a s S i g n i f i k a n z n i v e a u , d a n n kann d i e N u l l h y p o t h e s e nicht a b g e l e h n t w e r d e n 2 ' . D i e D u r c h f ü h r u n g eines S i g n i f i k a n z t e s t s kann in f o l g e n d e vier S c h r i t t e a u f g e teilt w e r d e n : ( a ) A u f s t e l l e n der H y p o t h e s e n : N u l l - u n d A l t e r n a t i v h y p o t h e s e n werden b e s t i m m t . (b) D a s S i g n i f i k a n z n i v e a u α wird f e s t g e l e g t u n d der d i e s e m N i v e a u e n t s p r e c h e n d e kritische Wert a u s der W a h r s c h e i n l i c h k e i t s v e r t e i l u n g d e r T e s t maßzahl bestimmt. (c) D i e T e s t m a ß z a h l wird a u s d e n B e o b a c h t u n g s d a t e n b e r e c h n e t . ( d ) D i e a u s den B e o b a c h t u n g s d a t e n e r r e c h n e t e T e s t m a ß z a h l wird m i t d e m k r i t i s c h e n Wert verglichen. D i e N u l l h y p o t h e s e wird a b g e l e h n t , wenn d i e T e s t m a ß z a h l größer ist als der kritische Wert. Oder: D i e Wahrscheinlichkeit für eine s o große oder größere T e s t m a ß z a h l w i r d u n t e r der G ü l t i g k e i t der N u l l h y p o t h e s e b e s t i m m t .
Die Nullhypothese
w i r d a b g e l e h n t , wenn diese Wahrscheinlichkeit kleiner gleich d e m Signifikanzniveau
4
α ist.
Normalverteilung
I m f o l g e n d e n wird m e i s t v o r a u s g e s e t z t , daß d i e B e o b a c h t u n g s m a t r i x X einer A u s g a n g s v e r t e i l u n g s t a m m t , die m u l t i v a r i a t n o r m a l v e r t e i l t i s t 3 ' .
aus Erst
d a s Z u t r e f f e n dieser V o r a u s s e t z u n g e r l a u b t d i e g ü l t i g e A n w e n d u n g v o n χ 2 — und
F-Tests.
10
Kapitel
I.
Einführung
Für den univariaten Fall gibt es verschiedene Wege, die Normalverteilungshypothese zu prüfen. Einige der verbreitesten Methoden sind der KolmogorovSmirnov-Test, der x 2 -Anpassungstest, sowie Tests, die die Schiefe und Wölbung der Stichprobenverteilung verwenden. Eine Erweiterung der letztgenannten Tests für den multivariaten Fall findet man bei Mardia et. al. (1979). Er prüft die multivariate Normalverteilungshypothese an Hand der multivariaten Schiefe und Wölbung der Stichproben 4 '. Weitere Testverfahren für die multivariate Normalverteilungshypothese findet man bei Malkovich und Afifi (1973). Erscheint die Annahme der Normalverteilungshypothese nicht gerechtfertigt, bestehen zwei Möglichkeiten: Entweder erreicht man durch geeignete Transformation der Merkmalsausprägungen eine Normalverteilung oder man wendet zur Lösung des Problems nichtparametrische Methoden an. Leider ist das Feld dieser Verfahren für den multivariaten Fall klein. Eine gute Einführung findet man bei Sen und Furi (1971). Für die Beobachtungsmatrix /7 9 4 2 3 \ 1
9 10 8 8 3 1 3 2 1 2 1 1
8 \ 10 2 2 4 4 /
wird die multivariate Normalverteilungshypothese an Hand der multivariaten Wölbung überprüft. Der Mittelwertsvektor χ der vier Variablen ist
und die Kovarianzmatrix S ist (siehe Kapitel Unterschiede) S
=
η v / 7.8889 8.1111 8.8333 V 7.3333
~·(χτ·Χ-χ·χτ) ' 8.1111 8.8333 10.1389 11 11 13 7.8333 9.6667
7.3333X 7.8333 9.6667 9
Die Stichprobenwölbung wird mit Hilfe der Formel
berechnet. Wenn man die entsprechenden Werte des Beispiels einsetzt, dann erhält man b2it = 16.8498.
5. SPSS-Programme
für
Windows
11
Da die Maßzahl b2it - < · ( < + 2)
ν / ^ Ψη asymptotisch standardnormalverteilt ist, kann m a n an Hand dieser Maßzahl 16.8498 - 4 · ( 4 + 2)
-1.264
prüfen, ob für die Beobachtungsmatrix die multivariate Normalverteilung abgelehnt werden muß. Da für ein 5%-iges Signifikanzniveau der kritische Wert der Standardnormalverteilung gleich 1.96 ist, kann die Nullyhpothese nicht abgelehnt werden. Die Daten der Stichprobe sprechen nicht gegen die multivariate Normalverteilung. Die Wahrscheinlichkeit für eine mindestens so große Stichprobenmaßzahl ist bei Gültigkeit der Nullhypothese gleich W{\Z\
> 1.264) = 0.103.
Diese Wahrscheinlichkeit ist mit 10.3% größer als das gewählte Signifikanzniveau von 5%. Auch nach dieser Vorgangsweise kann die Nullhypothese nicht abgelehnt werden.
5
S P S S - P r o g r a m m e für W i n d o w s
Multivariate Datenanalysesysteme, die beim Benutzer nicht die Kenntnis einer Programmiersprache, sondern nur ein oberflächliches Vertrautsein mit der Steuersprache voraussetzt, findet man z.B. in den Programmpaketen BMDP, SPSS oder SAS. Ein ausführliches Benutzermanual für B M D P (Biomedical Computer Programs) wurde von Dixon (1983) herausgegeben. Eine deutschsprachige Beschreibung findet man bei Bollinger, Herman, Möntmann (1983). Auch für SPSS (Statistical package for the social sciences) existieren ausführliche Programmbeschreibungen z.B. von Nie, Hull, Jenkins, Steinbrenner, Bent (1975) und Beutel, Schubö (1983). Eine kurze Einführung in alle drei Programmpakete BMDP, SPSS und SAS (Statistical Analysis Systems) findet man in Küffner, Wittenberg (1985). Für jedes multivariate Verfahren wird im Anhang auch gezeigt, wie man die Analyse mit dem SPSS Programmpaket für Windows durchführt. Als Datensatz wird die vorgestellte Beobachtungsmatrix verwendet, um den Vergleich mit den im Text gerechneten Ergebnissen zu erlauben. Eine ausführliche Beschreibung dieser Programme findet man in folgenden Handbüchern für SPSS für Windows: SPSS for W i n d o w s ™ : Base System User's Guide, Release 5, 1992. SPSS for W i n d o w s ™ : Advanced Statistics, Release 5, 1992. SPSS for W i n d o w s ™ : Professional Statistics, Release 5, 1992.
12
6
Kapitel I.
Einführung
Anmerkungen 1) Neben der Zufallsstichprobe als Basis für multivariate Analysen kann m a n auch Aprioriinformationen, sowie Informationen über die möglichen Schäden von Fehlentscheidungen bei der Analyse berücksichtigen. Entsprechende Ausführungen findet man z.B. bei Press (1982) und Broemeling (1985). 2) Durch die Vorschrift: „Lehne die Nullhypothese ab, wenn die Testmaßzahl in den kritischen Bereich fällt" wird sichergestellt, daß auf lange Sicht nur z.B. in 5% der Entscheidungen, in denen stets die Ho zutrifft, falsch entschieden wird. Uber die Wahrscheinlichkeit der Nullhypothese wird dabei keinerlei Aussage gemacht. Dieser klassischen Theorie steht die Bayes'sche Entscheidungstheoriegegenüber. In dieser Theorie werden Wahrscheinlichkeitsaussagen über Hypothesen getroffen und Schäden von Fehlentscheidungen berücksichtigt. Ein klassischer Signifikanztest auf einem 5%-igen Signifikanzniveau kann in der Bayes'schen Entscheidungstheorie wie folgt interpretiert werden: Bei vager Prioriinformation und einer Wahrscheinlichkeit von 0.95 für Ηo muß das Schadenverhältnis des Fehlers 1. Art zum Fehler 2. Art mindestens 1:19 sein, damit der Schadenerwartungswert der Alternativhypothese geringer ist, als der der Nullhypothese und daher die Nullhypothese abgelehnt wird. In folgender Tabelle ist dieser Zusammenhang dargestellt: Entscheidung Annahme von H0 Annahme von H\ Wahrscheinlichkeiten für Ht
H0
H\
0 •si = 1 0.95
s2 = 19 0 0.05
Schadenerwartungswerte 0.95 0.95
Wenn die Stichprobeninformationen zu einer Posterioriwahrscheinliclikeit für die Alternativhypothese von 0.05 führt, dann ergibt jedes Schadenverhältnis, das größer als 1:19 ist, einen Schadenerwartungswert für die A n n a h m e von H0, der über dem der Annahme von H\ liegt. In dieser Situation wird die Nullhypothese abgelehnt und die Alternativhypothese angenommen. Dies entspricht in der klassischen Theorie der Tatsache, daß die Nullhypothese abgelehnt wird, wenn die Wahrscheinlichkeit für eine so große oder größere aus der Stichprobe errechnete Testmaßzahl 0.05 beträgt. 3) Die univariate Dichtefunktion der Normalverteilung mit Erwartungswert
6.
Anmerkungen
13
μ und Varianz σ 2 ist /(χ)
= =
(2πσ2)"
1 / 2
·βχρ{-^·(χ-^)2}
( 2 π σ 2 ) " 1 / 2 · e i p { - ì · (χ - μ) · ( σ 2 ) " 1 • (χ - μ ) } .
Die multivariate Dichtefunktion der Normalverteilung ist eine Verallgemeinerung der univariaten: Der Zufallsvektor χ hat eine i-variate Normalverteilung mit dem Erwartungsvektor μ und der Kovarianzmatrix Σ , wenn er folgende Dichtefunktion besitzt: f(x)
= Ι27ΓΣΙ"1/2 · exp { - Ì · (χ - μ)τ
• Σ - 1 · (χ - μ ) } .
μ ist ein (t χ 1) Vektor und Σ ist eine t χ t Matrix. In Kurzform schreibt man: ζ ~ ΛΤ,(μ,Σ). Wenn X eine Matrix mit η Zeilen und t Spalten ist und die η Zeilen Χ ι , . , . , Χ η unabhängig verteilt sind nach Ν^μ, Σ ) , dann hat X eine Matrixnormalverteilung und repräsentiert eine einfache Zufallsstichprobe aus Σ ) . Die Dichtefunktion dieser Matrixnormalverteilung ist f(X)
= |2πΣ|-/ 2 · expj-ì
· ¿ ( x , - μ)τ
• Σ " ] · (χτ - μ ) J .
4) Die multivariate Schiefe ist für eine Stichprobe mit η Einheiten und t Variablen wie folgt definiert (vgl. Mardia et.al., 1973):
n
Γ,5 = 1
x r ist die r-te Zeile der Beobachtungsmatrix, χ ist der Stichprobenmittelwertsvektor für die t Variablen und S ist die entsprechende Stichprobenkovarianzmatrix. Die multivariate Wölbung ist
n
r=l
Für eine multivariate Normalverteilung ist ßi.t = 0 und ß2it = t • (t - 2).
14
Kapitel I.
Einführung
Wenn die Ausgangsverteilung multivariat normalverteilt ist, dann konvergiert die Verteilung der multivariaten Stichprobenschiefe blit asymptotisch gegen die Chiquadratverteilung: 1
h - · η · ôM ~ χ„ o mit !/ = i . f .(* + l ) . ( í + 2) o Freiheitsgraden. Man kann daher die Chiquadratverteilung zur P r ü f u n g der Nullhypothese verwenden. Die Nullhypothese „Die Ausgangsverteilung ist multivariat normal verteilt" wird abgelehnt, wenn die Teststatistik (n · 6I,Í) / 6 größer ist als ein entsprechender kritischer Wert der Chiquadratverteilung. Auch mit der multivariaten Stichprobenwölbung 62,1 kann eine Teststatistik zur P r ü f u n g der Nullhypothese berechnet werden, da folgende Statistik asymptotisch standardnormalverteilt ist: {b2 t - t • (f + 2)} / {8 · t • (t + 2 ) / n } 1 / 2 ~
7
N{0,1).
Literatur
Anderson, T . W . , (1958). Introduction to Multivariate Statistical Analysis, Wiley, New York. Barnett, V., (1981). Interpreting Multivariate Data, Wiley, Chichester. Beutel, Β., Schubö, Η., (1983). SPSS 9, Fischer, Stuttgart. Bollinger, G., Herman, Α., Möntmann, V., (1983). BMDP, Fischer, Stuttgart. Branham, R.L., (1990). Scientific Data Analysis, Springer, New York. Broemeling, L.D., (1985). Bayesian Analysis of Linear Models, Dekker, New York. Caspary, W., Widmann, Κ., (1994). Lineare Modelle, Oldenbourg, München. Chatfield, C., Collins, A.J., (1980). Introduction to Multivariate Analysis, C h a p m a n &: Hall, London. Dixon, W.J.ed. (1983). BMDP. Statistical Software, University of California Press, Los Angeles. Fahrmeir, L., Hamerle, A. (1984). Gruyter, Berlin.
Multivariate statistische Verfahren, De
7.
Literatur
15
Flury, Β., Riedwyl, Η. (1983). Angewandte multivariate Statistik, Fischer, Stuttgart. Härtung, J., Elpelt, B. (1984). Multivariate Statistik, Oldenbourg, München. Hüttner, M., (1979). Information für Marketing - Entscheidungen, Vahlen, München. Küchler, M., (1979). Multivariate Analyseverfahren, Teubner, Stuttgart. Küffner, H., Wittenberg, R. (1985). Datenanalysesystem für statistische Auswertungen, Fischer, Stuttgart. Kshiragar, A.M. (1972). Multivariate Analysis, Dekker, New York. Malkovich, J.F., Afifi, A.A., (1973). On test for multivariate normality, J. Amer. Stat. Ass., 68, 176-181. Mardia, K.V., Kent, J.T., Bibby, J.M. (1979). Multivariate Analysis Academic Press, New York. Maxwell, A.E. (1977). Multivariate Analysis in Behavioural Research, Chapman & Hall, London. Moosbrugger, H., (1978). Multivariate statistische Analyseverfahren, Kohlhammer, Stuttgart. Morrison, D.F. (1976). Multivariate statistical Methods, MacGraw-Hill, New York. Nie, N.H., Hull, C.H., Bent, D.H., Jenkins, J.G., Steinbrenner, F. (1975). SPSS, New York. Press, S.J. (1982). Applied Multivariate Analysis, 2nd ed., Krieger, Florida. Rao, C.R. (1973). Linear Statistical Inference and its Applications, 2nd ed., Wiley & Sons, New York. Schuchard-Ficher, C., Backhaus, Κ., H ü m m e , U., Lohrberg, W., Plinke, W., Schreiner, W., (1985). Multivariate Analysemethoden, 3. Auflage, Springer, Berlin. Sen, P.K., Puri, M.L., (1971). Nonparametric Methods in Multivariate Analysis, Wiley & Sons, New York. Srivastava, M.S., Kathri, C.G., (1979). An Introduction to Multivariate Statistics, North Holland, New York. Takeuchi, K., Yanai, H., Mukherjee, B.N. (1982). T h e Foundations of Multivariate Analysis, Wiley East, New Delhi.
Kapitel II Unterschiede Sowohl die multivariate Varianz- und Kovarianz- als auch die Diskriminanzanalyse setzen die Berechnung folgender Matrizen voraus: Die Abweichungsquadrat- und -produktmatrizen Τ und W , sowie die Kovarianzmatrix S . Von der Beobachtungsmatrix X gelangt man zur Abweichungsquadrat- und -produktmatrix Τ über die Matrix M . Diese enthält als Elemente die Abweichungen der einzelnen Merkmalsausprägungen von ihrem Mittelwert: ï tb ^ j
^tj
Xj ·
Die Abweichungsmatrix M hat also gleichviele Zeilen und Spalten wie die Beobachtungsmatrix X , ihre Elemente sind aber nicht mehr die ursprünglichen Merkmalsausprägungen, sondern die Abweichungen vom jeweiligen Mittelwert der entsprechenden Variablen: X\
. . . X j . . . Xf
ei /
\
M = e,· en \ Wenn χ der Mittelwertsvektor ist, dessen Elemente die arithmetischen Mittel der einzelnen Variablen sind, x
T
=
( z i , . . . , xt) =
η
· v ( l
T
• x )
, '
dann kann m a n die Abweichungsmatrix M auch wie folgt ausdrücken: M
= X - - • (l • 1 η
v
wobei 1 T = ( Ι , . , . , Ι ) .
T
·Χ ) , '
18
Kapitel II.
Unterschiede
Zur Abweichungsquadrat- und -produktmatrix Τ gelangt man nun durch einfache Matrizenmultiplikation: Τ = MT
• M.
Die Multiplikation M T · M führt zu einer (quadratischen) symmetrischen Matrix, die in der Hauptdiagonalen die Summen der Abweichungsquadrate und in den nichtdiagonalen Elementen die Summen der Abweichungsprodukte für die Variablen aufweist:
mit -χΫ
tjj =
=1 >···>*
und tjk = Σ
(xij - Xj) • {x,k
-Xk)·
Für die Beobachtungsmatrix 10 8
π 9 4 2 3
X =
8 \ 10 2 2 4 4 /
VI ist der Mittelwertsvektor
1 τ — ·χ η
(
•
7
1 9 1 = — · 10 6 1 8
9 8 8 10
4 3 1 2
2 3 2 2
3 1 2 4
1\ 1 1 4/
m 1 1 1 1 VI/
( 4,3333 \ 4.1667 4 5
Zieht man die Mittelwerte von ihren entsprechenden Merkmalsausprägungen ab, erhält man die Abweichungsmatrix M :
M
=
/ 2.6667 4.6667 -0.3333 -2.3333 -1.3333 -3.4444 \ —3.3333
4.8333 3.8333 -1.1667 -1.1667 -3.1667 -3.1667 -3.1667
6 4 -3 -2 -2 -2 -3
3 \ 5 -3 -3 - 1 - 1
-ι)
19 2.6667, dais erste Element der M Matrix, ist die Differenz zwischen dem ersten Element 7 der X Matrix und dem Durchschnitt 4.3333 der ersten Variablen. 4.8333, das zweite Element in der ersten Zeile der M Matrix, ergibt sich aus der Differenz zwischen 9, dem zweiten Element der ersten Zeile der X Matrix, und dem Mittelwert 4.1667 der zweiten Variablen. Die weiteren Elemente werden auf die gleiche Weise bestimmt. Das Produkt der transponierten M Matrix mit der ursprünglichen Matrix M führt nun zur Abweichungsquadrat- und -produktmatrix T :
Τ
M
=
• M
/ 47.3333 48.6667 53 „ 44
48.6667 60.8333 66 47
53 66 78 58
44 \ 47 58 54 /
Die Abweichungsquadrat- und -produktmatrix Τ kann aus der Beobachtungsmatrix X auch wie folgt berechnet werden: Τ
=
Χτ χ
=
Χ • χ
τ
χ7
— χ • χτ Π.
('-è Η Χ,
1) . (ι3
ν
•ι
r
χ )
χ
mit (I Η
1
=/
τ
1 1τ =
-
Ι/η
Ι/η
-Ι/η
-l/n
L -Ι/η
Ι/η
-Ι/η -Ι/η
1-1
/η)
Für die Beobachtungsmatrix Χ ist 0 0 1 0 0 0 0 0 0 \0 0 / 5/6 -1/6 -1/6 -1/6 -1/6 II
Η
V-l/6
0 0 0 0 1 0 0 1 0 0 0 0 -1/6 5/6 -1/6 -1/6 -1/6 -1/6
0 0\ 0 0 0 0 0 0 1 0 0 ι) -1/6 -1/6 5/6 -1/6 -1/6 -1/6
/1 \ 1 1 1 ( 1 1 1 1 1 1 ) 1 η 1 u / -1/6 -1/6 -1/6 \ -1/6 -1/6 -1/6 -1/6 -1/6 -1/6 5/6 -1/6 -1/6 -1/6 -1/6 5/6 -1/6 -1/6 5/6 /
Multipliziert man Η von rechts mit x T und von links mit χ, so erhält man für die Abweichungsquadrat- und -produktmatrix Τ dasselbe Ergebnis wie oben.
20
Kapitel II.
Unterschiede
Dividiert man die Abweichungsquadrat- und Abweichungsproduktsummen der Τ Matrix durch n, dann erhält man die entsprechenden Varianzen s J } und Kovarianzen Sj¡¡ für die t Variablen: 1 1 n - - tjk = - · Σ (χϋ η η j=1
Έ
ί) ' (x2
t= 2
9 >2
t> 1
9 = 2
t> 1
9 = 3
Testmaßzahl 1 - A v~2 A i/¡ Λ>/2 1- Λ
' Vi v2
Α ι/ι 1-Λ1'* Λ1/2 V\
Vi
Freiheitsgrade ν2
F e r r ) = 0.015 mit dem Signifikanzniveau von α = 0.05 vergleicht.
Die Wahrscheinlichkeit
für einen mindestens so großen F e r r - W e r t bei Gültigkeit der Nullhypothese ist mit 1.5% viel geringer als das gewählte Signifikanzniveau von 5%.
Die
Nullhypothese wird daher abgelehnt 5 '.
1.3
Anmerkungen
1) In folgender Identität x,k - x
= Xik -
*
ist x,k der Vektor der Merkmalsausprägungen der ¿-ten Einheit in der kten Stichprobe, wobei k von 1 bis g läuft, g ist die Zahl der Stichproben. χ ist der Mittelwertsvektor über alle Stichproben, also jener Mittelwerte, die man erhält, wenn man die Ausprägungen eines Merkmals in allen g Stichproben berücksichtigt. Bezeichnet man mit Xi¡ den Mittelwertsvektor in der fc-ten Stichprobe, so kann obige Identität folgendermaßen erweitert werden: Xik-
x = {Xik - Xk) +
- «) ·
Die Abweichungen der Merkmalsausprägungen vom Gesamtmittelwertvektor können also aufgeteilt werden in eine Abweichung vom Stichprobenmittelwertsvektor Xik — Xk und eine Abweichung des Stichprobenmittelwertsvektors vom Gesamtmittelwertsvektor Xk — X- Berücksichtigt man nun nicht nur eine Einheit und ihre verschiedenen Merkmalsausprägungen, sondern alle Einheiten der gesamten Stichprobe und bildet die Abweichungsquadrate und -produkte, so erhält man folgende Gleichung,
Kapitel II.
Unterschiede
die als Fundamentaltheorem der multivariaten Varianzanalyse bezeichnet wird: 9 nk 9 H Σ Σ(* 1.89) = 0.25 > 0.05 = α=> Η0 :μ 1 = μ2 F.„
=
Aufgrund der Stichprobe kann man nicht behaupten, daß der Unterschied hinsichtlich der physischen Kondition zwischen Mitgliedern und Nichtmitgliedern eines Sportvereins wesentlich ist (α = 0.05).
3. MITBESTIMMUNG JA ODER NEIN? Im Rahmen einer Untersuchung wurden aus den Betrieben ohne Arbeitnehmermitbestimmung 10 zufällig
Kapitel II. Unterschiede ausgewählt und ebenso 10 Betriebe, die die Arbeitnehmermitbestimmung schon lange verwirklichen. In allen Betrieben wurden folgende Variablen ermittelt: Umsatzsteigerung während der letzten 3 Jahre in % ( = x i ) , durchschnittliche Rendite der letzten 3 Jahre in % ( = x 2 ) , durchschnittliche Lohnerhöhung während der letzten 3 Jahre in % ( = χ3), Fluktuation der Arbeitnehmer in den letzten 3 Jahren ( = £4). Unterscheiden sich Betriebe mit und ohne Arbeitnehmermitbestimmung hinsichtlich der vier erfaßten Variablen signifikant oder nur zufällig? Abweichungsquadrat- und -produktmatrizen der Betriebe mit Mitbestimmung
X\ 14.40
X2
£3
1.64 5.50
1.83 0.61 12.20
-0.32 1.94 1.29 3.20
X\ 24.70
ohne Mitbestimmung
X4
X2 0.69 18.50
Χ\
9.60
Χι
0.45 7.30
Zusammen X3 £4 0.80 0.52 2.80 5.27 43.00 0.65 19.50
Lösung: (a) H0 : μι = μ2
Hi : μ1 φ μ2
(b) α
0.05,
V\
t =4 η — ί — 1 = 20 — 4 — 1 = 15
Ftab
^0.95,4,15
=
3.06
(c)
Ferr
W
1 -Λ Λ Wi
\
V2_ Vi
+ W2
114.40
1.64 5.50
1.83 0.61 12.20
Χ3
-1.73 0.88 6.70
-0.32 \ 1.94 1.29 3.20 /
Χ4
0.41 2.92 -3.34 3.10
1.
Varianzanalyse
37 / 9.60
+
2.09 12.8
/ 24
\w\= I τ\ = Λ
Ferr
1
= =
0.45 7.30
\ 23064
-1.73 0.88 6.70 0.1 1.49 18.9
0.41 Ν 2.92 -3.34 3.10 )
0.09 \ 4.86 -2.05 6.3
349550 0.06598 1 - Λ 15 Λ
' Τ
-- 53.08 ~
(d) Fcrr = 53.08 > 3.06 = Ftab W(F
μ2.
> 53.08) = 2.69 · IO - 8 < 0.05 = α
: μ1 ψ μ2.
Betriebe mit und ohne Arbeitnehmermitbestimmung unterscheiden sich hinsichtlich der vier erfaßten Variablen wesentlich voneinander, wenn man ein Signifikanzniveau von a = 0.05 voraussetzt.
4. WIE GLEICH SIND EIER WIRKLICH? Durch augenscheinliche Prüfung werden Eier in zwei Kategorien eingeteilt. Um festzustellen, ob diese zwei Kategorien im Hinblick auf vier wichtige Merkmale differieren, werden 25 Eier der Kategorie A und 33 Eier der Kategorie Β untersucht. Die vier Merkmale sind: Dotterschatten ( = Xi), Dotterfarbe ( = x2), Eiweißindex ( = 13) und Eiweißhöhe ( = X4). Die Mittelwerte, die Abweichungsquadrate- und -produkte sind in folgender Tabelle ausgewiesen. Eier der Kategorie A (n = 25)
Χi Χΐ 7.16 Χ2 13.92 Χ3 21.60 Χ4 26.04
Χ! 120.25
Eier der Kategorie Β (n = 33)
χ2 -59.25 218.92
-63.50 45.83 237.67
χ4 -56.75 -25.25 27.50 154.25
38
Kapitel Π. Xi
Xi x2
10.30 15.30 28.33 20.09
X\
Xl 200.00
x2 -7.00 142.77
X3 27.00 -25.23 140.77
Xl 351.84
X2 -140.43 535.36
£3 -20.48 -16.96 386.56
Unterschiede
x4 79.00 -13.39 34.62 169.69
Eier insgesamt (n = 58) x¡ Xl 8.17 x2 14.12 X3 25.83 x4 23.47
9.56 -8.88 55.68 329.00
Analysieren Sie die Angaben und geben Sie einen Kommentar.
Lösung: (a) Ho : Mi = M2
H-i : μλ φ μ2
(b) α
0.05, t = 4,
nui
n - t - 1 = 5 8 - 4 - 1 = 53
V2 Ftab
=
Fo.9 5 , 4 , 5 3
•
2.50
(c)
\W\ A —, Λ = \T\ Λ l'i Wi+W2 /120.25 -59.25 -63.50 218.92 45.83 237.67 1
p err
w
\
/ 200.00
+ V
-7.00 147.77
27.00 -25.23 140.77
-56.75 \ -25.25 + 27.50 154.25 79.00 \ -13.39 34.62 169.69 /
1.
Varianzanalyse
39 / 320.25
-66.25 361.69
-36.5 20.6 378.44
\ ,10
=
1.28065 · IO10
|T| =
10 2.07633 · IO,10
|W|
Λ =
22.25 \ -38.64 62.12 323.94 /
0.61678 1 - 0.61678 53 0.61678 ' Τ
8.23
(d) Ferr = 8 . 2 3 > 2.50 =
W(F
Ftab 5
Ηλ : μι
> 8.23) = 3.82 · IO" < 0.05 = α
φ μ2
Ηλ : μ^ φ μ2
Aufgrund der Stichprobe kann behauptet werden, daß sich die beiden Kategorien A und Β hinsichtlich der untersuchten Variablen (Dotterschatten,...) wesentlich unterscheiden (α = 0.05).
1.5
Literatur
Ahrens, H., Läuter, J.(1981 ). Mehrdimensionale Varianzanalyse. Akademie Verlag, Berlin. Barker, R.H., Barker, Β.M. (1984). Multivariate Analysis of Variance. University of Alabama Press, Alabama. Bartlett, M.S. (1938). Further Aspects on the Theory of Multiple Regression. Proceedings of the Cambridge Philosophical Society, 34, 33-40. Box, G.E.P. (1949). A general Distribution Theory for Class of Likelihood Criteria. Biometrika, 36, 317-346. Fahrmeier, L., Hamerle A. (1984). Multivariate statistische Verfahren. DeGruyter, Berlin. Finn, J. (1968). Multivariate Analysis of Variance. New York State University, New York. Finn, J. (1976). Multivariance: Univariate and multivariate Analysis of Variance, Covariance and Regression. Nation Educational Resources, Chicago. Harris, J.R. (1975). A Primer of Multivariate Statistics. New York.
Academic Press,
40
Kapitel
II.
Unterschiede
H ä r t u n g , J., Elpelt, B. (1984). Multivariate Statistik. Oldenbourg, München. J o h n s o n , R.A., Wiehern, D.W. (1982). Applied Multivariate Statistical Analysis. P r e n t i c e Hall, New Jersey. Pillai, K.C.S. (1967). U p p e r Percentage Points of t h e Largest Root of a M a t r i x in M u l t i v a r i a t e Analysis. Biometrika, 54, 189-193. P o k r o p p , F . , (1994). Lineare Regression u n d Varianzanalyse. München.
Oldenbourg,
Press, J.S. (1980). Bayesian Inference in M A N O V A , in Handbook of Statistics. Vol. 1. North-Holland, New York. Rao, C . R . (1952). Advanced Statistical Methods in Biometrie Research. Wiley a n d Sons, New York. Roy, S.N. (1957). Some Aspects of Multivariate Analysis. Wiley and Sons, New York. Scheffe, H. (1963). T h e Analysis of Variance. Wiley a n d Sons, New York. Stevens, J. (1980). Power of Multivariate Analysis of Variance Tests. chological Bulletin, 88, 728-737.
Psy-
Wilks, S.S. (1932). Certain Generalizations in t h e Analysis of Variance. Biom e t r i k a , 24, 471-494.
2. Ko vari an zan aly se
2
41
Kovarianzanalyse
2.1
Allgemein
Bei der Prüfung von Mittelwertsunterschieden zwischen Stichproben kann es sinnvoll sein, die Variablen in zwei Gruppen zu trennen: In eine beeinflußte (abhängige) und eine beeinflussende (unabhängige) Variablengruppe. Ziel dieser Zweiteilung ist es, den Einfluß der unabhängigen Variablengruppe auf die abhängige vor der Unterschiedsprüfung zu eliminieren. Zur beeinflussenden, unabhängigen oder auch Prädiktorvariablengruppe, die mit dem Index 2 versehen wird, zählen jene Variablen , deren Kovarianz mit den abhängigen Variablen in den einzelnen Stichproben ausgeschaltet werden soll. Die abhängige oder auch Kontrollgruppe wird mit dem Index 1 gekennzeichnet und umfaßt jene Variablen, deren Unterschiedlichkeit in den einzelnen Stichproben nach Bereinigung getestet wird. Die allgemeine Fragestellung lautet: Unterscheiden sich die g Stichproben hinsichtlich der Mittelwerte der Variablengruppe 1 nur zufällig oder signifikant, nachdem der Einfluß der Variablengruppe 2 auf die Variablengruppe 1 eliminiert wurde? 1 ' Null- und Alternativhypothesen werden wie folgt angeschrieben: H0 : μ,,i.2 = μ;,1.2 H, : μί,ι.2 Φ ^ , 1 2
für alle i,j = 1 , . . . ,g für mindestens ein Paar i /
j.
g ist wiederum die Zahl der Stichproben. Der Index 1.2 zeigt an, daß die Mittelwerte der 1. Variablengruppe nach Abzug der Kovarianz mit der 2. Variablengruppe auf signifikante Unterschiede in den g Stichproben geprüft werden. Welche der beiden Hypothesen anzunehmen oder abzulehnen ist, kann m a n wiederum mit einem Chiquadrat- oder F-Test entscheiden. Für den Chiquadrattest ist die Maßzahl wie folgt definiert: XÌrr = - [ « -