191 109 27MB
German Pages 315 [348] Year 1966
Allgemeine Methodenlehre der Statistik von
Dr. phil. Johann Pfanzagl Prof. an der Universität Köln
n Höhere Methoden unter besonderer Berücksichtigung der Anwendungen in Naturwissenschaften, Medizin und Technik 2. verbesserte Auflage Mit 41 Abbildungen
Sammlung Göschen Band 747/747a
Walter de Gruyter & Co • Berlin 1966 vormals G. J . Göschen'sehe Verlagshandlung • J . Guttentag, Verlagsbuchhandlung • Georg Reimer . Karl J. Trübner • Veit & Comp.
© Copyright 1865 by Walter de Gruyter & Co., vormals G. J. Göschen'sche Verlagshandlung — J. Guttentag, Verlagsbuchhandlung — Georg Reimer — Karl . Trübner — Veit & Comp., Berlin 30. — Alle Hechte, einschl. der Rechte der Herstellung von Photokopien und Mikrofilmen, vom Verlag vorbehalten. — Archiv-Nr. 7570658. — Satz und Druck: Walter de Gruyter & Co., Berlin 30. — Printed in Germany.
Inhaltsverzeichnis Seite
Einleitung
5
1 Die Wahrscheinlichkeit 1.1 1.2 1.3 1.4 1.5
6
Der Begriff der Wahrscheinlichkeit Das Additionstheorem Die bedingte Wahrscheinlichkeit Stochastische Unabhängigkeit; das Multiplikationstheorem. . . Zufällige Variable
2 Häufigkeitsverteilungen 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9
13
Einleitung Die Binomlalverteilung Die Hypergeometrische Verteilung Die Poissonverteilung Die Normalverteilung Das Wahrscheinlichkeitsnetz Die Zerlegung von Mischverteilungen Transformationen Einige Anwendungen in der technischen Statistik
3 Stichprobenfunktionen; Schätzung von Parametern
13 15 19 22 26 32 37 40 45
. . .
3.1 Funktionen zufälliger Variabler 3.2 ; Funktionen normalverteilter Variabler I 3.3 Funktionen normalverteilter Variabler I I 3.4 Allgemeine Bemerkungen über Schätzfunktionen 3.5 Die Schätzung von Funktional-Parametern; das Gesetz der groBen Zahlen 3.6 Der Zentrale Grenzwertsatz 3.7 Die maximum likelihood-Methode 3.8 Die praktische Berechnung der m. l.-Schätzung
4 Normalverteilung; elementare Verfahren 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8
Einleitung. : Das Mutungsintervall für den Mittelwert Der Signifikanz-Test für den Mittelwert Allgemeine Bemerkungen über das Testen von Hypothesen Einseitige und zweiseitige Problemstellung Die Gtttefunktion eines Tests Der Vergleich zweier Mittelwerte Die Kontrollkarte
5 Kleine Stichproben aus diskreten Verteilungen 5.1 5.2 5.3 1*
6 0 10 11 12
48 48 53 56 60 63 66 71 73
79 79 81 84 . . 89 93 95 98 101
108
Binomialvertellung: Test für p . . . 109 Binomlalverteilung: Mutungsintervall für p 114 Binomlalverteilung: Vergleich zweier Wahrscheinlichkeiten. . . 117
4
Inhaltsverzeichnis
5.4 5.5 5.6
Seite Hypergeometrische Verteilung (Stichprobenpläne für qualitative Merkmale) 120 Poissonverteilung: Test und Mutungsintervall für den Sfittelwert 123 Poissonverteilung: Vergleich zweier Mittelwerte 126
6 Verteilungsunabhängige Verfahren 129 6.1 Einleitung 129 6.2 Der Zeichentest 131 6.3 Test und Mutungsintervall für den Median 133 6.4 Der sogenannte „Test von McNemar" 135 6.5 Tests für den Median einer symmetrischen Verteilung . . . . 138 6.6 Der Vergleich zweier unabhängiger Stichproben 147 6.7 Der Vergleich mehrerer unabhängiger Stichproben . . . . 154 6.8 Der Vergleich mehrerer verbundener Stichproben 159 7 Die 7.1 7.2 7.3 7.4 7.5
^ - M e t h o d e ; Kontingenztafeln Die ^'-Methode Die xa-Methode bei Abhängigkeit von einem Parameter . . . . Die Unabhängigkeit in einer Eontingenztafel Der Vergleich von r Stichproben Ein Test gegen Trend
8 Normal Verteilung; höhere Verfahren 8.1 Einleitung 8.2 Test und Mutungsintervall für die Varianz 8.3 Der Vergleich zweier Varianzen. 8.4 Test und Mutungsintervall für den Mittelwert 8.5 Prognose- und Toleranzintervalle 8.6 Vergleich zweier Mittelwerte: verbundene Stichproben 8.7 Vergleich zweier Mittelwerte: unabhängige Stichproben . . 8.8 Vergleich zweier Mittelwerte: unabhängige Stichproben, gleiche Varianz 8.9 Verbundene oder unabhängige Stichproben ? 8.10 Vergleich mehrerer Mittelwerte: unabhängige Stichproben . 8.11 Die Beurteilung linearer Kontraste 8.12 Die Komponenten der Streuung 8.13 Vergleich mehrerer Mittelwerte: verbundene Stichproben . 8.14 Zufällige Zuordnung 8.15 Versuchsplanung
. . un-
163 163 168 177 185 190 193 193 194 196 201 205 210 212
216 219 . . 223 231 235 . . 242 251 253
9 Regression und Korrelation 254 9.1 Die Regressionsanalyse 254 9.2 Prognoseintervail für x 263 9.3 Mutungsintervall für y 264 9.4 Das Bestimmtheitsmaß 267 9.5 Die Korrelationsanalyse 268 9.6 Die Schätzung des Korrelationskoeffizienten 270 9.7 Tests und Mutungsintervalle für Korrelationskoeffizienten . . . 272 9.8 Die Partielle Korrelation 275 9.9 Die Reihenkorrelation 277 9.10 Verteilungsunabhängige Verfahren 278 Tabellen
283
Literatur
300
Namen- und Sachverzeichnis
308
Einleitung Band II bringt vorwiegend solche Methoden, die an die mathematische Vorbildung des Lesers höhere Anforderungen stellen, als dies im Band I der Fall war. Da die hier behandelten Methoden vor allem in den Naturwissenschaften (inkl. Technik, Medizin, Psychologie) ihre fruchtbarsten Anwendungsgebiete finden, wurden auch die Beispiele überwiegend aus diesen Gebieten gewählt. Das Buch ist für den Praktiker geschrieben. Das Hauptgewicht wurde daher darauf gelegt, den Sinn und die logischen Grundlagen der einzelnen Methoden klar herauszuarbeiten und ihre Anwendung durch Beispiele zu illustrieren. Mathematische Ableitungen werden im allgemeinen nicht gegeben. Bewußt wurde mehr Gewicht auf verschiedene in den üblichen Lehrbüchern vernachlässigte Methoden gelegt und die Hypertrophie der Theorie kleiner Stichproben aus Normalverteilungen auf das der Praxis angemessene Ausmaß eingeschränkt. Der Stoff aus gewissen Kapiteln von Band I wird als bekannt vorausgesetzt. Es sind dies insbesondere: Kapitel 2: Häufigkeitsverteilungen Kapitel 3: Parameter Kapitel 10: Statistische Fehler (insbesondere Abschnitte 10.1 und 10.5) Kapitel 12: Die rechnerische Behandlung des Zahlenmaterials. Jene Leser, die über gewisse Grundkenntnisse verfügen, werden Band II auch ohne Studium der angegebenen Kapitel aus Band I verarbeiten können. Nachstehende Übersicht zeigt die Abhängigkeit zwischen den einzelnen Kapiteln auf und kann als „Wegweiser" für die Lektüre dienen:
6
1 Die Wahrscheinlichkeit
Die Zitierung von Formeln des laufenden Abschnittes erfolgt durch Angabe der Nummer. Wird eine Formel aus einem anderen Abschnitt zitiert, so wird der Formelnummer die Nummer des betreffenden Abschnittes vorangestellt. [So ist z. B . mit Formel (3) die Formel des laufenden Abschnittes, mit Formel (4.2.3) die Formel (3) des Abschnittes 4.2 gemeint.]
1 Die Wahrscheinlichkeit 1.1 Der Begriff der Wahrscheinlichkeit Die "Wahrscheinlichkeitsrechnung bildet die Grundlage für viele Methoden der mathematischen Statistik. Wir wollen uns hier mit dem Begriff der Wahrscheinlichkeit und der Wahrscheinlichkeitsrechnung nur insoweit auseinandersetzen, als dies für das Verständnis der grundlegenden Methoden der mathematischen Statistik notwendig ist.
1.1 Der Begriff der Wahrscheinlichkeit
7
Eine sehr elementare Einführung in die Wahrscheinlichkeitsrechnung, die den Bedürfnissen des Statistikers besonders entgegenkommt, bringt das Buch von Hodges jr. und Lehmann. Außerdem seien dem Leser folgende, nach steigender mathematischer Schwierigkeit gereihte Werke empfohlen: Parzen, Rényi, Onedenko, Richter, Krickéberg, Loéve. Grundlegend für das Folgende ist der Begriff des Zufallsexperimentes, d. h. eines Experimentes, dessen Ergebnis vom Zufall abhängt. Mit der Formulierung, daß das Ergebnis eines Experimentes vom Zufall abhängt, soll natürlich nicht gesagt werden, daß der Ablauf des Experimentes nicht kausal bestimmt wäre. Diese Formulierung soll nur besagen, daß das Experiment so geartet ist, daß es unmöglich ist, das Ergebnis einer konkreten Realisation im voraus zu bestimmen. Die in der Praxis auftretenden Zufallsexperimente sind in der Regel beliebig oft wiederholbar, und zwar so, daß das Ergebnis einer Realisation des Experimentes von den Ergebnissen anderer Realisationen des gleichen Experimentes unabhängig ist. Dies ist jedoch keine wesentliche Eigenschaft des Zufallsexperimentes. Das obige Modell des Zufallsexperiinentes paßt nicht nur auf so einfache Situationen wie z. B. das Würfelspiel, sondern auch auf sehr komplexe Experimente in wissenschaftlichem Sinne: Es wird ein Versuchstier mit einem bestimmten Erreger infiziert und sodann nach einer ganz bestimmten Heilmethode behandelt. Die verschiedenen Realisationen des Experimentes bestehen darin, daß man verschiedene Versuchstiere (der gleichen Art) mit dem gleichen Erreger infiziert und nach der gleichen Heilmethode behandelt. Das Modell des Zufallsexperimentes ist aber auch auf Situationen anwendbar, auf die das Wort „Experiment" selbst nicht p a ß t : Mit einer Bohrmaschine werden Löcher gebohrt. Die verschiedenen Realisationen des „Experimentes" bestehen darin, daß vom selben Arbeiter mit der gleichen Maschine Löcher in gleichartiges Material gebohrt werden. Die Beobachtung des Zufallsexperimentes bezieht sich auf ein ganz bestimmtes Merkmal: bei dem Tierversuch z. B. darauf, ob die Krankheit tödlich verläuft oder nicht, beim Boh-
.8
1 Die Wahrscheinlichkeit
ren auf den Durchmesser des gebohrten Loches. Wir greifen nun eine ganz bestimmte Menge A von Ausprägungen dieses Merkmals heraus und stellen bei jeder Wiederholung des Zufallsexperimentes fest, ob eine der herausgegriffenen Ausprägungen eingetreten ist oder nicht; wir stellen also beispielsweise fest, ob die Krankheit tödlich verlaufen ist. Bei stetigen Merkmalen müssen wir ein ganzes Intervall herausgreifen; wir beobachten also z. B., ob der Durchmesser des gebohrten Loches zwischen 3,00 und 3,01 mm liegt. Vielfach ist es zweckmäßig, eine Menge von Ausprägungen als Ereignis zu bezeichnen. Tritt beim Zufallsexperiment eine Ausprägung ein, die zur Menge A gehört, so sagt man auch, das Ereignis A sei eingetreten. Angenommen, es wäre unter n Wiederholungen w(J4.)-mal eine Ausprägung der Menge A aufgetreten. (Beispiel: Handelt es sich beim Zufallsexperiment um das Bohren eines Loches, so ist n die Anzahl der gebohrten Löcher und beispielsweise w(3,00—3,01) die Anzahl der Löcher, die davon einen Durchmesser zwischen 3,00 und 3,01 mm haben). n(A) heißt die Häufigkeit, n{A)fn die relative Häufigkeit des Auftretens von A. Es liegt intuitiv nahe, die relative Häufigkeit als Maß für die Wahrscheinlichkeit zu verwenden. Die Beobachtung langer Folgen unabhängiger Wiederholungen ein und desselben Zufallsexperimentes zeigt, daß diese sich so verhalten, als ob die daraus berechnete relative Häufigkeit gegen eine bestimmte Zahl streben würde. Sehr oft wird man auf Grund gewisser Symmetrien eine sehr konkrete Vorstellung vom Wert dieser Zahl haben: Sind an einem Würfel keine besonderen Asymmetrien festzustellen, so wird man erwarten, daß jede der Zahlen 1 bis 6 in einer hinreichend großen Serie von Versuchen mit einer relativen Häufigkeit von annähernd 1/6 auftreten wird. Es läge also nahe, den Grenzwert der relativen Häufigkeit als Wahrscheinlichkeit zu definieren. Dieses „intuitive Gesetz der großen Zahlen" läßt sich empirisch natürlich nicht überprüfen. Eine exakte Begründung des Wahrscheinlichkeitsbegriffes legt diesen daher durch gewisse Axiome fest, genauso wie in der eukli-
1.2 Das Additionstheorem
9
dischen Geometrie die Begriffe Punkt, Gerade usw. durch Axiome festgelegt werden. Genauso wie es in der Geometrie eine Frage der Anwendung ist, unter welchen Umständen die axiomatisch eingeführten Begriffe hinreichend genaue Annäherungen an die Wirklichkeit darstellen, ist es eine Frage der Anwendung, ob der axiomatisch definierte Wahrscheinlichkeitsbegriff im Zusammenhang mit einer konkreten Folge von Zufallsexperimenten anwendbar ist oder nicht. Für eine ausführliche Diskussion des Wahrscheinlichkeitsbegriffes sei auf Richter, Kapitel 2, Seite 41—57 hingewiesen. 1.2 Das Additionstheorem
Wir betrachten nun neben der Menge A von Ausprägungen noch eine dazu elementfremde Menge B von Ausprägungen (z. B. neben A: Durchmesser zwischen 3,00 und 3,01 mm noch B\ Durchmesser zwischen 2,99 und 3,00 mm). Bei einer einzelnen Realisation des Zufallsexperimentes kann dann höchstens A oder B, nicht aber beides gleichzeitig, eintreten. Unter „A + B" wollen wir die Vereinigungsmenge von A und B verstehen (im obigen Beispiel also: Durchmesser zwischen 2,99 und 3,01 mm). Das Ergebnis eines Zufallsexperimentes liegt in (A + B), wenn es in A oder in B liegt. Es sei n(Ä) die Häufigkeit von A in einer Serie von n Realisationen, n(B) die von B. Dann ist n(A + B), die Häufigkeit von (A + B), gleich n(A) + n(B). Daraus folgt für die relativen Häufigkeiten: n(A+B) = n(ÄL n(B) n n n In Anlehnung an diese Gleichung fordert man die entsprechende Gleichung für die Wahrscheinlichkeiten: P(A+ B) = P(A)+ P(B). (2) (2) nennt man das Additionstheorem der Wahrscheinlichkeitsrechnung. Dieses Additionstheorem gilt natürlich nicht nur für zwei, sondern für beliebig (auch abzählbar unendlich) viele Summanden. Betrachten wir als Beispiel den idealen Würfel: Aj sei das Auftreten der Augenzahl i. Dann ist das Auf-
10
1 Die Wahrscheinlichkeit
treten einer ungeraden Augenzahl gleichbedeutend mit ^1+^3+ Nach dem Additionstheorem gilt: P{Ai + + Aa + A5) = P ( ^ ) + P(Ä3) + P(Ä5). Da P(Ai) = 1/6 für alle i = 1, 2 , . . 6 , folgt aus dem Additionstheorem: P(A1 + A3 + A5) = 3 • 1/6 = 1/2, d. h., die Wahrscheinlichkeit für das Auftreten einer ungeraden Augenzahl ist 1/2. Wir bezeichnen zwei Mengen von Ausprägungen A und Ä als komplementär, wenn sie einander ausschließen und zusammen alle möglichen Ausprägungen umfassen. Dann muß eine bestimmte Realisation entweder A oder Ä angehören, so daß n{A) n(Ä) = n, also 1. n
(3)
n
In Analogie fordern wir: P(A) + P(A) = 1, (4) d. h., die Summe der Wahrscheinlichkeiten komplementärer Ereignisse ist 1. 1.8 Die bedingte Wahrscheinlichkeit Wir betrachten nun zwei Ereignisse A und B, die einander nicht notwendigerweise ausschließen. Es sei z. B. beim Würfel A das Ereignis „gerade Zahl" und B das Ereignis „Primzahl", dannist A = A2-\- Ai + Ae, B = A2+ As. Wird eine 2 gewürfelt, dann ist sowohl A als auch ¿realisiert. Unter „ A B " wollen wir den Durchschnitt der beiden Mengen verstehen, also jene Menge von Ausprägungen, welche sowohl zu A als auch zu B gehören. (Im obigen Beispiel die Ausprägung A2.) AB ist dann realisiert, wenn sowohl A als auch B realisiert sind. Wir betrachten nun eine Serie von n Realisationen. n(A) sei die Anzahl der Realisationen, bei denen A eingetreten ist (gleichgültig, ob dabei außerdem auch B eintrat oder nicht); n(AB) sei die Anzahl jener Realisationen, bei denen sowohl A als auch B eintrat. Dann gilt: n(AB) = n(AB) _ n(A) n n(Ä) n ^ '
1.4 Stochatische Unabhängigkeit; Multiplikationstheorem
11
Den Ausdruck n(AB)jn(A) können wir als relative Häufigkeit von B in der Serie jener Zufallsexperimente betrachten, bei denen A realisiert wurde, anders ausgedrückt, als die relative Häufigkeit von B unter der Bedingung A. Dementsprechend definiert man die bedingte Wahrscheinlichkeit gegeben A durch =
( 2 )
wobei natürlich P{A) > 0 sein muß. Beispiel: Gegeben sei eine Urne mit 5 Kugeln, 2 weißen und 3 roten. Aus dieser Urne werden 2 Kugeln gezogen. A s$i „1. Kugel ist weiß", B sei „2. Kugel ist weiß", AB ist dann: „Beide Kugeln sind weiß". Offenbar ist P(A) = 2/5. Ferner gilt P(B\A) = 1/4, denn wenn die erste Kugel weiß war, dann besteht die Urne vor dem zweiten Zug aus 4 Kugeln, 1 weißen und 3 roten. Daher ist
Selbstverständlich kann man diese Wahrscheinlichkeit auch .direkt errechnen. Es gibt ^ j = ^ ^ = 10 Möglichkeiten, aus den 5 Kugeln 2 herauszugreifen. Eine einzige dieser 10 Möglichkeiten führt zu AB (eben das Herausgreifen der beiden weißen Kugeln). Daher ist die Wahrscheinlichkeit, daß man bei zufälligem. Herausgreifen von zwei Kugeln gerade die beiden weißen erwischt, gleich 1/10. 1.4 Stochastische Unabhängigkeit; das Multiplikationstheorem Wir sagen, daß zwei Ereignisse A, B voneinander unabhängig sind, wenn das Auftreten von B von dem Auftreten oder Nichtauftreten von A nicht abhängt. Diesen intuitiven Begriff der Unabhängigkeit können wir durch folgende Definition präzisieren: Die Ereignisse A und B heißen stochastisch unabhängig, wenn P(B\A) = P(B\A).
(1)
Denken wir an die Häufigkeitsinterpretation der Wahrscheinlichkeit, so folgt aus dieser Definition, daß zwei Ereignisse
12
1 Die Wahrscheinlichkeit
nur dann unabhängig sind, wenn — in einer hinreichend langen Serie von Versuchen — das Ereignis B in der Teilserie jener Experimente, bei denen das Ereignis A realisiert wird, mit etwa der gleichen relativen Häufigkeit auftritt wie in der Teilserie jener Experimente, bei denen das Ereignis Ä auftaucht. Aus Formel (1) folgt, wie man leicht zeigen kann: P(AB) = P{A) P(B) (2) sowie P(B\A) = P(B). Die Beziehung (2) nennt man das Multiplikationstheorem der Wahrscheinlichkeitsrechnung. Selbstverständlich gilt das Multiplikationstheorem nicht nur für zwei, sondern für jede beliebige endliche Anzahl von Ereignissen, wenn diese stochastisch unabhängig sind. Beispiel: Wir würfeln mit 3 Würfeln gleichzeitig. Das Auftreten der Augenzahl i beim 1. Würfel wollen wir mit A\, beim 2. Würfel mit A'i, beim 3. Würfel mit A!" bezeichnen. Dann ist z. B. das dreifache Auftreten der Augenzahl 6 charakterisiert durch A'i AQ AQ". Da es vernünftig erscheint, anzunehmen, daß die Augerizahlen der drei Würfel voneinander unabhängig sind, gilt das Multiplikationstheorem:
P(A't A6' A'a") = P(A',) P(A'i) P(A'e") = 1 . 1 . 1 - = - ^ . Es werden also in einer langen Versuchsserie im Durchschnitt nur einmal unter 216 Würfen alle drei Würfel gleichzeitig eine 6 zeigen. 1.5 Zufällige Variable
Bisher haben wir nur ganz allgemein von Merkmalen und deren Ausprägungen gesprochen. Für die Anwendung der mathematischen Methoden ist es vielfach zweckmäßig, die verschiedenen Ausprägungen durch reelle Zahlen auszudrücken. Dies geschieht bei stetigen Merkmalen meistens dadurch, daß man jeder Ausprägung a einen „Meßwert" x(a) zuordnet. Dann kann man das Ergebnis eines Zufallsexperimentes einfach durch Angabe einer bestimmten Zahl x charakterisieren (wie es oben bereits für den Durchmesser
13
2.1 Einleitung
der Bohrlöcher vorweggenommen wurde). Eine solche Zuordnung heißt zufällige Variable*). Eine bestimmte Menge von Ausprägungen, A, kann dann einfach durch eine Menge reeller Zahlen, M, charakterisiert werden. Daß die tatsächlich aufgetretene Ausprägung a unter A fällt, ist dann gleichbedeutend mit x(a) e M. Dalier gilt: P(A) = P(x e M). Sind xv x2,..., xn zufällige Variable, so sollen diese stochastiseh, unabhängig heißen, wenn für jedes System rv r 2 , . . r n reeller Zahlen gilt: P{x1 g rv x2 ^ r 2 , . . x n ^ rn) = P{x1 ^ rx) P(x2 < r 2 ) . . . P(xn ^ r„), wobei P(x1 g rx, x2 ., xn g r„) die Wahrscheinlichkeit aller derjenigen Ausprägungen a ist, für die xx(a) rx und gleichzeitig a;2(a) r 2 u n d . . . und gleichzeitig 2 Häufigkeitsverteilungen 2.1 Einleitung Das allgemeine Konzept der Häufigkeitsverteilung wurde in Band I, Kapitel 2, eingehend erörtert. Im vorliegenden Kapitel wollen wir einige konkrete, praktisch bedeutsame Verteilungstypen besprechen. Wichtig ist für uns dabei die Unterscheidung zwischen diskreten und stetigen Verteilungen. Eine Verteilung heißt diskret, wenn es eine endliche (oder abzählbar unendliche) Menge von Werten a*1), x(2\ . . . , x ( 0 , . . . gibt, die von Null verschiedene Wahrscheinlichkeiten f(xM), /(a;(2>), . . /(£('>), . . . besitzen derart, daß /(a(')) = l . Dagegen i
heißt eine Verteilung stetig, wenn eine Funktion f(x) existiert derart, daß die Wahrscheinlichkeit jedes - Intervalles I gegeben ist durch das Integral der Funktion f(x) über das Inter* ) Zufällige Variable werden im allgemeinen mit großen lateinischen B u c h s t a b e n (-V, Y, . . . ) , die zugehörigen Realisationen m i t kleinen lateinischen B u c h s t a b e n (x, y,...) bezeichnet. F ü r unsere Zwecke ist diese U n t e r scheidung irrelevant. W i r werden daher einheitlich kleine lateinische B u c h staben verwenden.
14
2 Häufigkeitsverteilungen
vaU I. Die Funktion f(x) nennt man die Dichtefunktion + 00 Verteilung. Es gilt: J f{x) dx = 1. -
der
00
Die Summenfunhtion F(x) einer Verteilung gibt die Wahrscheinlichkeit an, daß die zufällige Variable einen Wert kleiner oder gleich x annimmt. Es gilt also: JS /(aO) für diskrete Verteilungen,
.Bs,
F(x) =
f 1(x)äx
für stetige Verteilungen.
Oft erweist es sich als zweckmäßig, für die Häufigkeitsverteilung bestimmte charakteristische Größen zu berechnen. Verschiedene damit zusammenhängende Fragen wurden in Band I, Kapitel 3, besprochen. Wir wollen hier als für das Folgende besonders bedeutsam den Erwartungswert herausheben: Es sei m(x) eine beliebige Funktion der zufälligen Variablen x. Dann gilt: Erwartungswert*): m(a(i)) f(x('))
E[m(x)] =
f m(x) f(x) da;
für diskrete Verteilungen,
(1)
für stetige Verteilungen.
(2)
— 00
Insbesondere ist:
Mittelwert p = E(x), Varianz a2 = E[(x — nf\ .
(3) (4)
Die Berechnung der Varianz wird oft durch den sogenannten Versehielungssatz erleichtert: a2 = E(x2) — ¡j?. Für die Varianz verwenden wir im folgenden auch das Symbol V(x). *) Der Vollständigkeit halber sei vermerkt, daß es Funktionen m(x) gibt, für die E[m(x)] nicht existiert, da entweder im Falle einer diskreten Verteilung E m(xO) /(a;W) nicht absolut konvergent ist oder im Falle einer
i
stetigen Verteilung die Funktion m(x) bezüglich f(z) nicht integrabel ist, wie z. B. die Funktion m(x) = x bezüglich der Dichtefunktion der t-Verteilung mit 1 Freiheitsgrad (vgl. 8. 59, 60).
2.2 Die Binomialverteilung
15
2.2 Die Binomialverteilung Wir betrachten ein (artmäßiges oder zahlenmäßiges) Merkmal, das zwei Ausprägungen besitzt. Diese wollen wir mit A bzw. Ä (Komplement von Ä) bezeichnen. Gegeben sei eine zufällige Variable, welche die Ausprägung Ä mit der Wahrscheinlichkeit p, die Ausprägung Ä mit der Gegenwahrscheinlichkeit 1 — p annimmt. B e i s p i e l : a) Bei der Kontrolle eines Produktionsprozesses werden die einzelnen Stücke klassifiziert: A = defekt, A = nicht defekt, p ist die Wahrscheinlichkeit, daß ein produziertes Stück defekt ist. b) Wir betrachten eine Aufgliederung der Geborenen nach dem Geschlecht: A = männlich, A = weiblich, p ist die Wahrscheinlichkeit, daß ein Geborenes männlichen Geschlechtes ist.
Betrachten wir zwei Realisationen dieser zufälligen Variablen, so sind offenbar 4 Ergebnisse möglich: AA, AÄ, ÄA, ÄÄ. Sind die beiden Realisationen voneinander unabhängig, dann haben diese 4 möglichen Ergebnisse nach dem Multiplikationstheorem folgende Wahrscheinlichkeiten: Ergebnis: AA AÄ AA AA
Wahrscheinlichkeit: p p p( 1 — p) (1 — p)p (i_p)(i_p)
Sehen wir von der Reihenfolge der beiden Realisationen ab, so gibt es nur 3 mögliche Ergebnisse: leide Realisationen haben zu dem Ergebnis A geführt {AA), nur eine Realisation hat zu dem Ergebnis A geführt (AÄ oder ÄA), keine Realisation hat zu dem Ergebnis A geführt [ÄÄ). Bei Vernachlässigung der Reihenfolge können wir die möglichen Ausprägungen einfach dadurch charakterisieren, daß wir angeben, wie oft A innerhalb einer vorgegebenen Zahl von Realisationen auftritt:
16
2 Häufigkeitsverteilungen
Häufigkeit von A 2
Ergebnisse mit dieser Häufigkeit
Wahrscheinlichkeit Wahrscheinlichkeit pp = p2
AA AÄ,ÄA
1 0
p(\—p)+(l—p)p
AA
= 2p{l — p)
(1 — p) (1 — p) = (1 —pf
Die Überlegungen, die wir hier f ü r den Fall von zwei Realisationen angestellt haben, lassen sich auf eine beliebige Zahl n von Realisationen übertragen. Jede Kombination von n Realisationen, die genau fc-mal das Ergebnis A u n d (n — fc)-mal das Ergebnis Ä enthält, h a t die Wahrscheinlichkeit p*(l — p ) n ~ k . Wie die elementare Kombinatorik lehrt, ist die Anzahl dieser Kombinationen kl(n — k)\ ' (Es gibt
Möglichkeiten, die k ^-Ergebnisse auf
die
n Realisationen aufzuteilen.) Daher ist die Wahrscheinlichkeit P(k), daß unter den n Realisationen k-mal das Ergebnis A eintritt, gegeben durch p(jc)=Qp"(i-pr-".
(i)
Insbesondere ist ( ^ j = [ ^ j = 1 , also die Wahrscheinlichkeit, daß w-mal A eintritt, gleich pn, die Wahrscheinlichkeit, daß w-mal Ä eintritt, gleich (1 — p ) n . Die so gewonnene Verteilung wird Binomialverteilung n a n n t u n d mit dem Symbol Bn(p) bezeichnet.
ge-
Wir überzeugen uns leicht, daß die Summe über die Wahrscheinlichkeiten P(k) von k — 0 , 1 , . . . , n tatsächlich 1 ergibt. Nach dem binomischen Lehrsatz gilt nämlich: 2
(J) P*(l - P)n~k = [P + (1 - V)]n = 1" = 1 •
2.2 Die Binomialverteilung
17
1. Beispiel: Eine Maschine produziert mit einem durchschnittlichen Ausschußanteil von 0,03 (3%). Besteht zwischen den einzelnen Stücken Unabhängigkeit, d. h. ist die Wahrscheinlichkeit, daß ein bestimmtes Stück Ausschuß wird, unabhängig davon, ob die vorhergehenden Stücke Ausschuß waren oder nicht, so wird die Anzahl der Ausschußstücke in einer Serie der Länge n einer Binomialverteilung gehorchen: ^ 0 , 0 3 * 0 , 9 7 " B i l d 1 zeigt die Verteilung für n = 20. Die Wahrscheinlichkeit, daß unter den 20 zufällig herausgegriffenen Stücken kein Ausschuß ist, ist 0,544, d. h. rund 54%.
k=0 I 2 3 i S Bild 1. Die Verteilung B,„(0,03).
k= 0 1 2 3 4 5 6 7 8 Bild 2. Die Verteilung B,(3/4).
2. Beispiel: Bei einer Kreuzung Aa x Aa haben wir folgende Nachkommen zu erwarten: AA mit Wahrscheinlichkeit 1/4, Aa mit Wahrscheinlichkeit 1/2, aa mitWahrscheinlichkeit 1/4. Ist A dominant, so können wir nur zwischen zwei Phänotypen unterscheiden: Phänotypus A, der den Genotypen AA und Aa entspricht und daher mit der Wahrscheinlichkeit 3/4 auftritt, und Phänotypus a, der dem Genotypus aa entspricht und mit der Wahrscheinlichkeit 1/4 auftritt. Die Wahrscheinlichkeit P(k), daß unter n Nachkommen genau k /n\ / 3 / I \ n ~ k vom Phänotypus A sind, ist dann U ) l-j) l - j j . Bild 2 zeigt 2 P f a n z a g l , Allgemeine Methodenlehre der Statistik
18
2 Häufigkeitsverteilungen
diese Verteilung für n = 8. Es ist zu beachten, daß die Wahrscheinlichkeiten P(k) nur dann einer Binomialverteiluiig gehorchen werden, wenn die Genotypen der einzelnen Nachkommen voneinander unabhängig sind, also nicht etwa eineiige Mehrlinge vorkommen. Nun berechnen wir Mittelwert und Varianz der Binomialverteilung: Mittelwert:
(2)
E(k) = np.
Nach Definition ist m
=
Vk(i
-V)n-k.
Nun ist aber
KI)= M
also m
— = «p 2 — k= 1 oo wird die Wahrscheinlichkeit, daß x von ¡J, um mehr als e abweicht, beliebig klein. Dies sehen wir ein, indem wir setzen. Kkintchine hat das Gesetz der großen Zahlen jedoch bewiesen, ohne die Existenz der Varianz a 2 vorauszusetzen. byscheff
3.6 Der Zentrale Grenzwertsatz Wir betrachten eine Folge von unabhängigen zufälligen Variablen x1, x 2 , . . . , x n , . . . und die zugehörige Folge der Summenvariablen z1 = x1,zt — xi-\- x2,...,zn = x1 + x2-\+ . . . + « „ , . . . . Von Abschnitt 3.1 wissen wir, daß zn n
n
¡-1
i =l
den Mittelwert 2J ßi und die Varianz Zentraler tisch
Orenzwertsatz:
normalverteilt
für n
besitzt.
Die zufällige Variable
mit den Parametern
n 2 J ß i
i-1
zn
und
ist
n 2Job
¿=1
asympto-
d.h.,
oo strebt die Verteilung der standardisierten Va-
riablen (zn —i=i fii)/' Y/ i=i j } a | gegen die Verteilung N(0,1). Das Wesentliche am Zentralen Grenzwertsatz ist, daß die Verteilung der zugehörigen standardisierten Variablen stets gegen die Normalverteilung strebt, gleichgültig, wie die Verteilung der Xi beschaffen ist. Man muß beim Beweis des Zentralen Grenzwertsatzes allerdings sicherstellen, daß nicht eine einzelne unter den Variablen x t dominiert und der Ve rteilung von z„ ihren eigenen Charakter aufprägt. Dies kann
3.6 Der Zentrale Grenzwertsatz
67
z. B. durch Voraussetzungen über die Varianzen und die dritten Momente der Verteilungen geschehen. Sicherlich gilt der Zentrale Grenzwertsatz dann, wenn alle Verteilungen identisch sind und endlichen Mittelwert und endliche Varianz besitzen. Der an der mathematischen Seite dieses Problems interessierte Leser wird auf das Buch von M. Lohe verwiesen. Für endlich große n können wir aus dem Zentralen Grenzwertsatz folgern, daß die Verteilung von zn annähernd mit n
n
¡JL,, O*) übereinstimmt. Diese t=i ¿=i Ubereinstimmung wird um so besser sein, je größer n ist und je ähnlicher die Verteilung der x{ einer Normalverteilung ist. So kann beispielsweise die Verteilung von z„ bereits für sehr kleine n gut mit einer Normalverteilung übereinstimmen, wenn alle x{ die gleiche Verteilung besitzen, diese einen endlichen Mittelwert und eine endliche Varianz hat und außerdem eingipfelig und nicht allzu schief ist. der Normal Verteilung
Um zu demonstrieren, daß auch für Variable xu deren Verteilung von der Normalverteilung wesentlich abweicht, die Summenvariable zn für nicht allzu große n bereits gut mit der Normalverteilung übereinstimmt, wurde die Häufigkeitsverteilung der Summe der Augenzahlen berechnet, die man beim Werfen von 5 Würfeln erhält. Wie aus Bild 26 zu ersehen ist, zeigt diese bereits die typische Glockenform der Normalverteilung, obwohl die Verteilung von x{ in diesem Falle wesentlich von der Normalverteilung abweicht. (Die Verteilung von (£ = 1 , 2 , . . 5 ) ist eine Gleichverteiung, die jedem der Werte 1, 2, . . . , 6 die Wahrscheinlichkeit 1/6 zuordnet.) Der Zentrale Grenzwertsatz erklärt auch, warum so viele empirische Häufigkeitsverteilungen annähernd einer Normalverteilung entsprechen. Wenn ein Merkmal durch Zusammenwirken sehr vieler voneinander unabhängiger Einflußfaktoren bestimmt wird und nicht einer der Einflußfaktoren dominiert, wird die Verteilung annähernd normal sein, wenn die Wirkungen der einzelnen Einflußfaktoren 6*
68
3 Stichprobenfunktionen; Schätzung von Parametern
Bild 26. Die Verteilung der Augen-Summe von 5 Würfeln und deren Approximation durch die Normalverteilung.
additiv sind. Nimmt man an, daß die Wirkung jedes Einflußfaktors proportional zu dem bereits erreichten Wert des Merkmals ist, erhält man eine logarithmisch-normale Verteilung (vgl. Cramer, S. 219, 220). Der Zentrale Grenzwertsatz liefert natürlich nicht nur eine Aussage über die Summen von zufälligen Variablen, sondern auch über die Mittelwerte. Ist zn = xx + x2 +... -\-xn asymptotisch normalverteilt mit den Parametern nfi und na2, so ist x = + x2 + . . . + xn)ln asymptotisch normalverteilt mit ¡x und a2jn. Anwendung des Zentralen Grenzwertsatzes auf die Binomialverteilung: Da wir eine nach Bn(p) verteilte zufällige Variable als Summe von n unabhängigen zufälligen Variablen auffassen können, folgt aus dem Zentralen Grenzwertsatz, daß die Verteilung der standardisierten Variablen (k — np) I Ynp(l — p ) für oo gegen die Verteilung iV(0,l) strebt. Für große n stimmt daher die Binomialverteilung Bn(p) annähernd mit der Verteilung N(np, np( 1 — p)) überein; d.h., es gilt:
3.6
(
Der Zentrale Grenzwertsatz
«rf
ifc+l/2 —
1
-
e
69
{x—n py 2np(l-p) ¿x —
k-1/2 k — 1/2 — np ]/np(l — p)
wobei das Zeichen „ « " ausdrücken soll, daß die ersten beiden Ausdrücke von (1) nur annähernd gleich sind. Wie gut die Binomialverteilung mit der Normalverteilung übereinstimmt, hängt wesentlich von p ab, denn je stärker p vom Werte 1/2 abweicht, um so größer ist die Asymmetrie der Binomialverteilung, und um so größer muß n sein, um eine befriedigende Übereinstimmung mit der Normalverteilung zu erreichen. Als praktische Faustregel gilt, daß man die Binomialverteilung dann mit hinreichender Genauigkeit durch eine Normalverteilung approximieren kann, wenn n>
9 —¡r . p{ 1 — p)
B e i s p i e l : Bei genetischen Anwendungen hat man oft mit der Verteilung ß „ ( l /4) zu tun. F ü r « = 50 können wir diese Verteilung bereits durch eine Normalverteilung mit Mittelwert fi — 50 • 1/4 = 12,5 und Varianz er2 = 50 • 1/4 • 3/4 = 9,375 approximieren. Bild 27 zeigt die auf Grund der Binomialverteilung berechneten exakten Wahrscheinlichkeiten und deren Approximation durch die Normalverteilung.
Anwendung des Zentralen Grenzwertsatzes auf die Poissonverteilung: Da die Summation zweier unabhängigerpoissonverteilter Variabler mit den Parametern a1 und a2 wieder zu einer Poissonverteilung mit dem Parameter + a2) führt, hat die Summe zn von n unabhängigen poissonverteilten Variablen mit dem Parameter a wieder eine Poissonverteilung, und zwar mit dem Parameter na. Da für diese Poissonverteilung fj, = na und a2 = na, strebt nach dem Zentralen Grenzwertsatz die Verteilung von (z n — na)/]/na für n -> oo gegen N(0,1). Also strebt auch die Verteilung von (k — a)//a~
70
n
3 Stichprobenfunktionen; Schätzung von Parametern
—Binomialverteilung — Normalverteilung
J 0 2 i
Bild 27. Die Verteilung B t oUM) und deren Approximation durch die Normalverteilung i i (12,5, 9,375).
6 t
10 12 U IS IS 20 22 2i 26 - Poissonverteilung —Normalverteilung
Bild 28. Die Poissonverteilung mit dem Mittelwert 10,7 und deren Approximation durch die Normalverteilung iV(10,7, 10,7).
10 12 U IG ia 20 22 2i gegen die Normalverteilung N(0,1) für a -> oo, wenn die zufällige Variable k nach einer Poissonverteilung mit dem Parameter a verteilt ist. Für große a gilt daher: k1
e~a sä 0
(^h'MM-
»
3.7
Die maximum likelihood-Methode
71
Praktisch kann man die Poissonverteilung durch eine Normalverteilung approximieren, sobald a > 9. Beispiel: Aus einer großen Zahl von Messungen ergab sich die Anzahl der Fadenbrüche pro 200 Spindelstunden mit 10,7. Es ist zu bestimmen, in welchem Bereich die Werte für die einzelnen Spindeln pro 200 Spindelstunden streuen werden. Einen Bereich, der 99% aller Einzelwerte umfaßt, erhalten wir aus:
fet+1/2—«=
2)5g> a ] s o k i =
fco —1/2 — «
=
ya
_
2>58( a ] s o
_ y2 =
+
y2
2,581/fiyr^ 19,
10)? +
+
10j7
_
2)58
j/Jöy^
3
_
ya Die Anzahl der Fadenbrüche pro 200 Spindelstunden wird also fast immer zwischen 3 und 19 liegen.
3.7 Die maximum likelihood-Methode Wir haben in Abschnitt 5 die Unterscheidung von Funktional-Parametern und expliziten Parametern eingeführt. Die dort besprochenen Methoden bezogen sich auf die Schätzung von Funktional-Parametern. Für Binomial-, Poisson- und Normalverteilung kann das Problem der Parameter-Schätzung mit diesen Methoden gelöst werden, da die expliziten Parameter dieser Verteilungen entweder mit Funktional-Parametern identisch sind (Poisson- und Normalverteilung) oder aber eine bekannte Funktion bestimmter Funktional-Parameter sind (Binomialverteilung). Im folgenden wollen wir uns jedoch mit dem Problem der Schätzung expliziter Parameter im allgemeinen beschäftigen. Eine allgemeine Methode zur Schätzung expliziter Parameter ist die sogenannten maximum likelihood-Methode*). Wir betrachten eine Dichtefunktion f(x, #), die von einem Parameter •& abhängt. (Bei diskreten Verteilungen tritt wieder an die Stelle der Dichte die Wahrscheinlichkeit.) *) Im folgenden wollen wir „maximum likelihood" mit m. 1. abkürzen. Sine bestimmte Übersetzung dieses Ausdruckes hat sich noch nicht eingebürgert.
72
3 Stichprobenfunktionen; Schätzung von Parametern
Liegen n voneinander unabhängige Realisationen (xx, x 2 1 . . x n ) der zufälligen Variablen x vor, so ist die Dichte dieser Realisationen gleich: L(xlt z2, . . . , xn; ff) = f(xv ff) j{x2, ff).. . f(xn, ff). L(xv x2,..., xn\ &) — bei festgehaltenen (xlt x2,..., xn) als Funktion von betrachtet — heißt likelihood-Funktion. Unter gewissen Regularitätsvoraussetzungen hat die likelihood-Funktion genau ein Maximum. Jenes für welches dieses Maximum angenommen wird, wollen wir mit . .., xn) oder kurz mit $ bezeichnen. Die zufällige Variable ßix^ ..., xn) ist im allgemeinen für alle n definiert. Für oo ist # verteilt nach N[-&,\jnj{ß)], G lo0" fix, •&) \21 wobei ?'(#) = E ^ °„—^ ' ' . Man kann daher mit den in 4.2 entwickelten Verfahren für nicht allzu kleine w leicht angeben, wie groß die Abweichung der Schätzung von dem zu schätzenden Parameter $ im Rahmen einer vorgeschriebenen Sicherheitswahrscheinlichkeit maximal sein kann. Das Prinzip der m. 1.-Methode, als Schätzwert unter allen {} jenes auszuwählen, bei welchem der tatsächlich beobachteten Stichprobe die größte Wahrscheinlichkeit zukommt, ist sehr anschaulich. Die eigentliche Rechtfertigung für die m.l.-Methode ergibt sich jedoch daraus, daß die mit Hilfe dieser Methode gewonnenen Schätzfunktionen eine Reihe wünschenswerter Eigenschaften aufweisen. So kann man beispielsweise zeigen, daß es unter gewissen Regularitätsvoraussetzungen keine Schätzfunktionen geben kann, die eine kleinere als die oben angegebene Varianz 1 ¡nj(ft) besitzen. Für n -> oo haben also die m. 1.-Schätzungen sicher die kleinstmögliche Varianz. Außerdem kann man zeigen, daß die m. l.-Schätzungen auch für endliche n die kleinstmögliche Varianz besitzen, falls es überhaupt solche Schätzfunktionen gibt. m. l.-Schätzungen sind jedoch im allgemeinen nicht erwartungstreu.
3.8 Die praktische Berechnung der m. l.-Schätzung
73
Der an der Theorie der m. l.-Schätzung interessierte Leser wird auf Kendali und Stuart, Kapitel „Estimation: Maximum Likelihood", sowie Schmetterer, S. 221 ff. verwiesen. Die m. l.-Methode führt zu der Methode der kleinsten Quadrate, wenn normalverteilte Variable vorliegen und nur der Mittelwert von dem Parameter & abhängt. In diesem Falle gilt nämlich: t,
o,
1 \y2na)
- ~
l^i-fW)'
Die Maximierung von L(xlt...,
xn; •&) ist aber gleichbedeun tend mit der Minimierung von J j (»,- — jbt(&))2. Anwendungen der Methode der kleinsten Quadrate werden u. a. in Abschnitt 9.1 (S. 256) gegeben. 3.8 Die praktische Berechnung der m. I.-Schätzung Um die Berechnung von zu erleichtern, betrachtet man statt der likeliho od-Funktion L(xv ..., xn; # ) deren Logarithmus, beispielsweise mit der Basis e: n log L\xv . . ., xn; &)= log f(x{, &). t=i Da der Logarithmus eine positiv monotone Funktion ist, hat log L f a , ...,'£„•,•&) genau für den gleichen Wert •& das Maximum wie Uxx,..., xn\ §) selbst. Wir finden dieses Maximum, indem wir log L(xv ..., xn; &) nach {} differenzieren und die Ableitung Null setzen. So erhalten wir die m. I.-Gleichung: 1
= 0.
Dies ist eine Gleichung, die es uns erlaubt, jenes •&, für welches die likelihood-Funktion ihr Maximum annimmt, als Funktion von xv . . x n darzustellen, Im allgemeinen hat
74
3 Stichprobenfunktionen; Schätzung von Parametern
diese Gleichung nur eine Lösung, und diese liefert tatsächlich das Maximum. E s gibt jedoch Ausnahmefälle, in denen diese Gleichung mehrere oder keine Lösungen hat.' (Ein Beispiel für den erstgenannten Fall gibt v. d. Waerden, S. 155, Beispiel 24.) 1. B e i s p i e l : /(&> M) =
= y2n
Gegeben sei eine Stichprobe xv ..., meter fi. log f(x,fi) = -
^
2
.
xn. Zu schätzen ist der Para-
—logalso:-^logf(x,ß) =
^
x—p.
n £ (®« — ß) = 0 . »=i
m. l.-Gleichung: Lösung:
e
1 ¡i = —
"
xiEs gilt: j(fi) = E[(x — ¡j)2J = 1 , i-i also ist p, für n - * oo verteilt nach N(ß, 1 ¡ri). n
Anmerkung: Wir könnten in diesem Falle auch die „Methode der kleinsten Quadrate" anwenden, also jenes fi suchen, für welches n (Xj — /j,'f = Min. Die Differentiation nach ¡x liefert die Bei=l n
stimmungsgleichung — 2 • 2 { x t — f ) — 0» mit i=l n 1
der
Lösung
1 _ (s-P)' -e 2o' . Gegeben sei J/2jr • ct xn. Zu schätzen sind die Parameter ¡i
2. B e i s p i e l : /(x, fi, o2) = eine Stichprobe xlt..., und CT2.
Oben wurde die m. I.-Methode nur für den Fall eines einzelnen Parameters besprochen. Es liegt jedoch auf der Hand, welche Modifikationen vorzunehmen sind, wenn zwei Parameter zu schätzen sind: Man differenziert die likelihood-Funktion (bzw. deren Logarithmus) das eine Mal nach dem einen, das andere Mal nach dem anderen Parameter und erhält auf diese Art zwei m. 1,-Glei-
3.8 Die praktische Berechnung der m. l.-Schätzung
75
chungen. Aus diesem kann man dann die beiden Schätzfunktionen berechnen. Es gilt: log /(*, —
log /(», n , a )
x—
1. m. l.-G.: Xi — fJ, = 0, 2 i=l
- log |/2li — log a , 2
p ( l — p)
Folglich ist p = k/n für n -> oo verteilt nach N(p, p( 1 — ?')/«)• Berücksichtigen wir, daß k nach Bn(p) verteilt ist, so ist dieses Ergebnis mit dem auf S. 68 gewonnenen äquivalent. 4. B e i s p i e l * ) : Wir betrachten zwei Erbmerkmale von Mais: Das erste Merkmal ist der Stärke- bzw. Zuckergehalt: dabei ist stärkehaltig ( A ) dominant über zuckerhaltig (a); das zweite Merkmal ist die Farbe: dabei ist grün ( 5 ) dominant über weiß (6). Die Selbstbefruchtung von Hybrid-Mais ( A a , Bb) führte zu folgendem Ergebnis: *) Nach K. A. Fisher:
Statistical methods for research workers, S. 238.
3.8
Die praktische Berechnung der m. l.-Schätzung
grün 1997 904
stärkehaltig zuckerhaltig
77
weiß 906 32
Nach den Mendehchen Regeln sollten sich diese Zahlen wie 9 : 3 : 3 : 1 verhalten. Dies ist offenbar nicht der Fall. Die Ursache für eine Abweichung von den Mendehchen Regeln könnte z. B. darin bestehen, daß die Allelen A und b bzw. a und B miteinander gekoppelt sind. Wäre die Kopplung streng, so würde unter den von Hybriden produzierten Gameten die Hälfte von Typ Ab, die andere Hälfte von Typ aB sein. Besteht eine gewisse Wahrscheinlichkeit p, daß diese Kopplung durchbrochen wird, so treten folgende Gameten auf: Gameten:
AB
Ab
aB
männlich:
yp
y ( l —p)
y ( l —p)
weiblich:
yp'
y(l—p')
y(l—p')
ab
yp'
Dabei wurde die Möglichkeit offengelassen, daß die Wahrscheinlichkeit für eine Auflösung der Kopplung bei männlichen Gameten (p) von der bei weiblichen Gameten (p') verschieden ist. Nehmen wir nun an, daß die Vereinigung von männlichen und weiblichen Gameten rein zufällig, d. h. unabhängig vom Genotypus, erfolgt, so treten die nachfolgenden Genotypen mit folgenden Wahrscheinlichkeiten auf: \tv m\
AB
Ab
ab
aB
\
1 PP
AB
1 , yPP
Ab
i-(l_p)p' A(l-p)(l_p') I ( l - P ) ( l - P ' ) j ( l - P ) P '
aB
-^(i-p)p' y(l-p)(l-p') I(l-P)(l-P') j(l-P)P'
ab
i -jpp
-i-p(l-p')
-JP(I-P')
\vO--v')
JP(I-P')
T
1 , jPP
78
3 Stichprobenfunktionen; Schätzung von Parametern
Es sind vier Phänotypen unterscheidbar. Diese Phänotypen sind zusammen mit den Genotypen und den zugehörigen Wahrscheinlichkeiten in nachstehender Tabelle zusammengefaßt: Nr.
Phänotypus
Genotypen
Wahrscheinlichkeit
1
stärkehaltig, grün
AB,AB; AB,Ab', AB,aB AB,ab; Ab,AB; Ab,AB aB,AB;aB,AB;ab,AB
" [ ( 2 + PP')
2
stärkehaltig, weiß
Ab,Ab; Ab,ab; ab,Ab
PP')
3
zuckerhaltig, grün
aB,aB; aB,ab\ äb,aB
j(l-PP')
4
zuckerhaltig, weiß
ab,ab
1 -jVP
Die Wahrscheinlichkeiten dieser 4 Phänotypen hängen nur von dem Produkt p p', nicht aber von p und p' separat ab. Es ist klar, daß man aus diesem Grunde nur den Wert p p', nicht aber p und p' selbst schätzen kann. Wir führen zur Abkürzung den Parameter •fr = pp'ß ein. Dann lauten die 4 Wahrscheinlichkeiten: Pi = y +
=
—
=
— #,P4 =
Bestünde keine Kopplung, so wäre p = p' = 1/2, also •& = 1/16, und somit _ 9 _ 3 _ 3 _ 1 Pi ~ 1 6 " • Pa ~ "ig"' P» - 16 ' P t ~ 16 ' Um d zu schätzen, bezeichnen wir die Besetzungszahlen des i. Phänotypus mit nt. (In unserem konkreten Beispiel gilt: « ! = 1997, « 2 = 906, n3 = 904, w4 = 32). Dann ist die likelihoodFunktion:
4.1 Einleitung log L = «! log
+
m. l.-Gleichung: ^
79 + M« lo S & •
+ (n2 + n3) log -
+
= 0,
oder:(n 1 +« 2 +w 3 + w 4 )d 2 —(«!—2m 2 —2w 3 —n 4 )-—gi = 0. In unserem konkreten Beispiel lautet diese Gleichung: 3839 d* + 413,75 & — 4 = 0 . Eine sinnvolle Lösung ist natürlich nur die positive Wurzel dieser Gleichung. Diese lautet: & = 0,00893. Nimmt man an, daß p — p', so erhält man daraus die Schätzung p = 2)/# = 0,189. Wegen weiterer Anwendungen der m. 1.-Methode vergleiche u. a. Abschnitt 7.2 (S. 168). Nicht immer ist es möglich, die m. l.-Gleichung aufzulösen, d. h. die Schätzfunktion $ explizit als Funktion von xn darzustellen. In diesem Falle ist man gezwungen, die m. l.Gleichung bei jeder einzelnen Anwendung mit einem numerischen Näherungsverfahren aufzulösen. Ein solches Näherungsverfahren gibt v. d. Waerden, S. 152 ff. Außerdem gibt es Fälle, in denen die m. l.-Methode überhaupt versagt, weil die Regularitätsvoraussetzungen nicht erfüllt sind. Dies ist beispielsweise dann der Fall, wenn die Anzahl der Parameter mit dem Stichprobenumfang ständig ansteigt. Beispiele dieser Art finden sich bei v. d. Waerden, S. 151, ferner Neymann und Scott sowie Basu. 4 Normal Verteilung; elementare Verfahren 4.1 Einleitung Gegeben sei eine Stichprobe a^, x2,..., xn, aus der eine Funktion m(xv x2,..., xn) gebildet wird, m sèi — als zufällige Variable aufgefaßt — normalverteilt mit unbekanntem Mittelwert ¡j, und bekannter Varianz cr2/n. Die wichtigste Anwendung betrifft den speziellen Fall m(x1,xa ...,xn) =x.
80
4 Normalverteilung; elementare Verfahren
Das Ziel der in diesem Kapitel entwickelten Verfahren besteht darin, Aussagen über den Mittelwert ¡j, (oder — bei Vorliegen von zwei Stichproben — über die Differenz der beiden Mittelwerte) zu machen. Gleichzeitig werden auch die f ü r die folgenden Kapitel bedeutungsvollen Begriffe des Mutungsintervalles (Vertrauensintervalles, Konfidenzintervalles) und des Signifikanz-Tests entwickelt. Die in diesem Kapitel besprochenen Verfahren sind auf verschiedene Situationen anwendbar: a) Auf Grund einer Stichprobe beliebigen (auch kleinen) Umfanges aus einer Normalverteilung mit bekannter Varianz ist eine Aussage über den unbekannten Mittelwert der Verteilung zu machen. b) Es liegt eine große Zahl von Stichproben beliebigen (auch kleinen) Umfanges aus Normalverteilungen mit identischer — aber unbekannter — Varianz u n d unbekannten Mittelwerten vor. Es ist zu prüfen, ob die Mittelwerte aller Verteilungen identisch sind (Kontrollkarten-Problem). D a die Zahl der Stichproben groß ist, kann die unbekannte Varianz mit der aus den Stichproben gewonnenen Schätzung identifiziert werden. c) E s liegt eine große Stichprobe vor, u n d die daraus gebildete F u n k t i o n m ist asymptotisch normalverteilt. Es ist eine Aussage über den Mittelwert zu machen. D a die Stichprobe groß ist, kann die unbekannte Varianz mit der aus der Stichprobe gewonnenen Schätzung identifiziert werden. I m wesentlichen sind die hier besprochenen Verfahren also dann anwendbar, wenn entweder die Varianz bekannt ist oder eine große Zahl von Werten (sei es in Form einer großen Stichprobe oder einer großen Zahl kleiner Stichproben) vorliegt, so daß die Varianz mit hinreichender Genauigkeit geschätzt werden kann. Stehen f ü r die Schätzung der Varianz nur wenige Werte zur Verfügung, so daß man den Schätzwert der Varianz nicht einfach mit dem wahren Wert er2 identifizieren kann, dann müssen feinere Verfahren angewendet werden, wie sie in Kapitel 8 besprochen werden.
4.2 Das Mutungsintervall für den Mittelwert
81
4.2 Das Mutungsintervall für den Mittelwert Ist m verteilt nach N(/j,,o2ln), Größe
m
so ist die standardisierte 7
^ 1fn verteilt nach A (0,1). Daher gilt mit der
Wahrscheinlichkeit 0,99: — 2,58
"
Die kritische Region mit der Irrtumswahrscheinlichkeit 0,01 für die Hypothese p = p0 gegen die Alternative p > pg besteht also aus allen jenen Werten k, für welche ^ ¥ + 1
* ^
ä F . . . . OK» -
k+
i), 2
k).
(2)
Sucht man umgekehrt einen Test gegen die Alternative p < p0, so hat man die kritische Region aus den kleinsten 7c-Werten zu bilden: (?)
2
P i ( l - P o ) " " ' ^ 0 , 0 1 .
E s gilt:
2
wenn
4
(?)p'(i-P)»-< =
= 0 \*/
n—k
«,
p • = F1_a{2{k+
1), 2 ( » - * ) ) .
*) Genaueres über diese Jlelation findet der Leser z. B . bei
Bald, S.
(3) 674fi.
112
5 Kleine Stichproben aus diskreten Verteilungen
Wie oben überlegen wir uns, daß die kritische Region für die Hypothese p = p0 gegen die Alternative p < p0 aus allen jenen k-Werten besteht, für welche (4)
Vielfach will man nicht einen einseitigen, sondern einen zweiseitigen Test, d. h. einen Test, der die Hypothese p = p0 nicht nur bei p > p0, sondern auch bei p ¡u0 + 2,58 aj^n oder x < — 2,58 CT/J/W . Im Falle der Binomialverteilung ist allerdings die Frage, wie man die 1% Irrtumswahrscheinlichkeit auf die obere und die untere Hälfte der kritischen Region verteilen soll, nicht von vornherein klar. Dieses Problem trat beim zweiseitigen Test für ¡i nicht auf, denn die Normalverteilung ist symmetrisch, und daher liegt es nahe, auch die kritische Region symmetrisch zu dem hypothetischen Wert zu wählen, d. h. eben den Bereich / p 2 Zu diesem Zwecke betrachtet man die bedingte von fc, für gegebenes fej + k2 = fc. Diese ist im p2: ,n w M„ ,
also die Hypergeometrische Verteilung, die von dem gemeinsamen Wert p unabhängig ist. Die kritische Region ist für die Alternative pi>p2 aus den größten ^ - W e r t e n zu bilden, und zwar wieder so, daß die Irrtum swahrscheinlichkeit eine gewisse Schranke, z. B . 1 % , nicht überschreitet. B e i s p i e l : Es soll die Wirksamkeit zweier Heilmethoden, (1) und (2), miteinander verglichen werden. Zu diesem Zwecke werden 15 Patienten mit Methode (1), 15 Patienten mit Methode (2) behandelt. Die Anzahl der Geheilten betrage 13 bzw. 10. Tabelle 5 Heilerfolge der Methoden (1) und (2) darunter: geheilt
Methode:
Anzahl der Behandelten n
i
ki
(1)
15
13
(2)
15
10
2
30
23
118
5 Kleine Stichproben aus diskreten Verteilungen
Die bedingte Verteilung von kx für
Der größte Wert, den
k2 = 23 ist:
annehmen kann, ist 15. Es gilt: P( 15) = 0,003 P(14) = 0,037 P(13) = 0,155.
Die Wahrscheinlichkeit, daß der Wert = 13 oder ein noch extremerer Wert auftritt, ist also 0,195, d. h. fast 20%. Die Überlegenheit von Methode (1) gegenüber Methode (2) kann daher auf Grund der vorliegenden Daten nicht bindend nachgewiesen werden. Ist die Alternative nicht p1 > p2, sondern #= p 2 , haben wir also einen zweiseitigen Test vorzunehmen, so wird man ähnlich wie in Abschnitt 5.1 die kritische Region aus den größten und den kleinsten Werten zusammensetzen. Genau das gleiche Testverfahren wird übrigens auch dann angewendet, wenn es sich nicht um den Vergleich zweier Stichproben, sondern um eine sogenannte 2 x 2-Iiontingenztafel handelt, bei der eine Stichprobe nach zwei Merkmalen kombiniert aufgegliedert wird. Die Verwendung dieses auf der Hypergeometrischen Verteilung beruhenden Tests für die 2 x 2-Kontingenztafel wurde von R. A. Fisher vorgeschlagen. Seine Optimalität wurde von Tocher nachgewiesen. B e i s p i e l : Die Kinderlähmung tritt in zwei Formen auf, der spinalen und der bulbären. Es wird vermutet, daß das Entfernen der Mandeln (Tonsillektomie) das Auftreten der bulbären und wesentlich bösartigeren Form begünstigt.
5.3 Binomialverteilung: Vergleich zweier Wahrscheinlichkeit. 119 Tabelle 6 Kinderlähmung und Tonsillektomie bei 10jährigen Kinderlähmungsfälle insgesamt Ohne Mandeln (1) Mit Mandeln
(2)
Z
darunter: bulbäre Form
3
2
19
6
22
8
Quelle: F. Fremel: Kinderlähmung und Tonsillektomie, Wiener Medizinische Wochenschrift Jg. 107, 1957, S. 647—653.
Die bedingte Verteilung von Pik,)
=
•
ist: / 3 W 19 [ k j \8 - ^
fs)
Der größte Wert, den~kxannehmen kann, ist 3. Es gilt: P( 3) = 0,036 P(2) = 0,255. Die Wahrscheinlichkeit, daß bei den 3 Kindern ohne Mandeln 2 oder noch mehr Fälle in der bulbären Form auftreten, ist im Falle der Unabhängigkeit zwischen der Art der Kinderlähmung und der Tonsillektomie größer als 29%, wenn unter insgesamt 22 Kinderlähmungsfälle 8 bulbäre sind. Daher kann die Abhängigkeit auf Grund der vorliegenden Zahlen nicht bindend erschlossen werden. (Im konkreten Beispiel war es jedoch möglich, den Nachweis der Abhängigkeit dadurch zu führen, daß man die Ergebnisse der verschiedenen Altersstufen in geeigneter Form zusammenfaßte.) Es sei nochmals betont, daß man die in diesem Abschnitt besprochenen Verfahren natürlich nur dann anwenden wird, wenn die Approximation durch eine Normalverteilung nicht zulässig ist, da die Berechnungen im Zusammenhang mit der Hypergeometrischen Verteilung umständlich sind. Tabellen der Sicherheitsgrenzen finden sich in der Arbeit von Finney, bei Siegel, S. 256—270, sowie in den Documenta Geigy, S. 109—123.
120
5 Kleine Stichproben aus diskreten Verteilungen
5.4 Hypergeometrische Verteilung (Stichprobenpläne für qualitative Merkmale) Bereits in Abschnitt 5.3 sind wir beim Vergleich zweier ßinomialverteilungen auf die Hypergeometrische Verteilung gestoßen. Die Hypergeometrische Verteilung t r i t t noch in einem anderen sehr wichtigen Zusammenhang auf: Wenn wir aus einer endlichen Gesamtheit mit alternativer Aufgliederung eine Stichprobe entnehmen (vgl. Abschnitt 2.3). Das wichtigste Anwendungsgebiet stellt die Abnahmep r ü f u n g dar. B e i s p i e l : Ein Los von 500 Stück soll laut Liefervertrag höchstens 4% Ausschuß enthalten. Um dies zu überprüfen, wird eine Stichprobe von 25 Stück entnommen und das Los abgelehnt, wenn diese 1 oder mehr defekte Stücke enthält. Die Wahrscheinlichkeit für die Annahme des Loses (d. h. für k = 0) ist bei K defekten Stücken im Los gleich: /500 — IC\ 1 25 ) /500\ l 25 )
Wir entnehmen daraus, daß ein Los mit 20 defekten Stücken, das also den Lieferbedingungen noch entspricht, nur mehr mit etwa 35% Wahrscheinlichkeit angenommen wird. Dieser Stich-
5.4 Hypergeometrische Verteilung
121
probenplan könnte daher u. U. zu einem hohen Anteil ungerechtfertigter Reklamationen Anlaß geben. Die Annahmewahrscheinlichkeit als Funktion der Anzahl (oder des Anteils) der defekten Stücke betrachtet heißt Operationscharakteristik (vgl. Bild 38). Da Annahme und Ablehnung komplementäre Ereignisse sind, gilt: Gütefunktion = 1 —
Operationscharakteristik.
In der Praxis bedient man sich bei der Festlegung von Stichprobenplänen stets fertiger Tabellen, aus denen man den Stichprobenumfang und die Annahmezahl (d. h. die Grenze des Annahmebereiches) entnehmen kann. Stichprobenumfang und Annahmezahl sind allerdings erst dann eindeutig festgelegt, wenn man zwei Werte der Operation?charaktristik vorgibt. In unserem obigen Beispiel war ein Wert der tolerierbare Ausschußanteil von 4 % : Lose mit 4 % Ausschuß entsprachen noch den Lieferbedingungen und sollten daher mit großer Wahrscheinlichkeit angenommen werden. Als zweiten Wert der Operationscharakteristik kann man etwa jenen Ausschußanteil angeben, der nicht mehr tragbar ist, und verlangen, daß ein Los fast sicher abgelehnt wird, wenn dieser Ausschußanteil überschritten wird. Andere Stichprobenpläne arbeiten mit dem sogenannten Kontrollpunkt. Dies ist jener Ausschußanteil, bei dem im Durchschnitt genau die Hälfte aller geprüften Lose abgelehnt wird. Der Kontrollpunkt liegt natürlich zwischen dem noch tolerierbaren und dem nicht mehr tragbaren Ausschußanteil. Die Festlegung der Operationscharakteristik ist im allgemeinen Sache des Ermessens. Man wird dabei einerseits beachten, welche Ausschußanteile in den gelieferten Losen tatsächlich auftreten, und anderseits, welche Ausschußanteile für die weitere Verarbeitung noch tolerierbar und welche nicht mehr tragbar sind. Den tolerierbaren Ausschußanteil wird man so mit dem Qualitätsniveau des Lieferanten abstimmen, daß dieser Ausschußanteil größer ist als diejenigen Ausschußanteile, die noch im Rahmen seines üblichen Qualitätsniveaus liegen, so daß also Lieferungen im
122
5 Kleine Stichproben aus diskreten Verteilungen
Rahmen des üblichen Qualitätsniveaus mit großer Wahrscheinlichkeit angenommen werden. Würde man nun einen Stichprobenplan mit einem tolerierbaren Ausschußanteil von 4 % und einem nicht mehr tragbaren Ausschußanteil von 5 % aufstellen, würde aber der in den bisherigen Lieferungen tatsächlich aufgetretene Ausschußanteil höchstens 2 % betragen, so wäre ein solcher Stichprobenplan wenig sinnvoll. Der Zweck einer richtig verstandenen Abnahmeprüfung besteht nämlich darin, sich bei einem Lieferanten mit befriedigendem Qualitätsniveau durch eine regelmäßige Prüfung der Lieferungen gegen eine plötzliche Verschlechterung der Qualität zu schützen. Dies ist mit dem obigen Stichprobenplan sicherlich nicht möglich, da der Unterschied zwischen dem tolerierbaren und dem (bisherigen) tatsächlichen Ausschußanteil zu groß ist. Eine vom Ermessen freie Auswahl des Stichprobenplanes ist nur möglich, wenn man genau weiß, mit welcher Wahrscheinlichkeit die verschiedenen Ausschußanteile auftreten (d. h. wenn man die sogenannte a priori-Verteilung der Ausschußanteile der einzelnen Lose kennt) und wenn ferner neben den Kosten der Stichprobenprüfung auch jene Kosten zahlenmäßig erfaßbar sind, die dann entstehen, wenn ein Los mit unbefriedigender Qualität bei der Abnahmeprüfung nicht entdeckt wird. Die Auswahl von Stichprobenplänen nach wirtschaftlichen Gesichtspunkten wird in den Arbeiten von Pfanzagl besprochen. Daselbst auch weitere Literaturhinweise. Der an der konventionellen Literatur über Stichprobenpläne interessierte Leser wird auf die Arbeit von Rossow und Leinweber hingewiesen, die einen guten Überblick über die verfügbaren Stichprobenpläne gibt und einige weitere Literaturhinweise enthält. Neben den bisher erwähnten Stichprobenplänen werden häufig auch sogenannte doppelte Stichprobenpläne verwendet. Bei den doppelten Stichprobenplänen wird zunächst eine Stichprobe entnommen. Ist das Los sehr gut oder sehr schlecht, so kann die Entscheidung über Annahme oder Ab-
5.5 Poissonverteilung: Test und Mutungsintervall
123
lehnung in der Regel bereits auf Grund dieser ersten Stichprobe gefällt werden. Bewegt sich die Zahl der defekten Stücke in der Stichprobe in einem mittleren Bereich, wird eine zweite Stichprobe entnommen und auf Grund dieser zweiten Stichprobe dann die endgültige Entscheidung über Annahme oder Ablehnung des Loses gefällt. Die Abnahmeprüfung kann auch statt vom Käufer vom Lieferanten selbst vorgenommen werden. Damit schützt sich der Lieferant, dessen Qualitätsniveau den Käufer im allgemeinen befriedigt, dagegen, daß im Falle einer plötzlichen Qualitätsverschlechterung unbefriedigende Lieferungen das Werk verlassen. In der Regel wird es wirtschaftlicher sein, die Abnahmeprüfung aufzugeben und statt dessen die laufende Fertigungsüberwachung (z. B. mit Kontrollkarten) zu intensivieren: Die Abnahmeprüfung verhindert bloß, daß Lose mit unbefriedigender Qualität das Werk verlassen; die laufende Fertigungsüberwachung verhindert, daß unbefriedigende Qualität überhaupt produziert wird. 5.5 Poissonverteilung: Test und Mutungsintervall für den Mittelwert Ist eine Hypothese a = a0 gegen die Alternative a> a0 zu testen, so wird man genau so wie bei der Binomialverteilung (Abschnitte 5.1 und 5.2) aus den größten ä;-Werten eine kritische Region vorgegebener Irrtums wahrscheinlichkeit (z. B. höchstens 1%) bilden. Um die kritische Region möglichst einfach bestimmen zu können, gehen wir ähnlich wie bei der Binomialverteilung vor: Aus der Relation (5.1.1) ererhalten wir durch den Grenzübergang w-» oo, p = ajn: k
a , wenn — = Fi_a(oo, a
2k).
Nun ist aber l? 1 _ 0 (oo,2Ä) =
1 Fa(2k,
2k oo)
xl(2k)
'
124
5 Kleine Stichproben aus diskreten Verteilungen
Dabei ist %2x{21c) die auf S. 57 definierte Schranke der Verteilung mit 2 h Freiheitsgraden. Daher gilt: CO
2
„i
-TT-fra=«.,
wenn2o =
i = k
z
| (2 k).
(1)
D a yX mit sinkendem a abnimmt, gilt: J 2 ^ - e - " g; a , i =k
solange 2a g
l i
x
l (2 k).
Die kritische Region f ü r die Hypothese a = a0 gegen die Alternative a> a0 zur Irrtumswahrscheinlichkeit « = 0,01 besteht also aus allen jenen Werten k, f ü r welche 2 a
0
^
X
l
0 1
( 2 k ) .
(2)
Sucht man umgekehrt einen Test gegen die Alternative a < a 0 , so hat man die kritische Region aus den kleinsten 1c-Werten zu bilden. Ausgehend von (5.1.3) erhält man durch eine analoge Überlegung wie oben: Die kritische Region f ü r die Hypothese a = a0 gegen die Alternative a< a0 zur Irrtumswahrscheinlichkeit « = 0,01 besteht aus allen jenen Werten k, f ü r welche xl99
(2(* + l)).
(3)
Ein Mutungsintervall f ü r a erhält man, indem man die Menge jener a bestimmt, die mit einen beobachteten Wert k verträglich sind, d. h. f ü r die k nicht in der zugehörigen CO
kritischenRegion liegt. D a 2
i =k
a
i
—r e~a eine monoton wachsende Ii
F u n k t i o n von a ist, haben wir einfach jenen Wert a0 zu be00
stimmen, f ü r den 2 !
ßl
^f e~"» = 0,01. Das Mutungsintervall
mit dem Sicherheitskoeffizienten von mindestens 9 9 % besteht dann aus allen Werten a > « 0 . Den Wert a0 können wir jedoch einfach auf Grund der Relation (1) bestimmen. Es gilt: °o = y Xo.oi(2fc) • Das 99%-Mutungsintervall besteht also aus allen Werten
5.5 Poissonverteilung: Test und Mutungsintervall
125
Auf analogem Wege erhält man ein 99%-Mutungsintervall, das a nach oben abschätzt: a ^ y Zo2,99(2(fc + l ) ) .
(5)
Will man ein zweiseitiges Mutungsintervall, so kann man das Intervall
wählen. Die Irrtumswahrscheinlichkeit dieses Intervalls kann zwar bis zu 2 % betragen, wird aber im allgemeinen darunter liegen. Durch Interpolation der Freiheitsgrade ergibt sich das Mutungsintervall +
(6)
das — auf verscheidene Probleme angewandt — wenigstens im langfristigen Durchschnitt zu einer Irrtumswahrscheinlichkeit führt, die mit dem zugelassenen Wert von 2a gut übereinstimmt (vgl. S. 116). Für x = 0,5 erhält man aus (6) als Näherungsformel für eine mediantreue Schätzfunktion ä für a: ä = Y
(2^ + 1).
1. B e i s p i e l * ) : Um die Verunreinigung von Klee-Saatgut mit Flachs zu testen, wird eine Probe von 100 g gesät und die Anzahl k der aufgegangenen Flachssamen gezählt. Streng genommen hätten wir hier natürlich eine Binomialverteilung vor uns, aber n ist sehr groß und p verschwindend klein, so daß die Approximation durch eine Poissonverteilung außerordentlich genau sein wird. Angenommen, es wäre k = 0, d. h. es wären keine Flachssamen aufgegangen. Dann ist mit 99% Sicherheit a 1/2 (2) = 4,6, m. a. W.: Die durchschnittliche Zahl der Flachssamen pro 100 g Saatgut ist fast sicher kleiner als 4,6. Als Schätzwert für die Zahl der Flachssamen pro 100 g Saatgut erhalten wir mittels der oben angegebenen mediantreuen Schätzfunktion: m = *) Nach A. Bald:
(1) = 0,25. Statistical theory, 4. Aufl. New York 1960, 8. 723.
126
5 Kleine Stichproben aus diskreten Verteilungen
2. B e i s p i e l : Auf S. 87 haben wir ein Beispiel behandelt, das letztlich darauf hinauslief, zu testen, ob das Ergebnis k = 5 aus der Binomialverteilung B203 (1/85) stammen kann. Eine endgültige Antwort auf diese Frage konnte dort nicht gegeben werden, da die Approximation durch eine Normalverteilung in diesem Falle streng genommen nicht erlaubt ist. Die exakte Behandlung der Binomialverteilung mit der in Abschnitt 5.1 besprochenen Methode führt auf eine F-Verteilung, die außerhalb des Bereiches unserer Tabelle liegt. Wir können jedoch die Binomialverteilung i? 20 3 (1/85) wegen der extrem kleinen Wahrscheinlichkeit sehr gut durch eine Poissonverteilung mit dem Parameter a0 = 203/85 = 2,39 approximieren und testen, ob der Wert k = 5 mit dieser Poissonverteilung verträglich ist. Nach den Formeln (2) und (3) besteht die (zweiseitige) kritische Region aus jenen Werten 7c, für welche 4.78 ^ xl.ai m oder 4,78 ^ X l9 , (2(k + 1)) . Der Wert k = 5 gehört weder dem einen noch dem anderen Teil der kritischen Region an, denn es ist Xo.oi (10) = 2,6 und Z0.99 (12) = 26,2. Dieser Test hat eine Irrtumswahrscheinlichkeit von höchstens 2%. Wir können daher sagen, daß die Beobachtungsergebnisse der Faustregel „1 Zwillingsgeburt unter 85 Geburten" nicht widersprechen. 5.6 Poissonverteilung: Vergleich zweier Mittelwerte Gegeben sind zwei Poissonverteilungen: oî 1 -rV e~ ai und Wir setzen = X a2 . E s ist die Hypothese }. ----- ln gegen die Alternative A > A0 zu testen. Einen Test für diese Hypothese erhält man, wenn man die bedingte Verteilung von für gegebenes kx + k2 = k betrachtet. Diese ist :
also eine Binomialverteilung, die von dem Parameter a2 unabhängig ist. Wie bezeichnen
1 + A = V, 1 + A ,o = Vo
5.6 PoissonsVerteilung: Vergleich zweier Mittelwerte
127
und führen so die Aufgabe, die Hypothese X = X^ gegen die Alternative X > A0 zu testen, auf die in Abschnitt 5.1 gelöste Aufgabe zurück, die Hypothese p — p0 gegen die Alternative p > p0 zu testen. Aus den Ausführungen auf S. 109 folgt, daß wir die kritische Region aus den großen k-Werten zu bilden haben. Auch ein Mutungsintervall für X können wir auf diesem Wege gewinnen, indem wir nach Abschnitt 5.2 zunächst ein Mutungsintervall für p und aus diesem dann ein Mutungsintervall für X berechnen. Berechnen wir die mediantreue Schätzfunktion p für p , die sich aus (5. 2. 4) ergibt, so erhalten wir als Näherungsformel für eine mediantreue Schätzfunktion X für X: 1
= II]
+ 2 '
F
°*
( 2 h +
h 2
'
+
1]
'
Beispiel: Nachstehende Tabelle zeigt die Erkrankungen an postvakzinaler Enzephalitis bei zwei verschiedenen Altersstufen. Tabelle 7 Erkrankungen an postvakzinaler Enzephalitis. Alter (Jahre)
Zahl der erfolgreichen Erstimpfungen
darunter: Erkrankungen an postvakzinaler Enzephalitis
11—14 4— 5
1341 6512
16 4
Quelle: K. Berger und F. Puntigam: Über die Altersdisposition bei der postvakzinalen Enzephalitis, Münchner Medizinische Wochenschrift 100. Jg.» 1958, S. 2042«.
Im Hinblick auf den überaus geringen Anteil an Fällen postvakzinaler Enzephalitis können wir mit einer Approximation durch die Poissonverteilung arbeiten. Die Enzephalitisgefährdung der 11—14jährigen ist schätzungsweise 16/1341 = 11,9 • 10~3, der 4—5 jährigen &2 = 4/6512 = 0,61 • lO"3. Es ist &J» 2 = 19,5, d. h., wir schätzen auf Grund dieser Zahlen, daß die Enzephalitis-
128
5 Kleine Stichproben aus diskreten Verteilungen
gefährdung der 11—14jährigen rund 20 mal so groß ist wie die der 4—5 jährigen. Doch die Anzahl der vorliegenden EnzephalitisFälle ist so klein, daß sich sofort die Frage nach der Genauigkeit dieses Quotienten stellt. Um ein Mutungsintervall für -&J&2 zu berechnen, beschreiten wir folgenden Weg: Es gilt ax = n a 2 = n2&2. Wir berechnen also zunächst nach der oben entwickelten Methode ein Mutungsintervall für X = Oj/aj und erhalten daraus wegen X = n ^2 2 sofort ein Mutungsintervall für &J&2- Nach den Ausführungen auf S. 114 haben wir zunächst jenen Wert p0 zu bestimmen, für den ! k ß ) Po4 ( 1 - P o ) * - ' = 0,01. Dieser ist nach Formel (5.2.1) gegeben durch
Der Mutungsbereich besteht dann aus allen Werten X mit X / ( t + X) > p0, d. h. , ^ ^
Po = 1 - Po
fei . k2 + 1
1 i?0>99 (2 (k2 + 1), 2fcx) •
Daraus folgt sofort ein Mutungsintervall für &J&2, nämlich n2 \ 1 i ; > lc2 + i ' F0,S9(2(A:2 + 1),2A;1)Im konkreten Falle gilt: k± = 16, k2 = 4. Aus der Tabelle entnehmen wir den Wert f 0 > 9 9 (10, 32) = 2,93. Somit ist n2_ kt n, ' k2 + l '
1 (2
1).
_ ~
6512 16 1 1341 ' 5 ' 2,93 ~
' '
Das 99% Mutungsintervall ist somit: &J&2 > 5,4, d.h., die Enzephalitisgefährdung der 11—14 jährigen ist fast sicher mehr als 5mal so groß wie die der 4—5jährigen. m = n2 ist eine mediantreue Schätzfunktion für &J&2(Dabei ist X die oben angegebene mediantreue Schätzfunktion für A.) Aus dieser Schätzfunktion ergibt sich als Schätzwert für
6.1 Einleitung
129
Der an dem Vergleich der Mittelwerte zweier Poissonverteilungen näher interessierte Leser wird auf die Arbeit von Pfanzagl und Puntigam hingewiesen.
6 Verteilungsunabhängige Verfahren 6.1 Einleitung Die in Kapitel 4 besprochenen Verfahren zum Testen von Hypothesen und zur Berechnung von Mutungsintervallen sind nur dann anwendbar, wenn die Stichprobe hinreichend groß ist oder wenn die Verteilung, aus der diese Stichprobe stammt, eine Normalverteilung mit bekannter Varianz ist. F ü r Stichproben kleinen Umfanges aus Normalverteilungen mit unbekannter Varianz gelten die in Kapitel 8 besprochenen Verfahren. Oft hat man es jedoch mit Gesamtheiten zu tun, über deren Verteilung keinerlei Informationen vorliegen. In diesem Falle wird man bestrebt sein, statistische Verfahren anzuwenden, die unabhängig von der Voraussetzung sind, daß eine Normalverteilung vorliegt. Eine besonders wichtige Gruppe von verteilungsunabhängigen Verfahren sind die sogenannten Rang-Tests, bei denen an Stelle der Stichproben werte selbst nur deren Rangzahlen verwendet werden. In vielen Fällen erscheint die Verwendung von Rangzahlen schon deshalb naheliegend, weil die zugrunde liegende Skala nur eindeutig bis auf beliebige stetige und monotone Transformationen ist, d. h. selbst nicht mehr als die Rangordnung zum Ausdruck bringt (topologische oder ordinale Skala). Dort, wo die Skala eindeutig bis auf lineare Transformationen ist (metrische oder kardinale Skala), wird man intuitiv in dem Übergang zu Rangzahlen einen wesentlichen Informationsverlust vermuten. Dies ist jedoch nicht der Fall. Wendet man einen Raug-Test an, obwohl die Skala eindeutig bis auf lineare Transformationen ist und die Meßwerte normal verteilt sind, so sind die Rang-Tests natürlich von geringerer Wirksamkeit als 9
P f a n z a g l . Allgemeine Methodenlehre der Statistik
130
6 Verteilungsunabhängige Verfahren
die speziell auf die Normalverteilung abgestellten Verfahren. Der Unterschied in der Wirksamkeit ist jedoch nur sehr klein. Man kann die Wirksamkeit eines Rang-Tests mit der Wirksamkeit des speziell auf die Normalverteilung abgestellten Tests dadurch vergleichen, daß man errechnet, auf welchen Prozentsatz man bei Heranziehung eines speziell für die Normalverteilung entwickelten Tests den Stichprobenumfang verringern könnte, um die gleiche Trennschärfe (Gütefunktion) wie bei Heranziehung eines verteilungsunabhängigen Tests zu erzielen. So bedeutet eine Wirksamkeit von 90% etwa, daß man mit einem Stichprobenumfang von 20 bei Auswertung mit einem Rang-Test die gleiche Trennschärfe erzielt wie mit einer Stichprobe vom Umfang 18 bei Auswertung mit einem speziell auf die Normalverteilung abgestellten Test. Der Unterschied in der Wirksamkeit der einzelnen Rang-Tests ist etwas verschieden. Genauere Angaben werden im folgenden Text bei den jeweiligen Tests gemacht. Neben der Unabhängigkeit von jeglichen Voraussetzungen, über die Form der Verteilung haben die Rang-Tests noch den weiteren Vorteil, daß sie keinerlei umfangreiche Berechnungen erfordern. Es kann daher selbst dann, wenn tatsächlich eine Normalverteilung vorliegt, von Vorteil sein, einen RangTest anzuwenden, insbesondere dann, wenn keine Rechenmaschine zur Verfügung steht. Sind jedoch die einzelnen Meßwerte besonders kostspielig, dann wird es eher rentabel sein, weniger Messungen zu machen, und dafür etwas mehr Arbeit in die Auswertung der Daten zu investieren, also etwa einen ¿-Test anzuwenden. Die etwas geringere Wirksamkeit verteilungsunabhängiger Tests hat zur Folge, daß bei gleicher Irrtumswahrscheinlichkeit die Gütefunktion kleiner wird. Dies führt also dazu, daß ein bestehender Unterschied bei Anwendung verteilungsunabhängiger Tests auf eine Normalverteilung etwas seltener als signifikant erkannt wird als mit den speziell für die Normalverteilung entwickelten Tests. Ergibt jedoch bereits ein verteilungsunabhängiger Test Signifikanz, so kann ein wirk-
131
6.2 Der Zeichentest
samerer Test keine zusätzlichen Erkenntnisse bringen. Er kann höchstens das gleiche Ergebnis mit einer höheren Sicherheitswahrscheinlichkeit bestätigen-. 6.2 Der Zeichentest Bei einer Reihe von Test-Problemen stellt sich heraus, daß eine Testgröße — wir wollen sie mit k bezeichnen — bei Zutreffen der Hypothese nach £'„(1/2) verteilt ist. Der Test der Hypothese läuft dann einfach darauf hinaus, zu prüfen, ob der beobachtete Wert von k mit der Annahme einer Verteilung nach Bn( 1/2) verträglich ist. Solche Tests heißen „Zeichentests". Nach den Ausführungen in Abschnitt 5.1 S. 111, 112 haben wir wegen p0 = 1/2 bei der praktischen Durchführung einfach nachzuprüfen, ob
bzw.
n
__\
v>
7*
+ 1
>F0.is(2(n-k
+ l),2h),
¡ä i- 0>99 (2 (k + 1), 2 (» - k)).
(1) (2)
Jene 7c-Werte, für welche (1) bzw. (2) erfüllt ist, bilden eine kritische Region mit einer Irrtumswahrscheinlichkeit, die jeweils höchstens 1% (zusammen also höchstens 2%) ausmacht. B e i s p i e l : Es ist die Wirksamkeit zweier Schlafmittel (Laevo Iiyoscyamin Hydrobromid [D] und Laevo Hyoscin Hydrobromid [L]) zu vergleichen. Als Maß der Wirksamkeit dient die Verlängerung der Schlafdauer. Da die Wirksamkeit von Schlafmitteln erfahrungsgemäß bei verschiedenen Personen sehr verschieden ist, kann man die Genauigkeit des Vergleiches dadurch steigern, daß man beide Mittel an ein und derselben Person erprobt und ihre Wirksamkeit vergleicht. (Wir kommen auf diesen Gedanken in Abschnitt 8.9, S. 219ff., noch ausführlich zurück.) Selbstverständlich muß das Experiment mit mehreren Personen wiederholt werden, um daraus bündige Schlüsse ziehen zu können. Tabelle 8 zeigt das Ergebnis von 10 Versuchen: 9*
132
6 Verteilungsunabhängige Verfahren
Tabelle 8. Die Wirksamkeit von Laevo Hyoscyamin Hydrobromid und Laevo Hyoscin Hydrobromid Verlängerung des Schlafes in Stunden Patient
Schlafmittel L
D 1 2 3 4 5 6 7 8 9 10
+ 0,7 -1,6 — 0,2 -1,2 -0,1 + 3,4 + 3,7 + 0,8 0,0 + 2,0
+ + + + — + + + -h +
1,9 0,8 1,1 0,1 0,1 4,4 5,5 1,6 4,6 3,4
Unterschied L—D + + + + + + + + +
1,2 2,4 1,3 1,3 0,0 1,0 1,8 0,8 4,6 1,4
Quelle: A. It. Cushny und A. R. Peebles: The action of optimat isomers II, Journal of Physiology Bd. 32, 1905, S. 5 0 1 - 5 1 0 .
Nimmt man an, daß die Wirksamkeit beider Mittel gleich ist, so ist die Wahrscheinlichkeit für das Auftreten einer positiven Differenz ebenso groß wie die für das Auftreten einer negativen Differenz, nämlich 1/2. Die Differenz 0 kommt theoretisch nicht vor, da wir ja zwei stetige Variable miteinander vergleichen und die Wahrscheinlichkeit, daß beide genau übereinstimmen, Null ist. Praktisch arbeitet man jedoch stets mit gerundeten Werten, so daß die Differenz 0 —• wie auch im obigen Beispiel — tatsächlich auftreten kann. Solche Beobachtungen werden einfach weggelassen, denn sie können zur Entscheidung der Frage, ob die Differenz wesentlich positiv oder wesentlich negativ ist, nichts beitragen. Scheiden wir dementsprechend Patienten Nr. 5 aus, so haben wir eine Stichprobe vom Umfange n — 9 mit 9 positiven Werten: k = 9. Um zu prüfen, ob dieses Ergebnis signifikant ist, bilden wir:
n—k+ 1 fo,M (2 (n — * + 1), 2 k) = F 0 l 9 9 (2,18) = 6,01 . Da 9 > 6,01, ist das Ergebnis signifikant, d. h., wir können annehmen, daß Schlafmittel L tatsächlich wirksamer ist als D.
6.3 Test und Mutungsintervall für den Median
133
In diesem einfachen Fall können wir die Signifikanz übrigens leicht auch direkt nachprüfen: Die Wahrscheinlichkeit, daß bei einer ß 9 ( 1/2) der Wert k = 9 auftritt, ist 1/2 9 = 1/512, also sogar kleiner als 0,2%.
Es ist zu beachten, daß es für das in diesem Beispiel angeschnittene Problem der zwei verbundenen Stichproben einen verteilungsunabhängigen Test gibt, der wirksamer als der hier verwendete Zeichentest ist. Dieser Test wird in Abschnitt 6.5 behandelt. Für große n, etwa n > 35, kann man natürlich wieder die Binomialverteilung durch eine Normalverteilung approximieren, d. h. die nach N(0,1) verteilte Testgröße
verwenden (vgl. hierzu S. 137). Im allgemeinen wird man jedoch die Anwendung des Zeichentests für große n vermeiden, da seine Wirksamkeit für große n nur 64% beträgt. 6.3 Test und Mutungsintervall für den Median
Die Prüfung einer Hypothese über die Lage des Medians einer stetigen Verteilung läßt sich direkt auf den Zeichentest zurückführen. (Der Median ist definiert als jener Wert, der die Verteilung „halbiert", d. h. mit der Wahrscheinlichkeit 1/2 überschritten und mit der gleichen Wahrscheinlichkeit 1/2 unterschritten wird. Im Falle einer stetigen Verteilung ist der Median eindeutig bestimmt.) Um die Hypothese zu testen, daß der Median den Wert ja besitzt, entnehmen wir eine Stichprobe vom Umfange n und zählen ab, wie viele der Stichprobenwerte kleiner als jw sind. Ihre Anzahl sei k. Ist die Hypothese richtig, d. h. fi tatsächlich der Median der Verteilung, so ist k verteilt nach £„(1/2). Dies können wir nach Formel (6.2.1) bzw. (6.2.2) testen.
134
G Verteilungsunabhängige Verfahren
1. B e i s p i e l : Eine Stichprobe vom Umfang n = 15 führt zu folgendem Ergebnis: 4,48, 4,94, 4,98, 5,01, 5,46, 5,74, 6,05, 6,21, 6,22, 6,37, 6,56, 7,25, 7,48, 7,58, 8,33. (Die Werte wurden gleich der Größe nach geordnet.) Es ist die Hypothese ¡X = 5,5 zu testen: Die Zahl der Werte kleiner als 5,5 ist k = 5. Durch Einsetzen in Formel (6.2.2) erhalten wir: n - k
10 , 6 ' ' fo,99 (2 (fc + 1), 2 (n - fc)) = ^0,99 (12, 20) = 3,23 . Da 1,7 < 3,23, sind die beobachteten Werte mit der Hypothese = 5,5 verträglich.
k+l~
_
Die gleichen Überlegungen können auch dazu verwendet werden, ein Mutungsinlerva.il für ß zu bestimmen. Will man ein Mutungsintervall, das nach oben begrenzt ist, so bestimmt man den kleinsten Wert k, für den die Beziehung (6.2.1) erfüllt ist. Dieser Wert sei mit bezeichnet. Die Hypothese wird daher für alle jene Werte von ß angenommen, die weniger als kt Werte der Stichprobe übertreffen. Dies sind alle Werte ß < X(kt)- Daher ist ß < X(kl) ein Mutungsintervall mit einer Sicherheitswahrscheinlichkeit von mindestens 99%. (Dabei bedeutet allgemein X(o den i. Wert in der nach der Größe geordneten Stichprobe.) Will man umgekehrt ein Mutungsintervall, das nach unten begrenzt ist, so bestimmt man den größten Wert k, für den die Beziehung (6.2.2) erfüllt ist. Dieser Wert sei mit k0 bezeichnet. Die Hypothese wird daher für alle jene Werte von ß angenommen, die mehr als k0 Werte der Stichprobe übertreffen. Dies sind alle Werte ß > X(kt + 1). Daher ist ß > »(h+u ein Mutungsintervall mit einer Sicherheitswahrscheinlichkeit von mindestens 99%. Zwischen k0 und besteht wegen der Symmetrie der Bn( 1/2) die Beziehung: k0 + fcj = n. Wenden wir beide Grenzen gleichzeitig an, d. h. bilden wir das beiderseitig begrenzte Mutungsintervall XU, + D < fl< Hkj, so besitzt dieses eine Sicherheitswahrscheinlichkeit von mindestens 98%.
6.4 Der sogenannte „Test von McNemar"
135
B e i s p i e l : Bei einer Stichprobe vom Umfang n = 15 gilt: fi\ — 13 und dementsprechend Jc0 = 2. Aus der im Beispiel auf S. 134 angegebenen Stichprobe ergibt sich daher folgendes Mutungsintervall: 4,98
und nicht etwa Interesse daran besteht, eine Hypothese über die Größe dieses Parameters, sondern vielmehr die durch Pi(~&), p2{&),..., Vmiß) zum Ausdruck gebrachte Art der funktionalen Abhängigkeit zu prüfen. B e i s p i e l : Aus einem bestimmten genetischen Modell der Rotgrünblindheit ergeben sich folgende Wahrscheinlichkeiten: männlich
Geschlecht normal
K =
weiblich
&
--V
1— ê
rotgriinblind
"
2
Will man dieses genetische Modell prüfen, so ist nicht der Wert von & interessant, sondern lediglich die sich aus dem Modell ergebende Art der funktionalen Abhängigkeit der Wahrscheinlichkeiten pt vom Parameter &.
Um den gewünschten Test für die Art der Abhängigkeit zu erhalten, muß man zunächst eine Schätzung für den unbekannten Parameter gewinnen. Zu diesem Zweck wird man am besten die maximum likelihood-Methode (siehe 3.7) anwenden. Likelihood-Funktion: PiW11 PzW" • • • V m W m • m. I.-Gleichung: % »i 8 Pj{®) __ iti Pi(d) '
n
7.2 Die x 2 -Methode bei Abhängigkeit von einem Parameter
169
Durch Auflösen dieser Gleichung gewinnt man eine Schätzung •§•. Als Testgröße dient: j » (n,-np,(fl))» _ i =1 oder, für die praktische Berechnung: 1 ™ rij V = — 2 —n. n f r1 P( (ö) 7 =
(1)
(2)
Wieder gelten große Werte als signifikant. Bei Zutreffen der Hypothese ist V für hinreichend große n annähernd ^ - v e r teilt mit (m — 2) Freiheitsgraden. Wird nicht nur ein Parameter aus der Stichprobe geschätzt, sondern l Parameter, so ist V annähernd verteilt nach %2 mit (m — l — 1) Freiheitsgraden. Ob n so groß ist, daß man die ^-Verteilung anwenden darf, wird auch hier nach der oben (S. 164) angegebenen Faustregel bestimmt. Die Schätzung für # kann auch nach einer anderen Methode als der m. 1.-Methode gewonnen werden. So kann man als •& jenen Wert von $ wählen, für den V, als Funktion von & betrachtet, das Minimum annimmt (^-MinimumMethode). In den meisten Fällen ist dieser Wert jedoch komplizierter zu berechnen als die m. l.-Schätzung. 1. B e i s p i e l : Bezeichnen wir die Besetzungszahlen der 4 Felder im obigen Beispiel über die Rotgrünblindheit der Reihe nach mit «j, n 2 , n 3 , n 4 , so ist die m. 1.-Gleichung:
1 1 - 0 1 ' V ^ + «.' e f r ^ m ~ ' h ' T ^
2 "
Hi
'
=
. °•
Daraus erhalten wir nach einigen Umformungen:
-§- «x + 2 n2+ n3 + 2 w4J + (nx + n 2 ) = 0.
170
7 Die x 2 -Methode; Kontingenztafeln
Bei einer Untersuchung wurden folgende Zahlen ermittelt: Tabelle 18 Rotgrünblindheit nach dem Geschlecht Geschlecht
männlich
weiblich
8324
9032
725
40
normal rotgrünblind
Quelle: 0. H. M. Waaler: Über die Erblichkeitsverhältnisse der verschiedenen Arten von angeborener Rotgrünbllndheit, Zeitschrift f. ind. Abstämmlings- und Vererbungslehre Bd. 45, 1927, S. 279—333.
Daraus ergibt sich die m. l.-Gleichung: • 13 596,5 — & • 31 355 + 17 356 = 0 A
A
mit den beiden Lösungen &x = 0,9229 und = 1,3832. Da aus dem Modell heraus für & nur Werte zwischen 0 und 1 in Frage kommen, ist also = 0,9229 die gesuchte Lösung. Daraus folgt (vgl. S. 168): ,g. 0,9229 4615
Pi(&) = —g—=
°-
/ p2(&) = 0,9229 ( l -
=
1 1 1 1 ^
>
n Q90Q \
= 0,4970,
= 0,0080.
Wir erhalten somit: 1 /8324* 9Q322 725° 40^ \ 18 121 \0,4615 ^ 0,4970 ^ 0,0386 0,0030/ = 3,2. Die Zahl der Freiheitsgrade ist 2, da 4 Gruppen vorliegen und 1 Parameter & aus der Stichprobe geschätzt wurde. Die 99%Grenze liegt bei 9,2, ist also wesentlich größer als der berechnete Wert V = 3,2. Das oben beschriebene genetische Modell der Rotgrünblindheit steht also mit den Beobachtungsergebnissen im Einklang. Dies ist um so bemerkenswerter, als der Test infolge der großen Stichprobe (über 18000) sehr empfindlich ist und auch auf geringfügige Abweichungen anspricht.
7.2 Die £2-Methode bei Abhängigkeit von einem Parameter
171
2. Beispiel: Wir betrachten ein Erbmerkmal, das in drei verschiedenen Allelen, Av A2, A3 auftritt. Es ist die Hypothese zu prüfen, daß in der Population vollständige Durchmischung herrscht, d. h. daß die Paarungswahrscheinlichkeiten von diesen Allelen unabhängig sind. Im Falle der vollständigen Durchmischung kann man die Wahrscheinlichkeiten, mit denen die einzelnen Genotypen in der Population auftreten, durch die sog. „Genwahrscheinlichkeiten" ft^ (#!+ + &3 = 1) ausdrücken*): Allgemein hat das Zusammentreffen der Allelen A, und Aj im Falle der vollständigen Durchmischung die Wahrscheinlichkeit Da die Genotypen A t Aj und ^ A identisch sind, erhalten wir: Wahrsch einlich keit Genotypus
A A A A A
A A A A A
n n 2&3^
In einem konkreten Falle — es handelte sich um die Untersuchung von Chromosomen-Inversionen — waren die drei Homozygoten (A1 Ax, As A2, A3 A3) bei der mikroskopischen Untersuchung nicht unterscheidbar. Tatsächlich beobachtbar waren daher 4 Gruppen: beobachtete Phänotypus Wahrscheinlichkeit Häufigkeit (-4! Av A A2, A3 A3) = + dl + n n0 = 71 Po A2A3 p1 = 2&2&3 n1= 4 A3A1 p 3 = 2&3&1 n 2 = 47 Ai A2 p3 = 2ft1&2 n3 ~ 1 n= 123 Um die Hypothese der vollständigen Durchmischung zu testen, hat man daher zu prüfen, ob die beobachteten Besetzungszahlen der einzelnen Gruppen mit der funktionalen Abhängigkeit der Wahrscheinlichkeiten von den Parametern •&1, # 2 , &3, die sich aus der Hypothese der vollständigen Durchmischung ergibt, ver*) Vgl. hierzu e t w a B. Geppert und S. Koller: Erbmathematik, Theorie der Vererbung in Bevölkerung und Sippe, Leipzig 1938, S. 39 ff.
7 Die £ 2 -Methode; Kontingenztafeln
172
träglich sind oder nicht. Es interessiert dabei, wie gesagt, die Art der funktionalen Abhängigkeit, nicht die Werte der Parameter $2, #3- Trotzdem müssen diese — sozusagen als Mittel zum Zweck — geschätzt werden. Da 3 Parameter zu schätzen sind, ist ein System von 3 m. 1.-Gleichungen unter der Nebenbedingung + + #3 = 1 aufzulösen. Die i. m. l.-Gleichung erhält man dadurch, daß man den Logarithmus der likelihood-Funktion nach differenziert und gleich Null setzt. Dabei wird die Nebenbedingung mit Hilfe eines Lagrangesehen Multiplikators berücksichtigt: n 0 • log
+
+ #!) + n x log (2 # 2 # 3 ) + w2 log (2
+ n 3 log (2
—
+
03) +
+ &3) = Maximum .
Durch Ableiten nach & lt # 2 bzw. # 3 und Nullsetzen erhält man der Reihe nach die Gleichungen: - &$ + 2 0} +
2
,
' 1
3
,
0! 1
,
-
&%+&$ 2&
°
'
°
' + 1 v »l3 +' v2 }#3- J = ö .
Indem man die Gleichungen der Reihe nach mit & v # 2 bzw. # 3 multipliziert und aufaddiert, erhält man unter Berücksichtigung der Nebenbedingung ^ + # 2 + # 3 = 1 als erstes den Wert X — 2 n. Weiter führen wir die Abkürzung n(&l +
+
&l)
ein. Dann gilt: 1 ± l/l — tu Ti , . = — , wobei r, = co
n — n0 — Wj . , . „ 5 L , i = 1, 2, 3 . n
co wird ans der Nebenbedingung + + # 3 = 1 berechnet. Da + + die Wahrscheinlichkeit der Homozygoten ist, erhält man als erste Näherungslösung für co den Wert 2. Setzt man diesen Wert in die Formel für ein, so ergeben sich vernünftige Werte für die wenn man bei # 3 das positive, bei und # 2 das negative Vorzeichen der Wurzel gelten läßt. Daher muß co die Gleichung
7.2 Die £ 2 -Methode bei Abhängigkeit von einem Parameter i - l / i - » - ^
173
. - l / l - » - ^
r CO
erfüllen. Daraus folgt: co = 1,987 (d. h., die Lösung stimmt sehr gut mit dem ersten Näherungswert überein). Durch Einsetzen in die Formeln für S,- erhält man: 1 - j / l - 1,987 = 0,265 ,
1,987 1
- |f />1 - 1 ' 9 8 7
l t
1,987
.
1 + 1/ 1 — 1,987' 0,265 2
1,987 0,021 2
= 0,021,
51 = 0,714 2
Darausfolgt: p„ = + + = 0,5805 , p1 = 2- 0,021 • 0,714 = 0,0300 , p 2 = 2 • 0,714 • 0,265 = 0,3784 , p3 = 2 • 0,265 • 0,021 = 0,0111 . Diese Werte in Formel (2), S. 169, eingesetzt, ergibt: 1 I 712 42 472 l2 \ V = 1 2 3 \0,5805 + 0,0300 + 0,3784 + 0,0111/ 123 = 0,1. Die Zahl der Freiheitsgrade ist 1, da 4 Gruppen vorliegen und 2 unabhängige Parameter aus dem Material geschätzt wurden. (Da die Parameter dj, #2> #3 durch die Nebenbedingung #2+ -f = 1 verbunden sind, liegen nur 2 unabhängige Parameter vor.) Die 95%-Grenze für die Verteilung mit 1 Freiheitsgrad liegt bei 3,8. Daher sind die beobachteten Werte mit der Hypothese der vollständigen Durchmischung durchaus verträglich. 3. B e i s p i e l : Auf Seite 25 stellten wir durch Vergleich fest, daß die Verteilung von Hefezellen in einer Suspension sehr gut mit einer Poissonvcrteilung übereinstimmt. Die ^-Methode ermög-
7 Die £2-Methode; Kontingenztafeln
174
licht es, die Übereinstimmung exakt nachzuprüfen. Dabei können wir auf die seinerzeit berechneten Schätzwerte für p, = (a'/i\) e~a zurückgreifen, da die dort verwendete Schätzung a = 4,68 eine maximum likelihood-Schätzung ist. Allerdings müssen hier die Wahrscheinlichkeiten mit 4 Dezimalstellen geschätzt werden, da sonst die 1. Dezimale des Wertes V nicht mehr genau ist. Tabelle 19 Test auf Übereinstimmung mit der Poissonverteilung Anzahl der Hefezellen
Anzahl der Volumseinheiten mit i Hefezellen
Schätzwerte der Wahrscheinlichkeiten
_n|_ Vi
i
«i
Vi
0 1 2 3 4 5 6 7 8 9 10 11 12 u. mehr
0 20 43 53 86 70 54 37 18 10 5 2 2
0,0093 0,0434 0,1016 0,1585 0,1855 0,1736 0,1354 0,0905 0,0530 0,0275 0,0129 0,0055 0,0033
0 9 217 18 199 17 722 39 871 28 226 21536 15 127 6 113 3 636 1 938 727 1 212
400
1,0000
163 524
2
Um zu erreichen, daß der Erwartungswert der Besetzungszahl für alle Gruppen größer als 1 ist, wurde die Gruppe 12 mit allen darauffolgenden Gruppen zusammengefaßt. Es gilt: V = 163 524/400 — 400 = 8,8. Es liegen 13 Gruppen vor. 1 Parameter wurde aus dem Material geschätzt, so daß die Verteilung von V 11 Freiheitsgrade besitzt. Die 95%-Grenze der %2-Verteilung mit 11 Freiheitsgraden
7.2 Die ^-Methode bei Abhängigkeit von einem Parameter 1 7 5 liegt bei 19,7. Die Hypothese der Poissonverteilung ist also mit den Beobachtungsergebnissen sehr gut verträglich.
Die ^-Methode kann auch bei stetigen Verteilungen dazu verwendet werden, eine Hypothese über die Art der Verteilung zu prüfen. Allerdings ist in diesem Falle eine künstliche Gruppierung des Materials erforderlich: Wollen wir testen, ob die zu einer gegebenen stetigen Verteilung gehörende Dichte eine vom Paramter & abhängige Funktion f(x, i)) ist, so haben wir die Gesamtheit der möglichen Stichprobenergebnisse in eine endliche Anzahl, m, disjunkter Gruppen Gf zu teilen und die Wahrscheinlichkeiten Pi(&) zu berechnen, die diesen Gruppen bei der durch f(x,ff)bestimmten Verteilung zukommen. Es gilt: = fg. f(x,ff)dx für i = 1, 2,..., m. Dann können wir die Hypothese p^ff), p 2 ( # ) , . . p m { f f ) mittels'der Testgröße (1) prüfen, wenn wir für nt die Anzahl derjenigen Stichprobenergebnisse einsetzen, die in der i. Gruppe liegen. Die Gruppierung ist so vorzunehmen, daß die Anzahl der erwarteten Werte in den beiden Randgruppen nicht kleiner als 1 ist. Die Anzahl der erwarteten Werte in den übrigen Gruppen soll nicht kleiner als 5 sein. Dies sind Voraussetzungen dafür, daß die Verteilung von V tatsächlich durch eine ^-Verteilung approximiert werden kann. Außerdem soll die Anzahl der erwarteten Werte in keiner Gruppe zu groß sein, denn eine zu starke Zusammenfassung beeinträchtigt die Wirksamkeit des Tests. Als Faustregel kann gelten, daß keine Gruppe mehr als |/w Werte enthalten soll. Bei sehr großem n wird diese Faustregel praktisch allerdings schwer zu verwirklichen sein, da man sonst u. U. einige hundert Gruppen erhält. Allerdings ist die Befolgung der Faustregel in diesem Falle auch nicht sehr wichtig, weil dann der Test — infolge des großen n — ohnedies sehr wirksam ist. Praktisch kann man die Grenzen der.Gruppen wohl nur selten zahlenmäßig fixieren, bevor die ¡Beobachtungen tatsächlich vorliegen. Man wird daher meist so vorgehen, daß man die Besetzungszahlen der einzelnen Gruppen vorgibt und die Abgrenzung dann auf Grund der vorliegenden Stichprobe
176
7 Die x 2 -Methode; Kontingenztafeln
so festlegt, daß die vorgegebenen Besetzungszahlen tatsächlich eingehalten werden. (Vgl. hierzu die Arbeit von Witting.) Theoretisch sollten die Parameter der Verteilung geschätzt werden auf dem Wege über die Wahrscheinlichkeiten, die sich aus der hypothetischen Verteilung für die einzelnen Gruppen ergeben. Dies führt jedoch meist zu rechnerischen Schwierigkeiten. (Für den Fall der Normalverteilung vgl. z. B . : v. d. Waerden, S. 231.) Man wird daher in der Praxis jene Schätzungen wählen, die man auf Grund der maximum likelihood-Methode aus den Einzelwerten erhält bzw. bei sehi großem n eine bequeme Schätzung aus dem gruppierten Material vornehmen. Tabelle 20 Test auf Übereinstimmung mit der Normalverteilung Anzahl der Widerstände
Schätzwerte der Wahrscheinlichkeiten
«i
Vi
148—149
1
0,0116
86
149—150
5
0,0339
737
150—151
22
0,0902
5 366
151—152
0,1658
9 174
152—153
39 38
0,2264
6 378
153—154
49
0,2143
11 204
154—155
21
0,1503
2 934
155—156
17
0,0724
3 992
156—157
7
0,0272
157—159
1
0,0079
1 801. 127
200
1,0000
Widerstand in ü
2
wf Vi
41 799
V = 41 7 9 9 / 2 0 0 — 2 0 0 = 9,0. B e i s p i e l : Tabelle 20 gibt eine Aufgliederung von 200 elektrischen Widerständen nach der Größe des Widerstandes in Ohm. Wir wollen nun mit dem / 2 -Test prüfen, ob diese Werte einer
7.3 Die Unabhängigkeit in einer Kontingenztafel
177
Normalverteilung entsprechen oder nicht. Zu diesem Zwecke mußten wir die Gruppen 157—158 und 158—159 wegen der zu geringen Besetzung zusammenfassen. Die Schätzwerte für die p; berechnen wir einfach auf Grund der bereits seinerzeit (S. 30) verwendeten Werte x = 152,89 und s = 1,71 nach der Formel
Dabei ist G\ die obere Grenze der i. Gruppe. Die Zahl der Freiheitsgrade beträgt 7, da 10 Gruppen vorliegen und 2 Parameter (/u und a) aus dem Material geschätzt werden. Die 95%-Grenze der / 2 -Verteilung mit 7 Freiheitsgraden liegt bei 14,1. Die Annahme, daß die Widerstände normalverteilt sind, ist daher mit dem vorliegenden Beobachtungsmaterial durchaus verträglich. (Daß keine markanten Abweichungen von der Normalverteilung vorliegen, zeigte bereits die Darstellung der empirischen Summenverteilung im Wahrscheinlichkeitsnetz, Bild 11, S. 35.) 7.3 Die Unabhängigkeit in einer Kontingenztafel Eine sehr wichtige Anwendung der ^ - M e t h o d e ist die Prüfung der Unabhängigkeit in einer Kontingenztafel. B e i s p i e l : Tabelle 21 auf S. 178 enthält Angaben über die Religionszugehörigkeit von Braut und Bräutigam jener Ehen, die in Wien im Jahre 1957 geschlossen wurden. Es ist zu untersuchen, ob die Religionszugehörigkeit irgendeinen Einfluß auf die Wahl des Ehepartners hat oder nicht. Zu prüfen ist also die Hypothese der Unabhängigkeit: Die Religion hat keinen wie immer gearteten Einfluß auf die Wahl des Ehepartners. Im allgemeinen F a l l haben wir zwei Merkmale mit r bzw. s verschiedenen Ausprägungen. Bei jedem Stichprobenelement wird festgestellt, in welcher Ausprägung jedes der beiden Merkmale vorliegt: w,-,- sei die Anzahl jener Stichprobenelemente, bei denen das erste Merkmal in der i., das zweite Merkmal in der j. Ausprägung vorliegt. Das Ergebnis 12
Pfanzagl,
Allgemeine M e t h o d e n l e h r e der S t a t i s t i k
7 Die x 2 -Methode; Kontingenztafeln
178
Tabelle 21 Aufgliederung der Eheschließungen nach dem Religionsbekenntnis von Braut und Bräutigam, Wien 1957 Braut Bräutigam
röm.kath. N.
röm.-kath.
sonstige Relievang. gionsA. B. und bekenntH. B. nisse
ohne Religionsbekenntnis
2
9 919
693
97
293
11 002
evangelisch A.B. u.H.B.
782
344
22
44
1 192
sonstige Religionsbekenntnisse
248
27
134
22
431
ohne Religionsbekenntnis
£
812
108
31
197
1 148
11 761
1172
284
556
13 773
Quelle: Statistisches Handbuch der Stadt Wien, Jahrgang 1957. S. 30.
der Stichprobe können wir übersichtlich in der Form einer sogenannten Kontingemtafel darstellen: \ _
2. Merkmal l
2
1 2
«21
«12 n 22
• •
r
nn
nr2
.
w.i
n.2
. . . . n.s
1. Merkmal
2
.
.
.
.
s
2
n u n2s
n
\ •
•
•
•
. • • «r«
i. «2.
«r. n
7.3 Die Unabhängigkeit in einer Kontingenztafel
179
Die Randsummen bezeichnen wir mit: 8 r
T
i= 1
£
8
7=1
n.j = n .
Nun betrachten wir die zugehörigen Randverteilungen, d. h. die Verteilung des 1. Merkmals über die Ausprägungen 1, 2 , . . . , r (ohne Berücksichtigung des 2. Merkmals) und die Verteilung des 2. Merkmals über die Ausprägungen 1, 2, . . . , s (ohne Berücksichtigung des 1. Merkmals). Die Randverteilung des 1. Merkmals habe die Wahrscheinlichkeiten p2.,..., pT.\ die empirische Häufigkeitsverteilung, wie sie sich aus der Stichprobe ergibt, ist nv, n2.,..., nr.. Analog bezeichnen wir die Wahrscheinlichkeiten der Randverteilung des 2. Merkmals mit p.v p.2,..., p.s; die empirische Häufigkeitsverteilung ist n. l t n . 2 , . . . , w.g. Die Wahrscheinlichkeit für die Kombination i, j (d. h. für das Auftreten des 1. Merkmals in der i. Ausprägung verbunden mit dem 2. Merkmal in der j. Ausprägung) bezeichnen wir mit ptj. Die Häufigkeit, mit der diese Kombination in der Stichprobe auftritt, ist w,,-. Sind die Merkmale 1 und 2 voneinander unabhängig, so gilt nach dem Multiplikationstheorem der Wahrscheinlichkeitsrechnung (vgl. S. 12). Pü = p^ p.j. Nun sehen wir deutlich, daß sich die Frage der Unabhängigkeit in der Kontingenztafel mit Hilfe der oben beschriebenen ^-Methode lösen läßt: Es liegt ein Merkmal vor, das insgesamt r • s verschiedene Ausprägungen aufweist. (Das Merkmal ist sozusagen „zweidimensional", die r • s Ausprägungen sind die verschiedenen Kombinationen der r Ausprägungen des 1. Merkmals mit den s Ausprägungen des 2. Merkmals und entsprechen anschaulich den r • s Feldern der Kontingenztafel.) Die Wahrscheinlichkeiten der einzelnen Ausprägungen sind durch die Beziehung p = p{.p.j als Funktionen von (r — 1) + (s — 1) unbekannten Parametern darstellbar, z. B. den Parametern 12»
180
7 Die ^-Methode; Kontingenztafeln
(Wegen der Beziehungen r
2
.v
Pi. = 1 und
2
P-j = 1
i-1 ;=1 ' können pT. und p.s durch p±., p2„ ..., p^. bzw.,p. v p. 2 ,..., p.i_i ausgedrückt werden.) Wendet man die maximum likelihood-Methode unter Berücksichtigung dieser Beziehungen an, so erhält man die Schätzungen: = n,-./n für i = 1 , . . ., r, und p.j = n.jln für j = 1 , . . ., s. Man erhält daraus als Schätzung für den Wert ^ „. n.j Vii1
• n' •
n
Die Zahl der erwarteten Fälle in der Kombination i, j ist daher n
Vi 'j =
Ii; n j —n — .
Nach Formel (7.2.2) (S. 169) erhalten wir somit als Testgröße: 1 T s ffi/ r s «?• \ v = — 2 2 -7L-n « i = l j = i Vij
= n { 2 2 3 » - 1 \i = l » = i « F i - ("» -
»l - *)•
Nun ist aber Ft _e (m, n) > 1 für alle praktisch in Betracht kommenden e (d. h. e nahe bei 0). Es ist also evident, daß wir nur nachzuprüfen haben, ob «2 M
-ZT > Fi-s ( n M — 1, n m — 1) ,
(4)
wobei S2M den größeren, sj, den kleineren der beiden Werte s 2 , s\ bezeichnet. (Daß s^js 2M < 1 und somit auch S
M
ist von vornherein klar.)
198
8 Normalverteilung; höhere Verfahren
Will man nur einseitige Mutungsgrenzen oder einen einseitigen Test, so läßt man einfach eine Ungleichung weg und ändert in der anderen den Faktor entsprechend ab, um die zugelassene Irrtumswahrscheinlichkeit zu erreichen. Da die Tabelle wegen der Tabellierung nach 2 Freiheitsgraden relativ umfangreich ist, wurden in diesem Buche nur die Werte Fa für a = 0,50, a = 0,95 und a = 0,99 aufgenommen. Dies genügt, weil man es in der Praxis überwiegend mit einseitigen Fragestellungen zu tun hat (Streuungszerlegung!). Um eine mediantreue Schätzfunktion m für den Quotienten a \ j a \ zu berechnen, betrachten wir das einseitige Mutungsintervall _sf a%_ 1 1 > % - 1 ) ' « f < ol und wählen s = 0,5. Dann ergibt sich: s2 ™ = -Fo.5 («1 — 1 - «2 — i) • — r • 1. B e i s p i e l : Um die Genauigkeit von 2 Laboranten bei gewissen chemischen Konzentrationsbestimmungen zu vergleichen, wurden ihnen je 50 möglichst gleichartige Proben zur Konzentrationsbestimmung vorgelegt. Aus den 50 Meßwerten des ersten Laboranten ergab sich = 0,425%, aus den 50 Meßwerten des zweiten Laboranten s | = 0,613%. Ferner entnehmen wir aus der Tabelle: F0,ia (49,49) = 1,96. Daher gilt mit 98% Scherheit: 1 1,96
0,613 0,425
gj of
0,613 0,425 '
also 0,74 < - ! - < 2,8 . Die Daten sind mit der Hypothese o\ = CT? verträglich, da das Mutungsintervall den Wert crf/crf = 1 einschließt. Es kann jedoch auch sein, daß die Messungen des zweiten Laboranten eine doppelt so große Varianz aufweisen wie die des ersten. Man wird daher vor einer endgültigen Entscheidung wahrscheinlich noch weitere Versuche machen. (Man beachte, daß das Mutungsintervall trotz des Stichprobenumfanges m = 50 verhältnismäßig weit ist.)
8.3 Der Vergleich zweier Varianzen
199
Als Schätzwert für den tatsächlichen Quotienten ai/cr? ergibt sich auf Grund der obigen mediantreuen Schätzfunktion m: «-'., sf • clt für Verfahren 2, wenn Im konkreten Beispiel ermittelte man bei % = 60 Messungen mit dem 1. Verfahren den Wert s\ — 0,0026 und bei « 2 = 30 Messungen mit dem 2. Verfahren den Wert s | = 0,00041. Ferner ergab eine Kostenberechnung (die sowohl die laufenden Kosten als auch die Abschreibungen der Apparaturen berücksichtigte) folgende Kosten pro Messung: 1. Verfahren: c± = 4,6 DM
2. Verfahren: c2 = 7,5 DM
Wir haben also die Hypothese:
= = 0,61 zu testen. ,F 0l99 (59, 29) = 2,22 und da außerdem s | • c2 = 0,0031 < sf • = 0,0120, werden wir das 2. Verfahren als das günstigere ansehen. Verschiedene U n t e r s u c h u n g e n (Box, Box und Andersen)
haben gezeigt, daß der /''-Test nicht sehr robust ist, d. h. daß sein Ergebnis auch durch kleine Abweichungen von der Normalverteilung stark beeinflußt werden kann. Erscheint eine solche Abweichung möglich — u n d dies wird in der Praxis sehr oft der Fall sein —, dann wird man die Anwendung des F-Tests vermeiden. Ein f ü r praktische Zwecke gut geeigneter Test f ü r die Gleichheit zweier Varianzen, der durch Abweichungen von der Normalität nicht wesentlich beeinflußt wird, ist folgender: Man bildet aus der 1. Stichprobe die Werte = L x { — x \ , aus der 2. Stichprobe die Werte t]f = \ y j — y |. Da die Erwartungswerte von und rjj proportional a 1 u n d a 2 sind, kann m a n die Hypothese CTj, = a 2 dadurch testen, daß man p r ü f t , ob die und rjj als Stichproben aus Verteilungen mit gleichem Mittelwert aufgefaßt werden können. Dazu bedient m a n sich entweder eines verteilungsunabhängigen Tests (z. B. des Wilcoxon-
8.4 Test und Mutungsintervall für den Mittelwert
201
Tests, S. 150ff.) oder des i-Tests. (Die Größen rjf sind zwar nicht normalverteilt, doch ist der ¿-Test — zum Unterschied vom i'-Test — robust gegen Abweichungen von der Normalverteilung.) Statt der Größen und rjj kann man auch ff und rjf verwenden, doch erfordert dies durch das Quadrieren zusätzliche Rechenarbeit, ohne daß dadurch die Genauigkeit des Tests im allgemeinen wesentlich beeinflußt wird (Levern). 8.4 Test und Mutungsinteryall für den Mittelwert Es Sei #2? • • •? "-^n 61116 Stichprobe aus der Verteilung N(/x,o2). Die Parameter /u und a2 seien unbekannt. Es ist eine Aussage über fi zu machen. In Abschnitt 3.2 wurde festgestellt, daß X= verteilt ist nach N(fj,,a2jn). u =
1
£* X{ n ¿»i Daher ist x — n /— — Vn a
verteilt nach N ( 0 , 1 ) . Wäre a bekannt, so könnte man aus dieser Formel bereits einen Test oder ein Mutungsintervall für /j, gewinnen, wie dies in den Abschnitten 4.2 und 4.3 auch geschehen ist. Es liegt nahe, das unbekannte a durch den Schätzwert
zu ersetzen, d. h. die Testgröße t=
x — ß t— — vn s
zu bilden. Wir dürfen natürlich nicht erwarten, daß auch diese Größe nach N (0,1) verteilt ist. Ihre Verteilung wird jedoch der Verteilung; N(0,1) um so ähnlicher sein, je größer n ist, da mit steigendem n der Unterschied zwischen
202
8 Normalverteilung; höhere Verfahren
a und s gegenüber dem Unterschied zwischen ¡ji und x immer mehr an Bedeutung verliert. Die Verteilung von t wurde erstmalig von Student abgeleitet. Er kam zu dem Ergebnis, daß t verteilt ist nach einer t-Verteilung mit (n — 1) Freiheitsgraden. Der grundlegende Gedankengang ist: Wie wir in Abschnitt 8.2 festgestellt haben, ist (s2/a2) (n — 1) verteilt nach yj- mit (n — 1) Freiheitsgraden. Ferner kann man zeigen, daß die Größen s 2 und x voneinander stochastisch unabhängig sind (vgl. Linder: Statistische Methoden, S. 381ff.). Daher sind auch A-z (» — 1) und - — — 1In (j a voneinander stochastisch unabhängig. Die erste Größe ist verteilt nach (n —1), die zweite nach A r (0,l). Daher ist der Quotient X — fl /— — \n
TT
¿-verteilt mit (n — 1) Freiheitsgraden. Nun fällt aber in diesem Quotienten der Parameter a heraus und er wird identisch mit X — fl f— l= — lIn . s Nach den Ausführungen in Abschnitt 3.3 ist die Streuung der ¿-Verteilung größer als die Streuung der Verteilung N(0,1). Dies entspricht dem Umstand, daß die Größe t infolge der Ersetzung der Konstanten a durch die zufällige Variable s eine größere Streuung besitzt als u. Dementsprechend sind die Sicherheitsgrenzen der ¿-Verteilung weiter als die Grenzen der Verteilung N(0,1) zur gleichen Sicherheit. Bereits für n = 30 stimmt aber die ¿-Verteilung mit der Verteilung N(0,1) fast überein, d. h., wir brauchen bei Stichproben mit einem Umfang größer als 30 den Unterschied zwischen a z und s 2 nicht mehr zu beachten. Die zweiseitige Form des ¿-Tests ist auch bei kleinen Stichproben für
8.4 Test und Mutungsintervall für den Mittelwert
203
nicht allzu schiefe Verteilungen anwendbar, da sich die Vergrößerung (der Wahrscheinlichkeit) des einen Teils der kritischen Region und die Verkleinerung des anderen Teils der kritischen Region annähernd kompensieren. Die Kenntnis der Verteilung von t können wir dazu benutzen, eine Hypothese über den Mittelwert zu prüfen. Die zu prüfende Hypothese sei: Die Verteilung hat den Mittelwert /¿q. Ist diese Hypothese richtig, so ist i=
J/Ü"
(2)
¿-verteilt mit (n — 1) Freiheitsgraden. Es gilt daher mit der Wahrscheinlichkeit 1—2 e: -h-An-t)< Liegt
X
- ^ ] / n