218 119 29MB
German Pages 382 [384] Year 1995
Lehr- und Handbücher der Statistik Herausgegeben von Universitätsprofessor Dr. Rainer Schlittgen Bisher erschienene Werke: Caspary/Wichmann, Lineare Modelle Chatterjee/Price (Übers. Lorenzen), Praxis der Regressionsanalyse, 2. Auflage Degen/Lorscheid, Statistik-Aufgabensammlung, 2. Auflage Harvey (Übers. Untiedt), Ökonometrische Analyse von Zeitreihen, 2. Auflage Harvey (Übers. Untiedt), Zeitreihenmodelle, 2. Auflage Heiler/Michels, Deskriptive und Explorative Datenanalyse Naeve, Stochastik für Informatik Oerthel/Tuschl, Statistische Datenanalyse mit dem Programmpaket SAS Pokropp, Lineare Regression und Varianzanalyse Rinne, Wirtschafts- und Bevölkerungsstatistik Rüger, Induktive Statistik, 3. Auflage Schlittgen, Statistik, 5. Auflage Schlittgen/Streitberg, Zeitreihenanalyse, 6. Auflage
Induktive Statistik Einführung für Wirtschafts- und Sozialwissenschaftler
Von
Dr. Bernhard Rüger Professor für Statistik Universität München
3., überarbeitete Auflage
R. Oldenbourg Verlag München Wien
Die Deutsche Bibliothek - CIP-Einheitsaufnahme Rüger, Bernhard: Induktive Statistik : Einführung für Wirtschafts- und Sozialwissenschaftler / von Bernhard Rüger. - 3., Überarb. Aufl. - München ; Wien : Oldenbourg, 1996 (Lehr- und Handbücher der Statistik) ISBN 3-486-23543-5
© 1996 R. Oldenbourg Verlag GmbH, München Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Gesamtherstellung: R. Oldenbourg Graphische Betriebe GmbH, München ISBN 3 - 4 8 6 - 2 3 5 4 3 - 5
Inhaltsverzeichnis
Teil I:
Wahrscheinlichkeitsrechnung
Kapitell: Grundlagen
1
1.1 Zufallsexperimente 1.2 Ereignisse 1.3 Wahrscheinlichkeit 1.3.1 Die Laplacesche Wahrscheinlichkeitsdefinition 1.3.2 Die von Misessche Wahrscheinlichkeitsdefinition 1.3.3 Die axiomatische Grundlage der Wahrscheinlichkeitsrechnung . . . 1.3.4 Objektive, subjektive und logische Wahrscheinlichkeit 1.3.5 Die Bestimmung von Wahrscheinlichkeiten 1.4 Einige Rechenregeln 1.5 Bedingte Wahrscheinlichkeit 1.6 Der Satz von Bayes 1.7 Unabhängige Ereignisse Fragen zur Wiederholung Aufgaben
1 3 4 6 8 11 13 16 18 20 23 26 27 27
Kapitel 2: Wahrscheinlichkeitsverteilungen
31
2.1 Zufallsgrößen 2.1.1 Skalierungen 2.1.2 Wahrscheinlichkeitsverteilungen 2.1.3 Unabhängige Zufallsvariablen 2.2 Diskrete Verteilungen 2.3 Stetige Verteilungen 2.4 Die Verteilungsfunktion 2.4.1 Die Verteilungsfunktion einer diskreten Verteilung 2.4.2 Die Verteilungsfunktion einer stetigen Verteilung 2.5 Ergänzende Bemerkungen über Verteilungen 2.6 Lage-und Streuungsparameter 2.6.1 Der Modalwert (Modus) 2.6.2 D e r Median 2.6.3 Quantile 2.6.4 Der Erwartungswert 2.6.5 Ergänzende Bemerkungen zu den Lageparametern 2.6.6 Varianz und Standardabweichung 2.6.7 Die Ungleichung von Tschebyscheff Fragen zur Wiederholung Aufgaben
31 32 33 34 35 37 39 40 41 42 44 44 45 47 47 51 52 54 55 56
Kapitel 3: Spezielle Verteilungen
59
3.1 Das Urnenmodell 3.1.1 Einige kombinatorische Regeln 3.1.2 Zufälliges Ziehen ohne Zurücklegen
59 59 61
VI
Inhaltsverzeichnis
3.1.3 Zufälliges Ziehen mit Zurücklegen 3.2 Die hypergeometrische Verteilung 3.3 Die Binomialverteilung 3.4 Die Poisson-Verteilung 3.5 Die Normalverteilung 3.5.1 Definition und Gestalt 3.5.2 Standardisierung und Vertafelung 3.5.3 Weitere Eigenschaften 3.6 Die Exponentialverteilung Fragen zur Wiederholung Aufgaben
62 62 64 66 68 68 69 72 73 75 76
Kapitel 4: Grenzwertsätze und Approximationen
79
4.1 4.2 4.3 4.3.1
79 81 83
Das Gesetz der großen Zahlen Der zentrale Grenzwertsatz Approximationen Approximation der hypergeometrischen Verteilung durch die Binomialverteilung 4.3.2 Approximation der Binomial-durch die Normalverteilung 4.3.3 Approximation der Binomial-durch die Poissonverteilung 4.3.4 Approximation der Poisson-durch die Normalverteilung 4.3.5 Zusammenfassender Überblick Fragen zur Wiederholung Aufgaben
83 84 87 89 90 91 91
Kapitel 5: Mehrdimensionale Zufallsgrößen
93
5.1 Diskrete zweidimensionale Zufallsgrößen 5.2 Stetige zweidimensionale Zufallsgrößen 5.3 Die Kovarianz 5.4 Der Korrelationskoeffizient 5.5 Die Regressionsgeraden 5.5.1 Die Regressionsgerade von Ybzgl. X 5.5.2 Die Regressionsgerade von X bzgl. Y 5.5.3 Vergleich der beiden Regressionsgeraden Fragen zur Wiederholung Aufgaben
Teil II:
93 97 98 100 102 102 103 104 106 106
Induktive Statistik
Kapitel 6: Stichproben
109
6.1 6.1.1 6.1.2 6.1.3 6.2 6.2.1
109 109 111 113 113 113
Grundbegriffe Stichprobe und Grundgesamtheit Heterograder und homograder Fall Identisch verteilte Stichproben; unabhängige Stichproben Zufällige Stichproben aus endlichen Grundgesamtheiten Der allgemeine Begriff einer zufälligen Stichprobe
Inhaltsverzeichnis
6.2.2 Einige nichtzufällige Stichproben 6.2.3 Zufällige Stichproben ohne Zurücklegen 6.2.4 Einige Auswahltechniken 6.2.5 Zufällige Stichproben mit Zurücklegen 6.3 GeschichteteStichproben 6.3.1 Die geschichtete Stichprobe 6.3.2 Die proportional geschichtete Stichprobe 6.3.3 Die optimal geschichtete Stichprobe 6.3.4 Bemerkungen zum Schichtungseffekt 6.4 Klumpenstichproben 6.5 Unabhängige identisch verteilte Stichproben Fragen zur Wiederholung Aufgaben Kapitel 7:
VII
114 115 118 120 122 122 125 126 127 128 131 133 134
Exemplarische Behandlung verschiedener schätztheoretischer Konzepte
137
7.1 Das Beispiel. Allgemeine Betrachtungen 7.2 Der klassische Standpunkt: objektivistisch und frequentistisch . . . 7.2.1 Grundlagen 7.2.2 Überdeckungswahrscheinlichkeiten 7.2.3 Die mittlere quadratische Abweichung 7.3 Das Likelihood-Prinzip: objektivistisch und nichtfrequentistisch . . 7.4 Das subjektivistische Schätzkonzept: nichtfrequentistisch 7.4.1 Grundlagen 7.4.2 Die a posteriori Verteilung bei diskreter a priori Verteilung . . . . 7.4.3 Die a posteriori Verteilung bei stetiger a priori Verteilung 7.4.4 D e r Schätzwert eines Subjektivisten 7.5 D e r entscheidungstheoretische Ansatz: ein formaler Überbau . . . Fragen zur Wiederholung
137 139 139 140 144 147 152 152 153 158 161 162 168
Kapitel 8:
171
8.1 8.1.1 8.1.2 8.1.3 8.1.4 8.1.5 8.1.6 8.1.7 8.2 8.2.1 8.2.2 8.2.3 8.2.4 8.2.5 8.2.6 8.2.7 8.3 8.3.1
Punkt- und Intervallschätzungen
Punktschätzungen Grundbegriffe. Die Verteilungsannahme D e r Mean Square Error Erwartungstreue Schätzungen Effiziente Schätzungen Konsistenz und asymptotische Erwartungstreue Maximum-Likelihood-Schätzungen Die Methode der kleinsten Quadrate Intervallschätzungen Einführung Ein Beispiel Ergänzende Bemerkungen Konfidenzintervalle für ^ Konfidenzintervalle für o 2 Konfidenzintervalle für p Abschließende Hinweise Schichtungseffekte Vorbemerkungen
171 171 173 175 177 181 183 187 192 192 194 197 198 203 208 213 213 213
VIII
Inhaltsverzeichnis
8.3.2 Der Schätzfehler in einer reinen Zufallsauswahl 8.3.3 Die Streuungszerlegung einer geschichteten Grundgesamtheit . . 8.3.4 Schätzfehler und Schichtungseffekt in geschichteten Stichproben 8.3.5 Schätzfehler und Schichtungseffekt bei proportionaler Aufteilung 8.3.6 Schätzfehler und Schichtungseffekt bei optimaler Aufteilung . . 8.4 Klumpungseffekte 8.4.1 Vorbemerkungen 8.4.2 Der Schätzfehler in einer Klumpenstichprobe 8.4.3 Der Klumpungseffekt Fragen zur Wiederholung Aufgaben Kapitel 9: 9.1 9.1.1 9.1.2 9.1.3 9.1.4 9.1.5 9.1.6 9.2 9.2.1 9.2.2 9.2.3 9.2.4 9.3 9.3.1 9.3.2 9.3.3 9.3.4 9.3.5 9.3.6 9.3.7 9.3.8 9.4 9.4.1 9.4.2 9.4.3 9.4.4 9.5 9.5.1 9.5.2 9.5.3 9.5.4 9.5.5 9.6 9.6.1 9.6.2 9.6.3 9.6.4
Statistische Tests
Begriff und Aufbau eines Tests Vorbemerkungen Ein einführendes Beispiel Grundlegende Begriffe Konstruktionsprinzip und Gütekriterium Entscheidungsregel und Interpretation der Testergebnisse Die Durchführung einer Hyothesenprüfung Parametertests Parametrische Verteilungsannahme Die Gütefunktion Der Gütevergleich von Parametertests Parametertests und Konfidenzintervalle Mittelwerttests Der einfache Gauß-Test Der einfache t-Test Der doppelte Gauß-Test Der doppelte t-Test Der Test von Welch Der t-Differenzentest Verbundene oder unverbundene Stichproben? Mittelwerttests bei großen Stichprobenumfängen Tests für unbekannte Wahrscheinlichkeiten Der Binomial-Test für p Der einfache Gauß-Test für p Der exakte Test von Fisher für p! — p 2 Der doppelte Gauß-Test für p, - p 2 Chi-Quadrat-Tests Der Chi-Quadrat-Test für die Varianz Der Chi-Quadrat-Anpassungstest; H 0 einfach Der Chi-Quadrat-Anpassungstest; H 0 zusammengesetzt Der Chi-quadrat-Unabhängigkeitstest Vierfeldertafeln Ergänzungen Verallgemeinerungen des klassischen Testkonzeptes Das Likelihood-Konzept der Testtheorie Das entscheidungstheoretische Testkonzept Die Bedeutung des Likelihood-Quotienten-Tests
. . . .
215 216 218 219 220 222 222 223 225 227 228 233 233 233 234 236 238 239 241 244 244 246 250 251 253 253 255 259 260 262 264 266 268 270 270 276 277 280 281 281 285 287 293 297 302 302 304 306 308
Inhaltsverzeichnis
IX
Fragen zur Wiederholung
308
Aufgaben
310
Lösungen der Aufgaben
315
Tabellen
342
Literaturverzeichnis
348
Literaturhinweise
358
Namensverzeichnis
360
Sachverzeichnis
362
Teill Wahrscheinlichkeitsrechnung Kapitell Grundlagen 1.1 Zufallsexperimente Im täglichen Leben und in nahezu allen Anwendungsgebieten von Natur- und Sozialwissenschaften werden oft Vorgänge beobachtet oder Versuche durchgeführt, die zufallsabhängig sind oder als vom Zufall abhängig betrachtet werden. Beispiele sind etwa das Wetter, Stauungen im Straßenverkehr, Warteschlangen vor Bedienungsschaltern, das Zustandekommen der Aktienkurse, der Verlauf einer Epidemie, die Durchführung einer Meinungsumfrage, die Qualitätskontrolle einer laufenden Produktion, die Entwicklung der Lage am Arbeitsmarkt, Veränderungen im Altersaufbau der Bevölkerung, usw. Diesen wirklichkeitsnahen und daher sehr komplexen Geschehnissen stehen einfachere Zufallsvorgänge aus der Theorie der Glücksspiele gegenüber, etwa Würfel-, Karten- oder Lottospiele ; von besonderer Bedeutung für die Statistik ist das Experiment der zufälligen Ziehung einer Stichprobe aus einer Grundgesamtheit. Allen Beispielen gemeinsam ist, daß ein Vorgang abläuft oder ein Versuch durchgeführt wird, dessen Ergebnis nicht im voraus bestimmbar ist. Solch ein Vorgang bzw. Experiment wird Zufallsexperiment genannt; es besteht aus der Festlegung einer Versuchsanordnung und der Menge aller möglichen Ergebnisse, der sogenannten Ergebnismenge. Die Ergebnismenge wird mit £2 bezeichnet, jedes Ergebnis co ist Element von Q. In den exakten Naturwissenschaften lassen sich viele Probleme (z.B. in der Physik der freie Fall oder die Bewegung einer Ladung in einem Magnetfeld) durch Experimente untersuchen, die bei genügender Sorgfalt durch Einhaltung konstanter Versuchsbedingungen stets das gleiche (oder doch annähernd gleiche, höchstens im Rahmen von Meßungenauigkeiten schwankende) Ergebnis bei mehrfacher Wiederholung des Versuchs aufweisen. Die Ergebnismenge eines solchen Experimentes besteht aus einem einzigen Element. Die deterministische Betrachtungsweise - eine Ursache hat unter fest gegebenen Bedingungen eine ganz bestimmte Wirkung - wird der Natur derartiger Vorgänge gerecht und hat für die Entdeckung von Gesetzen einen hohen Wert. Anders ist die Situation in den Wirtschafts- und Sozialwissenschaften, aber auch in der Psychologie, Medizin und Biologie. In vielen Fällen erlaubt die ungeheure Komplexität der betrachteten Systeme und der darin ablaufenden Vorgänge weder die Einhaltung vorgegebener Versuchsbedingungen noch die Anwendung genauer Meßverfahren, oft läßt sich ein Experiment nicht einmal geplant durchführen, geschweige denn unter konstanten Bedingungen wiederholen. Eine rein deterministische Betrachtungsweise kann das Zusammenwirken ganzer Bündel von Ursachen und Einflußgrößen nicht erfassen und liefert praktisch keinen Erklärungswert für die betrachteten Phänomene. Zweckmäßiger ist es, solche Vorgänge mit Hilfe stochastischer Modelle zu erklären, die Experimente als Zufallsexperimente aufzufassen, deren Ergebnisse neben ihrer Abhängigkeit von einigen hauptsächlichen Faktoren (soweit erkennbar und erklärungsnütz-
2
Kapitell: Grundlagen
lieh) auch als zufallsabhängig a n g e s e h e n w e r d e n . W i e dabei deterministische v o n stochastischen K o m p o n e n t e n abgegrenzt w e r d e n , o b ein V o r g a n g überhaupt stochastische K o m p o n e n t e n enthält oder e h e r als rein deterministisch einzustufen ist, ist in d i e s e m Z u s a m m e n h a n g eine e h e r pragmatische als erkenntnistheoretische Frage. Zur Verdeutlichung der R e g e l n der Wahrscheinlichkeitsrechnung w e r d e n wir im f o l g e n d e n o f t sehr einfache Beispiele b e n u t z e n , in d e n e n diese Fragen erst gar nicht auftauchen. Beispiel 1.1 Ein Würfel wird geworfen. Die möglichen Ergebnisse dieses Zufallsexperimentes sind die sechs verschiedenen Augenzahlen, die Ergebnismenge ist Q = { 1 , 2 , 3 , 4 , 5 , 6 } . Beispiel 1.2 Zwei (unterscheidbare) Würfel werden auf einmal oder ein Würfel wird zweimal hintereinander geworfen. Jedes Ergebnis co dieses Zufallsexperimentes besteht aus einem Zahlenpaar (i, j), wobei i und j jeweils eine der sechs Augenzahlen sind. Die Ergebnismenge Q besteht aus allen 6 • 6 = 36 solchen Zahlenpaaren. - Allgemein: Das Zufallsexperiment „ein Würfel wird n mal geworfen" besitzt eine Ergebnismenge mit 6" Elementen, jedes Ergebnis ist ein n-Tupel von Augenzahlen. Beispiel 1.3 Aus einer Grundgesamtheit von N Elementen werden zufällig und ohne Zurücklegen n Elemente gezogen, l S n < N , wobei es auf die Reihenfolge, in der die Elemente gezogen werden, nicht ankommen soll. (Man kann sich auch vorstellen, daß die n Elemente der Grundgesamtheit mit einem Griff entnommen werden.) Als Ergebnis dieses Zufallsexperimentes kann jede Teilmenge von n Elementen auftreten. In Abschnitt 3.1.1 wird gezeigt, daß es solche Teilmengen gibt. Die Ergebnismenge Q, die Menge aller dieser Teilmengen, hat also Elemente. - Dazu als Zahlenbeispiel die Ziehung der Lottozahlen: Aus N = 49 Kugeln, die mit den Zahlen 1 bis 49 beschriftet sind, werden zufällig und ohne Zurücklegen n = 6 Kugeln gezogen; die Reihenfolge spielt keine Rolle. (Die sogenannte Zusatzzahl, die Ziehung einer siebten Kugel, wird außer acht gelassen.) Als Ergebnis kann jede Teilmenge von 6 Elementen, also z.B. {3, 11, 15, 24, 30, 42} auftreten. Es gibt
(?) -
4»,
«.48-47.«.«.44.
6!-43!
1-2-3-4-5-6
]3983816
derartige Teilmengen. (Die „Chance" für „sechs Richtige" ist 1 zu 13983816. Diese Aussage werden wir später mit Hilfe der Laplaceschen Wahrscheinlichkeitsdefinition präzisieren.) Beispiel 1.4 Eine Münze wird so oft geworfen, bis zum erstenmal „Zahl" erscheint; man interessiert sich für die Anzahl der dazu erforderlichen Würfe. Die Ergebnisse dieses Zufallsexperimentes sind die Zahlen 1 , 2 , 3 , ... usw. Ergebnismenge ist die Menge der natürlichen Zahlen. Man kann £2 durch keine noch so große Zahl n beschränken; denn es ist möglich, daß n mal hintereinander „Kopf" erscheint, auch wenn dies für großes n sehr unwahrscheinlich ist. Im Unterschied zu den ersten drei Beispielen ist Q hier eine (abzählbar) unendliche Menge. Beispiel 1.5 Ein Kunde begibt sich mit einem Paket zur nächstgelegenen Poststelle, von der er weiß, daß sie nur einen Paketannahmeschalter hat. Er interessiert sich für seine Wartezeit, die er vor dem Schalter bis zu seiner Bedienung verbringen muß. Bevor er die Post betritt, kennt er
Kapitell: Grundlagen
3
die L ä n g e der Schlange vor d e m Paketschalter nicht. Seine W a r t e z e i t kann daher zwischen 0 (falls kein K u n d e vor dem Schalter steht) und irgendeiner maximalen Zeit T (auf die es uns hier nicht a n k o m m t ) s c h w a n k e n . Mißt er die W a r t e z e i t e n in M i n u t e n , so lautet die Ergebnismenge dieses Z u f a l l s e x p e r i m e n t e s {0,1, 2 , . . . , T}. M a n kann a b e r auch Fragen der Meßgenauigkeit a u ß e r acht lassen u n d die Zeit als kontinuierliche G r ö ß e betrachten (Zeitkontin u u m ) , ein S t a n d p u n k t , der bei zeitabhängigen Zufallsvorgängen häufig e i n g e n o m m e n wird. In u n s e r e m Beispiel ergibt sich dann als E r g e b n i s m e n g e die M e n g e aller reellen Zahlen zwischen 0 u n d T . (Dies ist eine ü b e r a b z ä h l b a r unendliche M e n g e . )
1.2 Ereignisse Zu einem Zufallsexperiment mit der Ergebnismenge Q betrachtet man neben den einzelnen Ergebnissen vor allem Ereignisse: Ein (zufälliges) Ereignis ist eine Teilmenge von Q. Wir bezeichnen Ereignisse mit großen lateinischen Buchstaben A, B usw.. Man sagt, das Ereignis A tritt ein, wenn das Zufallsexperiment ein Ergebnis to liefert, das zu A gehört (Element von A ist). Beispiele: In Beispiel 1.1 (Werfen eines Würfels) kann das Ereignis A , daß eine Fünf oder Sechs gewürfelt wird, betrachtet werden; A = {5,6}. In Beispiel 1.2 (Werfen zweier Würfel) ist das Ereignis, daß ein Pasch gewürfelt wird, mit der Teilmenge {(1,1), (2,2), (3,3), (4,4), (5,5), (6,6)} identisch. A u c h ein einzelnes Ergebnis CD läßt sich als Ereignis auffassen, nämlich als die einelementige Teilmenge {co} von Q. Diese Ereignisse heißen Elementarereignisse. D i e Ergebnismenge £2 selbst (als unechte Teilmenge von £2) ist ein Ereignis, das bei j e d e m Ergebnis des Zufallsexperimentes eintritt, und heißt deshalb das sichere Ereignis. Entsprechend heißt die leere Menge 0 (als Teilmenge von £2) das unmögliche Ereignis. Die mengentheoretischen Operationen (Bildung von Vereinigung, Durchschnitt und Komplement) lassen sich unmittelbar in die „ereignistheoretische Sprache" übersetzen. Sind A und B Teilmengen von £2, so bedeuten A H B das Ereignis „A und B", das genau dann eintritt, wenn sich ein to ergibt, das zu A und B gehört, A U B das Ereignis „A oder B", das genau dann eintritt, wenn sich ein co ergibt, das zu A oder B gehört („oder" im nicht ausschließenden Sinn), Ä
das Ereignis „nicht A " , das genau dann eintritt, wenn sich ein co ergibt, das nicht zu A gehört,
A\B
das Ereignis „A aber nicht B", das genau dann eintritt, wenn sich ein co ergibt, das zu A aber nicht zu B gehört.
Zwei Ereignisse A und B, die nicht gemeinsam eintreten können, für die also A f l B = 0 (das unmögliche Ereignis) ist, nennt man unvereinbar oder disjunkt. Beispiel 1.6 Wir b e t r a c h t e n in Beispiel 1.2 ( W e r f e n zweier W ü r f e l ) die Ereignisse A : ..es wird ein Pasch gewürfcl" B: „die S u m m e der erzielten A u g e n ist größer o d e r gleich 10" C: ..die S u m m e der erzielten A u g e n ist kleiner o d e r gleich 3". B und C sind unvereinbare Ereignisse. Weiterhin gilt: A H B = {(5.5). (6.6)} AOC ={(1.1)}
4 AUC A\B
Kapitell: Grundlagen = {(1,1), (1,2), (2,1), (2,2), (3,3), (4,4), (5,5), (6,6)} = { ( 1 , 1 ) , (2,2), (3,3), (4,4)}
Jedem Ereignis A eines reinen Zufallsexperimentes soll eine Wahrscheinlichkeit zugeordnet werden, welche die Chance für das Eintreten von A beschreibt. Dazu ist es nicht immer zweckmäßig, jede Teilmenge von £2 als Ereignis in Betracht zu ziehen. Ist £2 eine überabzählbare Menge, so treten mathematisch tiefer liegende Schwierigkeiten auf, wenn man jeder Teilmenge von Q eine Wahrscheinlichkeit zuordnen will: Ist £2 die Menge der reellen Zahlen oder ein Intervall reeller Zahlen, so k ö n n t e man unter U m s t ä n d e n keine stochastischen Modelle bilden, die das Zufallsexperiment adäquat beschreiben, z.B. keine Modelle mit stetigen Verteilungen*). Aus diesem Grund muß man gegebenenfalls neben der Ergebnismenge £2 auch noch eine Klasse (Menge) von Ereignissen festlegen, die dem Zufallsexperiment als zugehörig betrachtet werden soll. In der Wahl einer solchen Klasse ist man nicht frei: Zunächst wird verlangt, daß alle Ereignisse, die in praktischen A n w e n d u n g e n auftreten können, zur Klasse gehören. D a r ü b e r hinaus sollen die genannten mengentheoretischen Operationen innerhalb der Klasse durchführbar sein, das heißt genauer: Mit einem Ereignis A soll stets auch A zur Klasse gehören und mit endlich oder abzählbar unendlich vielen Ereignissen sollen stets auch alle daraus herstellbaren Durchschnitte und Vereinigungen zur Klasse gehören. Eine Klasse mit diesen Eigenschaften nennt man eine Ereignisalgebra (genauer: Ereignis-o-Algebra). Ist £2 endlich oder abzählbar unendlich, so kann stets die Menge aller Teilmengen, die sogenannte Potenzmenge von £2 als Ereignisalgebra gewählt werden, ohne daß die oben genannten Schwierigkeiten auftreten. Auch f ü r überabzählbare Ergebnismengen £2 lassen sich im allgemeinen Ereignisalgebren konstruieren, die diese Schwierigkeiten vermeiden: Sie sind in der Regel kleiner als die Potenzmenge von £2, aber doch groß genug, um alle in Theorie und Praxis benötigten Ereignisse zu enthalten. Ist £2 z.B. die Menge der reellen Z a h l e n , so läßt sich eine derartige Ereignisalgebra bilden, die alle Zahlenintervalle als Ereignisse enthält. Auf die damit zusammenhängenden Fragen können wir hier nicht eingehen. Wir setzen für das Folgende voraus, daß einem Zufallsexperiment mit seiner Ergebnismenge auch stets eine geeignete Ereignisalgebra zugeordnet ist, ohne diese eigens zu erwähnen.
1.3 Wahrscheinlichkeit Es ist heute üblich, die Wahrscheinlichkeitstheorie als ein Teilgebiet der Mathematik zu betrachten und die Wahrscheinlichkeit mathematisch formal durch Axiome zu definieren. Diese Vorgangsweise, der wir uns anschließen werden, ist berechtigt, wenn man dabei im Auge behält, daß durch sie nur eine Theorie über den rechnerischen U m g a n g mit Wahrscheinlichkeiten, also eine Wahrscheinlichkeitsrechnung und keine Theorie über die Wahrscheinlichkeit selbst zustande kommt. Eine umfassende Wahrscheinlichkeitsi/ieone hätte ihren Gegenstand unter den drei folgenden Gesichtspunkten zu betrachten: • die inhaltliche Bedeutung des Begriffes Wahrscheinlichkeit, • die mathematisch formale Definition der Wahrscheinlichkeit, • die numerische Bestimmung von Wahrscheinlichkeiten. *) Vgl. Abschnitt 2.3
Kapitell: Grundlagen
5
D i e Frage nach der Bedeutung des Wahrscheinlichkeitsbegriffes steht in engem Z u s a m m e n h a n g mit d e m Problem der Begründung induktiver Schlüsse, dem sogenannten Induktionsproblem. Ein Induktionsschluß ist ein Schluß vom Einzelnen, Besonderen auf etwas Allgemeines, Gesetzmäßiges. Ein solcher Schluß führt über die Aussage der Prämisse hinaus. Ihm kann daher keine absolute Gewißheit, sondern nur ein gewisser G r a d an Sicherheit, genannt Wahrscheinlichkeit, z u k o m m e n . Das Induktionsproblem, insbesondere auch die Frage, mit welchem Wahrscheinlichkeitsbegriff der Sicherheitsgrad eines induktiven Schlusses ausgedrückt werden soll, führt uns in den Bereich der Philosophie, genauer der induktiven Logik. Neben Aristoteles (384-322 v. Chr.) waren es in der Antike vor allem die Epikureer, orientiert an der Heilkunde, die sich diesem Bereich der Philosophie widmeten*). Ihre Schriften waren jedoch in Vergessenheit geraten und wurden erst im 19. Jahrhundert wiederentdeckt. Nach der Antike befaßte sich erst wieder die Philosophie der Neuzeit mit dem Induktionsproblem. Zu erwähnen sind hier aus der Zeit der Renaissance vor allem Galileo Galilei (1564-1642), der die Methode der Induktion in die Physik einführte, und Francis Bacon (1561-1626), der als Begründer einer empirisch eingestellten Wissenschaft gilt und den Utilitätsgesichtspunkt des Wissens betonte („Wissen ist Macht"). Ihren entscheidenden Anstoß aber erfuhr die induktive Logik durch David Hume (1711-1776), dessen Werk einen H ö h e p u n k t des englischen Empirismus, der philosophischen Gcgcnbcwegung zum Rationalismus, bildet. Er hat als erster die Problematik der induktiven Schlußwcise in voller Schärfe aufgezeigt und Induktionsschlüsse als Wahrscheinlichkeitsschlüsse formuliert. In dieser englischen Tradition stehen auch William Whewell (1794-1866), der eine Geschichte der induktiven Wissenschaften schrieb, und John Stuart Mill (1806-1873), der ein System logischer Regeln für induktive Schlüsse aufstellte und als Begründer der induktiven Logik als formale Wissenschaft angesehen wird. Von den Philosophen unseres Jahrhunderts, die sich dem Induktionsproblem gewidmet haben, sind vor allem Hans Reichenbach (1891 -1953), Rudolf Carnap (1891 -1970), Karl Raimund Popper (1902-1994) und Wolf gang Stegmüller (1923-1991) zu n e n n e n . Daneben haben sich auch innerhalb der Grundlagenforschung der Statistik verschiedene Theorien zur Stützung statistischer Schlüsse (im Sinne induktiver Schlüsse, man denke an einen Schluß von einer Stichprobe auf eine Grundgesamtheit) entwickelt, die mit unterschiedlichen Auffassungen des Wahrscheinlichkeitsbegriffes verbunden sind. In erster Linie ist hier der große englische Statistiker Ronald Aylmer Fisher (1890-1962) zu nennen, der den Anstoß und entscheidende Anregungen für derartige statistische Theorien gab. Dieses Gebiet einer Wahrscheinlichkeitstheorie, das teils im Bereich der induktiven Logik, teils in der Grundlagenforschung der Statistik seine Heimat hat, können wir hier nicht behandeln. Nur andeutungsweise sollen in Abschnitt 1.3.4 einige Wahrscheinlichkeitsbegriffe skizziert und in Teil II verschiedene Konzepte für die Stützung statistischer Induktionsschlüsse vorgestellt werden. D e m Leser, dessen Neugier auf eine philosophische oder wissenschaftstheoretische Behandlung des Induktionsproblems geweckt wurde, werden vor allem die Arbeiten von Carnap [1945, 1952, 1967], Carnap und Jeffrey [1971], Carnap und Stegmüller [1972], Essler [1970], Hacking [1984], Kneale [1966], Lakatos [1968], Reichenbach [1932,1935,1983], Stegmüller [1973] und de Wright [1965] empfohlen. Auch die wichtigsten W e r k e der oben genannten Philosophen und Grundlagenforscher *) Vgl. dazu Essler [1970]
6
Kapitell:
Grundlagen
auf dem Gebiet der Wahrscheinlichkeitsrechnung und Statistik sind im Literaturverzeichnis angegeben. D e r zweite Gesichtspunkt, die mathematisch formale Definition der Wahrscheinlichkeit, hat die Entwicklung von Rechenregeln und Gesetzen zum Ziel, denen die Wahrscheinlichkeiten gehorchen. Von dieser Wahrscheinlichkeitsrechnung wollen wir in Teil I die wichtigsten und einfachsten Bausteine kennenlernen. Ihre axiomatische Grundlage wurde 1933 durch den russischen Mathematiker Andrej Nikolajewitsch Kolmogoroff ( 1903-1987) geschaffen. Die Axiome werden in Abschnitt 1.3.3 vorgestellt. Auf den dritten Gesichtspunkt, die Frage nach der numerischen Bestimmung von Wahrscheinlichkeiten, gehen wir in Abschnitt 1.3.5 ein. In der geschichtlichen Entwicklung der Wahrscheinlichkeitstheorie sind diese drei Gesichtspunkte stets präsent, treten aber nur selten begrifflich voneinander getrennt auf. Insbesondere wurde in die mathematische Definition der Wahrscheinlichkeit die A r t ihrer numerischen Bestimmung mit einbezogen. Die beiden auch heute noch wichtigsten Definitionen dieser Art gehen auf Laplace und von Mises zurück. 1.3.1 Die Laplacesche Wahrscheinlichkeitsdefinition D e r französische Mathematiker und Astronom Pierre Simone de Laplace (17491827) hat die zu seiner Zeit bekannten wahrscheinlichkeitstheoretischen Begriffe und Gesetze lehrbuchmäßig zusammengefaßt. Sein Hauptwerk „Théorie analytique des probabilités" erschien 1812, zwei Jahre später folgte „Essai philosophique sur les probabilités". Als Ausgangspunkt der Wahrscheinlichkeitsrechnung gilt allgemein der Briefwechsel zwischen den französischen Mathematikern Biaise Pascal (1623-1662) und Pierre de Fermât (1601-1665) im Jahr 1654. Ausgelöst wurde er durch Chevalier de Méré, der Pascal einige Fragen über Glücksspiele stellte, unter anderem eine Frage nach der gerechten Aufteilung der Einsätze bei Abbruch eines Spiels*). Der holländische Physiker und Mathematiker Christiaan Huygens (1629-1695) muß die Ergebnisse dieses Briefwechsels**) kennengelernt haben. E r erweiterte sie zu dem 1657 veröffentlichten ersten Buch über Wahrscheinlichkeitsrechnung „De ratiociniis in ludo aleae". Dieses Buch regte Jakob Bemoulli (1654-1705), einen Baseler Mathematikprofessor, an, sich mit der Wahrscheinlichkeitsrechnung zu befassen. Sein Werk „Ars conjectandi", das 1713 posthum veröffentlicht wurde, enthält bereits so wichtige Dinge wie die Kombinatorik, die Binomialverteilung (Bernoullivertcilung) und das spezielle Gesetz der großen Zahlen (Theorem von Bernoulli). Schließlich sind vor Laplace noch zu erwähnen: der nach England geflüchtete Hugenotte Abraham de Moivre (1667-1754), dessen Buch „The doctrin of chances" [1718] in einer späteren Auflage zum erstenmal die Normalvertcilung (als Grenzverteilung der Binomialverteilung) enthält, und der englische Pfarrer Thomas Bayes (1702-1761) mit seinem Aufsatz „An essay towards solving a problem in the doctrine of chances", 1763 posthum veröffentlicht, der das bekannte Bayessche T h e o r e m zum Inhalt hat. *) D i e s e F r a g e n sind G e g e n s t a n d e i n i g e r Ü b u n g s a u f g a b e n a m E n d e d e s K a p i t e l s . **) D i e B r i e f e sind in d e n . . Œ o u v r e s c o m p l è t e s de Biaise Pascal"" [1963] u n d d e n . . Œ o u v r e s d e P i e r r e de F e r m â t " [1891-1922] w i e d e r g e g e b e n . M a n v e r g l e i c h e a u c h H a i d [1990], eine a u s f ü h r l i e h e D a r s t e l l u n g d e r E n t w i c k l u n g der W a h r s c h e i n l i c h k e i t s r e c h n u n g v o n C a r d a n o ( 1501 -1576) bis d e M o i v r e ( 1667-1754).
Kapitell: Grundlagen
7
Alle d i e s e W a h r s c h e i n l i c h k e i t s t h e o r e t i k e r b e s t i m m t e n die W a h r s c h e i n l i c h k e i t ( C h a n c e ) f ü r das E i n t r e t e n eines Ereignisses A , i n d e m sie die A n z a h l d e r f ü r A g ü n s t i g e n Fälle ( d e r Fälle, in d e n e n A eintritt) mit d e r A n z a h l aller möglichen Fälle v e r g l i c h e n , w o b e i a n g e n o m m e n w u r d e , d a ß j e d e r Fall gleichmöglich (im Sinne v o n gleichwahrscheinlich) ist. E i n „Fall" ist gleichzusetzen mit e i n e m Ergebnis d e s b e t r e f f e n d e n Z u f a l l s e x p e r i m e n t e s . D i e K u n s t d e r B e r e c h n u n g von W a h r s c h e i n l i c h k e i t e n b e s t a n d ( u n d b e s t e h t z u m Teil h e u t e n o c h ) a u s d e r Kunst des richtigen A b z ä h l e n s . D a b e i wird „richtig" g e z ä h l t , w e n n m a n d a s Zufallsexp e r i m e n t mit seiner E r g e b n i s m e n g e so f o r m u l i e r t , d a ß alle E r g e b n i s s e als gleichwahrscheinlich a n g e s e h e n w e r d e n k ö n n e n . Laplace e r h o b diese B e r e c h n u n g s a r t zur D e f i n i t i o n d e r W a h r s c h e i n l i c h k e i t . W i r legen z u n ä c h s t fest: Ein Laplace-Experiment ist ein Z u f a l l s e x p e r i m e n t mit e i n e r endlichen E r g e b n i s m e n g e Q , bei d e m j e d e s E r g e b n i s gleichwahrscheinlich ist. D a m i t l a u t e t die Laplacesche Wahrscheinlichkeitsdefinition:
In e i n e m L a p l a c e - E x p e r i m e n t ist die W a h r s c h e i n l i c h k e i t P ( A ) eines E r e i g nisses A definiert als p
, .. ^ '
_
A n z a h l d e r f ü r A günstigen Fälle A n z a h l aller möglichen Fälle
_
A n z a h l d e r E l e m e n t e von A A n z a h l d e r E l e m e n t e von £2
D i e W a h r s c h e i n l i c h k e i t j e d e s e i n z e l n e n E r g e b n i s s e s to, g e n a u e r j e d e s E l e m e n tarereignisses {cd} , ist d e m n a c h in e i n e m L a p l a c e - E x p e r i m e n t P ({cd}) = ^r
,
N = A n z a h l der E l e m e n t e von Q .
Beispiel 1.7 Wir betrachten das Zufallsexperiment „Werfen zweier Würfel", dessen Ergebnismenge Q aus allen 36 Zahlenpaaren (i, j) besteht, wobei i und j jeweils eine der sechs Augenzahlen ist (vgl. Beispiel 1.2). Man kann annehmen, daß jedes dieser Ergebnisse gleichwahrscheinlich ist, so daß es sich hier um ein Laplace-Experiment handelt: P({(i.j)})=
für jedes Ergebnis (i,j).
Dabei wird für i =t= j zurecht zwischen den Ergebnissen (i, j) und (j, i) unterschieden. Das Ereignis Ajj:
„Es werden die Augenzahlen i und j geworfen"
kann nämlich für i =1= j auf zweierlei Weise Zustandekommen: Der eine Würfel ergibt die Augenzahl i, der andere j oder umgekehrt. Also ist für i =t= j Ajj = { ( i , j ) , ( j , i ) }
kein Elementarereignis. Es gilt:
8
Kapitell: Grundlagen
P (Atj) J =
2 — = 36
1 — 18
für i 4= i,
P(Aii) = P ( { ( i , i ) } ) = 1
w ä h r e n d sich für i = j
ergibt.
H ä t t e man die A,j auch f ü r i 4= j als Elementarereignisse aufgefaßt und d e m e n t s p r e c h e n d eine E r g e b n i s m e n g e aus nur 21 E l e m e n t e n konstruiert, so wäre die Gleichwahrscheinlichk e i t s a n n a h m e verletzt und die Laplacesche Wahrscheinlichkeitsdefinition nicht a n w e n d bar. D e r Ü b u n g halber b e s t i m m e man die Wahrscheinlichkeiten der in Beispiel 1.6 angegeb e n e n Ereignisse A : „es wird ein Pasch g e w o r f e n " , B: „die S u m m e der erzielten A u g e n ist g r ö ß e r oder gleich 10" und C: „die Summe der erzielten A u g e n ist kleiner o d e r gleich 3". Sie lauten: P A
< >= I -
P B
< >= !
und
p(c) =
ä-
Beispiel 1.8 A u s einer U r n e mit fünf Kugeln, zwei weißen u n d drei schwarzen, w e r d e n mit einem Griff zufällig zwei Kugeln gezogen. E s k a n n a n g e n o m m e n w e r d e n , d a ß d a b e i j e d e Teilmenge von zwei aus fünf Kugeln die gleiche Wahrscheinlichkeit hat, ausgewählt zu w e r d e n . U m dieses Z u f a l l s e x p e r i m e n t als Laplace-Experiment b e t r a c h t e n zu k ö n n e n , hat man j e d e solche Teilmenge als ein mögliches Ergebnis aufzufassen. Z u r Formulierung der Ergebnisse müssen auch gleichfarbige Kugeln unterscheidbar gemacht werden. Wir n u m e r i e r e n dazu die Kugeln in der U r n e mit den Z a h l e n 1 bis 5, wobei die weißen Kugeln g e r a d e u n d die schwarzen u n g e r a d e N u m m e r n erhalten. D i e Ergebnismenge ß besteht dann aus d e n folgenden 10 gleichwahrscheinlichen E r g e b n i s s e n : co, = {1,2}
ü>2 = {1,3}
o ) 3 = {1,4}
a>4 = {1,5}
w 5 = {2,3}
cu6={2,4}
— größer als die dazugehörigen a priori Wahrscheinlichkeiten, für j < — sind sie kleiner - ein Ergebnis, das wir auch intuitiv erwartet hätten. A n einer Gegenüberstellung der a priori und a posteriori Wahrscheinlichkeiten in Abbildung 4 erkennt man den durch die Beobachtung B erzielten Wissenszuwachs. Der Vollständigkeit halber sind dort auch noch die a posteriori Wahrscheinlichkeiten nach der Beobachtung B („weiße Kugel") abgebildet. Sie lauten: P (AjlB) = ^
+
^ •
\
\ X '
/
\
1 0
1
N/2
a priori Wahrscheinlichkeiten P(A,) Abb. 4
N
0
1
N/2
a posteriori Wahrscheinlichkeiten P (A| I B)
N
0
1
V f \
N/2
a posteriori Wahrscheinlichkeiten P (A, I B)
A priori und a posteriori Wahrscheinlichkeiten zu Beispiel 1.14
N
26
K a p i t e l l : Grundlagen
1 . 7 U n a b h ä n g i g e Ereignisse Wir betrachten den Fall, daß f ü r zwei Ereignisse A und B die bedingte Wahrscheinlichkeit von B unter der Bedingung, daß A eintritt, genauso groß ist wie die Wahrscheinlichkeit von B selbst, d.h.: P (BIA) = P (B). D a n n beeinflußt das Eintreten von A die Chance für das Eintreten von B nicht, man nennt B unabhängig von A . U m g e k e h r t erhalten wir, falls B unabhängig von A ist, für die bedingte Wahrscheinlichkeit P (AIB) mit Hilfe von (1.12): , . P , A i m _ P (BIA) P (A) _ P (B) P (A) P(AIB) ^ P(B) d.h.: A ist auch unabhängig von B. Daher ist der Unabhängigkeitsbegriff symmetrisch in A und B, man spricht von der Unabhängigkeit von A und B. U m diese Symmetrie auch formal zum Ausdruck zu bringen, beachten wir, daß nach Definition von P (BIA) in (1.7) die Beziehung P (B) = P (BIA) äquivalent ist mit P ( A H B ) = P ( A ) P ( B ) , s o d a ß wir erhalten: (1.14)
A und B sind genau dann voneinander unabhängig, wenn gilt: P ( A H B ) = P ( A ) P (B)
Davon ausgehend läßt sich der Unabhängigkeitsbegriff auf mehr als zwei Ereignisse verallgemeinern: Die Ereignisse A b ... A n heißen unabhängig, wenn für jede Auswahl A i p A i 2 , ... A i m aus ihnen (mit 1 = m = n und A^ # A ik für alle i, =£ #ik)gilt: (1.15)
p (a „ n Ai2n... n a j
= p ( a ¡ , ) p ( a 1 2 ) • • • p( a j
Man nennt (1.14) und auch (1.15) die Multiplikationsregel für unabhängige Ereignisse und benutzt sie folgendermaßen: Wenn man aufgrund der Kenntnis der Versuchsanordnung davon ausgehen kann, daß sich zwei Ereignisse A und B aus sachlichen G r ü n d e n nicht beeinflussen können, so darf man P ( A H B ) gemäß (1.14) berechnen. Entsprechendes gilt f ü r (1.15).
Beispiel 1.15 Ein Würfel wird n mal nacheinander geworfen. Man kann davon ausgehen, daß die einzelnen Würfe sich gegenseitig nicht beeinflussen. Daher sind Ereignisse, die verschiedene W ü r f e betreffen, stets voneinander unabhängig. Wir betrachten das Ereignis A¡: „Beim iten Wurf wird eine Sechs erzielt", i = 1 , . . . , n. F ü r j c d e s i i s t P (A,) =
6
Da A 1 ; A , , ..., A„ unabhängig voneinander sind, gilt
p (A,nA 2 n...nA„) = p ( a , ) p (a 2 ) ••• p(a„) = (1)" d . h . : die Wahrscheinlichkeit, n mal hintereinander eine Sechs zu werfen, ist ( \ ) " ; sie wird
o
mit größer w e r d e n d e m n verschwindend klein. Wir wollen auch noch die folgende Frage beantworten: Wie groß muß n mindestens sein, damit die Wahrscheinlichkeit, daß sich unter den ersten n Würfen mindestens eine Sechs befindet, größer als 0.9 ist?
27
Kapitel 1: Grundlagen
Sei B n das Ereignis, daß sich unter den ersten n Würfen mindestens eine Sechs befindet. Dann gilt: B n = Ä,nÄ 2 n...nÄ n und wegen der Unabhängigkeit der Ä , , ..., Ä„ folgt: P (B„) = P ( Ä , ) P (Ä 2 ) • • • P (Ä n ) = ( g ) n P (B„) = 1 - P (B n ) = 1 - ( 7 ) " ist größer als 0.9, wenn
6
6
< 0.1 ist; wegen
6
= 0.112
und ( 7 ) 1 3 = 0.093 lautet die Antwort: n muß mindestens gleich 13 sein.
Fragen zur Wiederholung 1. Erklären oder erläutern Sie die folgenden Begriffe: Zufallsexperiment, Ereignis, sicheres Ereignis, unmögliches Ereignis, Elementarereignis. 2. Was versteht man unter einem Laplace-Experiment? 3. Wie lautet die Laplacesche Wahrscheinlichkeitsdefinition? Welchen Einwand (aus logischer Sicht) gibt es gegen sie? 4. Wie versuchte von Mises, die Wahrscheinlichkeit eines Ereignisses zu definieren? Welche Einwände gibt es dagegen? 5. Beschreiben Sie die axiomatische Definition der Wahrscheinlichkeit durch die drei Axiome der Wahrscheinlichkeitsrechnung. 6. Welche verschiedenen Auffassungen des Wahrscheinlichkeitsbegriffes gibt es? 7. Welche drei Möglichkeiten gibt es, die Wahrscheinlichkeit eines Ereignisses zu bestimmen? 8. Was versteht man unter der Additivität der Wahrscheinlichkeit? Wie lautet der Additionssatz für zwei (nicht notwendig disj unkte) Ereignisse? 9. Wie ist die bedingte Wahrscheinlichkeit erklärt? Wie lautet der Multiplikationssatz für zwei (nicht notwendig unabhängige) Ereignisse? 10. Wann nennt man zwei Ereignisse unabhängig? Wie lautet die Multiplikationsregel für zwei unabhängige Ereignisse? 11. Welchen Zusammenhang beschreibt der Satz von Bayes? 12. Was versteht man unter a priori bzw. a posteriori Wahrscheinlichkeiten? Welche Rolle spielt dabei der Satz von Bayes? Aufgaben 1. A, B und C seien drei Ereignisse eines Zufallsexperimentes mit der Ergebnismenge £2. Man gebe in mengentheoretischer Schreibweise die Ereignisse an,daß a) A und B eintreten, aber nicht C b) keines der drei Ereignisse eintritt c) genau eines der drei Ereignisse eintritt d) höchstens zwei der drei Ereignisse eintreten. 2. Eine Münze wird dreimal geworfen. Bestimmen Sie die Wahrscheinlichkeiten der Ereignisse A: Es tritt mindestens einmal „Wappen" auf
28 B: C:
Kapitel 1: Grundlagen Es tritt genau einmal „Wappen" auf Es tritt höchstens einmal „Wappen" auf.
3. Man zeige: Sind die Ereignisse A und B unabhängig, so auch a) A und B, b) Ä u n d B , c) Ä u n d B . 4. Ist es wahrscheinlicher, bei vier Würfen mit einem Würfel mindestens eine Sechs zu werfen oder bei 24 Würfen mit je zwei Würfeln mindestens eine Doppel-Sechs? (Eine Frage des Chevalier de Mere an Pascal) 5. Zwei Personen A und B gehen das folgende Spiel ein: Eine Münze wird wiederholt geworfen; wenn bei einem Wurf „Wappen" erscheint, erhält A einen Punkt, sonst B. Wer zuerst fünf Punkte erzielt, hat gewonnen und erhält den Einsatz (den A und B je zur Hälfte eingesetzt haben). Nach sieben Würfen hat A vier Punkte und B drei. Das Spiel muß abgebrochen werden. Wie lautet die gerechte Aufteilung des Einsatzes, wenn man unter „gerecht" eine Aufteilung im Verhältnis der Gewinnchancen versteht? (Bekannteste Frage de Meres an Pascal, wobei de Mere nur an die beiden folgenden Möglichkeiten dachte: entweder eine Aufteilung im Verhältnis der gewonnenen Spiele, also 4:3, oder im umgekehrten Verhältnis zu den noch fehlenden Punkten, also 2:1.) 6. Wieviele Würfe mit je zwei Würfeln braucht man mindestens, um mit einer Wahrscheinlichkeit von mehr als 50% mindestens eine Doppel-Sechs zu erzielen? (Eine Frage, die ebenfalls dem Briefwechsel zwischen de Mere und Pascal zugeordnet wird.) 7. Einem Urlauber ist von seinem Ferienort bekannt, daß auf einen Tag ohne Regen mit Wahrscheinlichkeit 4/5 wieder ein niederschlagsfreier Tag und auf einen Tag mit Regen mit Wahrscheinlichkeit 3/5 wieder ein Tag mit Niederschlag folgt. Er ist an einem Tag ohne Regen angekommen und möchte drei Tage später eine Tour unternehmen. Wie groß ist die Wahrscheinlichkeit, daß er dazu einen Tag ohne Niederschlag erwischt? 8. Aus einer Urne mit N Kugeln, darunter M schwarze und N —M weiße, werden nacheinander und ohne Zurücklegen zwei Kugeln zufällig entnommen. Aj sei das Ereignis „beim i-ten Zug erscheint eine schwarze Kugel", i = 1, 2. Man zeige: a) P ( A , ) = P ( A 2 ) b) A, und A 2 sind abhängige Ereignisse. 9. Von drei Urnen U 1 ; U 2 und U 3 wird eine zufällig ausgewählt; jede Urne hat die gleiche Wahrscheinlichkeit, gewählt zu werden. Die Urnen enthalten nur schwarze und weiße Kugeln, U j 7 schwarze und 3 weiße, U 2 5 schwarze und 5 weiße, U 3 2 schwarze und 8 weiße. Aus der gewählten Urne wird anschließend eine Kugel zufällig gezogen. a) Wie groß ist die Wahrscheinlichkeit, dabei eine schwarze Kugel zu ziehen? b) Es wurde eine schwarze Kugel gezogen: Wie groß ist die Wahrscheinlichkeit, daß sie aus Urne U j (bzw. U 2 bzw. U 3 ) stammt? 10. Ein Labortest zur Erkennung einer Krankheit K, an der 5% einer bestimmten Bevölkerung leiden, besitze die folgende Wirkungsweise: Hat eine Person die Krankheit K, so zeigt der Test diese mit Wahrscheinlichkeit 0.96 auch an; hat eine Person die Krankheit K nicht, so zeigt der Test K immerhin noch
Kapitel 1: Grundlagen
29
mit Wahrscheinlichkeit 0.16 an. Man berechne die Wahrscheinlichkeit dafür, daß eine zufällig aus der Bevölkerung gewählte Person a) an der Krankheit K leidet, obwohl der Test „nicht K" indizierte b) an der Krankheit K nicht leidet, obwohl der Test K indizierte 11. Die Wahrscheinlichkeit dafür, daß in einem gewissen Werk ein Erzeugnis der Norm genügt, sei gleich 0.90. Ein Prüfverfahren ist so angelegt, daß es für ein der Norm genügendes Stück das Resultat „normgerecht" mit einer Wahrscheinlichkeit von 0.95 anzeigt. Für ein Stück, das der Norm nicht genügt, zeigt das Prüfverfahren das Resultat „normgerecht" immerhin noch mit einer Wahrscheinlichkeit von 0.10 an. a) Wie groß ist die Wahrscheinlichkeit dafür, daß ein unter diesem Prüfverfahren für normgerecht befundenes Stück auch tatsächlich die Norm erfüllt? b) Wie groß ist diese Wahrscheinlichkeit, wenn das Prüfverfahren für dasselbe Stück zweimal unabhängig voneinander das Ergebnis „normgerecht" angezeigt hat? 12. Bei einem Würfelspiel mit zwei Würfeln betrachten wir die Ereignisse A: erster Würfel zeigt eine gerade Zahl B: zweiter Würfel zeigt eine ungerade Zahl C: die Summe der beiden Augenzahlen ist gerade. Man zeige, daß je zwei der drei Ereignisse voneinander unabhängig, alle drei Ereignisse aber voneinander abhängig sind.
Kapitel 2 Wahrscheinlichkeitsverteilungen 2.1 Zufallsgrößen In v i e l e n F ä l l e n i n t e r e s s i e r t m a n sich b e i e i n e m Z u f a l l s e x p e r i m e n t nicht f ü r die e i n z e l n e n E r g e b n i s s e s e l b s t , s o n d e r n f ü r gewisse M e r k m a l e X , Y , ... d i e s e r E r g e b n i s s e . W i r b e t r a c h t e n z u n ä c h s t d e n Fall, d a ß n u r ein M e r k m a l X v o n I n t e r e s s e ist. J e d e m E r g e b n i s to w i r d s e i n e A u s p r ä g u n g b e z ü g l i c h X z u g e o r d n e t ; wir bez e i c h n e n sie mit X (u>). D a s M e r k m a l X k a n n d a h e r als e i n e A b b i l d u n g d e r E r g e b n i s m e n g e Q a u f g e f a ß t w e r d e n . D e r a r t i g e A b b i l d u n g e n w e r d e n a l l g e m e i n Zufallsgrößen g e n a n n t . D i e W e r t e ( A u s p r ä g u n g e n ) d e r Z u f a l l s g r ö ß e X w e r d e n mit x b e z e i c h n e t , x = X (co). D e n W e r t , d e n X bei d e r D u r c h f ü h r u n g d e s Z u f a l l s e x p e r i m e n t e s a n n i m m t , n e n n t m a n die Realisation v o n X . W e l c h e r d e r m ö g l i c h e n W e r t e v o n X sich r e a l i s i e r e n w i r d , ist v o r d e r D u r c h f ü h r u n g d e s E x p e r i m e n t e s ungewiß. D e r Wertebereich (die M e n g e der möglichen W e r t e ) einer Zufallsgröße m u ß v o n Fall zu Fall f e s t g e l e g t w e r d e n . B e s t e h t e r a u s r e e l l e n Z a h l e n , so s p r i c h t m a n v o n e i n e r Zufalls variablen.
Beispiel 2.1 Beim Werfen eines Würfels möge nur von Interesse sein, ob eine gerade oder ungerade Augenzahl fällt. Das Merkmal X besitzt die beiden Ausprägungen „gerade" und „ungerade", ist also eine Zufallsgröße, die Q = {1, 2, 3, 4, 5, 6} auf den Wertebereich {gerade, ungerade} abbildet. Oft werden solche qualitativen Ausprägungen mehr oder weniger künstlich durch Zahlen symbolisiert. So könnte man hier „gerade" durch „0" und „ungerade" durch „1" ausdrücken. Dann wird X zu einer Zufallsvariablen mit dem Wertebereich {0, 1} und Q wird folgendermaßen abgebildet: X (1) = 1, X (2) = 0, X (3) = 1, X (4) = 0, X (5) = 1 und X (6) = 0. In der ursprünglichen Ergebnismenge sind nur noch die beiden Ereignisse A = {1, 3,5} und Ä = {2,4,6} wichtig: Auf A nimmt X den Wert 1, auf A d e n Wert 0 an. Für die Wahrscheinlichkeit, daß X den Wert Oanimmt, wir schreiben dafür P (X = 0), gilt: P ( X = 0) = P (Ä) = 0.5. Entsprechend ist P (X = 1) = P (A) = 0.5.
Beispiel 2.2 Beim Werfen zweier Würfel möge nur die Summe der erzielten Augen eine Rolle spielen. Das Merkmal X besitzt die 11 Ausprägungen 2, 3, ..., 12. Diese Zufallsvariable ordnet einem Ergebnis o = (i, j) den Wert i + j zu, läßt sich also für jedes der 36 Ergebnisse darstellen als X (w) = X ((i, j)) = i + j.
Beispiel 2.3 Aus einer Urne mit N Kugeln, darunter M schwarzen, werden ohne Zurücklegen n Kugeln zufällig entnommen. Dabei sei nur das Merkmal X = „Anzahl der schwarzen unter den n gezogenen Kugeln" von Interesse. Wir nehmen an, daß n £ M und n S N - M ist.Dann kann die Zufallsvariable X die Werte 0, 1, ..., n annehmen. Die ursprüngliche Ergebnismenge Q - sie besitzt Elemente, vgl. Beispiel 1.3-wird durch X auf die wesentlich übersichtlichere Menge {0, 1, ..., n} abgebildet. Auf dieses Beispiel gehen wir in Abschnitt 3.1 näher ein.
32
Kapitel 2:
Wahrscheinlichkeitsverteilungen
2.1.1 Skalierungen Man unterscheidet qualitative und quantitative Merkmale. Ein Merkmal wird quantitativ genannt, wenn seine Ausprägungen Zahlen sind. Solche Merkmale sind etwa das Alter oder die Körperlänge einer Person, der Umsatz eines Betriebes oder die Einwohnerzahl einer Gemeinde. Die Ausprägungen quantitativer Merkmale werden durch Messen oder Zählen festgestellt. Ein Merkmal heißt qualitativ, wenn es nicht quantitativ ist. Beispiele dafür sind das Geschlecht, der Familienstand oder die Religionszugehörigkeit. Die Ausprägungen qualitativer Merkmale werden durch verbale Ausdrücke beschrieben. (Geschlecht: männlich, weiblich. Familienstand: ledig, verheiratet, verwitwet, geschieden.) Oft werden diese Ausprägungen aber auch durch Zahlen ausgedrückt; man spricht dann von einer Quantifizierung. Dadurch wird ein qualitatives Merkmal formal zu einem quantitativen. Bekannte Beispiele dafür sind die Bewertung der Leistung eines Schülers durch die Schulnoten oder die „Messung" der Intelligenz durch einen Intelligenzquotienten. Bei einer Quantifizierung werden die Zahlen mehr oder weniger willkürlich benutzt; nicht alle Eigenschaften der reellen Zahlen lassen sich dabei auf die Ausprägungen eines ursprünglich qualitativen Merkmals mit übertragen. (Es ist zum Beispiel sinnlos, einen Studenten mit der Statistik-Note 3 für „dreimal schlechter" im Fach Statistik zu halten als einen Studenten mit der Statistik-Note 1.) Je nachdem, welche Eigenschaften der reellen Zahlen innerhalb der Ausprägungen quantifizierter Merkmale Gültigkeit haben, unterscheidet man verschiedene Skalenarten. Die drei wichtigsten werden im folgenden kurz erläutert. In einer Nominalskala werden die Ausprägungen des betreffenden Merkmals durch die zugeordneten Zahlen nur unterschieden, die Zahlen dienen lediglich dem Zweck einer abkürzenden Bezeichnung, sie können willkürlich durch andere (ihnen eindeutig zugeordnete) Zahlen ersetzt werden. Keine der für reelle Zahlen typischen Relationen (Ordnungsrelation zwischen Zahlen wie „größer" oder „kleiner", Abstand zweier Zahlen, usw.) hat für die Ausprägungen des Merkmals einen Sinn. Beispiel: Dem Merkmal „Familienstand" werden als Ausprägungen die Zahlen 0 = ledig, 1 = verheiratet, 2 = verwitwet und 3 = geschieden zugeordnet. Ist für die Ausprägungen eines Merkmals eine bestimmte Rangordnung (Reihenfolge) typisch, so quantifiziert man es durch eine Ordinalskala oder Rangskala: Die den Ausprägungen zugeordneten Zahlen geben die zugrunde liegende Rangordnung an. Die Größer- bzw. Kleiner-Beziehung zwischen zwei Zahlen wird benutzt, um die Reihenfolge der Ausprägungen auszudrücken. Weitere Eigenschaften der rellen Zahlen, insbesondere der Abstand zwischen zwei Zahlen, haben für die Skala keine Bedeutung. Daher können die den Ausprägungen zugeordneten Zahlen willkürlich durch eine ordnungserhaltende Abbildung (monotone Transformation) in andere Zahlen transformiert werden. Beispiel: Dem Merkmal „Leistung eines Studenten im Fach Statistik" werden als Ausprägungen die Zahlen 1 = Sehr gut, 2 = Gut, 3 = Befriedigend, 4 = Genügend und 5 = Ungenügend zugeordnet. Die Rangordnung lautet: 1 ist besser als 2 ist besser als 3 usw. (Ebensogut hätte man als „Noten" auch 2 = Sehr gut, 1 = Gut, 0 = Befriedigend, — 1 = Genügend und —2 = Ungenügend verwenden können, mit der Rangordnung 2 ist besser als 1 ist besser als 0 usw.) Eine Kardinalskala oder metrische Skala liegt vor, wenn neben der GrößerKleiner-Beziehung auch der Abstand zweier Zahlen für die Ausprägungen des
33
Kapitel 2: Wahrscheinlichkeitsverteilungen
Merkmals Bedeutung hat. Typische Beispiele metrisch skalierter Merkmale sind physikalische G r ö ß e n (Länge, Gewicht, Leistung) und monetäre oder mengenmäßige Größen aus dem Wirtschaftsbereich (Umsätze, Einkommen, Ernteerträge, Stückzahlen). Viele Verfahren der Statistik sind nur auf Merkmale mit metrischen Skalen anwendbar. In diesem und im folgenden Kapitel betrachten wir quantitative Merkmale und fassen sie als reellwertige Zufallsgrößen (Zufallsvariablen) zu einem gegebenen Zufallsexperiment auf. Auf Skalierungsfragen gehen wir nur an besonders wichtigen Stellen ein.
2.1.2 Wahrscheinlichkeitsverteilungen Zu einem Zufallsexperiment mit der Ergebnismenge Q betrachten wir eine Z u fallsvariable X. Sie bildet Q in die Menge R der reellen Zahlen ab, jedem w E Q wird eindeutig eine reelle Zahl X (co) zugeordnet. Wir geben uns eine feste reelle Zahl x vor und betrachten das Ereignis, daß X diesen Wert x annimmt, Schreibweise: „X = x". Dieses Ereignis tritt genau dann ein, wenn sich bei der Durchführung des Zufallsexperimentes ein Ergebnis to einstellt mit X(co) = x. Diese Ergebnisse werden zusammengefaßt zu der Menge {co: X (co) = x}. Bezeichnen wir mit P (X = x) die Wahrscheinlichkeit dafür, daß X den Wert x annimmt, so gilt: (2.1)
P (X = x) = P ({to: X (co) = x})
Beispiel 2.4 Wir bestimmen P ( X = x) für die 11 möglichen Werte der Zufallsvariablen X = „Summe der erzielten A u g e n beim W e r f e n zweier Würfel" aus Beispiel 2.2. D i e Ergebnismenge Q besteht aus 36 gleichwahrscheinlichen Ergebnissen co = (i, j); 1 = i, j = 6. Nach (2.1) erhalten wir: P ( X = 2) = P ( { ( 1 , 1 ) } ) = P ( X = 3)
1
=P({(1,2),(2,1)})=1
P ( X = 4) = P ( { ( 1 , 3 ) , ( 2 , 2 ) , ( 3 , 1 ) } ) =
1
E b e n s o erhält man, wie man leicht nachprüfen kann: P(X = 5 ) = 1 , P(X = 1 0 ) = ^ ,
P(X = 6 ) = A , P(X=11)=A
P
(X = 7 ) = | . und
P(X = 8 ) = A ,
P ( X = 12) =
P(X =
9
) = ± ,
1 .
D i e Wahrscheinlichkeiten kann man in einem Stabdiagramm (vgl. Abbildung 5) graphisch darstellen.
Allgemein sind Ereignisse der Form „ X G B " von Interesse, wobei B ein Bereich (eine Teilmenge) reeller Zahlen bedeutet. Als solche Bereiche k o m m e n in Betracht: alle abgeschlossenen, halboffenen oder offenen (endlichen oder unendlichen) Intervalle und alle Mengen, die sich daraus durch Komplementbildung und abzählbare Durchschnitts- und Vereinigungsbildung ergeben. Speziell befinden sich darunter auch alle einpunktigen Mengen. ( D a ß nicht alle Teilmen-
34
Kapitel 2: Wahrscheinlichkeitsverteilungen h
P (X = x)
10
Abb. 5
11
12
Stabdiagramm der Wahrscheinlichkeiten für die Zufallsvariable X = „Summe der erzielten Augen beim Werfen zweier Würfel"
gen von R zugelassen sind, ist f ü r praktische Fälle unproblematisch; vgl. dazu die B e m e r k u n g e n am E n d e von 1.2). Mit „ X E B " ist das Ereignis gemeint, daß X einen Wert innerhalb des Bereiches B annimmt. Es tritt genau dann ein, wenn sich ein Ergebnis co mit X(co)EB einstellt; das Ereignis X E B ist identisch mit {co: X ( r a ) e B } . Für seine Wahrscheinlichkeit P ( X E B ) gilt also: (2.2)
P ( X E B ) = P({co: X ( w ) G B } )
Ist B speziell ein abgeschlossenes Intervall [a, b], so schreiben wir P (a = X S b) an Stelle von P ( X E [ a , b]). Entsprechendes soll f ü r halboffene und offene Intervalle gelten. Für eine einpunktige Menge B = {x} fällt „ X E B " mit „X = x" zus a m m e n , (2.2) geht in (2.1) über. U n t e r der Wahrscheinlichkeitsverteilung oder kurz Verteilung von X versteht man die Zuordnung der Wahrscheinlichkeiten P ( X E B ) ZU jedem der oben erwähnten Bereiche B. Man kann zeigen, daß es zur Festlegung einer Verteilung genügt, die Wahrscheinlichkeiten P ( X E B ) f ü r alle Intervalle B eines Typs (abgeschlossene oder halboffene oder offene) anzugeben. Trotz dieser Vereinfachung ist die A n g a b e der Verteilung in dieser Form unanschaulich und unhandlich. Wie man die Verteilung einer Zufallsvariablen auf anschauliche und für den rechnerischen Umgang zweckmäßige Weise angibt, lernen wir in den Abschnitten 2 . 2 , 2 . 3 und 2.4 kennen. Ein Beispiel für eine anschauliche Darstellung einer Verteilung liegt in Abbildung 5 vor. 2.1.3 Unabhängige Zufallsvariablen Wir betrachten zwei Zufallsvariablen X und Y und zwei Bereiche A und B innerhalb der reellen Zahlen. Mit P ( X E A, Y E B ) bezeichnet man die Wahrscheinlichkeit d a f ü r , daß X einen Wert in A und Y einen Wert in B annimmt: P ( X E A , Y E B ) = P ( X E A M/id Y E B ) . Entsprechendes gilt f ü r mehr als zwei Zufallsvariablen. In Anlehnung an die Unabhängigkeit zweier Ereignisse definiert man:
K a p i t e l 2:
35
Wahrscheinlichkeitsverteilungen
X und Y heißen unabhängig, wenn für alle (zugelassenen) Bereiche A und B gilt: (2.3)
P (XGA, YGB) = P (XGA) P (YEB)
Entsprechend werden n Zufallsvariablen X 1 ; X 2 , ..., X n unabhängig genannt, wenn für alle (zugelassenen) Bereiche B l 5 B 2 , ..., B n reeller Zahlen gilt: (2.4)
P (X,eB„ X2GB2,...,XnEBn) = P (X,6B,) P (X2EB2)--P (XnEBn)
Diese Definition wird meist auf folgende Weise benutzt: Wenn man aufgrund Versuchsanordnung annehmen kann, daß sich die X , , . . . , X n gegenseitig nicht einflussen, darf man (2.4) im Sinne einer Multiplikationsregel anwenden, d.h. den einzelnen Wahrscheinlichkeiten P(X;GBi) die Wahrscheinlichkeit auf linken Seite von (2.4) berechnen.
der beaus der
Beispiel 2.5 Z w e i W ü r f e l w e r d e n n mal n a c h e i n a n d e r g e w o r f e n . Mit Xj b e z e i c h n e n wir die S u m m e d e r b e i d e n A u g e n z a h l e n im i-ten W u r f , i = 1, . . . , n. A u f g r u n d der V e r s u c h s a n o r d n u n g ist eine gegenseitige B e e i n f l u s s u n g d e r X , , ..., X„ a u s g e s c h l o s s e n . D a h e r d ü r f e n wir (2.4) a n w e n d e n . W i r i n t e r e s s i e r e n u n s f ü r das E r e i g n i s A , d a ß u n t e r den n W ü r f e n m i n d e s t e n s e i n m a l eine A u g e n s u m m c g r ö ß e r als 9 erzielt wird. W i e g r o ß ist seine W a h r s c h e i n l i c h k e i t ? N a c h Beispiel 2.4 gilt f ü r j e d e s i: P ( X j > 9 ) = P ( X j = 1(1) + P ( X , = 11) + P ( X | = 12) = P (Ä) = P ( X , = 9 . X : £ 9 . . . . , X„£9)
=
( ^ )"
6
und damit
A l s o ist P(A) = 1 - P ( Ä ) =
M^)"-
2.2 Diskrete Verteilungen Eine Zufallsvariable heißt diskret, wenn sie nur cndlich oder abzählbar unendlich viele verschiedene Werte annehmen kann. Im letzteren Fall wird vorausgesetzt, daß die Werte nirgendwo beliebig nahe beieinander liegen. Auch die Verteilung einer solchen Zufallsvariablen nennt man diskret. Die Menge aller Werte, die eine diskrete Zufallsvariable X annehmen kann, wird der Träger von X bzw. der Träger der Verteilung von X genannt und soll mit D = D (X) bezeichnet werden. (2.5)
D = D ( X ) = {x 0}
Es gilt also: (2.6)
P(XGD)=
2 P (X=x) = 1
Bei einer diskreten Zufallsvariablen X mit dem Träger D nennt man die Funktion f, die jedem x G D die Wahrscheinlichkeit P ( X = x ) zuordnet, die Wahrscheinlichkeitsfunktion von X bzw. von der Verteilung von X: (2.7)
f (x) = P ( X = x )
für alle x G D
36
Kapitel 2: Wahrscheinlichkeitsverteilungen
Sie beschreibt die Verteilung von X eindeutig und vollständig; für jeden Bereich B reeller Zahlen gilt nämlich: P ( X G B ) = e 2 f(x). Eine diskrete Verteilung wird durch ihre Wahrscheinlichkeitsfunktion und läßt sich durch ein Stabdiagramm veranschaulichen.
angegeben
Beispiel 2.6 D i e Zufallsvariable X = „ S u m m e der erzielten A u g e n beim W e r f e n zweier W ü r f e l " (vgl. Beispiel 2.4) ist eine diskrete Zufallsgröße mit d e m T r ä g e r D = {2, 3, ..., 12}. Die W a h r scheinlichkeiten P ( X = x ) w u r d e n bereits in Beispiel 2.4 a n g e g e b e n . Die Wahrscheinlichkeitsfunktion f (x) = P ( X = x ) wird hier durch ihre Wertetabelle angegeben: X
f(x)
2
3
4
5
6
7
8
9
10
11
1
2
3
4
5
6
5
4
3
2
1
36
36
36
36
36
36
36
36
36
36
36
Als „geschlossener A u s d r u c k " lautet sie: f (x) = zeigt d a s dazugehörige S t a b d i a g r a m m .
—
12
f ü r alle x £ D . A b b i l d u n g 5
Beispiel 2.7: D i e Null-Eins-Verteilung O f t interessiert man sich bei e i n e m Zufallsexperiment mit der E r g e b n i s m e n g e Q nur d a f ü r , ob ein bestimmtes Ereignis A C Q eintritt o d e r nicht, wobei p = P ( A ) gegeben ist. Diese Situation wird durch die Zufallsvariable f 1
falls ü)GA
X((o) = falls w C A beschrieben. Sie ist eine diskrete Zufallsvariable mit d e m T r ä g e r D = {0, 1}. Es gilt: P ( X = 1 ) = P({w:X(co) = 1}) = P ( A ) = p und P ( X = 0 ) = P ( Ä ) = 1 - p . Die Wahrscheinlichkeitsfunktion lautet f(x) = P ( X = x ) =
f l - p \ (p
fürx=0 fürx=l
Die Verteilung heißt Null-Eins-Verteilung; X wird auch Null-Eins-Variable oder Indikatorvariable von A g e n a n n t . Beispiel 2.8: D i e geometrische Verteilung W i e d e r sei bei einem Zufallsexperiment nur ein bestimmtes Ereignis A von Interesse, das mit d e r Wahrscheinlichkeit p = P ( A ) eintritt (0 < p < 1). D a s E i n t r e t e n von A wird als Erfolg a u f g e f a ß t . D a s E x p e r i m e n t wird unabhängig v o n e i n a n d e r so oft wiederholt, bis zum ers t e n m a l ein Erfolg eintritt. D i e Zufallsvariable X sei die Anzahl der Versuche bis zum ersten Erfolg (einschließlich des letzten Versuches, bei dem A eintritt). X ist eine diskrete Zufallsvariable; sie k a n n die abzählbar unendlich vielen W e r t e 1 , 2 , 3 , ... a n n e h m e n ; ihr T r ä g e r ist D = { 1 , 2 , 3 , . . . } . Sei A x das Ereignis, daß beim x-ten Versuch A eintritt. D a es sich um Wied e r h o l u n g e n desselben E x p e r i m e n t e s handelt, ist P (A x ) = p und P (A x ) = 1 —p f ü r alle x. D a s Ereignis „ X = x " ist identisch mit dem Ereignis Ä ! n Ä 2 n ... H Ä ^ H A x . Wegen der U n abhängigkeit d e r Versuche e r h a l t e n wir daraus f ü r die Wahrscheinlichkeitsfunktion von X: f (x) = P ( X = x ) = (1 - p ) " - ' • p
f ü r alle x 6 D
Diese Verteilung heißt geometrische Verteilung. (Die Wahrscheinlichkeiten P ( X = x ) bilden nämlich f ü r x = 1, 2, ... eine geometrische Folge.) D a s dazugehörige S t a b d i a g r a m m ist f ü r das Beispiel p = 1/4 in A b b i l d u n g 6 dargestellt.
37
Kapitel 2: Wahrscheinlichkeitsverteilungen P (X = x)
0.25 .
I I II II I I • • . 0 Abb. 6
1
2
3
4
5
6
7
8
9
10...
x
S t a b d i a g r a m m der geometrischen Verteilung (p
2.3 Stetige Verteilungen D e n zweiten wichtigen T y p von Zufallsvariablen bilden die stetigen. Eine solche Zufallsvariable kann j e d e n W e r t innerhalb eines (endlichen oder unendlichen) Zahlenintervalles a n n e h m e n . Beispiele d a f ü r sind etwa: die Wartezeit vor einem Bedienungsschalter, die L e b e n s d a u e r eines Produktes, die Strömungsgeschwindigkeit eines Flusses usw. Die Verteilung einer derartigen Zufallsvariablen X k a n n nicht m e h r durch die Wahrscheinlichkeiten P ( X = x ) bestimmt w e r d e n , wie es bei diskreten Variablen der Fall war; wesentlich sind nun die Wahrscheinlichkeiten P ( a ^ X = b ) , wobei [a, b] ein beliebiges Intervall innerhalb d e s W e r t e b e reichs von X ist. Diese Wahrscheinlichkeiten werden f ü r stetige Zufallsvariablen durch eine sogenannte D i c h t e f u n k t i o n festgelegt. Wir definieren: Eine Zufallsvariable X heißt stetig, wenn es eine (integrierbare, nichtnegative) Funktion f (x) gibt mit der Eigenschaft (2.8)
P ( a = X ^ b ) = f f (x) dx
für jedes Intervall [a, bj. Auch die Verteilung einer stetigen Zufallsvariablen nennt man stetig. Die Funktion f (x) heißt die D i c h t e f u n k t i o n oder kurz die Dichte von X (bzw. von der Verteilung von X). Sie beschreibt die Verteilung eindeutig und vollständig. Die Beziehung (2.8) läßt sich aufgrund des Integralbegriffs folg e n d e r m a ß e n veranschaulichen (vgl. Abbildung 7): Die Wahrscheinlichkeit dafür, d a ß X zwischen a und b liegt, ist gleich der Fläche unterhalb der D i c h t e f u n k tion (und oberhalb der x-Achse) zwischen den G r e n z e n a und b. Dabei spielt es keine Rolle, ob die G r e n z e n mitgerechnet werden oder nicht, das heißt: P (aSX^b) = P (a=X 0). Die Verteilung von X (als „Mischung" aus Stabdiagramm und Dichte bzw. als Verteilungsfunktion F(x)) ist in A b b i l d u n g 11 dargestellt. Die Verteilungsfunktion besitzt an der Stelle x = 0 einen Sprung und verläuft sonst überall stetig. Die Verteilung von X ist „teilweise disk r e t " und „teilweise stetig". Solche Mischformen aus diskreten u n d stetigen Verteilungen treten durchaus in der Praxis auf, z.B. bei der Analyse von Warteschlangenproblemen. Sie lassen sich b e h a n d e l n , indem man ihren diskreten bzw. stetigen Bestandteil einzeln analysiert. (Es gibt jedoch auch Verteilungen, die w e d e r diskret noch stetig noch Mischformen der beschriebenen Art sind.) Auf derartige Verteilungen gehen wir im folgenden nicht ein: Wir setzen stets voraus, d a ß die Verteilung einer Zufallsvariablen e n t w e d e r diskret o d e r stetig ist.
44
Kapitel 2:
Wahrscheinlichkeitsverteilungen
T 1
3 \
0
4
4
x
b) Verteilungsfunktion
a) Stabdiagramm / Dichte A b b . 11
0
x
D a r s t e l l u n g einer w e d e r diskreten n o c h stetigen V e r t e i l u n g
2.6 Lage- und Streuungsparameter Neben den oben erwähnten Parametern einer Verteilung, die unmittelbar in der funktionalen Gestalt der Wahrscheinlichkeitsfunktion bzw. Dichte auftreten, gibt es noch weitere Kennziffern (Parameter), die einer Verteilung zugeordnet sind; sie sollen bestimmte Eigenschaften der Verteilung bzw. der dazugehörigen Zufallsvariablen charakterisieren. Besonders wichtige Eigenschaften sind die Lage und die Streuung einer Verteilung. Ein Lageparameter soll möglichst gut beschreiben, wo die Verteilung auf der x-Achse liegt; er kennzeichnet ein Zentrum der Verteilung. Ein Streuungsparameter soll messen, wie stark die Verteilung von einem solchen Zentrum abweicht. Als Lageparameter lernen wir den Modalwert, den Median, die Quantile und den Erwartungswert kennen, als Streuungsparameter die Varianz und die Standardabweichung. 2.6.1 Der Modalwert (Modus) Die Wahrscheinlichkeitsfunktion oder die Dichte f (x) der Verteilung einer Zufallsvariablen X kann an einer oder mehreren Stellen ein (lokales) Maximum besitzen. Jede solche Stelle wird ein Modalwert (Modus, h) der Verteilung bzw. ein Modalwert von X genannt. Entsprechend der Anzahl ihrer Modalwerte wird eine Verteilung uni-, bi- oder multimodal genannt (vgl. Abbildung 12).
h unimodal Abb. 12
h,
h2
bimodal
h, h2 multimodal
D i c h t e einer u n i m o d a l e n , b i m o d a l e n und m u l t i m o d a l e n Verteilung
h:
45
Kapitel 2: Wahrscheinlichkeitsverteilungen
Es gibt auch Verteilungen ohne Modalwerte, etwa die Gleichverteilung. Als Lageparameter ist der Modalwert nur für unimodale Verteilungen nützlich. E r hat den Vorteil, bei beliebig skalierten Zufallsvariablen verwendet werden zu können. 2.6.2 Der Median Der Median ist nur für ordinal oder metrisch skalierte Zufallsvariablen ein sinnvoller Lageparameter. Ist F (x) die Verteilungsfunktion einer solchen Zufallsvariablen, so wird der Median mit Hilfe der Gleichung F ( x ) = j
definiert. Diese
kann entweder keine oder genau eine oder m e h r e r e (unendlich viele) Lösungen besitzen. Ist Xstetig, so besitzt die Gleichung F ( x ) = i
stets mindestens eine Lösung.
Gibt es genau eine Lösung, wie es etwa für streng monoton wachsende Verteilungsfunktionen der Fall ist, so definiert man: D e r Median (Zentralwert) von X ist diejenige Zahl m auf der x-Achse, für die gilt: (2.18)
F(m)=i
An der Stelle m wird die Fläche unter der Dichte von X halbiert: P ( X ^ m ) = P ( X = m ) = j . Abbildung 13 veranschaulicht diese Definition des Medians.
lungsfunktion
Für nicht streng monoton wachsende Verteilungsfunktionen m u ß der Median nicht mehr eindeutig bestimmt sein: M e h r e r e und zwar unendlich viele Lösungen treten auf, wenn F (x) den Wert ^ auf einem Intervall, dem sogenannten zentra-
46
Kapitel 2: Wahrscheinlichkeitsverteilungen
len Intervall a n n i m m t (vgl. A b b i l d u n g 14). In d i e s e m Fall ist d e r M e d i a n nicht eind e u t i g definiert: J e d e Z a h l m des zentralen Intervalles gilt als M e d i a n von X. F ü r j e d e s dieser m gilt: P ( X ë m ) = P ( X ê m ) = \ .
U m zu e i n e r e i n d e u t i g e n F e s t l e g u n g zu g e l a n g e n , wird o f t d e r M i t t e l p u n k t d e s z e n t r a l e n I n t e r v a l l e s als M e d i a n g e w ä h l t . Ist X diskret, so sind die b e i d e n f o l g e n d e n Fälle möglich: E n t w e d e r ü b e r s p r i n g t 1 1 F ( x ) d e n W e r t ^ o d e r F (x) n i m m t den W e r t ^ an (vgl. A b b i l d u n g 15a u n d b). , F(x)
, F(x) 1-
-
— 1 2
1 2
— m Abb. 15a
x
Der Median m einer diskreten Verteilung
x
zentrales Intervall Abb. 15b
Zentrales Intervall einer diskreten Verteilung
I m e r s t e n Fall gibt es k e i n e L ö s u n g d e r G l e i c h u n g F (x) = ^ ; m a n d e f i n i e r t d e n M e d i a n m v o n X als die Stelle, an welcher d e r W e r t ^ ü b e r s p r u n g e n
wird.
Im
z w e i t e n Fall existiert w i e d e r ein z e n t r a l e s Intervall, i n n e r h a l b d e s s e n j e d e Z a h l m als M e d i a n gilt.
Kapitel 2: Wahrscheinlichkeitsverteilungen
47
2.6.3 Quantile Den Quantilen einer Verteilung liegt der gleiche Konstruktionsgedanke zugrunde wie dem Median; der Median ist ein spezielles Quantil. Strenggenommen hat man zur Definition der Quantile die gleichen Fälle wie in 2.6.2 zu unterscheiden. Darauf wollen wir hier verzichten und nur einen besonders wichtigen Fall behandeln: Wir setzen voraus, daß X eine stetige Zufallsvariable ist, deren Verteilungsfunktion F (x) zwischen ihren Werten 0 und 1 streng monoton wachsend verläuft. Dann ist für jede Zahl a mit 0 < a < l die Gleichung F ( x ) = a eindeutig lösbar (vgl. Abbildung 16) und wir können definieren:
A b b . 16
D a s a-Quantil q a einer stetigen Verteilung mit streng monoton wachsender Verteilungsfunktion
Unter dem a-Quantil der Verteilung von X versteht man diejenige Zahl q a auf der x-Achse, für die gilt: (2.19)
F(qa) = a
An der Stelle q a wird die Fläche unter der Dichte von X in zwei Teilflächen geteilt so, daß P ( X ^ q a ) = a und P ( X ^ q J = 1 - a ist (vgl. Abbildung 16). Für den Median m gilt: m = q1/2. 2.6.4 Der Erwartungswert Der Erwartungswert ist der weitaus wichtigste und am häufigsten verwendete Lageparameter. Er ist allerdings nur für metrisch skalierte Zufallsvariablen sinnvoll , eine Einschränkung, die oft nicht beachtet wird. Wir bezeichnen den Erwartungswert oder Mittelwert einer Zufallsvariablen X mit E X oder E (X) oder kurz mit ja. Zu seiner Definition unterscheiden wir den diskreten und stetigen Fall. Ist X eine diskrete Zufallsvariable mit dem Träger D und der Wahrscheinlichkeitsfunktion f (x) = P ( X = x ) für xGD, so ist ihr Erwartungswert definiert als (2.20)
EX =
2 x-f(x)
48
Kapitel 2: Wahrscheinlichkeitsverteilungen
Ist X eine stetige Zufallsvariable mit der Dichte f (x), so ist ihr Erwartungswert definiert als (2.21) Anmerkung: Enthält D abzählbar unendlich viele x-Werte, so setzen wir voraus, daß die unendliche R e i h e in (2.20) unabhängig von der Reihenfolge, in der summiert wird, denselben endlichen Wert liefert. Anderenfalls ist E X nicht definiert. n +oo In (2.21) ist vorauszusetzen, daß die beiden Integrale / x f ( x ) d x und / x f ( x ) d x , -00
0
deren Summe gleich E X ist, jeweils einen endlichen Wert besitzen. Anderenfalls gilt E X als nicht definiert. (Zufallsvariablen mit nicht definiertem Erwartungswert klammern wir aus unseren Betrachtungen aus.) Interpretationen 1) Es gibt eine Analogie zwischen der Verteilung einer Zufallsvariablen X und der Verteilung einer Masse mit dem Gesamtgewicht 1 auf einer Geraden (der xAchse): Einer diskreten Verteilung mit dem Träger D und der Wahrscheinlichkeitsfunktion f (x) entspricht eine Verteilung von Einzelmassen in den Punkten x E D mit den Gewichten f (x), einer stetigen Zufallsvariablen mit der Dichte f (x) entspricht eine stetige Massenverteilung mit der Massendichte f (x). Stellt man sich dabei die x-Achse als Waagebalken vor, so ruht sie gerade dann im Gleichgewicht, wenn sie im Punkt ^ = E X unterstützt wird. D e r Erwartungswert ist interpretierbar als Gleichgewichtspunkt oder Schwerpunkt der Verteilung. 2) Das Zufallsexperiment, zu dem X eine Zufallsvariable ist, möge n mal unabhängig voneinander durchgeführt werden, so daß n Werte von X beobachtet werden; wir bezeichnen sie mit x b ..., x n . Für große n gilt: Mit hoher Wahrscheinlichkeit liegt der Durchschnittswert x = ^ ( x i + ••• + X J nahe bei = E X . (Diese Aussage werden wir später als Gesetz der großen Zahlen präzisieren; vgl. Abschnitt 4.1) D a h e r kann man den Erwartungswert von X als durchschnittlichen Wert der Realisationen von X in einer langen Versuchsreihe auffassen, E X ist der Wert, den man für x auf lange Sicht erwartet. Diese Interpretation von |j. = E X heißt Häufigkeitsinterpretation des Erwartungswertes. Beispiel 2.12 Wir berechnen den E r w a r t u n g s w e r t der diskreten Zufallsvariablen X = „Summe d e r erzielten A u g e n beim W e r f e n zweier Würfel"', vgl. Beispiel 2.6. Sie besitzt den Träger D = {2,3, ..., 12} und die Wahrscheinlichkeitsfunktion
X f(x)
2
3
4
5
6
7
8
9
10
11
1
2
3
4
5
6
5
4
3
2
1
36
36
36
36
36
36
36
36
36
36
36
12
Nach (2.20) erhalten wir: EX = 2- ^ + 3 + ^ + ^ + ^ + + ^ + 9 - ^ + 1 0 • ^ + 11 • ^ 36 36 36 36 36 36 36 36 36 36 1 252 + 1 2 - — = - t t - = 7. Häufigkeitsinterpretation: 36 36
Kapitel 2: Wahrscheinlichkeitsverteilungen
49
f(x)
_6 36
—
1
•
•
0
1
2
3
4
5
6
7
t
8
9
10
1
•
11
12
x
EX Abb. 17
Wahrscheinlichkeitsfunktion und Erwartungswert von X = „ S u m m e d e r A u g e n beim W e r f e n zweier W ü r f e l " . E X ist als Schwerpunkt e r k e n n b a r .
W e r d e n die beiden Würfel n mal geworfen und ist X; die beim i-ten Wurf erzielte S u m m e der beiden Augenzahlen (i = 1 , . . . , n), so gilt f ü r große n: x = - (x! + ... + x„) = 7 bzw. die n G e s a m t s u m m e aller A u g e n z a h l e n ist etwa gleich 7 n.
Beispiel 2.13: Der Erwartungswert der Null-Eins-Verteilung Besitzt die Zufallsvariable X die Null-Eins-Verteilung mit d e m P a r a m e t e r p (vgl. Beispiel 2.7), so erhalten wir f ü r ihren E r w a r t u n g s w e r t : E X = 0 • ( 1 - p ) + 1 • p = p.
Beispiel 2.14: Der Erwartungswert der Gleichverteilung Eine auf d e m Intervall [ a , ß] gleichverteilte Zufallsvariable X besitzt die Dichte füraSxSß ß-a 0 sonst (vgl. Beispiel 2.9). Ihr E r w a r t u n g s w e r t ergibt sich nach (2.21) als ß 7 ,, , . , 1 EX = / xf(x)dx = f x — C Y
, 1 dx = —
,ß2 < (ß-a) (ß+a) (- - - )= 2 ( ß _ a / >
, a+ß c v also E X = —
er fällt mit dem Mittelpunkt des Intervalles [a, ß] z u s a m m e n .
Beispiel 2.15: Der Erwartungswert der geometrischen Verteilung Dieses Beispiel ist mathematisch etwas anspruchsvoller. Z u n ä c h s t eine allgemeine Vorbemerkung: Ist X eine diskrete Zufallsvariable mit dem Träger D = = {0, 1 , 2 , ...} o d e r D = { 1 , 2 , ...}, der Wahrscheinlichkeitsfunktion f (x) und der Verteilungsfunktion F (x), so gilt f ü r ihren Erwartungswert (2.22)
EX=
2 Jl-F(x)]
50
Kapitel 2:
Wahrscheinlichkeitsverteilungen
Z u m Beweis ist die Übereinstimmung von (2.22) mit (2.20) zu zeigen. W e g e n 1 —F ( x ) = 1 - P (X=x) = P(X>x)gilt: 1 - F ( 0 ) = P ( X > 0 ) = f ( 1 ) + f ( 2 ) + f ( 3 ) + f ( 4 ) + ... l - F ( l ) = P(X>1) = f ( 2 ) + f ( 3 ) + f ( 4 ) + ... 1 —F(2) = P ( X > 2 ) = f(3) + f(4) +... 1 —F ( 3 ) = P ( X > 3 ) = usw.
f ( 4 ) + ...
A d d i t i o n auf beiden Seiten liefert: 2
x—0
[1 — F ( x ) l = f ( 1 ) + 2 f ( 2 ) + 3 f ( 3 ) + 4 f ( 4 ) + ... =
2
x=l
xf(x)=
Z x f ( x ) = EX
xED
Ist nun X eine geometrisch verteilte Zufallsgröße (vgl. Beispiel 2.8), so ist 1—F ( x ) = = P ( X > x ) = ( l - p ) x ; denn das Ereignis „ X > x " tritt genau dann ein, wenn mindestens x mal hintereinander A eintritt. N a c h (2.22) erhalten wir daraus mit H i l f e der Summenformel für unendliche geometrische R e i h e n EX=
2
(l-p)"=-i
x=0V
1
1
1-(1-P)
r = "
P
A u f lange Sicht erwartet man, daß durchschnittlich - Versuche benötigt werden, bis zum erstenmal das Ereignis A eintritt, wenn P ( A ) = p ist.
Abschließend notieren wir die wichtigsten R e g e l n , die bei der Berechnung von Erwartungswerten eine R o l l e spielen. Ist g ( x ) eine reellwertige Funktion, so ist mit X auch Y = g ( X ) eine Zufallsvariable. Ihr Erwartungswert läßt sich allein mit Hilfe der Verteilung von X berechnen. Es gilt nämlich, wenn f ( x ) die Wahrscheinlichkeitsfunktion bzw. die Dichte von X ist:
(I (2.23)
E Y = Eg ( X ) =
x£D
¡(x)f(x)
falls X diskret
| x+ » 1
l
ft| ( x ) f ( x ) d x
falls X stetig
Beispielsweise erhalten wir für g ( x ) = x 2 den Erwartungswert von X 2 in der Form E ( X 2 ) =
2
xED
x2f(x)
bzw.
E(X2) =
+
f x2f(x)dx.
- x
Ist insbesondere
Y = a X + b , so ergibt sich mit Hilfe von (2.23): (2.24)
E ( a X + b ) = aEX + b
D i e nächste R e g e l betrifft symmetrische Verteilungen: Eine Verteilung mit der Wahrscheinlichkeitsfunktion bzw. Dichte f ( x ) heißt symmetrisch um den Punkt c, wenn für alle x gilt: f ( c — x ) = f ( c + x ) , vgl. Abbildung 18. Es gilt: (2.25)
Eine um den Punkt c symmetrische Verteilung besitzt den Erwartungswert c
D e r Beweis dazu folgt unmittelbar aus der Definition des Erwartungswertes (vgl. A u f g a b e 18 mit ihrer Lösung im A n h a n g ) . Etwas mehr Vorbereitungen braucht man zum Beweis der beiden folgenden R e g e l n .
51
Kapitel 2: Wahrscheinlichkeitsverteilungen
Abb. 18
Wahrscheinlichkeitsfunktion bzw. Dichte zweier um den Punkt c symmetrischer Verteilungen
(2.26)
Für zwei beliebige Zufallsvariablen X und Y gilt E (X+Y) = EX + EY
(2.27)
Für zwei unabhängige Zufallsvariablen X und Y gilt E (X-Y) = E X • E Y
Die beiden letzten Regeln lassen sich natürlich auf mehr als zwei Zufallsvariablen verallgemeinern. Die in (2.24) und (2.26) festgestellten Eigenschaften werden zusammen als Linearität des Erwartungswertes bezeichnet. 2.6.5 Ergänzende Bemerkungen zu den Lageparametern 1) Die oben erwähnten Lageparameter können ebensogut der Zufallsvariablen wie auch der dazugehörigen Verteilung zugeordnet werden; sie hängen nur von der Verteilung der Zufallsvariablen ab. Statt vom Erwartungswert von X spricht man daher auch vom Erwartungswert der betreffenden Verteilung, analog für die übrigen Lageparameter. Dieser Sachverhalt trifft generell f ü r alle in der Wahrscheinlichkeitsrechnung auftretenden Parameter zu. 2) Wir haben bereits darauf hingewiesen, welche A n f o r d e r u n g e n zur Verwendung der verschiedenen Lageparameter an die Art der Skalierung der betreffenden Zufallsvariablen gestellt werden. Eine Zusammenfassung davon gibt der folgende Überblick: ^""""^-^Lageparameter Modalwert Skalenart
Median und andere Quantile
Erwartungswert
nominal
+
-
-
ordinal
+
+
-
metrisch
+
+
+
Dabei bedeutet „ + ": sinnvoll und „—": nicht sinnvoll. 3) Sei X eine metrisch skalierte Zufallsvariable mit einer unimodalen Verteilung und dem Modalwert h, dem Median m (der eindeutig bestimmt sein möge) und Ist dem Erwartungswert D a n n gelten die folgenden Lageregeln für h, m und die Verteilung rechtssteil (schief nach links, vgl. A b b . 19a), so gilt in der Regel
52
Kapitel 2: Wahrscheinlichkeitsverteilungen
< m < h. Bei einer linkssteilen (nach rechts schiefen) Verteilung gilt meist die umgekehrte Reihenfolge (vgl. Abb. 19c). Für eine symmetrische Verteilung fallen h, m und |x stets zusammen (Abb. 19b).
(i m h a) rechtssteile Verteilung A b b . 19
n=m = h b) symmetrische Verteilung
h m (i c) linkssteile Verteilung
Z u r L a g e r e g e l v o n M o d a l w e r t , M e d i a n und Erwartungswert
4) Wir betrachten zwei Zufallsvariablen X t und X 2 ; Fj (x) bzw. F 2 (x) seien die dazugehörigen Verteilungsfunktionen, die nicht identisch sein sollen. Gilt dann F, (x) = F 2 (X) f ü r alle x, so sagen wir, die Verteilung von X, liegt weiter links als die Verteilung von X 2 ; vgl. dazu Abbildung 20.
Abb. 20
D i c h t e n und V e r t e i l u n g s f u n k t i o n e n zweier V e r t e i l u n g e n , für die gilt: V e r t e i l u n g 1 liegt w e i t e r links als Verteilung 2.
Damit kann man die Eigenschaft eines Parameters, die Lage einer Verteilung zu beschreiben, folgendermaßen charakterisieren: Liegt eine Verteilung 1 weiter links als eine Verteilung 2, so soll der betreffende Parameter für die Verteilung 1 stets kleiner sein als f ü r die Verteilung 2. Diese f ü r einen Lageparameter wünschenswerte Eigenschaft besitzen der Median, die Quantile und der Erwartungswert, der Modalwert dagegen nicht. 2.6.6 Varianz und Standardabweichung D e r wichtigste Streuungsparameter der Verteilung einer Zufallsvariablen X ist die Varianz von X, die wir mit VarX oder Var(X) oder kurz mit o 2 bezeichnen. Sie ist nur für metrisch skalierte Zufallsvariablen sinnvoll. Ihre Definition lautet: (2.28)
V a r X = E ([X—jt,]2)
Kapitel 2:
Wahrscheinlichkeitsverteilungen
53
Dabei ist |x = E X . Die Varianz läßt sich interpretieren als durchschnittliche (mittlere) quadratische Abweichung der Zufallsvariablen von ihrem Erwartungswert. Damit wird ihre Eigenschaft klar, ein Maß für die Streuung der Verteilung von X zu sein. Ist f (x) die Wahrscheinlichkeitsfunktion bzw. die Dichte von X , so erhalten wir mit Hilfe von (2.23): ( VarX =
2
xED
( x -- n ) 2 f ( x )
falls X diskret
< l
N
/ ( x -- H ) 2 f ( x ) d x
— CC
falls X stetig
Wir setzen stets voraus, daß die Summe bzw. das Integral in (2.29) einen endlichen Wert liefert. (Verteilungen, deren Varianz nicht definiert ist, schließen wir aus unseren Betrachtungen aus.) E s gilt V a r X = 0. Die positive Wurzel aus der Varianz heißt die Standardabweichung o von X . Gegenüber der Varianz hat sie den Vorteil, die gleiche Dimension wie die Werte von X zu besitzen; sie ist daher ein anschaulicheres Maß für die Streuung von X als die Varianz. An (2.29) erkennt man, daß V a r X genau dann gleich 0 ist, wenn X eine diskrete Zufallsvariable mit dem einpunktigen Träger D = ist. Eine solche „Zufalls"Variablc hat deterministischen Charakter: Ihr Wert kann mit Sicherheit vorausgesagt werden. Sie besitzt keine Streuung - „ohne Zufall keine Streuung". Ihre Verteilung heißt Einpunktverteilung oder ausgeartete Verteilung. Für alle anderen Verteilungen ist V a r X > 0. Eine feste Zahl a kann auch als eine einpunktverteilte Zufallsvariable mit dem Träger D = { a } aufgefaßt werden; damit gilt: E (a) = a und Var (a) = 0. Für den Umgang mit Varianzen geben wir drei Rechenregeln an. Die erste Regel ist als Verschiebungssatz bekannt: (2.30)
VarX = E (X2) -
(EX)2
Beweis: Nach (2.28) ist V a r X = E [X-|x] 2 = E [ X 2 - 2 j i X - t - ^ 2 ] . Wegen der Linearität des Erwartungswertes folgt daraus: V a r X = E ( X 2 ) - 2|xE ( X ) + E (jj,2) = E ( X 2 ) - 2|x2 + n2 = E ( X 2 ) H2(2.31)
Var ( a X + b) = a 2 V a r X
Beweis: Ist ^ = E X , so ist E ( a X + b ) = a n + b . Nach (2.28) gilt: Var ( a X + b ) = E [ a X + b - ( a n + b ) ] 2 = a 2 E[X-|x] 2 = a 2 V a r X . (2.32)
Für zwei unabhängige Zufallsvariablen X und Y gilt: Var ( X + Y ) = V a r X -I- V a r Y
Der Beweis ergibt sich unmittelbar aus (2.30), (2.26) und (2.27), vgl. Aufgabe 19 und deren Lösung im Anhang. Beispiel 2.16: Die Varianz der Null-Eins-Verteilung X besitze die N u l l - E i n s - V e r t e i l u n g mit d e m P a r a m e t e r p, das heißt: P ( X = 0 ) = 1—p und P ( X = 1) = p; vgl. Beispiel 2 . 7 . N a c h Beispel 2 . 1 3 gilt: E X = p. N a c h ( 2 . 2 3 ) gilt weiterhin:
54 E (X 2 ) =
Kapitel 2: Wahrscheinlichkeitsverteilungen 2 x 2 f(x) = 02 • (1—p) + l 2 • p = p xGD
Daher erhalten wir mit Hilfe des Verschiebungssatzes: VarX = E (X 2 ) - (EX) 2 = p - p 2 = p ( 1 - p ) VarX liegt nahe bei 0, wenn p nahe bei 0 oder nahe bei 1 ist; in beiden Fällen läßt sich der Wert, den X annimmt, relativ sicher voraussagen. VarX ist am größten für p =
in die-
sem Fall ist auch die Unsicherheit der Voraussage maximal. Beispiel 2.17: Die Varianz der Gleichverteilung Eine im Intervall [a, ß] gleichverteilte Zufallsvariable X besitzt die Dichte f f(x) = s ß - a l 0 EX = E(X2)=
füraSxSß
; vgl. Beispiel 2.9. Wir haben bereits berechnet, daß
sonst
ist; vgl. Beispiel 2.14. Wir berechnen nun E(X 2 ) mit Hilfe von (2.23): +® ß / x2f(x)dx = /
1 1 rf—dx-g^f
R3 „3 ß3-(v 3 - - )= ^
Daraus erhalten wir mit dem Verschiebungssatz: VarX = E (X 2 ) - (EX) 2 =
ß3-a3 3 (ß-a) 1
12(ß—a)
(a+ß)2 _ 4 [4ß3 - 4a 3 — 3 ( ß - a ) (a+ß) 2 ] — ' 12(ß-a)
_ (ß-«)2 12 Die Varianz - und auch die Unsicherheit über zukünftige Werte von X - wächst mit der Länge des Intervalles [a, ß]. Die Standardabweichung o =—;L=r(ß—a) ist proportional zur V 12 Länge dieses Intervalles.
2 . 6 . 7 D i e Ungleichung von Tschebyscheff W i r b e t r a c h t e n e i n e Z u f a l l s v a r i a b l e X mit d e m E r w a r t u n g s w e r t n u n d d e r Varianz o 2 = V a r X . Sei c e i n e f e s t v o r g e g e b e n e positive Z a h l . D i e U n g l e i c h u n g von T s c h e b y s c h e f f lautet: (2.33)
p(ix-m^c)
W e g e n P (IX—jil < c) = 1 —P (IX—(il (2.34)
P(IX-|iKc) a
c) läßt sie sich ä q u i v a l e n t u m f o r m e n in
l-
In dieser F o r m besagt sie: D i e W a h r s c h e i n l i c h k e i t d a f ü r , d a ß e i n e Zufallsvariable X von ihrem Erwartungswert (i um weniger als c abweicht, ist m i n d e s t e n s so g r o ß w i e 1 — a 2 /c 2 ; diese S c h r a n k e liegt u m so n ä h e r bei 1, d e s t o kleiner die Var i a n z von X ist. D i e U n g l e i c h u n g e r l a u b t es uns, die W a h r s c h e i n l i c h k e i t d a f ü r ,
55
Kapitel 2: Wahrscheinlichkeitsverteilungen
daß X in einem vorgegebenen Intervall c, n + c ) liegt, allein mit Hilfe der Varianz abzuschätzen, ohne weitere Kenntnisse über die Verteilung von X zu besitzen. Sie unterstreicht die Bedeutung der Varianz als Streuungsparameter. Beispiel 2.18 Von einer Zufallsvariablen X sei nur bekannt: E X = 10 und V a r X = 2. Man interessiert sich für das Ereignis, daß X zwischen 7 und 13 liegt. Mit Hilfe von (2.34) erhalten wir P ( 7 < X < 1 3 ) = P (IX—101 < 3) a 1 - ~ = Beispiel 2.19: ko-Bereiche Für eine Zufallsvariable X mit n = EX u n d o 2 = V a r X werden häufig Intervalle der Form (|j,—ko, | i + k o ) , sogenannte ko-Bereiche, betrachtet; dabei ist k eine natürliche Zahl. Setzen wir in (2.34) c = k o ein, so erhalten wir: 2
P(IX—M-I < M = P ( n - k a < X < n + k a ) £ 1 -
a
=
1
~
1 p
Für k = 1 ist diese Abschätzung wertlos. Für k = 2 und 3 erhalten wir P (n - 2o < X < n + 2a) 6
3 ^
P (|A - 3 a < X < n + 3o) a
-
g
Wir wollen noch die Ungleichung von Tschebyscheff in der F o r m (2.33) beweisen. Dazu führen wir die Zufallsvariable
Y
=
f0
falls IX—nl < c
Ic2
falls IX—(il = c
ein. Sie ist eine diskrete Zufallsvariable mit dem Träger D = {0, c 2 } und der Wahrscheinlichkeitsfunktion f (0) = P (IX—|xl < c) und f (c 2 ) = P (IX-^il ä c). D a h e r erhalten wir nach (2.20): E Y = C 2 P(IX-MJ S c )
(*)
An der Definition von Y erkennt man, daß stets Y ^ (
*
*
)
E
Y
G
E
(
I
X
-
H
I
2
)=
V a r
IX—¡xl2
gilt. Darausfolgt:
X
Aus (*) und (**) erhält man die Ungleichung (2.33). Fragen zur Wiederholung 13. Beschreiben Sie die drei verschiedenen Skalenarten. 14. Was versteht man unter einer Zufallsvariablen? 15. Wann ist eine Zufallsvariable diskret, wann stetig? 16. Wie wird die Verteilung einer diskreten Zufallsvariablen angegeben und veranschaulicht?
56
K a p i t e l 2:
Wahrscheinlichkeitsverteilungen
17. Wie wird die Verteilung einer stetigen Zufallsvariablen angegeben und veranschaulicht? 18. Wie gewinnt m a n bei einer stetigen Zufallsvariablen X aus der Dichte die Wahrscheinlichkeit P (a S X S b)? 19. W a n n nennt m a n zwei Zufallsvariablen v o n e i n a n d e r unabhängig? 20. Wie ist die Verteilungsfunktion einer Zufallsvariablen erklärt? Welche Gestalt hat sie im diskreten, welche im stetigen Fall? 21. Welche B e z i e h u n g besteht im stetigen Fall zwischen der Verteilungsfunktion und der Dichte? 22. Beschreiben Sie die Definition von Modalwert, Median und a - Q u a n t i l an H a n d einer u n i m o d a l e n stetigen Verteilung (mit streng m o n o t o n wachsender Verteilungsfunktion). 23. Wie ist der E r w a r t u n g s w e r t einer Zufallsvariablen definiert? 24. Welche beiden Interpretationen für den Erwartungswert k e n n e n Sie? 25. W a s versteht man u n t e r der Linearität des Erwartungswertes? 26. Welche L a g e p a r a m e t e r sind bei den verschiedenen Skalenarten sinnvoll? 27. Was sagt die Lageregel ü b e r Modalwert, Median und Erwartungswert aus? 28. Wie sind Varianz und Standardabweichung einer Zufallsvariablen definiert? 29. Für welche „Zufallsvariable" ist die Varianz gleich Null? 30. W o d u r c h k a n n m a n Wahrscheinlichkeiten der F o r m P (|x—c in der Urne J
Aus der Urne werden zufällig und ohne Zurücklegen n Kugeln gezogen. Dabei interessiert man sich für die Zufallsvariable X = Anzahl der weißen unter den n gezogenen Kugeln (und nicht für eine eventuell vorhandene Reihenfolge, in der die einzelnen Kugeln erscheinen). Wir wollen die Verteilung von X herleiten. Dazu bestimmen wir zunächst ihren Träger D:
Kapitel 3: Spezielle Verteilungen
63
D e r größte Wert, den X annehmen kann, ist entweder gleich n, nämlich dann, wenn n = M ist, oder gleich M , falls n > M ist; der größte Wert ist also gleich der kleineren der beiden Zahlen n und M, das heißt gleich Min {n, M}. Der kleinste Wert, den X annehmen kann, ist entweder gleich 0, nämlich dann, wenn n = N—M ist, oder gleich n — (N—M), falls n > N—M ist; der kleinste Wert ist also gleich der größeren der beiden Zahlen 0 und n — ( N - M ) , das heißt gleich Max {0, n — (N—M)}. Zusammen ergibt sich für den Träger von X: a = Max{0,n- (N-M)} (3.7)
D = {a, a + 1 , . . . , b} mit b = Min {n, M}
Z u r Bestimmung der Verteilung von X machen wir uns (3.6) zunutze. Für wieviele unter den ( ^ j möglichen (ungeordneten!) Stichproben tritt das Ereignis X = x ein? Nach (3.5) gilt:
(
Es gibt i^M Möglichkeiten, aus den M weißen Kugeln x auszuwählen und
M Ayf\
n — x ) Möglichkeiten, aus den N—M schwarzen Kugeln n - x auszuwählen; jede Auswahl von x weißen kann mit jeder Auswahl von n—x schwarzen Kugeln zu einer Stichprobe kombiniert werden, für die X = x gilt; deren Anzahl ist also gleich
(¥)•(?=?)• Dies ist die Anzahl der für X = x günstigen Fälle. Nach (3.6) folgt:
(3.8)
Die diskrete Verteilung mit dem Träger (3.7) und der Wahrscheinlichkeitsfunktion (3.8) heißt hypergeometrische Verteilung mit den Parametern n, M und N, kurz H (n; M; N)-Verteilung. Ohne Beweis*) geben wir Erwartungswert und Varianz dieser Verteilung an: (3.9)
rv
(3.10)
.. v VarX =
=
„
M
TT M M M, N - n n ¥ ( l - w ) T i - T
Beispiel 3.2 Eine U r n e enthalte N = 5 Kugeln, davon M = 3 weiße und N — M = 2 schwarze. Es werden zufällig und ohne Zurücklegen n = 3 Kugeln gezogen; X sei die Anzahl der weißen unter ihnen. Wir wollen die Verteilung von X zunächst unmittelbar bestimmen. Dazu numerieren wir die 5 Kugeln der U r n e durch: Die drei weißen Kugeln erhalten die N u m m e r n 1 , 2 , 3 und die zwei schwarzen die N u m m e r n 4 und 5. Es gibt
=
= 10 verschiedene (ungeordne-
*) Ein Beweis für (3.9) und (3.10) ergibt sich aus (8.71) und (8.75) in Abschnitt 8.3.2.
64
Kapitel 3: Spezielle Verteilungen
te) Stichproben; zusammen mit ihrem X-Wert lauten sie Stichprobe X-Wert
123
124
125
134
135
145
234
235
245
345
3
2
2
2
2
1
2
2
1
1
Der Träger von X ist also D = { 1 , 2 , 3 } . Da jede Stichprobe die Wahrscheinlichkeit sitzt, erhalten wir:
P(X=1)=
P(X=2)=A
und
be-
P(X=3) = 1
Nun wenden wir an, daß X hypergeometrisch verteilt ist. Es gilt: Max {(), n - (N —M)} = = Max {0, 1} = 1 und Min {n, M} = Min { 3 , 3 } = 3, so daß sich nach (3.7) ebenfalls der Träger D = {1,2,3} ergibt. Nach (3.8) gilt für alle x S D : P (X = x) =
PK - ) ^
, woraus sich mit Hilfe von (3.4) die
(3) Werte P ( X = 1 ) = ^ ,
P ( X = 2 ) = - ^ und P ( X = 3 ) = ^
ergeben.
3.3 Die Binomialverteilung Ein Zufallsexperiment, bei dem ein Ereignis A mit Wahrscheinlichkeit p = P (A) eintritt, wird n mal unabhängig voneinander durchgeführt. Von Interesse sei die Zufallsvariable X = Anzahl der Versuche, bei denen A eintritt Urnenmodell: Aus einer U r n e mit N Kugeln, darunter M weißen, werden zufällig und mit Zurücklegen nacheinander n Kugeln gezogen. A ist das Ereignis, daß bei einer Ziehung eine weiße Kugel erscheint; also ist (3.11)
P(A)=M
= p
X ist die Anzahl der weißen unter den n gezogenen Kugeln. X i s t eine diskrete Zufallsvariable mit dem Träger D = {0,1,..., n}. Wir wollen die Verteilung von X bestimmen. Dazu betrachten wir die unabhängigen Ereignisse A j = „beim i-ten Versuch tritt A ein", i = 1, ..., n. Für ein x E D gilt:
r P(A,n...nA x nÄ x+1 n...nÄ n ) =
-
P
P
• (i- P )-•• ( i - P ) =
xmal x
(n—x) mal n
= p (l-p) ~
x
Dies ist die Wahrscheinlichkeit dafür, daß zuerst x mal A und dann n—x mal Ä eintritt; in diesem Fall hat X den Wert x. Das Ereignis X = x tritt aber auch ein, wenn in irgendeiner anderen Reihenfolge x mal A und n—x mal A unter den n Versuchen erscheint; dabei hat jede solche Reihenfolge ebenfalls die Wahrscheinlichkeit (*). Nach Beispiel 3.1 gibt es ("j derartige Reihenfolgen. Zusammen erhalten wir:
Kapitel 3: Spezielle Verteilungen
65
p(x=x) = (5) P*(i-p)n-
(3.12)
D i e diskrete Verteilung mit dem Träger D = { 0 , 1 , . . . , n} und der Wahrscheinlichkeitsfunktion (3.12) heißt Binomialverteilung mit d e n P a r a m e t e r n n und p, kurz B(n;p)-Verteilung. Z u den n unabhängigen Versuchen f ü h r e n wir die Zufallsvariablen X1 =
1 l 0
falls beim i-ten Versuch A eintritt falls beim i-ten Versuch A nicht eintritt
(i = 1, . . . , n ) ein, f ü r die P ( X j = l ) = p u n d P ( X ; = 0 ) = 1 - p gilt. Jedes X; besitzt also eine Null-Eins-Verteilung mit dem P a r a m e t e r p (vgl. Beispiel 2.7), eine Verteilung, die mit der B ( l ; p ) - V e r t e i l u n g übereinstimmt. Offensichtlich ist (3.13)
X = Xi + . . . + X n
Dies b e d e u t e t : Die S u m m e von n unabhängigen B ( l ; p ) - v e r t e i l t e n Zufallsvariablen ist B(n;p)-verteilt; u m g e k e h r t ist eine B(n;p)-verteilte Zufallsvariable X als S u m m e von n unabhängigen B(l;p)-verteilten Zufallsvariablen darstellbar. A u s dieser Darstellung von X ergibt sich direkt der Erwartungswert und die Varianz der B(n;p)-Verteilung: Da nach Beispiel 2.13 EXj = p ist, folgt aus (3.13): (3.14)
EX = np
Nach Beispiel (2.16) ist VarX; = p (1 - p); mit Hilfe von (2.32) folgt aus (3.13) wegen der Unabhängigkeit der X,: (3.15)
V a r X = n p ( l —p)
Wir vergleichen diese P a r a m e t e r mit d e n e n der hypcrgeometrischen VerteiM lung im U r n e n m o d e l l : Ist p so besitzen die H ( n ; M ; N ) - und die B(n;p)Verteilung den gleichen E r w a r t u n g s w e r t , während die Varianz der hypergeomeN-n trischen Verteilung um den F a k t o r verteilung. Ist der Auswahlsatz
kleiner ist als die Varianz der Binomialsehr klein, so liegt dieser F a k t o r nahe bei 1,
d . h . beide Verteilungen haben ungefähr gleiche Varianzen. Schließlich folgt aus (3.13) wegen der Unabhängigkeit der X; der folgende Additionssatz der Binomialverteilung: Besitzt X die B(n;p)- u n d Y die B ( m ; p ) - V e r teilung und sind X und Y unabhängig, so besitzt X + Y die B ( n + m ; p ) - V e r t e i l u n g . Beispiel 3.3 Wie Beispiel 3.2, nur daß hier die n = 3 Kugeln mit Zurücklegen gezogen werden. Wegen M 3 , , /„.,„.. p = - = - e r h a l t e n wir aus (3.12): N 5
p|x
-°»-(o) ( i ) ' ( ' - § ) ' - ( ! ) ' - » ,
66
Kapitel 3: Spezielle Verteilungen
_ 3\ 2 _ 1 M')
' < " - ' > - ( I ) (I)
_12 ' 125
ü
=
125
p c x - a - u f i l ' f.-il' ' < * - ' > - ( ! ) (I)' C*-i) 27
' ^ - ( l )
(I)'
C'-l)°=(I)
N a c h (3.14) und (3.15) sind E X = ? 5
125 und V a r X = ^ . 25
g
D i e hypergeometrische Verteilung in Beispiel 3.2 hat ebenfalls d e n E r w a r t u n g s w e r t w ä h r e n d ihre Varianz um d e n F a k t o r Auswahlsatz — = -
— =
i
kleiner als ^
, also gleich — ist.
,
Der
ist hier sehr groß, entsprechend stark ist d e r Unterschied zwischen
d e n beiden Varianzen.
3.4 Die Poisson-Verteilung Wir betrachten Ereignisse, die innerhalb eines zeitlichen oder räumlichen Kontinuums zufällig auftreten. Zu einer festgelegten Einheit des Kontinuums (z.B. 1 Stunde oder 1 Meter) definieren wir die Zufallsvariable X als X = Anzahl der Ereignisse, die innerhalb eines Kontinuumteils der Größe 1 eintreten. Dazu die folgenden Beispiele: • Anzahl der Telefonanrufe in einer Vermittlungsstelle während einer Stunde. • Anzahl der emittierten a-Teilchen einer radioaktiven Substanz während einer Minute. • Anzahl der Fahrzeuge, die innerhalb einer Stunde eine Mautstelle passieren. • Anzahl der Fische, die ein Angler in einer Stunde fängt. • Anzahl der Tippfehler, die eine Sekretärin auf einer Schreibmaschinenseite macht. • Anzahl der Luftblasen, die beim Herstellen von Fensterglas in einem Quadratmeter Glas enthalten sind. Man beachte, daß mit X nicht die durchschnittliche Anzahl der Ereignisse gemeint ist (also z.B. die durchschnittliche Anzahl der Tippfehler pro Schreibmaschinenseite), sondern die Anzahl der Ereignisse, die innerhalb eines Kontinuumteils der Größe 1 tatsächlich eintreten werden (also z.B. die Anzahl der Tippfehler, die auf der nächsten Schreibmaschinenseite erscheinen werden). Im folgenden betrachten wir als Kontinuum die Zeit; für andere Kontinua gilt alles entsprechend. Wir gehen von folgenden Voraussetzungen aus: 1) Die Ereignisse haben eine vernachlässigbar kleine zeitliche Ausdehnung. Sie finden zu isolierten Zeitpunkten statt. 2) Die Wahrscheinlichkeit dafür, daß während eines kleinen Zeitintervalles der Länge At genau ein Ereignis eintritt, ist (bis auf vernachlässigbare Größen) gleich X.At. Man nennt X die Intensitätsrate, mit der die Ereignisse auftreten.
67
Kapitel 3: Spezielle Verteilungen
3) Die Wahrscheinlichkeit für das Eintreten eines Ereignisses innerhalb eines Zeitintervalles hängt nur von der Länge, nicht aber von der Lage des Zeitintervalles auf der Zeitachse ab. 4) In disjunkten Zeitintervallen erfolgt das Eintreten der Ereignisse unabhängig voneinander. Unter diesen Voraussetzungen - wobei 1) und 2) noch mathematisch präzisiert werden müßten - gilt: X besitzt eine Poisson-Verteilung mit dem Parameter X, kurz eine Po(X)-Verteilung; diese ist definiert als eine diskrete Verteilung mit dem Träger D = {0,1, 2, ...} und der Wahrscheinlichkeitsfunktion Xx P (v X = x ) = - y e ' x!
(3.16)
°° X* Laut Definition der e-Funktion ist e x = 2 —7; damit erhalten wir: x = o x! 1, so daß durch (3.16) wirklich eine Wahr;e x! scheinlichkeitsverteilung festgelegt wird. Wir bestimmen den Erwartungswert dieser Verteilung: 2 P (X=x) =
xED
"
2
'
x=o
EX =
= X
(3.17)
2 xP(X=x)= 2
seD
v
2 —y e^ x = X
x=0 X!
x— 1
x!
=
2
x-1
, (x — 1 ) !
=
2 P (X=x) = X , d.h.
xGD
EX = X Die durchschnittliche Anzahl der Ereignisse, die pro Zeiteinheit stattfinden, ist gleich X.
Die Berechnung der Varianz ist Gegenstand von Aufgabe 40. Das Ergebnis lautet: (3.18)
VarX = X
Auch für die Poisson-Verteilung gibt es einen Additionssatz. Er lautet: Besitzt X die Po(X)- und Y die Po([i)-Verteilung und sind X und Y unabhängig, so besitzt X + Y die Po(X+|x)-Verteilung.
Beispiel 3.4 Ein Setzer macht im Durchschnitt auf zwei Seiten einen Setzfehler. Wir nehmen an, daß unsere obigen vier Voraussetzungen erfüllt sind. Dann ist die Zufallsvariable X = „Anzahl der Fehler pro Seite" Poisson-verteilt mit dem Parameter X = ^ :
Ist
P ( X = x ) = — — c - " 2 . Aus e = 2.7183 ergibt siehe" 1 ' 2 = 0.6065. x!
68
Kapitel 3: Spezielle Verteilungen
Damit erhalten wir die folgenden Werte: P ( X = 0 ) = 1 • e-» /2 = 0.6065, P(X=2)=
P ( X = 1 ) = ^ 0.6065 = 0.3033,
i 0.6065 = 0.0758, 8
usw.
Betrachten wir ein Buch mit 100 Seiten: Der Erwartungswert der Setzfehler ist gleich 100 • EX = 50. Wie groß ist dagegen der Erwartungswert für die Anzahl der fehlerfreien Seiten? Dazu definieren wir für i = 1, ..., 100: _
|
1
1 l 0
falls auf der i-ten Seite kein Fehler ist falls auf der i-ten Seite mindestens ein Fehler ist
Dann ist Y = Yj + ... + Y I00 die Anzahl der fehlerfreien Seiten im Buch. Da die Y , , . . . , Y n unabhängig voneinander sind (vgl. Voraussetzung 4)) und P ( Y | = 1 ) = P ( X = 0 ) = 0.6065 für jedes Yj gilt, erhalten wir (vgl. Abschnitt 3.3): Y ist eine B(100; 0.6065)-verteilte Zufallsvariable. Mit Hilfe von (3.14) erhalten wir als Antwort auf unsere Frage: EY = 100 • 0.6065 = 60.65.
3 . 5 D i e Normalverteilung 3.5.1 Definition und Gestalt Eine Zufallsvariable X besitzt die Normalverteilung mit den Parametern |i und o 2 , kurz die N(^;o 2 )-Verteilung, wenn X stetig verteilt ist mit der Dichte
(3.19) Diese Dichte hat die Gestalt einer Glockenkurve (vgl. Abbildung 21): Sie ist unimodal, symmetrisch um den Punkt |x und hat an der Stelle ^ ihr Maximum.
Wendepunkt
H-a
Abb. 21
H+o
2
Die Dichte der N (n; a )-Verteilung
Durch Bildung der zweiten Ableitung von f(x) kann man nachprüfen, daß die Glockenkurve ihre beiden Wendepunkte an den Stellen [a— a und besitzt. U m zu zeigen, daß (3.19) tatsächlich eine Dichte ist, wäre noch nachzuweisen, daß die Fläche unter der Glockenkurve den Wert 1 hat; auf diesen mathematisch
Kapitel 3: Spezielle Verteilungen e t w a s schwierigen B e w e i s ( m a n b e r e c h n e t d a s Integral d u r c h die Substitution = (x —u)/o und a n s c h l i e ß e n d e m Ü b e r g a n g auf P o l a r k o o r d i n a t e n ) verzichten hier; m a n findet ihn etwa bei Feller [1970, Seite 175]. A u c h auf d e n Beweis b e i d e n f o l g e n d e n A u s s a g e n , die d e n Erwartungswert u n d die Varianz N(|x;o 2 )-Verteilung a n g e b e n , wollen wir hier nicht e i n g e h e n : (3.20)
E X = |x
(3.21)
V a r X = o2
69 t = wir der der
Sie zeigen, d a ß die ursprünglich a b s t r a k t e n P a r a m e t e r zu r e c h t mit |x u n d o 2 b e n a n n t w e r d e n k o n n t e n . F ü r einige ^i- u n d o 2 - W e r t e sind die d a z u g e h ö r i g e n Dichten in A b b i l d u n g 22 dargestellt. E i n e V e r ä n d e r u n g von n (bei f e s t e m o 2 ) b e w i r k t eine b l o ß e V e r s c h i e b u n g der D i c h t e ; die Gestalt d e r G l o c k e n k u r v e bleibt dabei u n v e r ä n d e r t ( A b b i l d u n g 22a). F ü r v e r s c h i e d e n e o 2 v e r ä n d e r t sich die G e s t a l t d e r G l o c k e n k u r v e ( A b b i l d u n g 22b).
Abb. 22a
Dichten der N 1)-Verteilung für drei verschiedene Werte
Abb. 22b
Dichten der N(0;o 2 )-Verteilung für drei verschiedene o 2 Werte
Die Verteilungsfunktion F (x) = P ( X = x ) = / f (t) dt
mit f wie in (3.19)
— cc
einer n o r m a l v e r t e i l t e n Z u f a l l s v a r i a b l e n X läßt sich nicht m e h r d u r c h e l e m e n t a r e F u n k t i o n e n d a r s t e l l e n . Wie m a n mit H i l f e einer e n t s p r e c h e n d e n T a f e l W e r t e von F u n d d a m i t W a h r s c h e i n l i c h k e i t e n d e r A r t P ( a = X S = b ) = F (b) — F (a) e r m i t t e l t , e r f a h r e n wir im n ä c h s t e n A b s c h n i t t . 3 . 5 . 2 Standardisierung und Vertafelung U n t e r d e r Standardnormalverteilung v e r s t e h t m a n die N ( 0 ; l ) - V e r t e i l u n g . In diesem A b s c h n i t t b e z e i c h n e n wir s t a n d a r d n o r m a l v e r t e i l t e Z u f a l l s v a r i a b l e n mit Z , ihre W e r t e e n t s p r e c h e n d mit z. D i c h t e u n d V e r t e i l u n g s f u n k t i o n d e r S t a n d a r d n o r m a l v e r t e i l u n g e r h a l t e n die S y m b o l e cp bzw. O :
Kapitel 3: Spezielle Verteilungen
70
(3.22)
M
*
(3.23)
i Z ) =
1
V a T
d>(z) > ( (t) t) dt O (z) = P (( Z ^g zz )) == —/ 00q
( + 0 . 5 ) - 4> ( - 1 ) = 0.6915 - 0.1587 = 0.5328.
Beispiel 3.6 Z sei N(0;l)-verteilt. Wie groß muß die positive Zahl c gewählt werden, damit P ( - c S Z £ + c ) = 0.95 ist? Es gilt: P ( - c S Z S + c ) = 4>(+c) - ( - c ) = ( + c ) - (1 —4>( + c)) = 2 $ ( + c ) - 1. Daher erhalten (c) = 0.975. Zu diesem Wert von wir c als Lösung der Gleichung 2 (c) - 1 = 0.95 bzw. 3> (z) liest man aus Tabelle III als Argument c = 1.96 ab. (In der Regel muß dazu interpoliert werden.) Anders ausgedrückt: c = 1.96 ist das 0.975-Quantil der Standardnormalverteilung.
Der folgende Zusammenhang erlaubt es, aus der Tafel der Standardnormalverteilung auch die Wahrscheinlichkeiten einer beliebigen N(^;o 2 )-verteilten Zufallsvariablen abzulesen (vgl. Aufgabe 20):
(3.26)
Ist X nach N ([x;o2) verteilt, so ist die dazugehörige _ X-(i nach N(0;1) verteilt. standardisierte Zufallsvariable Z :
Daraus erhalten wir nämlich für die Verteilungsfunktion F(x) von X: F (x) = P ( X = x ) = P (
(3.27)
F(x) =
= p ( Z ^ ^ ) , also
71
Kapitel 3: Spezielle Verteilungen Beispiel 3.7
X sei N(3;4)-verteilt, F (x) die Verteilungsfunktion von X. W i e g r o ß ist P ( 2 S X S 6 ) ? Es gilt: P(2SXS6) = F(6)-F(2). Nach (3.27) ist F ( 6 ) =
^
D (1.5) u n d F ( 2 ) = 0)
Ist X eine Lebensdauer, so ist dies eine Überlebenswahrscheinlichkeit, nämlich die Wahrscheinlichkeit, daß das betreffende Objekt den Zeitpunkt x überlebt. Nach Definition der bedingten Wahrscheinlichkeit erhalten wir für 0 < x 0 < x:
Kapitel 3: Spezielle Verteilungen
P \P (X>x0+xlA>x0) 4 - Y | V > Y
P ( X > x 0 + x und X>x 0 ) _ P ( X > x 0 + x ) _ P (X>x 0 ) P (X>x 0 ) " e -X(xo+x) e
(3.35)
75
= e
- X x
=
p (X>x),
also:
P ( X > x 0 + x l X > x 0 ) = P (X>x) = P ( X > x l X > 0 )
Diese Beziehung stellt die wahrscheinlichkeitstheoretische Präzisierung der eingangs formulierten Voraussetzung dar, daß zukünftige Wartezeiten unabhängig sind von bereits verstrichenen Wartezeiten. Zwischen der Exponential- und der Poisson-Verteilung besteht der folgende wesentliche Zusammenhang: Ist die Anzahl Y der Ereignisse, die innerhalb eines Zeitabschnittes der Länge 1 eintreten, Po(X)-verteilt, so ist der zeitliche Abstand X zwischen zwei Ereignissen Expo(X)-verteilt (und umgekehrt). Angewandt auf den Parameter k erhalten wir das anschauliche Ergebnis: Die durchschnittliche Anzahl der Ereignisse pro Zeiteinheit ist genau dann gleich k, wenn der durchschnittliche Abstand zwischen den Ereignissen 1/k beträgt. Fragen zur Wiederholung 31. Wieviele verschiedene Teilmengen von n Elementen können aus einer Grundmenge von N Elementen gebildet werden? 32. Welche beiden Modelle gibt es für das zufällige Ziehen ohne Zurücklegen (von n Kugeln aus einer Urne mit N Kugeln)? Inwiefern sind beide äquivalent? 33. Wie lautet das Modell für das zufällige Ziehen mit Zurücklegen? 34. In welcher Versuchsanordnung spielt die hypergeometrische Verteilung eine Rolle? Welche Zufallsvariable besitzt diese Verteilung? Wie groß sind ihr Erwartungswert und ihre Varianz? 35. In welcher Versuchsanordnung spielt die Binomialverteilung eine Rolle? Welche Zufallsvariable besitzt diese Verteilung? Wie groß ist ihr Erwartungswert und ihre Varianz? 36. Wie lautet der Additionssatz der Binomialverteilung? 37. Beschreiben Sie verbal oder an Hand eines Beispiels die Voraussetzungen, unter denen eine Zufallsvariable Poisson-verteilt ist. Interpretieren Sie den Erwartungswert dieser Verteilung. 38. Welche Gestalt hat die Dichtekurve der Normalverteilung? Wie hängt sie von den Parametern ^ und o 2 ab? 39. Welche Normalverteilung heißt Standardnormalverteilung? Wie ist das a Fraktil dieser Verteilung definiert? 40. Welche Transformation einer N((j.;o 2 )-verteilten Zufallsvariablen X führt zu einer standardnormalverteilten Zufallsvariablen? (Standardisierung)
76
Kapitel 3: Spezielle Verteilungen
41. Welche Verteilung hat Y = a X + b , wenn X nach N(n;o 2 ) verteilt ist? 42. W i e lautet d e r Additionssatz der Normalverteilung? 43. Beschreiben Sie die Voraussetzung, u n t e r der eine Zufallsvariable exponentialverteilt ist. 44. W e l c h e r Z u s a m m e n h a n g besteht zwischen der Exponentialverteilung und d e r Poisson-Verteilung?
Aufgaben 28. Auf wieviele A r t e n k a n n man aus zehn Personen ein V i e r e r - G r e m i u m bilden? 29. Bei einer Feier sind 13 Gäste versammelt. J e d e r prostet j e d e m zu und stößt mit d e m Weinglas an. Wie oft klingt es? 30. A u s zehn P e r s o n e n , d a r u n t e r fünf M ä n n e r n und fünf F r a u e n , wird ein Vier e r - G r e m i u m ausgelost. Wie groß ist die Wahrscheinlichkeit d a f ü r , daß a) höchstens zwei F r a u e n , b) genauso viele F r a u e n wie M ä n n e r in das G r e m i u m gelangen? 31. Für eine P r ü f u n g w e r d e n Leistungen in 10 G e b i e t e n verlangt. Ein Kandidat bereitet sich nur auf 5 Gebiete vor. D e r Professor prüft nur in 3 willkürlich herausgegriffenen G e b i e t e n . Wie groß ist die Wahrscheinlichkeit d a f ü r , d a ß der Kandidat in mindestens zwei seiner vorbereiteten G e b i e t e befragt wird? 32. Beim „Samstag-Lotto" werden bei einem Spiel sechs Z a h l e n in einem Feld von 49 Z a h l e n angekreuzt und sieben Kugeln (sechs „ n o r m a l e " , die siebente als „Zusatzzahl") aus einer Urne mit 49 d u r c h n u m e r i e r t e n Kugeln zufällig und o h n e Zurücklegen gezogen. M a n b e r e c h n e die G e w i n n c h a n c e n f ü r a) sechs „Richtige" b) fünf „Richtige" und Zusatzzahl richtig c) fünf „Richtige" und Zusatzzahl falsch d) vier „Richtige" e) höchstens zwei „Richtige". 33. Man zeige: Eine H(n;M;N)-verteilte Zufallsvariable X ist darstellbar als X = = Xj-f" ... + X n , wobei jedes Xj die Null-Eins-Verteilung mit dem P a r a m e t e r p = M / N besitzt, die X , , . . . , X n aber nicht unabhängig sind. 34. Wie groß ist die Wahrscheinlichkeit, mit 6 W ü r f e n eines Würfels mindestens 3 Sechsen zu erzielen? 35. Man zeige: Besitzt X die B(n;p)- und Y die B ( n ; l —p)-Verteilung, so gilt P ( Y = y ) = P ( X = n —y). A u f g r u n d dieser Beziehung genügt es, die Binomialverteilung nur f ü r P a r a m e t e r w e r t e p = 0.5 zu vertäfeln. 36. Jedes Mitglied eines Ausschusses von 12 Personen geht mit Wahrscheinlichkeit 0 . 8 zur nächsten Sitzung. Wie groß ist die Wahrscheinlichkeit, daß der A u s s c h u ß beschlußfähig ist, wenn dazu mindestens die H ä l f t e der Mitglieder anwesend sein müssen? 37. Eine F e u e r w e h r s t a t i o n in einer G r o ß s t a d t hat durchschnittlich p r o Tag einen Einsatz. Durch welches Verteilungsmodell läßt sich die Verteilung von X = = „Anzahl der Einsätze an einem T a g " darstellen? Bestimmen Sie damit P (X=0), P (XS1) undP(XS3).
Kapitel 3: Spezielle Verteilungen
77
38. Eine Sekretärin macht durchschnittlich pro Seite zwei Tippfehler. Wie groß ist die Wahrscheinlichkeit dafür, daß sich auf einer Seite a) kein Tippfehler befindet, b) genau zwei Tippfehler befinden, c) höchstens zwei Tippfehler befinden? 39. Eine Glasfabrik stellt Fensterglas her, bei dem sich durchschnittlich ein Luftbläschen pro m 2 befindet. In einer Großserie von je 1 m 2 großen Fensterscheiben gelten als 1. Wahl: Scheiben ohne Luftbläschen, 2. Wahl: Scheiben mit einem Luftbläschen, 3. Wahl: Scheiben mit zwei oder drei Luftbläschen, Ausschuß: Scheiben mit mehr als drei Luftbläschen. Wie groß sind die Wahrscheinlichkeiten (Anteile in der Großserie) f ü r diese vier Qualitätsstufen? 40. Berechnen Sie die Varianz einer Po(X)-verteilten Zufallsvariablen X. (Hinweis: Bestimmen Sie zunächst E[X(X— 1)].) 41. X sei eine N(10;25)-verteilte Zufallsvariable. Man bestimme mit Hilfe der Tabelle der Standardnormalverteilung P ( 0 ^ X ^ 1 1 ) , P ( 8 S X S 1 2 ) und P (X=15). 42. Eine Maschine füllt Zucker in Tüten ab, die ein Gewicht von 1000 Gramm haben sollen. Das tatsächliche Gewicht X (in Gramm) läßt sich auffassen als eine N(n;o 2 )-verteilte Zufallsvariable. a) Wie groß ist die Wahrscheinlichkeit dafür, daß das Sollgewicht um mehr als 15 Gramm unterschritten wird, aa) wenn \i = 1000 und a 2 = 100 ab) wenn |i = 1050 und o 2 = 121 ist? b) Wie groß darf bei einem [i = 1000 die Standardabweichung o höchstens sein, damit P (950SXS1050) g 0.98 gilt? c) Gegeben sei o 2 = 100 (unabhängig von (j.). Auf welchen |x-Wert darf die Maschine höchstens eingestellt werden, damit P (XS1020) Si 0.05 gilt? 43. In manchen Fällen kann man annehmen, daß die Suchdauer X nach einem verlorenen Gegenstand exponentialverteilt ist (mit einem Parameter X ) . Wie lautet die Voraussetzung für diese Annahme? Wie groß ist bei einer durchschnittlichen Suchdauer von 5 Minuten die Wahrscheinlichkeit, länger als 10 Minuten suchen zu müssen? 44. An einer einsamen Stelle einer Landstraße kommen im Durchschnitt pro Stunde 6 Autos vorbei. Mit Y bezeichnen wir die Anzahl der Autos, die während irgendeiner Stunde vorbeifahren, mit X den zeitlichen Abstand zweier Autos in Minuten. Welche Verteilungen kann man X und Y zuordnen? Wie groß ist EX? Man bestimme P ( Y ^ 3 ) und P ( X ^ 3 0 ) .
Kapitel 4 Grenzwertsätze und Approximationen 4.1 Das Gesetz der großen Zahlen Wir haben den Erwartungswert einer Zufallsvariablen X als durchschnittlichen Wert der Realisationen von X in einer langen Versuchsreihe interpretiert (vgl. Häufigkeitsinterpretation in Abschnitt 2.6.4). Diese Interpretation taucht nun in Form eines beweisbaren wahrscheinlichkeitstheoretischen Satzes, dem Gesetz der großen Zahlen, auf. Die dazu vorausgesetzte Versuchsanordnung dient auch vielen anderen statistischen Problemen als Grundlage und soll darum besonders hervorgehoben werden:
(4.1)
Voraussetzungen: Sei X eine Zufallsvariable mit dem Erwartungswert ^ und der Varianz o 2 . Das Zufallsexperiment, zu dem X gehört, wird n mal unabhängig voneinander durchgeführt. Xj bezeichne die Zufallsvariable, die angibt, welchen Wert X beim i-ten Versuch annehmen wird; der nach der D u r c h f ü h r u n g des i-ten Versuchs beobachtete Wert Xi ist eine Realisation von Xjj i = 1, ..., n. D a n n sind X 1 ; ..., X n unabhängige Zufallsvariablen, von denen jedes Xj dieselbe Verteilung wie X besitzt. Insbesondere gilt für alle i: EX; = ^ und VarXj = o 2 .
Das arithmetische Mittel X n der X,, ..., X, (4.2)
Xn= i(X1 + ...+Xn),
ist die Zufallsvariable, die den durchschnittlichen Wert von X bei n Versuchen angibt. Der nach der D u r c h f ü h r u n g der n Versuche beobachtete Durchschnittswert x n = — (x; + ... + x n ) ist eine Realisation von X n . Es gilt: (4.3)
EX n = (x
(4.4)
VarX n =
Dabei ergibt sich (4.3) aus der Linearität des Erwartungswertes und (4.4) mit Hilfe von (2.31) und (2.32) - dazu benötigt man die Voraussetzung der U n a b h ä n gigkeit der X j , . . . , X n . W e n d e t man auf X n die Tschebyscheff-Ungleichung (2.34) an, so erhält man (4.5)
P (
ix
n
-m 0 mit n—> °° gegen eins. Bewiesen wurde damit das Gesetz der großen Zahlen:
80
Kapitel 4: Grenzwertsätze und Approximationen
Für jedes (noch so kleine) positive c gilt: lim P (IXn—(xl < c) = 1 (4.6)
Man sagt dazu: X n konvergiert stochastisch (nach Wahrscheinlichkeit) gegen
Die Wahrscheinlichkeit, mit der das arithmetische Mittel X n in ein (beliebig klein) vorgegebenes Intervall c, n + c ) fällt, konvergiert mit wachsender Anzahl n der Versuche gegen 1. Für großes n nimmt X n mit hoher Wahrscheinlichkeit Werte nahe bei an. Spezialfall: Es sei nur von Interesse, ob ein bestimmtes Ereignis A eintritt oder nicht. Für die Zufallsvariable 1 falls A eintritt 0 falls A nicht eintritt gilt (vgl. Beispiele 2.13 und 2.16): EX = P ( A ) = p und VarX = p ( l - p ) .Also tritt p an die Stelle von ^ und p (1 —p) an die Stelle von o 2 . Welche Bedeutung hat hier X n ? Jedes X, ist gleich 1 oder 0, je nachdem, ob beim i-ten Versuch A eintritt oder nicht; daher ist X, 4-... + X n die absolute Häufigkeit und X n die relative Häufigkeit der Versuche, bei denen A eintritt; wir bezeichnen sie mit H n oder H n (A). Aus (4.6) erhalten wir:
(4.7)
Die relative Häufigkeit, mit der ein Ereignis A bei n unabhängigen Versuchswiederholungen eintritt, konvergiert stochastisch gegen die Wahrscheinlichkeit von A.
Diese spezielle Form des Gesetzes der großen Zahlen wurde bereits von Bernoulli entwickelt und heißt Theorem von Bernoulli. Auf seine Bedeutung wurde schon ausführlich eingegangen. Es liefert die Rechtfertigung für die (näherungsweise) Bestimmung einer unbekannten Wahrscheinlichkeit durch die relativen Häufigkeiten in einer langen Versuchsreihe. Wie lang muß dazu die Versuchsreihe sein, das heißt, wie groß sollte dazu die Anzahl n der Versuche mindestens sein? Eine wenn auch vorläufig noch sehr grobe Antwort auf diese Frage erhält man hier wieder mit Hilfe der Tschebyscheff-Ungleichung: Mit (x = p und a 2 = p (1—p) geht (4.5) über in P(IHn-pl ( - 1 . 1 ) = 0.8643 - 0 . 1 3 5 7 = 0.7286 O h n e Stetigkeitskorrektur erhält man d a f ü r den Wert 0.6826. ( E x a k t e r Wert: 0.7292)
Wir w e n d e n nun die bisherigen Betrachtungen auf die relative Häufigkeit H n an, mit der ein Ereignis A unter n unabhängigen Versuchswiederholungen eintritt. Ist p = P ( A ) , so ist die absolute Häufigkeit Y des Eintretens von A eine B(n;p)-verteilte Zufallsvariable. Nach (4.17) ist Y approximativ N ( n p ; n p ( l - p ) ) verteilt. F ü r H n = ^ Y folgt daraus nach (3.31):
K a p i t e l 4: G r e n z w e r t s ä t z e u n d A p p r o x i m a t i o n e n
H n ist näherungsweise N
(4.23)
87
-verteilt
bzw. nach Standardisierung: _ (H„-p)V?
(4.24)
, ist näherungsweise N(0;l)-verteilt
Auch f ü r diese Approximationen ist Faustregel (4.18) maßgebend. Wir können diese Näherung verwenden, um die folgende Frage zu beantworten, die im Z u s a m m e n h a n g mit dem Gesetz der großen Zahlen bei der Bestimmung einer unbekannten Wahrscheinlichkeit p durch die relative Häufigkeit H n aufgetaucht war: Wie groß m u ß n mindestens sein, damit die Wahrscheinlichkeit dafür, daß H n von p um höchstens c abweicht, mindestens y beträgt (c > 0 und 0 < y < 1 vorgegeben)? Wegen p(l— p) = ^ f ü r alle p e r h a l t e n wir:
P(IHn-p|Sc) = P ( l Z
n
l ^ c ^ ^ )
P(IZ n l = 2cVn)
Mit der Approximation (4.24) und der Beziehung (3.29) folgt: P (IZ n l ^ 2cVn) = P ( - 2 c V n ^ Z n ^ +2cVii) = 1 - a , wenn 2cVn = Tan
(das 2 -Fraktil der Standardnormalverteilung) eingesetzt
wird. Wir setzen a = 1—y und kürzen das ^ " ^ - F r a k t i l mit T ab. A u s 2cVn = t folgt: n = (TJ-J . Als Ergebnis erhalten wir: P (IHn—pl 5§ c) = y gilt näherungs^
'
I
T\2
weise, wenn n = (2c) Beispiel 4 . 3
V o r g e g e b e n sei 7 = 0.99 u n d c = 0.05. N a c h (3.30) l a u t e t das - ^ - F r a k t i l T = 2.58. W i r erh a l t e n : Die F o r d e r u n g P ( I H „ - p ) l " 0.05) = 0.99 ist n ä h e r u n g s w e i s e e r f ü l l t , w e n n n
'
g (2.58/0.1) 2 = 665.64 ist. d a s heißt für n g 666. M a n vergleiche d a m i t Beispiel 4.1.
Die Approximation der Binomial- durch die Normalverteilung geht auf de Moivre [1718] zurück und wurde von Laplace in die Wahrscheinlichkeitsrechnung eingebaut; die dazugehörige Konvergenzaussage heißt Moivre-Laplacescher Grenzwertsatz. Der allgemeine zentrale Grenzwertsatz wurde erst sehr viel später entwickelt (L]apunoff [1901]).
4.3.3 Approximation der Binomial- durch die Poisson-Verteilung Für p-Werte, die nahe bei 0 oder 1 liegen, führt die Approximation der Binomialdurch die Normalverteilung erst bei sehr großen Werten von n zu brauchbaren Ergebnissen. In diesem Fall ist es wesentlich günstiger, zur Approximation die Poisson-Verteilung zu verwenden. Z u m Nachweis dieser Beziehung zwischen der
88
Kapitel 4: Grenzwertsätze und Approximationen
B(n;p)- und der Po(X)-Verteilung können wir uns auf p-Werte nahe bei 0 beschränken. (Liegt p nahe bei 1, so geht man von der B(n;p)- auf die B ( n ; l - p ) Verteilung über und zieht das Ergebnis von Aufgabe 35 hinzu.) Die B(n;p)-Verteilung hat den Erwartungswert np, die Po(X)-Verteilung den Erwartungswert X. Deshalb ist es naheliegend, bei der beabsichtigten Approximation X = np zu wählen. Wir betrachten für die Wahrscheinlichkeitsfunktion der B(n;p)-Verteilung den Grenzübergang (*)
n-^oo und p—»0 derart, daß np = X konstant bleibt:
x!
Ergebnis: Beim Grenzübergang (*) strebt die Wahrscheinlichkeitsfunktion der B(n;p)-Verteilung gegen diejenige der Po(X)-Verteilung mit X. = np. Diese Konvergenzbeziehung wird nach ihrem Entdecker Grenzwertsatz von Poisson genannt. Es ergibt sich der für die Anwendung wichtige Sachverhalt:
(4.25)
Für kleine p-Werte und große Werte von n stimmt die Binomialverteilung B (n;p) annähernd mit der Poisson-Verteilung Po (np) überein, kurz: B(n;p)~Po(np)
Diese Approximation ist nach einer Faustregel bereits für p = 0.1 und n ^ 30 hinreichend genau. Eine B(n;p)-verteilte Zufallsvariable X gibt die Anzahl der Versuche an, bei denen ein Ereignis A mit p = P (A) eintritt, wenn man das dazugehörige Zufallsexperiment n-mal unabhängig voneinander wiederholt. Wegen (4.25) wird die Poisson-Verteilung in diesem Zusammenhang auch die Verteilung seltener Ereignisse genannt.
Kapitel 4: Grenzwertsätze und Approximationen
89
Beispiel 4.4 Als kleine Demonstration zum Grenzwertsatz von Poisson betrachte man die folgende Gegenüberstellung von Wahrscheinlichkeitsfunktionen: Binomialverteilungen
X
n = 10, p = 0.2 0 1 2 3 4 5 6 7 8 9
0.1074 0.2684 0.3020 0.2013 0.0881 0.0264 0.0055 0.0008 0.0001
Poisson-Vert.
n = 20, p = 0.1 n = 40, p = 0.05 n = 100, p = 0.02 0.1215 0.2702 0.2852 0.1901 0.0898 0.0319 0.0089 0.0020 0.0003 0.0001
0.1285 0.2706 0.2776 0.1852 0.0901 0.0341 0.0105 0.0027 0.0006 0.0001
0.1326 0.2707 0.2734 0.1823 0.0902 0.0353 0.0114 0.0031 0.0007 0.0002
X =
2
0.1353 0.2707 0.2707 0.1804 0.0902 0.0361 0.0120 0.0034 0.0009 0.0002
Beispiel 4.5 Die Glühbirnen einer Serienfertigung werden vor dem Versand kontrolliert. Die Kontrolle arbeitet mit einem Durchschlupf von 0.2%, das heißt, in den Versand kommen auch 0.2% unbrauchbare Glühbirnen („schlechte Stücke"). Es werden Kartons zu je 50 Stück abgepackt (die als zufällig ausgewählt gelten können). Es wird eine Garantie gegeben, daß höchstens eine Glühbirne je Karton unbrauchbar ist. Wie groß ist die Wahrscheinlichkeit, daß der Inhalt eines Kartons diese Garantie einhält? Sei X die Anzahl der schlechten Stücke in einem Karton. Zunächst einmal ist X hypergeometrisch verteilt. Da die Grundgesamtheit (Gesamtproduktion) sehr groß ist („unendlich"), kann man die Verteilung von X brauchbar durch eine Binomialverteilung approximieren, und zwar durch die B(50;0.002)-Verteilung. Diese wiederum kann durch eine Poisson-Verteilung, und zwar durch die Po(0.1)-Verteilung approximiert werden. (Die dazugehörige Faustregel „n = 30, p ' 0.1" ist erfüllt.) Damit erhalten wir aus der entsprechenden Tabelle die Antwort: P ( X S 1 ) = 0.9953. Werden sehr viele Kartons zu je 50 Stück ausgeliefert, so m u ß nach dem Gesetz der großen Zahlen damit gerechnet werden, daß von ihnen etwa 0.47% die gegebene Garantie nicht erfüllen.
4.3.4 Approximation der Poisson- durch die Normalverteilung Der Vollständigkeit halber gehen wir auch noch auf die Approximation der Poisson- durch die Normalverteilung ein. Sie ergibt sich aus den beiden Approximationsmöglichkeiten für die Binomialverteilung. Sind die dazugehörigen Faustregeln beide erfüllt (dies ist der Fall für p iE 0.1 und X = np 10), so erhalten wir aus (4.17) und (4.25): B (n;p) ~ N ( n p ; n p ( l - p ) ) und B (n;p) = Po (np); also folgt Po (np) ~ N ( n p ; n p ( l - p ) ) Wenn man dabei noch berücksichtigt, daß X = np = np(l—p) gilt, so erhält man: Für nicht zu kleine X - W e r t e (Faustregel: X = 10) gilt: (4.26)
Po (X) = N ( X ; X )
90
Kapitel 4: Grenzwertsätze und Approximationen
Die Verteilungsfunktion der Po(X)-verteilten Zufallsvariablen X wird damit unter Verwendung der Standardisierungsformel (3.27) durch (4.27)
P(X^x)- 9). Wegen p (1 — p) ^ - i - für alle p erhält man dann aus (7.9) eine Aussage der Form (7.11), nämlich die Abschätzung: (7.12)
P ( I X - pl ^ c ) ^ 2(2cVn) - 1
Die Aussagen der Form (7.10) oder (7.11) geben die Verläßlichkeit des Schätzverfahrens - in Abhängigkeit von n und c - durch eine zwischen 0 und 1 liegende Zahl y an. Als Konsequenz aus der Verwendung des objektivistischen Wahrschcinlichkeitsbcgriffes gilt die folgende Häufigkeitsinterpretation: Die Verläßlichkeitsbeurteilung (7.10) besagt, daß man bei sehr häufiger A n wendung des Schätzverfahrens in etwa 100 • y% aller Fälle einen x-Wert erhält, für den p £ [ x - c , x + c] ist. Entsprechendes gilt für (7.11). Diese frequentistische Beurteilungsweise einer Schätzung ist für die klassische Schätztheorie charakteristisch: Wie gut ein Schätzverfahrcn ist, wird daran gemessen, wie oft man bei häufiger A n w e n d u n g des Verfahrens einen guten (das heißt nahe bei dem unbekannten Parameterwert liegenden) Schätzwert erhält. Aufgrund der noch bestehenden Abhängigkeit zwischen y, n und c können die Aussagen der Form (7.10) oder (7.11) unter drei verschiedenen Fragestellungen betrachtet werden. Bei der Beschreibung dieser drei Fälle beschränken wir uns auf den Aussagentyp (7.11). Fall 1: n und c gegeben, y gesucht In diesem Fall gibt man sich bei vorliegendem Stichprobenumfang n für die Abweichungen zwischen x und p eine Toleranzgrenze c vor. Schätzwerte x mit Ix — pl = c gelten als hinreichend genau, die anderen als zu ungenau. Gesucht ist die größte Zahl y, für die P (IX - pl g c) § y gilt.
Beispiel 7.3 Z u vorliegendem n = 100 wird die Toleranzgrenze c = 0.05 vorgegeben. A u s (7.12) ergibt sich d a f ü r : P (IX - pl S 0.05) ä 2 (1) - 1 = 0.6826, also y = 0.6826.
Fall 2: n und y gegeben, c gesucht Dieser Fall hat in der Statistik besonders große Bedeutung. Er führt zur Konstruktion sogenannter Konfidenzintervalle. Für die Verläßlichkeit des Schätzverfahrens gibt man sich eine nahe bei 1 gelegene untere Grenze y vor und bestimmt
144
Kapitel 7: Exemplarische Behandlung schätztheoretischer Konzepte
d a z u e i n e möglichst kleine S c h r a n k e c, f ü r die gilt: P (IX — pl = c) = y. M a n n e n n t [X — c, X + c] ein Konfidenzintervall zum Konfidenzniveau y. E s ü b e r d e c k t d e n u n b e k a n n t e n P a r a m e t e r p mit einer W a h r s c h e i n l i c h k e i t von m i n d e s t e n s y. Beispiel 7.4 Z u vorliegendem n = 100 wird das Konfidenzniveau y = 0.95 vorgegeben. U n t e r Anwendung von (7.12) erhält man aus P(IX - pl 2 c) S 24>(2c V n ) - 1 = y die Beziehung (2c V n ) = (1 + y)/2, in unserem Fall ü z u erfolgen h ä t t e . Dieser U m s t a n d m a c h t d e n Vergleich nicht n u r sehr k o m p l i z i e r t , s o n d e r n in vielen F ä l l e n sogar u n m ö g l i c h . F ü r zwei S c h ä t z u n g e n T , u n d T 2 k a n n nämlich - auch bei f e s t e m n u n d p - die S i t u a t i o n e i n t r e t e n , d a ß f ü r c = q die Ü b e r d e c k u n g s w a h r scheinlichkeit von T! g r ö ß e r ist als d i e j e n i g e von T 2 , w ä h r e n d f ü r ein c = c 2 d i e j e nige von T 2 g r ö ß e r ist als die von T | ; die b e i d e n S c h ä t z u n g e n w ä r e n d a n n u n v e r gleichbar. U m a b e r die F r a g e , ob eine Schätzung T) einer a n d e r e n S c h ä t z u n g T 2 v o r z u z i e h e n ist, ü b e r h a u p t mit Aussicht auf E r f o l g a n g e h e n zu k ö n n e n , m u ß m a n wenigstens bei festem n und p stets e n t s c h e i d e n k ö n n e n , o b T^ besser als T 2 ist o d e r nicht. M a n b e n ö t i g t d a h e r ein G ü t e m a ß , d a s nur von n und p a b h ä n g t . (Bei d e m d a m i t a n g e s t r e b t e n G ü t e v e r g l e i c h h a t m a n natürlich zu b e r ü c k s i c h t i g e n , d a ß p u n b e k a n n t ist, d e r Vergleich also f ü r alle p gültig sein m u ß ; d a r a u f k o m m e n wir n o c h zu s p r e c h e n . ) I n n e r h a l b der klassischen S c h ä t z t h e o r i e hat sich als G ü t e m a ß die mittlere quadratische A b w e i c h u n g (mean Square error = M S E ) d u r c h g e s e t z t ; d a r u n t e r vers t e h t m a n d e n E r w a r t u n g s w e r t der q u a d r i e r t e n A b w e i c h u n g d e r S c h ä t z u n g von d e m zu s c h ä t z e n d e n P a r a m e t e r . In u n s e r e m Fall l a u t e t dieses G ü t e m a ß (7.13)
M S E (p; X ) = E ([X — p] 2 )
( D i e linke Seite wird gelesen als „ m e a n Square e r r o r von X in A b h ä n g i g k e i t von p ; (7.13) wird als F u n k t i o n v o n p a u f g e f a ß t . )
Kapitel 7: Exemplarische Behandlung schätztheoretischer Konzepte
145
U m in unserem Beispiel M S E (p; X) zu berechnen, gehen wir von der Beziehung (7.6) aus und beachten, daß darin Y hypergeometrisch bzw. binomialverteilt ist, je nachdem, ob ohne oder mit Zurücklegen gezogen wird. In beiden Fällen ist E Y = np, so daß sich wegen X = — Y (7.14)
EX = p
ergibt. Damit folgt aus (7.13): (7.15)
MSE (p; X) = VarX
Solche Schätzfunktionen erhalten einen besonderen N a m e n : Eine Schätzfunktion, deren Erwartungswert mit dem zu schätzenden Parameter übereinstimmt, heißt erwartungstreu (unbiased). Die mittlere quadratische Abweichung einer erwartungstreuen Schätzfunktion stimmt mit ihrer Varianz überein. Wegen VarX = 4 r2 V a r Y erhalten wir aus (7.15) mit Hilfe der entsprechenden n Formeln (3.10) bzw. (3.15) für die Varianz der hypergeometrischen Verteilung bzw. der Binomialverteilung:
(7.16)
M S E (p; X )
:
p(l-p) n P(l-P)
N-n N-1
beim Ziehen ohne Zurücklegen beim Ziehen mit Zurücklegen
In Abbildung 32 ist M S E (p;X) als Funktion von p dargestellt. (Dabei wird davon 1 2 abgesehen, daß p in Wirklichkeit nur die W e r t e 0, ^ , — , . . . , 1 annehmen kann.) M S E (p; X) beim Ziehen mit Zurücklegen beim Ziehen ohne Zurücklegen
0 Abb. 32
0.5
1
D e r M e a n Square Error von X als Funktion von p ( N = 100, n = 25)
Die folgenden drei Eigenschaften rechtfertigen die Verwendung des mean Square errors als Standardgütemaß der klassischen Schätztheorie. Sie stellen gleichzeitig eine Interpretation und Veranschaulichung dieses G ü t e m a ß e s dar
146
Kapitel 7: E x e m p l a r i s c h e Behandlung schätztheoretischer Konzepte
und d o k u m e n t i e r e n die in der klassischen Statistik vorherrschende sche Betrachtungsweise. 1) Der mean Square error als Maß für den
frequentisti-
Schätzfehler
Mißt m a n den Fehler eines Schätzwertes durch seine quadratischen Abweichungen von dem zu schätzenden P a r a m e t e r , so gibt der m e a n s q u a r e error den zu erwartenden Schätzfehler an. D a r a u f läßt sich die Häufigkeitsinterpretation des E r wartungswertes (vgl. Abschnitt 2.6.4), die durch das Gesetz der großen Z a h l e n abgesichert ist, f o l g e n d e r m a ß e n anwenden: W e r d e n aus der G r u n d g e s a m t h e i t k Stichproben, jeweils vom U m f a n g n, gezogen u n d die dazugehörigen x-Werte x L (p 2 ; Xj,..., x n ) genau dann, wenn L (p t ; y) > L (p 2 ; y) ist. Innerhalb der Likelihood-Theorie ist es daher gleichgültig, ob man von L (p; x 1 ; . . . , x n ) oder von L (p; y) ausgeht: Die beiden Likelihood-Funktionen gelten als äquivalent. An (7.24) und (7.25) läßt sich noch einmal die Grundidee der Likelihood-Theorie dokumentieren: Vor der Beobachtung ordnet ein p-Wert den möglichen Werten von Y eine Wahrscheinlichkeit zu, nach der Beobachtung ordnet ein y-Wert den möglichen p-Werten eine Likelihood zu. Durch die Beobachtung haben sich die Rollen von p und y gerade vertauscht. Beispiel 7.6 Wir betrachten in Beispiel 7.5 zu jedem mgölichen p-Wert und zu jedem potentiellen Beobachtungswert y die Wahrscheinlichkeiten f (y; p) = P (Y = y):
\
y
Kapitel 7: Exemplarische Behandlung schätztheoretischer Konzepte
P
0
\ 0 i 2 3 4
1 0 0 0 0
1 0.586 0.335 0.072 0.007 0.000
T
2
0.316 0.422 0.211 0.047 0.004
oo| w
150
4
5
6
7 IT
1
0.153 0.366 0.330 0.132 0.020
0.063 0.250 0.375 0.250 0.063
0.020 0.132 0.330 0.366 0.153
0.004 0.047 0.211 0.422 0.316
0.000 0.007 0.072 0.335 0.586
0 0 0 0 1
Vor der Beobachtung wird die Situation durch die Tabellenspaften beschrieben: Jede Spalte enthält die durch das jeweilige p bestimmte Wahrscheinlichkeitsverteilung von Y (die B (4; p)-Verteilung). Nach der Beobachtung sind die Zeilen der Tabelle maßgebend: Jede Zeile enthält die durch die betreffende Beobachtung y bestimmte Likelihood-Funktion von PIn der R e g e l geht man davon aus, daß für den unbekannten Parameter p jede reelle Zahl zwischen 0 und 1 in Frage k o m m t . D i e s e A n n a h m e ist gerechtfertigt, w e n n N sehr groß oder aber unbekannt ist. D i e Likelihood-Funktion L (p; X j , . . . , x n ) oder L (p; y) ist dann eine für alle 0 = p ^ 1 erklärte stetige Funktion v o n p. Sie liefert zu jeder Beobachtung eine stetige Plausibilitätsbewertung im Sinne von (7.22) für die möglichen Parameterwerte auf dem Einheitsintervall. Beispiel 7.7 Aus einer Grundgesamtheit (mit sehr großem oder unbekanntem N) werden n = 4 Elemente (in Form einer reinen Zufallsauswahl mit Zurücklegen) gezogen. Für den unbekannten Parameter p kommt jeder Wert zwischen 0 und 1 in Betracht. In der Stichprobe werden y Elemente mit der Eigenschaft E beobachtet. Zu jedem möglichen Beobachtungswert y = 0, 1 , 2 , 3 oder 4 sind die Likelihood-Funktionen L (p; y) in Abbildung 33 wiedergegeben. Jede Beobachtung y liefert eine andere stetige Plausibilitätsbewertung für p auf dem Einheitsintervall.
Abb. 33
Die Likelihoodfunktion L (p; y) = (") py (1 - p) n " y für n = 4 und die Beobachtungswerte y = 0 , 1 , 2 , 3 und 4
Innerhalb der Likelihood-Theorie bestimmt man grundsätzlich bei der Auswertung einer Stichprobe zunächst die Likelihood-Funktion. Je nach Aufgabenstellung kann sich dann in einem zweiten Schritt ein weiteres Auswertungsverfahren anschließen. D i e s e s darf sich nur auf die Likelihood-Funktion stützen. Wir betrachten hier die A u f g a b e , aus der beobachteten Stichprobe einen Schätzwert p für das unbekannte p zu gewinnen. Welcher Schätzwert p gilt in der Likelihood-
Kapitel 7: Exemplarische Behandlung schätztheoretischer Konzepte
151
Theorie als der beste? Die Antwort auf diese Frage ergibt sich unmittelbar aus dem Likelihood-Prinzip: Der aufgrund der Beobachtung plausibelste p-Wert ist der beste Schätzwert p. Nach (7.22) bedeutet dies: ^ '
'
i Der beste Schätzwert p ist derjenige p-Wert, für den die Likelihood\ Funktion am größten ist.
Die Methode „bestimme p derart, daß L (p; x b ..., x n ) bzw. L (p; y) maximal wird" nennt man Maximum-Likelihood-Methode, die daraus resultierende Schätzung Maximum-Likelihood-Schätzung. Zur Bestimmung von p gehen wir von L (p; y) aus und betrachten den oben beschriebenen Regelfall, in dem für p jeder Wert zwischen 0 und 1 möglich ist. Dann ist L (p; y) eine nach p differenzierbare Funktion. Aus (7.25) ergibt sich für alle 0 < y < n: L' (p; y) = ^ L
(p; y) = (J) ypv - ' (1 - p)" - > - (J) (n - y) p? ( 1 - p ) " " y - •
= [ y ( i - p ) - ( n - y ) p] ( y ) p y - 1 ( i - p ) n ~ y ~ ' Daraus erhalten wir zur Bestimmung von p die Gleichung: y (1 — p) — (n — y) p = 0, woraus sich p
ergibt. Da L(p; y) für p = 0 und
p = 1 gleich Null wird und sonst überall positiv ist, liegt an der Stelle p ein Maximum vor. Für y = 0 nimmt L (p; 0) = (1 — p) n den größten Wert an der Stelle p = 0 an. Für y = n nimmt L (p; n) = p" den größten Wert an der Stelle p = 1 an. In allen Fällen erhalten wir:
(
Die Maximum-Likelihood-Schätzung p von p lautet:
p=
x = relative Häufigkeit
Die beiden in der Überschrift genannten Eigenschaften des Likelihood-Prinzips sind in unseren Ausführungen schon mehrmals transparent geworden. Das Likelihood-Prinzip ist objektivistisch: Zur Festlegung der Verteilung der Stichprobe wird der objektivistische Wahrscheinlichkeitsbegriff zugrunde gelegt. Da durch diese Verteilung die Likelihood-Funktion bestimmt wird, gehen in die Plausibilitätsbewertung der p-Werte und in die Wahl der besten Schätzung p keine subjektiven Elemente ein. Das Likelihood-Prinzip ist nichtfrequentistisch: Die Bewertung der p-Werte durch die Likelihood-Funktion und die Festlegung von p richten sich allein nach der einen beobachteten Stichprobe. Innerhalb der Likelihood-Theorie wird nicht danach gefragt, wie gut bei häufiger Anwendung des Schätzverfahrens die Schätzwerte durchschnittlich („auf lange Sicht") sind. Nach der Beobachtung wird nicht mehr berücksichtigt, was auch sonst noch alles hätte beobachtet werden können.
152
Kapitel 7: Exemplarische B e h a n d l u n g schätztheoretischer Konzepte
7.4 Das subjektivistische Schätzkonzept: nichtfrequentistisch 7.4.1 Grundlagen D e n beiden bisher b e s p r o c h e n e n schätztheoretischen K o n z e p t e n lag der objektivistische Wahrscheinlichkeitsbegriff z u g r u n d e . Die V e r t r e t e r dieser Wahrscheinlichkeitsauffassung, wir n e n n e n sie kurz Objektivisten, k ö n n e n sich sowohl der klassischen Schätztheorie als auch der Likelihood-Theorie bedienen. Wir gehen nun vom subjektivistischen Wahrscheinlichkeitsbegriff aus und fragen danach, wie die V e r t r e t e r dieses Begriffes, die Subjektivisten, bei der A u s w e r t u n g einer Stichprobe vorgehen. Ein Subjektivist geht davon aus, daß Wahrscheinlichkeiten vom Kenntnisstand des jeweiligen B e t r a c h t e r s abhängen. D e r Betrachter ordnet aufgrund seines Wissensstandes d e n Ereignissen „seine" Wahrscheinlichkeiten zu. O b j e k t einer solchen Z u o r d n u n g kann prinzipiell jedes Ereignis oder ü b e r h a u p t j e d e G r ö ß e sein, gleichgültig, o b sie mit wiederholbaren Zufallsexperimenten zusammenhängt oder nicht. Für Subjektivisten gibt es keine strikte T r e n n u n g zwischen zufälligen G r ö ß e n (Zufallsvariablen) und nichtzufälligen G r ö ß e n ( P a r a m e t e r n ) , wie sie für Objektivisten typisch ist. Im Gegensatz zum Objektivisten kann ein Subjektivist auch einen unbekannten P a r a m e t e r als Zufallsvariable auffassen und ihm eine (subjektive) Wahrscheinlichkeitsverteilung z u o r d n e n . Diesen S t a n d p u n k t vertreten Subjektivisten, wenn sie Rückschlüsse von einer Stichprobe auf den u n b e k a n n t e n Parameter einer G r u n d g e s a m t h e i t ziehen. In u n s e r e m Beispiel b e d e u t e t dies, daß wir zwischen dem P a r a m e t e r als Zufallsvariable und d e m Parameterwert p als Realisation dieser Zufallsvariablen unterscheiden müssen. Die Zufallsvariable „ P a r a m e t e r " bezeichnen wir mit Z. Sie beschreibt die möglichen Zustände der G r u n d g e s a m t h e i t . Die Realisationen von Z sind die möglichen Parameterwerte p. Wie j e d e r Zufallsvariablen wird auch Z eine Wahrscheinlichkeitsverteilung zugeordnet. D a m i t wird auch eine Aussage z.B. der F o r m P ( Z = p) = jt sinnvoll; sie besagt: D i e Wahrscheinlichkeit, d a ß der u n b e k a n n t e Parameter den W e r t p besitzt, ist gleich n. - D e r Standpunkt der Subjektivisten lautet:
{
D e r u n b e k a n n t e Parameterwert p wird als Realisation einer Zufallsvariablen Z aufgefaßt. Die Verteilung von Z stellt den jeweiligen Kenntnisstand des Betrachters über den P a r a m e t e r dar.
Vor der Beobachtung der Stichprobe entspricht die Verteilung von Z den Vorkenntnissen des Betrachters über den P a r a m e t e r . Diese von der Person des Betrachters abhängige Verteilung heißt die a priori Verteilung des Parameters. Sie ist vom Betrachter anzugeben. Verschiedene Personen k ö n n e n dem P a r a m e t e r verschiedene a priori Verteilungen z u o r d n e n . In der a priori Verteilung steckt das eigentlich subjektive E l e m e n t bei der Auswertung einer Stichprobe. Nach der Beobachtung der Stichprobe stellt die Verteilung von Z den n e u e n , durch die Vorkenntnisse und Beobachtung bestimmten Kenntnisstand des Betrachters ü b e r den P a r a m e t e r dar. Diese Verteilung heißt die a posteriori Verteilung des Parameters. Auf ihre Bestimmung gehen wir noch ein. D a s G r u n d s a t z p r o g r a m m der Subjektivisten bei der A u s w e r t u n g von Beobachtungen lautet damit:
Kapitel 7: Exemplarische Behandlung schätztheoretischer Konzepte
153
{
Ausgehend von der subjektiven a priori Verteilung des Betrachters ist die aus der Beobachtung resultierende a posteriori Verteilung zu bestimmen; sie stellt den Kenntnisstand des Betrachters nach der Beobachtung dar.
Diese Art der Auswertung entspricht einem Lernen aus Beobachtungen: Ein Subjektivist lernt durch die Beobachtung hinzu (vermehrt sein Wissen durch die Beobachtung), indem er von der a priori Verteilung auf die a posteriori Verteilung übergeht. Auch für Subjektivisten ist die Stichprobe und deren Beobachtung objektiv gegeben. Der Übergang von der a priori zur a posteriori Verteilung darf deswegen keine subjektiven Elemente enthalten. Anders ausgedrückt: Liegen zum einen das Auswahlverfahren und damit die Verteilung der Stichprobe und zum anderen die beobachteten Stichprobenwerte fest, so müssen gleiche a priori Verteilungen auch zu gleichen a posteriori Verteilungen führen. Subjektivisten brauchen daher eine verbindliche Regel, die gewährleistet: ^ '
'
f Die a posteriori Verteilung liegt eindeutig fest, wenn a priori VerIteilung, Stichprobenverteilung und Beobachtung gegeben sind.
Diese Regel ist die Bayessche Formel (Satz oder Theorem von Bayes, vgl. Abschnitt 1.6). Der oben beschriebene Lernvorgang kann kurz formuliert werden als „ein Subjektivist lernt aus Beobachtungen gemäß der Bayesschen Formel hinzu". Aus diesem Grund nennt man die Subjektivisten auch Bayesianer. (Aber Vorsicht: Jeder Subjektivist benutzt zwar die Formel von Bayes, aber nicht jeder Statistiker, der sich dieser Formel bedient, ist auch ein Anhänger der subjektivistischen Wahrscheinlichkeitsauffassung!) Wir zeigen nun, wie man die a posteriori Verteilung durch die Bayessche Formel bestimmt. Dazu unterscheiden wir zwischen einer diskreten und einer stetigen a priori Verteilung.
7.4.2 Die a posteriori Verteilung bei diskreter a priori Verteilung Wir gehen davon aus, daß die Vorkenntnisse des Betrachters über den Parameter durch eine diskrete a priori Verteilung von Z dargestellt werden. Den Träger dieser diskreten Verteilung (vgl. Abschnitt 2.2) bezeichnen wir mit D, das heißt: D = {p: P (Z = p) > 0}. Wir beschränken uns auf den Fall, daß D nur endlich viele verschiedene p-Werte enthält, weisen aber darauf hin, daß die folgenden Überlegungen auch für diskrete a priori Verteilungen mit abzählbar unendlichem Träger gelten. Die a priori Verteilung von Z wird durch ihren Träger D und ihre Wahrscheinlichkeitsfunktion, die wir mit h (p) bezeichnen, angegeben: (7.31)
h ( p ) = P ( Z = p)
für alle p (ED
Beispiel 7.8 Die Grundgesamtheit besteht aus einer bekannten Anzahl von N Elementen; davon besitM zen eine unbekannte Anzahl M die Eigenschaft E. Für den unbekannten Parameter p = — N
1 2 N N
kommen nur die Werte 0, — , — > • • • , 1 in Frage. Diese N + 1 Werte bilden den Träger D. Der Betrachter hat keine weiteren Vorkenntnisse über p. In diesem Fall kann er das
154
Kapitel 7: Exemplarische Behandlung schätztheoretischer Konzepte
Prinzip vom unzureichenden Grund benutzen (vgl. Teil c) in Abschnitt 1.3.5) und annehmen, daß jeder mögliche p-Wert die gleiche Wahrscheinlichkeit besitzt. Als a priori Verteilung wählt er dann die diskrete Gleichverteilung auf der Menge D, das heißt: h(p) = P(Z = p ) = ^
füralle p e {0, 1 ,
1}
Als Auswahlverfahren legen wir eine reine Zufallsauswahl mit Zurücklegen zugrunde. Die Stichprobenvariablen X [ , . . . , X n sind dann voneinander unabhängig. Jedes X( besitzt dieselbe Null-Eins-Verteilung mit dem Parameter p, falls Z den Wert p hat. Mit anderen Worten: Die bedingten Wahrscheinlichkeiten der Xj unter der Bedingung Z = p lauten P ( X ; = H Z = p) = p und P ( X j = 0IZ = p) = 1 - p Sie lassen sich zusammenfassen zu P (Xj = x J Z = p) = pXi (1 - p ) ' - *
für Xj = l o d e r O
Wegen der Unabhängigkeit der X b ..., X n erhalten wir daraus:
1
P(X, = x,IZ = p) - P ( X n = x n IZ = p) = p£*. (1 - p ) " - » .
Diese bedingten Wahrscheinlichkeiten legen die gemeinsame Verteilung der Stichprobenvariablen X 1 ; ..., X n fest unter der Bedingung, daß Z den Wertp besitzt. Man nennt diese Verteilung die bedingte Verteilung der Stichprobe unter der Bedingung Z = p; ihre Wahrscheinlichkeitsfunktion bezeichnen wir mit (7.32)
f ( X l , .... x n lp) = P (X, = x „ ..., X n = x n IZ = p)
Wegen (*) erhalten wir dafür: (7.33)
f(x1,...,xnlp) = p y ( l - p ) » - »
mity = 2x i
Die a priori Verteilung (7.31) und die bedingte Stichprobenverteilung (7.33) beschreiben die Situation vor der Ziehung der Stichprobe. Nach der Durchführung der Stichprobe mögen die Stichprobenwerte x,, ..., xn beobachtet worden sein, ein Ereignis, das wir mit B bezeichnen: B = „X[ = x, und X 2 = x2 und ... und X n = x n " Für jedes p E D kürzen wir das Ereignis „Z = p" vorübergehend mit A p a b . Dann erhalten wir nach dem Satz von Bayes (vgl. (1.13) in Abschnitt 1.6): (7.34) ^ ^
P ( Z = plB) = P (A P IB) = V ^ ^ P ^
P ( B I A p ) P ( A p )
2 P(BIA p1. P(A p' . p ED
Diese bedingten Wahrscheinlichkeiten legen nach der Beobachtung B die Verteilung von Z fest. Man nennt diese Verteilung die bedingte Verteilung von Z unter
Kapitel 7: Exemplarische Behandlung schätztheoretischer Konzepte
155
der Bedingung B (bzw. nach der Beobachtung x t , . . . , x n ). Sie wird als die a posteriori Verteilung des Parameters nach der Beobachtung x t , xn erklärt; ihre Wahrscheinlichkeitsfunktion, die wir mit (7.35)
h post (plxj, ..., x n ) = P ( Z = plB)
bezeichnen, ist durch (7.34) gegeben. Setzen wir darin (7.32) und (7.31) ein, so erhalten wir: (7.36)
hpost(plXi,...,x n ) =
,
,
p eD
Die a posteriori Verteilung des Parameters stellt den Informationsstand über den Parameter nach der Beobachtung der Stichprobe dar. Die Formel (7.36) gibt an, wie die a posteriori Verteilung aus der a priori Verteilung und der bedingten Stichprobenverteilung bestimmt wird. Diese Formel ist mit der (auf Wahrscheinlichkeitsfunktionen umgeschriebenen) Bayesschen Formel (1.13) identisch. In unserem Beispiel erhalten wir durch Einsetzen von (7.33) in (7.36) die a posteriori Verteilung (7.37)
h post ( p l x 1 , . . . , x n ) =
^ p'6D
Von der Beobachtung x , , . . . , xn geht in diese Verteilung nur der Wert y = 2x, ein, also die beobachtete Anzahl der Elemente mit der Eigenschaft E. Die Reihenfolge, in der die x 1; ..., x n beobachtet wurden, spielt keine Rolle. Daher ist es naheliegend, direkt von der Zufallsvariablen Y = 2X ( auszugehen. Unter der Bedingung Z = p besitzt Y die B (n;p)-Verteilung. Die dazugehörige Wahrscheinlichkeitsfunktion, wir bezeichnen sie mit f (ylp), lautet: (7.38)
f (ylp) = P (Y = ylZ = p) = (°) pv (1 - p)" - y
Daraus ergibt sich nach der Bayesschen Formel in Analogie zu (7.36): (7.39)
h p o s t (ply) = P ( Z = p , Y = y ) =
/ ^ ' ^ { p , ) p'GD
Setzt man darin (7.38) ein, so erhält man, da sich der Faktor (") wegkürzt: (7 40) V.W)
nh
( p |y) = post VP'yJ
^
p'GD
py(l-p)"-yh(p) p'y(l-p')n-yh(p')
Die so bestimmte a posteriori Verteilung nach der Beobachtung y stimmt mit derjenigen nach der Beobachtung xh ..., xn überein: h post (ply) = h post (plxj, ..., x n ), falls y = 2xj ist. Diese Übereinstimmung rechtfertigt die Vereinfachung, die Zufallsvariable Y und deren Beobachtungswert y an Stelle der gesamten Stichprobe zu verwenden.
156
Kapitel 7: Exemplarische Behandlung schätztheoretischer Konzepte
D i e a posteriori Verteilung des Parameters - gegeben durch (7.37) oder (7.40) - ist ebenfalls diskret. D e r N e n n e r auf der rechten Seite von (7.37) bzw. (7.40) ist ein Normierungsfaktor, der bewirkt, daß die über alle p-Werte gebildete S u m m e der Wahrscheinlichkeiten h ^ , ( p l x j , . . . , x n ) bzw. h post (ply) den Wert 1 hat.
Beispiel 7.9 Wir betrachten Beispiel 7.8 für eine Grundgesamtheit mit N = 8 Elementen. Die a priori Verteilung des Parameters ist h(p) = P ( Z = p ) = i
fürpG{0, 1 , 2 , . . . , 1 }
In einer Stichprobe (reine Zufallsauswahl mit Zurücklegen) von Umfang n = 4 werden y = 3 Elemente mit der Eigenschaft E beobachtet. Die a posteriori Verteilung des Parameters nach dieser Beobachtung lautet gemäß (7.40): p3(l-p)-X hpost (ply) = h post (p!3) =
P r
y
n'SH - n"l--L
=
y
3
(l-P) (pGD)
n'3i1-n'l
Für den Nenner erhält man
„ I d P ^ - P ' ) -
,?o ( T )
3 ( 1
" T
) =
i 3 ( 8
F i .
-
i ) =
W
Damit lautet die a posteriori Verteilung: h
pos,(pl3)= - ^ - p 3 ( l - p )
(
(pED)
= 2.57istdererwähnteNormierungsfaktor.)
Wir stellen diese Verteilung der a priori Verteilung in der folgenden Tabelle und in Abbildung 34 gegenüber.
apriori: h ( p )
1 9
a posteriori: post (p!3)
0
h
2 8
1 8
p
1 9 0.004
3 8
1 9
1 9
0.030
0.085
4 8 1 9 0.160
5 8 1 9
6 8 1 9
0.235
7 8 1 9
0.271
1 9 0.215
0
Vor der Beobachtung ist jeder p-Wert gleichwahrscheinlich, nach der Beobachtung lassen sich die p-Werte im Hinblick auf ihre Wahrscheinlichkeiten in die folgende Reihung bringen ( „ < " bedeutet „ist unwahrscheinlicher als"; die Werte p = 0 und p = 1 scheiden aufgrund der Beobachtung aus): 1 ^ , 2 ^ 3 ^ 4
7 ^
6
Kapitel 7: Exemplarische Behandlung schätztheoretischer Konzepte
b) a posteriori Verteilung nach der Beobachtung y = 3
a) a priori Verteilung: Jeder Parameterwert ist vor der Beobachtung gleich wahrscheinlich Abb. 34
157
(relative Häufigkeit =
a priori und a posteriori Verteilung zu Beispiel 7.9
Sie stimmt mit der Reihung der p-Werte bezüglich ihrer Likelihoods in Beispiel 7.5 überein (dort war auch N = 8, n = 4 und y = 3 gegeben). Diese Übereinstimmung hat ihren Grund: Ist die a priori Verteilung eine Gleichverteilung, so unterscheiden sich a posteriori Verteilung und Likelihood-Funktion nur um einen von p unabhängigen Faktor und liefern damit für gleiche Beobachtung stets dieselbe Plausibilitätsbewertung der Parameterwerte.
Beispiel 7.10 Für das Beispiel 7.9 (N = 8, n = 4, y = 3) betrachten wir nun die a priori Verteilung h(p)= -g-O-p)
für
P
e{0,
,...,1}
(vgl. Abbildung 35a). Die a posteriori Verteilung lautet nach (7.40): p3(l-p)
-g-(l-p)
_
2048
hpost(ply) = hp OSt (pl3) = J P ' 3 ( I - P ' ) - 1y Q - p ' ) p 6 nD
p3(l-p)2« 7.5p'(l-p)2
273
Wertetabelle von h (p) und h™, (pl3) p
1 8
2 8
3 8
4 8
5 8
6 8
7 8
a priori: h ( p )
16 72
14 72
12 72
10 72
8 72
6 72
4 72
2 72
a posteriori: hpost (p!3)
0
0.011
0.066
0.154
0.234
0.258
0.198
0.079
0
Vor der Beobachtung mißt der Betrachter den Parameterwerten 0 , - g - , . . . , 1 linear fallende Wahrscheinlichkeiten bei (Abbildung 35a). E r hält einen p-Wert für um so wahrscheinlicher, desto kleiner er ist: 1
0
158
Kapitel 7: E x e m p l a r i s c h e Behandlung schätztheoretischer K o n z e p t e
Ii, a) a priori Verteilung: linear fallende Wahrscheinlichkeiten für die Parameterwerte Abb. 35
b) a posteriori Verteilung nach der Beobachtung y = 3 (relative Häufigkeit =
"i
a priori und a posteriori Verteilung zu Beispiel 7.10
(„*nlp)h(P)
/f(x1)...,xnlp')h(p')dp'
Kapitel 7: Exemplarische Behandlung schätztheoretischer Konzepte
159
(Vergleiche dazu Hinderer [1975], Seite 153f. oder Renyi [1970], Seiten 273ff. und 294). Auch hier kann man wie in Abschnitt 7.4.2 an Stelle der Stichprobe X], ..., X n bloß die absolute Häufigkeit Y = 2X; betrachten, die unter der Bedingung Z = p die B (n; p)-Verteilung besitzt. Ihre Wahrscheinlichkeitsfunktion f (ylp) ist in (7.38) gegeben. Nach dem verallgemeinerten Satz von Bayes ist die bedingte Verteilung von Z unter der Bedingung Y = y eine stetige Verteilung mit der Dichte (7.43)
h
p o s l ( P
l
f ( y
y ) = i
|
'
p ) h ( p )
f(ylp') h (p') dp'
Setzt man (7.33) in (7.42) bzw. (7.38) in (7.43) ein, so folgt (7.44)
p*(l - p ) n ~ y h ( p )
h p o s t (ply) = h p o s t (plx,,...,x n ) =
/ p'y(l-p')"-»h(p')dp' o
mit y = 2xj. Da h post (ply) mit h post (pIx,,..., x n ) übereinstimmt, ist der Übergang von Xj, ..., X n auf Y gerechtfertigt. Die durch h post (ply) bzw. h post (plx 1; ..., x n ) festgelegte bedingte Verteilung von Z stellt die a posteriori Verteilung des Parameters nach der Beobachtung dar.
Beispiel 7.11 Der Betrachter besitzt keine Vorkenntnisse über p und legt deswegen seine a priori Verteilung als stetige Gleichverteilung fest: , h ( p ) =
i 1 1 0
für 0 S p 2 1 sonst
In einer Stichprobe vom U m f a n g n = 4 werden y = 3 Elemente mit der Eigenschaft E beobachtet. A u s (7.44) erhalten wir: hpnsi (ply)
=
hpost (pl3) =
, P",(1~P)-1 / p'-^l - p ' ) " l d p ' (i
für
OSpSl
Für den N e n n e r erhält man: 1 p',44 - — 1 p',„1 1 - — 1 5 1 /j rp' 3 V-(1 — r p '/ ) - rd p ' = , [ — P P ],n ,== — ~~ — = r v r r 1 H o ' 4 5 4 5 20 posteriori Verteilung 20 p 1 (1 - p) hp„st (P 13 ) = { 0
Damit lautet die Dichte der a
fürOgpSl sonst
Der Faktor 20 bewirkt, daß die Fläche unter der Dichte den Wert 1 hat (Normierungsfaktor). Die Dichten h (p) und hp()sl (pl3) sind in Abbildung 36 dargestellt.
160
Kapitel 7: Exemplarische B e h a n d l u n g schätztheoretischer Konzepte h(p)
b) a posteriori Verteilung nach der Beobachtung y = 3
a) a priori Verteilung: Gleichverteilung auf dem Einheitsintervall A b b . 36
(relative Häufigkeit =
a priori und a posteriori Verteilung zu Beispiel 7.11
D i e s e a posteriori Verteilung unterscheidet sich von der Likelihood-Funktion, die sich bei n = 4 u n d y = 3 ergibt, nur um einen von p unabhängigen F a k t o r (vgl. Beispiel 7.7). Wie im diskreten Fall (vgl. Beispiel 7.9) gilt auch hier: Ein Subjektivist mit einer Gleichverteilung als a priori Verteilung und ein A n h ä n g e r des Likelihood-Prinzips k o m m e n bei gleicher B e o b a c h t u n g stets zu derselben Plausibilitätsbewertung der P a r a m e t e r w e r t e .
Beispiel 7.12 D i e V o r k e n n t n i s s e des Betrachters lassen sich durch eine linear fallende Dichte beschreiben: 2(1-p)
h(p) =
für 0 = p = 1 sonst
Wie o b e n sei n = 4 und die Beobachtung y = 3 (relative Häufigkeit = — )
gegeben.
Dann
lautet die D i c h t e der a posteriori Verteilung hpmt(p|y)
=
h
p3(l-p)-2(l-p)
p. das heißt:
T„ ist asymptotisch gleich Var T*. Die Eigenschaften 3) und 4) laufen darauf hinaus, daß für hinreichend große n die ML-Schätzungen praktisch genauso gut wie die effizienten Schätzungen sind. Man spricht in diesem Sinne von einer asymptotischen Effizienz der ML-Schätzungen. Auf die genaue Definition des Begriffes der asymptotischen Effizienz, für die es in der Literatur verschiedene Fassungen gibt, können wir seiner mathemati-
Kapitel 8: Punkt- und Intervallschätzungen
185
sehen Anforderungen wegen nicht eingehen. Wir verweisen dazu etwa auf Cox und Hinkley [1974] und Lehmann [1991]. Auch die genauen Voraussetzungen, unter denen die obigen vier Aussagen gelten, und die dazugehörigen Beweise findet man dort. Neben diesen Gütemerkmalen zeichnen sich die ML-Schätzungen auch durch die folgende Invarianzeigenschaft aus: iü i
i ' s t T ML-Schätzung für 8 und g eine streng monotone Funktion, so 1 ist g(T) ML-Schätzung für g (6).
Erwartungstreue Schätzungen besitzen eine derartige Invarianzeigenschaft nur für lineare Funktionen. (Im allgemeinen gilt Eg(T) = g(ET) nur, wenn g linear ist.) Beispielsweise ist die Stichprobcnvarianz S 2 , wie in (8.5) definiert, erwartungstreu für o 2 , aber S = + V S 2 ist nicht erwartungstreu für o = + V ö 2 . [Deshalb sind die effizienten Schätzungen wegen der für sie verlangten Erwartungstreue oft schwerfälliger zu handhaben als die ML-Schätzungen.] Liegt eine r-parametrischc Verteilungsannahme vor, so hängt die Wahrscheinlichkeitsfunktion bzw. Dichte f (x; 0 l 7 . . . , ö r ) von X von r Parametern 0 , , . . . , 0 r a b ; auch die Likelihood-Funktion nach der Beobachtung x,, ..., xn ist dann eine Funktion von 0,, ...,0 r : (8.19)
L ( 0 | , . . . , 0 r ; X],..., x n ) =
nf(x ;8 ,...,er) i= i i 1
Genau wie im Fall einer einparametrischen Verteilungsannahme läßt sich intuitiv begründen, als Schätzwerte 0j, ..., 0 r für 0 H ..., 0 r diejenigen Parameterwerte zu wählen, für welche die Likelihood-Funktion (8.19) maximal wird. Man faßt die Parameter zu einem Tupel (8,, ..., 0 r ) zusammen und nennt ( T b ..., T r ) Maximum-Likelihood-Schätzung für (0!,..., 0 r ), wenn jeder Beobachtung Xj,..., xn als Schätzwerte 6j=Tj(x1,...,xn)
,
j = l,...,r
diejenigen Werte zugeordnet werden, für die L ( 0 , , . . . , 0 r ; x 1 ; . . . , x n ) maximal ist. In diesem Fall wird auch jede einzelne Schätzfunktion T, ML-Schätzung für 0j genannt. Zur Bestimmung von ML-Schätzungen benutzt man häufig den Sachverhalt, daß eine Likelihood-Funktion L und die logarithmierte Likelihood-Funktion logL an derselben Stelle ihr Maximum annehmen.
Beispiel 8.18: Die ML-Schätzungen der Parameter einer Normalverteilung Besitzt X eine N (n; a 2 ) - V e r t e i l u n g , so lautet die L i k e l i h o o d - F u n k t i o n nach der B e o b a c h tungx,, ...,x„
(8.20)
L(|x,02;xi)...,xn) =
-e
186
Kapitel 8: Punkt- und Intervallschätzungen
Daraus ergibt sich (8.21)
logL = - y
log 2K - -2- log a 2 - ^
2 (x, - (J.)2
a2 bekannt
a) n unbekannt,
In diesem Fall liegt eine einparametrische Verteilungsannahme vor, (8.20) ist eine Funktion von allein. Wir differenzieren (8.21) nach [i:
Diese Ableitung wird genau dann Null, wenn n = x ist. Da die zweite Ableitung nach
über-
all negativ ist, hat (8.21) und damit auch (8.20) ein eindeutig bestimmtes Maximum an der Stelle |x = x. Wir erhalten: T (X],..., X n ) = X ist ML-Schätzung für (i. Dies ist gleichzeitig auch die effiziente Schätzung für p,; vergleiche Beispiel 8.8 a). b) \i. bekannt, a2 unbekannt Unter dieser einparametrischen Verteilungsannahme ist (8.20) eine Funktion von o 2 allein. Wir differenzieren (8.21) nach o 2 :
^ r
l o g L =
- 2^
+
2(x
- -11)2
=
- 2 ^ [°2 - 1
2 (x
Diese Ableitung wird genau dann gleich Null, wenn o 2 =
' - ^)2]
2 (Xj — \i)2 ist. Man prüft leicht
2
nach, daß an dieser Stelle die zweite Ableitung nach a negativ ist. Als ML-Schätzwert für o 2 ergibt sich daher ö 2
— |i) 2 , das heißt:
S 2 = - i - 2 ( X j — ^) 2
ist ML-Schätzung für o 2
Diese Schätzung stimmt mit der effizienten Schätzung für o 2 überein; vergleiche Beispiel 8.8 b). Wegen der Invarianzeigenschaft (8.18) folgt weiterhin: S^, ist ML-Schätzung für o. c) ^ und a2
unbekannt
Nun liegt eine zweiparametrische Verteilungsannahme vor, (8.20) ist eine Funktion von und o 2 . Wir differenzieren (8.21) partiell nach n und nach a 2 und setzen die beiden Ableitungen gleich Null; zur Bestimmung der ML-Schätzwerte |1 und ö 2 erhalten wir dann das Gleichungssystem "(x-(l) = 0 oz
und
JL(a2-±Z(Xl-ß)2) = 0 ¿er n
Die Lösung lautet: |1 = x und ö 2 = - i - 2 (X| — x) 2 . Also gilt: X ist wieder die ML-Schätzung für (8.22)
und S 2 = — 2 ( X j - X ) 2 ist ML-Schätzung für o 2 .
Kapitel 8: Punkt- und Intervallschätzungen
187
S 2 stimmt nicht mit der Stichprobenvarianz S 2 in (8.5) überein; vielmehr gilt: S2 =
^ S n
2
W e g e n ES 2 = o 2 und VarS 2 = - ^ - j o 4 (vgl. Beispiel 8 . 6 und Formel (8.8)) folgt daraus:
ES2=
- ^ - o n
2
und
VarS« =
2 (
" 72 n
1 )
o
4
Für den mean Square error v o n S 2 ergibt sich daraus nach (8.2): MSE(a2;S2) =
(8.23)
a< + [ ^
nz
MSE(c2;S2) =
2
o 2 - o2]2 =
n
"~
1
2 (
" " ! £) n
+
1
o J/
Als hinreichende Bedingung ist also noch zu zeigen, daß für alle n 1; ..., nk mit n] + ... + nk = ngilt: =
VarXODtp =
1 o2 2 — v(ZjiiJ O;) S S i t f ^ = VarX J/ J n n;
Kapitel 8: Punkt- und Intervallschätzungen
221
Diese Ungleichung wird bewiesen, indem man in die Schwarzsche Ungleichung (Sa, b,) 2 g (Sa 2 ) (2b 2 ) die Werte einsetzt: aj = Vnf
und
bj = Jij Oj/Vnf1
Wir betrachten nun den Fall, daß die Stichproben ohne Zurücklegen gezogen werden. Wir gehen von der Näherung (8.83) aus. Dann erhalten wir aus (8.82) und (8.77): = 2 of VarX = 2jt, —1 * n,
Nj
- n:L „ 2 of V 2 of — = 2jrfJ —11 - Zjtf J ^ N; n: N,
„ 2 of 1 2 = Znf —1- -^af ' n, N 1
Diese unterscheidet sich von der Varianz von X beim Ziehen mit Zurücklegen 1 •> nur um die von n 1 ; . . . , n k unabhängige Größe yq-of. Daher ergibt sich beim Ziehen ohne Zurücklegen dieselbe optimale Aufteilung (8.87) wie beim Ziehen mit Zurücklegen. Für die Varianz von X opt ergibt sich durch Einsetzen von (8.87): (8.89)
VarX o p t = - 1 ( 2 n j 0 j ) 2 - -Lo?
Man bezeichnet die Größe (8.90)
ö = Zjtj Oj
als mittlere
Standardabweichung
Sie ist das gewogene Mittel aus den Standardabweichungen innerhalb der einzelnen Schichten. Damit können wir (8.88) und (8.89) folgendermaßen zusammenfassen: o (8.91)
beim Ziehen mit Zurücklegen
VarX o p t = 1-7 1 ? — o — -jq-of
beim Ziehen ohne Zurücklegen
Der Vergleich mit (8.86) zeigt, daß sowohl beim Ziehen mit Zurücklegen als auch beim Ziehen ohne Zurücklegen VarXprop-VarXopt=
^(of-ö2)
gilt. Wegen Sjtj (oj — ö) 2 =
of — 2öSitj Oj + ö 2 = of — ö 2
folgt daraus: (8.92)
VarXprop-VarXopt=
( 0 j - o) 2
222
Kapitel 8: Punkt- und Intervallschätzungen
Der Schichtungsgewinn der optimalen gegenüber der proportionalen Aufteilung ist um so größer, desto stärker die Standardabweichungen Oj,..., o k innerhalb der einzelnen Schichten voneinander abweichen. Die Bemerkungen zum Schichtungseffekt in Abschnitt 6.3.4 wurden damit vollständig bewiesen.
8.4 Klumpungseffekte 8.4.1 Vorbemerkungen Die Klumpenstichprobe war Gegenstand von Abschnitt 6.4, Begriff und Eigenschaften dieser Stichprobe haben wir dort bereits kennengelernt. Hier sollen die noch ausstehenden Berechnungen des Schätzfehlers und Klumpungseffektes nachgeliefert werden. Wir beschränken uns auf Stichproben aus endlichen Grundgesamtheiten. Untersuchungsmerkmal ist X, Mittelwert und Varianz von X in der Grundgesamtheit sind [i und o 2 . Die Grundgesamtheit G = {1, ..., N} wird in M Klumpen zerlegt; dazu die folgenden Bezeichnungen: Nj = Umfang des j-ten Klumpen jtj = Nj/N = Anteil des j-ten Klumpen an der Grundgesamtheit N = N/M = Durchschnittlicher Klumpenumfang = Mittelwert von X im j-ten Klumpen o 2 = Varianz von X im j-ten Klumpen M
oj =
X jtj a 2
o| =
2 Jtj (iij — n) 2 = Varianz zwischen den Klumpen
= Varianz innerhalb der Klumpen
M
Wie bei geschichteten Grundgesamtheiten erhält man die Beziehungen: H = ÜJij
und
o 2 = a, + a |
Aus den M Klumpen der Grundgesamtheit werden m durch eine reine Zufallsauswahl ohne Zurücklegen ausgewählt. (Der Fall, daß diese Auswahl mit Zurücklegen erfolgt, spielt in der Praxis keine Rolle.) Die Klumpenstichprobe besteht aus allen Elementen der m gezogenen Klumpen, ihr Umfang U ist eine zufällige Größe. Wir betrachten die Zufallsvariable 1 0
falls der j-te Klumpen gezogen wird sonst
Nach (6.15) ist EZ, = P ( Z j = 1)= ^
U =
M
2 NiZ: und J J
j=i
für alle j = 1,..., M. Damit gilt:
223
Kapitel 8: Punkt- und Intervallschätzungen
E U = mN = Durchschnittlicher Umfang der Klumpenstichprobe D i e Schätzung X k , u aus ( 6 . 4 2 ) , mit der aus einer Klumpenstichprobe [i geschätzt wird, läßt sich mit Hilfe der Zj darstellen als (8.93)
Xklu=
1 m -LzNjiijZj mNj=i
Für ihren Erwartungswert erhalten wir: EXk|.. = — ^ 2 N j LI; E Z ; = 2 N ; U: — = 2 j t j Iii = U klu J ^ mN mN M ^ D a s heißt: X k l u ist eine erwartungstreue
(unverzerrte)
Schätzung für [x.
8 . 4 . 2 Der Schätzfehler in einer Klumpenstichprobe D a X k ! u unverzerrt ist, stimmen mean Square error und Varianz von X W u überein, der Schätzfehler läßt sich allein durch VarX k , u angeben. Aus (8.73) und ( 8 . 7 4 ) erhalten wir: „ VarZi = J
m(M-m) — - — M2
, und
„ , . Cov(Zi,Zk)=V
1
m(M-m) — M 2 (M — 1)
kJ
für | 4= k
Damit folgt aus (8.93): M2 VarXklu = -
N? ^ V a r Z j +
m 2 N 2 M 2 ( M — 1) M 2 m ( M — m) _
Z N, N k ^ ^ Cov (Zr Z k ) ] =
[(M — 1 ) 2 N 2 [ i 2 — 2 J ' ' r i u _ 1 W M 2 i i 2
M - m r» ,2 - [ M 2 N j \i2) — ( 2 N j Hj)2] = m ( M — 1) N 2 ( M - m) M
J? I.? — _Li-\T.A21
m ( M — 1) N 2 ( M - m) M m ( M - 1) N 2 n j ivi M2 (yLvi M - im)
± ^/"NJ
m ( M — 1)N2 ' M
W '
N Y M
W
Dieses Ergebnis schreibt man in der F o r m M 2 (M - m) 1 VarXklu= ) — - f ai 2(M—1) N m (8.94)
=
N ^ m ^
1
224
Kapitel 8: Punkt- u n d Intervallschätzungen
und bezeichnet (8.95)
ö l = j^j-2 (Nj (ij — N(i)2
als externe Varianz der Klumpen.
Nj(Xj ist die Summe der X-Werte des j-ten Klumpens, Njx die durchschnittliche Summe der X-Werte pro Klumpen. Daher beschreibt o l die Streuung der Merkmalssummen der einzelnen Klumpen in der Grundgesamtheit. (Im Unterschied dazu ist o | ein Maß für die Streuung der Merkmalsmittelwerte der Klumpen.) Die Heterogenität zwischen den Klumpen wird durch ihre externe Varianz gemessen. Damit erhalten wir aus (8.94): Der Schätzfehler in der Klumpenstichprobe ist um so größer, desto heterogener die Klumpen untereinander sind. Anders ausgedrückt: Die Klumpenstichprobe ist um so genauer, desto homogener die Klumpen untereinander sind, das heißt: desto ähnlicher jeder Klumpen der Grundgesamtheit ist. Sind alle Klumpen gleich groß, so erhalten wir wegen Nj = N und Jtj = Nj/N = 1/M: o l = N? • ± 2 Oij - (i)* = N 2 Ziij ((ij - n)* = N 2 o i Damit ist o | ein gleichwertiges Maß für die Heterogenität zwischen den Klumpen, und (8.94) geht über in (8.96)
. , v> M- m VarX klu z klu =-r-f M- 1
1 2 Oy m
In diesem Fall ist VarX k | u proportional zu o | . Bei verschieden großen Klumpen sind o l und o | unvergleichbar ( a ! kann kleiner oder größer als o | sein) und VarX k , u ist nicht proportional zu o | ; dazu die beiden folgenden Extremfälle. 1) Besitzen die Klumpen übereinstimmende Mittelwerte ([Xj = |x für alle j), so ist o | = 0 und
VarX k!u ist proportional zu |x2 und der „Varianz" der N 1 ; . . . , N M 2) Besitzen die Klumpen übereinstimmende Merkmalssummen (Nj |Xj = Njx für alle j), so ist o l = 0 und
c i - ^ Ä - t f - l . z f fNil ^ O Ij
1-.J
In diesem Fall ist VarX Wu = 0; die Schätzung Xk|U für [x ist identisch gleich jx.
225
Kapitel 8: Punkt- und Intervallschätzungen
8.4.3 Der Klumpungseffekt Zur Untersuchung des Klumpungseffektes hat man die Klumpenstichprobe einer reinen Zufallsstichprobe (die ebenfalls ohne Zurücklegen gezogen wird) gegenüberzustellen. Der Klumpungseffekt wird als die Differenz zwischen V a r X r d z und VarXk|U definiert. (Das ungewogene Stichprobenmittel X in einer reinen Zufallsauswahl bezeichnen wir hier mit X r e i z .) Wir unterscheiden zwei Fälle. Fall 1: Die Klumpen sind gleich groß. In diesem Fall besitzt die Klumpenstichprobe den festen (nichtzufälligen) und ganzzahligen Umfang n = mN = m • N/M. Diesen Stichprobenumfang hat man daher auch der reinen Zufallsauswahl zugrunde zu legen. Für die Varianz von X reiZ ergibt sich dann aus (8.75):
ro m \ (8.97) v '
V N-n o2 M-m o2 VarX reiZ = ^ — r • = — • — N—1 n N—1 m
1/
Zusammen mit (8.96) erhalten wir daraus für den Klumpungseffekt die Darstellung (8.98)
V i/ V VarX r e i z - VarX kIu =
M _- m
1/
( M
1 ) m
, M-l
,
2\
Wir betrachten den Spezialfall, in dem die Zerlegung der Grundgesamtheit in Klumpen rein zufällig erfolgt. Dann sind (Xj und a | keine Parameter mehr, sondern Zufallsvariablen, die wir mit [jXj] und [o|] bezeichnen. Jeder Klumpen j kann als eine Zufallsstichprobe (ohne Zurücklegen) vom Umfang N aufgefaßt werden, in der [jXj] die Rolle des Stichprobenmittels übernimmt. Daher ist E[(Xj] = |x und nach (8.75), wenn man N = N/M berücksichtigt: Var [|Xj] = E ([[x,] — |i)2 = ^ N- 1
.^ N
=
MilL0z N- 1
Wegen Jtj = N / N = N/N = 1/M folgt daraus: (8.99)
E [o z ] =
M ^ o
2
Wir erhalten damit im Vergleich mit (8.98) die folgenden Ergebnisse: a) Bei reiner Zufallsklumpung ist der erwartete oder mittlere Klumpungseffekt gleich Null, die Klumpenstichprobe hat im Mittel dieselbe Genauigkeit wie die reine Zufallsauswahl. b) Ein Klumpungsgewinn entsteht, wenn die Klumpen der Grundgesamtheit untereinander homogener (und in sich heterogener) sind, als man bei rein zufälliger Klumpung erwarten würde ( a | < E [o z ]). c) Ein Klumpungsverlust entsteht, wenn die Klumpen der Grundgesamtheit untereinander heterogener (und in sich homogener) sind, als man bei rein zufälliger Klumpung erwarten würde ( o | > E [o|]).
226
Kapitel 8: Punkt- u n d Intervallschätzungen
Fall 2: Die Klumpen sind verschieden groß Der Umfang der Klumpenstichprobe ist in diesem Fall zufällig, der durchschnittliche Umfang n = mN im allgemeinen nicht ganzzahlig. Gleichwohl ist es üblich, zum Vergleich eine reine Zufallsauswahl heranzuziehen, für die man formal mit dem Stichprobenumfang n rechnet, so daß VarX r e i Z mit (8.97) übereinstimmt. Für die Varianz von Xk|U muß man auf Formel (8.94) zurückgreifen; VarX klu ist proportional zu o | (und nicht zu a | wie unter Fall 1). Wir betrachten den Spezialfall einer reinen Zufallsklumpung mit fest vorgegebenen M und N j , ..., N m . Dann sind [ij und o | Realisationen von Zufallsvariablen, die wir mit [^j] bzw. [ol] bezeichnen. Es gilt:
E[Hj] = n
E[oi]
,
Var[(Xj] =
N - N- a 2 N _ ^ • ^
und
=
E (Nj [|ij] — Njx)2 =
=
(N? E[|ij]2 - 2[xNNj E[|j.j] + N 2 jx2)
=
(N? {Var
+ fx2} - 2(x2 NNj + N 2 ^ 2 )
Durch Einsetzen von Var [fXj] ergibt sich daraus (8.100)
) a 2 + ( ( N j - N) 2 ) ^
E [ai] = ( i j S N j
Wir erhalten: Bei reiner Zufallsklumpung hängt die mittlere Varianz von X k j u auch von [x a ^ Da andererseits VarX rei z unabhängig von ^ ist, kann die mittlere Varianz von X klu im allgemeinen nicht mit VarX r e i Z übereinstimmen. Je nachdem , welchen Wert |x hat, kann auch bei reiner Zufallsklumpung ein positiver oder negativer mittlerer Klumpungseffekt entstehen. (Vergleiche dazu Aufgabe 75). An (8.100) erkennt man: E [ol] und damit auch die mittlere Varianz von X klu hängen um so stärker von (i ab, desto größer die „Varianz" der Klumpenumfänge
ist. Sind alle Klumpen gleich groß, so ist diese „Varianz" gleich Null, und (8.100) geht über in E[ol] =
N ^ o
2
= N
2
^ - o
2
eine Beziehung, die wegen o | = N2 mit (8.99) äquivalent ist. Sind die Klumpenumfänge annähernd gleich groß und somit
Kapitel 8: Punkt- und Intervallschätzungen Nj ~ N f ü r alle j und
227
^2(Nj-N>
so erhält man aus (8.100): E[°l] -
N2
mit Hilfe von (8.94) und (8.97) ergibt sich daraus, daß die mittlere Varianz von X k!u ungefähr übereinstimmt mit M 2
/ M - m > • ± N2 02 N —1 N (M — 1) m 2
=
« H n . J ^ N-l m
=
V a r
^
re,z
und somit der mittlere Klumpungseffekt annähernd gleich Null ist. Anmerkung: Wie wir gesehen haben, wird bei einer reinen Zufallsklumpung mit fest gegebenen M und N l ? ..., N M der mittlere Klumpungseffekt nicht gleich Null, wenn die Klumpen verschiedene U m f a n g e besitzen. Dieses Resultat ergibt sich auch dann, wenn man zum Vergleich eine reine Zufallsauswahl heranzieht, die den gleichen zufälligen Stichprobenumfang U wie die Klumpenstichprobe besitzt. Sogar wenn bei der reinen Zufallsklumpung auch noch die Klumpenumfänge zufällig gewählt werden, ist der mittlere Klumpungseffekt von Null verschieden.
Fragen zur Wiederholung 92. D i e Konstruktion und Beurteilung einer Schätzung baut auf einer Verteilungsannahme auf. Was soll in dieser A n n a h m e zum Ausdruck gebracht werde? 93. Wann ist eine Verteilungsannahme parametrisch? 94. Wie ist der mean Square error einer Schätzung erklärt? 95. Was versteht man unter dem zufälligen bzw. dem systematischen Fehler (bias) einer Schätzung? Wie hängen diese beiden Fehler mit dem mean Square error zusammen? 96. Wann ist eine Schätzung T j mindestens so gut wie eine Schätzung T 2 ? Wann nennt man T! (gleichmäßig) besser als T 2 ? 97. Wie ist die Erwartungstreue einer Schätzung definiert? Wie lautet die Häufigkeitsinterpretation für die Erwartungstreue? 98. Erklären Sie den Begriff einer effizienten Schätzung! 99. G e b e n Sie je ein Beispiel an, in dem X a) effizient für |i, b) nicht effizient f ü r ^ ist. 100. Kennen Sie eine Schätzung für o 2 , die einen gleichmäßig kleineren mean square error hat als die Stichprobenvarianz? 101. Wie sind die Gütebegriffe „Konsistenz" und „asymptotische Erwartungst r e u e " definiert?
228
Kapitel 8: P u n k t - u n d Intervallschätzungen
102. W a s v e r s t e h t m a n u n t e r e i n e r M a x i m u m - L i k e l i h o o d - S c h ä t z u n g ? G ü t e e i g e n s c h a f t e n b e s i t z t diese S c h ä t z u n g in d e r R e g e l ?
Welche
103. B e s c h r e i b e n Sie d i e M e t h o d e d e r k l e i n s t e n Q u a d r a t e z u r G e w i n n u n g v o n S c h ä t z u n g e n . W e l c h e G ü t e e i g e n s c h a f t e n besitzt d e r K l e i n s t - Q u a d r a t Schätzer? 104. E r k l ä r e n Sie d e n V o r g a n g e i n e r I n t e r v a l l s c h ä t z u n g . U n t e r s c h e i d e n Sie dab e i z w i s c h e n d e r S i t u a t i o n vor u n d n a c h d e r B e o b a c h t u n g d e r S t i c h p r o b e . W i e l ä ß t sich d e r V e r t r a u e n s g r a d y i n t e r p r e t i e r e n ? 105. W i e w i r d d i e e r w a r t e t e L ä n g e d e s K o n f i d e n z i n t e r v a l l e s d u r c h d e n V e r t r a u e n s g r a d y u n d d e n S t i c h p r o b e n u m f a n g n im a l l g e m e i n e n b e e i n f l u ß t ? 106. W e l c h e E i g e n s c h a f t z e i c h n e t e i n e P i v o t - G r ö ß e a u s ? W i e läßt sich mit e i n e r s o l c h e n G r ö ß e e i n e Intervall- b z w . e i n e B e r e i c h s s c h ä t z u n g d u r c h f ü h r e n ? 107. G e b e n Sie d i e v e r s c h i e d e n e n I n t e r v a l l s c h ä t z u n g c n f ü r rigen V o r a u s s e t z u n g e n a n .
u n d die d a z u g e h ö -
108. E s wird e i n e u n a b h ä n g i g e , identisch v e r t e i l t e S t i c h p r o b e e i n e r n o r m a l v e r t e i l t e n Z u f a l l s v a r i a b l e n g e z o g e n . W i e l a u t e t die V e r t e i l u n g d e r (mit e i n e m g e e i g n e t e n F a k t o r m u l t i p l i z i e r t e n ) S t i c h p r o b e n v a r i a n z a) bei b e k a n n t e m , b ) bei u n b e k a n n t e m (.i? Wie läßt sich d a m i t e i n e I n t e r v a l l s c h ä t z u n g f ü r a 2 durchführen? 109. W e l c h e V o r a u s s e t z u n g e n m ü s s e n e r f ü l l t sein, d a m i t m a n ein a p p r o x i m a t i ves K o n f i d e n z i n t e r v a l l f ü r p mit H i l f e d e r N o r m a l v e r t e i l u n g k o n s t r u i e r e n k a n n ? W e l c h e s K o n f i d e n z i n t e r v a l l soll m a n b e n u t z e n , w e n n m a n w e i ß , d a ß p n a h e bei Null liegt? 110. W i e l a u t e t d e r S c h ä t z f e h l e r (die V a r i a n z v o n X ) in e i n e r r e i n e n Z u f a l l s s t i c h p r o b e a) b e i m Z i e h e n mit und b ) b e i m Z i e h e n o h n e Z u r ü c k l e g e n ? 111. W i e läßt sich die G e s a m t v a r i a n z e i n e r g e s c h i c h t e t e n G r u n d g e s a m t h e i t z e r l e g e n ? E r k l ä r e n Sic d i e d a b e i a u f t r e t e n d e n T e i l v a r i a n z e n . 112. B e s c h r e i b e n Sie f ü r e i n e in K l u m p e n z e r l e g t e G r u n d g e s a m t h e i t d i e f o l g e n den Größen: a ) die V a r i a n z i n n e r h a l b d e r K l u m p e n b) die V a r i a n z z w i s c h e n d e n K l u m p e n c) die e x t e r n e V a r i a n z zwischen d e n K l u m p e n . V o n w e l c h e r d i e s e r d r e i V a r i a n z e n h ä n g t d e r S c h ä t z f e h l e r in e i n e r K l u m p e n s t i c h p r o b e a b ? M a c h c n Sie sich k l a r , d a ß d i e s e r S c h ä t z f e h l e r a u c h von dem Mittelwert der Grundgesamtheit abhängen kann.
Aufgaben 63. A u s e i n e r G r u n d g e s a m t h e i t mit N E l e m e n t e n w i r d e i n e r e i n e Z u f a l l s s t i c h probe vom U m f a n g n o h n e Zurücklegen gezogen. Mittelwert ^ und Varianz a 2 d e r G r u n d g e s a m t h e i t sind u n b e k a n n t . M a n z e i g e , d a ß f ü r d i e S t i c h p r o b e n N v a r i a n z S 2 , m i t d e r o 2 g e s c h ä t z t w e r d e n soll, E S 2 = ^ _ ^ o 2 gilt. 64. X t , ..., X n sei e i n e u n a b h ä n g i g e , i d e n t i s c h v e r t e i l t e S t i c h p r o b e e i n e r Z u f a l l s v a r i a b l e n X mit ^ = E X u n d o2 = V a r X .
229
Kapitel 8: Punkt- und Intervallschätzungen
a) Man zeige mit Hilfe der Tschebyscheffschen Ungleichung, daß X eine konsistente Schätzung für n ist. b) Man zeige direkt mit Hilfe des Gesetzes der großen Zahlen, das S 2 = = 2 (Xj — (x)2/n eine konsistente Schätzung für o 2 ist. 65. Von einer Poisson-verteilten Zufallsvariablen X wird eine unabhängige, identisch verteilte Stichprobe X 1 ; . . . , X n gezogen. Man zeige, daß X die Maximum-Likelihood-Schätzung für den Parameter X der Poisson-Verteilung ist. 66. X ] , . . . , X n sei eine unabhängige, identisch verteilte Stichprobe einer auf dem Intervall [0, 0] gleichverteilten Zufallsvariablen X. Man bestimme die Maximum-Likelihood-Schätzung für ^ = EX = 6/2. 67. Bei der Stichprobeninventur eines Lagers mit N = 22974 Lagerpositionen werden n = 164 Positionen in Form einer reinen Zufallsauswahl mit Zurücklegen entnommen. Zu jeder Position i der Stichprobe wird ihr Wert x [in DM] festgestellt. Aus den Stichprobenwerten x 1; ..., xn ergibt sich x = 1411 und s = 2812. Man bestimme daraus ein Konfidenzintervall für den Lagergesamtwert (Konfidenzniveau y = 0.95). 68. X [ , . . . , X n sei eine unabhängige, identisch verteilte Stichprobe einer normalverteilten Zufallsvariablen X, von der |x und o 2 unbekannt sind. Man bestimme ein Konfidenzintervall für |x zum Vertrauensgrad y = 0.95 aus den Stichprobenwerten 104, 115,112, 89, 94,106,119, 99, 102 und 90. 69. Der Kopfumfang X neugeborener Knaben sei normalverteilt mit unbekannten (i und o 2 . Eine unabhängige, identisch verteilte Stichprobe von X mit dem Umfang n = 12 ergab die Werte [in cm]: 37, 39,40, 41, 38,39,40, 39, 38,36, 40, 41. Man bestimme daraus ein Konfidenzintervall für o 2 zu y = 0.90. 70. Unter 3000 Lebendgeburten wurden 1578 Knaben gezählt. Bestimmen Sie daraus ein Konfidenzintervall für die Wahrscheinlichkeit p einer Knabengeburt zu Y = 0.99. 71. Acht Messungen des Durchmessers einer Linse ergaben die Werte (in cm) 3.54, 3.48, 3.51, 3.53, 3.50, 3.49, 3.46 und 3.49. Man weiß, daß das verwendete Meßgerät normalverteilte Messungen liefert, die unverzerrt sind (der Erwartungswert der Messung stimmt mit dem Linsendurchmesser überein). Bestimmen Sie ein Konfidenzintervall für den Durchmesser der Linse zum Vertrauensgrad y = 0.95. 72. Eine Grundgesamtheit mit N = 10000 Elementen wird in fünf Schichten zerlegt. Von jeder Schicht sind Umfang, Mittelwert und Varianz gegeben: Schicht j 1 2 3 4 5
Umfang N
i 4000 2000 2000 1000 1000
Mittelwert Hj 100 150 200 300 500
Varianz 1000 1000 2000 3000 5000
230
Kapitel 8: Punkt- und Intervallschätzungen
A u s der Grundgesamtheit wird eine Stichprobe vom Umfang n = 100 ohne Zurücklegen gezogen. a) Berechnen Sie die Varianz des betreffenden Stichprobenmittels aa) im Fall einer reinen Zufallsauswahl; ab) im Fall einer proportional geschichteten Stichprobe; ac) im Fall einer optimal geschichteten Stichprobe. b ) Bestimmen Sie die einzelnen Stichprobenumfänge für die proportionale und für die optimale Aufteilung. Erklären Sie den vorhandenen Unterschied zwischen den beiden Aufteilungen. c) Worauf beruht der entstehende Schichtungseffekt bei der proportionalen und bei der optimalen Aufteilung? 73. D i e landwirtschaftlichen Betriebe eines Landes werden in vier Größenklassen ( = Schichten) eingeteilt; von jeder Schicht ist der Anteil jtj und die Standardabweichung Oj bekannt. B e i einer Stichprobenerhebung werden n = 1000 B e t r i e b e erfaßt und unter anderem deren G r ö ß e festgestellt. Daraus wurden - getrennt nach den vier Größenklassen - die Stichprobenmittel Xj ausgerechnet. Die D a t e n lauten (stark gerundet): Größenklasse in ha
JTJ
unter 10 10 bis unter 5 0 50 bis unter 300 über 300
0.35 0.55 0.07 0.03
X
J
4 28 140 420
2 10 40 100
Man bestimme ein Konfidenzintervall (y = 0 . 9 9 ) für die durchschnittliche Betriebsgröße ( = Mittelwert n der Grundgesamtheit), wenn es sich bei der Stichprobe a) um eine proportional geschichtete Stichprobe (ohne Zurücklegen) handelt, b) um eine optimal geschichtete Stichprobe (ohne Zurücklegen) handelt, und angenommen werden kann, daß die einzelnen Stichprobenmittel hinreichend genau normalverteilt sind. 74. E i n e Grundgesamtheit mit N = 1000 Elementen wird in M = 10 Klumpen zerlegt. Von j e d e m Klumpen sind Umfang, Mittelwert und Varianz gegeben: j 1 2 3 4 5
80 90 90 100 100
Hj 35 40 40 45 50
°j 8 9 9 10 10
j 6 7 8 9 10
j 100 100 110 110 120 N
50 45 40 40 35
10 10 11 11 12
a) Man bestimme die Varianzen ay, und o f . b) Man berechne die Varianz des Klumpenstichprobenmittels, wenn m = 2 Klumpen zufällig gewählt werden. c) Vergleichen Sie diese Varianz mit der des Stichprobenmittels einer reinen Zufallsauswahl (ohne Zurücklegen) vom Umfang n = 200.
Kapitel 8: Punkt- und Intervallschätzungen
231
75. Eine Grundgesamtheit mit N = 3 Elementen wird rein zufällig in M = 2 (nichtleere) Klumpen zerlegt; anschließend wird einer der beiden Klumpen zufällig ausgewählt. Wir betrachten die beiden Fälle: a) Die X-Werte der Grundgesamtheit sind —1, 0, + 1 . b) Die X-Werte der Grundgesamtheit sind 9, 10, 11. Man zeige, daß die mittlere Varianz des Klumpenstichprobenmittels unter a) einen kleineren und unter b) einen größeren Wert besitzt als die Varianz des Stichprobenmittels einer reinen Zufallsauswahl, für die man formal mit dem Umfang n = 3/2 = mittlerer Umfang der Klumpenstichprobe rechnet.
Kapitel 9 Statistische Tests 9.1 Begriff und Aufbau eines Tests 9.1.1 Vorbemerkungen Ein Test ist ein Verfahren, mit dem man an Hand einer Stichprobe Hypothesen über die Verteilung der Grundgesamtheit überprüfen kann. Ähnlich wie für Schätzungen gibt es auch für Tests verschiedene Grundlagenkonzepte. Man unterscheidet im wesentlichen drei Vorstellungen darüber, worauf ein Test aufgebaut werden und was er leisten soll. Dementsprechend existieren drei unterschiedliche Testtheorien, • die klassische Testtheorie, • die Theorie der Likelihood-Tests und • das entscheidungstheoretische Testkonzept. Die klassische Testtheorie geht in ihren ersten fruchtbaren Ansätzen auf K. Pearson [1900,1911] zurück und wurde in ihrer jetzigen Form von J. Neyman und E. S. Pearson in den zwanziger und dreißiger Jahren dieses Jahrhunderts entwickelt (vergleiche dazu Neyman und Pearson [1928, 1933, 1936, 1938], Neyman [1930, 1935], Pearson [1938], ihre „Gesammelten Werke" [1966, 1967] sowie Neyman [1954]). Man spricht auch von der Neyman-Pearsonschen Testtheorie. Sie läßt sich wie die klassische Schätztheorie durch die Attribute objektivistisch und frequentistisch charakterisieren: Grundlage dieser Theorie ist der objektivistische Wahrscheinlichkeitsbegriff, subjektive Einflüsse oder Vorbewertungen haben in ihr keinen Platz, Funktionsweise und Güteeigenschaften von Tests werden einer frequentistischen Betrachtungsweise unterzogen. Die Neyman-Pearsonsche Testtheorie ist in der Praxis am weitesten verbreitet. Die Theorie der Likelihood-Tests basiert auf dem schon erwähnten LikelihoodPrinzip (vgl. Abschnitt 7.3) und ist objektivistisch, aber nicht frequentistisch orientiert. Die Likelihood-Inferenz geht auf R. A. Fisher[ 1921,1925,1934,1935] zurück; sie wurde von ihm vor allem in der Schätztheorie angewandt. Als Grundidee hat Fisher das Likelihood-Prinzip aber auch schon in die Testtheorie eingebracht; weiterentwickelt wurde dieser Ansatz durch G. A. Barnard [1949, 1967], A. Birnbaum [1961, 1962], G. A. Barnard und D. R. Cox [1962] und7. G. Kalbfleisch und D. A. Sprott [1974, 1975]. Eine rein auf dem Likelihood-Prinzip aufbauende Testtheorie hat sich jedoch kaum durchsetzen können. Ihr Grundgedanke aber, einen Test auf die Likelihood-Funktion aufzubauen, spielt auch in den beiden anderen Testtheorien eine zentrale Rolle. Er führt zur Konstruktion sogenannter Likelihood-Quotienten-Tests, deren Verwendung auch „klassisch" und „entscheidungstheoretisch" gerechtfertigt werden kann. Das entscheidungstheoretische Testkonzept faßt einen Test als ein Verfahren auf, mit dem (aufgrund der Beobachtung einer Stichprobe) eine Entscheidung zwischen verschiedenen Handlungsalternativen herbeigeführt wird. Die allgemeinen (nicht auf Schätzungen eingeschränkten) Betrachtungen der Entscheidungsinferenz aus Abschnitt 7.5 lassen sich auch auf Tests beziehen (vergleiche Beispiel 7.13). Ein wesentliches Element dieser Theorie ist die Risikofunktion ei-
234
K a p i t e l 9: S t a t i s t i s c h e T e s t s
nes Tests, die den Verlust wiedergibt, der bei Durchführung des Tests zu erwarten ist. Sie dient als Kriterium zur Beurteilung der Güte eines Tests. Da der Erwartungswert des Verlustes einer Häufigkeitsinterpretation unterliegt, enthält das entscheidungstheoretische Testkonzept stets eine frequentistische Grundauffassung. Andererseits gibt es innerhalb dieses Konzepts Entscheidungsmodelle mit oder ohne (subjektive) Vorbewertungen (in Form von a priori Verteilungen), so daß es sowohl Objektivisten als auch Subjektivisten als Instrument bei der Auswertung einer Stichprobe zur Verfügung steht. Im Gegensatz zur Schätztheorie gibt es kein subjektivistisches Konzept der Testtheorie, das nicht auch gleichzeitig entscheidungstheoretisch orientiert wäre. Ein Subjektivist benutzt zur Auswertung einer Stichprobe nämlich nur dann einen Test, wenn er sich in einer Entscheidungssituation befindet. Auf die Theorie der Likelihood-Tests und das entscheidungstheoretische Testkonzept gehen wir nicht weiter ein. Erstere findet man bei I. M. Hacking [1965] oder/1. F. Edwards [1984], letztere bei A. Wald[ 1950,1971], dem Begründer der Statistischen Entscheidungstheorie, H. Chernoff und L. E. Moses [1970], T. S. Ferguson [1969] , H. Schneeweiß [1967] oder G. Bamberg [1972]. Wir beschränken uns im folgenden auf die klassische Testtheorie. 9.1.2 Ein einführendes Beispiel In einer Zuckerraffinerie werden auf einer maschinellen Anlage Zuckerpakete abgefüllt, die ein Gewicht von 1000 Gramm haben sollen (Soll-Gewicht). Das tatsächliche Gewicht (Ist-Gewicht) unterliegt gewissen Schwankungen und kann mehr oder weniger stark von dem Soll-Gewicht abweichen. Wir nehmen an, daß das Ist-Gewicht X eine normalverteilte Zufallsvariable ist mit der bekannten Standardabweichung o = 10 Gramm. Der Mittelwert n = EX, mit dem die Anlage derzeit arbeitet, ist unbekannt. Man nimmt zwar an, daß (x mit dem Soll-Gewicht (Oo = 1000, auf das die Anlage zu einem früheren Zeitpunkt eingestellt wurde, noch übereinstimmt, ist sich dessen aber nicht sicher. Mit Hilfe einer Stichprobe möchte man überprüfen, ob die Hypothese |x = m, beibehalten werden kann oder ob man, im Fall ihrer Ablehnung, die Anlage neu einstellen muß. Dabei möge es nicht darauf ankommen, ob durch die Stichprobe eine Abweichung von nach oben oder nach unten angezeigt wird; die relevante Gegenhypothese lautet also (j, =1= In der Testtheorie spricht man von der Überprüfung der Nullhypothese H 0 : (i = [x0 gegen die Alternative H,: |i =t= |x(>. Wir gehen davon aus, daß eine unabhängige und identisch verteilte Stichprobe X,, ..., Xn gezogen wird. Dann ist das Stichprobenmittel X eine gute Schätzung für jx (vgl. Abschnitt 8.1, insbesondere Beispiel 8.8), so daß seine Realisationen x mit großer Wahrscheinlichkeit in der Nähe von liegen. Deswegen kann man sich zur Überprüfung von H 0 auf die Prüfgröße X stützen und H„ ablehnen, wenn die Stichprobe einen x-Wert liefert, der „stark" von (x„ abweicht, also Ix —^„1 sehr groß, sagen wir größer als eine kritische Zahl c ist. DerTest lautet: (9.1)
(" Die Hypothese H 0 : n = (¿u wird beibehalten, wenn ein x mit Ix — |x()l=c < beobachtet wird; anderenfalls wird H 0 zugunsten von H,: ^ 4= n c) = a gelten
U m sie zu erfüllen, betrachten wir die Verteilung von X. Unter den gegebenen Voraussetzungen an X und die Stichprobe ist X normalverteilt mit Mittelwert |x und Varianz a 2 /n. Wenn H 0 richtig i s t - m a n sagt dazu kurz: unter H 0 - erhält man daraus mittels Standardisierung:
ö
Vn
ist nach N (0:1) verteilt.
(X
Nach Definition des -^--Fraktils xa/2 der Standardnormalverteilung gilt daher unter H 0 (vgl. Abbildung 47a): p (-xa/2 g
y ^
+ t a / 2 ) = 1 - c} und sein Komplement, den
Annahmebereich
K = {x: Ix - n„l = c}
236
Kapitel 9: Statistische T e s t s
mit der Maßgabe: Wird ein x E K beobachtet, so wird H 0 abgelehnt, andernfalls nicht. (Vergleiche dazu Abbildung 47 b.) Dabei gilt nach (9.3): (9.5)
P (XEK) = a
falls H 0 zutrifft
Den hier beschriebenen Test nennt man Gauß-Test (vgl. auch Abschnitt 9.3.1).
Abb. 47a
Abb. 47b
Beispiel 9.1 G e g e b e n sei a = 0 . 0 5 und n = 2 5 (und w i e gehabt: [Xq = 1000 u n d o = 10). W e g e n ai2 = xo.o25 = 1-96 erhält m a n aus (9.4):
x
c = 1^2 - —
Vn
= 1.96 - — = 3.92. D e r kritische B e r e i c h lautet: K = {x: Ix - 10001 > 3 . 9 2 } . 5
D i e H y p o t h e s e H 0 : (i = 1000 wird abgelehnt, w e n n ein x b e o b a c h t e t wird, das kleiner als 9 9 6 . 0 8 o d e r g r ö ß e r als 1003.92 ist.
9.1.3 Grundlegende Begriffe Mit einem statistischen Test sollen Hypothesen an Hand von Beobachtungen überprüft werden. Wir beschränken uns auf die in der klassischen Testtheorie übliche Prüfsituation, in der nur zwei Hypothesen zur Debatte stehen: Die zu überprüfende Hypothese, man bezeichnet sie als Nullhypothese H 0 , und die Gegenhypothese oder Alternative Hj, für die man sich bei Ablehnung von H 0 entscheidet. Bei den Hypothesen handelt es sich um sachlich begründete Vermutungen über ein interessierendes Merkmal X. (Wir stellen die grundsätzliche Vorgangsweise eines Tests für den Fall dar, in dem nur ein Merkmal von Interesse ist; die Fälle, in denen die Hypothesen mehrere Merkmale X, Y usw. betreffen, werden prinzipiell genauso behandelt.) Das Merkmal X wird als Zufallsvariable aufgefaßt, deren Verteilung ganz oder teilweise unbekannt ist. Vor der Durchführung eines Tests hat man (genau wie bei den Punkt- und Intervallschätzungen) in einer Verteilungsannahme die Menge W der für X in Betracht kommenden Verteilungen festzulegen (vgl. Abschnitt 8.1.1). Sie stellt das unbezweifelte Vorwissen über X dar. Der durchzuführende Test baut auf der Verteilungsannahme auf und kann und soll diese Annahme selbst nicht überprüfen.
237
Kapitel 9: Statistische Tests
Oft werden die Hypothesen über X zunächst in der Fachsprache des betreffenden Anwendungsgebietes formuliert. Sie müssen dann nach Festlegung von Wals hypothetische Aussagen über die Verteilung von X umformuliert werden. H 0 und H! spezifizieren dann zwei nicht-leere disjunkte Teilmengen von W u n d können mit diesen Teilmengen identifiziert werden: H() C Wund H! C Wmit H 0 PI H, = = 0 . In der Regel ist dabei H0 U H, = W. Die Überprüfung von H 0 gegen Hj wird an Hand einer Stichprobe von X vorgenommen. Mit X!, ..., X n bezeichnen wir die Stichprobenvariablen, mit x,, ..., x n die beobachteten Stichprobenwerte. Ein Test baut meist nicht unmittelbar auf die Stichprobe selbst auf, sondern auf eine Stichprobenfunktion T = = T ( X j , . . . , X n ), die man die Prüfgröße des Tests nennt. Tist eine von der Stichprobe abhängige Zufallsvariable, für die sich nach Beobachtung der Stichprobe die Realisation T (x 1; ..., x n ) ergibt. Die Verteilung von T hängt über die Stichprobe von der Verteilung von X ab, dementsprechend gibt es auch für T eine Menge von zugelassenen Verteilungen. Nur diese Verteilungen von T gehen in den Testaufbau ein. Ein Test soll eine der beiden folgenden Aussagen („Entscheidungen") als Resultat liefern: • H 0 ablehnen (H! annehmen) • H 0 beibehalten (H, nicht annehmen). Dementsprechend konstruiert man einen Test, indem man die Menge aller möglichen Werte seiner Prüfgröße T in zwei Bereiche zerlegt, den kritischen Bereich oder Ablehnbereich K und sein Komplement K, den sogenannten Annahmebereich. Der Test lautet dann:
(
Aufgrund der beobachteten Stichprobe X!,..., xn wird Ho abgelehnt,
falls T ( x , , . . . , x n ) G K
H„beibehalten, f a l l s T ( x , , . . . , x n ) Mo m o n o t o n wachsend und besitzt an der Stelle |x = Mo ein Minimum. W i r erhalten: G
= a für n G H 0
und
G (|x) > a für alle n G H j
D e r T e s t ist also unverfälscht. Weiterhin ergibt sich aus den erwähnten Eigenschaften von G ((x): D i e Wahrscheinlichkeit, H 0 abzulehnen, ist um so größer, desto größer der Abstand IM — |x0l des wahren |x-Wertes vom hypothetischen Wert Mo ist. Diese Monotonieeigenschaft unterstreicht die Verwendbarkeit des Tests zur Überprüfung von [x = Mo gegen |x 4= MoW e i c h t n sehr stark von Mo ab, so ist G (jx) ~ 1, das heißt 1 — G (n), die Wahrscheinlichkeit für den F e h l e r 2. A r t , fast Null. Weicht |x nur geringfügig von Mo ab, so ist G (m) = a , also die Wahrscheinlichkeit für den Fehler 2. Art fast gleich 1—a, also nahe bei Eins. D i e s ist keine Schwäche des T e s t s , sondern liegt in der Natur der S a c h e : Zwischen M- = Mo und (X = Mo kann durch einen T e s t (auf Stichprobenbasis!) nicht unterschieden werden.
G(n)
I ' 990
Abb. 49:
'
'
I
'
'
'
I 1 1000
'
'
'
I
1
'
'
'
I 1010
D i e Gütefunktion des Tests in Beispiel 9 . 5 für H 0 : |x= 1000 gegen H t : n=l= 1 0 0 0 b e i a = 10, a. = 0 . 0 5 u n d n = 25
^ l1
Kapitel 9: Statistische Tests
249
Für die in Beispiel 9.1 gegebenen Werte ^ = 1000, o = 10, a = 0.05 und n = 25 lautet die Gütefunktion ^ / x ^ , G ( | i ) = 4>(
1000
- H
^ ^ / M- - 1000 „ „ c -5 — 1.96) + 4> ( — ^ 5-1.96)
Sie besitzt den in Abbildung 49 dargestellten Verlauf. In der folgenden Tabelle sind einige Werte von G (|i) berechnet.
n
z
992.0 994.0 996.0 997.0 998.0 998.5 999.0 999.5 1000.0
"
1000 10 4.00 3.00 2.00 1.50 1.00 0.75 0.50 0.25 0.00
\ i
^ 5
4> (z — 1.96)
< K ( - z - 1.96)
G(H)
0.9793 0.8508 0.5160 0.3228 0.1685 0.1131 0.0721 0.0436 0.0250
0.0000 0.0000 0.0000 0.0003 0.0015 0.0034 0.0069 0.0136 0.0250
0.9793 0.8508 0.5160 0.3231 0.1700 0.1165 0.0790 0.0572 0.0500
Der Verlauf der Gütefunktion hängt von dem gewählten a und vom Stichprobenumfang n ab. In Abbildung 50 sind die Gütefunktionen für drei verschiedene Fälle dargestellt.
G(|i)
Abb. 50:
Verschiedene Gütefunktionen der Tests in Beispiel 9.5 für H0: n = 1000 gegen H ^ n=t= 1000 bei o = 10: Kurve 1: a = 0.05 und n = 25 Kurve 2: a = 0.01 und n = 25 Kurve 3: a = 0.01 und n = 100
250
Kapitel 9: Statistische Tests
Bei festem n gilt: Je kleiner das vorgegebene a ist, desto flacher verläuft die Gütefunktion, das heißt um so geringer ist die Wahrscheinlichkeit, bei einem [iGH! zur Ablehnung von H 0 zu gelangen. Bei festem a gilt: Je größer n ist, desto steiler verläuft die Gütefunktion, das heißt um so eher kommt der Test bei einem (J.eHj zur Ablehnung von H 0 ; man sagt dazu: Der Test wird trennschärfer (in dem Sinne, daß er zwischen richtigen und falschen Hypothesen besser trennt).
Wir haben nun noch die Gütefunktion eines Tests im Fall einer r-parametrischen Verteilungsannahme zu definieren. Wie wir schon betont haben, hängt die Wahrscheinlichkeit, mit der ein solcher Test zur Ablehnung von H 0 führt, in der Regel von sämtlichen r Parametern 0 l 5 ..., 9 r ab, auch dann, wenn die Hypothesen H 0 und H[ nur einige dieser Parameter spezifizieren. D a h e r ist die dazugehörige Gütefunktion prinzipiell eine Funktion aller r Parameter. Besitzt der Test die Prüfgröße T und den Ablehnbereich K , so ist seine Gütefunktion G (0 1 ; ..., 6 r ) definiert als (9.16)
G(e1,...,er) = P(TEKiie1,...,er)
wobei mit P ( T E K I I 0 1 ; . . . , 9 r ) die Wahrscheinlichkeit des Ereignisses „ T E K " unter 8[, ..., 9 r (d.h. wenn die Parameterwerte 8 b ..., 0 r vorliegen) gemeint ist. 9.2.3 Der Gütevergleich von Parametertests Wir können uns in diesem Abschnitt auf den Fall einer einparametrischen Verteilungsannahme mit dem reellen Parameter 0 beschränken. Alle Betrachtungen lassen sich nämlich auf den r-dimensionalen Fall übertragen, indem man konsequent an Stelle des Parameters 0 den Parametervektor ( 0 b ..., 0 r ) einsetzt. Wir gehen von einer bestimmten Prüfsituation aus, in der die (einparametrische) Verteilungsannahme, die Stichprobenart und der Stichprobenumfang n sowie die Hypothesen H 0 und H j gegeben sind. Einen dazugehörigen Test für H 0 gegen H[ bezeichnen wir mit d, seine Gütefunktion mit G d (0). Nach dem Neyman-Pearsonschen Testprinzip ist ein Gütevergleich zwischen Tests nur sinnvoll, wenn die Tests dasselbe Signifikanzniveau a besitzen. Wir betrachten daher a als fest vorgegeben und lassen in der gegebenen Prüfsituation nur Niveau-a-Tests d zum Vergleich zu, das heißt Tests, für die gilt: G d (0) = a
f ü r alle 0 E H 0
Die Menge aller dieser Tests bezeichnen wir mit D a . In der angelsächsischen Literatur heißt die Gütefunktion power function und G d (0) die power des Tests d an der Stelle 0 E H j . Die folgenden Definitionen, in denen diese Sprechweisen zum Teil auftauchen, bieten inhaltlich nichts Neues, sondern stellen nur eine Präzisierung des Gütekriteriums der klassischen Testtheorie dar. In ihnen wird konsequent davon Gebrauch gemacht, daß 1 — G d (0) die Wahrscheinlichkeit für den Fehler 2. Art darstellt, wenn 8 E H , zutrifft, ein Test d mithin um so besser ist, desto größer G d (0) für 0 E H , ist. 1) Ein Test d j E D a heißt mindestens so gut wie ein Test d 2 E D a , wenn gilt: G d l (0) ^ G d 2 (0)
f ü r alle 0 6 H ,
Kapitel 9: Statistische Tests
251
2) Ein Test d*GD a heißt trennscharf (most powerful) an der Stelle 6 £ H , , wenn gilt: G d . (0) ^ G d (0) für alle d G D a 3) Ein Test d*ED„ heißt gleichmäßig bester Test (uniformly most powerful, kurz UMP-Test), wenn er für jedes 0 6 H , trennscharf ist. 4) Ein Test d G D a heißt unverfälscht (unbiased), wenn gilt: G d (9") g G d (0') für alle 0' G H 0 und alle 0" G H, Erreicht d das vorgegebene a (das heißt: gibt es ein 0' G H 0 mit G d (0') = a), so ist d genau dann unverfälscht, wenn gilt: G d ( 0 ) g a für alle© G H , Im Fall einer zweiseitigen Fragestellung H 0 : 0 = 0o gegen H,: 0 =t= 0O bedeutet die Unverfälschtheit, daß G d (0) an der Stelle 0 = 0O ein absolutes Minimum besitzt. 5) Ein unverfälschter Test d*GD a heißt gleichmäßig bester unverfälschter Test (uniformly most powerful unbiased, kurz UMPU-Test), wenn für jedes 0 G H, gilt: G d . (0) g G d (0) für alle unverfälschten d G D a (Unter 3) und 5) wird oft zusätzlich noch gefordert, daß Hypothesen vorliegen mit H 0 U Hi = ©.) Von zentraler Bedeutung für die klassische Theorie ist die Frage: • Unter welchen Voraussetzungen existiert ein gleichmäßig bester (unverfälschter) Test und wie läßt er sich gegebenenfalls konstruieren? Dieses Problem ist selbst bei einparametrischcn Verteilungsannahmen nur unter einschneidenden Voraussetzungen lösbar. Wesentliche Ergebnisse dazu wurden bereits von/. Neyman und E. S. Pearson erzielt; eine Schlüsselrolle spielt dabei das sogenannte Neyman-Pearsonsche Fundamentallemma, das die Existenz und Konstruktion bester Tests sichert, wenn H0 und H, einfache Hypothesen sind. Diese Resultate und viele nachfolgenden Ergebnisse, die ein Kernstück der modernen Testtheorie bilden, findet man in jedem Standardlehrbuch der mathematischen Statistik, z.B. bei H. Cramer [1974], T. S. Ferguson [1969], E. L. Lehmann [ 1986] oder H. Willing [ 1985]. 9.2.4 Parametertests und Konfidenzintervalle Zwischen Parametertests und Konfidenzintervallen besteht ein enger Zusammenhang, der es erlaubt, aus Tests Konfidenzintervalle zu konstruieren und umgekehrt. Wir gehen dazu von einer einparametrischen Verteilungsannahme mit dem Parameterraum Ö C R aus und betrachten zu jedem festen Parameterwert 0 G © einen Niveau-a-Test d 9 für H o e = {9} gegen H i e = © \ { 0 } In der Nullhypothese H oe wird behauptet, daß 0 der zutreffende Wert des unbekannten Parameters ist, in der Alternative H i e , daß irgendein anderer Parameterwert vorliegt. Mit T e = T 0 (X, ..., X n ) und K e bezeichnen wir die Prüfgröße bzw. den Ablehnbereich dieses Tests.
252
Kapitel 9: Statistische Tests
W e r d e n nun die Stichprobenwerte x 1 ; . . . , x n beobachtet, so lassen sich all jene Parameterwert 0, die als Nullhypothese H o e = {9} durch den Test d e aufgrund der Beobachtung nicht abgelehnt werden, zu einem Bereich C ( x j , . . . , x n ) C © zusammenfassen: (9.17)
C (x 1 ; ..., x n ) = {0 G 0 : T e (x 1 ; ..., x n ) G K e }
Dieser Bereich hängt von der beobachteten Stichprobe ab und ist daher vor der Beobachtung als zufälliger Bereich aufzufassen: C = C ( X „ ..., X n ) = {0 G 0 : T e ( X „ ..., X n ) G K e } Wir gehen davon aus, d a ß es sich bei dem Bereich C um ein Intervall [ Q , C 2 ] C 0 handelt. D a n n erhalten wir: C ist ein Konfidenzintervall
für 8 zum Vertrauensgrad
y = 1 —a
Es gilt nämlich, falls die zugrundeliegende Verteilung den Parameterwert 0 besit/t:
(9.18)
P ( Ö E C ) = P (T 0 G K e ) = 1 — P (T e G K fl ) = 1 - a
D a h e r stellt (9.17) ein aus der Beobachtung x,, ..., x n gewonnenes Konfidenzintervall für 0 zum Vertrauensgrad 1 - a dar. Vorausgesetzt wurde dazu, daß (9.17) überhaupt ein Intervall ist. Ist dies nicht der Fall, so nennt man (9.17) einen (aus der Beobachtung x t , . . . , x n gewonnenen) Konfidenzbereich zum Vertrauensgrad 1 — a ; die Beziehung (9.18) gilt nämlich unabhängig davon, ob C ein Intervall ist oder nicht.
Beispiel 9.6 Wir betrachten wieder das einführende Beispiel in Abschnitt 9.1.2. Formuliert man zu jedem festen (i die einfache Nullhypothese H0(1 = {(J.} und die Alternative H 1(i = R\{n}> so besitzt der dazugehörige Niveau-a-Test den Annahmebereich K ( 1 = { x : n - c S x ^ ( j . + c}
mit
c = x a n --^= l Vn
Die Prüfgröße X dieses Tests wird unabhängig von H(ltl konstruiert (daher können wir X an Stelle von X^, schreiben). Nach der Beobachtung x 1 ; ..., x n stellt x einen festen beobachteten Wert dar. Das dazugehörige Konfidenzintervall lautet nach (9.17): C (x^, ..., xn) = (nGR: x G K^} = {fiGE: s - c S | i S i i + c} Wir erkennen daran noch einmal besonders klar den beschriebenen Zusammenhang zwischen Tests und Konfidenzintervallen: x liegt genau dann im Annahmebereich des Tests für die Nullhypothese H0|1 = {fi}, wenn [i zu dem aus der Beobachtung x bestimmten Konfidenzintervall gehört. (Vergleiche dazu Abbildung 51.)
253
Kapitel 9: Statistische Tests
H = x+c . H = x-c
Konfidenzbereich für |i bei beobachtetem x
z: -7
z: z:
j I
Annahmebereichc, die bei Beobachtung von x nicht zur Ablehnung von H 0 [ l = {n} führen
7
beobachtetes
x
Abb. 51:
D e r Z u s a m m e n h a n g zwischen den A n n a h m e b e r e i c h e n von Tests und einem Konfidenzintervall
9.3 Mittelwerttests 9.3.1 Der einfache Gauß-Test In dem einführenden Beispiel in Abschnitt 9.1.2 haben wir den einfachen GaußTest, angewandt auf eine zweiseitige Fragestellung, bereits kennengelernt. Wir fassen seine einzelnen Schritte noch einmal zusammen und wenden ihn auch auf einseitige Fragestellungen an. Als Verteilungsannahme wird zugrunde gelegt: X ist normalverteilt mit unbekanntem JI aber bekanntem o2. Von der Stichprobe wird angenommen: X j , . . . , X n bilden eine unabhängige und identisch verteilte Stichprobe von X. Die folgenden Hypothesenpaare können getestet werden:
(9.19)
Fall 1 (zweiseitig) : H n H=Ho gegen H,^*^ Fall 2 (einseitig) : Hq M-= Mo gegen H 1 : n > f i 0 Fall 3 (einseitig) : H 0 M = gegen H , : n < H o
In allen drei Fällen dient als Prüfgröße das Stichprobenmittel X. Aufgrund der Verteilungsannahme und der Voraussetzungen über die Stichprobe gilt (bei beliebigen, insbesondere auch bei kleinen Stichprobenumfängen): o2 X ist N(n;—)-verteilt
254
Kapitel 9: Statistische Tests
D a h e r nimmt X—(i0 im Mittel um so größere Werte an, desto größer das zugrundeliegende ist. Wegen dieser Monotonieeigenschaft konstruiert man den Ablehnbereich des Tests im Fall 1 aus den großen Werten von IX — |o,0l, im Fall 2 aus den großen Werten von X — n 0 , im Fall 3 aus den kleinen Werten von X - [Xq. D a m i t ergeben sich unter Berücksichtigung des vorgegebenen Signifikanzniveaus a die folgenden Ablehnbereiche K: r
(9.20)
^
In Fall 1: K = { x : Ix -
> xa/2 •
In Fall 2: K = {x: x > n« + t a •
Vn
}
Vn
In Fall 3: K = { x : x < (ig — x a •
Vn
Man vergleiche dazu Abbildung 47 b (zweiseitige Fragestellung) und Abbildung 52 (einseitige Fragestellung). Dichte von X unter (i=
Dichte von X unter |x = ^
ry
X
3, K
Ho+TaO/Vn a) H 0 : (¿S Mo gegen Abb. 52:
1
»« — K Ho—taa/Vn
b) H 0 : |x S Ho gegen
H,:|i>|Jo
H,: H < n
Annahme-und Ablehnbereich bei einseitiger Fragestellung
In Fall 1 haben wir die Gütefunktion dieses Tests schon in Beispiel 9.5 berechnet und diskutiert (vgl. (9.15) und Abbildung 49). Unter anderem ergab sich, daß ein unverfälschter Test zum Niveau a vorliegt. In Fall 2 lautet die Gütefunktion G ( n ) = P ( X > H o + Ta-
|| ( x) = l - < I , ( i i ^ ü W + T a )
wobei die Verteilungsfunktion der Standardnormalverteilung bezeichnet. Man erkennt daran: G ( ^ ) ist streng monoton wachsend (das heißt: Je größer das zu-
255
Kapitel 9: Statistische Tests
grundeliegende n ist, desto größer ist die Wahrscheinlichkeit, H 0 : (x = ^ abzulehnen) und G (no) = 1 — (+ x a ) = 1 — (1 — a) = a laut Konstruktion von K. Daraus folgt: ( < oc für n < Ho G(|x) < = a für (i = Ho l> a für n > m (Vergleiche Abbildung 53 a.) Es liegt also ein unverfälschter Test zum Niveau a vor. In Fall 3 lautet die Gütefunktion G(|X) = P ( X < N - T 0 - J L | | , x ) = ( Sie ist streng monoton fallend mit G (jxo) = ( — t j = a; mithin ist der Test ebenfalls ein unverfälschter Niveau-a-Test. (Vergleiche Abbildung 53 b.)
a) H 0 : | x £ n o Abb. 53:
gegen
H,:|x>n0
b) H 0 : \i & po
gegen
H,:|i xn_,(-£)
Nach (9.22) und (8.46) gilt nämlich für alle o 2 : (9.24)
P (ITI > * „ _ , ( - £ ) II Mo) = a
Das heißt: Die Wahrscheinlichkeit für den Fehler 1. Art ist unabhängig vom nuisanceparameter gleich oc. (Einen Test mit dieser Eigenschaft nennt man einen ähnlichen Test.) Es ist üblich, den Ablehnbereich K in den beobachteten x-Werten anzugeben. Aus (9.23) erhalten wir: (9.25)
K={x:lx-M0l>xn_1(-^)-^}
Der Ablehnbereich dieses Tests ist ganz ähnlich konstruiert wie der des einfachen et Gauß-Tests (vgl. (9.20), Fall 1): An Stelle des Fraktils der Normalverteilung et steht hier das ^--Fraktil der t-Verteilung, an Stelle des beim Gauß-Test bekann-
Kapitel 9: Statistische T e s t s
257
ten o wird die Standardabweichung s =
i ^ r r y 2 ( x i - *) 2
der beobachteten Stichprobe benutzt. D e r Test mit dem Ablehnbereich (9.25) besitzt die Gütefunktion G (jx, o 2 ) = P (X G K 11 a 2 ), die von jx und o2 abhängt. (Nur für (x = Ho ist sie unabhängig von o 2 .) Sie wird mit Hilfe der nichtzentralen t-Verteilung berechnet. Man kann zeigen, daß G (|i, o 2 ) streng monoton wachsend in V i l(i — Hol/o ist. Für alle fi =1= Mo und beliebige o 2 folgt daraus zusammen mit (9.24): G (fx, a 2 ) > G (no, a 2 ) = P (ITI > x n _, ( - £ ) II m) = a wodurch die Unverfälschtheit des Tests gewährleistet ist.
Fall 2 (einseitig):
H 0 : [X = Ho und o 2 beliebig, H , : |x > (Xq und o 2 beliebig
Der Ablehnbereich wird aus den großen Werten von T gebildet: Z u einem vorgegebenem a wird H 0 abgelehnt, wenn eine Stichprobe x j , . . . , x n beobachtet wird mit (9.26)
T ( x „ . . . , x
n
) = ^ ^ W
>xn_,(a)
Nach (9.22) und (8.46) gilt nämlich f ü r alle a 2 : (9.27)
P (T > x n _[ ( a ) II (Jo) = a
Ausgedrückt in den x-Werten lautet der Ablehnbereich K: (9.28)
K = { x : x > ^ + xn_1(a)--^i}
Die dazugehörige Gütefunktion G ((x, o 2 ) = P (XGKII |x, o 2 ) ist streng monoton wachsend in V n ([x — Ho)/o. ( D e n Nachweis dazu führt man wieder mit Hilfe der nichtzentralen t-Verteilung.) D a r a u s erhalten wir zusammen mit (9.27): Erstens gilt für alle (x = Mo und beliebige a2 G (|i, o 2 ) g G (m,, o 2 ) = P (T > x n _! ( a ) II Ho) = a wodurch gewährleistet ist, daß der Test auf ganz H 0 die vorgegebene Schranke a einhält, und zweitens gilt für alle [x > Ho und beliebige o 2 G (n, o 2 ) > G (no, o 2 ) = a womit auch die Unverfälschtheit des Tests gesichert ist.
Kapitel 9: Statistische Tests
258 Fall 3 (einseitig):
H 0 : |i = |io und o 2 beliebig, Hf. ji < Ho und a 2 beliebig
H i e r wird der Ablehnbereich aus den kleinen Werten von T gebildet; er lautet, ausgedrückt in den x-Werten: (9.29)
K={x:x (^überprüfen. Wir unterstellen dabei, daß die Abfüllanlage nur dann neu eingestellt werden soll, wenn H > Ho als signifikant angezeigt wird. Fall 3: Ein Großabnehmer will nur reklamieren, wenn |x < (IQ statistisch gesichert ist; er testet daher die Hypothesen H 0 : (i £ Ho gegen H ^ h < Wir gehen davon aus, daß eine unabhängige, identisch verteilte Stichprobe vom Umfang n = 25 gezogen wird. Vorgegeben ist a = 0.05. a) o = 10 bekannt Wegen x ^ •
= Vn
1.96 • — = 3.92 bzw. t a • = 1.65 • 2 = 3.30 5 Vn
ergeben sich für den einfachen Gauß-Test die Ablehnbereiche in Fall 1: in Fall 2: in Fall 3:
K = {x: Ix - 10001 > 3.92} K = {x: x > 1003.3} K = {x: x < 996.7}
Erhält man aus der beobachteten Stichprobe etwa den Wert x = 1003.4, so liefert der Test die Entscheidungen in Fall 1: in Fall 2: in Fall 3:
H 0 beibehalten H 0 ablehnen H 0 beibehalten
Man erkennt daran, wie wichtig es ist, die Hypothesen, die geprüft werden sollen, vor der Beobachtung von x festzulegen. b) o unbekannt Wir nehmen an, daß aus der beobachteten Stichprobe x = 1003.4 und s = 9.98 berechnet werden. Wegen ( —) - 4 ^ = 2 . 0 6 - - ^ 2 Vn 5
= 4.11 bzw.
Vn
ergeben sich für den einfachen t-Test die Ablehnbereiche
= 1-71 - - ^ - = 3.41 5
K a p i t e l 9: S t a t i s t i s c h e T e s t s in Fall 1: in Fall 2: in Fall 3:
259
K = {x: Ix - 10001 > 4 . 1 1 } K = {x: x > 1003.41} K = {x: x < 996.59}
H i e r l i e f e r t d e r T e s t in allen d r e i F ä l l e n die E n t s c h e i d u n g ,.H n b e i b e h a l t e n " .
Anmerkung Die Ü b e r p r ü f u n g mehrerer Hypothesenpaare durch entsprechende Niveau-aTests in Beispiel 9.7 wurde nur zur Verdeutlichung der Wirkungsweise dieser Tests vorgeführt. Bei der praktischen Anwendung von Tests hat man zu beachten, daß man mit einer Stichprobe immer nur ein Hypothesenpaar mit einem Niveau-a-Test überprüfen darf, wenn man das vorgegebene Signifikanzniveau einhalten will. In der Situation von Beispiel 9.7 ist es nicht erlaubt, sämtliche drei Hypothesenpaare durch dieselbe Stichprobe zu testen und nur die gegebenenfalls signifikanten Alternativen als mit der Irrtumswahrscheinlichkcit a gesichert anzusehen. Bei der Anwendung mehrerer Niveau-a-Tests auf dasselbe Beobachtungsmaterial hat man nämlich die einzelnen Tests zu einem „Gesamttest" zusammenzufassen, der dann ein wesentlich größeres Signifikanzniveau als a besitzen kann. Man vergleiche dazu Abschnitt 9.6. l.d).
9.3.3 Der doppelte Gauß-Test Mit dem einfachen Gauß-Test wurden Hypothesen über einen Mittelwert (i an H a n d einer Stichprobe geprüft (Einstichprobenproblem). Der doppelte GaußTest dient zur Ü b e r p r ü f u n g von Hypothesen über die Differenz zweier Mittelwerte an Hand zweier Stichproben (Zweistichprobenproblem). Ausgangspunkt des Tests sind zwei unabhängige Zufallsvariablen X und Y mit der folgenden Verteilungsannahme: X ist verteilt nach N ^ j a , ) mit bekanntem aj Y ist verteilt nach N (n 2 ; 02) mit bekanntem o\ H, und |i2 sind unbekannt. O f t beschreiben X und Y das gleiche Merkmal in zwei verschiedenen Grundgesamtheiten (beispielsweise X = Körperlänge von Frauen, Y = Körperlänge von Männern). D a n n bedeutet die Verteilungsannahme: m und [i2 sind die unbekannten Mittelwerte zweier normalverteilter Grundgesamtheiten mit bekannten Varianzen. E s handelt sich um eine zvmparametrische Verteilungsannahme. Ü b e r die Stichproben von X und Y wird vorausgesetzt: X , , . . . , X n , ist eine unabhängige, identisch verteilte Stichprobe von X. Y , , . . . , Y m ist eine unabhängige, identisch verteilte Stichprobe von Y. Beide Stichproben sind voneinander unabhängig, das heißt: Für jedes i und j sind X; und Yj voneinander unabhängig; man spricht auch von unverbundenen Stichproben. In der Regel wird über die Mittelwerte senpaare geprüft: oder oder
H 0 : M-i = M-2 gegen H ^ ^ * ^ H 0 : ^ ^ \i2 gegen H p H ^ ^ H o ^ i i ^ b gegen H ^ ^ c ^
und (x2 eines der folgenden Hypothe(zweiseitig) (einseitig) (einseitig)
260
Kapitel 9: Statistische Tests
Sie lassen sich verallgemeinern zu gegen gegen gegen
H 0 : Hi - ^2=Ö 0 H 0 : Hi - M-2 = Ö0 H0:
Fall 1 (zweiseitig): Fall 2 (einseitig): Fall 3 (einseitig):
(9.30)
H, Hi - H2+&0 H, Hi - H2>Ö0 Hi Hi - |Ì2 t o / 2 • o (ni, n 2 )}
In Fall 2:
K = {(x, y)
x-y>6
In Fall 3:
K = {(x, y)
x - y < 50 -
0
+ Ta-a(n1,n2)} Ta • a
(ni, n 2 )}
Dieser Test ist in allen drei Fällen gleichmäßig bester unverfälschter Test.
9.3.4 Der doppelte t-Test Mit dem doppelten t-Test werden ebenfalls Hypothesen über die Differenz zweier Mittelwert ^ und geprüft, wobei wieder eines der in (9.30) angegebenen Hypothesenpaare H 0 und Hi zugrunde gelegt wird. Ausgangspunkt des Tests sind zwei unabhängige Zufallsvariablen X und Y mit der folgenden Verteilungsannahme: X ist verteilt nach N ( n i ; o 2 ) ) Y ist verteilt nach N (n 2 ; o 2 ) J
mit
2
unbekanntem o
Kapitel 9: Statistische Tests
261
l-i! und (x2 sind natürlich auch unbekannt. Im Gegensatz zum doppelten GaußTest müssen hier die Varianzen of und o 2 von X bzw. Y nicht bekannt sein, vorausgesetzt wird aber, daß beide Varianzen übereinstimmen; mit o2 = a]= o 2 wird ihr gemeinsamer (unbekannter) Wert bezeichnet. E s handelt sich hier um eine i/re/parametrische Verteilungannahme mit o 2 als nuisance-parameter. Über die beiden Stichproben X[, ..., X„, von X und Y j , ..., Y„2 von Y werden dieselben Voraussetzungen gemacht wie beim doppelten Gauß-Test. Mit X und Y bezeichnen wir die beiden Stichprobenmittel, mit Sj und S 2 die Stichprobenvarianzen, das heißt: s?= ^ ^ ( X . - X )
und
2
S^=
— L ^ Y i - Y )2
Die gemeinsame Varianz o 2 wird durch das gewogene Mittel (Q W
S2 _ ^ ~
( n i ~ l ) S i + (n 2 — 1) S j n, + n 2 - 2
geschätzt. S 2 ist eine erwartungstreue Schätzung für o 2 ; den aus den beobachteten Stichproben gewonnenen Schätzwert bezeichnen wir mit s 2 . (Entsprechend sind S und s die Wurzeln aus S 2 bzw. s 2 .) Für die Zufallsvariable X — Y gilt: Var ( X — Y ) = — + — und, falls n, ni n2
= ö 0 ist: E ( X - Y ) = Ö0
Wir ersetzen das unbekannte o 2 durch S 2 und bilden analog zu (9.21) die Größe (9.34)
X - Y - Ö o
T =
S2
t
V
_
X - Y - Òq
S
V n, + n2
n2
Ü!
Sie dient als Prüfgröße des Tests. Nach dem Satz von Student gilt: (9.35)
{
Unter
—
=
besitzt T eine t-Verteilung
mit n] + n 2 — 2 Freiheitsgraden.
Damit läßt sich in der vorliegenden Situation zur Festlegung der Ablehnbereiche das Konstruktionsverfahren des einfachen t-Tests anwenden mit M-i — M-2
an Stelle von
H
60 X - Y
an Stelle von an Stelle von
Mo X
•rn+n2-2 ( ° 0
an Stelle von
"n-l(°0
M
an Stelle von
ni
+
i
n2
s VS
Auf diese Weise ergeben sich, wenn wir zur Abkürzung
262
Kapitel 9: Statistische T e s t s
s(n1;n2) = s
+
^
setzen, für den doppelten t-Test die folgenden Ablehnbereiche K für die in (9.30) angeführten Hypothesenpaare:
{
In Fall 1:
K={(x,y):
Ix — y — 80l > x ni+ „ 2 _ 2 ( y ) • s (n 1 ; n 2 )}
K = {(x, y):
x - y > ö 0 + x n , +n2 _ 2 (a) • s (n 1; n 2 )}
K = {(x,y):
x - y < 6„-xn,+„2_2(a) • s(n,,n2)}
In Fall 2: Dieser Test besitzt die gleichen Güteeigenschaften wie der einfache t-Test. Bei Fall 3: zweiseitiger In Fragestellung ist er ebenfalls ein ähnlicher Test, das heißt, er besitzt für alle Werte des nuisance-parameters o 2 die gleiche Wahrscheinlichkeit für den F e h l e r l . Art. Anmerkung Der doppelte t-Test läßt sich auch anwenden, wenn zwar o? =1= a 2 ist, man aber das Verhältnis X kennt, in dem o, zu o 2 steht: o, = Xo2. In diesemFall verwendet man die Prüfgröße X-Y-Öp =
Sx
, V ^
+
m - 1 S?+ n 2 - l )XSl i =—— n M i + n 2 — 2)
mlt s
T T2
Unter ^ — \i2 = ö 0 besitzt T^ wieder die t-Verteilung mit n) + n 2 - 2 Freiheitsgraden. Damit ergeben sich für die in (9.30) genannten Hypothesenpaare die entsprechenden Ablehnbereiche wie in (9.36), wenn man dort s (n t , n2) durch X l1 1 n ersetzt. n l 2
9.3.5 Der Test von Welch Wir betrachten nun das Problem, Hypothesen über die Differenz zweier Mittelwerte und \i2 zu testen, wenn über die beiden Varianzen a j und o 2 keinerlei Kenntnisse vorliegen. Wir gehen dazu wieder von zwei unabhängigen Zufallsvariablen X und Y aus mit der Verteilungsannahme X ist verteilt nach N Gm; o?) Y ist verteilt nach N (ji 2 ; oj)
1 } ^
^
0
„2. . k a n n t " °2 unbekannt
2
(Werparametrische Verteilungsannahme). Vorausgesetzt werden zwei unverbundene und jeweils unabhängige, identisch verteilte Stichproben X , , . . . , X ni und Y,, ..., Y nz von X bzw. Y. Als Hypothesen H 0 und H, sind wieder die in (9.30) angegebenen Hypothesenpaare zugelassen. Das Problem, ob es überhaupt einen auf den Größen X, Y, S? und S2 aufbauenden Niveau-a-Test gibt, ist unter dem Namen Behrens-Fisher-Problem bekannt.
Kapitel 9: Statistische Tests
263
Oft wird darunter auch nur die schärfer gestellte Frage verstanden, o b es für die zweiseitige Fragestellung ^ = [i2 gegen [x, # \i2 einen ähnlichen Niveau-a-Test dieser Art gibt. Neuere Untersuchungen (vgl. Linnik [1968]) haben zwar ergeben, daß solche Tests existieren; sie sind jedoch für die A n w e n d u n g in der Praxis „unzumutbar", da sich ihre Ablehn- und Annahmebereiche relativ dicht durchdringen. D a h e r gibt man sich immer noch mit dem von Welch [1947] entwickelten Test zufrieden, der das vorgegebene a nur näherungsweise einhält. Die Prüfgröße dieses Tests lautet (9.37)
T =
X - Y - ö„ A + J T n
n
l
2
Sie ist unter n, — n 2 = öo a n n ä h e r n d t-verteilt mit
1
=
(1-u) 2 n2 — 1
+ nt — 1 Freiheitsgraden, wobei s n 2
Si
+
i i 2
si n
2
ist. In der Regel ist u keine ganze Zahl; als Freiheitsgrad wird dann die größte ganze Zahl, die kleiner als u ist, gewählt. Die Ablehnbereiche für die in (9.30) genannten Hypothesenpaare haben die gleiche Gestalt wie diejenigen in (9.36) mit dem (auf die nächst kleinere ganze Zahl abgerundeten) Freiheitsgrad v an Stelle von ^ + n 2 — 2 und
nj
+
^ n2
an Stelle von s ( n 1 ; n 2 ) = \
—— 7 E n2 V n.
Beispiel 9.8 Als numerisches Beispiel zur Abhängigkeit der Hypothesenprüfung von den Voraussetzungen über a] und a\ betrachten wir: Stichprobe von X: Stichprobe von Y:
n, = 12, n2 = 1 8 ,
x = 99.5, y = 104.4,
s? = 61.6 sf = 57.0
Voraussetzungen: Normalverteilte Grundgesamtheiten und sowohl „in sich" als auch voneinander unabhängige Stichproben. |x, = EX und n2 = EY sind unbekannt. Hypothesen: H 0 : m ä fi2 gegen H,: m
\i2. Signifikanzniveau sei a = 0.05. An n = 14 Patienten eines Krankenhauses wird zuerst Mittel A und ein paar Tage später B verabreicht. Es ergeben sich folgende Werte:
Patient i 1 2 3 4 5 6 7 8 9 10 11 12 13 14
Schlafdauer (in Stunden) unter A unterB Xi Yi 6.8 7.2 7.4 7.5 8.0 6.7 6.5 7.8 8.2 7.6 6.8 7.0 7.5 7.2
6.0 7.3 7.1 6.9 7.5 7.0 6.5 7.1 7.4 8.3 6.7 6.5 7.8 6.6
Zi = *i - yi + 0.8 -0.1 + 0.3 + 0.6 + 0.5 -0.3 0.0 + 0.7 + 0.8 -0.7 + 0.1 + 0.5 -0.3 + 0.6
Daraus erhält man: z — 0.25 und s 7 — 0.472. Wegen bB — 0,x„_, (a) = 1.77 und V n = 3.742 ergibt sich der Ablehnbereich K (vgl. (9.28)): K = {z: z > x n _! (a) — } = {z: z > 0.223} Vn Daher führt das beobachtete z = 0.25 zur Ablehnung von H 0 . Die Alternative H) kann als statistisch signifikant angesehen werden.
9.3.7 Verbundene oder unverbundene Stichproben? Zur Überprüfung von Hypothesen über die Differenz zweier Mittelwerte haben wir zwei Verfahren kennengelernt (wir beziehen uns auf den Fall, in dem die Varianzen unbekannt sind): • die Durchführung einer unverbundenen Stichprobe und Anwendung des doppelten t-Tests oder des Tests von Welch; • die Durchführung einer verbundenen Stichprobe und Anwendung des t-Differenzentests. Dem Vergleich dieser beiden Verfahren dienen die folgenden Bemerkungen. 1) Der t-Differenzentest geht von einer Auswahl von n Elementen aus und basiert auf 2n Beobachtungsdaten. (An jedem Merkmalsträger werden die Ausprägungen von X und Y festgestellt.) Dem doppelten t-Test und dem Test von Welch unterliegen zwei Stichproben mit den Umfängen n, bzw. n2 und n[ + n2 Beobachtungswerten. (An n, Merkmalsträgern werden die Ausprägungen von X, an n2 die von Y festgestellt.) Zum Vergleich der beiden Verfahren hat man daher von n| + n 2 =2n auszugehen.
Kapitel 9: Statistische Tests
267
2) Der t-Diffcrcnzentest benötigt eine nur halb so große Auswahl von Merkmalsträgern wie der doppelte t-Test oder der Test von Welch. Da in der Regel die „Beschaffung" von Merkmalsträgern der größte Kostenfaktor eines statistischen Verfahrens darstellt, ist allein schon aus diesem Grund die Planung einer verbundenen Stichprobe (und der t-Differenzentest) günstiger als die einer unverbundenen Stichprobe (mit dem doppelten t-Test oder dem Test von Welch). aus_ 3) Bei unverbundenen Stichproben muß entschieden werden, ob von of = gegangen werden kann (und damit der doppelte t-Test anwendbar ist) oder nicht (und dann der weniger scharfe Test von Welch durchzuführen ist). Diese lästige und oft statistische „Gewissensbisse" verursachende Entscheidung ist bei verbundenen Stichproben überflüssig.
4) Die Anzahl der Freiheitsgrade beim t-Differenzentest ist mit n - 1 nur halb so groß wie die beim doppelten t-Test mit n 1 +n 2 —2 = 2 ( n - l ) . Daraus könnte man schließen, daß der doppelte t-Test, bei demselben vorgegebenen a , im Mittel größere Ablehnbereiche besitzt als der t-Differenzentest (die Fraktile der t-Verteilung werden mit wachsenden Freiheitsgraden kleiner) und deswegen eine kleinere Wahrscheinlichkeit für den Fehler 2. Art aufweist als jener, der t-Differenzentest also weniger trennscharf ist als der doppelte t-Test. Dies ist aber in der Regel nicht der Fall: Die durch den kleineren Freiheitsgrad in Kauf genommene geringere Trennschärfe des t-Differenzentests wird durch seine Eigenschaft 5) meist mehr als ausgeglichen. 5) Der wesentliche Vorteil von verbundenen gegenüber unverbundenen Stichproben ist der folgende. Bei unverbundenen Stichproben kann ein Unterschied zwischen einem X-Wert und einem Y-Wert auch allein dadurch zustande kommen, daß die beiden Werte an verschiedenen Merkmalsträgern beobachtet werden. Diese durch die Variabilität zwischen den Merkmalsträgern verursachte Streuung wird bei verbundenen Stichproben ausgeschaltet. Anders ausgedrückt: In der Regel ist die Varianz von X—Y in verbundenen Stichproben wesentlich kleiner als in unverbundenen; X und Y können daher durch verbundene Stichproben viel genauer verglichen werden. Diese Varianzreduzierung kommt zustande, wenn X und Y (bei je gleichem Merkmalsträger) positiv korreliert sind, und ist um so stärker, desto höher diese Korrelation ist. (Für verbundene Stichproben ist Var(X—Y) = a | = o, + o\ — 2o 1 2 ,fürunverbundene dagegen Var (X—Y) = a, + + 02.) Man führt verbundene Stichproben nur durch, wenn man annehmen kann, daß X und Y (bei je gleichem Merkmalsträger) stark positiv korreliert sind. Auf diese Weise wird der unter 4) genannte Nachteil des t-Differenzentests in der Regel überkompensiert. Zusammenfassend ergibt sich: Auf verbundene Stichproben basierende Tests sind im allgemeinen trennschärfer als Tests bei unverbundenen Stichproben.
Beispiel 9.10 Wir wollen an Hand von Beispiel 9.9 die größere Trennschärfe des t-Differenzentests gegenüber dem doppelten t-Test demonstrieren. Dazu gehen wir davon aus, daß die beobachteten x- und y-Werte nach ihrer Erhebung durcheinander gebracht wurden, so daß nicht mehr festgestellt werden kann, ob zwei Werte x, und y^ von dem gleichen Patienten stammen oder nicht. Man muß dann die Erhebung wie zwei unverbundene Stichproben behandeln und auf den doppelten t-Test zurückgreifen. (Wir nehmen an, daß die dazu erforderlichen Voraussetzungen erfüllt sind.)
268
K a p i t e l 9: S t a t i s t i s c h e T e s t s
D i e n, = 14 D i e n 2 = 14
x - W e r t e liefern: y - W e r t e liefern:
x = 7 . 3 0 u n d s, = 0 . 2 5 7 y = 7.05 und s2 = 0.352
D a r a u s e r g i b t sich _2 =
( n t — 1) s, + ( n 2 ~ 1) s 2 n( + n2 — 2
Wegen
+ ^
=
=
1 + i 2
=
0 3 0 4 5 u n d g =
0
5 5 2
= 0 . 3 7 8 und x n , + n _ 2 ( a ) = x 2 6 ( 0 . 0 5 ) = 1.71
l a u t e t d e r A b l e h n b e r e i c h d e s d o p p e l t e n t - T e s t s b e i der P r ü f u n g v o n H 0 : H,:|x1>^(vgl.(9.36),Fall2):
S
gegen
K = { ( x , y): x - y > + 1.71 • 0 . 5 5 2 • 0 . 3 7 8 } = { ( x , y): x - y > + 0 . 3 5 7 } D i e v o r l i e g e n d e B e o b a c h t u n g mit x — y = 0 . 2 5 führt d a h e r nicht zur A b l e h n u n g v o n H 0 . A l s o k a n n hier, i m G e g e n s a t z z u B e i s p i e l 9 . 9 , H , nicht als s i g n i f i k a n t n a c h g e w i e s e n w e r d e n .
9.3.8 Mittelwerttests bei großen Stichprobenumfängen Die bisher beschriebenen Mittelwerttests können bei beliebigen, vor allem auch kleinen Stichprobenumfängen durchgeführt werden, setzen aber normalverteilte Grundgesamtheiten voraus. Wie lassen sich Hypothesen über pi bzw. — \i2 prüfen, wenn man nicht von der Normalverteilungsannahme ausgehen kann? Die Antwort lautet: Bei großen Stichprobenumfängen lassen sich Gauß-Tests verwenden, bei kleinen müssen sogenannte parameterfreie Tests benutzt werden. Wir wenden uns nur dem ersten Teil der Antwort zu. a)
Einstichprobenproblem
Sei X eine Zufallsvariable mit n, = EX und a 2 = VarX und X x , ..., Xn eine unabhängige, identisch verteilte Stichprobe von X. Für hinreichend große n gilt nach dem zentralen Grenzwertsatz: Unter ^ = [i0 sind (9.43)
Vn
(9.44)
Vn
und
annähernd N (0;l)-verteilt. (Vergleiche zu (9.44) auch die Begründung von (**) in Abschnitt 8.2.4.) Die Verteilung von X unterliegt dabei keinen Einschränkungen (außer der Voraussetzung, daß |x und a 2 überhaupt existieren). Die Mittelwerttests können daher bei großem n mit Hilfe der Fraktile der Standardnormalverteilung konstruiert werden, wenn man bei bekanntem o 2 als Prüfgröße (9.43) und bei unbekanntem o 2 (9.44) verwendet. Daraus ergibt sich: Sowohl bei bekanntem als auch bei unbekanntem a 2 läßt sich für hinreichend große n der einfache Gauß-Test auch im Fall einer nicht normalverteilten Grundgesamtheit verwenden; bei unbekanntem o 2 hat man dazu s an Stelle von o einzusetzen.
Kapitel 9: Statistische Tests
b) Zweistichprobenproblem:
Unverbundene
269
Stichproben
X und Y seien zwei unabhängige Zufallsvariablen mit (ij = EX, |x2 = EY, o 2 = = VarX, a\ = VarY, und X b ..., X ni bzw. Y 1 ; . . . , Yn2 zwei unverbundene und jeweils unabhängige, identisch verteilte Stichproben von X bzw. Y. Für hinreichend große n[ und n 2 gilt nach dem zentralen Grenzwertsatz: Unter H) —|x2 = ö 0 sind (9.45)
(9.46)
X - Y - ö„
aV Hn, +
-
und
n2
X - Y - 5„ "
V^ülT V n,
n2
annähernd N (0;l)-verteilt. Damit können wir für große Stichprobenumfänge zur Konstruktion von Tests über [i, — \i2 wieder die Fraktile der Standardnormalverteilung verwenden, wenn wir bei bekannten o 2 und o 2 die Prüfgröße (9.45), bei unbekannten O] und o 2 diejenige in (9.46) benutzen. Wir erhalten: Sowohl bei bekannten als auch bei unbekannten o 2 und a 2 läßt sich für hinreichend große nj und n 2 der doppelte Gauß-Test auch im Fall nicht normalverteilter Grundgesamtheiten anwenden. Bei unbekannten o 2 und o 2 hat man dazu \I-*L + Ä . V n, n2
an Stelle von
\l + Ä . V nj n2
einzusetzen. Im Spezialfall a\ = a\ = o 2 schätzt man das unbekannte o 2 durch S2 in (9.33) und verwendet s 2 an Stelle von Sj und s 2 . c) Zweistichprobenproblem:
Verbundene
Stichproben
(Xj, Y , ) , . . . , (X n , Y n ) sei eine verbundene Stichprobe von (X, Y) mit der Eigenschaft, daß Zj = Xj—Y 1; ..., Z n = X n —Y n eine unabhängige, identisch verteilte Stichprobe von Z=X—Y darstellt. Dabei sind 8 = E Z = EX — EY = — ^ und o | = V a r Z unbekannt. Für hinreichend große n gilt nach dem zentralen Grenzwertsatz: Unter m — [i2 = ö() ist (9.47)
Z
~ 5 " Vn ^z
mit S | aus (9.42)
annähernd N (0;l)-verteilt. Zur Konstruktion von Tests über |x, — jj.2 lassen sich daher für große n die Fraktile der Standardnormalverteilung verwenden, wenn man die Prüfgröße (9.47) benutzt. Wir erhalten: In verbundenen Stichproben läßt sich für hinreichend große n der einfache Gauß-Test auf die Differenzen Zj = Xj — yj anwenden - man spricht auch vom Gauß-Differenzen-Test ohne daß für X—Y von der Normalverteilungsannahme ausgegangen werden muß. Man erhält die entsprechenden Ablehnbereiche dieses Tests, wenn man in (9.20) z an Stelle von x, 8 0 an Stelle von Ho und s z an Stelle von o einsetzt.
270
K a p i t e l 9: S t a t i s t i s c h e T e s t s
d) Abschließende
Bemerkungen
Bei den hier angegebenen Gauß-Tests handelt es sich um asymptotische Niveaua-Tests: Das Signifikanzniveau a wird nur für große Stichprobenumfänge näherungsweise eingehalten. Die in Abschnitt 8.2.4 genannten Faustregeln besagen: Beim Einstichprobenproblem hält der einfache Gauß-Test das vorgegebene a hinreichend genau ein, wenn n ^ 30 (bei bekanntem o 2 ) bzw. n S 40 (bei unbekanntem a 2 ) ist und die zugrunde liegende Verteilung von X nicht allzu unsymmetrisch ist. Entsprechendes gilt für das Zweistichprobenproblem. Die oben behandelten t-Tests sind auf kleine Stichprobenumfänge zugeschnitten und an die Normalverteilungsannahme gebunden. Es ist jedoch anzumerken, daß sie relativ robust sind, das heißt unempfindlich gegenüber geringfügigen Abweichungen von der Normalverteilungsannahme (vgl. Witting und Nolle [1970]). Die t-Tests gehen für große Stichprobenumfänge in die entsprechenden GaußTests über, denn mit wachsenden Freiheitsgraden nähert sich die (zentrale) t-Verteilung der N (0;1)-Verteilung.
9.4 Tests für unbekannte Wahrscheinlichkeiten 9.4.1 Der Binomial-Test für p Wir konstruieren Tests für Hypothesen über die unbekannte Wahrscheinlichkeit p = P (E), mit der ein Ereignis E bei der Durchführung eines Zufallsexperimentes eintritt. Das interessierende Merkmal ist hier die Null-Eins-verteiltc Zufallsvariable v
_
f l
1 falls bei Durchführung des Versuchs E eintritt 0 sonst
Die Verteilung von X stimmt mit der B(l;p)-Verteilung überein: P (X = 1) = p und P (X = 0) = 1—p. Es liegt eine einparametrische Verteilungsannahme vor. Das Zufallsexperiment wird n mal unabhängig voneinander durchgeführt, X; bezeichne die Null-Eins-verteilte Zufallsvariable des i-ten Versuches ( i = l , ..., n), so daß X,, ..., X n eine unabhängige, identisch verteilte Stichprobe von X ist. Die Tests für p verwenden die Prüfgröße (9.48) T ist B(n;p)-verteilt und besitzt wegen E T = np die folgende Monotonieeigenschaft: T nimmt im Mittel um so größere Werte an, desto näher p bei Eins liegt. Natürlich läßt sich p auch als unbekannter Anteilswert einer Eigenschaft E in einer Grundgesamtheit auffassen. Dann ist T die absolute Häufigkeit von E in einer Stichprobe vom Umfang n, von der angenommen wird, daß sie eine reine Zufallsauswahl darstellt. Für große Grundgesamtheiten ist T auch im Fall, daß ohne Zurücklegen gezogen wird, hinreichend genau B(n;p)-verteilt. a) Zweiseitige Fragestellung: H 0 : p = p 0 gegen H,: p =1= p() Wegen der erwähnten Monotonieeigenschaft von T ist es naheliegend, bei der zweiseitigen Fragestellung den Ablehnbereich K aus den extrem kleinen und gro-
Kapitel 9: Statistische Tests
271
ßen Werten von T zu bilden: H 0 wird abgelehnt, wenn ein T-Wert beobachtet wird, der kleiner als eine kritische Zahl q oder größer als eine kritische Zahl c 2 ist. Dabei sind q und c 2 zwei ganze Zahlen mit q < c 2 . K hat also die Form K = K, U K 2 mit K, = {0, 1, ..., c, - 1} und K 2 = {c2 + 1, ..., n} D e r Test soll eine vorgegebene obere Schranke a für die Wahrscheinlichkeit des Fehlers 1. Art einhalten; es soll also gelten: P ( T e K l l p o ) = P(TGK,llp 0 ) + P(TGK 2 llp 0 ) S a D a h e r sind q und c 2 so zu bestimmen, daß gilt: (9.49)
P (T < cjllpo) + P (T > c 2 llp 0 ) g a
Es steht nicht von vorneherein fest, wie man a auf die beiden Teilbereiche K, und K 2 aufteilen soll. Für p(l =1= 0.5 ist nämlich die B(n; p,,)-Verteilung unsymmetrisch; daher ist es nicht zwingend, a z u halbieren. Gleichwohl wird dies oft vorgeschlagen, vor allem, um ein für die Praxis einfaches Verfahren zu erhalten. Dem schließen wir uns an indem wir festlegen: (9.50a)
P ( T < c,llp ( ) )
(9.50b)
P (T > c 2 llp 0 )
= Y
(Beim zweiseitigen Gauß-Test trat die Frage, wie a aufgeteilt werden soll, erst gar nicht auf. W e g e n der Symmetrie der Normalverteilung war es dort von vorneherein klar, a in zwei Schranken von je a/2 zu teilen.) U m das vorgegebene a möglichst weit auszuschöpfen, wählt man c, als die größte und c 2 als die kleinste ganze Zahl, f ü r die (9.50a) bzw. (9.50b) gerade noch erfüllt ist. (Dies geschieht mit einer Vertafelung der B (n; p 0 )-Verteilung; vergleiche dazu Beispiel 9.11 und 9.12.) Dabei kann auch der Fall eintreten, daß c, = 0 gewählt werden muß, nämlich dann, wenn P (T = Ollp0) bereits größer als a/2 ist; in diesem Fall ist K, = 0 und H 0 nur f ü r die großen Werte von T abzulehnen. Entsprechendes gilt für den Fall c 2 = n. D e r angegebene Test heißt (zweiseitiger) Binomial-Test. Er ist auf kleine Stichprobenumfänge zugeschnitten. Dieser Test besitzt die beiden folgenden Nachteile: 1) D a die Verteilung der Prüfgröße diskret ist, läßt sich in der Regel nicht erreichen, daß der Test das vorgegebene a ganz ausschöpft. 2) Für po 4= 0.5 ist der Test nicht unverfälscht. Dies hat seine Ursache darin, d a ß man auch f ü r die unsymmetrischen Binomialverteilungen das vorgegebene a gemäß (9.50) in zwei gleich große Schranken aufgeteilt hat. Beide Nachteile lassen sich in einer weiterführenden Testtheorie überwinden. Durch die Einführung sogenannter randomisierter Tests läßt sich auch bei diskreten Prüfgrößen erreichen, daß ein vorgegebenes a stets ganz ausgeschöpft wird.
Kapitel 9: Statistische Tests
272
( B e i e i n e m randomisierten Test läßt man zu, daß man sich bei bestimmten B e o b achtungen nicht eindeutig, sondern mit gewissen Wahrscheinlichkeiten für oder g e g e n H 0 entscheidet.) Nützt man darüberhinaus die in (9.49) noch bestehende Freiheit bei der Wahl von c, und c 2 aus, so läßt sich ein gleichmäßig bester unverfälschter Niveau-a-Test für p = p 0 gegen p =1= p 0 konstruieren. Strenggenommen trägt nur dieser optimale Test den N a m e n Binomial-Test. D e r von uns beschrieb e n e Test stimmt mit dem optimalen Test nur mehr oder weniger gut überein; er läßt sich als eine Approximation an den optimalen Test auffassen, eine Approximation, die um so besser ist, desto näher p 0 bei 0.5 liegt und desto größer n ist.
Beispiel 9.11 Um zu prüfen, ob bei einer Münze die Wahrscheinlichkeit p für „Zahl" gleich 0.5 ist, wird die Münze n = 12 mal geworfen und H 0 : p = p 0 = 0.5 gegen H ^ p =t= p 0 zum Niveau oc = 0.05 getestet. Unter H 0 besitzt die Prüfgröße T die B (12; 0.5)-Verteilung. Sie lautet: t Ablehnbereich c,-» Annahmebereich
,
C2— Ablehnbereich
0 1 2
P ( T = tollpo) 0.0002 0.0029 0.0161
3 4 5 6 7 8 9
0.0537 0.1208 0.1934 0.2256 0.1934 0.1208 0.0537
10 11 12
0.0161 0.0029 0.0002
= 0.0192 < 0 . 0 2 5 = —
= 0.0192 < 0 . 0 2 5 = —
Daraus ergibt sich c, = 3 und C2 = 9 und der Ablehnbereich K = {0,1,2} U {10,11,12). Die Wahrscheinlichkeit für den Fehler 1. Art ist P (TeKllp 0 ) = 0.0192 + 0.0192 = 0.0384 und damit kleiner als das vorgegebene oc = 0.05. Die Gütefunktion des Tests lautet G(p) = P ( T e K l l p ) = l - J
3
( 1 t 2 ) p ' ( l - p) 12 "'
Sie ist in Abbildung 54 dargestellt. G (p) ist symmetrisch zu p 0 und nimmt an der Stelle p0 ihr Minimum G (p 0 ) = 0.0384 an. In diesem Fall (p 0 ist gleich 0.5!) liegt daher ein unverfälschter Test vor. Darüber hinaus erkennt man am Verlauf der Gütefunktion die folgende wünschenswerte Monotonieeigenschaft des Tests: Je stärker sich das wirkliche p vom hypothetischen Wert po unterscheidet, desto größer ist die Wahrscheinlichkeit, H 0 abzulehnen.
273
Kapitel 9: Statistische Tests G(p)
A b b . 54:
Die Gütefunktion des zweiseitigen Binomial-Tests für H 0 : p = p 0 = 0.5 gegen H,:p=t=p 0
Beispiel 9.12 Wir betrachten bei einem Würfelspiel das Ereignis E , eine Fünf oder eine Sechs zu erzielen. Für einen symmetrischen Würfel ist P ( E ) = 1/3. Für einen bestimmten Würfel soll die Hypothese H„: p = P ( E ) = p() = 1 ß gegen die Alternative H, : p 4= p 0 überprüft werden. Dazu wird der Würfel n = 12 mal geworfen; vorgegeben ist a = 0.05. Unter H,, besitzt diePrüfgröße T die B (12; 1/3)-Verteilung, sie lautet:
t Ablehnbereich c,-»
Annahmebereich
c 2 -^
Ablehnbereich
P (T = tllpo)
0
0.0077
1 2 3 4 5 6 7
0.0462 0.1272 0.2120 0.2384 0.1908 0.1113 0.0477
8 9 10 11 12
0.0149 0.0033 0.0005
p„. Dieses „ U m k i p p e n " des zweiseitigen in den einseitigen Binomial-Test ist natürlich nicht erwünscht. Man hat daher darauf zu achten, daß a relativ zu n nicht zu klein gewählt wird. b) Einseitige
Fragestellung:
H 0 : p Si p (l g e g e n H,: p > p(l
Z u r Ü b e r p r ü f u n g v o n H 0 : p = p 0 g e g e n H ^ p > p 0 wird der A b l e h n b e r e i c h K d e s T e s t s aus d e n g r o ß e n W e r t e n v o n T g e b i l d e t : H ( ) wird v e r w o r f e n , w e n n e i n T - W e r t b e o b a c h t e t wird, d e r größer ist als e i n e kritische Z a h l c: K = { c + 1, c + 2 , . . . , n } D a b e i wird c als d i e kleinste (9.51)
ganze
Zahl f e s t g e l e g t , für d i e g e r a d e n o c h
P(T>cllp0)ga
ist. W i r g e h e n im f o l g e n d e n d a v o n aus, d a ß 0 i c = n - l gilt. ( D e r A u s n a h m e f a l l c = n, in d e m d e r T e s t ü b e r h a u p t nicht zur A b l e h n u n g v o n H 0 f ü h r e n k a n n , wird
Kapitel 9: Statistische Tests
275
a u s g e s c h l o s s e n . ) D i e G ü t e f u n k t i o n d e s T e s t lautet:
(9.52)
G(p) =
J+i(?)p p , am besten. In unserem Beispiel ist p„ = — und G (p„) = 0.54.
276
A b b . 56:
Kapitel 9: Statistische Tests
D i e Gütefunktion des einseitigen Binomial-Tests für H 0 : p 2 p0 = -i- gegen
H,:p>p0 9.4.2 Der einfache Gauß-Test für p Wir gehen von der gleichen Situation wie in Abschnitt 9.4.1 aus und betrachten die Zufallsvariable T = HXj in (9.48), die angibt, wie oft ein Ereignis E bei n unabhängigen Versuchswiederholungen eintritt. Die Stichprobe X 1 ; . . . , X n besteht aus B ( l ; p)-verteilten Zufallsvariablen X, mit p = P (E). Das Stichprobenmittel X — -jjj- 2X; = -i-T gibt die relative Häufigkeit von E in der Stichprobe an. Wir benutzen die Approximation der Binomial- durch die Normalverteilung (vgl. Abschnitt 4.3.2), nach der T approximativ N (np; np (1 - p))-verteilt ist, und erhalten: (9.54)
Unter p = p0 ist für hinreichend große n (Faustregel: np() (1—p0) > 9) die relative Häufigkeit X annähernd N (p0;
^
j-verteilt.
Damit können wir für große Stichprobenumfänge zur Prüfung von Hypothesen über p den einfachen Gauß-Test mit den Ablehnbereichen (9.20) verwenden (vgl. Abschnitt 9.3.1). Dabei treten
\l V
Po(1
p
an die Stelle von
n
po
an die Stelle von
^
~Po)l n
an die Stelle von
Vi
x ist die beobachtete relative Häufigkeit von E in der Stichprobe. Dieser Test ist ein asymptotischer Niveau-a-Test.
277
Kapitel 9: Statistische Tests
Beispiel 9.14 Durch eine Befragung von n = 500 Wahlberechtigten will das Präsidium einer Partei E erfahren, ob es zum gegenwärtigen Z e i t p u n k t davon ausgehen kann, daß der Anteil p von E Wählern unter allen Wahlberechtigten größer ist als die ersehnte 4 0 % - G r e n z e . Wir gehen davon aus, daß die n = 500 ausgewählten Wahlberechtigten eine reine Zufallsstichprobe darstellen, und testen H 0 : p § p 0 = 0.4 gegen H!: p > p 0 zum Niveau a = 0.01. D a n hinreichend groß ist, können wir den einfachen Gauß-Test anwenden. Dessen Ablehnbereich K lautet (vgl. (9.20), Fall 2): K={x:x>p
H i e r
0
+
T a ySEpZ } 0.051 und daher
2.33
ist
K = {x: x > 0.4 + 0.051} = {x: x > 0.451} H,: p > 0.4 ist signifikant, wenn unter den 500 Befragten mindestens 45.1 % bzw. 226 Wähler für die Partei E votieren.
Beispiel 9.15 Ein Würfel wird n = 120 mal geworfen, E sei das Ereignis „Fünf oder Sechs", für p = P (E) soll H„: p = Po = -j- gegen H ^ p 4= p(, bei a = 0.05 getestet werden. Der Ablehnbereich K der einfachen Gauß-Tests lautet hier (vgl. (9.20), Fall 1): K = { x: I x - p „ l
>
T.g.y
P'^-P'Z} =
{x;
|x _ -Ì-1 > 0.084} =
= {x: x < 0.249} U { x : x > 0 . 4 1 7 } . Wegen 0.249 • 120 = 29.88 und 0.417 • 120 = 50.04 läßt sich H 0 beibehalten, wenn für die absolute Häufigkeit Tgilt: 30 £ T < 50.
9.4.3 Der exakte Test von Fisher für p i ~ p 2 Wir beschreiben hier einen Test, mit dem Hypothesen über die Differenz zweier Wahrscheinlichkeiten (Anteilswerte) p! und p 2 überprüft werden, wenn kleine Stichprobenumfänge vorliegen. Dazu gehen wir von dem folgenden Modell aus. Zu zwei Zufallsexperimenten 1 und 2 wird je ein Ereignis E) bzw. E 2 betrachtet. Die beiden Experimente und damit auch Ej und E 2 sind voneinander unabhängig. Die Wahrscheinlichkeiten pi = P ( E ^ und p 2 = P (E 2 ) sind unbekannt. Experiment 1 wird n; mal unabhängig voneinander durchgeführt, Experiment 2 n 2 mal. Wir betrachten die Zufallsvariablen T, = Absolute Häufigkeit von E[ unter den n) Versuchen T 2 = Absolute Häufigkeit von E 2 unter den n 2 Versuchen T] ist B (n¡; p^-verteilt, T 2 ist B (n 2 ; p 2 )-verteilt. Als Hypothesen H 0 und Hj unterscheiden wir wieder: Die zweiseitige Fragestellung Die einseitige Fragestellung
H 0 : p! = p 2 H 0 : p! ^ p 2
gegen gegen
H 1 :p 1 =t=p 2 H!:p]>p2
278
Kapitel 9: Statistische Tests
Um diese Hypothesen zu testen, wäre es auf den ersten Blick naheliegend, als Prüfgröße die Differenz der absoluten oder besser noch der relativen Häufigkeiten von E, und E 2 in den beiden Stichproben zugrunde zu legen. Diese beiden Prüfgrößen haben aber den Nachteil, daß ihre Verteilungen selbst unter pi = p2 noch von dem gemeinsamen unbekannten Wert p = pi = p 2 abhängen. Sie sind deswegen zur Konstruktion eines Tests unbrauchbar. U m eine Verteilung zu erhalten, die unter pj = p 2 = p unabhängig von p ist, betrachten wir die bedingte Wahrscheinlichkeit von T[ = tj unter der Bedingung T j + T 2 = t. Unter Pi = p 2 = = p besitzt T j + T 2 die B (nj + n 2 ; p)-Verteilung (Additionssatz der Binomialverteilung). Daraus folgt, immer unter der Annahme p t = p 2 = p:
PCr1 = t1IT1
,
+
T2 = t ) =
P(T1 = t,)-P(T2 = t - t 1 ) P(
T 1 + T 2 = t)
(n. + n 2 ) p t ( 1 _ p ) n i + n 2 _ t
=
(n, + n 2 )
(ist unabhängig von p). Als Ergebnis erhalten wir (vgl. Abschnitt 3.2, insbesondere Formel (3.8)):
(
Fiirp, = p 2 ist die bedingte Verteilung von T, unter der Bedingung T, + T 2 = t eine hypergeometrische Verteilung, genauer: die H (t; n,; n, + n 2 )-Verteilung.
Der Test baut auf der Prüfgröße T[ mit dieser bedingten Verteilung von T, auf. Für die einseitige Fragestellung wird der Ablehnbereich aus den großen T r Werten gebildet: H 0 wird abgelehnt, wenn der beobachtete Wert t, von T, größer ist als eine kritische Zahl c. Mit Hilfe der H (t; n ^ n! + n 2 )-Verteilung wird dabei c als die kleinste ganze Zahl bestimmt, für die (9.56)
P (Tj > c I T[ + T 2 = t) S a
gilt, wobei t = t [ + t2 der beobachtete Wert von T, + T 2 ist. Auf diese Weise hängt c von t, n, und n 2 , insbesondere also auch von t 2 ab. Durch (9.56) erhält man zunächst nur, daß unter pj = p 2 die Wahrscheinlichkeit für den Fehler 1. Art höchstens gleich a ist. (Unmittelbar steht dies in (9.56) nur für die bedingten Wahrscheinlichkeiten; nach dem Satz von der totalen Wahrscheinlichkeit folgt diese Beziehung dann aber auch für die Gesamtwahrscheinlichkeit des Fehlers 1. Art.) Man kann nachweisen, daß der Test auch für alle p, < p 2 und damit auf ganz H 0 das Signifikanzniveau a einhält. Für die zweiseitige Fragestellung wird der Ablehnbereich aus den extrem kleinen und großen T r W e r t e n gebildet: Man bestimmt c t als die größte und c 2 als die kleinste ganze Zahl, für die (9.57a)
P (T, < c, I T, + T 2 = t) ^
y
279
Kapitel 9: Statistische Tests
(9.57b)
P (T, > c 2 1T, + T 2 = t) §
-y
gelten und lehnt H 0 ab, wenn ein T r W e r t beobachtet wird, der kleiner als c, oder größer als c2 ist. Alle anderen Überlegungen gelten entsprechend wie o b e n . D e r angegebene Test wurde von R. A. Fisher entwickelt und heißt exakter Test von Fisher. D a seine Prüfgröße eine diskrete und (für n, =1= n 2 ) unsymmetrische Verteilung besitzt, unterliegen seine Güteeigenschaften denselben (geringfügigen) Einschränkungen wie die des Binomial-Tests in Abschnitt 9.4.1: D e r Test schöpft das vorgegebene a in der Regel nicht aus und ist bei zweiseitiger Fragestellung im allgemeinen leicht verfälscht. Die dadurch noch erforderlichen Verbesserungen lassen sich jedoch erst mit Hilfe randomisierter Tests erzielen. Die randomisierte Version des exakten Tests von Fisher führt zu einem gleichmäßig besten unverfälschten Test zum Niveau a ; vergleiche dazu etwa Witting [1985]. D e r von uns angegebene exakte Fisher-Test stimmt näherungsweise mit diesem gleichmäßig besten unverfälschten Test überein.
Beispiel 9.16 Zwei B e h a n d l u n g s m e t h o d e n 1 und 2 w e r d e n nur nach Erfolg und Mißerfolg beurteilt. Mit p, bezeichnen wir die Wahrscheinlichkeit f ü r einen Erfolg bei M e t h o d e 1, mit p 2 diejenige bei M e t h o d e 2. Man will statistisch sichern, d a ß M e t h o d e 1 besser als M e t h o d e 2 ist u n d prüft H 0 : p, S p 2
gegen
H,:p1>p2
bei a = 0.05
D a z u wird M e t h o d e 1 in n, = 10 u n d M e t h o d e 2 in n 2 = 13 Fällen u n a b h ä n g i g v o n e i n a n d e r a n g e w a n d t . D a s Ergebnis dieser zwei Stichproben wird zweckmäßigerweise in F o r m einer Vierfeldertafel dargestellt:
A n z a h l der Erfolge
A n z a h l der Mißerfolge
9 6
1 7
n, = 10 n 2 = 13
15
8
n, + n 2 = 23
Methode 1 Methode 2
H i e r w u r d e also t, = 9, t 2 = 6 und t = t, + t 2 = 15 b e o b a c h t e t . Die bedingte Verteilung von T , u n t e r der B e d i n g u n g T[ + T 2 = t ist die H (15; 10; 23)-Verteilung. Sie lautet (vgl. etwa die V e r t a f e l u n g d e r hypergeometrischen Verteilung bei Liebermann und Owen[\91\}):
t,
P ( T , = t 1 I T , + T 2 = t)
2 3 4 5 6 7 8 9 10
0.0001 0.0032 0.0334 0.1470 0.3062 0.3150 0.1575 0.0350 0.0026
= 0.0376 < a
280
Kapitel 9: Statistische Tests
Daraus ergibt sich die kritische Zahl c = 8; die Beobachtung t, = 9 ist größer als c und führt zur Ablehnung von H 0 . Die Überlegenheit von Methode 1 kann als statistisch signifikant gelten. Es ist ganz anschaulich, sich die Funktionsweise des Tests auch an Hand der Vierfelderta+ t2 = 15 hätten beobachtet werden können. Dafeln klar zu machen, die bei gegebenem von gibt es die folgenden 9 Stück, die genau den 9 möglichen Werten von T[ entsprechen: 2
8
3
7
4
6
5
5
6
4
7
3
8
2
9
1
10
0
13
0
12
1
11
2
10
3
9
4
8
5
7
6
6
7
5
8
D i e beiden extremsten Tafeln mit t, = 9 und t, = 10 führen zur Ablehnung von H 0 .
9.4.4 Der doppelte Gauß-Test für Pi—P2 Wir betrachten die gleiche Situation wie im vorangegangenen Abschnitt, nun aber für große Stichprobenumfänge.Bezeichnungen: Stichprobe 1: n j unabhängige, B (1; pi)-verteilte X ] , . . . , X m mit Tj = 2Xj
= absolute Häufigkeit von E j
X = "jj-^Xj = relative Häufigkeit von E j Stichprobe2:
n 2 unabhängige,B(l;p 2 )-verteilte Y , , . . . , Y n2 mit T2 = 2 Y j Y
= absolute Häufigkeit von E 2
= — E Y j = relative Häufigkeit von E 2 n
2
Beide Stichproben sollen voneinander unabhängig sein. Wir setzen q, = 1 — p t und q 2 = 1 — p 2 . Nach dem zentralen Grenzwertsatz gilt für hinreichend große n, und n 2 : X ist annähernd verteilt nach N (p.; ^ Y ist annähernd verteilt nach N (p 2 ;
nj n2
) '
)
Daraus ergibt sich unter Pi = p 2 = p (mit q = 1 — p): X - Y ist annähernd verteilt nach N (0; pq [— + —]) n n l
2
In dieser Beziehung ist der gemeinsame Wert p von pj und p 2 unbekannt. Er wird durch die relative Häufigkeit Z von E , U E 2 in der Gesamtstichprobe geschätzt: (9.58)
Z =
T ] + T 2 _ n t X + n2 Y n j + n2 nj + n 2
Kapitel 9: Statistische Tests
281
Da dies eine konsistente Schätzung für p ist, erhalten wir unter p[ = p2 = p für hinreichend große n, und n2: X
(9.59)
~
Y
ist annähernd N(0; l)-verteilt. n,
n2
Damit läßt sich für große Stichprobenumfänge zur Überprüfung von Hypothesen über p[ — p2 der doppelte Gauß-Test mit den Ablehnbereichen (9.32) verwenden, wenn man dort ö 0 = 0 setzt und
V
z (1 — z) [— + — ] n[ n2
an Stelle von
\ — + — verwendet. V n, n2
Beispiel 9.17 In den Wahlbezirken 1 und 2 werden aufgrund einer reinen Zufallsstichprobe n, = 340 und n 2 = 560 wahlberechtigte Personen ausgewählt und nach ihrer Wahlabsicht über eine bestimmte Partei E befragt. Man will damit überprüfen, ob sich die Stimmanteile pj bzw. p 2 von E zwischen den beiden Wahlbezirken unterscheiden oder nicht, und testet H 0 : pj = p 2 gegen H ^ p, 4= p 2 zum Signifikanzniveau a = 0.05. Unter den n, = 340 Wahlberechtigten entschieden sich t, = 119 für F. unter den n, = 560 waren es t : = 238. Nach (9.58) erhalten wir daraus im Fall p, = p : = p -
t|+t > n,+n2
357 -=0.397 900
als Schätzwert für p. Der Ablehnbereich K lautet nach (9.32), Fall 1: K = {(x, y):
I x - y l > t« /2 • V z ( l - z ) [ i + -J-]} n1 In
=
= {(x,y):
I x - y l > 1.96 • V0.397 • 0.603 • 0.0047 } =
= {(x,y):
I x - y l > 0.066}
Beobachtet wurden die relativen Häufigkeiten x = 0.350 und y = 0.425, also y — x = 0.075. H() wird abgelehnt.
9.5 Chi-Quadrat-Tests 9.5.1 Der Chi-Quadrat-Test für die Varianz Wir gehen von einer unabhängigen, identisch verteilten Stichprobe X [ , . . . , X n einer Zufallsvariablen X aus, für die wir die Normalverteilungsannahme zugrunde legen: X sei nach N(ji;a 2 ) verteilt mit unbekanntem [x und unbekanntem o 2 (zweiparametrische Verteilungsannahme). Wir geben einen Test an, mit dem Hypothesen über die Varianz o 2 überprüft werden. Der Mittelwert |x ist von den Hypothesen nicht betroffen und daher ein nuisance-parameter. Als Prüfgröße T des Tests werden wir (9.60)
T = (n~1jS2 On
mit
S 2 = - X r 2 (Xj - X) 2 n — l i=i
282
Kapitel 9: Statistische T e s t s
benutzen. Dabei ist öq ein hypothetischer Wert für das unbekannte o 2 . Wegen ES 2 = o 2 gilt: (9.61)
ET=(n-l)^
Die Größe T und ihre Verteilung haben wir bereits in Abschnitt 8.2.5 bei der Konstruktion eines Konfidenzintervalles für o 2 kennengelernt. (Dort stand o 2 an Stelle von Oq im Nenner von T , vergleiche (8.58).) Danach gilt: CQ fO\
l
i
Unter 0 2 = 0q besitzt T eine x 2 -Verteilung mit n—1 Freiheitsgraden (Xn-rVerteilung). Diese Verteilung ist unabhängig von (x.
Mit r]k (a) haben wir allgemein das a-Fraktil der xl-Verteilung bezeichnet; vergleiche (8.54). Man kann zeigen, daß die Verteilung von T auch für o 2 =t= Oq unabhängig von (i ist; es handelt sich dabei um eine sogenannte „gestreckte" Xn-r Verteilung. Wir können daher in den Wahrscheinlichkeitsaussagen über T den nuisance-parameter unberücksichtigt lassen. Der auf T aufbauende Test besitzt eine Gütefunktion G(a 2 ), die nur von o 2 abhängt. (Man vergleiche im Gegensatz dazu den einfachen t-Test für n, dessen Gütefunktion von n und o 2 abhängt.)
Fall 1 (zweiseitig):
H 0 : o2 = a c 2 11 Oo) = a
gilt. Aus den gleichen Gründen wie beim zweiseitigen Binomial-Test (auch die x 2 Verteilung ist unsymmetrisch!) steht dabei nicht von vorneherein fest, wie man das vorgegebene oc auf die beiden Summanden in (9.63) aufteilen soll. Streng genommen sollte die Wahl von Cj und c 2 so vorgenommen werden, daß der resultierende Test unverfälscht wird. Diese „unverfälschten" Schranken sind gleichzeitig auch die „optimalen": Sie bestimmen den gleichmäßig besten unverfälschten Test für H 0 gegen H[ zum Niveau a. In der Praxis ist es jedoch einfacher, a in zwei Hälften aufzuteilen, das heißt q und c 2 so festzulegen, daß (9.64a)
P(T c211 aji) =
-y
erfüllt sind, auch wenn man damit eine geringfügige Verfälschtheit des Tests in Kauf nimmt. Die Schranken c, und c 2 lassen sich nämlich als entsprechende Fraktile aus einer Vertafelung der x 2 -Verteilung ablesen (vgl. Tabelle V).
Kapitel 9: Statistische Tests
283
(X
Das untere und obere -y-Fraktil der Xn-r Verteilung
Abb. 57:
E s gilt (vgl. Abbildung 5 7 ) : (9.65)
c, =!-]„_! (1
und
c 2 = ri n _!
D e r dazugehörige T e s t , der zweiseitige x 2 - T e s t für die Varianz, stimmt approximativ mit dem gleichmäßig besten unverfälschten T e s t überein. H 0 wird abgelehnt, wenn der b e o b a c h t e t e W e r t t = (n — 1) s2/oq von T kleiner (n - l1) s 2 als Cj o d e r g r ö ß e r als c 2 ist. D a q = j — = c 2 äquivalent ist mit °o 2
C'
n - 1 (9.66)
2
=s
2
i
°2 , erhalten wir den Annahmebereich n- 1 K = {s 2 : - A -
Fall 2 (einseitig):
(1 - - J ) ^
K des T e s t s in der F o r m
s2 ^
(y)}
H 0 : o 2 = ÖQ gegen H , : a 2 > og
B e i der vorliegenden einseitigen Fragestellung wird H 0 a b g e l e h n t , wenn der b e o b a c h t e t e W e r t t = (n — 1) s2/oq von T g r ö ß e r als eine kritische Z a h l c ist. D a bei wird c so b e s t i m m t , daß P ( T > c II Oq) = a ist, das heißt c = r|n_i ( a ) = a - F r a k t i l d e r x l - r V e r t e i l u n g D e r A b l e h n b e r e i c h K , ausgedrückt in den W e r t e n von s 2 , lautet: (9.67)
K
={s2:
s2>-s^rrln_1(a)}
284
Kapitel 9: Statistische Tests
Man kann zeigen, daß die dazugehörige Gütefunktion G (a 2 ) streng monoton wachsend in a 2 ist. Daraus folgt, da nach Konstruktion G (oo) = a ist:
(
< a = a > a
für für für
o 2 < On a 2 = al a 2 > Oq
Der angegebene Test hält daher auf ganz H 0 die vorgegebene Schranke oc ein und ist unverfälscht. Dieser einseitige x 2 -Test für die Varianz ist gleichmäßig bes t e r T e s t f ü r H„ e c g c n H , ( s o g a r ) u n t e r a l l e n N i v e a u - a - T e s t s .
Die umgekehrte einseitige Fragestellung, H 0 : o 2 = 05 gegen H,: o 2 < 05, wird ganz analog behandelt. Der dazugehörige Ablehnbereich lautet K = {s2: s 2
0.5
approximieren. (Vergleiche dazu Anmerkung 2 in Abschnitt 8.2.5). Anmerkung 3 Der x 2 -Test für die Varianz ist an die Normalverteilungsannahme gebunden. Er ist im Gegensatz zum t-Test nicht robust, sondern empfindlich gegenüber Abweichungen von der Normalverteilung. Daher sollte man auch für große Stichprobenumfänge einen anderen Test zur Prüfung von Hypothesen über o 2 verwenden, wenn man nicht annehmen kann, daß die Grundgesamtheit wenigstens annähernd normal verteilt ist.
Kapitel 9: Statistische Tests
285
Anmerkung 4 Der Vergleich zweier Varianzen of und o 2 (Zweistichprobenproblem) wird bei normalverteilten Grundgesamtheiten mit dem sogenannten F-Test durchgeführt (vergleiche dazu etwa Kreyszig [1982]). Für diesen Test gilt Anmerkung 3 entsprechend.
9.5.2 Der Chi-Quadrat-Anpassungstest; H 0 einfach Bisher haben wir Hypothesen über unbekannte Verteilungsparameter betrachtet. Nun lernen wir Tests kennen, mit denen Hypothesen über die unbekannte Verteilung selbst geprüft werden. Wir gehen von einer unabhängigen, identisch verteilten Stichprobe X 1 ; ..., X n der interessierenden Zufallsvariablen X aus. Über die Verteilung von X werden keine Annahmen zugrunde gelegt, die Menge der für X zugelassenen Verteilungen besteht aus der Menge aller Verteilungen überhaupt (nichtparametrische Verteilungsannahme). Wir stellen diese (eindimensionalen) Verteilungen durch ihre Verteilungsfunktionen dar. Mit F = F (x) bezeichnen wir die unbekannte („wahre") Verteilungsfunktion von X. In diesem Abschnitt gehen wir von einer einfachen Nullhypothese H 0 aus, durch die genau eine bestimmte Verteilungsfunktion F 0 festgelegt wird. Wir testen H 0 : F = F0
gegen
H,:F4=F0
U m eine geeignete Prüfgröße zu konstruieren, wird die reelle Zahlengerade in k Intervalle der Form Gj = (aj_ 1; aj] zerlegt: R=
(
—
aj]
G,
U (a 1 ; a 2 ] U . . . U (a k _„ + °o) U
G2
U...U
Gk
Die Intervallgrenzen a t , a 2 , . . . , a k _ t werden vom Betrachter festgelegt. Wir setzen formal a 0 = — °° und a k = +°o. Es soll gelten: a ü < a 1 < a 2 < . . . < a k _ 1 < a k . Die möglichen Realisationen von X unterscheidet man nur danach, in welches der k Intervalle sie fallen; man spricht von einer Gruppierung (Klasseneinteilung) der Werte von X und nennt die Intervalle Gruppen (Klassen). Unter der Voraussetzung, daß H 0 zutrifft, ist (9.69)
Pj
= P (XSGj II F 0 ) = F 0 ( 3 j ) - F0 ( a j _,)
die Wahrscheinlichkeit dafür, daß X einen Wert in Gj annimmt (j = 1, ..., k). Beschreibt F(l eine diskrete Verteilung, unter der X nur endlich viele verschiedene Werte ..., annimmt, so kann die Gruppeneinteilung auch so vorgenommen werden, daß jede Gruppe genau einen der möglichen Werte von X enthält. In diesem Fall ist k = m und (da es auf die übrigen reellen Zahlen nicht ankommt) jede Gruppe Gj mit einem Wert identifizierbar; man schreibt auch Gj = {§j}. Die Werte von X werden auf diese Weise ungruppiert erfaßt, p 1 ; . . . , pk sind die einzelnen Wahrscheinlichkeiten der diskreten Verteilung von X unter
286
Kapitel 9: Statistische T e s t s
Bei der Auswertung der Stichprobe stellt man nur fest, wieviele Werte in welche Gruppe fallen. Unter der Besetzungszahl Nj = Nj (X],..., X n ) der Gruppe Gj versteht man die Anzahl der Zufallsvariablen Xj unter den X , , . . . , X n , für die Xj G £ Gj gilt. Mit ^ = Nj ( x 1 ( . . . , x n ) bezeichnen wir die aus den konkreten Stichprobenwerten Xj,..., xn gewonnene beobachtete Besetzungszahl der Gruppe Gj. Die N l 5 ..., N k sind Zufallsvariablen (Situation vor der Ziehung der Stichprobe), n[,..., n k sind ihre Realisationen (Situation nach Ziehung der Stichprobe). Für die Erwartungswerte der N 1 ; . . . , N k gilt: Unter Hg ist ENj = npj,
j = l , ..., k
Daher sind np 1 ; ..., np k die unter H 0 zu erwartenden Besetzungszahlen. Der X 2 -Anpassungstest beruht auf der folgenden heuristischen Annahme: Je stärker die beobachteten Besetzungszahlen n t , . . . , nk von den unter H 0 zu erwartenden Besetzungszahlen np 1 ; ..., np k abweichen, desto stärker spricht die Stichprobe gegen H 0 . Oder positiv gewendet: H0 kann aufgrund derStichprobe umso eher beibehalten werden, desto geringer die Abweichungen zwischen den beobachteten und den unter H0 zu erwartenden Besetzungszahlen sind. Die Stärke dieser Abweichungen wird durch das von K. Pearson entwickelte Distanzmaß (9.70)
t=
I j=i
(n
'""P')2 npj
ausgedrückt. Man nennt diese Größe den x 2 - A b s t a n d zwischen n,, ..., nk und np 1 ; ..., np k . Die dazugehörige Zufallsvariable k
(9.71)
(Nj — np;)2 j=i npj
dient als Prüfgröße des Tests; der Ablehnbereich K wird aus den großen Werten von T gebildet. Für die Verteilung von T gilt der folgende Grenzwertsatz, der ebenfalls auf K. Pearson zurückgeht: Unter F = F 0 konvergiert die Verteilung von T mit wachsendem n gegen eine % 2 -Verteilung mit k—1 Freiheitsgraden. (Vergleiche dazu etwa Cramer [1974] oder Wittingund Nolle [1970].) Daher gilt für hinreichend große n: (9.72)
P (T > rik—I ( a ) II F 0 ) ~ a
wenn r)k_) (a) das a-Fraktil der des Tests lautet also: (9.73)
1 Verteilung bezeichnet. Der Ablehnbereich
K = {t: t > n ^ ( 8 alle npj iS 1 sind. Ist n h i n r e i c h e n d g r o ß , so lassen sich die F a u s t r e g e l n erfüllen, i n d e m m a n e i n e G r u p p e mit zu kleinem npj mit e i n e r o d e r m e h r e r e n N a c h b a r g r u p p e n z u s a m m e n faßt. Z u r D u r c h f ü h r u n g des T e s t s h a t m a n d a n n von d e r e n t s p r e c h e n d r e d u z i e r ten G r u p p e n a n z a h l a u s z u g e h e n . Hinweis: D a s E r g e b n i s des x 2 - A n p a s s u n g s t e s t s hängt von d e r g e w ä h l t e n G r u p p e n e i n t e i l u n g ab. Streng g e n o m m e n erzielt m a n mit d e m T e s t nur A u s s a g e n ü b e r die d u r c h die G r u p p i e r u n g b e s t i m m t e , v e r g r ö b e r t e ( d i s k r e t i s i e r t e ) V e r t e i l u n g von X . Beispiel 9 . 1 8 Für einen bestimmten Würfel soll die Hypothese überprüft werden, daß jede Augenzahl die gleiche Wahrscheinlichkeit besitzt. Wir behandeln die Werte 1 , 2 , . . . , 6 der Zufallsvariablen X = Augenzahl ungruppiert (k = 6) und prüfen die Nullhypothese H„: X ist auf der Menge { 1 , 2 , . . . , 6 } gleichverteilt zu einem vorgegebenen a = 0.05. Die Alternative H, besagt, daß irgendeine andere Verteilung von X vorliegt. Der Ablchnbcreich K besteht aus allen Werten t der Prüfgröße (9.71), für die t > Tl., (0.05) = 11.1 ist. Unter H 0 ist Pj = P ( X = j) = -^-für alle j = 1 , 2 , ..., 6. Der Würfel wird n = 42 mal geworfen. Daher lauten die unter H 0 zu erwartenden Besetzungszahlen: npj = 42 • -g- = 7
für j = 1 , 2 , . . . , 6
Es werden die folgenden Häufigkeiten (beobachteten Besetzungszahlen) nj festgestellt (zum Vergleich tragen wir auch die npj-Werte ein): 1
2
3
4
5
6
Beobachtete Häufigkeit nj
3
3
9
4
11
12
Unter H 0 zu erwartende Häufigkeit
7
7
7
7
7
7
Augenzahl j
Daraus erhalten wir gemäß (9.70):
t =
| K - n p ^ J=I npj
=
1 7
(16 +
16 + 4 + 9 +
16 + 25) =
'
86=12.3 1
Daher ist aufgrund der beobachteten Stichprobe H 0 abzulehnen.
9.5.3 Der Chi-Quadrat-Anpassungstest; H 0 zusammengesetzt I m v o r a n g e g a n g e n e n A b s c h n i t t h a b e n w i r d e n Fall b e t r a c h t e t , in d e m d u r c h die N u l l h y p o t h e s e die V e r t e i l u n g v o n X e i n d e u t i g festgelegt wird. N u n b e t r a c h t e n wir H y p o t h e s e n H 0 , die n u r die G e s t a l t d e r V e r t e i l u n g ( d e n V e r t e i l u n g s t y p ) s p e zifizieren, d a b e i a u f t r e t e n d e u n b e k a n n t e V e r t e i l u n g s p a r a m e t e r 0 b . . . , 0 r a b e r of-
Kapitel 9: Statistische Tests
288
fen lassen. In diesem Fall entspricht H 0 einer r-parametrischen Verteilungsannahme H q = { F o ( x ; 0 1 , . . . , 8 r ) : 0 1 ; . . . , 0 r beliebig} (Wir stellen wie oben die Verteilungen durch ihre Verteilungsfunktionen dar. Der Parameterraum 0 C R r , in dem ( 0 1 ; . . . , 0 r ) variieren kann, ist hier nicht weiter von Interesse.) Klassisches Beispiel: Für eine Zufallsvariable X soll die Normalverteilungsannahme überprüft werden; H 0 = {N (jx; a 2 ): jx und a 2 beliebig}. Die Alternative H[ besteht aus allen Verteilungen, die nicht zu H 0 gehören. Als Stichprobe X 1 ; . . . , X n wird eine unabhängige identisch verteilte Stichprobe von X zugrunde gelegt. Auf die Überprüfung einer solchen zusammengesetzten Nullhypothese läßt sich der oben beschriebene x 2 -Anpassungstest in einer geänderten Fassung anwenden. Dieser modifizierte x 2 -Anpassungstest geht auf/?. A. Fisher[1922,1924] zurück. Seine Grundidee lautet wie folgt: Für die unbekannten Parameter 8,, ..., 9 r werden aus der Stichprobe Schätzwerte Ö|, ..., 0 r gewonnen. An Stelle von H() betrachtet man damit die einfache Hypothese H (1 :F = F„
mit
F„ = F„ (x; 0,, ..., Ör)
und wendet darauf den x 2 -Anpassungstest für eine einfache Nullhypothese an. Die reelle Zahlengerade wird wieder in k Intervalle G,, ..., G k eingeteilt mit Gj = (Uj_!, aj]. Die unter Ho zu erwartende Besetzungszahl für Gj lautet (9.74)
npj
mit ft = P ( X e G j II F 0 ) = F(1 ( a j ) - F„ ( a M )
Als Prüfgröße des Tests dient dann T = | ( N i ~, n Pi) 2 i=i npj
(9.75)
wobei N 1 ; . . . , Nk wie oben die Besetzungszahlen der Stichprobe für die Gruppen G,, ..., G k darstellen. Unter bestimmten Voraussetzungen an die verwendeten Schätzungen für 0 1( ..., 0 r gilt der folgende, auf R. A. Fisher zurückgehende Grenzwertsatz: tQ~jf\
/ 1
Für jedes F £ H 0 konvergiert die Verteilung von T mit wachsendem n gegeneinex 2 -Verteilungmitk—r-1 Freiheitsgraden.
Vergleiche dazu wieder Cramer [1974] oder Witting und Nolle [1970]. Danach gilt für hinreichend große n: (9.77)
P (T > ri k _ r _ 1 (a) II F) = a
für alle F G H 0
Bezeichnen wir mit t die Realisationen von T, so ergibt sich der Ablehnbereich K des Tests als (9.78)
K = {t: t > r) k _ r _i (a)}
Kapitel 9: Statistische Tests
289
Die Modifikation gegenüber dem x2- Anpassungstest für einfache Nullhypothesen ist daher denkbar leicht: Man hat nur die Anzahl der Freiheitsgrade der x 2 Verteilung um die Anzahl r der geschätzten Parameter zu reduzieren. Das eigentliche Problem bei der A n w e n d u n g dieses Tests besteht in der Frage, was f ü r Schätzungen 0 ! , . . . , 8 r für die unbekannten Parameter zu verwenden sind. In Betracht kommen dafür nur solche Schätzungen, für die der Grenzwertsatz (9.76) gültig ist. D a dieser nur die Verteilungen F E H 0 berücksichtigt, dürfen wir uns auch zur Bestimmung der Schätzungen auf die Verteilungen aus H 0 beschränken. In Frage kommen die folgenden vier Schätzmethoden, die auf der in H0 gegebenen r-parametrischen Verteilungsannahme aufbauen. a) Die x 2 -Miirimum-Methode Für F E H 0 hängt die Wahrscheinlichkeit pj dafür, daß X einen Wert in Gj annimmt, von den Parametern 0,, ..., 0 r ab, wir schreiben pj = pj ( 0 , , . . . , 0 r ); es gilt wegen Gj = (aj_,, aj]: (9.79)
Pj
=
Pj
( 0 „ ..., 0 r ) = F 0 (a j ; 0 „ ..., 0 r ) - F 0 ( a ^ , ; 0 „ ..., 0 r )
Damit ist auch der x 2 -Abstand (9.80)
k (nf — np; ( 0 i , . . . , 0 r )) 2 2 tl^—-——— j=i n p j ( 0 b ...,0r)
zwischen den beobachteten und den unter H 0 zu erwartenden Besetzungszahlen eine Funktion von 0 1 ; ..., 0 r . Nach der x 2 -Minimum-Methode gelten diejenigen Schätzwerte 0 , , . . . , 0 r als die besten, für die (9.80) minimal wird. Die dazugehörigen Schätzungen heißen x 2 -Minimum-Schätzungen. Diese Schätzungen liefern ein F 0 = F() (x; 0,, ..., 0 r ), das unter allen F E H 0 der beobachteten Stichprobe am besten angepaßt (im Sinne des x 2 -Abstandes) ist. Jedes andere F E H 0 liefert für die gegebene Stichprobe einen größeren x 2 -Abstand und führt damit eher zur Ablehnung als F 0 . Konsequenterweise sollten daher bei der Durchführung des x2Anpassungstests die x 2 -Minimum-Schätzungen benutzt werden. b) Die modifizierte x 2 -Minimum-Methode Die Bestimmung der x 2 -Minimum-Schätzungen stößt auf beträchtliche rechnerische Schwierigkeiten. U m das Minimum der in (9.80) angegebenen x 2 -Abstandsfunktion zu ermitteln, hat man die partiellen Ableitungen dieser Funktion nach den 0j, ..., 0 r zu bilden und gleich Null zu setzen. Dies führt zu dem Gleichungssystem i
j=i
[
^ pj
+
_ ( n
2
2npf
- n p ^
]
|
L = o
30 e
das auch f ü r einfach strukturierte Verteilungstypen kaum lösbar sein dürfte. Man kann jedoch zeigen, daß der Einfluß des zweiten Summanden in der Klammer für große n vernachlässigbar ist (vgl. Cramér [1974]). Eine approximative Bestimmung der x 2 -Minimum-Schätzungen erhält man daher, wenn man das wesentlich einfachere Gleichungssystem
290
Kapitel 9: Statistische Tests
k rij — npi
Bp;
= °
J
\ /
i
(nj - npj) 2 npj
16.44
17
0.019
54.30 97.14 85.95 37.35
45 103 92 38
1.593 0.354 0.426 0.011
8.82
5
1.654
Summe:
4.057
nPj
n
W e r t d e r P r ü f g r ö ß e d e s T e s t s ) ist 4 . 0 5 7 . E r w u r d e a u s eibei r = 2 g e s c h ä t z t e n P a r a m e t e r n g e w o n n e n . D i e b e t r e f F r e i h e i t s g r a d k - 1 - r = 3. D a f ü r lesen wir a u s T a b e l l e A l s T e s t e r g e b n i s e r h a l t e n wir: H ö k a n n b e i b e h a l t e n w e r -
Was kann passieren, wenn man
und o 2 a u s d e n u n g r u p p i e r t e n B e o b a c h t u n g s w e r t e n
s c h ä t z t ? D i e M a x i m u m - L i k e l i h o o d - S c h ä t z u n g f ü r u ist d a n n x = -i- 2 x-, u n d k a n n z w i s c h e n ¡ 1 - 5 u n d fi + 5 l i e g e n . Im Extremfall
x = |1 + 5 liegen alle x - W e r t e e i n e r j e d e n G r u p p e a m
o b e r e n G r u p p e n e n d e . D i e M a x i m u m - L i k e l i h o o d - S c h ä t z u n g s2 = — • X ( x i - x ) 2 2
für
o2
s t i m m t d a n n mit ö ü b e r e i n . Z u r B e s t i m m u n g d e r e r w a r t e t e n B e s e t z u n g s z a h l e n np, w ä r e d i e N (¡1 + 5; 6 2 ) - V e r t e i l u n g zu v e r w e n d e n . D a r a u s e r h ä l t m a n , w e n n m a n wie o b e n d i e e r s t e n drei u n d die l e t z t e n b e i d e n G r u p p e n z u s a m m e n f a ß t , f ü r d e n y } - A b s t a n d d e n w e s e n t l i c h g r ö ß e r e n W e r t 5 6 . 1 , d e r zu e i n e r A b l e h n u n g v o n H ( l f ü h r e n w ü r d e .
293
Kapitel 9: Statistische Tests
9.5.4 Der Chi-Quadrat-Unabhängigkeitstest Wir betrachten die folgende Fragestellung: Wie kann man an Hand von Beobachtungen zweier Zufallsvariablen X und Y überprüfen, ob X und Y voneinander unabhängig sind oder nicht? Ziel der Prüfung ist dabei der statistische Nachweis einer Abhängigkeit zwischen X und Y. Als Nullhypothese des betreffenden Tests wird daher die Behauptung „X und Y sind unabhängig" aufgestellt, als Alternative „X und Y sind abhängig". Ausgangspunkt ist eine verbundene (zweidimensionale) Stichprobe (X,, Y,), ..., (X n , Y n ) von (X, Y): An n zufällig ausgewählten Merkmalsträgern werden jeweils die Ausprägungen von X und Y beobachtet, wobei das Paar (X,,, Y,,) dem Ilten Element der Auswahl zugeordnet ist. Vorausgesetzt wird, daß jedes Paar (X,,, Y,,) dieselbe zweidimensionale Verteilung wie (X, Y) besitzt und daß die Paare (X,, Y,), ..., (X„, Y n ) voneinander unabhängig sind. (Unabhängigkeit zwischen den Paaren, nicht innerhalb eines Paares!) Die beobachteten Wertepaarc bezeichnen wir mit (x,, y , ) , . . . , (x n , y n ). Es wird vorausgesetzt, daß für X und Y jeweils nur endlich viele Ausprägungen unterschieden werden.
verschiedene
Dazu hat man zwei Fälle zu betrachten. Fall 1 Die Voraussetzung ist auf „natürliche" Weise erfüllt, wenn X und Y zwei diskrete Zufallsvariablen mit endlich vielen möglichen Werten sind. Wir numerieren die einzelnen Werte durch und identifizieren jeden Wert mit seiner Nummer: i = 1,..., / j = 1,..., m
seien die möglichen „Werte" von X seien die möglichen „Werte" von Y
Die gemeinsame Verteilung von X und Y wird durch die Wahrscheinlichkeiten (9.82)
pij = P (X = i und Y = j)
i = l,...,/,
j = l,...,m
eindeutig festgelegt. Fall 2 Die Voraussetzung wird erst durch eine Gruppierung der beiden Wertebereiche von X und Y erfüllt: G ] , . . . , G/ H , , . . . , Hm
seien die vorgegebenen Gruppen des Wertebereichs von X seien die vorgegebenen Gruppen des Wertebereichs von Y
Die vorgenommene Gruppeneinteilung bedeutet, daß nur noch die „Ausprägungen" X E G j und Y E H j unterschieden werden (Vergröberung der Wertebereiche). Entsprechend werden auch nur die Wahrscheinlichkeiten (9.83)
p^ = P (XGGj und Y E H j )
i = l,...,/,
j = l,...,m
zur Beschreibung der gemeinsamen Verteilung von X und Y herangezogen (Vergröberung der Verteilung). Der Test hängt von der vorgenommenen Gruppierung ab; in ihm werden nur die Wahrscheinlichkeiten p^ berücksichtigt. Der durch die Gruppierung entstehende Informationsverlust wird in Kauf genommen.
294
Kapitel 9: Statistische Tests
Auf diese Weise läßt sich die genannte Voraussetzung stets erfüllen und die (unbekannte!) zweidimensionale Verteilung von X und Y folgendermaßen darstellen (vgl. Abschnitt 5.1): \
Y X
(9.84)
\
=
?jP i j
m
J
1
Pii
•
Pij
•
Plm
Pl-
i
Pii
•
Pij
•
Pim
Pi-
Pl1
/
mitPi-
1
P/i
•
P/j
•
P/m
Pi
•
P-j
• •
P-m
(i = l , . . . , / ) und p.j = ?i p i j
(j=l,...,m)
Die Verteilungsannahme, auf die der Test aufbaut, besteht aus allen zweidimensionalen, diskreten Verteilungen der Form (9.84). Jede zugelassene Verteilung wird daher durch / • m Wahrscheinlichkeiten p;j bestimmt. Da die Summe aller p^ gleich 1 ist, besitzt jede dieser Verteilungen nur / • m — 1 unbekannte ParaVerteilungsannahmeter. Es handelt sich also um eine (/ • m — l)-parametrische me. Bei Unabhängigkeit von X und Y gilt (vergleiche (5.10)): p;j = pj. p.j für alle i und j. Als Nullhypothese des Tests dient daher (9.85)
H 0 : Pij = P;. p.j
für alle i und j
Ausführlicher gesprochen: H 0 besteht aus allen (zugelassenen) Verteilungen, für die p^ = p;. p.j f ü r alle i und j gilt. Jede zu H 0 gehörige Verteilung ist daher durch die A n g a b e der / + m Randwahrscheinlichkeiten Pi. und p.j festgelegt; wegen 2 Pi. = 1 und Zp.j = 1 sind dazu nur (/ — 1) + (m — 1) W e r t e erforderlich. Daher gilt: H0 ist eine zusammengesetzte Hypothese mit r = / + m — 2 unbekannten Parametern. Z u r Ü b e r p r ü f u n g von H{, können wir daher den x 2 -Anpassungstest f ü r zusammengesetzte Nullhypothesen verwenden. Dabei ist k= /•m r= /+ m—2
die Anzahl der G r u p p e n (Ausprägungen) die Anzahl der zu schätzenden Parameter
so daß nach (9.76) eine x 2 -Verteilung zu verwenden ist mit (9.86)
k - 1 - r = ( / - l ) ( m - 1)
Freiheitsgraden.
Z u r D u r c h f ü h r u n g des Tests stellt man die in der Stichprobe beobachteten Häufigkeiten (Besetzungszahlen) ny = Anzahl der W e r t e p a a r e (x v , y„) mit x v = i und y„ = j bzw. mit x„GGj und y^EHj
295
Kapitel 9: Statistische Tests in einer sogenannten Kontingenztafel oder/Xm-Feldertafel zusammen: \
Y
1
x \
(9.87)
mit nj. = 2 rijj
m
J
1
n
n
•
n,j
i
n
ii
•
n
/
n„
•
n
n..
.
n,.
.
n
ij
•
n
n
/j
•
n
/m
n,.
n,
.
n
-m
n
( i = l , . . . , / ) und n.j = 2 n^
lm
im
i-
(j = l , . . . , m )
D e r dazugehörige x 2 -Abstand lautet: (9.88)
2 i.j
( n ij — n Pi- P j ) 2 npi-p.j
Die unbekannten Parameter p;. und p.j werden nach der modifizierten x 2 -Minim u m - M e t h o d e geschätzt. Danach ergeben sich die Schätzungen (vgl. Cramer [1974]): (9.89)
Pi. = — n
und
pJ = — n
r
Diese Schätzungen stimmen in Fall 1 (ungruppierte diskrete Wertebereiche) mit den üblichen Maximum-Likelihood-Schätzungen und in Fall 2 (gruppierte Wertebereiche) mit den Maximum-Likelihood-Schätzungen aus gruppierten Werten zusammen. Der Grenzwertsatz (9.76) ist für diese Schätzungen gültig. Setzt man (9.89) in (9.88) ein, so erhält man für die Prüfgröße T des Tests den Wert
(9.90)
t = 2 i,j
nj. n.j n
Die zu erwartenden Besetzungszahlen npjj erfüllen unter H 0 die Beziehung npij = npj. p.j. D a f ü r erhalten wir nach (9.89) die Schätzungen npj. p.j. M a n nennt diese G r ö ß e n die Unabhängigkeitszahlen; wir bezeichnen sie mit u^:
(9.91)
Uij
» * = n p , p.j
nj.n.j
296
Kapitel 9: Statistische Tests
Diese Zahlen sind Schätzungen für die bei Unabhängigkeit unter den gegebenen Randhäufigkeiten n^ und n.j zu erwartenden Besetzungszahlen. Mit ihnen geht (9.90) über in
(9.92)
t
("u ~ u .i) 2
= 2
i.i
Ujj
Aufgrund von (9.76) ist die Prüfgröße T für große n annähernd x 2 -verteilt mit den in (9.86) angegebenen Freiheitsgraden. Als Ablehnbereich K des Tests ergibt sich daher: (9.93)
K = { t : t > n ( ,_„(„,_,) (oc)>
Der x 2 -Abstand t in (9.92) ist ein Maß für die in der beobachteten Kontingenztafel vorhandene Abhängigkeit: t ist genau dann gleich Null, wenn alle Beobachtungszahlen rijj mit den Unabhängigkeitszahlen u^ übereinstimmen; t wird um so größer, desto stärker die n^ von den u^ abweichen. Der maximale Wert von t ist Abhängigkeitsmaß h = n • Min {/ — 1, m — 1}, so daß man in t/h ein normiertes erhält. Dieses nimmt seine obere Grenze 1 genau dann an, wenn jede Zeile (falls / = m) oder jede Spalte (falls / m) nur eine von Null verschiedene Beobachtungszahl enthält (vergleiche dazu Cramer [1974], Seite 443). Beispiel 9.20 Besteht zwischen d e m Schulerfolg im Lesen und Schreiben ein Z u s a m m e n h a n g ? Für die beiden qualitativen M e r k m a l e werden die A u s p r ä g u n g e n „ g u t " , „mittel" und „schlecht" unterschieden. E i n e P r ü f u n g von 200 zufällig ausgewählten Schülern einer Jahrgangsstufe ergab die f o l g e n d e Kontingenztafel:
schreiben
gut
mittel
schlecht
gut mittel schlecht
32 20 11
25 21 16
16 24 35
73 65 62
gesamt
63
62
75
200
lesen
n
gesamt
ü
Wir ü b e r p r ü f e n damit die Unabhängigkeitshypothese zu einem vorgegebenen a = 0.01. Die nach (9.91) gebildeten Unabhängigkeitszahlen u^ sind in d e r folgenden Tafel zusammengestellt: schreiben
gut
mittel
schlecht
gut mittel schlecht
23.0 20.5 19.5
22.6 20.2 19.2
27.4 24.4 23.3
gesamt
63
62
75
lesen
u
gesamt
ij 73 65 62 200
Kapitel 9: Statistische Tests
297
D a r a u s b e r e c h n e t sich d e r x 2 -Abstand (9.92) wie folgt: n
n
u
ü 32 25 16 20 21 24 11 16 35
ü 23.0 22.6 27.4 20.5 20.2 24.4 19.5 19.2 23.3
ij - U(j
( n ij - Uij)2/Uij
+ 9.0 + 2.4 -11.4 - 0.5 + 0.8 - 0.4 - 8.5 - 3.2 + 11.7
3.52 0.25 4.74 0.01 0.03 0.01 3.71 0.53 5.88 Summe:
18.68
Z u dem vorgegebenen a liest man aus der V e r t a f e l u n g der x 2 -Verteilung f ü r den Freiheitsgrad ( / - 1) (m - 1) = (3 - 1) (3 — 1) = 4 das Fraktil ti 4 (0.01) = 13.3 ab. D e r beobachtete x 2 -Abstand von 18.68 ist größer als dieses Fraktil, die U n a b h ä n g i g k e i t s h y p o t h e s e wird d a h e r abgelehnt. Zwischen dem Schulerfolg im Lesen und Schreiben besteht ein statistisch signifikanter Z u s a m m e n h a n g .
9.5.5 Vierfeldertafeln Wir betrachten hier den Fall, daß die beiden Merkmale X und Y, deren Unabhängigkeit geprüft werden soll, jeweils nur zwei verschiedene Ausprägungen besitzen. Die gemeinsame Verteilung von X und Y wird dann in der Form
(9.94)
\ Y 1 X \ 1 Pn 2 P21 Pi
2 P12 P22 P-2
PlP2. 1
dargestellt, die Kontingenztafel der in einer Stichprobe beobachteten Häufigkeiten geht in eine Vierfeldertafel über: \
Y
X (9.95)
2
1
\ 1
"u
n
12
2
n
n
22
21
n.i
n,. n
n. 2
2-
n
Daraus ergibt sich für die Prüfgröße T des x 2 -Unabhängigkeitstests nach einer einfachen Umformung von (9.90) der Wert (9.96)
t=
n
(
n n
°22
— n
i2 n2i)2
nj. n2. n.j n_2
298
Kapitel 9: S t a t i s t i s c h e T e s t s
Die dazugehörige (asymptotisch gültige) x 2 -Verteilung hat den Freiheitsgrad 1. Für hinreichend große n kann man daher zur Prüfung der Unabhängigkeit von X und Y den Test mit dem Ablehnbereich (9.97)
K = {t: t > n, (
k
wobei 1 ^ k < + oo eine kritische Zahl ist, die (ähnlich wie das Niveau a eines klassischen Tests) vom Betrachter vorgegeben wird. B e i symmetrischer Betrachtungsweise wird man k = 1 wählen und sich damit für H f und gegen H 0 entscheiden, wenn unter der vorliegenden Beobachtung H[ plausibler als H 0 ist. Oft hat aber aus sachlichen Gründen die irrtümliche Annahme von H j schwerwiegendere Konsequenzen als diejenige von H 0 ; dann ist es angezeigt, H 0 und H j unsymmetrisch zu behandeln, indem ein k > 1 vorgegeben wird. Wählt man zum Beispiel k = 2, so entscheidet man sich erst dann für H b wenn unter der beobachteten Stichprobe H j mehr als doppelt so plausibel wie H 0 erscheint. J e größer k gewählt wird, desto „konservativer" (im Sinne einer Beibehaltung von H 0 ) fällt der Test aus. Liegen zwei einfache Hypothesen H 0 : 0 = 0O und H j : 9 = 0, vor, so geht der M L Q - T e s t über in den einfachen Likelihood-Quotienten-Test (LQ-Test): H 0 wird genau dann zugunsten von H j verworfen, wenn gilt: O Y •••, Y Q C (xj, x n )1 -—
L(0o;Xi;
x ^> k u . _•••' _ ; X nn) )
Ein Anhänger des Likelihood-Prinzips benutzt zur Prüfung von H 0 gegen H j den M L Q - T e s t (bzw. L Q - T e s t ) , andere Test kommen für ihn nicht in Betracht.
306
Kapitel 9: Statistische Tests
Damit entfällt das schwierige Problem, einen (gleichmäßig) besten (unverfälschten) Test bestimmen zu müssen, das in der klassischen Testtheorie den breitesten R a u m einnimmt. Die Likelihood-Theorie besticht durch ihre Einfachheit und Klarheit.
9.6.3 Das entscheidungstheoretische Testkonzept Zur Beschreibung des entscheidungstheoretischen Testkonzeptes beschränken wir uns der Einfachheit halber auf eine einparametrische Verteilungsannahme: {f (x; 0): 0 E 0 } stellt die Menge der für X zugelassenen Wahrscheinlichkeitsfunktionen bzw. Dichten dar, der Parameterraum © ist eine Teilmenge der reellen Zahlen. Das Grundmodell der statistischen Entscheidungstheorie haben wir in Abschnitt 7.5 kennengelernt. D e r unbekannte Parameter 9 beschreibt die möglichen Umweltzustände, denen der Entscheidungsträger Rechnung trägt. Er verfügt über eine Menge von Aktionen a, deren Nutzen oder Schaden durch 0 beeinflußt werden. Die dazugehörige Verlustfunktion/(0, a) muß dem Entscheidungsträger bekannt sein. Sie gibt an, welcher Verlust entsteht, wenn bei Vorliegen von 0 die Aktion a durchgeführt wird. Die Entscheidung, welche Aktion ergriffen werden soll, wird von einer Stichprobe X , , ..., X n von X abhängig gemacht. Formal bedient man sich dazu einer Entscheidungsfunktion d, die jeder beobachteten Stichprobe x,, ..., x n eine Aktion d (xj, ..., x n ) zuordnet. Man nennt d auch eine Strategie. D e r dabei zu erwartende oder mittlere Verlust (in Abhängigkeit von 0) heißt die Risikofunktion R (0; d) von d: R(0;d) = E/(0;d(X1,...,Xn)) D e r Erwartungswert wird dabei bezüglich der durch 0 festgelegten Verteilung gebildet. Eine Entscheidungsfunktion d, heißt (gleichmäßig) besser als d 2 , wenn für alle 0 gilt: R (0; d ^ ^ R (0; d 2 ), wobei für mindestens ein 0 das Ungleichheitszeichen gültig ist. Oft läßt sich ein eventuell vorhandenes Vorwissen über 0 durch eine a priori Verteilung auf dem Parameterraum ausdrücken. Subjektivisten sind dazu stets in der Lage. Mit h (0) bezeichnen wir die Wahrscheinlichkeitsfunktion bzw. Dichte der a priori Verteilung. D a n n heißt 2 R (0; d) h (0) J R (0; d) h (0) d0 das Bayes-Risiko von d. Bei Vorliegen einer a priori Verteilung h (0) gilt d als um so besser, desto kleiner R (d) ist. Die beste Entscheidungsfunktion d* ist diejenige, die unter allen Entschcidungsfunktionen das kleinste Bayes-Risiko besitzt. Man nennt d* Bayes-Entscheidungsfunktion oder Bayes-Strategie. Diese Bezeichnungsweise hat ihren Ursprung in dem folgenden Sachverhalt: Die BayesStrategie läßt sich allein durch die a posteriori Verteilungen des Parameters bestimmen (die mit Hilfe des Theorems von Baves berechnet werden), indem man für jede Beobachtung x, x„ den zu erwartenden oder mittleren Verlust bezüglich der a posteriori Verteilung minimiert (Hauptsatz für Bayes-Strategien).
Kapitel 9: Statistische T e s t s
307
Dieses allgemeine entscheidungstheoretische Modell läßt sich folgendermaßen auf die Überprüfung zweier Hypothesen H 0 und H, anwenden. Der Entscheidungsträger besitzt die Aktion a 0 = „H 0 annehmen" und a, = „H, annehmen". Eine Entscheidungsfunktion d = d (x,, ..., x n ) gibt dann in Abhängigkeit von der beobachteten Stichprobe x , , . . . , xn an, ob H 0 oder H, angenommen wird, und fällt daher mit einem Test für H 0 gegen H, zusammen. Wir sprechen im folgenden auch von einem Test d. Besitzt dieser die Prüfgröße T und den Ablehnbereich K, so läßt er sich entscheidungstheoretisch darstellen als , , a 80" signifikant (a = 0.05)? 79. Die Motoren eines Typs A laufen durchschnittlich um 5 000 km länger als die eines Typs B. Nach Verwendung eines anderen Kolbenfabrikates sollen die durchschnittlichen Laufzeiten |xA und ¡xB der beiden Motortypen erneut verglichen werden. Von Typ A werden 74, von Typ B 67 Motoren ausgewählt und auf ihre Laufdauer hin untersucht. Dabei ergaben sich folgende Werte für Stichprobenmittel und -standardabweichung [in km]: Typ A: x = 76487 und s , = 4 2 1 T y p B : y = 71329 und s2 = 332
Kapitel 9: Statistische Tests
311
Ist aufgrund dieser Beobachtung die Aussage signifikant, daß |iA immer noch um mindestens 5 0 0 0 km größer ist als ( a = 0.01) 80. Leiten sie aus dem doppelten Gauß-Test ein Konfidenzintervall für die Differenz zweier Mittelwerte her. G e b e n Sie die Realisation dieses Konfidenzintervalles für die Stichprobenwerte in Aufgabe 79 an (y = 0 . 9 9 ) . 81. Ein Futtermittel A wird an 15, ein Futtermittel B an 17 Ferkel verfüttert; Stichprobenmittel und -varianz der während einer bestimmten Mastzeit erzielten Gewichtszunahmen [in kg] lauten bei den „ A - F e r k e l n " : x = 45 und s^ = 41 bei den „ B - F e r k e l n " : y = 54 und s? = 39 Kann man aus dieser Beobachtung mit einer Irrtumswahrscheinlichkeit von höchstens 0.05 schließen, daß Futtermittel B im Durchschnitt zu einer um mehr als 5 kg höheren Gewichtszunahme führt als Futtermittel A ? G e h e n Sie davon aus, daß die Gewichtszunahmen unter A bzw. B normalverteilte Zufallsvariablen a) mit übereinstimmenden Varianzen b ) mit verschiedenen Varianzen sind. 82. Leiten Sie aus dem doppelten t-Test ein Konfidenzintervall für die Differenz zweier Mittelwerte her. G e b e n Sie die Realisation dieses Konfidenzintervalles (zu y = 0 . 9 5 ) für die Stichprobenwerte in Aufgabe 81 an. (Voraussetzung a) erfüllt!) 83. Man kann annehmen, daß die Körperlänge X bzw. Y neugeborener K n a b e n bzw. Mädchen normalverteilte Zufallsvariablen sind. Auch X — Y , beobachtet an Zwillingspärchen, kann als normalverteilt angesehen werden. F ü r n = = 17 Zwillingspärchen ergaben sich die folgenden Werte: Geburt i
l
2
3
4
5
6
7
8
9
10 11 12 13 14 15 16 17
Xj
50 55 51 49 54 52 47 47 50 51 52 49 55 52 49 50 54
yi
49 53 51 47 54 51 47 45 51 49 51 50 53 51 48 46 54
Ist aufgrund dieser Beobachtung signifikant, daß Knaben bei ihrer Geburt im Mittel größer sind als Mädchen? ( a = 0 . 0 1 ) 84. Man überprüfe die Fragestellung von Aufgabe 83 ohne zu berücksichtigen, daß die Erhebung aus Zwillingsgeburten resultiert, indem man die dort gegebenen Beobachtungswerte wie zwei unverbundene Stichproben behandelt. 85. U n t e r fünf Münzwürfen erschien viermal „Zahl". Man überprüfe damit die Hypothese, daß „ Z a h l " und „ W a p p e n " bei dieser Münze gleichwahrscheinlich sind, zu einem vorgegebenen a = 0 . 1 0 . Zeigen Sie, daß der von Ihnen benutzte Test unverfälscht ist. Welche Wahrscheinlichkeit für den F e h l e r 1. A r t besitzt der Test? 86. U m zu überprüfen, ob der unbekannte Ausschußanteil p einer sehr umfangreichen Warenlieferung unterhalb der vorgegebenen Grenze p 0 = 0 . 0 5 liegt, wird der folgende Test durchgeführt: Stichprobe: n = 2 zufällig ausgewählte Stücke Hypothesen: H 0 : p = p 0 gegen H ( : p > p 0 Prüfgröße: T = Anzahl der schlechten Stücke Annahmebereich: T = 0
312
K a p i t e l 9: S t a t i s t i s c h e T e s t s
Berechnen Sie die Gütefunktion des Tests und stellen Sie ihren Verlauf dar. Ist der Test unverfälscht? Wie groß ist maximal die Wahrscheinlichkeit für den Fehler 1. Art? 87. Die stichprobenweise Überprüfung einer großen Lagerbuchführung soll signifikant nachweisen, daß der Anteil p der fehlerhaften Buchbestände kleiner als 3% ist. Es werden n = 100 zufällig ausgewählte Lagerpositionen nachgeprüft; dabei wird ein Fehlbestand festgestellt. Geben Sie unter Verwendung einer geeigneten Verteilungsapproximation einen dazugehörigen Test zum Niveau a = 0.05 an. Wie lautet seine Gütefunktion? Ist der Test unverfälscht? Zu welchem Ergebnis führt der Test aufgrund der beobachteten Stichprobe? Wodurch läßt sich die Gütefunktion im Bereich 0 < p < 0.1 approximieren? 88. Unter 3000 Lebendgeburten wurden 1578 Knaben gezählt. Überprüfen Sie damit die Hypothese, daß die Wahrscheinlichkeit für eine Knabengeburt gleich 0.5 ist. (a = 0.01) 89. Ein Dauertest eines hochwertigen technischen Gerätes brachte folgende Ergebnisse: Von den n! = 12 getesteten Geräten eines Herstellers 1 konnten fünf zufrieden stellen, unter den n 2 = 12 geprüften Geräten eines Herstellers 2 waren neun zufriedenstellend. Kann damit bei einem a = 0.05 ein signifikanter Unterschied zwischen der Qualität der beiden Fabrikate festgestellt werden, wenn man den Anteil der zufriedenstellenden Geräte als Kriterium verwendet? 90. Zwei Schützen A und B schießen auf ein Ziel. A behauptet, der bessere Schütze zu sein. Er erzielt unter 10 abgegebenen Schüssen 8 Treffer, B dagegen erreicht 7 Treffer bei 12 abgegebenen Schüssen. Ist die Behauptung von A signifikant zu einem vorgegebenen a = 0.10? 91. Zur Überprüfung der Verarbeitungsgenauigkeit zweier Maschinen A und B wurden n, = 250 auf Maschine A und n 2 = 150 auf Maschine B gefertigte Werkstücke geprüft. Unter den ersteren gehörten 15, unter den letzteren 17 Stücke zum Ausschuß. Ist der Ausschußanteil von Maschine A signifikant kleiner als der von Maschine B? (Signifikanzniveau oc = 0.05) 92. Die Füllmenge X [in cm 3 ] maschinell abgefüllter Bierflaschen sei normalverteilt mit dem bekannten Mittelwert |x = EX = 500. Bei n = 25 Nachprüfungen ergab sich für (X| — 500) 2 der Wert 44. Prüfen Sie damit die Hypothese H 0 : o ^ 1 gegen die Alternative H ^ o > 1 zum Niveau a = 0.01. 93. Die Reißfestigkeit X [in g] einer bestimmten Garnsorte sei N (|x; a 2 )-verteilt. Bei einer Prüfung von n = 26 Garnproben ergaben sich für Stichprobenmittel und -standardabweichung die Werte x = 2120 und s = 160. Man teste mit a = 0.05 die Hypothese o = 250 gegen die Alternative o =t= 250. 94. Bei der letzten Wahl in einem Bundesland erhielt Partei A 45%, Partei B 40%, Partei C 10% und Partei D 5%. Bei einer späteren Befragung von 2500 zufällig ausgewählten Wählern bevorzugten 1050 die Partei A, 1000 die Partei B, 350 die Partei C und 100 die Partei D. Prüfen Sie, ob sich die Stimmenverteilung seit der Wahl signifikant geändert hat. ( a = 0.01)
Kapitel 9: Statistische Tests
313
95. Bei einer E r h e b u n g des Untersuchungsmerkmals X = „Anzahl der Kinder pro Familie" ergab sich f ü r n = 120 zufällig ausgewählte Familien die folgende Häufigkeitstabelle: Anzahl der Kinder
0
1
2
3
4
5 u. mehr
Anzahl der Familien
41
50
19
8
2
0
Ü b e r p r ü f e n Sie die Hypothese, daß X Poisson-verteilt ist, zu einem a = 0.05. 96. Eine Untersuchung der Lebensdauer [in Jahren] von n = 200 Transistoren ergab die folgende Häufigkeitstabelle Lebensdauer in Jahren
0-1
1-2
2-3
3-4
4-6
über6
Anzahl der Transistoren
70
60
20
20
20
10
Ü b e r p r ü f e n Sie, ob die Lebensdauer eine Expo(0.5)-Verteilung sein kann ( a = 0.05). 97. M a n will prüfen, ob eine signifikante Abhängigkeit zwischen Geschlecht und Freizeitinteresse unter den Jugendlichen besteht. Dazu hat man n = 200 zufällig ausgewählten Jugendlichen die Frage gestellt: „Womit verbringst D u Deine Freizeit am liebsten, mit Tanz, Sport oder Literatur?" Es ergab sich:
Tanz Sport Literatur
Jungen
Mädchen
32 73 15
46 22 12
Führen Sie den entsprechenden Test zum Niveau a = 0.01 durch. 98. Eine Befragung von n = 1500 zufällig ausgewählten Wahlberechtigten nach religiösem Bekenntnis und Wahlabsicht ergab die folgende Kontingenztafel: Partei A Partei B Partei C Sonstige
katholisch
evangelisch
sonstige
222 208 96 64
141 221 95 73
94 98 77 111
Besteht eine signifikante Abhängigkeit zwischen Bekenntnis und Wahlabsicht? ( a = 0.05) 99. Unter n = 30 Zwillingspaaren mit mindestens einem kriminellen Partner war bei 13 eineiigen Paaren der zweite zehnmal ebenfalls kriminell, bei 17 zweieiigen Paaren dagegen nur zweimal (Quelle: Crime und Destiny von J. Lange, zitiert aus S. Koller [1969]). Ist der Unterschied statistisch signifikant? ( a = 0.01)
314
Kapitel 9 : Statistische Tests
100. Ihr Freund behauptet, Coca-Cola von Pepsi-Cola unterscheiden zu können. Sie setzen ihm 12 Gläser „Cola" vor und teilen ihm mit, daß sich darunter 6 Gläser Coca-Cola und 6 Gläser Pepsi-Cola befinden. Es ergibt sich die folgende Vierfeldertafel: Einstufung als
Coca-Cola
Pepsi-Cola
Coca-Cola
5
1
Pepsi-Cola
1
5
In Wirklichkeit
Wird dadurch die Behauptung Ihres Freundes bei einem vorgegebenem Signifikanzniveau a = 0.01 statistisch abgesichert?
Lösungen der Aufgaben
1.
a) AflBnC b) AUBUC = ÄnBnC c) [AUBUC] \[(AnB) U (AnC) U (BflC)] d) A n B n C = A U B U C 2. P(A) = 1 - ( | ) 3 4 ; P(C)
P(B) =
3 4 . ( ^ = 4 - ;
= ( i - ) 3 + P(B) = - i = i -
3. a) P(BIA) = 1 - P(BIA) = 1 - P(B) = P(B) b) P(ÄIB) = 1 - P(AIB) = 1 - P(A) = P(Ä) c) P(ÄIB) = 1 — P(AIB) = 1 — ? i § Ä )
= l - P ( A ) = P(Ä)
4. A = Mindestens eine Sechs bei vier Würfen mit einem Würfel B = Mindestens eine Doppel-Sechs bei 24 Würfen mit zwei Würfeln P(A) = 1 - ( - 1 )4 = 0.5177;
P(B) = 1 - ( - | L ) 2 4 = 0.4914
5. W¡ = Wappen im i-ten Wurf Gewinnchance für A = P(W 8 ) + P ( W 8 n W 9 ) = i - + i - = A Gewinnchance für B = P ( W 8 n W 9 ) = -iDer Einsatz ist im Verhältnis 3:1 aufzuteilen.
6. A n = Mindestens eine Doppel-Sechs unter n Würfen P(A n ) = 7. z 4 ^ ,
^ T-*
ist erfüllt ab n = 25. 4
1
2 , 1
T' T ' T
2
4 , 1
T'T'T
3
T'T'
2_
n
,
s s
°- 6 8 8
316
Lösungen der Aufgaben
8. a) P(A 2 ) = P(A 2 IA 1 ) P(Aj) + P(A 2 IÄ,) P ( Ä , ) = _ M—1 M N—1 ' N
M N—M _ M _ N—1 ' N N
b) p(A,nA 2 ) = M .
(M)2=
p r
.
P ( A l )p(A 2 )
9. A = Eine schwarze Kugel wird gezogen Bj = Urne Uj wird ausgewählt ( i = l , 2, 3) a) P ( A ) = 1 PCAIBOP( B i ) =
b) P ( B , I A ) :
PÍAIBOPCB;) P(A)
P(B 2 IA) = - 1 -
und
+
+
7 J_ 10 ' 3 _ 7 _7_ 14 15
P(B 3 IA) = A .
10. K = Krankheit liegt vor B = Test erkennt auf Krankheit g 7
v
= ;
_ P(BIK)P(K) P(BIK) P(K) + P(BIK) P(K)
=
0.04 -0.05 0 . 0 4 - 0 . 0 5 + 0.84 0.95
=
b) P(KIB) = 0.76
a) N = Erzeugnis ist normgerecht G = Prüfverfahren zeigt „normgerecht" an P(NIG) = 0.9884 b) GG = Prüfverfahren zeigt zweimal unabhängig voneinander „normgerecht" an P(NIGG) =
P(GGIN) P(N) ' y ' . ^ = P(GGIN) P(N) + P(GGIN) P(N)
=
(°-95)2-0-9 = 0 9988 (0.95) 2 • 0.9 + (0.1) 2 • 0.1
v
;
Lösungen der Aufgaben
12. P(A) = P(B) = P(C)=
1
p(AnB) = P(Anc) = P(Bnc) =
y
0 = P ( A f l B n C ) * P(A) P(B) P(C) = 4" o
13.
6
1
i=i
6
EX= 2
6
21
EX 2 = 2
4f-=3.5; 6
i=i
VarX = EX 2 - (EX) 2 =
1
91
6
6
i2 4 - =
2.92
14. Xj = Augenzahl des i-ten Würfels, i = 1,2.
X = X] + X 2
EX = EX, + EX 2 = 2-3.5 = 7 VarX = VarX! + V a r X 2 =
36
5.83
15. a)
+
/ f(x) dx = / 2 ( l - x ) d x = [ 2 x - x 2 ] i = 1 o
b) F(x) =
/ f(t) dt = 2x - x2 = x(2 - x)
— cc
und F(x) = 0 fürx l .
c) F(m) = m(2 — m) = y
liefert m = 1 - V Ö I = 0.293.
F(q0.2s) = qu.25 (2 - q0.25) = 0.25 liefert q ü25 = 0.134; entsprechend erhält man q0 75 = 0.5. d) EX = 4- und VarX = - ¡ ^ 3 lo 16. E Y = 1 - EX = 1 - 4- = \ \ 5
o
VarY = VarX
lo
17. E X = E Y = 1 und VarX = VarY = y (vgl. Beispiel 2.17) Daraus erhält man: E ( X + Y ) = 2, E ( X - Y ) = 0, Var(X+Y) = V a r ( X - Y ) = y ,
Var(2X-3Y) = -y-
318
Lösungen der Aufgaben
18. Es genügt, die Aussage für den Fall c = 0 nachzuweisen. Wir beschränken uns auf eine stetige Verteilung; im diskreten Fall verläuft der Nachweis analog. EX =
0 + oc +0° +0° / xf(x) dx + / xf(x) dx = — / x f ( - x ) d x + f x f ( x ) d x = 0 -00 Q 0 0
19. Var(X+Y)
= E [(X+Y)2] - [E(X+Y)]2 = =
E(X2) - (EX)2 + E(Y2) - (EY)2 + 2 [ E ( X Y ) - E X E Y ] VarX
VarY
0
20. E Z = — [ E X — = 0; V a r Z =
VarX = 1
21. X = Anzahl der Schüsse bis zum ersten Treffer X ist geometrisch verteilt mit dem Parameter p = 0.8. E X = — = 1.25
(vgl. Beispiele 2.8 und2.15)
22. X = Anzahl der Runden bis zum ersten Start. X ist geometrisch verteilt mit p = 1 - (-g-) 3 = EX=
4 ^ = 2.37
23. X = Anzahl der Würfe bis jede Augenzahl einmal gewürfelt ist X k = Anzahl der Würfe bis die k-te neue Augenzahl erscheint, nachdem k — 1 verschiedene Augenzahlen bereits gewürfelt worden sind; k = 1,2, ..., 6. Es gilt: X = X j + X 2 . . . + X 6 . X k ist geometrisch verteilt mit dem Parameter pk = — — ^ — — . E X = E X j + E X 2 + EX 3 + EX 4 + EX 5 + EX 6 = -
1+
1 +
6
T
+
+
1
6
T
+
+
1
6
T
4-
+
1
T
+ 6
1
~ 1
147
Lösungen der Aufgaben
319
24. Nach der Tschebyscheffschen Ungleichung gilt: P ( I X - n l S c) = P(10 - c g X g 10+c) ^ 1 -
VarX
= 1-
1
~
g 0.95 genau dann, wenn c2 g 20, d.h. c § V2Ö = 4.47.
Weiterhin gilt 1 -
Das gesuchte Intervall ist daher (a,b) = (10-4.47,10+4.47) = (5.53,14.47).
25. Für die diskrete Zufallsvariable X mit P ( X = - c ) = P ( X = +c) = 0.5 gilt: E X = 0, VarX = c 2 und 1 = P(IXI=c) = P(IX-[il ^ c ) ^
VarX
1
26. a) Z = — h a t den Erwartungswert Null und die Varianz 1; vgl. Aufgabe 20. Daher ist (VVarZ ) 3
o3
b) Ist X symmetrisch um den Punkt c=[x, so ist (X—|x)3 symmetrisch um den Punkt 0 und daher E[(X—(i) 3 ] = 0 (vgl. Aufgabe 18).
27. EX = p,
VarX = p(l—p) 3
und
E[(X-p)3] =
= (0—p) (1—p) + ( l - p ) p = p ( l - p ) (1 — 2p) =
3
E[(X—|x)3] _ a
3
l-2p Vp(l-p)'
Für p = -i- liegt eine symmetrische Verteilung vor; y = 0 Pürp—Ii
28.
29.
geht
y—> — oo |
extrem
schiefe Verteilungen
320
Lösungen der Aufgaben
30. X = Anzahl der Frauen im Vierer-Gremium X ist nach H(n;M;N) = H(4;5;10) verteilt
, ,
a) P ( X S 2 ) =
( S l Ü M j H j M j ) (j) (10) 4
= 1 5 5 = 0.738
(5) (5)
, \2> \2> 100 b) P y( X = 2 ) = — - — ; — = = 0.476 ' ' jlOj 210 s
31. X = Anzahl der vorbereiteten unter den drei herausgegriffenen Gebieten. X ist nach H(n;M;N) = H(3;5;10) verteilt.
(5)(5M5)(5) P v( X g 2 ) = '
V2' \lt
+ \3> W ; ; ^10j
=
60 120
1 = — 2
32. a) t i t w = 0.000000072
if)
b
)
C)
tL\
— 0 00000043
M i/An\i !
=0.000018
(9 ( ? ) 'Ii
= 0.00097
,
33. Modell: Aus einer Urne mit N Kugeln, darunter M weißen, werden zufällig und ohne Zurücklegen nacheinander n Kugeln gezogen. X = Anzahl der weißen unter den n gezogenen Kugeln; X ist H(n;M;N)-verteilt. Für i= 1,2,...,n sei
Lösungen der Aufgaben
^ _
^
1 0
321
falls im i-ten Z u g eine weiße Kugel gezogen wird falls im i-ten Z u g keine weiße Kugel gezogen wird
D a n n ist X = X, + ... + X n . Z u der Aussage (*)
P(X; = 1 ) = M
f ü r alle i
geben wir die beiden folgenden Beweise an. 1) Mit Y; = „Anzahl der weißen unter den ersten i gezogenen Kugeln" erhalten wir aus d e m Satz von der totalen Wahrscheinlichkeit: P ( X i + , = 1) = 2 P ( X i + 1 = 11 Y, = k) P(Y; = k) = k
i
Y
S
' =
= TTT?
p
1
+
2906 -=0.0623 46656
(|)
2
+
60=
" W
}
322
Lösungen der Aufgaben
P ( X = n - y ) = ( n " y ) p"-y (l-p)--(n-y) = Q ( l - p ) y p"-y = p ( Y = y )
36.
X = Anzahl der Sitzungsteilnehmer X ist nach B (n;p) = B(12;0.8) verteilt. P(X^6) = 1 - P(X=5) = 1 - 1
x-0
( 1 2 ) 0.8 X 0.2 1 2 _ x = 0.9961 X
37.
X = Anzahl der Einsätze pro Tag X ist verteilt nach P o ( X ) mit X. = 1. (Modell!) P ( X = 0) = e - ' = 0.3679 P(X^l)
= 1 - P ( X = 0) = 0.6321
P(X^3)
= (1 + 1 +
+
=
0.9810
38.
X = Anzahl der Tippfehler pro Seite X ist verteilt nach Po(X) m i t X = 2 . P(X=0)
= e
P(X=2)
= - | - e - 2 = 0.2707
P(X^2)
= (1 + 2 + 2 ) e " 2 = 0.6767
2
= 0.1353
39. X = Anzahl der Luftbläschen pro m 2 X ist verteilt nach Po(X) mit X. = 1. P(„l- Wahl") = 0.3679 P(„2. Wahl") = 0.3679 P(„3. Wahl") = 0.2453 P(„Ausschuß") = 0.0189
40. E[X(X-1)] = j
o
x(x-l) ^ e -
= X2 2
x=o
x!
=
= X2 J
2
das heißt:
E X 2 - E X = X2. Daraus folgt wegen E X = X: V a r X = E ( X 2 ) - ( E X ) 2 = X2 + X - X2 = X.
41. P(8=X^12) P(X^15)
=0.5565 =0.3108 =0.8413
^ e -
=
323
Lösungen der Aufgaben
42. aa) P ( X ^ 9 8 5 ) = 0 . 0 6 6 8 ab) P ( X = 9 8 5 ) = 0 . 0 0 0 0 b)
P(950=X=1050) = O ( dann,wenn(
ö
v
c)
P(X^1020) = 1 -
) - O ( —
) = 20 (
) i i 0 . 9 9 , das heißt wenn ^ - ^ 2 . 3 3 ' o O (
) < 0.05
liefert
—
1 = 0.98
bzw.
genau
o^21.46.
S 1.645,
also
1003.55.
43. Voraussetzung: D i e zukünftige S u c h d a u e r ist unabhängig von der bereits verstric h e n e n . F ü r eine Expo(X)-verteilte Zufallsvariable X gilt allgemein: P(X>x) =
/ X
dt = e " X x
Hier ist wegen E X =
= 5 [Min] der P a r a m e t e r X = 1/5 g e g e b e n ; damit ist
P ( X > 1 0 ) = e~ 2 = 0 . 1 3 5 3 .
44. Y ist nach P o ( 6 ) und X nach E x p o ( ^ - ) verteilt. ( M o d e l l ! ) E X = 1 0 [Min];
P ( Y ^ 3 ) = 0.1512;
P ( X ^ 3 0 ) = 1 - e"3 = 0.9502.
45. D i e F a u s t r e g e l n p ( l — p ) ^ 9 für die A p p r o x i m a t i o n B ( n ; p ) = N ( n p ; n p ( l —p)) ist wegen 0 . 1 ^ p ü 0 . 9 für alle n = 1 0 0 erfüllt; also ist H n für n § 1 0 0 ungefähr N(p;p(1~p))-verteilt. D a m i t gilt wegen p ( l — p) ^ - ^ - f ü r a l l e p : P(IH n —pl ^ 0 . 0 5 ) = 2 (0.1 V n ) — 1 = J [
~
0.8414 0.9750 0.9984
1
=
2i>
(°-05
-
1
für n = 2 0 0 für n = 5 0 0 für n = 1000
46. Exakter Wert P ( X = 32) P (26=X2=34)
0.0993 0.6821
Normalapproximation ohne Stet.-Korr. mit S t e t . - K o r r . 0 0.625
0.100 0.682
324
Lösungen der Aufgaben
Exakter Wert P (X = 32) P (26^X^34)
Normalapproximation ohne Stet.-Korr. mit Stet.-Korr.
0.0659 0.5889
0 0.535
0.071 0.588
47. a) B(54;0.4) = N(21.6; 12.96) P ( 2 2 ^ X = 3 2 ) « 0 . 4 5 4 (ohne Stet.-Korr.) P ( 2 2 = X = 3 2 ) ~ 0.511 (mit Stet.-Korr.) Der exakte Wert lautet 0.5060. b) B(64;0.2) « N(12.8; 10.24) P(X?i7) ~ 0.035 und P(X^20) « 0.012 (ohne Stet.-Korr.) P ( X S 7 ) « 0.050 und P(X§20) « 0.018 (mit Stet.-Korr.) Die exakten Werte sind P ( X ^ 7 ) = 0.0420 und P ( X ^ 2 0 ) = 0.0221. c) B(50; 0.02) « P o ( l ) : P ( X ä 3 ) « 0.080. Exakter Wert: 0.0784. d) B(1000; 0.02) = N(20; 19.6) P ( 1 5 = X = 2 0 ) = 0.371 (ohne Stet.-Korr.) P ( 1 5 g X ^ 2 0 ) = 0.436 (mit Stet.-Korr.) Der exakte Wert lautet 0.4566.
48. Po(49) = N(49; 49)
P(X^49) P(42=X=56) P(X=60)
ohne Stet.-Korr.
mit Stet.-Korr.
exakter Wert
0.5 0.683 0.058
0.528 0.715 0.067
0.5379 0.7166 0.0703
49. X ist verteilt nach B(400; 0.5) « N(200; 100) P ( 1 8 5 ^ X ^ 2 1 5 ) = 0.866 (ohne Stet.-Korr.) P ( 1 8 5 ^ X ^ 2 1 5 ) = 0.879 (mit Stet.-Korr.) Der exakte Wert lautet 0.8790.
50. X = Anzahl der unbrauchbaren Stücke in der Stichprobe p = Anteil der unbrauchbaren Stücke in der Lieferung X ist (näherungsweise) B(n ;p)-verteilt. a) P(X = 0) = 0.95 I0 = 0.5987 b) P ( X ^ l ) = 1 - (0.97) n = 0.99 gilt ab n = 152.
Lösungen der Aufgaben 51. EX = 5;
CO VarX = - y - ;
E Y = 4;
oo VarY = - y 123
Cov(X, Y) = E(XY) - (EX) (EY) = q = e(X,Y) =
V58 • 28'
325
17 - 2 0 = - Aj-
-0.422
Regressionsgerade von Ybzgl. X: y = - 0 . 2 9 x + 5.47 Regressionsgerade von Xbzgl. Y: x = —0.61y + 7.43
52.
19 324
9 = e(Y, Y) =
1 = - j r = -0.125
8l
53.
Cov(X, Y) = E(XY) - (EX) • (EY) = 0 - 0 • - y = 0
54.
Cov(X, Y) = E(XY) - (EX) • (EY) = P(X = 1, Y = 1) — P(X = 1) P(Y = 1) ist genau dann gleich Null, wenn gilt: P(X = 1, Y = 1) = P(X = 1) P(Y = 1)
(Multiplikationsregel).
Für die übrigen drei Wertepaare von (X, Y) folgt die Multiplikationsregel mit Hilfe von Aufgabe 3.
55.
Cov(X, Y) = Cov(X, cX + d + Z) = cVarX = co2 VarY = c 2 VarX + VarZ = c 2 o 2 + o | 6(X,Y) =
CG2 2
2
2
Vo (c o + al)'
1 V i + oi/( co) 2 '
Für o|—> 0 geht q(X, Y) —» 1, die Fehlervariable wird Null, zwischen Y und X besteht eine ungestörte lineare Beziehung. Für oo geht q(X, Y) -h>0, die Fehlervariable dominiert die lineare Beziehung vollständig, X und Y werden unkorreliert. Für die Regressionsgerade y = ßx + a von Y bzgl. X gilt: a
ß = ^
Cov(X, Y) co 2 — v - —2~ = c VarX ol
, und
cc = EY - ßEX = E(Y - cX) = E ( d + Z ) = d.
326
L ö s u n g e n der A u f g a b e n
56. U r n e n m o d e l l u n d Zufallsvariablen X b ..., X n wie in A u f g a b e 33. Wir zeigen zunächst, d a ß f ü r alle i + j gilt:
(*)
P(xi = i , x j = i)=
Dazu b e t r a c h t e n wir f ü r zwei bestimmte Kugeln h und k die Ereignisse A h i = „Die Kugel h wird genau beim i-ten Z u g gezogen" A k j = „Die Kugel k wird genau beim j-ten Z u g gezogen" B m = „Beim m-ten Z u g w e r d e n weder Kugel h noch Kugel k gezogen" Wir k ö n n e n uns auf den Fall i < j beschränken. Mit Hilfe des allgemeinen Multiplikationssatzes (vgl. (1.10)) ergibt sich:
p(AhinAkj) = P(B,n ... nB i _ 1 nA hi nB i+I n...nB j _,nA kJ ) = _ N-2 N-3 N-4 N N—1 N - 2
N-i 1 N-i-1 N—(i—2) N - ( i - l ) N-i
N-2 N-3 N-4 N N —1 N - 2
N-i 1 N-i-1 N—(i—2) N - ( i - l ) N-i
N-(j-l) N-G-2)
N-(j-l) N-(j-2)
1 N-(j-l)
N-i-2 N-i-1
1 N-(j-l)
1 für alle h=l=k u n d i < j . Daraus folgt: N(N-l) P(Xi=l,Xj = l)=
h2
P(Ah,nAkj)
=M(M-1)-
1 _1}
N ( N
h,k weiß
W e g e n E X | = P(X| = 1) =
M (vgl. A u f g a b e 33) erhalten wir aus (*)
Cov(Xj, Xj)
(EX,) •
Da
= E(XjXj) -
VarXj' = VarX; =MN ^ f
e(x. x ) =
1
v
Cov(X|, Xj)
(EXj) =
M MN-M (1 - ^ ) = x r ^ - ^ N ' N N
_
VVarXj • VarXj'
- ( M )2
=
_
M(N-M)
ist, folgt schließlich: 6
L_
N-l
Die Korrelation ist negativ: D a s Eintreten von „Xj = 1" verringert die W a h r scheinlichkeit von „Xj = 1". Dieser Einfluß ist u m s o geringer, desto größer N ist. Mit N — g e h t Q(Xj,Xj) gegen Null, das b e d e u t e t (da nach A u f g a b e 54 hier Unkorreliertheit mit Unabhängigkeit äquivalent ist): Xj und Xj werden mit „ i m m e r u n a b h ä n g i g e r " ; bleibt dabei der Anteil p = M / N konstant, so geht X in eine S u m m e von n unabhängigen B(l;p)-verteilten Zufallsvariablen über, d . h . für N—»oo ist X nach B(n;p)-verteilt.
327
Lösungen der Aufgaben
57. a)
=
n
=
=
83.33; daraus ergibt sich k = 83
40 1 0 1 , 43 - 8 T 1 2 1 + ^
b) Auswahlsatz ^
1 2 0 =
10000 - 8 T - =
10n 1 2 0
-
.. 4 8
= 0.012: Eine zweistellige und zwei dreistellige Schlußziffern
müssen (ohne Überschneidungen) zufällig gewählt werden, z . B . 73, 255 und 623.
58. Stichprobe
Wert von X
Wert von ( X — E X ) 2
{1,2} {1,3} {1,4} {2,3} {2,4} {3,4}
1.5 2.0 2.5 2.5 3.0 3.5
1.00 0.25 0.00 0.00 0.25 1.00
Summe
15.0
2.50
J e d e Stichprobe tritt mit Wahrscheinlichkeit und ..
VarX = 2 . 5
=
auf. Also ist E X = -^-15 = 2.5
Zur Kontrolle wenden wir (8.75) an:
_ o 2 N - n _ 1.25 2 _ 5 ~ TTsPl 2 3" ~ 12
59. Xklu =
1 M m 1 — .2 Y j = 2~ • [Summe der Stichprobenwerte] Klum pung Klumpen 1 Klumpen 2 {1,2} {1,3} {1,4}
{3,4} {2,4} {2,3}
Mittlere Varianz von Xk|u = Klumpungseffekt gleich Null.
Wert von X k , u bei Wahl von Klumpen 1 Klumpen 2 1.5 2.0 2.5 -1.25= ^
3.5 3.0 2.5
VarXklu 1.00 0.25 0.00
= V a r X r e i z ; also ist der mittlere
328 b)
Lösungen der Aufgaben
Klum pung Klumpen 1 Klumpen 2 {1} {2} {3} {4}
Wert von Xk!u bei Wahl von Klumpen 1 Klumpen 2 4.5 4.0 3.5 3.0
0.5 1.0 1.5 2.0
{2,3,4} {1,3,4} {1,2,4} {1,2,3} 1
Mittlere Varianz von Xk,u =
• 7.5 =
VarX klu 4.00 2.25 1.00 0.25
22 5 ^ > VarX r c i z ; also entsteht im Mit-
tel ein negativer Klumpungseffekt.
60. a) 2X|istB(n;p)-verteiltmitp=M/N. Darausfolgt: V a r X ^ . n p d - r t . M i ^ L b) 2 X j ist H(n;M;N)-verteilt. Daraus folgt: 1 n M n M N - n _ M(N—M)(N—n) V a r X V a r X " 7 n N ( 1 N}N^T nN 2 (N—1)
61.
1) Es liegen k = 2 Schichten vor mit Nj = N 2 = 6 und n[ = n 2 = 3. Die Stichprobe ist proportional und, da die Varianzen innerhalb der beiden Schichten gleich groß sind, auch optimal geschichtet. Für die Stichprobemmittel X, und X 2 der beiden Teilstichproben erhalten wir aus Aufgabe 60b): VarX t = VarX 22 = 3(6—3) (6-3) _ 3 • 62 (6—1)
20
Wegen der Unabhängigkeit von X, und X 2 folgt daraus für = = = 1 2 1 X = XprQp = X opt = -j^- 2 Nj Xj = ^ - ( X , + X 2 ): VarX p r o p = VarX Hpt = - j ( ^ + ^ ) =
^
2) Es liegen zwei Klumpen vor, von denen einer zufällig gewählt wird. Es gilt: X k | u — -i- • [Summe der Stichprobenwerte]
vgl. (6.42)
Bei Wahl von Klumpen Ui ist Xk,u = ~ , bei Wahl von Klumpen U 2 ebenfalls. Daraus folgt:
VarX k!u = 0
3) Nach Aufgabe 60 ist VarX r e i z
6(12-6) (12-6)
6 • 122 • (12—1)
Also gilt in diesem Fall: 0 = VarX klu < VarX r e i z < VarX prop = VarX o p l
=
_J_ 44
Lösungen der Aufgaben
329
62. Auf gleiche Weise wie in der Lösung von A u f g a b e 61 erhält man hier: V a r X , = VarX 2 = 0, also auch V a r X p r o p = 0, und VarX k ] U = 1/4. Wie oben ist V a r X r c i z = 1/44. Z u s a m m e n folgt daraus die Behauptung.
63. Für die Stichprobenvarianz S 2 =
(Xj—X) 2 gilt:
( n - 1 ) S2 = Z ( X , - M X - H ) ) 2 = 2 ( X , - ( x ) 2 - n ( X - f i ) 2 D a m i t erhält man: ( n - 1 ) ES 2
ES 2
= 2 E ( X j - | x ) 2 - n E ( X - n ) 2 = na 2 - n V a r X = O2 N_-r 2 N ( = na 2 — n n N --T" 1 = o x Nr - 1 , das heißt: -1 KT N =• N-1
64. a) F ü r jedes (noch so kleine) c > 0 gilt mit n-
P(ix^i ( + | i - 2 . 5 8 ) . Vn Sie ist symmetrisch zu ^ = 0 und m o n o t o n wachsend in Ijxl (vgl. Beispiel 9.5). D a her erhält man f ü r die maximale Wahrscheinlichkeit des Fehlers 1. A r t : G(—1) = G ( + l ) = (—3.58) + « » ( - 1 . 5 8 ) = 0.0000 + 0.0571 = 0.0571.
78. E i n f a c h e r t-Test f ü r H 0 : x > 80 + x n _, ( a )
gegen H j : ^ > 8 0 . H 0 w i r d abgelehnt, wenn
= 80 + 1.80 ^ ^ = 81.59. Vn 3.464 W e g e n x = 81.5 ist H j nicht signifikant.
334
Lösungen der Aufgaben
79. Z u r Ü b e r p r ü f u n g von H«: ( X A = Hb + 5 0 0 0 g e g e n H , : ^ A > (xB + 5 0 0 0 k a n n ( a p p r o x i m a t i v ) d e r d o p p e l t e G a u ß - T e s t b e n u t z t w e r d e n . D a n a c h e r h a l t e n wir: H 0 wird genau dann abgelehnt, wenn x - y > 5000 +
T„
V — + — = 5148 V n, n2
D i e b e o b a c h t e t e D i f f e r e n z x—y = 5 1 5 8 f ü h r t d a h e r z u r S i g n i f i k a n z v o n H , .
80. D a s K o n f i d e n z i n t e r v a l l f ü r fx A —[i B z u m V e r t r a u e n s g r a d y l a u t e t : x - y -
\l
,
O?
t \/ — + — V n,
n2
,
- , -i / Oy , 5 + x„1+n,_2(a) • s •V ~ v Ii)
= 5 + 1.70-y ' 4 " » £ "
> - 3
+ -jn2
> ¡xA + 5 . H ( l wird g e n a u
=
' - V T 5 + T7
-8...
D i e b e o b a c h t e t e D i f f e r e n z y - x = 9 f ü h r t d a h e r zur A b l e h n u n g v o n H ( ) . b ) T e s t v o n W c l c h für H ( ) und H ! wie u n t e r a ) . H u wird g e n a u d a n n a b g e l e h n t , wenn gilt: (*)
y - x > 5 + x » y
iL +
i l
H i e r ist "\/ — + — = 2 . 2 4 2 ; w e g e n , . ST/ | n| ,. = 0 . 5 4 4 e r g i b t sich für v V n, n2 > b b s ^/ n| + ¡ . ^ 2 2 0 544 0 45fi der Wert u = [ ^ + ^ ] " ' = 2 9 . 3 , s o d a ß die t - V e r t c i l u n g mit 2 9 F r e i h e i t s g r a d e n zu b e n u t z e n ist. D a f ü r ist x 2 y ( 0 . 0 5 ) = 1 . 7 0 . F ü r d i e r e c h t e S e i t e in ( * ) e r h a l t e n wir den W e r t : 5 + 1 . 7 0 • 2 . 2 4 2 = 8 . 8 1 . H„ wird e b e n f a l l s a b g e l e h n t . ( D a sich w e d e r n , u n d n 2 n o c h s 2 u n d s? s t a r k u n t e r s c h e i d e n , b e s i t z t d e r T e s t v o n W e l c h ( f a s t ) d e n g l e i c h e n A b l c h n b e r e i c h wie d e r d o p p e l t e t - T e s t . )
82. D a s K o n f i d e n z i n t c r v a l l für h, — |.t2 z u m V e r t r a u e n s g r a d y l a u t e t : x - y — x s y —- + —•, V n, n2
x - y + xs"\/ — V n,
+
— n2
1 —v w o b e i x das — F r a k t i l d e r t - V e r t e i l u n g mit n, + n 2 - 2 F r e i h e i t s g r a d e n ist. F ü r d i e S t i c h p r o b e n w e r t e a u s A u f g a b e 8 1 e r g i b t sich (zu y = 0 . 9 5 ) : [ - 9 - 4.57, - 9 + 4.57] = [ - 1 3 . 5 7 , - 4 . 4 3 ] ,
335
Lösungen der Aufgaben
83. t-Differenzentest f ü r H 0 : n, = |i 2 gegen H , :
> ¡x2 (m = E X und \L2 = E Y ) . H„
wird genau dann abgelehnt, wenn z = x—y > x n _, ( a ) s z M 7 = 2 . 5 8 - V i . 6 2 5 / 1 7 = = 0.798. Das b e o b a c h t e t e z = 1 führt zur A b l e h n u n g von H„.
84. A u s den beiden Stichproben (mit ^ = n 2 = 17) erhält m a n x = 51, s; = 6.25, y = 5 0 und s 2 = 7.50. D a sich s 2 und s 2 nicht stark unterscheiden und ni = n2 gilt, besitzt der Test von Welch u n g e f ä h r den gleichen A b l e h n b e r e i c h wie der doppelte t-Test; wir w e n d e n letzteren an. ( H 0 und H , wie in A u f g a b e 83.) H 0 wird genau d a n n abgelehnt, wenn x — y > X32 ( a ) • s • y
+ ^
= 2 . 4 5 - 2 . 6 2 - 0 . 3 4 = 2.18
Das beobachtete x — y = 1 führt nicht zur A b l e h n u n g von H () . (Durch den Test von Welch würde H () genau d a n n abgelehnt, wenn x —y > 2.20. E r liefert hier dasselbe Ergebnis.)
85. Binomial-Test für H 0 : p
gegen H,: p 4= -^-(mit p = Wahrscheinlichkeit für
„ Z a h l " ) . Die Testgröße T = „Häufigkeit von „ Z a h l " u n t e r n = 5 W ü r f e n " ist unter H 0 nach B(5;0.5) verteilt. D a r a u s ergibt sich zu a = 0 . 1 0 der A n n a h m e b e r e i c h {1,2,3,4}. A u f g r u n d der B e o b a c h t u n g „ T = 4 " wird d a h e r H 0 nicht abgelehnt. G ( p ) = (1 —p)5 + p-1 besitzt an der Stelle p = ~
ihr M i n i m u m
(Kurvendiskus-
sion!); der Test ist d a h e r unverfälscht. Seine Wahrscheinlichkeit f ü r den Fehler 1. Art ist gleich G ( y ) = ( y ) 5 + ( y ) 5 = 0.0625.
86.
G ( p ) = P ( T = 11 Ip) + P ( T = 2 I Ip) = 2 p ( l - p ) + p 2 = 2p—p 2 .
Wegen G ' ( p ) = 2 ( 1 — p ) > 0 für alle p ist G ( p ) m o n o t o n wachsend in p. D a h e r ist der Test unverfälscht. D i e maximale Wahrscheinlichkeit f ü r den Fehler 1. Art ist gleich G(().05) = 0.0975.
87. Hypothesen: H0: p = 0 . 0 3
gegen
H,: p a /
. . . aus erglb
S
. , ,
Die dazugehörige G ü t e f u n k t i o n G ( p ) = P ( T = 0 l l p ) = (1—p) lend in p. D a r a u s folgt: 1) G ( p ) ^ G(0.03) < 0.05 oc für alle p€EH 0 ein.
. ,
er Ablehnbereich 100
„ -T =
0
•
ist m o n o t o n fal-
f ü r alle p g 0.03 d.h.: D e r Test hält das vorgegebene
336
Lösungen der Aufgaben
2) G(p) > G(0.03)
für alle p G H , , d.h.: Der Test ist unverfälscht.
Der beobachtete Wert „ T = l " führt nicht zur Ablehnung von H 0 . Für 0 = p = 0 . 1 ist B(100;p) = Po(100p) und damit G(p) = P(T=0llp) = e 1 0 ( | P. 88. Hypothesen: H 0 : p = p 0 = 0.5 gegen H ^ p+po- Da n hinreichend groß ist (np 0 (l—p (1 ) > 9), darf der einfache Gauß-Test f ü r p benutzt werden. Danach wird H 0 genau dann abgelehnt, wenn gilt: Ix - Pol >T o / 2 •
= 2 . 5 8 ^ / ^
=0.0236
wobei x die relative Häufigkeit in der beobachteten Stichprobe bedeutet. Hier ist 1578 x= 0.526, also wird H() abgelehnt. 89. Hier ist der exakte Test von Fisher für H 0 : p, =P2 gegen H,: pi=t=p2 anzuwenden, (pi = Anteil der zufriedenstellenden Geräte in der „Grundgesamtheit" aller Fabrikate des Herstellers i, i = l , 2.) Die beobachtete Stichprobe läßt sich als Vierfeldertafel darstellen: Gute Geräte Hersteller 1 Hersteller 2
Schlechte Geräte
5 9
7 3
12 12
14
10
24
Für die Zufallsvariablen Tj = „Anzahl der guten Geräte in der Stichprobe des Herstellersi" (i = 1,2)gilt:UnterderBedingungT J +T 2 =14istT,nachH(14;12;24) verteilt. Diese Verteilung ist symmetrisch; von den Werten 2 , 3 , . . . , 12, die T, annehmen kann, brauchen wir daher nur die Werte 2 , 3 , . . . , 7 zu betrachten. Die dazugehörigen Wahrscheinlichkeiten lauten: ti P(T, = t, IT, + T 2 = 14)
2
3
4
5
6
7
0.0000
0.0013
0.0167
0.0888
0.2332
0.3198
= 0.0180 < y = 0.025 Daraus erhält man: Der Annahmebereich des Tests besteht aus den T r W e r t e n {5,6,7,8,9}. Der beobachtete Wert „ ^ = 5 " führt nicht zur Ablehnung von H(); ein Qualitätsunterschied (im Sinne von p i + p 2 ) ist nicht signifikant. 90. p, p2 T, T2
= = = =
Trefferwahrscheinlichkeit von Schütze A Trefferwahrscheinlichkeit von Schütze B Anzahl der Treffer von A unter n, = 10 Schüssen Anzahl der Treffer von B unter n 2 = 12 Schüssen
337
Lösungen der Aufgaben
Exakter Test von Fisher für H 0 : pi=p 2 gegen Hj: pi>p 2 . Vierfeldertafel der beobachteten Stichprobe: Treffer
kein Treffer
8 7
2 5
10 12
15
7
22
Schütze A Schütze B
Unter der Bedingung Tj+T 2 = 15 ist T, nach H(15;10;22) verteilt; T] kann dabei die Werte 3 , 4 , . . . , 10 annehmen, der Ablehnbereich wird aus den großen Werten von Tj gebildet. Es gilt: P(T,iS8IT 1 + T 2 =15) =
C8 X
2
'
)
+
C X
(15)
2
( 9
) ° +
® C 53 2 )
iU
- 0.2678
(15)
ist größer als a=0.10, während P ( T , ^ 9 1 ^ + ^ = 1 5 ) = 0.0588 kleiner als aist. Daher besteht der Ablehnbereich des Tests aus den T r W e r t e n {9,10}. Der beobachtete Wert „T] = 8 " ist mit H 0 vereinbar, die Behauptung von A ist nicht signifikant.
91. Doppelter Gauß-Test für H 0 : p]=p 2 gegen H,: pi
ag. H 0 wird
genau dann abgelehnt, wenn s 2 > - ^ - • r] n (a) = — 4 4 . 3 = 1.77. Aus der be1 44 obachteten Stichprobe ergab sich s 2 = — 2(xj-500) 2 = = 1.76. H 0 wird nicht abgelehnt.
Lösungen der Aufgaben
338
93. X 2 -Test für die Varianz bei unbekanntem |i. H (l : a = a 0 = 2 5 0 gegen H,: a=l=250. Der Annahmebereich K des Tests besteht aus allen s 2 -Werten, die zwischen !TT
T
l n - 1 ( l - f ) = ^ 1 3 . 1 =32750
und
- r ^Tj-ri n _ 1 ( j - ) = Y J ~ 4 0 - 6 = 101500 liegen. Das beobachtete s2
= 1602 = 25600 führt zur Ablehnung von H 0 .
94. X 2 -Anpassungstest für eine einfache Nullhypothese. H 0 : Die aktuelle Verteilung ist die gleiche wie bei der letzten Wahl. Wir berechnen den x 2 -Abstand der beobachteten Stichprobe: Beobachtete Häufigkeiten ni
A B C D
1050 1000 350 100
Unter H„ zu erwartende Anteile Häufigkeiten n Pj Pj 0.45 0.40 0.10 0.05
1125 1000 250 125 Summe:
(n, - np;) 2 n Pj 5 0 40 5 50
Ergebnis: x 2 -Abstand t=50. Dieser Wert ist größer als das Fraktil r| 3 (0.01) = = 11.3. H ( l wird abgelehnt. 95. X 2 -Anpassungstest für eine zusammengesetzte Nullhypothese. H () : X ist Po(X)verteilt mit beliebigem X. Maximum-Likelihood-Schätzung für X (Gruppierung , „. . . . . , i _ 50 + 38 + 24 + 8 = , hat keine Auswirkung): X = x = ^Q 1 H 0 : X ist Po(X.)-verteilt. Wir berechnen den dazugehörigen x 2 -Abstand: Beobachtete Häufigkeiten n)
0 1 2 3 4 5 u.m.
41 50 19 8 2 0
Unter H 0 zu erwartende Anteile Häufigkeiten n Pj Pj 0.368 0.368 0.184 0.061 0.015 0.004
( n i - npj) 2 nPj
44.2 44.2 22.1
0.23 0.76 0.43
} 9.6
0.02
1
Summe:
1.44
Ergebnis: x 2 -Abstand t= 1.44. Dieser Wert ist kleiner als das Fraktil ri 2 (0.05) = 5.99. H 0 kann beibehalten werden.
339
Lösungen der Aufgaben
96.
X 2 - A n p a s s u n g s t e s t für e i n e e i n f a c h e N u l l h y p o t h e s e . H 0 : D i e L e b e n s d a u e r ist E x po(X)-verteilt mit X = 0 . 5 . W i r erhalten: Beobachtete
U n t e r H 0 zu e r w a r t e n d e Anteile
j
Pj
"Pj
0.393 0.239 0.145 0.088 0.085 0.050
78.6 47.8 29.0 17.6 17.0 10.0
0.94 3.11 2.79 0.33 0.53 0.00
Summe:
7.70
n
0-1 1-2 2-3 3-4 4-6 über 6
70 60 20 20 20 10
Häufigkeiten
( " j - np|) 2 np,
Häufigkeiten
E r g e b n i s : x 2 - A b s t a n d t = 7 . 7 0 . D i e s e r W e r t ist k l e i n e r als das F r a k t i l 1 ^ ( 0 . 0 5 ) = 1 1 . 1 . H(l k a n n b e i b e h a l t e n w e r d e n .
=
97. X 2 - U n a b h ä n g i g k e i t s t e s t . (n ist h i n r e i c h e n d g r o ß . ) H ( ) : D i e b e i d e n U n t e r s u c h u n g s m e r k m a l e sind u n a b h ä n g i g . H , : D i e b e i d e n U n t e r s u c h u n g s m e r k m a l e sind a b h ä n g i g . In d e n b e i d e n f o l g e n d e n K o n t i n g e n z t a f e l n sind die b e o b a c h t e t e n H ä u f i g k e i t e n n^ u n d die bei U n a b h ä n g i g k e i t zu e r w a r t e n d e n H ä u f i g k e i t e n Uj, = n j . n . j / n a n g e g e ben. n
U,j
ü 32 73 15
46 22
46.8 57.0
31.2 38.0
12
78 95 27
16.2
10.8
120
80
200
120.0
80.0
78 95 27
F ü r den x2- A b s t a n d erhält man daraus den W e r t Z (nii~ui|)~ = 2 3 . 1 5 . '•i
"ij
D i e s e r W e r t ist g r ö ß e r als das F r a k t i l r | 2 ( 0 . 0 1 ) = 9 . 2 1 . H ( ) wird a b g e l e h n t . D i e A b h ä n g i g k e i t d e s F r e i z e i t i n t e r e s s e s v o m G e s c h l e c h t ist s i g n i f i k a n t .
98. X 2 - U n a b h ä n g i g k e i t s t e s t . F ü r d e n x 2 - A b s t a n d e r g i b t sich h i e r d e r W e r t 8 5 . 5 ; e r ist g r ö ß e r als das F r a k t i l r | 6 ( 0 . 0 5 ) = 1 2 . 6 . D a m i t wird H 0 v e r w o r f e n : E i n e A b h ä n g i g k e i t z w i s c h e n W a h l a b s i c h t u n d B e k e n n t n i s ist s i g n i f i k a n t .
340
Lösungen der Aufgaben
99. D u r c h die E r h e b u n g soll untersucht werden, ob Kriminalität eher durch Umweltzustände oder durch Erbanlagen bedingt ist. Dieses Problem wird hier eingeengt auf die Ü b e r p r ü f u n g der Behauptung B: Für Zwillingspaare mit mindestens einem kriminellen Partner ist die Neigung des anderen Partners, kriminell zu werden, unter den eineiigen Zwillingspaaren größer als unter den zweieiigen. Auf diese einseitige Fragestellung (Abhängigkeit in eine bestimmte Richtung) w e n d e n wir den exakten Test von Fisher an. H 0 = Verneinung v o n B ; H j = B . Die beobachtete Stichprobe ergibt die Vierfeldertafel Zwillingspartner ist kriminell nicht kriminell eineiig zweieiig
10 2
3 15
13 17
12
18
30
Diese und die beiden noch extremeren Vierfeldertafeln, die zu den gegebenen Randhäufigkeiten möglich sind, lauten: 10 2
11 1
3 15
2 16
12 0
1 17
Die Wahrscheinlichkeit, daß eine dieser drei Tafeln (bei den gegebenen Randhäufigkeiten) beobachtet wird, ist gleich q = (¡oM?) + (u)(V) + ®
( nt ,)»( "o ) = 0.000465
®
0
(Die Wahrscheinlichkeiten für die einzelnen Tafeln entstammen der H(12; 13;30)-Verteilung.) Wegen q < a = 0 . 0 1 wird H 0 abgelehnt; H , und damit der Einfluß der Erbanlagen ist signifikant. D e r Vollständigkeit halber: D e r gesamte Ablehnbereich des Tests besteht aus den Vierfeldertafeln 4 14
10 2
3 15
11 1
2 16
12 0
1 17
die nach der H(12;13;30)-Verteilung zusammen eine Wahrscheinlichkeit von 0.0061 besitzen.
341
Lösungen der Aufgaben
100. Exakter Test von Fisher; einseitige Fragestellung. T, = Anzahl der „Richtigen" unter den Coca-Cola-Gläsern T 2 = Anzahl der „Falschen" unter den Pepsi-Cola-Gläsern T, ist unter der Bedingung T 1 + T 2 = 6 nach H(6;6;12) verteilt. Daraus erhalten wir P(T, ^ 4IT, + T 2 = 6) =
(3© * (ö) z
+
3
1
(ß)
+
0
( K ) = 0.2835 , (fi) u
also
einen größeren Wert als a = 0 . 0 5 , während P(T, S 5 I T , + T 2 = 6) = 0.0400 kleiner als a ist. Der Ablehnbereich besteht daher aus den TpWerten {5,6}. Das beobachtete T[ = 5 führt zur Ablehnung von H 0 . Die Behauptung des Freundes ist signifikant.
Tabellen Tabelle I: Binomialverteilungen Wahrscheinlichkeitsfunktion f(x) = P ( X = x ) l , ,,, .. Verteilungsfunktion F(x) = P ( X ^ x ) ) d e r B ( n ; p ) - V e r t e . l u n g P = 0.1 F(x) f(x)
P = 0.2 F(x) f(x)
P = 0.3 f(x) F(x)
P = 0.4 f(x) F(x)
P = 0.5 f(x) F(x)
n
X
i
0 1
.9000 .1000
0.9000 1.0000
.8000 .2000
0.8000 1.0000
.7000 .3000
0.7000 1.0000
.6000 .4000
0.6000 1.0000
.5000 .5000
0.5000 1.0000
2
0 1 2
.8100 .1800 .0100
0.8100 0.9900 1.0000
.6400 .3200 .0400
0.6400 0.9600 1.0000
.4900 .4200 .0900
0.4900 0.9100 1.0000
.3600 .4800 .1600
0.3600 0.8400 1.0000
.2500 .5000 .2500
0.2500 0.7500 1.0000
0
0 1 2 3
.7290 .2430 .0270 .0010
0.7290 0.9720 0.9990 1.0000
.5120 .3840 .0960 .0080
0.5120 0.8960 0.9920 1.0000
.3430 .4410 .1890 .0270
0.3430 0.7840 0.9730 1.0000
.2160 .4320 .2880 .0640
0.2160 0.6480 0.9360 1.0000
.1250 .3750 .3750 .1250
0.1250 0.5000 0.8750 1.0000
4
0 1 2 3 4
.6561 .2916 .0486 .0036 .0001
0.6561 0.9477 0.9963 0.9999 1.0000
.4096 .4096 .1536 .0256 .0016
0.4096 0.8192 0.9728 0.9984 1.0000
.2401 .4116 .2646 .0756 .0081
0.2401 0.6517 0.9163 0.9919 1.0000
.1296 .3456 .3456 .1536 .0256
0.1296 0.4752 0.8208 0.9744 1.0000
.0625 .2500 .3750 .2500 .0625
0.0625 0.3125 0.6875 0.9375 1.0000
5
0 1 2 3 4 5
.5905 .3281 .0729 .0081 .0005 .0000
0.5905 0.9185 0.9914 0.9995 1.0000 1.0000
.3277 .4096 .2048 .0512 .0064 .0003
0.3277 0.7373 0.9421 0.9933 0.9997 1.0000
.1681 .3602 .3087 .1323 .0284 .0024
0.1681 0.5282 0.8369 0.9692 0.9976 1.0000
.0778 .2592 .3456 .2304 .0768 .0102
0.0778 0.3370 0.6826 0.9130 0.9898 1.0000
.0313 .1563 .3125 .3125 .1563 .0313
0.0313 0.1875 0.5000 0.8125 0.9688 1.0000
6
0 1 2 3 4 5 6
.5314 .3543 .0984 .0146 .0012 .0001 .0000
0.5314 0.8857 0.9841 0.9987 0.9999 1.0000 1.0000
.2621 .3932 .2458 .0819 .0154 .0015 .0001
0.2621 0.6554 0.9011 0.9830 0.9984 0.9999 1.0000
.1176 .3025 .3241 .1852 .0595 .0102 .0007
0.1176 0.4202 0.7443 0.9295 0.9891 0.9993 1.0000
.0467 .1866 .3110 .2765 .1382 .0369 .0041
0.0467 0.2333 0.5443 0.8208 0.9590 0.9959 1.0000
.0156 .0938 .2344 .3125 .2344 .0938 .0156
0.0156 0.1094 0.3438 0.6563 0.8906 0.9844 1.0000
7
0 1 2 3 4 5 6 7
.4783 .3720 .1240 .0230 .0026 .0002 .0000 .0000
0.4783 0.8503 0.9743 0.9973 0.9998 1.0000 1.0000 1.0000
.2097 .3670 .2753 .1147 .0287 .0043 .0004 .0000
0.2097 0.5767 0.8520 0.9667 0.9953 0.9996 1.0000 1.0000
.0824 .2471 .3177 .2269 .0972 .0250 .0036 .0002
0.0824 0.3294 0.6471 0.8740 0.9712 0.9962 0.9998 1.0000
.0280 .1306 .2613 .2903 .1935 .0774 .0172 .0016
0.0280 0.1586 0.4199 0.7102 0.9037 0.9812 0.9984 1.0000
.0078 .0547 .1641 .2734 .2734 .1641 .0547 .0078
0.0078 0.0625 0.2266 0.5000 0.7734 0.9375 0.9922 1.0000
8
0 1 2 3 4 5 6 7 8
.4305 .3826 .1488 .0331 .0046 .0004 .0000 .0000 .0000
0.4305 0.8131 0.9619 0.9950 0.9996 1.0000 1.0000 1.0000 1.0000
.1678 .3355 .2936 .1468 .0459 .0092 .0011 .0001 .0000
0.1678 0.5033 0.7969 0.9437 0.9896 0.9988 0.9999 1.0000 1.0000
.0576 .1977 .2965 .2541 .1361 .0467 .0100 .0012 .0001
0.0576 0.2553 0.5518 0.8059 0.9420 0.9887 0.9987 0.9999 1.0000
.0168 .0896 .2090 .2787 .2322 .1239 .0413 .0079 .0007
0.0168 0.1064 0.3154 0.5941 0.8263 0.9502 0.9915 0.9993 1.0000
.0039 .0313 .1094 .2188 .2734 .2188 .1094 .0313 .0039
0.0039 0.0352 0.1445 0.3633 0.6367 0.8555 0.9648 0.9961 1.0000
Tabellen
343
Tabelle II: Poisson-Verteilungen Wahrscheinlichkeitsfunktion f(x) = P ( X = x ) 1 Verteilungsfunktion F(x) = P ( X ^ x ) J
X = 0.1 f(x) F(x) 0 1 2 3 4
X
0 I 2 3 4 5 6 7
X
0 I 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
.9048 .0905 .0045 .0002 .0000
0.9048 0.9953 0.9998 1.0000 1.0000
X = 0.6 f(x) F(x) .5488 .3293 .0988 .0198 .0030 .0004
0.5488 0.8781 0.9769 0.9966 0.9996 1.0000
X = 1.5 F(x)
f(x)
.2231 .3347 .2510 .1255 .0471 .0141 .0035 .0008 .0001
0.2231 0.5578 0.8088 0.9344 0.9814 0.9955 0.9991 0.9998 1.0000
X = 0.2 f(x) F(x) .8187 .1637 .0164 .0011 .0001
0.8187 0.9825 0.9989 0.9999 1.0000
X = 0.7 f(x) F(x) .4966 .3476 .1217 .0284 .0050 .0007 .0001
f(x)
0.4966 0.8442 0.9659 0.9942 0.9992 0.9999 1.0000
X = 2 F(x)
.1353 .2707 .2707 .1804 .0902 .0361 .0120 .0034 .0009 .0002
0.1353 0.4060 0.6767 0.8571 0.9473 0.9834 0.9955 0.9989 0.9998 1.0000
H p r P o m d e r
X = 0.3 f(x) F(x) .7408 .2222 .0333 .0033 .0003
0.7408 0.9631 0.9964 0.9997 1.0000
X =0.8 f(x) F(x) .4493 .3595 .1438 .0383 .0077 .0012 .0002
f(x)
0.4493 0.8088 0.9526 0.9909 0.9986 0.9998 1.0000
X = 3 F(x)
.0498 .1494 .2240 .2240 .1680 .1008 .0504 .0216 .0081 .0027 .0008 .0002 .0001
0.0498 0.1991 0.4232 0.6472 0.8153 0.9161 0.9665 0.9881 0.9962 0.9989 0.9997 0.9999 1.0000
erteihino Verteilung
V
X = 0.4 f(x) F(x) .6703 .2681 .0536 .0072 .0007 .0001
0.6703 0.9384 0.9921 0.9992 0.9999 1.0000
X = 0.9 F(x)
f(x)
.4066 .3659 .1647 .0494 .0111 .0020 .0003
f(x)
0.4066 0.7725 0.9371 0.9865 0.9977 0.9997 1.0000
X = 4 F(x)
.0183 .0733 .1465 .1954 .1954 .1563 .1042 .0595 .0298 .0132 .0053 .0019 .0006 .0002 .0001
0.0183 0.0916 0.2381 0.4335 0.6288 0.7851 0.8893 0.9489 0.9786 0.9919 0.9972 0.9991 0.9997 0.9999 1.0000
X = 0.5 f(x) F(x) .6065 .3033 .0758 .0126 .0016 .0002
X
0.6065 0.9098 0.9856 0.9982 0.9998 1.0000
=
1
f(x)
F(x)
.3679 .3679 .1839 .0613 .0153 .0031 .0005 .0001
0.3679 0.7358 0.9197 0.9810 0.9963 0.9994 0.9999 1.0000
f(x)
X = 5 F(x)
.0067 .0337 .0842 .1404 .1755 .1755 .1462 .1044 .0653 .0363 .0181 .0082 .0034 .0013 .0005 .0002 .0000
0.0067 0.0404 0.1247 0.2650 0.4405 0.6160 0.7622 0.8666 0.9319 0.9682 0.9863 0.9945 0.9980 0.9993 0.9998 0.9999 1.0000
344
Tabellen
Tabelle III: Standardnormalverteilung
(z): V e r t e i l u n g s f u n k t i o n der Standardnormalverteilung
z
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.0 0.1 0.2 0.3 0.4
.5000 .5398 .5793 .6179 .6554
.5040 .5438 .5832 .6217 .6591
.5080 .5478 .5871 .6255 .6628
.5120 .5517 .5910 .6293 .6664
.5160 .5557 .5948 .6331 .6700
.5199 .5596 .5987 .6368 .6736
.5239 .5636 .6026 .6406 .6772
.5279 .5675 .6064 .6443 .6808
.5319 .5714 .6103 .6480 .6844
.5359 .5753 .6141 .6517 .6879
0.5 0.6 0.7 0.8 0.9
.6915 .7257 .7580 .7881 .8159
.6950 .7291 .7611 .7910 .8186
.6985 .7324 .7642 .7939 .8212
.7019 .7357 .7673 .7967 .8238
.7054 .7389 .7704 .7995 .8264
.7088 .7422 .7734 .8023 .8289
.7123 .7454 .7764 .8051 .8315
.7157 .7486 .7794 .8078 .8340
.7190 .7517 .7823 .8106 .8365
.7224 .7549 .7852 .8133 .8389
1.0 1.1 1.2 1.3 1.4
.8413 .8643 .8849 .9032 .9192
.8438 .8665 .8869 .9049 .9207
.8461 .8686 .8888 .9066 .9222
.8485 .8708 .8907 .9082 .9236
.8508 .8729 .8925 .9099 .9251
.8531 .8749 .8944 .9115 .9265
.8554 .8770 .8962 .9131 .9279
.8577 .8790 .8980 .9147 .9292
.8599 .8810 .8997 .9162 .9306
.8621 .8830 .9015 .9177 .9319
1.5 1.6 1.7 1.8 1.9
.9332 .9452 .9554 .9641 .9713
.9345 .9463 .9564 .9649 .9719
.9357 .9474 .9573 .9656 .9726
.9370 .9484 .9582 .9664 .9732
.9382 .9495 .9591 .9671 .9738
.9394 .9505 .9599 .9678 .9744
.9406 .9515 .9608 .9686 .9750
.9418 .9525 .9616 .9693 .9756
.9429 .9535 .9625 .9699 .9761
.9441 .9545 .9633 .9706 .9767
2.0 2.1 2.2 2.3 2.4
.9772 .9821 .9861 .9893 .9918
.9778 .9826 .9864 .9896 .9920
.9783 .9830 .9868 .9898 .9922
.9788 .9834 .9871 .9901 .9925
.9793 .9838 .9875 .9904 .9927
.9798 .9842 .9878 .9906 .9929
.9803 .9846 .9881 .9909 .9931
.9808 .9850 .9884 .9911 .9932
.9812 .9854 .9887 .9913 .9934
.9817 .9857 .9890 .9916 .9936
2.5 2.6 2.7 2.8 2.9
.9938 .9953 .9965 .9974 .9981
.9940 .9955 .9966 .9975 .9982
.9941 .9956 .9967 .9976 .9982
.9943 .9957 .9968 .9977 .9983
.9945 .9959 .9969 .9977 .9984
.9946 .9960 .9970 .9978 .9984
.9948 .9961 .9971 .9979 .9985
.9949 .9962 .9972 .9979 .9985
.9951 .9963 .9973 .9980 .9986
.9952 .9964 .9974 .9981 .9986
3.0 3.1 3.2
.9987 .9990 .9993
.9987 .9991 .9993
.9987 .9991 .9994
.9988 .9991 .9994
.9988 .9992 .9994
.9989 .9992 .9994
.9989 .9992 .9994
.9989 .9992 .9995
.9990 .9993 .9995
.9990 .9993 .9995
Tabellen
Tabelle IY: t-Verteilungen
F(x): Verteilungsfunktion der t-Verteilung mit k Freiheitsgraden
V(x)
0.995
0.99
0.975
1 2 3 4
63.66 9.92 5.84 4.60
31.82 6.96 4.54 3.75
12.71 4.30 3.18 2.78
6.31 2.92 2.35 2.13
3.08 1.89 1.64 1.53
5 6 7 8 9
4.03 3.71 3.50 3.36 3.25
3.36 3.14 3.00 2.90 2.82
2.57 2.45 2.36 2.31 2.26
2.02 1.94 1.90 1.86 1.83
1.48 1.44 1.42 1.40 1.38
10 11 12 13 14
3.17 3.11 3.06 3.01 2.98
2.76 2.72 2.68 2.65 2.62
2.23 2.20 2.18 2.16 2.14
1.81 1.80 1.78 1.77 1.76
1.37 1.36 1.36 1.35 1.34
15 16 17 18 19
2.95 2.92 2.90 2.88 2.86
2.60 2.58 2.57 2.55 2.54
2.13 2.12 2.11 2.10 2.09
1.75 1.75 1.74 1.73 1.73
1.34 1.34 1.33 1.33 1.33
20 21 22 23 24
2.84 2.83 2.82 2.81 2.80
2.53 2.52 2.51 2.50 2.49
2.09 2.08 2.07 2.07 2.06
1.72 1.72 1.72 1.71 1.71
1.32 1.32 1.32 1.32 1.32
25 26 27 28 29
2.79 2.78 2.77 2.76 2.76
2.48 2.48 2.47 2.47 2.46
2.06 2.06 2.05 2.05 2.04
1.71 1.71 1.70 1.70 1.70
1.32 1.32 1.31 1.31 1.31
30 40 60 120 oo
2.75 2.70 2.66 2.62 2.58
2.46 2.42 2.39 2.36 2.33
2.04 2.02 2.00 1.98 1.96
1.70 1.68 1.67 1.66 1.645
1.31 1.30 1.30 1.29 1.28
k
0.95
0.90
\
346
Tabellen
Tabelle V: x 2 -Verteilungen
F ( x ) : Verteilungsfunktion der x 2 -Verteilung mit k Freiheitsgraden
k
\
0.005
0.01
0.025
0.05
0.95
0.99
0.995
5.02 7.38 9.35 11.1
6.63 9.21 11.3 13.3
7.88 10.6 12.8 14.9
11.1 12.6 14.1 15.5 16.9
12.8 14.4 16.0 17.5 19.0
15.1 16.8 18.5 20.1 21.7
16.7 18.5 20.3 22.0 23.6
3.94 4.57 5.23 5.89 6.57
18.3 19.7 21.0 22.4 23.7
20.5 21.9 23.3 24.7 26.1
23.2 24.7 26.2 27.7 29.1
25.2 26.8 28.3 29.8 31.3
7.26 7.96 8.67 9.39 10.1
25.0 26.3 27.6 28.9 30.1
27.5 28.8 30.2 31.5 32.9
30.6 32.0 33.4 34.8 36.2
32.8 34.3 35.7 37.2 38.6
9.59 10.3 11.0 11.7 12.4
10.9 11.6 12.3 13.1 13.8
31.4 32.7 33.9 35.2 36.4
34.2 35.5 36.8 38.1 39.4
37.6 38.9 40.3 41.6 43.0
40.0 41.4 42.8 44.2 45.6
1 2 3 4
0.0000 0.0100 0.072 0.207
0.0002 0.0201 0.115 0.297
0.0010 0.0506 0.216 0.484
0.0039 0.103 0.352 0.711
5 6 7 8 9
0.412 0.676 0.989 1.34 1.73
0.554 0.872 1.24 1.65 2.09
0.831 1.24 1.69 2.18 2.70
1.15 1.64 2.17 2.73 3.33
10 11 12 13 14
2.16 2.60 3.07 3.57 4.07
2.56 3.05 3.57 4.11 4.66
3.25 3.82 4.40 5.01 5.63
15 16 17 18 19
4.60 5.14 5.70 6.26 6.84
5.23 5.81 6.41 7.01 7.63
6.26 6.91 7.56 8.23 8.91
20 21 22 23 24
7.43 8.03 8.64 9.26 9.89
8.26 8.90 9.54 10.2 10.9
3.84 5.99 7.81 9.49
0.975
25 26 27 28 29
10.5 11.2 11.8 12.5 13.1
11.5 12.2 12.9 13.6 14.3
13.1 13.8 14.6 15.3 16.0
14.6 15.4 16.2 16.9 17.7
37.7 38.9 40.1 41.3 42.6
40.6 41.9 43.2 44.5 45.7
44.3 45.6 47.0 48.3 49.6
46.9 48.3 49.6 51.0 52.3
30 40 50 60
13.8 20.7 28.0 35.5
15.0 22.2 29.7 37.5
16.8 24.4 32.4 40.5
18.5 26.5 34.8 43.2
43.8 55.8 67.5 79.1
47.0 59.3 71.4 83.3
50.9 63.7 76.2 88.4
53.7 66.8 79.5 92.0
70 80 90 100
43.3 51.2 59.2 67.3
45.4 53.5 61.8 70.1
48.8 57.2 65.6 74.2
51.7 60.4 69.1 77.9
90.5 101.9 113.1 124.3
95.0 106.6 118.1 129.6
100.4 112.3 124.1 135.8
104.2 116.3 128.3 140.2
Tabellen
347
Tabelle VI: Zufallszahlen 12026 68632 34692 12302 20164
94279 26874 56110 82385 31979
18108 79315 13383 89371 27152
76379 57882 79820 18854 99689
85607 74741 94586 87073 59565
46701 08778 60130 61965 00797
61481 46688 84114 61329 22175
44496 94713 01691 46216 26923
47215 85277 99785 91715 83644
15045 63482 77406 50255 07458
28025 00005 69408 92694 22929
44574 63319 21867 04135 20996
78413 51158 90638 42826 60747
24323 88737 82534 30314 01570
64677 30491 90999 57524 40287
92051 35270 27553 35608 98977
41027 57885 09652 47126 86415
92045 50853 21822 17113 39968
74001 26509 18964 17794 95254
33267 49862 87195 19614 58306
91421 06250 98074 74721 17341
37716 86098 62089 83898 14692
08843 61549 91733 96690 48612
23967 41009 41697 15824 67105
47307 76151 72409 95485 57952
35344 34246 73930 39990 09234
92221 65861 52573 84205 22437
31081 81540 35347 42690 28178
75563 27899 55304 62677 45428
20373 48015 10159 35024 22920
62704 18766 48604 15992 16997
05339 71402 43404 33522 19774
33087 91819 87457 73478 96364
12554 01957 78332 82933 29274
72037 61888 67374 62817 99793
14378 04589 88615 08003 653469
31771 69259 49737 70062 17027
65743 69284 48102 95435 20311
10885 50650 59574 08020 49424
00712 67982 32245 43023 75496
52895 65979 98473 46440 52210
50677 25526 54736 85709 71918
73549 38287 07162 85079 01044
65885 93491 08305 65624 69145
73139 46280 56989 67038 37428
81425 29536 17272 77409 99512
20740 38716 28826 76409 95526
53156 05520 60114 82128 15907
61394 73682 54343 50937 05261
90496 22185 65578 08697 82116
41354 03572 08154 21335 52754
32677 34781 74703 46954 16418
24771 85526 28515 29451 36077
40579 36811 81817 78245 42704
10022 45299 95998 58927 76667
65610 90266 82551 52377 99874
12342 07831 08970 66326 89716
81026 51774 87444 54840 65991
08753 41430 12148 26385 83264
75741 61205 85519 55430 46273
25333 50006 30641 03024 47219
13871 98998 87496 34068 07082
09711 10513 93836 99341 50460
58216 07131 36408 02613 66632
40858 49034 80917 97718 77293
37146 61496 73848 43382 95451
99871 24148 67166 16768 16112
35397 52124 86763 82280 67006
86546 53575 32072 95934 24631
39548 81687 21259 07966 86714
41075 92097 85912 94341 06783
65344 50684 71128 13146 95998
33107 52687 11349 29711 13924
24627 72011 18365 57654 92540
81034 92258 71266 86064 77366
64343 44314 22136 25701 67361
12390 62781 29585 16460 95525
81960 96202 33116 74461 52647
57103 25404 20413 28661 88424
82930 74035 19559 83996 32248
88361 36899 25515 94548 73634
83072 21688 59815 61838 06070
79776 00316 58178 55677 96933
49660 21674 86127 64675 01353
45690 10992 27011 98863 52472
84716 08778 04204 83316 53927
00243 53313 23206 82342 13346
04545 60811 06663 80445 19598
79319 10554 16616 52179 21985
65486 05807 28495 30728 71100
74165 17285 92711 01754 66161
72176 07706 78287 06287 75950
38504 60378 24859 15044 15308
72123 31123 34539 45119 83182
15397 53587 33267 86324 95432
81934 03474 92308 51197 77049
96222 72069 96848 99582 94033
86831 83168 69679 02780 07402
57074 57085 34003 44398 10319
99982 29747 57974 80341 42121
Literaturverzeichnis Aiken, H. H. [1955], T a b l e s o f the cumulative binomial probability distribution. C a m b r i d g e Mass. Anderson, O., W. Popp, M. Schaffranek, H. Stenger u. K. Szameitat [1976]: Schätzen und Testen. Berlin-Heidelberg-New York. Anderson, O. D. [1976]: T i m e series analysis and forecasting. The Box-Jenkins a p p r o a c h . London-Boston. Anderson, T. W. [ 1971]: T h e statistical analysis of time series. New Y o r k - L o n d o n - S y d n e y Toronto. Bacon, F. [1620]: N o v u m Organum scientarum. L o n d o n . (Deutsche Ü b e r s e t z u n g : N e u e s O r g a n der Wissenschaften, D a r m s t a d t 1962). Bamberg, G. [1972]: Statistische Entscheidungstheorie. W ü r z b u r g - W i e n . Bamberg, G. u. F. Baur[ 1984]: Statistik. 3. A u f l a g e . M ü n c h e n . (1. A u f l a g e 1980) Barnard, G. A. [1949]: Statistical inference. J. R o y . Stat. Soc. B 11. Barnard, G. A. [1967]: T h e use of the likelihood-function in statistical practice. Proc. 5the Berkeley Symp. M a t h . Stat, and Prob. Vol. I. Barnard, G. A. u.D. R. Cox [1962]: The f o u n d a t i o n s of statistical inference. New Y o r k . Barnard, G. A., M. Jenkins u. C. B. Winslen [1962]: Likelihood-Inference and time series. J . R o y . Stat. Soc. A . 125. Barnard, G. A. u. D. A. Sprott [1979]: Schätztheorie. H a n d w ö r t e r b u c h der M a t h e m a t i schen Wirtschaftswissenschaften. Band 2: Ö k o n o m e t r i e und Statistik. (Hrsg.: G . M e n ges). W i e s b a d e n . Barnen, V. [1982]: C o m p a r a t i v e statistical inference. 2. Auflage. Chichester-New Y o r k Brisbane-Toronto-Singapore. Bauer, H. [1978]: Wahrscheinlichkeitstheorie und G r u n d z ü g e der M a ß t h e o r i e . 3. A u f l a g e . Berlin. (1. Auflage 1968) Bauer, P., G. Hommel u. E. Sonnemann (Hrsg.) [1988]: Multiple hypotheses testing. Berlin. Bayes, T. [1763]: A n essay t o w a r d s solving a p r o b l e m in the doctrine of chances. Phil. Trans. Roy. Soc. A 53. (Wiederabdruck mit einer E r l ä u t e r u n g von G. A. B a r n a r d in: B i o m e t r i k a 4 5 , 1958). Bayes, T. [1764]: A d e m o n s t r a t i o n of the second rule in the essay towards the solution of a problem in the doctrine of chances. Phil. T r a n s . Roy. Soc. A . 54. Bernoulli, J. [1713]: Ars c o n j e c t a n d i . (Opus post h u m u m . ) Accedit tractatus de seriebus infinitis et epistola gallice spripta de ludo pilae reticularis. Basel. ( W i e d e r a b d r u c k in: D i e W e r k e von J a k o b Bernoulli, Band 3, herausgegeben von der naturforschcnden Gesellschaft in Basel, Basel 1975.) Bernoulli, J. [1899]: Wahrscheinlichkeitsrechnung. Ü b e r s e t z u n g der „Ars c o n j e c t a n d i " durch R. H a u s s n e r , Leipzig. Bernstein, S. N. [1926]: Sur l'extension du t h é o r è m e limite du calcul des probabilités aux s o m m e s d e quantités d é p e n d a n t e s . Math. A n n . 97. Birnbaum, A. [1961]: O n the foundations of statistical inference: binary experiments. A n n . M a t h . Stat. 32. Birnbaum, A. [1962]: On the f o u n d a t i o n s o f statistical inference. J. A m . Stat. Ass. 57. Bohlmann, G. [1901]: Lebensversicherungs-Mathematik (insb. Abschnitt 2). Enzykl. d. m a t h . Wiss. Bd. 1,2. Teil, D 4 b . Bohlmann, G. [1909]: Die G r u n d b e g r i f f e der Wahrscheinlichkeitsrechnung in ihrer A n w e n d u n g auf die Lebensversicherung. Atti del I V Congr. intern, dei matematici, R o m . Boret, E. ¡1909]: É l é m e n t s de la théorie des probabilités. Paris. Borél, E. [1925]: Traité des probabilités, t o m e I, fasc. I, principes et formules classiques, Paris. Bortz, J. [1985]: L e h r b u c h der Statistik. 2. A u f l a g e . Berlin-Heidelberg-New Y o r k . (1. A u f lage 1977) Box, G. E. P. u. G. M. Jenkins [1976]: Time series analysis. Forecasting and control. 2. A u f lage. San Francisco. (1. A u f l a g e 1970)
Literaturverzeichnis
349
Box, G. E. P. u. G. C. Tiao [1973]: B a y e s i a n i n f e r e n c e in statistical analysis. R e a d i n g (Mass.). Breiman, L. [1969]: P r o b a b i l i t y a n d s t o c h a s t i c p r o c e s s e s : W i t h a view t o w a r d a p p l i c a t i o n s . Boston-New Y o r k - A t l a n t a - G e n e v a , Ill.-Dallas-Palo Alto. Broggi, U. [1907]: D i e A x i o m e d e r W a h r s c h e i n l i c h k e i t s r e c h n u n g . G ö t t i n g e n . ( U n v e r ö f f . Dissertation.) Cardano, G. [1663]: O p e r a O m n i a , 10 B ü n d e . ( H r s g . : S p o n i u s ) L y o n . ( N a c h d r u c k : S t u t t g a r t 1966). B a n d 1 e n t h ä l t „ d e l u d o a l e a e " . Carnap, R. [1945]: O n i n d u c t i v e logic. Phil. S c i e n c e 12. Carnap, R. [1945]: T h e t w o c o n c e p t s of p r o b a b i l i t y . Phil. a. P h e n . R e s e a r c h 5. Carnap, R. [1952]: T h e c o n t i n u u m of i n d u c t i v e m e t h o d s . C h i c a g o - L o n d o n - T o r o n t o . Carnap, R. [1962]: T h e a i m of i n d u c t i v e logic. In: N a g e l , S u p p e s u n d T a r s k i [1962], Carnap, R. [1967]: Logical f o u n d a t i o n s of p r o b a b i l i t v . 3. A u f l a g e . C h i c a g o - L o n d o n - T o r o n t o . (1. A u f l a g e 1950.) Carnap, R. u. R. C. Jeffrey ( H r s g ) [1971]: S t u d i e s in i n d u c t i v e logic a n d p r o b a b i l i t y . V o l . I. B e r k e l e y - L o s A n g e l e s - L o n d o n . ( V o l . II: J e f f r e y [ 1980].) Carnap, R. u. W. Stegmiiller [1972]: I n d u k t i v e L o g i k u n d W a h r s c h e i n l i c h k e i t . 2. A u f l a g e . W i e n . (1. A u f l a g e 1959) Casella, G. C. u. R. L. Berger [1990]: Statistical i n f e r e n c e . P a c i f i c G r o v e . Chernoff, H. it. L. E. Moses [1970]: E l e m e n t a r y d e c i s i o n t h e o r y . 6. A u f l a g e . N e w Y o r k L o n d o n . (1. A u f l a g e 1959) Chintsehin, A. J. [1929]: S u r la loi d e s g r a n d s n o m b r e s . C . R . A c a d . Sei. P a r i s 188. Chintschin, A.J. [1933]: A s y m p t o t i s c h e G e s e t z e d e r W a h r s c h e i n l i c h k e i t s r e c h n u n g . B e r l i n . Chintsehin, A. J. [1935]: Sul d o m i n i o di a t t r a z i o n e della lege di G a u s s . G i o r n . 1st. I t a l . A t t . 6.
Chintsehin, A. J. it. A. N. Kolmogoroff[ 1925]: Ü b e r K o n v e r g e n z von R e i h e n , d e r e n G l i e d e r d u r c h d e n Z u f a l l b e s t i m m t w e r d e n . M a t . S b o r n i k 32. Chureh, A. [1940]: O n t h e c o n c e p t of a r a n d o m s e q u e n c e . Bull. A m e r . M a t h . S o c . 46. Clopper, C. J. it. E. S. Pearson [1934]: T h e use of c o n f i d e n c e o r fiducial limits i l l u s t r a t e d in t h e case of t h e b i n o m i a l . B i o m e t r i k a 26. Cochran, W. G. [1977]: S a m p l i n g t e c h n i q u e s . 3. A u f l a g e . N e w Y o r k - C h i c h e s t e r - B r i s b a n e T o r o n t o - S i n g a p u r . (1. A u f l a g e 1953) Cochran, W. G. [1972]: S t i c h p r o b e n v e r f a h r e n . B e r l i n . Copeland, A. H. [1932]: T h e t h e o r y of p r o b a b i l i t y f r o m t h e p o i n t of view of a d m i s s i b l e n u m b e r s . A n n . M a t h . S t a t . 3. Cox, D. R. u. D. V. Hinkley [ 1990]: T h e o r e t i c a l statistics. 2. A u f l a g e . L o n d o n . Cramer, H. [1974]: M a t h e m a t i c a l m e t h o d s of statistics. 13. A u f l a g e . P r i n c e t o n . (1. A u f l a g e : U p p s a l a 1945). Dalenius, T. [1950]: T h e p r o b l e m of o p t i m u m s t r a t i f i c a t i o n . S k a n d . A k t . 33. Dalenius, T. [1957]: S a m p l i n g in S w e d e n . C o n t r i b u t i o n s t o t h e m e t h o d s a n d t h e o r i e s of sampling survey practice. Uppsala-Stockholm. Dalenius, T. u. M. Gurney [1951]: T h e p r o b l e m of o p t i m u m s t r a t i f i c a t i o n . II. S k a n d . A k t . 34. Dalenius, T. u. J. L. Hodges[ 1959]: M i n i m u m v a r i a n c e s t r a t i f i c a t i o n . J. A m . Stat. A s s . 54. David, F. N. [1962]: G a m e s , G o d s a n d G a m b l i n g . L o n d o n . DeGroot, M. H. [1970]: O p t i m a l statistical d e c i s i o n s . N e w Y o r k - S t . L o u i s - e t c . Deming, W. E. [1961]: S o m e t h e o r y of s a m p l i n g . 4. A u f l a g e . N e w Y o r k - L o n d o n . ( 1 . A u f l a ge 1950). Edwards, A. F. [1984]: L i k e l i h o o d . A n a c c o u n t of t h e statistical c o n c e p t of l i k e l i h o o d a n d its a p p l i c a t i o n s t o scientific i n f e r e n c e . 2. A u f l a g e . C a m b r i d g e . (1. A u f l a g e 1972) Essler, W. K. [1970]: I n d u k t i v e L o g i k . G r u n d l a g e n u n d V o r a u s s e t z u n g e n . F r e i b u r g - M ü n chen. Feller, W. [1970): A n i n t r o d u c t i o n t o p r o b a b i l i t y t h e o r y a n d its a p p l i c a t i o n s . Vol. I. 3. A u f l a g e . N e w Y o r k - L o n d o n - S y d n e y . (1. A u f l a g e 1950) Feller, W. [1971]: A n i n t r o d u c t i o n t o p r o b a b i l i t y t h e o r y a n d its a p p l i c a t i o n s . V o l . I I . 2. A u f l a g e . N e w Y o r k - L o n d o n - S y d n e y . (1. A u f l a g e 1966)
350
Literaturverzeichnis
Ferguson, T. S. [1969]: M a t h e m a t i c a l statistics, a decision theoretic a p p r o a c h . 3. Auflage. New Y o r k - L o n d o n . (1. A u f l a g e 1967). Fermât, P. de [1654]: Briefwechsel mit Pascal, Huygens und Carcavi, abgedruckt in Bd. 2 der „ Œ u v r e s de Pierre de F e r m â t " , herausgegeben von P. T a n n e r y und C. H e n r y , Paris 1891-1922. (Englische Ü b e r s e t z u n g des Briefwechsels durch M . Merrington in David [1962].) Finetli, B. de [1937]: La prévision: ses lois logiques, ses sources subjective. A n n . Inst. Henri Poincaré 7. Englische Ü b e r s e t z u n g mit Ergänzungen in: Kyburg und Smokier [1964]. Finetti, B. de [1972]: Probability, induction and Statistics. L o n d o n - N e w York-Sydney-Toronto. Finetti, B. de [1974]: T h e o r y of probability. A critical introductory t r e a t m e n t . Band 1. London-New Y o r k - S y d n e y - T o r o n t o . Finetti, B. de [1975]: T h e o r y of probability. A critical introductory t r e a t m e n t . B a n d 2. London-New Y o r k - S y d n e y - T o r o n t o . Fisher, R. A. [1921]: O n the mathematical foundations of theoretical statistics. Phil. T r a n s . Roy. Soc. A 222 Fisher, R. A. [1922]: O n the interpretation o f / 2 f r o m contingency tables, and the calculation of P. J. Roy. Stat. Soc. 85. Fisher, R. A. [1924]: T h e conditions under which %2 measures the discrepancy between observation and hypothesis. J. R o y . Stat. Soc. 87. Fisher, R. A. [1925]: T h e o r y of statistical estimation. Proc. C a m b r i d g e Phil. Soc. 22. Fisher, R. A. [1928]: O n a p r o p e r t y connecting the x2 measure of discrepancy with the method of maximum likelihood. Atti Congr. Int. Mat. Bologna 6. Fisher, R. A. [1930]: Inverse probability. Proc. C a m b r i d g e Phil. Soc. 26. Fisher, R. A. [1933]: T h e concept of inverse probability and fiducial probability referring to unknown p a r a m e t e r s . Proc. R o y . Soc. A 139. Fisher, R. A. [1934]: T w o new p r o p e r t i e s o f mathematical likelihood. Proc. Roy. Soc. A 144 Fisher, R. A. [1935J: T h e logic of inductive inference. J. Roy. Stat. Soc. 98. Fisher, R. A. [1935]: T h e fiducial argument in statistical inference. A n n . Eugenics 6. Fisher, R. A. [1946]: A note on fiducial inference. Ann. M a t h . Stat. 10. Fisher, R. A. [1950]: C o n t r i b u t i o n s to mathematical statistics. New Y o r k - L o n d o n . Fisher, R. A. [I960]: T h e design of experiments. 7. Auflage. E d i n b u r g h - L o n d o n . (1. Auflage 1935) Fisher, R. A. [1973]: Statistical m e t h o d s and scientific inference. 3. Auflage. E d i n b u r g h L o n d o n (1. Auflage 1956) Fisher, R. A. [1973]: Statistical m e t h o d s for research workers. 14. A u f l a g e . E d i n b u r g h - L o n don. (1. Auflage 1925) Fisz, M. [1980J: Wahrscheinlichkeitsrechnung und mathematische Statistik. 10. Auflage. Berlin. (1. Auflage 1958) Fraser, D. A. S. [1968J: T h e structure of inference. New Y o r k - L o n d o n - S y d n e y . Frohn, J. [1995J: G r u n d a u s b i l d u n g in Ö k o n o m e t r i e . 2. A u f l a g e . Berlin-New York. Gabriel, K. R. [1969]: S i m u l t a n o u s test p r o c e d u r e s - s o m e theory of multiple comparisons. A n n . Math. Stat. 40. Galilei, G. : Edizione Nazionale delle opcre di Galileo Galilei, 21 B a n d e , Florenz 18901909. „Sopra le scopcrte de i d a d i " ist in Band 8 abgedruckt und ins Englische übersetzt durch E . H . T h o r n e in David [ 1962]. Gather, U., J. Pawlitschko u. I. Pigeot [1995]: Unbiasedness of multiple tests. Scand. J. Statistics 22. Gauß, C. F. [1821]: Theoria combinationis observationum erroribus minimus obnoxiae. Göttingen. Gauß, C. F. [1887]: A b h a n d l u n g e n zur Methode d e r kleinsten Q u a d r a t e . Übers, u. Hrsg.: A . Borsch und P. Simon, Berlin. (Nachdruck: W ü r z b u r g 1964). Ghosh, B. K. [1970]: Sequential tests of statistical hypotheses. Reading-Menlo P a r k - L o n d o n - D o n Mills. Gnedenko, B. W. [1965]: L e h r b u c h der Wahrscheinlichkeitsrechnung. 4. Auflage. Berlin. (1. A u f l a g e 1957)
Literaturverzeichnis
351
Gnedenko, B. W. u. A. J. Chintschin [1983]: E l e m e n t a r e E i n f ü h r u n g in die W a h r s c h e i n l i c h k e i t s r e c h n u n g . 12. A u f l a g e . B e r l i n . (1. A u f l a g e 1955) Greenwood, J. A. u. H. O. Hartley [1962J: G u i d e t o t a b l e s in m a t h e m a t i c a l statistics. P r i n ceton. Gupta, S. S. u. S. Panchapakesan [1979]: M u l t i p l e d e c i s i o n p r o c e d u r e s . T h e o r y a n d m e t h o d o l o g y of s e l e c t i n g a n d r a n k i n g p o p u l a t i o n s . N e w Y o r k - L o n d o n - S y d n e y . Haagen, K. u. R. Pertler [1976]: M e t h o d e n d e r S t a t i s t i k . B a n d I. S t u t t g a r t - B e r l i n - K ö l n Mainz. Haagen, K. u. H.-G. Seifert [1979]: M e t h o d e n d e r Statistik f ü r P s y c h o l o g e n . B a n d II. S t u t t gart-Berlin-Köln-Mainz. Hacking, I. [1965]: L o g i c of statistical i n f e r e n c e . C a m b r i d g e . Hacking, I. [1984]: T h e e m e r g e n c e of p r o b a b i l i t y . A p h i l o s o p h i c a l s t u d y of e a r l y i d e a s a b o u t p r o b a b i l i t y , i n d u c t i o n a n d statistical i n f e r e n c e . 2. A u f l a g e . C a m b r i d g e . (1. A u f l a g e 1975) Haid, A. [1990]: A history of p r o b a b i l i t y a n d statistics a n d t h e i r a p p l i c a t i o n s b e f o r e 1750. N e w Y o r k usw. Hansen, G. [1985]: M e t h o d e n l e h r e d e r S t a t i s t i k . 3. A u f l a g e . M ü n c h e n . (1. A u f l a g e 1974) Hansen, M. H., W. N. Hurwitz u. W. G. Madow [1966]: S a m p l e s u r v e y m e t h o d s a n d t h e o r y . V o l . I: M e t h o d s a n d a p p l i c a t i o n s . 7. A u f l a g e . N e w Y o r k - L o n d o n . (1. A u f l a g e 1953) Hansen, M. H., W. N. Hurwitzu. W. G. Madow [ I 9 6 0 ] : S a m p l e s u r v e y m e t h o d s a n d t h e o r y . V o l . II: T h e o r y . 3. A u f l a g e . N e w Y o r k - L o n d o n . (1. A u f l a g e 1953) Härtung, J. [1985]: S t a t i s t i k . L e h r - u n d H a n d b u c h d e r a n g e w a n d t e n S t a t i s t i k . 3. A u f l a g e . M ü n c h e n - W i e n . (1. A u f l a g e 1982) Härtung, J. u. B. Elpelt [1984]: M u l t i v a r i a t e S t a t i s t i k . L e h r - u n d H a n d b u c h d e r a n g e w a n d ten Statistik. M ü n c h e n - W i e n . Heiter, S. [1982]: Z e i t r e i h e n a n a l y s e . H a n d w ö r t e r b u c h d e r W i r t s c h a f t s w i s s e n s c h a f t e n , B a n d 9. S t u t t g a r t - N e w Y o r k - T ü b i n g e n - G ö t t i n g e n - Z ü r i c h . Heinhold, J. u. K.-W. Gaede [1979]: I n g e n i e u r - S t a t i s t i k . 4. A u f l a g e . M ü n c h e n - W i e n . (1. A u f l a g e 1964) Helmert, F. R. [1876]: Ü b e r d i e W a h r s c h e i n l i c h k e i t d e r P o t e n z s u m m e n d e r B e o b a c h t u n g s f e h l e r u n d ü b e r einige d a m i t im Z u s a m m e n h a n g s t e h e n d e F r a g e n . Z . M a t h . P h y s . 21. Hey, J. D. [1983]: D a t a in d o u b t . A n i n t r o d u c t i o n t o B a y e s i a n statistical i n f e r e n c e f o r e c o nomists. Oxford. Hilbert, D. [1900]: M a t h e m a t i s c h e P r o b l e m e . V o r t r a g auf d e m 2. I n t e r n a t i o n a l e n M a t h e m a t i k e r k o n g r e ß Paris. I n : D i e H i l b e r t s c h e n P r o b l e m e ( H r s g . : P. S. A l e x a n d r o f f ) , L e i p zig 1971. Hinderer, K. [1975]: G r u n d b e g r i f f e d e r W a h r s c h e i n l i c h k e i t s t h e o r i e . ( N a c h d r u c k d e r 1. A u f l a g e 1970). B e r l i n - H e i d e l b e r g - N e w Y o r k . Holm, S. [1979]: A s i m p l e s e q u e n t i a l l y r e j e c t i v e m u l t i p l e test p r o c e d u r e . S c a n d . S t a t . 6. Holm, S. [1985]: M u l t i p l e test u n b i a s e d n e s s . In: P r o c e e d i n g s of t h e S e v e n t h C o n f e r e n c e on Probability Theory. Utrecht. Hommel, G. [1982]: E n t w i c k l u n g e i n e r s t a t i s t i s c h e n T e s t s t r a t e g i e f ü r k o m p l e x e m e d i z i n i sche F r a g e s t e l l u n g e n . H a b i l i t a t i o n s s c h r i f t . ( R e p r i n t ) E r l a n g e n . Hommel, G. [1983]: T e s t s of t h e o v e r a l l h y p o t h e s i s f o r a r b i t r a r y d e p e n d e n c e s t r u c t u r e s . Biom. J.25. Hommel, G. [1986]: M u l t i p l e test p r o c e d u r e s f o r a r b i t r a r y d e p e n d e n c e s t r u c t u r e s . M e t r i k a 33,321-336. Hume, D. [1739]: A t r e a t i s e o n h u m a n n a t u r e , b e i n g an a t t e m p t t o i n t r o d u c e t h e e x p e r i m e n t a l m e t h o d of r e a s o n i n g i n t o m o r a l s u b j e c t s . L o n d o n . Hume, D. [1748]: P h i l o s o p h i c a l e s s a y c o n c e r n i n g t h e h u m a n u n d e r s t a n d i n g . ( S p ä t e r e r Titel: A n i n q u i r y c o n c e r n i n g t h e h u m a n u n d e r s t a n d i n g . ) L o n d o n . Huygens, C. [1657]: D e ratiociniis in l u d o a l e a e . I n : E x e r c i t a t i o n u m m a t h e m a t i c a r u m libri q u i n q u e . ( H r s g . : F. A . S c h o d e n ) . A m s t e r d a m . Jeffrey, R. C. [1967]: L o g i k d e r E n t s c h e i d u n g e n . W i e n - M ü n c h e n . Jeffrey, R. C. [1980]: S t u d i e s in i n d u c t i v e logic a n d p r o b a b i l i t y . V o l . II. B e r k e l e y - L o s A n g e l e s - L o n d o n . ( V o l . I: C a r n a p u n d J e f f r e y [1971].)
352
Literaturverzeichnis
Jeffreys, H. [1950]: Theory of probability. Oxford. (1. Auflage: Oxford 1939) Kalbfleisch, J. G. [1979]: Probability and statistical inference. ( B d . I. u. II) New York-Heidelberg-Berlin. Kalbfleisch, J. G. [1979]: Die Prüfung statistischer Hypothesen. Handwörterbuch der mathematischen Wirtschaftswissenschaften, B d . 2: Ökonometrie und Statistik. (Hrsg.: G . Menges) Wiesbaden. Kalbfleisch, J. G. u. D. A. Sprott [1974]: On the logic of tests of significance with special reference to testing significance of Poisson distributed observations. Information, Inference and Decision (Hrsg.: G . Menges). Dordrecht-Holland. Kalbfleisch, J. G. u. D. A. Sprott [1975]: On tests of significance. Foundations and philosophy of statistical theories in the physical sciences, Band 2. (Hrsg.: W. L. Harperund C. A . Hooker). Dordrecht-Holland. Kellerer, H. [1963]: Theorie und Technik des Stichprobenverfahrens. 3. Auflage. München, (1. Auflage 1953) Kendall, M. G., A. Stuart, u.J. K. Ord [1987]: The advanced theory of statistics. Vol. 1: Distribution theory. 5. Auflage. London. (1. Auflage 1958) Kendall, M. G. u. A. Stuart [1979]: The advanced theory of statistics. Vol. 2: Inference and Relationship. 4. Auflage. London. (1. Auflage 1961) Kendall, M. G., A. Stuart u. J. K. Ord [1983]: The advanced theory of statistics. Vol. 3: Design and analysis, and timescries. 4. Auflage. London (1. Auflage 1966.) Keynes, J. M. [1921]: A treatise on probability. London. Kirsch, W., I. Bamberger, E. Gabele u. H. K. Klein [1973]: Betriebswirtschaftliche Logistik. Wiesbaden. Kish, L. [1967]: Survey sampling. 2. Auflage. New York-London-Sydney. (1. Auflage 1965) Kleiter, G. [1984]: Bayes-Statistik. (Grundlagen und Anwendungen). 2. Auflage. BerlinNew Y o r k . ( I . Auflage 1981) Kneale, W. [1966]: Probability and induction. 4. Auflage. Oxford. (1. Auflage 1949) Kockelkorn, U. [1979]: Ein lineares Mehrentscheidungsmodell. Metrika 26. Koller, S. [1969]: Graphische Tafeln zur Beurteilung statistischer Zahlen. 4. Auflage. Darmstadt. (1. Auflage 1940) Kolmogoroff, A. N. [1933]: Grundbegriffe der Wahrscheinlichkeitsrechnung. Ergebnisse der Mathematik und ihre Grenzgebiete, Band 2. Berlin. (Nachdruck 1973) Kolmogoroff, A. N. [1963]: On tables of random numbers. Sankhya Ser. A. 25. Kolmogoroff, A. N. [1965]: Drei Zugänge zur Definition des Begriffes „Informationsgehalt" (in Russisch). Probl. Peredaci Inform. 1. Kreyszig, E. [1982]: Statistische Methoden und ihre Anwendungen. Nachdruck der 7. Auflage. Göttingen. (1. Auflage 1965) Kries, J. von [1886J: Die Prinzipien der Wahrscheinlichkeitsrechnung. Eine logische Untersuchung. Freiburg. Kriz, J. [1983]: Statistik in den Sozialwissenschaften. 4. Auflage. Opladen. (1. Auflage 1973) Krüger, H.-P., W. Lehmacher u. K.-D. Wall [1981]: The fourfold table - Die Vierfeldertafel. Stuttgart-New Y o r k . Kyburg, H. E. [1970]: Probability and inductive logic. London. Kyburg, H. E. u. II. E. Smokier [1964]: Studies in subjective probability. New Y o r k . Lakatos, I. (Hrsg.) [1968]: The problem ofinduetive logic. (Proceedings of the international colloquium in the philosophy of science, London 1965). Amsterdam. Laplace, P. S. de [1812]: Théorie analytique des probabilités. Paris. Laplace, P. S. de [1814]: Essai philosophique sur les probabilités. Paris. Lehmann, E. L. [ 1986]: Testing statistical hypotheses. 2. Auflage. New York-London-Sydney. (1. Auflage 1959) Lehmann, E. L. [1975]: Nonparametrics: Statistical methods based on ranks. San Francisco. Lehmann, E. L. [1991]: Theory of point estimation. Pacific Grove.
Literaturverzeichnis
353
Leibniz, G. W. [1666]: Dissertatio de arte combinatoria. In: Die mathematischen Schriften von G . W. Leibniz, 7 Bände. (Hrsg. C. I. G e r h a r d t ) Hildesheim-New York 1971. Leibniz, G. W. [1678]: De incerti aestimatione. In: O p u s c u l u s e t f r a g m e n t s inédits. (Hrsg.: L. C o u t u r a t ) Paris 1903 (Nachdruck: Hildesheim 1961). Leiner, B. [1985]: Stichprobentheorie. M ü n c h e n . Liebermann, G. J.u. D. B. Owen [ 1971]: Tables of the hypcrgeometric probability distribution. 2. Auflage. Stanford. (1. A u f l a g e 1961) Lindley, D. V. u. W. F. Scott [1984]: New C a m b r i d g e elementary statistical tables. C a m bridge. Linnik, J. V. [1968]: Statistical p r o b l e m s with nuisance parameters. Providence. R h o d e Island. ( Ü b e r s e t z u n g aus dem Russischen.) Ljapunoff A. M. [1901]: Nonvellc f o r m e du t h é o r è m e sur la limite de probabilité. M e m . A c a d . Sei. St. Petersburg 12. Loéve, M. [1977]: Probability theory. Vol. I. 4. Auflage. New York-Heidelberg-Berlin. (1. A u f l a g e 1955 einbandig) Loéve, M. [1978]: Probability theory. Vol. II. 4. Auflage. New York-Heidelberg-Berlin. (1. A u f l a g e 1955 einbändig) Maaß, S., H. Mürdteru. H. Rieß [1983]: Statistik f ü r W i r t s c h a f t s - u n d Sozialwissenschaftler II (Induktive Statistik). Berlin-Heidelberg-New Y o r k - T o k y o . Markoff, A. A. [1906]: Verallgemeinerung des Gesetzes der großen Z a h l e n auf abhängige Ereignisse (in Russ.). Bull. Soc. Phys. M a t h . Kazan 2. Markoff, A., A [1912]: Wahrscheinlichkeitsrechnung. Leipzig. Martin-Löf, P. [1966]: The definition of r a n d o m sequences. Inform. Control 6. Martin-Löf, P. [1970]: On the notion of r a n d o m n e s s . In: Intuitionism Proof T h e o r y . Proc. S u m m e r C o n f . Buffalo N . Y . 1968. Menges, G. [1972]: G r u n d r i ß der Statistik. Teil 1: T h e o r i e . 2. Auflage. O p l a d e n . (1. Auflage 1968) Menges, G. [1982]: Die Statistik. Zwölf Stationen des statistischen Arbeitens. W i e s b a d e n . Menges, G. u. H. J. Skala | 1973]: G r u n d r i ß der Statistik. Teil 2: D a t e n . O p l a d e n . Mill, J. S. [1843]: A system of logic, ratiocinativ and induktive. Being a connected view of the principles of evidence and the m e t h o d of scientific investigation. L o n d o n . (Deutsche Ü b e r s e t z u n g durch T. G o m p e r z , Leipzig 1872/73. Siehe auch: Collected papers 1973/74.) Miller, R. G. [1981]: Simultanous statistical inference. 2. Auflage. (Incl. „ D e v e l o p m e n t s in multiple comparisons 1966-1976). New York-Heidelberg-Berlin. Mises, R. von [1919]: G r u n d l a g e n der Wahrscheinlichkeitsrechnung. M a t h . Z . 5 Mises, R. von [1928]: Wahrscheinlichkeit, Statistik und Wahrheit. E i n f ü h r u n g in die neue Wahrscheinlichkeitslehre und ihre A n w e n d u n g . Wien. (4. A u f l a g e : Wien-New York 1972) Mises, R. von [1941]: On the f o u n d a t i o n s of probability and statistics. A n n . M a t h . Stat. 12. Moivre, A. de [ 1718]: The doctrine of chances or a m e t h o d of calculating the probabilities of events in play. L o n d o n . (2. A u f l a g e 1738, 3. A u f l a g e 1756) Nagel, E., P. Suppes u. A. Tarski (Hrsg.) [1962]: Logic, Methodology and Philosophy of Science. Stanford. Neyman, J. [1930]: Contributions to the theory of certain tests criteria. Bull. Int. Statist. Inst. 24. Neyman, J. [1935]: Sur la verification des hypothèses statistiques composées. Bull. Soc. M a t h . France 63. Neyman, J. [1935]: O n the problem of confidence intervals. A n n . M a t h . Stat. 6. Neyman, J. [1937] : Outline of a theory of statistical estimation based on the classical theory of probability. Phil. Trans. R o y . Soc. A 236. Neyman, J. [1941]: Fiducial a r g u m e n t and the theory of confidence intervals. Biometrika 32. Neyman, J. [1942]: Basic ideas and some recent results of the theory of testing statistical hypotheses. J. Roy. Stat. Soc. 105. Neyman, J. [1954]: First course in probability and statistics. 2. Auflage. New Y o r k . (1. Auflage 1950)
354
Literaturverzeichnis
Neyman, J. [1966]: A selection of early statistical p a p e r s of J. N e y m a n . C a m b r i d g e . Neyman, J. u. E. S. Pearson [1928]: O n the use and interpretation of certain test criteria for the p u r p o s e s of statistical inference. Biometrika 20 A . Neyman, J. u. E. S. Pearson [1933]: On the problem of the most efficient tests of statistical hypotheses. Phil. T r a n s . Roy. Soc. A 231. Neyman, J. u. E. S. Pearson [1936]: Sufficient statistics and uniformly most p o w e r f u l tests of statistical hypotheses. Statist. Res. Mem. 1. Neyman, J. u. E. S. Pearson [1936]: Contributions to the theory of testing statistical hypotheses, part 1. Statist. Res. M e m . 1. Neyman, J. u. E. S. Pearson [1938]: Contributions to the theory of testing statistical hypothesis, part 2. Statist. Res. M e m . 2. Neyman, J. u. E. S. Pearson [1967]: Joint statistical p a p e r s of J. N e y m a n and E. S. P e a r s o n . Cambridge. Nourney, M [1981]: O p t i m u m stratification with lognormal distributions. Paper p r e s e n t e d to the 43. Session of the International Statistical Institut. Owen, D. B. [1962]: H a n d b o o k of statistical tables. Reading Mass.-Palo A l t o - L o n d o n . Pascal, B. [1963]: Œ u v r e s complètes. (Hrsg.: L. L a f u m a ) Paris. Pearson, E. S. [1938]: T h e probability integral t r a n s f o r m a t i o n for testing goodnes of fit and combining i n d e p e n d e n t tests of significance. Biometrika 30. Pearson, E. S. [1947]: T h e choice of statistical tests illustrated in the interpretation of data classed in a 2 x 2 - t a b l e . Biometrika 34. Pearson, E. S. [1962]: Diskussionsbeitrag in: B a r n a r d , G . A . , M. Jenkins und C . B. Winsten [1962], Pearson, E. S. [1966J: T h e selected papers of E . S. P e a r s o n . Cambridge. Pearson, E. S. u. H. O. Hartley [1966]: Biometrika tables for statisticians. Vol. I, 3. Auflage, C a m b r i d g e . (1. A u f l a g e 1954) Pearson, E. S. u. H. O. Hartley [1972]: Biometrika tables for statisticians. Vol. II, C a m b r i d gePearson, E. S. u. M. G. Kendall [1970]: Studies in the history of statistics and probability. London. Pearson, K. [1900]: O n the criterion that a given system of deviations from the p r o b a b l e in the case of a correlated system of variables is such that it can be reasonably supposed to have arisen in r a n d o m sampling. Phil. Mag. V 50. Pearson, K. [1902]: O n the systematic fitting of curves to observations and m e a s u r e m e n t s , part I and II. Biometrika 1. Pearson, K. [1911]: O n the probability, that two i n d e p e n d e n t distributions of frequency are really samples f r o m the same population. Biometrika 8. Pearson, K. [1948]: Karl Pearson's early statistical papers. Cambridge. Pfanzagl, J. [1994]: P a r a m e t r i c statistical theory. Berlin-New Y o r k . Pfanzagl, J. [1983]: Allgemeine M e t h o d e n l e h r e d e r Statistik. Band I. 6. A u f l a g e . BerlinNew York. (1. A u f l a g e 1960) Pfanzagl, J. [1978]: Allgemeine M e t h o d e n l c h r e d e r Statistik. Band II. 5. A u f l a g e . BerlinNew York. (1. A u f l a g e 1962) Phillips, L. D. [1973]: Bayesian statistics for social scientists. L o n d o n . Poisson, S. D. [1837]: Recherches sur la probabilité de j u d g e m e n t s . Paris. Popper, K. R. [1935]: „Induktionslogik" und „Hypothesenwahrscheinlichkeit". E r k . 5. Popper, K. R. [1954): D e g r e e of confirmation. Brit. J. Phil. Scie. 7. Popper, K. R. [1959]: T h e propensity interpretation of probability. Brit. J. Phil. Scie. 10. Popper, K. R. [1971]: Logik der Forschung. Z u r E r k e n n t n i s t h e o r i e der m o d e r n e n Naturwissenschaft. 4. A u f l a g e , T ü b i n g e n . (1. A u f l a g e Wien 1935) Raj, D. [1968]: Sampling theory. New York-St. Louis-San Francisco-Toronto-London-Sydney. Ramsey, F. P. [1926]: T r u t h and probability. In: T h e f o u n d a t i o n s of mathematics and other logical essays (Hrsg. R . B . Braithwaitc). 2. A u f l a g e , L o n d o n 1978. (Deutsche Ü b e r s e t zung: G r u n d l a g e n ; A b h a n d l u n g e n zur Philosophie, Logik, M a t h e m a t i k und Wirtschaftswissenschaft. Stuttgart-Bad Cannstadt 1980).
Literaturverzeichnis
355
Reichenbach, H. [1930]: Kausalität und Wahrscheinlichkeit. Erkenntis 1. Reichenbach, H. [1932]: Axiomatik der Wahrscheinlichkeitsrechnung. Math. Z. 34. Reichenbach, H. [1935]: Wahrscheinlichkeitslehre. Eine Untersuchung über die logischen und mathematischen Grundlagen der Wahrscheinlichkeitsrechnung. Leiden. (Englische Übersetzung: The theory of probability. Berkeley-Los Angeles 1949 und 1971.) Reichenbach, H. [1983]: Gesammelte Werke Band 4: Erfahrung und Prognose. Braunschweig. Rényi, A. [1969]: Briefe über die Wahrscheinlichkeit. Basel-Stuttgart. Rényi, A. [1970]: Probability théorie. Amsterdam-London. (Englischsprachige erweiterte Fassung der „Wahrscheinlichkeitsrechnung", 2. Auflage, Berlin 1966, und „Calcul des probabilités. Paris 1966.) Rényi, A. [1971]: Wahrscheinlichkeitsrechnung mit einem Anhang über Informationstheorie. 3. Auflage, Berlin 1971. (1. Auflage 1 9 6 2 : 2 . Auflage 1966) Révész, P. [1967]: The laws of large numbers. Budapest. Révész, P. [1968]: Die Gesetze der großen Zahlen. Basel. (Übersetzung von Rcvész [1967].) Révész, P. (Hrsg.) [ 1975]: Limit theorems of probability theory. Budapest. Richter, H. [1966]: Wahrscheinlichkeitstheorie. 2. Auflage. Berlin-Heidelberg-New Y o r k (1. Auflage 1956) Richter, H. [1972]: Eine einfache Axiomatik der subjektiven Wahrscheinlichkeit. Puhl. Inst. Nat. Alta Math. 9. Rinne, H. [1976]: Ökonometrie. Stuttgart-Bcrlin-Köln-Mainz. Rüger, R. [1978a]: Das maximale Signifikanzniveau des Tests „Lehne H„ ab, wenn k unter n gegebenen Tests zur Ablehnung führen". Metrika 25. Rüger, B. [1978bJ: Niveauprofiltests. Konstruktionsprinzip von Alternativtests mit endlicher Ergebnismenge. Forschungsbericht aus dem Institut für Statistik und Wissenschaftstheorie der Universität München. Rüger, B. [1980]: Alternativtests für zwei einfache Hypothesen mit endlich vielen Ergebnissen. Metrika 27. Rüger, B. [1981]: Scharfe untere und obere Schranken für die Wahrscheinlichkeit der R e a lisation von k unter n Ereignissen. Metrika 28. Sachs, L. [1984]: Angewandte Statistik. 6. Auflage. Berlin-Heidclberg-Ncw Y o r k - T o k y o . (Früherer Titel: Statistische Auswertungsmethoden. 1. Auflage 1968.) Savage, L. J. [1954]: The foundations of statistics. New York-London. Savage, L. J. [1959]: Subjektive probability and statistical practice. Chicago. Savage, L. J. (Hrsg.) [1970]: The foundations of statistical inference. A discussion. London. (1. Auflage 1962) Schäffer, K.-A. [1971]: Optimale Schichtabgrenzung bei logarithmischer Normalverteilung. Metrika 17. Schaich, E. [1977]: Schätz- und Testmethoden für Sozialwissenschaftler. München. Schaich, E., D. Kohle, W. Schweitzer u. F. Wegner [1979]: Statistik I für Volkswirte, Betriebswirte und Soziologen. 2. Auflage. München. (1. Auflage 1974) Schaich, £., D. Köhle, W. Schweitzer u. F. Wegner [1982]: Statistik II für Volkswirte, Betriebswirte und Soziologen. 2. Auflage. München. (1. Auflage 1975) Schlingen, R. u. B. H. J. Streitherg [1995]: Zeitreihenanalyse. 6. Auflage. München-Wien. Schmetterer, L. [1974]: Mathematische Statistik. Wien-New Y o r k (1. Auflage 1956) Schneeberger, H. [1971]: Optimierung in der Stichprobentheorie durch Schichtung und Aufteilung. Unternehmensforschung 15. Schneeberger, H. [1973]: Optimale Aufteilung des Stichprobenumfanges bei mehreren Merkmalen. Metrika 20. Schneeberger, H. [1979]: Saddle-Points of the variance of the sample mean in stratified sampling. Sankhya C 41. Schneeweiß, H. [1967]: Entscheidungskriterien bei Risiko. Berlin-Heidelberg-New Y o r k . Schneeweiß, H. [1978]: Ökonometrie. 3. Auflage. Würzburg-Wien. (1. Auflage 1971) Schnorr, C.P. [1969]: Eine Bemerkung zum Begriff der zufälligen Folge. Z. Wahrsch. verw. G e b . 14.
356
Literaturverzeichnis
Schnorr, C. P. [1971]: Zufälligkeit und Wahrscheinlichkeit. E i n e algorithmische Begründung der Wahrscheinlichkeitstheorie. Berlin-Heidelberg-New Y o r k . Schönfeld, P. [1969]: M e t h o d e n der Ö k o n o m e t r i e . B a n d I: Lineare Regressionsmodelle. Berlin-Frankfurt/M. Schönfeld, P. [1971]: M e t h o d e n der Ö k o n o m e t r i e . B a n d II: Stochastische Regressoren und simultane G l e i c h u n g e n . M ü n c h e n Schwarz, H. [1975]: Stichprobenverfahren. Ein L e i t f a d e n zur A n w e n d u n g statistischer Schätzverfahren. München-Wien. Sonnemann, E. (Hrsg.) [1981]: Simultane H y p o t h e s e n p r ü f u n g e n . Tagungsbericht des Biometrischen Seminars der Region Österreich-Schweiz der internationalen biometrischen Gesellschaft in Bad Ischl. Sonnemann, E. [1982]: Allgemeine Lösungen multipler T e s t p r o b l e m e . E D V in M e d . u. Biol. 13. Spiegel, M. R. [1983]: Statistik. Nachdruck d e r 1. A u f l a g e 1976. ( Ü b e r s e t z u n g des englischsprachigen „ T h e o r y and problems of Statistics" [1961, 1975].) Stange, K. [I960]: Die zeichnerische Ermittlung d e r besten Schichtung einer G e s a m t h e i t (bei p r o p o r t i o n a l e r Aufteilung) mit Hilfe der L o r e n z k u r v e . U n t e r n e h m e n s f o r s c h u n g 4. Stange, K. [1961]: Die beste Schichtung einer G e s a m t h e i t bei optimaler Aufteilung der Probe. (Zweite Mitteilung). U n t e r n e h m e n s f o r s c h u n g 5. Stegmüller, W. [1973]: Personelle und statistische Wahrscheinlichkeit. 1. H a l b b a n d : Personelle Wahrscheinlichkeit und rationale E n t s c h e i d u n g . 2. H a l b b a n d : Statistisches Schließen - Statistische B e g r ü n d u n g - Statistische Analyse. Berlin-Heidelberg-New York. ( A u c h erschienen in fünf Studienausgaben A - E ) Stenger, H. [1971]: Stichprobentheorie. Würzburg-Wien. Student (W. S. Cosset) [1908]: T h e probable error of a m e a n . Biometrika 6. Student (W. S. Cosset) [1942]: Student's collected papers. (Hrsg.: E. S. Pearson u. J. Wishart.) London. Sukhatme, P. V. u. B. V. Sukhatme [1970]: Sampling theory of surveys with applications. 2. Auflage. A m e s . (1. Auflage 19) Tocher, K. D. [1950]: Extension of the Neyman-Pearson theory of tests to discontinuus variates. Biometrika 37. Todhunter, I. [1865]: A history of the mathematical theory of probability from the time of Pascal to that of Laplace. L o n d o n - C a m b r i d g e . ( N a c h d r u c k : New York 1949.) Tschebyscheff, P. L. [1936]: Wahrscheinlichkeitstheorie (in Russisch). Moskau. Uhlmann, W. [1982]: Statistische Oualitätskontrolle. E i n e E i n f ü h r u n g . 2. Auflage. Stuttgart. (1. A u f l a g e 1966) Venn, J. [1866]: T h e logic of chance. An essay on the f o u n d a t i o n s an providence of the theory of probability, with especial reference to its logical bearings and its application to moral and social science and to statistics. London. (3. Auflage 1888. Nachdruck: New York 1962.) Ville, J. [1939]: E t u d e critique de la notion d e collectif. Paris. Waismann, F. [1930]: Logische Analyse des Wahrscheinlichkeitsbegriffes. E r k e n n t n i s 1. Wald, A. [1937]: Die Widerspruchsfrciheit des Kollektivbegriffs in der Wahrscheinlichkeitsrechnung. Ergebnisse eines math. Kolloquiums 8. (Auch in Wald [1955].) Wald A. [1947]: Sequential analysis. New Y o r k . Wald A. [1955]: Selected papers in statistics and probability by A b r a h a m Wald. New Y o r k . (Nachdruck 1957) Wald A. [1971]: Statistical decision functions. 2. A u f l a g e . New York. (1. Auflage 1950) Wassmer, G. [1993]: Niveauprofiltests f ü r z u s a m m e n g e s e t z t e H y p o t h e s e n . Dissertationsarbeit am Institut f ü r Statistik und Wissenschaftstheorie der Universität M ü n c h e n . Wassmer, G. [1994]: Testing equivalence in clinical trials using a new principle for constructing statistical tests. C o m m . in Statistics 23. Weichselberger, K. [1977]: P r ü f u n g statistischer H y p o t h e s e n . H a n d w ö r t e r b u c h d e r Wirtschaftswissenschaft, B a n d 7. Stuttgart-New Y o r k - T ü b i n g e n - G ö t t i n g e n - Z ü r i c h . Weintraub, S. [1963]: Cumulative binomial probability for small values of p. L o n d o n .
Literaturverzeichnis
357
Welch, B. L. [1938]: The significance of the different between two m e a n s when the population variances are unequal. Biometrika 29. Welch, B. L. [1947]: The generalisation of „ S t u d e n t ' s " problem when several different population variances are involved. Biometrika 34. Wetherill, G. B. [1975]: Sequential m e t h o d s in statistics. 2. Auflage. L o n d o n . (1. Auflage 1966) Wetzel, W. [1973]: Statistische G r u n d a u s b i l d u n g für Wirtschaftswissenschaftler. Teil 2: Schließende Statistik. Berlin-New Y o r k . Wetzel, W., M.-D. Jöhnk u. P. Nacve [1967]: Statistische Tabellen. Berlin. Whewell, W. [1837]: History of the inductive sciences (3 Bdc). L o n d o n . (3. Auflage 1857, Nachdruck 1967.) Whewell, W. [1840]: The philosophy of the inductive sciences, f o u n d e d upon their history. (2 Bde.) L o n d o n . (2. A u f l a g e 1847, Nachdruck 1967) Witting, H. [1985]: Mathematische Statistik I. Parametrische V e r f a h r e n bei festem Stichp r o b e n u m f a n g . Stuttgart. Witting, H. u. G. Nolle [1970]: A n g e w a n d t e mathematische Statistik. Stuttgart. Witling, H. u. U. MiUler-Funk [1995]: M a t h e m a t i s c h e Statistik IL Asymptotische Statistik: Parametrische Statistik und nichtparametrische Modelle. Stuttgart. Wright, G. H. de [1951]: A treatise on induction and probability. L o n d o n . Wright, G. H. de [1965]: T h e logical problem of induction. O x f o r d . Yamane, T. [1967]: E l e m e n t a r y sampling theory. New Y o r k . Yamane, T. [1973]: Statistics. A n introductory analysis. 3. Auflage. New Y o r k - E v a n s t o n San Francisco-London. (1. A u f l a g e 1964) Yamane, T. [1976]: Statistik. Ein e i n f ü h r e n d e s L e h r b u c h . Band 1 und 2. F r a n k f u r t . ( Ü b e r setzung von Y a m a n e [1973].) Yule, G. U. [1912]: On the m e t h o d s of measuring association between two attributes. J. Roy. Stat. Soc. 75. Yule, G. U. [1971]: Statistical papers of G e o r g e U d n y Yule. (Hrsg.: A . S t u a r t u . M. G . Kendall). L o n d o n . Zacks, S. [1971]: T h e theory of statistical inference. New Y o r k - L o n d o n - S y d n e y - T o r o n t o . Zellner, A. [1971]: A n introduction to Bayesian inference in econometrics. N e w Y o r k - L o n don-Sydncy-Toronto. Zindler, H. J. [1956]: Ü b e r Faustregeln zur optimalen Schichtung bei Normalverteilung. Allg. Stat. A r c h . 40.
Literaturhinweise (Mathematisch anspruchsvollere Werke sind mit * gekennzeichnet. U n t e r 1) werden nur L e h r b ü c h e r für Leser mit geringen Mathematikkenntnissen a n g e g e b e n . ) 1) Einführung
in die induktive
Statistik Menges [1972,1982] Menges u . S k a l a [1973] Pfanzagl [1983,1978] Sachs[1984] Schaich [1977] Schaich, Köhle u . a . [1979,1982] Spiegel [1983] Wetzel [1973] Y a m a n e [1973,1976]
A n d e r s o n , P o p p u.a. [1976] B a m b e r g u . Baur[1984] Bortz [1985] H a a g e n u . Pertier [1976] H a a g e n u . S e i f e r t [1979] H a n s e n [1985] H ä r t u n g [1985] Kreyszig[1982] Kriz [1983] M a a ß , M ü r d t e r u. Rieß [1983] 2) Grundlagen der statistischen schaftstheoretisch orientierter
Inferenz (einschl. historisch, Werke über Wahrscheinlichkeit
B a r n a r d u. Cox [1962] B a r n e t t [1982] C a r n a p [1967] C a r n a p u. J e f f r e y [1971] C a r n a p u. Stegmüller [1972] David [1962] Esslcr [1970] Finetti de [1972] Fisher [ 1935] Fräser [1968] Hacking [1965,1975] Haid [1990] 3)
Jeffrey [1967.1980] Jeffreys [1950] Keynes [1921] Kneale [1966] Lakatos [1968] Pearson u. Kendall [1970] P o p p e r [1971] Savage [1954, 1959, 1970] Stegmüller [ 1973] T o d h u n t e r [1865. 1949] Whewell [1837, 1840] Wright de [1951, 1965]
Wahrscheinlichkeitsrechnung
* B a u e r [1978] B r e i m a n [1969] S: Feller [1968, 1971] Finetti de [1974, 1975] Fisz [1980] * G n e d e n k o [1965] 4)
philosophisch oder und Induktion)
G n e d e n k o u . Chintschin [1983] *Hinderer [1975] Kendall u . S t u a r t [1977] *Loéve [1977, 1978] *Rényi [1970, 1971] *Richter [1966]
Stichprobentheorie
C o c h r a n [1972,1977] D e m i n g [1961] H a n s e n , Hurwitz u. M a d o w [ 1 9 6 6 , 1960] Kellerer [1963] Kish [1967] 5) Klassische Schütz- und B a r n a r d u. S p r o t t [ 1979] Casella u. Borger [1990] ; C o x u . Hinkley [1974] s C r a m é r [1974] s Ferguson[1969] Fisz [1980]
Leiner [1985] R a j [1968] Schwarz [1975] Stenger [ 1971] Sukhatme u. S u k h a t m e [1970]
Testtheorie; Einführung
in die mathematische
' L e h m a n n [1991, 1986] Pfanzagl [1994] Savage[1968] *Schmetterer [1874] U h l m a n n [1982] Weichselberger [ 1977]
Statistik
wissen-
Literaturhinweise Heinhold u. Gaede[1979] Kalbfleisch [1979] Kendall u.Stuart [1979]
*Witting [1978] *Wittingu. Nolle [1970] * Zacks [1971]
und die unter 1) genannten Lehrbücher. 6) Bayessche Inferenz; statistische
Entscheidungstheorie
Bamberg [1972] *Boxu. Tiao [1973] C h e r n o f f u . Moses [1970] DeGroot [1970] * Ferguson [1969] Hey [1983] 7)
Kleiter [1984] Phillips [1973] Schneeweiß [1967] Wald [1971] Zellner [1971]
Likelihood-lnferenz
Edwards [1972], Hacking [1965], Stegmüller [1973] Teil III 8) Sequentialanalyse;
Verallgemeinerungen
Ghosh [1970] Gupta u. Panchapakesan [1979] Miller [1981]
der klassischen
Testtheorie
Uhlmann [1982] Abschn. 4.4 Wald [1947] Wetherill [1975]
9) Tafeln Aiken [1955] Greenwood u. Hartley [1962] Koller [1969] Krüger, Lehmacheru. Wall [1981] Liebermann u. Owen [1971]
Lindley u.Scott [1984] Owen [1962] Pearson u. Hartley [1966,1972] Weintraub [1963] Wetzel, Jöhnk u. Neave [ 1967]
Namensverzeichnis
A i k e n , H. H . 2 1 1 A n d e r s o n , T . W . 171 B a c o n , F. 5 B a m b e r g , G . 234 B a r n a r d , G . A . 233 Bayes,T. 6,23f B e r g e r , R . L . 171 Bernoulli, J. 6 , 8 0 B e r n s t e i n , S. N . 133 B i r n b a u m , A . 233 B o x , G . E . P. 171 Bravais, A. 9 B r o g g i , U . 11 C a r n a p , R . 5, 16 C a s e l l a , G . C . 171 C h e r n o f f , H . 234 C h i n t s c h i n , A . J. 9 C h u r c h , A . 11 C l o p p e r , C. J . 211 Copeland, A . H . I I Cox, D . R. 1 7 1 , 1 8 5 , 2 3 3 C r a m e r , H. 1 7 1 , 2 0 6 , 2 5 1 , 2 8 6 , 2 8 8 , 2 9 1 , 295,296 D a l e n i u s , T . 124 D a r w i n , C. R . 9 E d w a r d s , A . F. 2 3 4 Essler, W . K . 5 F e l l e r , W . 69 F e r g u s o n , T . S. 2 3 4 , 2 5 1 , 3 0 3 , 3 0 4 F e r m a t , P. d e 6 F i n e t t i , B. d e 15 F i s h e r , R . A . 5 , 9 , 148, 190, 1 9 2 , 2 0 6 , 2 3 3 . 279,288,291,299 Fisz, M . 2 0 2 , 2 9 1 , 3 0 4 F r o h n , J. 171 G a b r i e l , K. R . 3 0 4 Galilei, G. 5 G a l t o n , F. 9 G a t h e r , U . 304 G a u ß , C . F. 9 , 1 8 7 G h o s h , B. K . 304 G ö s s e t , W . S. ( „ S t u d e n t " ) 9, 199 G u p t a , S . S . 303 G u r n e y . M . 124 Hacking, 1.5,234 Haid, A. 6 Hartley, H. 0 . 2 1 1 H ä r t u n g , J. 213 H e i l e r , S. 171 H e l m e r t , F. R . 9 , 2 0 3 , 2 0 6 H i l b e r t , D . 11 H i n d e r e r , K. 159
Hinkley, D . V . 171,185 H o d g e s , J . L . 124 H o l m , S. 3 0 4 H o m m e l , G . 304 H u m e , D. 5 Huygens, C. 6 Jeffrey, R. C. 5 J e n k i n s , G . M . 171 J ö h n k , M . - D . 141 K a l b f l e i s c h , J. G . 233 Kendall, M . G . 171,299,304 K e y n e s , J. M . 16 K i r s c h , W . 17 Kneale, W. 5 K o c k e l k o r n , U . 3.03 K o l l e r , S. 211 Kolmogoroff, A. N. 6 , 9 , 11,12,14 K r e y s z i g , E . 285 K r i e s , J. v o n 1 1 , 1 6 L a k a t o s , I. 5 L a p l a c e , P. S. d e 6 , 7 , 8 , 1 2 , 1 7 , 8 7 L e h m a n n , E . L. 1 7 1 , 2 5 1 L e i b n i z , G . W . 16 L i e b e r m a n n , G. J. 141,279 L i n n i k . J . V . 263 Ljapunoff, A. M. 9,87 Markoff, A. A. 9 M a r t i n - L ö f , P. 11 Mère, A. de 6,28 Mill, J . S. 5 M i l l e r , R . G . 304 M i s e s , R . v o n 6, 8 , 1 0 , 1 1 , 12, 14, 16 Moivre, A. de 6 , 9 , 14,87 M o s e s , L. E . 234 M ü l l e r - F u n k , U . 171 N a e v e , P. 141 N e y m a n , J . 9 , 14, 1 9 2 . 2 3 3 , 2 4 0 , 2 5 1 Nolle, G. 171,270,286,288,291 N o u r n e y , M . 124 O r d , J . K. 171 O w e n , D. B. 141,279 Panchapakesan,S.303 P a s c a l , B. 6 , 2 8 P a w l i t s c h k o , J. 304 P e a r s o n , E . S. 9 , 1 4 , 2 3 3 , 2 4 0 , 2 5 1 , 3 0 2 Pearson, K. 9 , 2 0 3 , 2 0 6 , 2 1 1 , 2 3 3 , 240,286 Pfanzagl. J. 171,203,211 P i g e o t , I. 3 0 4 P o i s s o n , S. D . 9 , 6 6 , 8 8 P o p p e r , K. R . 5 , 1 6 R a m s e y , F. P . 15 R c i c h c n b a c h , H . 5, 11
Namensverzeichnis Renyi, A . 6 , 1 3 2 , 1 5 9 Revesz, P. 132 R i c h t e r , H. 15 R ü g e r , B . 302,304 Sachs,L.211,213 S a v a g e , L . J. 15 S c h ä f f e r , K . - A . 124 S e h l i n g e n , R. 171 S c h m e t t e r e r , L. 171 S c h n e e b e r g e r , H. 124,127 S c h n e e w e i ß , H. 171,234 Schorr, C. P. 11 Schönfeld, P. 171 S o n n e m a n n , E. 304 Sprott, D . A . 233 S t a n g e , K . 124 Stegmüller, W . 5 Streitberg, B . H . J . 171 Stuart, A . 171,299,304
361
S t u d e n t ^ Gösset T o c h e r , K . D . 299 Tschebyscheff, P. L. 9 , 5 4 U h l m a n n , W . 304 V e n n , J. 11 W a i s m a n n , F. 16 W a l d , A . 9, 11,14, 162,234,304 Wassmer, G . 302 Welch, B . L . 263 Wetherill, G . B . 304 Wetzel, W . 141 Whewell, W . 5 Witting, H . 1 7 1 , 2 5 1 . 2 7 0 , 2 7 9 , 2 8 6 , 2 8 8 , 291 Wright, G . H. de 5 Yule, G. U . 9 Z a c k s , S . 171,185 Zindler, H . J. 124
Sachverzeichnis A Ablehnbereich eines Tests 235,237,238, 243 Additionssatz der Binomialverteilung 65,278 der Normalverteilung 72 der Poissonverteilung 67 für die Varianz 99 für zwei beliebige Ereignisse 19 Aktion 162f, 306 Alternative 234,236,240,241,242,243 Annahmebereich eines Tests 235,237, 247 Anordnungstest 303 Anteil(swert) 59,112,137,166 a posteriori 17 a posteriori Verteilung 152,155,159,166, 306 bei diskreter a priori Verteilung 153ff, 156ff bei stetiger a priori Verteilung 158ff a posteriori Wahrscheinlichkeit 24,25 Approximation der Binomial- durch die Normalverteilung84ff, 87,89,90f, 210f, 276,323f der Binomial- durch die Poisson-Verteilung87ff, 90,211,324 der Chi-Quadrat- durch die Normalverteilung 206f der hypergeometrischen- durch die Binomialverteilung 83f, 89,90,107, 326 der Poisson- durch die Normalverteilung89f, 324 der t- durch die Standardnormalverteilung 199 a priori 17 a priori Verteilung 152,153f, 158f, 165, 166, 306ff a priori Wahrscheinlichkeit 24,25 Arithmetisches Mittel 79ff, 82,138 —> Stichprobenmittel Ausgeartete Verteilung 53 Ausgleichsrechnung 187 Ausschußanteil 22f, 24,245 Auswahl 109, 113 aufs Geratewohl 114 aus einer endlichen Grundgesamtheit 113ff mit Hilfe von Zufallszahlen 118 mit Zurücklegen 109 ohne Zurücklegen 109 periodische 118
systematische 118ff, 134 zufällige 114 —»Zufallsauswahl Auswahlsatz 65,66,84,115,120,121, 125,126,133 Auswahltechniken 118ff Auswahltest 303 Axiome der Wahrscheinlichkeitsrechnung 6, l l f f , 13,14,18 B Bayesianerl53 Bayes-Entscheidungsfunktion 306 Bayes-Risiko 165ff, 306, einer Schätzung 165ff eines Tests 307f Bayes-Schätzung 166,168 Bayessche Formel s.u. Satz von Bayes Bayessche Regel s.u. Satz von Bayes Bayesscher Satzs. u. Satz von Bayes Bayessches Theorem s.u. Satz von Bayes Bayes-Strategie 306 Bayes-Test 307 Bedingte Wahrscheinlichkeit 20,21,23, 24 Behrens-Fisher-Problem 262f Beobachtung einer Stichprobe 139,147f, 152,155, 183f Lernen aus 24,153,161,168 Bernoullisches Theorem s.u. Theorem von Bernoulli Besetzungszahl 286 bei Unabhängigkeit zu erwartende (Unabhängigkeitszahl) 295 beobachtete 286 unter H(J zu erwartende 286 Bias 174 Binomialkoeffizient 2,60,63,65 Binomial-Test 270ff, 335 Einseitiger 274ff - Ablehnbereich 274 - Güteeigenschaft 275 - Gütefunktion 275f - Hypothesen 274 - Unverfälschtheit 275 Prüfgröße 270 Verteilungsannahme 270 Zweiseitiger 270ff -Ablehnbereich 271 - Güteeigenschaft 271 f - Gütefunktion 272ff - H y p o t h e s e n 270
Sachverzeichnis -Verfälschtheit 271,274 B i n o m i a l v e r t e i l u n g 6 , 6 4 f f , 7 6 , 8 3 f f , 92, 107, 1 2 2 , 1 3 8 , 1 4 0 f , 1 4 5 , 1 5 5 , 1 5 9 , 164, 1 7 8 , 2 1 0 , 2 7 0 , 2 7 2 f , 2 7 8 , 3 2 1 f , 328,335 Additionssatz 65,278 Approximationen —»Approximation E r w a r t u n g s w e r t 65 T r ä g e r 64 Varianz 65,216 Verstetigung85 Vertafelung 141,342 B L U - S c h ä t z u n g —> K l e i n s t - Q u a d r a t Schätzung B u c h s t a b e n v e r f a h r e n 120
C h i - Q u a d r a t - A b s t a n d ( x 2 - A b s t a n d ) 286, 288,289,295,339 als A b h ä n g i g k e i t s m a ß 296 als n o r m i e r t e s A b h ä n g i g k e i t s m a ß 296 C h i - Q u a d r a t - A n p a s s u n g s t e s t ( H 0 einfach) 9,285ff, 288,338,339 A b l e h n b e r e i c h 286 B e s e t z u n g s z a h l e n 286 C h i - Q u a d r a t - A b s t a n d 286 F a u s t r e g e l n 286f F r e i h e i t s g r a d e 286 Gruppierung 285,287 H y p o t h e s e n 285 P r ü f g r ö ß e 286 V e r t e i l u n g s a n n a h m e 285 Chi-Quadrat-Anpassungstest (H0 zusamm e n g e s e t z t ) 2 8 7 f f , 338 A b l e h n b e r e i c h 288 B e s e t z u n g s z a h l e n 288 F r e i h e i t s g r a d e 288f geeignete Schätzungen der Parameter 289ff H y p o t h e s e n 287f P r ü f g r ö ß e 288 C h i - Q u a d r a t - M i n i m u m - M e t h o d e 289 m o d i f i z i e r t e 2 8 9 f , 295 C h i - Q u a d r a t - M i n i m u m - S c h ä t z u n g 289 m o d i f i z i e r t e 290 C h i - Q u a d r a t - T e s t f ü r die Varianz 281ff, 337,338 A b l e h n b e r e i c h bei einseitiger Fragestellung 283 A n n a h m e b e r e i c h bei z w e i s e i t i g e r Frag e s t e l l u n g 283 Güteeigenschaft 282,283,284 Gütefunktion 281,284 Hypothesen 282,283 N i c h t r o b u s t h e i t 284 n u i s a n c e - p a r a m e t e r 281
363
P r ü f g r ö ß e 281 U n v e r f ä l s c h t h e i t bei e i n s e i t i g e r F r a g e s t e l l u n g 284 Verfälschtheit bei zweiseitiger Frages t e l l u n g 282 V e r t e i l u n g s a n n a h m e 281 Chi-Quadrat-Unabhängigkeitstest293ff, 339 A b l e h n b e r e i c h 296 B e s e t z u n g s z a h l e n 294f C h i - Q u a d r a t - A b s t a n d 295f Freiheitsgrade 294,297 G r u p p i e r u n g 293 H y p o t h e s e n 293 in V i e r f e l d e r t a f e l n 297f K o n t i n g e n z t a f e l 295 N u l l h y p o t h e s e 294 P r ü f g r ö ß e 295f U n a b h ä n g i g k e i t s z a h l e n 295 V e r t e i l u n g s a n n a h m e 294 Z u s a m m e n h a n g mit x 2 - A n p a s s u n g s t e s t 294 Chi-Quadrat-Verteilung (x2-Verteilung) 9,203f, 282,286 Approximation durch Normalverteil u n g 206 D e f i n i t i o n u n d G e s t a l t 203f E r w a r t u n g s w e r t 204 F r a k t i l 204f, 282f Fraktil-Approximation 207,284 Freiheitsgrad 2 0 4 , 2 8 2 , 2 8 4 , 2 8 6 , 2 8 8 , 294,298 M o d a l w e r t 204 V a r i a n z 204 Vertafelung 346
D D e l p h i - M e t h o d e 17 D i c h o t o m e V a r i a b l e 112f Dichte 37f,41f einer zweidimensionalen Zufallsgröße 97f g e m e i n s a m e 97f D i s k r e t e V e r t e i l u n g 3 5 f , 4 0 f , 43f, 85f, 90, 110 z w e i d i m e n s i o n a l e 93ff
E E f f i z i e n z 177ff —> S c h ä t z u n g a s y m p t o t i s c h e 184 Einfache Hypothese 242,305,307 E i n f a c h e s A l t e r n a t i v p r o b l e m 307 Einpunktverteilung 53 Einseitige Fragestellung 245,254f, 257ff, 260,274ff, 277,300f
364
Sachverzeichnis
Elementarereignis 3 Endlichkeitskorrektur 84 Entscheidung 162 Entscheidungsfunktion 163f, 306 Bayessche 306 bessere 163,306 beste 306 Gütevergleich 163,306 mindestens so gute 163 Entscheidungsregel eines Tests 239ff, 243f Entscheidungstheorie 9,162ff, 306ff frequentistischer Charakter 167,168 objektivistisch orientierte 167,234 subjektivistisch orientierte 168,234 Entscheidungsverfahren 162 Ereignis 3f disjunktes3 elementares 3 , 7 sicheres3,12,18 unabhängiges 26,28 unmögliches 3,18 unvereinbares 3 Ereignisalgebra 4 Ergenismenge 1 Ergebnis 1 Zerlegung einer 19 Erwartungstreuc 175ff —> Schätzung asymptotische 181ff Erwartungswert47ff, 54f der Binomialverteilung 65 der x 2 -Verteilung 204 der Exponentialverteilung 74 der geometrischen Verteilung 49f der Gleichverteilung 49 der Grundgesamtheit 110,111 der hypergeometrischen Verteilung 63 der Normalverteilung 69 der Null-Eins-Verteilung 49 der Poisson-Verteilung 67 der t-Verteilung 256 des Nutzens 15 einer symmetrischen Verteilung 50 Häufigkeitsinterpretation 48 Interpretation als Schwerpunkt 48 Linearität51,98 Exakter Test von Fisher 277ff, 298ff, 336f für die Differenz zweier Wahrscheinlichkeiten 277f - Ablehnbereiche 278f - Güteeigenschaft 279 - H y p o t h e s e n 277 - P r ü f g r ö ß e 278 auf Unabhängigkeit in Vierfeldertafeln 298ff, 340f
- Ein- und zweiseitige Fragestellung 300f - Güteeigenschaft 300 - H y p o t h e s e n 299,300 Exponentialverteilung 73ff, 77,179,323 Erwartungswert 74 Gestalt 74 Lebensdauer73,74 Überlebenswahrscheinlichkeit 74 Wartezeit 73 Wartezeit, durchschnittliche 74 Varianz 179 Voraussetzung 73 Zusammenhang mit Poisson-Verteilung 75 Extremwertverteilungen 73 F Fakultät 60 Faustregel zur Anwendung des Zentralen Grenzwertsatzes 197,202 zur Approximation der Binomialdurch die Normalverteilung 85,87, 210f zur Approximation der Binomialdurch die Poisson-Verteilung 88 zur Approximation der x 2 -Verteilung durch die Normalverteilung 206 zur Approximation der hypergeometrischen durch die Binomialverteilung 84 zur Approximation der Poisson- durch die Normalverteilung 89 zur Approximation der t-Verteilung durch die Standardnormalverteilung 199 Fehler Antagonismus zwischen Fehler 1. und 2. Art 239 einer Schätzung —> Schätzfehler erster Art 235,237,238f, 242f, 246, 278,299,302ff, 307f systematischer 174,214 zufälliger 174,214 zweiter Art 237,238f, 240,243,246, 302f, 307f Fiduzial-Theorie 192 Fisher's Lemma 206 Fisher-Test —» Exakter Test von Fisher Fraktil der Standardnormalverteilung71,87, 194,203,235f, 254 der t-Verteilung 200,203,256 der x 2 -Verteilung 204,207,282f
Sachverzeichnis Freiheitsgrad der Chi-Quadrat-Verteilung 204,206 —» C h i - Q u a d r a t - V e r t e i l u n g d e r t - V e r t e i l u n g 199 —> t - V e r t e i l u n g frequentistisch 139,143,146,167,168, 175,193,233,302 F - T e s t 285 F u n d a m e n t a l l e m m a von N e y m a n und Pearson 251,308 G G a m m a v e r t e i l u n g 73 Gauß-Diffcrenztest 265,269 G a u ß - T e s t , d o p p e l t e r 2 5 9 f , 2 6 3 f , 269, 334 A b l e h n b e r e i c h e 260 für die Differenz zweier Wahrscheinl i c h k e i t e n 2 8 0 f , 337 G ü t e e i g e n s c h a f t 260 H y p o t h e s e n 260 P r ü f g r ö ß e 260 V e r t e i l u n g s a n n a h m e 259 G a u ß - T e s t , e i n f a c h e r 2 3 6 , 2 5 3 f f , 258, 268,310,333 A b l e h n b e r e i c h e 253 f ü r e i n e W a h r s c h e i n l i c h k e i t p 2 7 6 f , 336 G ü t e e i g e n s c h a f t 255 G ü t e f u n k t i o n 2 4 7 f f , 254f, 333 H y p o t h e s e n 253 P r ü f g r ö ß e 253 T r e n n s c h ä r f e 250 Unverfälschtheit 248,254f V e r t e i l u n g s a n n a h m e 253 G e b u r t s t a g s v e r f a h r e n 120 G e n a u i g k e i t e i n e r S t i c h p r o b e 123 e i n e r g e s c h i c h t e t e n S t i c h p r o b e 123 e i n e r K l u m p e n s t i c h p r o b e 129 Geometrische Verteilung36f, 177,318 E r w a r t u n g s w e r t 49f G e s c h i c h t e t e S t i c h p r o b e 122ff, 133, 134, 135,213ff, 230,328f optimal 126f, 220ff, 230,328 p r o p o r t i o n a l 125f, 219ff, 2 3 0 , 3 2 8 Stichprobenmittel 123,125,214 Gesetz der großen Zahlen 6,9,13,79ff, 82,87,89,131f, 146,175,193,229, 329 s c h w a c h e s 81 s t a r k e s 81 G e w i n n e r w a r t u n g 14 Gleichverteilung diskrete 56,154 stetige 3 8 , 3 9 , 4 2 , 1 5 9 , 1 6 6 , 1 7 9 , 2 2 9 - E r w a r t u n g s w e r t 49 - V a r i a n z 54
365
GleichwahrscheinlichkeitsannahmeS, 17,24,25 G l o c k e n k u r v e 68 Grenzwertsatz F i s h e r s c h e r 2 8 8 , 2 9 0 f , 295 für schwach abhängige Zufallsv a r i a b l e n 132 M o i v r e - L a p l a c e s c h e r 87 Poissonscher88f zentraler Zentraler Grenzwertsatz Grundgesamtheit 109,113,115,120,122, 137 Erwartungswert 110,111 externe Varianz einer geklumpten 224 f i k t i v e 110 Häufigkeitsverteilung 110,111 Mittelwert 110,111 Mittlere Standardabweichung einer g e s c h i c h t e t e n 221 Streuungszerlegung einer geschichtet e n 216f V a r i a n z 110 V e r t e i l u n g HOf Z e r l e g u n g in K l u m p e n 128ff Z e r l e g u n g in S c h i c h t e n 122ff G r u n d l a g e n s t a t i s t i s c h e r S c h l ü s s e 139, 233f G r u p p i e r u n g 2 8 5 , 2 9 1 f, 293 G ü t e f u n k t i o n 246ff, 2 5 0 , 3 0 7 des einfachen G a u ß - T e s t s 247ff, 254ff, 333 d e s e i n f a c h e n t - T e s t s 257 d e s e i n s e i t i g e n B i n o m i a l - T e s t s 275f d e s z w e i s e i t i g e n B i n o m i a l - T e s t s 272ff Gütekriterien f ü r K o n f i d e n z i n t e r v a l l e 198 f ü r S c h ä t z u n g e n 1 3 8 , 1 4 0 , 1 4 6 f , 177, 183 f ü r T e s t s 2 3 8 , 2 4 0 , 2 4 4 , 2 5 0 f , 307 G ü t e m a ß einer Schätzung 138,140,144ff, 165,173 Gütevergleich von E n t s c h e i d u n g s f u n k t i o n e n 163,306 von K o n f i d e n z i n t e r v a l l e n 198 v o n S c h ä t z u n g e n 1 4 7 , 1 6 5 f f , 174 von Tests 238,250f,266f
H Häufigkeitsinterpretation d e r o b j e k t i v e n W a h r s c h e i n l i c h k e i t 13f,
80 des E r w a r t u n g s w e r t e s 4 8 , 7 9 , 1 4 6 , 1 7 5 des K o n f i d e n z n i v e a u s 193,195f d e s S i g n i f i k a n z n i v e a u s 241 einer Uberdeckungswahrscheinlichk e i t 143
366
Sachverzeichnis
f ü r Intervallschätzungen 193,195f f ü r Tests 241 H e t e r o g r a d e r Fall 111 H o m o g r a d e r Fall l l l f , 137 H y p e r g e o m e t r i s c h e Verteilung 62ff, 76, 83,138,140f, 145,178,320,328 A p p r o x i m a t i o n —> A p p r o x i m a t i o n als bedingte Verteilung 278 E r w a r t u n g s w e r t 63 T r ä g e r 63 Varianz 6 3 , 2 1 6 V e r t a f e l u n g 141,279 H y p o t h e s e n 16,234 bei einparametrischer Verteilungsa n n a h m e 245 bei einseitiger Fragestellung 245 bei r-parametrischer Verteilungsa n n a h m e 245f bei zweiseitiger Fragestellung 245 einfache 2 4 2 , 3 0 5 z u s a m m e n g e s e t z t e 242
Invarianzeigenschaft 181,185 Induktionsproblem 5 Induktionsschluß 5 Induktive Logik 5 Induktive Statistik 109,114 Intervallschätzung 171,192ff, 198 —»Konfidenzintervall Häufigkeitsinterpretation 193,195f verteilungsfreie 203 K Kardinalskala 31f Kleinst-Quadrat-Schätzung 190f a l s B L U - S c h ä t z u n g 190 als ML-Schätzung 190 als U M V U - S c h ä t z u n g 190 Klumpen 128,217,224,230 K l u m p e n s t i c h p r o b e 119,120,128ff, 133. 134,135,327ff, 332 durchschnittlicher S t i c h p r o b e n u m f a n g 129 Stichprobenmittel 129 K l u m p u n g ( K l u m p e n b i l d u n g ) 129f, 134, 135,222 Klumpungsgewinn 1 2 9 , 1 3 0 , 2 2 5 , 3 2 8 Klumpungsverlust 1 2 9 , 1 3 0 , 1 3 4 , 2 2 5 , 3 3 2 Klumpungseffekt 119,129,222f, 328f, 332f bei gleich g r o ß e n K l u m p e n 225 bei verschieden großen K l u m p e n 226f mittlerer (zu e r w a r t e n d e r ) 129,134, 225f, 231,327f
negativer 130,328 positiver 130 Kollektiv 10 K o l m o g o r o f f s c h e A x i o m e —» A x i o m e der Wahrscheinlichkeitsrechnung K o m b i n a t o r i k 6,59ff Konfidenzaussage 193 Häufigkeitsinterpretation 193,195f K o n f i d e n z b e r e i c h 198,252 Konfidenzintervall 143f, 192ff b e o b a c h t e t e s 193 Beziehung zu Tests 252f einseitiges 213 f ü r den Mittelwert [i 194,198ff, 203, 330 -approximatives 196,202,330 - bei geschichteter Stichprobe 230, 33 lf - L ä n g e 196,197 für die Varianz o 2 203ff, 2 0 5 , 2 0 6 , 3 3 0 für die Wahrscheinlichkeit (den A n teilswert) p 208ff - durch N o r m a l a p p r o x i m a t i o n 209, 210,330 - d u r c h Poisson-Approximation 211 - exaktes nach C l o p p e r - P e a r s o n 211 für die Differenz zweier Mittelwerte 311,334 Häufigkeitsinterpretation 193 Konstruktion durch P i v o t - G r ö ß e n 197 symmetrisches 213 unsymmetrisches 213 zweiseitige 213 Konfidenzniveau 143,192 Häufigkeitsinterpretation 193, 195f Konfidenzschätzung9 ^»IntervallSchätzung Konsistente Schätzung 181ff —» Schätzung Konstruktionsprinzip eines Tests 238, 243 Kontingenztafel 295,297 Konvergenz der Binomial- gegen die Poisson-Verteilung88 der hypergeometrischen gegen die Binomialverteilung 83f stochastischeSO, 132,182 Konzentrationsstichprobe 114 Korrelation 1 0 0 , 1 0 2 , 1 0 3 , 3 2 6 negative 102 positive 102 Korrelationskoeffizient 9 8 , 1 0 0 , 1 0 4 , 1 0 7 , 325,326 als M a ß für linearen Z u s a m m e n h a n g 100,103,107
Sachverzeichnis Symmetrie 100 u n d Winkel zwischen den Regressionsgeraden 105 Korrelationsrechnung9, lOOff Kovarianz 98f, 325 bei verbundenen Stichproben 265,267 im Additionssatz f ü r die Varianz 98 im Korrelationskoeffizienten 100 KQ-Schätzungs.u. Kleinst-QuadratSchätzung ka-Bereich55,71
L a g e p a r a m e t e r 44ff, 51 f Erwartungswert 47ff, 52 Median 45f, 52 Mittelwert 47ff Modalwert 44f, 52 M o d u s 44f Quantil47,52 und Skalenart 51 Lageregel 51 f Laplace-Experiment 7 , 8 , 1 7 , 2 0 , 2 1 , 6 1 Laplacesche Wahrscheinlichkeitsdefinition 6 , 7 , 12,17 Einwand gegen die 11 L e b e n s d a u e r 73,74 Likelihood 148 Likelihood-Funktion 148,149,150,183, 304,305,329f äquivalente 149 als komparatives Plausibilitätsmaß 148,150 und a posteriori Verteilung 157,160 Likelihood-Prinzip 147ff, 148,151,184, 233,239,304,305,308 Likelihood-Quotienten-Test (LQ-Test) 233,305,308 Likelihood-Theorie 9,147f, 149,150, 151,152,184,233,304,308 Linearität des Erwartungswertes 51,98 Lognormalverteilung 73 Lottospiel 2 , 7 6 M Maximum-Likelihood-Methode 151, 183ff, 290,295 für gruppierte W e r t e 290f für ungruppierte Werte 290f Maximum-Likelihood-QuotientenTest (MLQ-Test) 305 Maximum-Likelihood-Schätzungl51, 183ff, 190,229 aus gruppierten Werten 290f aus ungruppierten Werten 290f
367
der Parameter einer Normal verteilung 185 ff des Parameters einer Gleichverteilung 330 des Parameters einer Poisson-Verteilung 329 Güteeigenschaften 184 Mean Square error (MSE) 144ff, 173f, 178,180f, 182f, 187,214,223 als durchschnittlicher Schätzfehler 146 als Kriterium für den Gütevergleich Höf als Risiko bei quadratischer Verlustfunktion 165,166 als Standardgütemaß 145f als Streuungsmaß 146,177 und Überdeckungswahrscheinlichkeit 146 Median 45f, 52 zentrales Intervall 45f Mehrentscheidungsverfahren 303 Mehrstufiger Test 303 Merkmal 31 dichotomes 112f qualitatives 31 Quantifizierung 31 quantitatives 31 Untersuchungs-109 zur Schichtung einer Grundgesamtheit 123f Methode der kleinsten Q u a d r a t e 9,187ff Methode der typischen Fälle 115 Metrische Skala 31f v. Misessche Wahrscheinlichkeitsdefinition 8, lOf, 12 Einwände dagegen 11 Mittelwert —> Erwartungswert Mittlere Lebenserwartung 74 Mittlere quadratische Abweichung 100, 102,103,105 —»Mean Square error ML-Schätzung —> Maximum-Likelihood-Schätzung Modalwert 44f, 52 der a posteriori Verteilung 161,168 Modus —> Modalwert Moivre-Laplacescher Grenzwert 87 Münzwurf 2 , 2 7 , 9 2 , 2 7 2 Multiplikationssatz (-regel) allgemeiner 22,321,326 für unabhängige Ereignisse 26 für unabhängige Zufallsvariablen 35 für zwei beliebige Ereignisse 21 N nichtfrequentistisch 147,151,152,162, 233,304
368
Sachverzeichnis
Niveau-a-Test —»Test zum Niveau a Niveau-Bedingung f ü r Konfidenzintervalle 192,193 f ü r Tests 2 3 8 , 2 4 3 - Ausschöpfung 239,243,247,271,275 Nominalskala 3 1 Normalverteilung 6 , 9 , 6 8 f f , 81f, 132,178, 180,185ff, 1 9 0 , 1 9 4 , 2 3 4 , 2 3 6 , 2 6 8 , 2 7 6 , 280 Additionssatz 72 A p p r o x i m a t i o n d u r c h 84ff, 8 7 , 9 1 , 141f, 1 4 3 , 1 9 9 , 2 0 2 , 2 0 6 f , 209f Definition u n d Gestalt 68 E r w a r t u n g s w e r t 69 Fraktil71,87,194,203,235 Sigma-Regeln 71 Standardisierung 69f S t a n d a r d n o r m a l v e r t e i l u n g 6 9 f , 81 V a r i a n z 69 Vertafelung70f, 77,344 N o r m a l v e r t e i l u n g s a n n a h m e 172,180, 190,194,199,202f, 207,241,253,255, 259f,262,265,268,270,281,284 Nuisance-Parameter 245,256,262,281 f Null-Eins-Verteilung 3 6 , 1 0 7 , 1 3 7 , 1 4 7 , 245 E r w a r t u n g s w e r t 49 Schiefemaß 57 V a r i a n z 53f Nullhypothese 2 3 4 , 2 3 6 , 2 4 0 , 2 4 1 , 2 4 2 N u t z e n f u n k t i o n 15 O Objektivist 1 5 2 , 1 6 7 , 2 3 4 objektivistisch 139, 147,151f, 167f, 193, 233f, 3 0 2 , 3 0 4 O C - K u r v e 246 Operationscharakteristik 246 O p t i m a l e A u f t e i l u n g 125,127f, 220ff, 230,331 Ordinalskala31 P P a r a m e t e r 42 als U m w e l t z u s t a n d 306 L a g e p a r a m e t e r 44ff S t r e u u n g s p a r a m e t e r 44,52ff Parameterraum 242,244,245 P a r a m e t e r t e s t 244ff Pivot-Größe 197f, 1 9 9 , 2 0 4 , 2 1 3 asymptotische 1 9 7 , 2 0 2 , 2 0 7 , 2 0 8 , 2 1 0 Poissonscher G r e n z w e r t s a t z 88f Poisson-Verteilung 9 , 6 6 f f , 87ff, 92,179, 2 1 1 , 2 2 9 , 3 2 2 f , 335 Additionssatz 67
als Verteilung seltener Ereignisse 88 A p p r o x i m a t i o n durch Normalverteilung 89f, 91 E r w a r t u n g s w e r t 67 Intensitätsrate 6 6 , 6 7 T r ä g e r 67 Varianz67,77,322 V e r t a f e l u n g 343 Voraussetzungen 66f Power 250 Prinzip vom unzureichenden G r u n d 17, 24,25,38,154 Prognoseintervall 57 P r o p o r t i o n a l e A u f t e i l u n g 125f, 127f, 219f, 230,331 P r ü f g r ö ß e eines Tests 234,237 geeignete 242f M o n o t o n i e e i g e n s c h a f t 243 Punktschätzung 171 -^»Schätzung
Q Qualitätskontrolle 163f, 245,246 Quantil47 Q u o t e n v e r f a h r e n 114
R R a n d o m i s i e r t e r Test 271 f, 275 R a n d v e r t e i l u n g 94ff Rangskala 3 1 Realisation einer Zufallsgröße 3 1 Regellosigkeitsaxiom 10 Regressionsgerade 102ff, 325 als P r o g n o s e i n s t r u m e n t 103,106 der G r u n d g e s a m t h e i t 191 der Stichprobe 191 und Störgröße (Fehlervariable) 107, 325 Vergleich beider Regressionsgeraden 104f v o n X b z g l . Y103f von Y bzgl. X 102f, 107 Regressionskoeffizient Schätzung 191 vonXbzgl. Y104 von Y bzgl. X 1 0 3 Z u s a m m e n h a n g mit Korrelationskoeffizient 104 Regressionsrechnung 9,102ff Relative Häufigkeit 8 , 1 0 , 1 4 , 1 6 , 8 0 f , 86f, 91,137,139,151,161,166,178,208, 276,280 Risikofunktion 163f, 166f, 306 einer Schätzung 165ff eines Tests 233f, 307f
Sachverzeichnis S Satz von Bayes 6 , 2 3 f , 24f, 153,155,166,306 - V e r a l l g e m e i n e r u n g 158 von der totalen Wahrscheinlichkeit 22,278,299,321 v o n Student 199,256,261 Simultane A n w e n d u n g m e h r e r e r Tests 259,304 Sequentialanalyse 303 Sequentieller Test 303f signifikant 2 3 9 , 2 4 0 , 2 4 3 , 3 0 2 Signifikanzniveau 2 3 5 , 2 3 8 , 2 4 2 , 2 4 3 , 3 0 8 —»Niveau-Bedingung Signifikanztest 238 -n»Test Skalierung 32 Subjektivist 152f, 161,167,234,306 subjektivistisch 152ff, 168,233,234 S t a n d p u n k t 152 G r u n d s a t z p r o g r a m m 152f
Sch Schätzer —» Schätzung Schätzfehler 146,173,174,214 bei optimaler Aufteilung 220ff bei proportionaler Aufteilung 219ff durchschnittlicher 146 in einer geschichteten Stichprobe 218f in einer Klumpenstichprobe 223ff in einer reinen Zufallsauswahl 215f systematische K o m p o n e n t e 174 zu erwartender 146 zufällige K o m p o n e n t e 174 Schätzfunktion —»Schätzung als Entscheidungsfunktion 165 Risiko 165 Schätzkonzept Schätztheorie Schätztheorie 9 entscheidungstheoretische 162ff, 165, 167,168 klassische 139ff, 143,145,147,152, 165,167,168,171,175,184,192,193 Likelihood- 147ff, 150,151,152,168 subjektivistische 152ff, 167f, 168 verschiedene Konzepte 137ff Schätzung (Schätzfunktion) 139,171f als Entscheidungsfunktion 165 asymptotisch effiziente 184 asymptotisch erwartungstreue 181ff, 184 bessere 147,166,174 d e r P a r a m e t e r einer Normalverteilung 178,185ff des Parameters einer Exponentialverteilung 179
369
des Parameters einer geometrischen Verteilung 177 des Parameters einer Poisson-Verteilung179,229,329 effiziente ( U M V U ) 177ff, 180,184,190 einer Varianz 176f, 178,180f eines Anteilswertes (einer Wahrscheinlichkeit) 8 0 , 8 6 , 1 3 8 , 1 3 9 f f , 177f eines Mittelwertes (Erwartungswertes) 123,172,176,178,179f erwartungstreue (unbiased) 145,175ff, 218,223 gleichmäßig bessere —»bessere konsistente 181ff, 184,202,281 mindestens so gute 174 Risiko einer 165 Schätzverfahren 140,142,146 Schätzwert 1 3 7 , 1 4 3 , 1 5 0 , 1 6 5 , 1 7 2 eines Subjektivisten 161 f nach dem Likelihood-Prinzip 150f, 162 Schichten 122f, 2 1 7 , 2 2 9 , 2 3 0 Schichtung 123f, 134,135,216f Schichtungseffekt 123,127f, 213ff, 218f bei proportionaler Aufteilung 219ff, 230,328f bei optimaler Aufteilung 220ff, 230, 328 negativer 123,328 positiver 123,219 Schichtungsgewinn 123,127f, 219,222, 331 Schichtungsvariable 123f Schichtungsverlust 123,328 Schiefemaß 57,319 Schlußziffernverfahren 119f, 134 St Stabdiagramm 3 3 , 3 4 , 3 6 , 3 7 S t a n d a r d a b w e i c h u n g 5 3 -^-Varianz mittlere (bei geschichteter G r u n d gesamtheit) 221,331 Standardisierte S u m m e 81 Standardisierung 5 7 , 6 9 f , 8 1 , 8 5 , 8 7 , 9 0 Standardnormalverteilung 69f, 81,344 Statistical Decision 162 Statistical Inference 162 statistisch gesichert —> signifikant Stetige Verteilung 37f, 41f, 43f, 85f, 90, 110 zweidimensionale 97f Stetigkeitskorrektur 8 6 , 9 0 , 9 1 , 3 2 3 f Stichprobe 1 6 , 5 9 , 8 4 , 1 0 9 , 1 3 1 , 2 4 2 beobachtete 109,137 einfache 113,117 Genauigkeit 123 geordnete 59f
370
Sachverzeichnis
g e s c h i c h t e t e 122ff —> g e s c h i c h t e t e Stichprobe identisch verteilte 1 1 3 , 1 1 7 , 1 2 2 K l u m p e n - 128ff —> K l u m p e n s t i c h probe m i t Z u r ü c k l e g e n 59f, 6 2 , 8 4 , 9 5 f , 109, 1 1 3 , 1 2 7 —» Z u f a l l s t i c h p r o b e mit Zurücklegen n i c h t z u f ä l l i g e 114f o h n e Z u r ü c k l e g e n 5 9 f , 61f, 8 4 , 9 6 , 1 0 9 , 1 1 3 , 1 2 7 —» Z u f a l l s t i c h p r o b e o h n e Zurücklegen unabhängige 113,112 u n a b h ä n g i g e i d e n t i s c h v e r t e i l t e 131f u n g e o r d n e t e 59 unverbundene 259,266f v e r b u n d e n e 264f, 266f, 293 Verteilung 131,147,183 z u f ä l l i g e 6 1 , 6 2 , 1 1 4 —> Z u f a l l s s t i c h probe z w e i d i m e n s i o n a l e 265 S t i c h p r o b e n k o v a r i a n z 191 Stichprobenmittel 123,172,176,178, 276,280 e i n e r g e s c h i c h t e t e n S t i c h p r o b e 123, 125,214,218 einer Klumpenstichprobe 129,223, 230f einer optimal geschichteten Stichprobe
126,220 e i n e r p r o p o r t i o n a l g e s c h i c h t e t e n Stichprobe 125,219 einer reinen Zufallsauswahl 123,127, 214f einer u n a b h ä n g i g e n identisch verteilt e n S t i c h p r o b e 131 gewogenes 123,125 ungewogenes 123,125 S t i c h p r o b e n u m f a n g 1 0 9 , 1 3 7 , 1 9 6 , 304 durchschnittlicher 119,129,223,226, 303f einer Klumpenstichprobe 222,225 Stichprobenvariablen 109,131,137,188 Stichprobenvarianz 176,180f, 187,191, 199,203,206,209,228,256,261,329 d e r D i f f e r e n z a u s zwei v e r b u n d e n e n S t i c h p r o b e n 265f g e m e i n s a m e a u s zwei u n v e r b u n d e n e n S t i c h p r o b e n 261 Stichprobenwerte 109,138 S t o c h a s t i s c h e K o n v e r g e n z —» K o n v e r genz S t r a t e g i e 306 S t r e u u n g s p a r a m e t e r 44 S t a n d a r d a b w e i c h u n g 53 —»Standardabweichung
Varianz52ff Varianz Streuungszerlegung (Varianzzerlegung) einer geklumpten Grundgesamtheit
222 einer geschichteten Grundgesamtheit 2 1 6 f , 331 Student V e r t e i l u n g 199 —> t - V e r t e i l u n g Satz v o n 199 —»Satz v o n S t u d e n t
t - D i f f e r e n z e n t e s t 2 6 4 f f , 2 6 6 f , 335 Hypothesen 260,264 P r ü f g r ö ß e 265 V e r t e i l u n g s a n n a h m e 265 Test 233f, 236,241f ähnlicher 256,262 als E n t s c h e i d u n g s f u n k t i o n 307 a s y m p t o t i s c h e r ( z u m N i v e a u a ) 270, 276,280 auf d i e D i f f e r e n z z w e i e r M i t t e l w e r t e s . u . —> G a u ß - T e s t ( d o p p e l t e r ) , —»Gauß-Differenzentest, —>t-Differenzen-Test, —> T e s t v o n W e l c h , —>t-Test ( d o p p e l t e r ) - bei g r o ß e m S t i c h p r o b e n u m f a n g 269f auf d i e D i f f e r e n z z w e i e r W a h r s c h e i n lichkeiten Exakter Test von F i s h e r —> G a u ß - T e s t ( d o p p e l t e r ) auf die V a r i a n z —> C h i - Q u a d r a t - T e s t für die Varianz auf e i n e n M i t t e l w e r t Gauß-Test ( e i n f a c h e r ) , —»t-Test ( e i n f a c h e r ) - bei g r o ß e m S t i c h p r o b e n u m f a n g 268, 270 auf e i n e u n b e k a n n t e V e r t e i l u n g —» C h i - Q u a d r a t - A n p a s s u n g s t e s t auf e i n e u n b e k a n n t e W a h r s c h e i n l i c h keit — > B i n o m i a l - T e s t , ^ G a u ß Test (einfacher) auf U n a b h ä n g i g k e i t — » C h i - Q u a d r a t Unabhängigkeitstest, —»Exakter Test von Fisher f ü r m e h r als z w e i H y p o t h e s e n 3 0 3 gleichmäßig bester ( U M P ) 238,240, 244,251,255 gleichmäßig bester unverfälschter (UMPU) 244,251 m i n d e s t e n s s o g u t e r 250 m i t m e h r als zwei E r g e b n i s s e n 302ff trennscharfer 251 u n v e r f ä l s c h t e r 2 4 0 , 2 4 4 , 2 4 8 , 2 5 4 f , 257 zum Niveau a 2 3 8 T e s t e r g e b n i s s e 237, 2 3 9 f f , 2 4 3 f , 302, 303
Sachverzeichnis Test von Welch 262f, 264,266f, 334, 335 Ablehnbereiche 263 Hypothesen 260,262 Prüfgröße 263 Verteilungsannahme 262 Testtheorie 9,233f entscheidungstheoretische 233f, 306ff, 308 klassische 233,235,238,244,250,302, 307,308 - Verallgemeinerungen 302ff Likelihood- 233,304ff. 308 Neyman-Pearsonsche —»klassische subjektivistische 234 verschiedene Konzepte 233f, 302ff Theorem von Bayesö, 23f —> Satz von Bayes von Bernoulli 6 , 9 , 8 0 Toleranzgrenze 143 Träger (einer diskreten Verteilung) 35 Tschebyscheff-Ungleichung —» Ungleichung t-Test, doppelter 260ff, 264,266ff, 270, 334,335 Ablehnbereiche 262 Ähnlichkeit 262 Güteeigenschaft 262 Hypothesen 260 nuisance-parameter 261 Prüfgröße 261,262 Robustheit 270 Verteilungsannahme 260f t-Test, einfacher 255,258,265,270, 333 Ablehnbereiche 256ff Ähnlichkeit 256 Güteeigenschaft 258 Gütefunktion 257 Hypothesen 253,255f nuisance-parameter 256 Prüfgröße 256 Robustheit 270 Unverfälschtheit 257 Verteilungsannahme 255 t-Verteilung, nichtzentrale 256,257 Erwartungswert 256 t-Verteilung, zentrale 9,199,256 Approximation durch Normalverteilung 199,202 Definition und Gestalt 199f Erwartungswert 199 Fraktil200,203,256 Freiheitsgrad 199,256,261,263,267 Varianz 199
371
U Überdeckungswahrscheinlichkeit 140ff, 144,146 Überlebenswahrscheinlichkeit 74 UMP-Test 251 Test, gleichmäßig bester UMPU-Test251 —»Test, gleichmäßig bester unverfälschter UMVU-Schätzung —»Schätzung, effiziente Umweltzustand 306 Unabhängigkeit und Unkorreliertheit 102,107 von Ereignissen 26,28 von Versuchswiederholungen 62,79, 80 von Zufallsvariablen 34f, 95f, 98 Unabhängigkeitszahlen 295 Ungleichung von Tschebyscheff 9,54f, 57,79ff, 146,183,229,319 Uniformly minimum variance unbiased (UMVU) 177 —»Schätzung, effiziente Uniformly most powerful (UMP) 251 —»Test, gleichmäßig bester Uniformly most powerful unbiased (UMPU) 251 - » T e s t , gleichmäßig bester unverfälschter Unkorreliertheit 101f und Unabhängigkeit 102,107 Unsymmetrie im Aufbau eines Tests 238f Unverbundene Stichproben 259,266f Urne, Urnenmodell 8 , 2 1 , 2 2 , 2 5 , 2 8 , 3 1 , 59ff, 62ff, 83,95,109,118,148 V Varianz 52ff, 54f, 146 Additionssatz 99 der Binomialverteilung 65 der Einpunktverteilung 53 der Gleichverteilung 54 der Grundgesamtheit 110,111 der hypergeometrischen Verteilung 63 der Normalverteilung 69 der Null-Eins-Verteilung 53f der Poissonverteilung 67,77 eines Stichprobenmittels 123,216, 218, 220,221,223,230,327,331 externe, der Klumpen 224,230 innerhalb der Klumpen 222,230 innerhalb der Schichten 217,331 Verschiebungssatz 53,98, 102 Zerlegung —»Streuungszerlegung zwischen den Klumpen 222,230 zwischen den Schichten 217,219,331
372
Sachverzeichnis
V e r b u n d e n e Stichproben 264f, 266f, 293 V e r a l l g e m e i n e r u n g e n des klassischen T e s t k o n z e p t s 302ff Verläßlichkeit 1 4 0 , 1 4 2 , 1 4 3 , 1 4 6 V e r l u s t f u n k t i o n 163f, 306 q u a d r a t i s c h e 165,166 Verlustmatrix 307 Verschiebungssatz —> Varianz V e r s u c h s w i e d e r h o l u n g , Versuchsreihe —> W i e d e r h o l u n g Verteilung 34,42ff a posteriori 1 5 2 , 1 5 5 , 1 5 6 f , 158f a priori 152,153f, 165,166 bedingte 154f, 158 bimodale 44 der G r u n d g e s a m t h e i t HOf der Stichprobe 147,183 - b e d i n g t e 154,158 diskrete 35f, 40f, 43f, 85f, 9 0 , 1 1 0 einer Zufallsvariablen 34 g e m e i n s a m e 9 4 f f , 9 7 f , 131,147 linkssteile 52 Modell 43 m u l t i m o d a l e 44 R a n d v e r t e i l u n g 94ff rechtssteile 5 lf seltener Ereignisse 88 stetige 37f, 41f, 43f, 85f, 9 0 , 1 1 0 , 1 7 9 symmetrische 5 0 , 5 7 u n i m o d a l e 44 zugelassene 172 zweidimensionale 93ff, 97f V e r t e i l u n g s a n n a h m e 171,172,192, 198, 236,241f einparametrische 172,183,244,306 n i c h t p a r a m e t r i s c h e 173,242 p a r a m e t r i s c h e 172f, 2 4 2 , 2 4 4 , 3 0 4 r-parametrische 173,244,245f Verteilungsfunktion 39,285 einer diskreten Verteilung 40f einer stetigen Verteilung 41 Verteilungstyp 4 3 , 2 8 7 V e r t r a u e n s g r a d 192,193 —»Konfidenzniveau Vierfeldertafel 9 , 2 7 9 f , 297ff C h i - Q u a d r a t - A b h ä n g i g k e i t s m a ß 297f Chi-Quadrat-Unabhängigkeitstest297f Ein- und zweiseitige Fragestellung 300f E x a k t e r T e s t von Fisher 298ff H o m o g e n i t ä t s h y p o t h e s e 299 U n a b h ä n g i g k e i t s h y p o t h e s e 299 verschiedene T y p e n 299f W Wahrscheinlichkeit 4ff, 13 Additivität 13
a posteriori 2 4 , 2 5 a priori 2 4 , 2 5 A x i o m e 6 , 1 1 ff, 13ff, 18 bedingte 2 0 , 2 1 , 1 5 4 Bestimmung 4 - e m p i r i s c h e 16ff - n a c h Laplace 17f - s u b j e k t i v e 17f frequentistische A u f f a s s u n g 14 induktive 16 I n t e r p r e t a t i o n e n 13,14f logische 16 N o r m i e r u n g 13 o b j e k t i v e 13f, 16,18 subjektive 13,14f, 16,18 Wahrscheinlichkeit für den Fehler 1. Art Fehler 1. A r t , 235f, 238f, 241,247, 278,299,302,303,304,310,333,335 bedingte 278,299 totale 278,299 Wahrscheinlichkeit für den Fehler 2. Art Fehler 2. A r t 238f, 2 4 0 , 2 4 1 , 2 4 7 , 250,302,303 Wahrscheinlichkeitsbegriff 4f, 13ff logischer 13,16 objektivistischer 13f, 1 8 , 1 3 9 , 1 4 3 , 1 4 7 , 151,152,192,193,233,304 subjektivistischer 13,14f, 18,152 Wahrscheinlichkeitsdefinition 4 , 6 , 12f Laplacesche 6 , 7 , 1 2 , 1 7 von MisesscheS, lOf, 12 Wahrscheinlichkeitsfunktion 35 einer zweidimensionalen Zufallsgröße 94ff g e m e i n s a m e 94ff, 147 Wahrscheinlichkeitsrechnung 4 , 1 lff A x i o m e 6, l l f f , 1 3 , 1 4 , 1 8 Wahrscheinlichkeitstheorie 4f Wahrscheinlichkeitsverteilung 3 1 , 3 3 f , 42ff —> Verteilung Wartezeit 2 , 3 8 f , 5 7 , 7 3 durchschnittliche 74 Weibull-Verteilung 73 W e t t q u o t i e n t 14,15 W i e d e r h o l u n g 109 unabhängige 1 0 , 1 4 , 1 6 , 6 2 , 6 4 , 7 9 , 8 0 , 113,132,208 Würfelspiel 2 , 3 , 7 , 2 0 , 2 6 , 2 8 , 2 9 , 3 1 , 3 3 , 35,36,48,86,273,275 Z Z e n t r a l e r Grenzwertsatz 9 , 8 1 f , 8 4 , 8 7 , 131f, 196,202,268f, 280 Faustregel 82 Verallgemeinerung 82 von Moivre-Laplace 87
Sachverzeichnis Zentrales Intervall 45f Zerlegung einer Ergebnismenge 19,62 einer Grundgesamtheit - i n Schichten 122ff - i n Klumpen 128f Ziehen mit Zurücklegen 59,109,113,141 zufälliges62,64,83,95f —» Zufallsstichprobe Ziehen ohne Zurücklegen 59,109,113, 141 zufälliges 61f, 83,96 —» Zufallsstichprobe zufällig 59,61,62 Zufällige Folge 10 Zufallsauswahl —»Zufallsstichprobe Zufallsbegriff 10,11 Zufallsexperiment l f , 4 Ergebnismenge 1 Ergebnis 1 Zufallsfehler 123,127 —»Schätzfehler Zufallsgröße 31f, 93ff Zufallsvariable 31 - diskrete 35ff —» diskrete Verteilung - stetige 37ff —»stetige Verteilung - unabhängige 34f mehrdimensionale 93ff k-dimensionale 93 zweidimensionale 93
373
- diskrete 93ff —> diskrete Verteilung - stetige 97ff —> stetige Verteilung Zufallsstichprobe (Zufallsauswahl, zufällige Stichprobe) 114 allgemeine 114,127 gleichgewichtete 115,116,118,120, 121,122,126,127,134 mit Zurücklegen 114,120ff, 125f, 127, 132,134,147,178,215 ohne Zurücklegen 114,115ff, 125f, 127,132f, 134, 178,215f reine 115f, 117,118,119,120,121f, 122,125f, 128,129,132f, 134,137, 147,215,230,327 selbstgewichtende —»gleichgewichtete uneingeschränkte —» reine Zufallsvariable 31 abhängige 96 diskrete 35ff —»diskrete Verteilung korrelierte 102 stetige 37ff —> stetige Verteilung unabhängige 34f, 95f, 98 unkorrelierte lOlf - und unabhängige 102 Zufallszahlen 118 Zusammenhang zwischen Tests und Konfidenzintervallen 25 lff Zuverlässigkeitstheorie 73 Zweiseitige Fragestellung 245,246,247f, 254,256ff, 260,270f, 272ff, 277,300f