215 105 31MB
German Pages 321 [324] Year 1974
Allgemeine Methodenlehre der Statistik II Höhere Methoden unter besonderer Berücksichtigung der Anwendungen in Naturwissenschaften, Medizin und Technik von
D r . phil. J o h a n n Pfanzagl Prof. an der Universität Köln
Vierte, verbesserte Auflage
Mit 42 Abbildungen
w DE
G Sammlung Göschen Band 7047
Walter de Gruyter Berlin · New York · 1974
Die Darstellung umfaßt folgende Bände: I. Elementare Methoden unter besonderer Berücksichtigung der Anwendungen in den Wirtschafts- und Sozialwissenschaften. II. Höhere Methoden unter besonderer Berücksichtigung der Anwendungen in Naturwissenschaften, Medizin und Technik.
ISBN 311004474 9 © Copyright 1974 by Walter de Gruyter & Co., vormals G. J. Göschen'sehe Verlagshandlung, J. Guttentag, Verlagsbuchhandlung, Georg Reimer, Karl ]. Trübner, Veit 8c Comp., 1 Berlin 30. Alle Rechte, insbesondere das Recht der Vervielfältigung und Verbreitung sowie der Übersetzung, vorbehalten. Kein Teil des Werkes darf in irgend einer Form (durch Fotokopie, Mikrofilm oder ein anderes Verfahren) ohne schriftliche Genehmigung des Verlages reproduziert oder unter Verwendung elektronischer Systeme verarbeitet, vervielfältigt oder verbreitet werden. Printed in Germany. Satz und Druck: Walter de Gruyter 8c Co., 1 Berlin 30.
Inhaltsverzeichnis Einleitung
7
1 Die Wahrscheinlichkeit 1.1 Der Begriff der Wahrscheinlichkeit 1.2 Das Additionstheorem 1.3 Stochastische Unabhängigkeit
8 8 11 12
2 Häufigkeitsverteilungen 2.1 Grundbegriffe 2.2 Die Binomialverteilung 2.3 Die Hypergeometrische Verteilung 2.4 Die Poissonverteilung 2.5 Die Normalverteilung 2.6 Das Wahrscheinlichkeitsnetz 2.7 Die Zerlegung von Mischverteilungen 2.8 Weitere Anwendungen in der technischen Statistik 2.9 Die zweidimensionale Normalverteilung
15 15 18 22 26 30 36 41 44 47
. . . .
3 Funktionen zufälliger Variabler 3.1 Das induzierte Wahrscheinlichkeitsmaß 3.2 Lineare Funktionen zufälliger Variabler 3.3 Spezielle Funktionen normalverteilter Variabler 3.4 Mittelwerte aus großen Stichproben 3.5 Transformationen
49 49 52 57 61 67
4 Schätzung von Parametern 4.1 Einleitung 4.2 Die Schätzung von Funktional-Parametern 4.3 Die maximum likelihood-Methode 4.4 Die praktische Berechnung des m. l.-Schätzers
72 72 76 77 79
5 Normalverteilung; elementare Verfahren 5.1 Einleitung 5.2 Das Mutungsintervall für den Mittelwert 5.3 Der Signifikanz-Test für den Mittelwert 5.4 Allgemeine Bemerkungen über das Testen von Hypothesen .
85 85 87 90 94
4
Inhaltsverzeichnis 5.5 5.6 5.7 5.8
Einseitige und zweiseitige Problemstellung Die Gütefunktion eines Tests Der Vergleich zweier Mittelwerte Die Kontrollkarte
6 Kleine Stichproben aus diskreten Verteilungen 6.1 Binomialverteilung : Test für ρ 6.2 Binomialverteilung: Mutungsintervall für ρ 6.3 Binomialverteilung: Vergleich zweier Wahrscheinlichkeiten 6.4 Hypergeometrische Verteilung (Stichprobenpläne für qualitative Merkmale) 6.5 Poissonverteilung: Test und Mutungsintervall für den Mittelwert 6.6 Poissonverteilung: Vergleich zweier Mittelwerte
98 101 103 106 113 114 119 122 125 128 131
7 Verteilungsunabhängige Verfahren 134 7.1 Einleitung 134 7.2 Der Zeichentest 135 7.3 Test und Mutungsintervall für den Median 138 7.4 Der sogenannte „Test von McNemar" 139 7.5 Test für den Median einer symmetrischen Verteilung . . . 142 7.6 Der Vergleich zweier unabhängiger Stichproben 150 7.7 Der Vergleich mehrerer unabhängiger Stichproben . . . . 158 7.8 Der Vergleich mehrerer verbundener Stichproben 162 8 Die z 2 -Methode; Kontingenztafeln 166 8.1 Die x 2 -Methode 166 8.2 Die x 2 -Methode bei Abhängigkeit von einem Parameter . . 170 8.3 Die Unabhängigkeit in einer Kontingenztafel 179 8.4 Der Vergleich von r Stichproben 186 8.5 Ein Test gegen Trend 191 9 Normalverteilung; höhere Verfahren 9.1 Einleitung 9.2 Test und Mutungsintervall für die Varianz 9.3 Der Vergleich zweier Varianzen 9.4 Test und Mutungsintervall für den Mittelwert 9.5 Prognose- und Toleranzintervalle 9.6 Vergleich zweier Mittelwerte: verbundene Stichproben . . 9.7 Vergleich zweier Mittelwerte: unabhängige Stichproben . .
194 194 195 197 202 205 210 212
Inhaltsverzeichnis 9.8 Vergleich zweier Mittelwerte: unabhängige Stichproben, ungleiche Varianz 9.9 Verbundene oder unabhängige Stichproben ? 9.10 Vergleich mehrerer Mittelwerte: unabhängige Stichproben. 9.11 Die Beurteilung linearer Kontraste 9.12 Die Komponenten der Streuung 9.13 Vergleich mehrerer Mittelwerte: verbundene Stichproben . 9.14 Zufällige Zuordnung 9.15 Versuchsplanung
10 Regression und Korrelation 10.1 10.2 10.3 10.4 10.5 10.6 10.7 10.8 10.9
Die Regressionsanalyse Prognoseintervall für χ Mutungsintervall für y Das Bestimmtheitsmaß Die Korrelationsanalyse Tests und Mutungsintervalle für Korrelationskoeffizienten. Die Partielle Korrelation Die Reihenkorrelation Verteilungsunabhängige Verfahren
5
216 219 223 231 235 242 249 251
252 252 262 263 266 267 269 272 275 276
Tabellen
281
Literatur
299
N a m e n - u n d Sachverzeichnis
313
1
Pfanzagl, Allgem. Methodenlehre d. Statistik II, 4. Aufl.
Einleitung Band II bringt vorwiegend solche Methoden, die an die mathematische Vorbildung des Lesers höhere Anforderungen stellen, als die des ersten Bandes. Da die hier behandelten Methoden vor allem in den Naturwissenschaften (inkl. Technik, Medizin, Psychologie) ihre fruchtbarsten Anwendungsgebiete finden, wurden auch die Beispiele überwiegend aus diesen Gebieten gewählt. Das Buch ist für den Praktiker geschrieben. Das Hauptgewicht wurde daher darauf gelegt, den Sinn und die logischen Grundlagen der einzelnen Methoden klar herauszuarbeiten und ihre Anwendung durch Beispiele zu illustrieren. Mathematische Ableitungen werden im allgemeinen nicht gegeben. Bewußt wurde mehr Gewicht auf verschiedene in den üblichen Lehrbüchern vernachlässigte Methoden gelegt und die Hypertrophie der Theorie kleiner Stichproben aus Normalverteilungen auf das der Praxis angemessene Maß eingeschränkt. Der Stoff aus gewissen Kapiteln von Band I wird als bekannt vorausgesetzt. Es sind dies insbesondere: Kapitel Kapitel Kapitel Kapitel
2 : Häufigkeitsverteilungen 3 : Parameter 10 : Statistische Fehler 12 : Die rechnerische Behandlung des Zahlenmaterials.
Jene Leser, die über gewisse Grundkenntnisse verfügen, werden Band II auch ohne Studium der angegebenen Kapitel aus Band I verarbeiten können. Nachstehende Übersicht zeigt die Abhängigkeit zwischen den einzelnen Kapiteln auf und kann als „Wegweiser" für die Lektüre dienen: 1*
8
1 Die Wahrscheinlichkeit 1. Die Wahrscheinlichkeit 2. Häufigkeitsverteilungen 3. Funktionen zufälliger Variabler 4. Schätzung von Parametern 5. Normalverteilung; elementare Verfahren 6. Kleine Stichproben aus diskreten Verteilungen
9. Normalverteilung; höhere Verfahren
7. Verteilungsunabhängige Verfahren
10. Regression und Korrelation
8. Die ^ - M e t h o d e ; Kontingenztafeln
Formeln des laufenden Abschnittes werden durch Angabe der Nummer zitiert. Wird eine Formel aus einem anderen Abschnitt zitiert, so wird der Formelnummer die Nummer des betreffenden Abschnittes vorangestellt. [So ist ζ. B. mit Formel (3) die Formel des laufenden Abschnittes, mit Formel (4.2.3) die Formel (3) des Abschnittes 4.2 gemeint.]
1 Die Wahrscheinlichkeit 1.1 Der Begriff der Wahrscheinlichkeit Die Wahrscheinlichkeitsrechnung bildet die Grundlage für viele Methoden der mathematischen Statistik. Wir wollen uns hier mit dem Begriff der Wahrscheinlichkeit und mit der Wahrscheinlichkeitsrechnung nur insoweit befassen, als dies für das Verständnis der grundlegenden Methoden der mathematischen Statistik notwendig ist.
1.1 Der Begriff der Wahrscheinlichkeit
9
Eine sehr elementare Einführung in die Wahrscheinlichkeitsrechnung, die den Bedürfnissen des Statistikers besonders entgegenkommt, bringt das Buch von Hodges jr. und Lehmann. Außerdem seien dem Leser folgende, nach steigender mathematischer Schwierigkeit gereihte Werke empfohlen: Parzen, Vogel, Fisz, Kényì, Gnedenko, Richter, Krickeberg, Loève, Bauer. Grundlegend für das Folgende ist der Begriff des Zufallsexperimentes, d. h. eines Experimentes, dessen Ergebnis vom Zufall abhängt. Mit der Formulierung, daß das Ergebnis eines Experimentes vom Zufall abhängt, soll natürlich nicht gesagt werden, daß der Ablauf des Experimentes nicht kausal bestimmt wäre. Diese Formulierung soll nur besagen, daß das Experiment so geartet ist, daß es unmöglich ist, das Ergebnis einer konkreten Realisation im voraus zu bestimmen. Die in der Praxis auftretenden Zufallsexperimente sind in der Regel beliebig oft wiederholbar, und zwar so, daß das Ergebnis einer Realisation des Experimentes von den Ergebnissen anderer Realisationen des gleichen Experimentes unabhängig ist. Dies ist jedoch keine wesentliche Eigenschaft des Zufallsexperimentes. Das obige Modell des Zufallsexperimentes paßt nicht nur auf so einfache Situationen wie z. B. das Würfelspiel, sondern auch auf sehr komplexe Experimente in wissenschaftlichem Sinne: Es wird ein Versuchstier mit einem bestimmten Erreger infiziert und sodann nach einer ganz bestimmten Heilmethode behandelt. Die verschiedenen Realisationen des Experimentes bestehen darin, daß man verschiedene Versuchstiere (der gleichen Art) mit dem gleichen Erreger infiziert und nach der gleichen Heilmethode behandelt. Das Modell des Zufallsexperimentes ist aber auch auf Situationen anwendbar, auf die das Wort „Experiment" selbst nicht paßt: Mit einer Bohrmaschine werden Löcher gebohrt. Die verschiedenen Realisationen des „Experimentes" bestehen darin, daß vom selben Arbeiter mit der gleichen Maschine Löcher in gleichartiges Material gebohrt werden. Das Ergebnis des Zufallsexperimentes bezieht sich auf ein ganz bestimmtes Merkmal : bei dem Tierversuch z. B. darauf, ob die Krankheit tödlich verläuft oder nicht, beim Bohren auf den Durchmesser des gebohrten Loches. Wir greifen nun eine ganz bestimmte
10
1 Die Wahrscheinlichkeit
Menge A von Ausprägungen dieses Merkmals heraus und stellen bei jeder Wiederholung des Zufallsexperimentes fest, ob eine der herausgegriffenen Ausprägungen eingetreten ist oder nicht; wir stellen also beispielsweise fest, ob die Krankheit tödlich verlaufen ist. Bei stetigen Merkmalen müssen wir ein ganzes Intervall herausgreifen; wir beobachten also ζ. B., ob der Durchmesser des gebohrten Loches zwischen 3,00 und 3,01 mm liegt. Vielfach ist es zweckmäßig, eine Menge von Ausprägungen als Ereignis zu bezeichnen. Tritt beim Zufallsexperiment eine Ausprägung ein, die zur Menge A gehört, so sagt man auch, das Ereignis A sei eingetreten. Angenommen, es wäre unter η "Wiederholungen «(A)-mal eine Ausprägung der Menge A aufgetreten. (Beispiel: Handelt es sich beim Zufallsexperiment um das Bohren eines Loches, so ist η die Anzahl der gebohrten Löcher und beispielsweise «(3,00—3,01) die Anzahl der gebohrten Löcher, die einen Durchmesser zwischen 3,00 und 3,01 mm haben.) n(A) heißt die Häufigkeit, η (A)/η die relative Häufigkeit des Auftretens von A. Es liegt intuitiv nahe, die relative Häufigkeit als Maß für die Wahrscheinlichkeit zu verwenden. Die Beobachtung langer Folgen unabhängiger Wiederholungen ein und desselben Zufallsexperimentes zeigt, daß diese sich so verhalten, als ob die daraus berechnete relative Häufigkeit gegen eine bestimmte Zahl streben würde. (Von Konvergenz im mathematischen Sinne kann man hier nicht sprechen, da es sich um empirisch gewonnene und damit endliche Folgen handelt.) Sehr oft wird man auf Grund gewisser Symmetrien eine sehr konkrete Vorstellung vom Wert dieser Zahl haben : Sind an einem Würfel keine besonderen Asymmetrien festzustellen, so wird man erwarten, daß jede der Zahlen 1 bis 6 in einer hinreichend großen Serie von Versuchen mit einer relativen Häufigkeit von annähernd 1/6 auftreten wird. Es läge also nahe, den Grenzwert der relativen Häufigkeit als Wahrscheinlichkeit zu definieren. Dieses „intuitive Gesetz der großen Zahlen" läßt sich empirisch natürlich nicht überprüfen. Eine exakte Begründung des Wahrscheinlichkeitsbegriffes legt diesen daher durch gewisse Axiome fest, genauso wie in der euklidischen Geometrie die Begriffe Punkt, Gerade usw. durch Axiome festgelegt werden. Genauso wie es in der Geometrie eine Frage der Anwendung ist, unter welchen Umständen die axio-
1.2 Das Additionstheorem
11
matisch eingeführten Begriffe hinreichend genaue Annäherungen an die Wirklichkeit darstellen, ist es eine Frage der Anwendung, ob der axiomatisch definierte Wahrscheinlichkeitsbegriff im Zusammenhang mit einer konkreten Folge von Zufallsexperimenten anwendbar ist oder nicht. Sei X die Menge der Ausprägungen des betrachteten Merkmals. X umfaßt daher alle möglichen Ergebnisse des Zufallsexperimentes. Das Ergebnis eines bestimmten Zufallsexperimentes wollen wir mit χ (ein Element aus X) bezeichnen. Für den W ü r f e l beispielsweise gilt X = {1, 2 , . . . , 6}, χ = 4 ist das Ergebnis eines bestimmten Wurfes. Häufig w i r d X die Menge der reellen Zahlen (oder eine Teilmenge davon), allenfalls der ¿-dimensionale Euklidische Raum sein. Im folgenden wollen wir annehmen, daß für gewisse Teilmengen A aus X eine Wahrscheinlichkeit P(A) definiert ist, die wir als die Wahrscheinlichkeit dafür interpretieren wollen, daß das Ergebnis χ des Zufallsexperimentes in A liegt (x e A). Die Eigenschaften, die wir f ü r dieses Wahrscheinlichkeitsmaß fordern wollen, werden in den nächsten Abschnitten mit Hilfe der Häufigkeitsinterpretation motiviert. Sofort erhalten wir jedoch aus 0 ^ Ü ^ L á ι und « ( X ) = n, daß 0 á P(A) ^ 1 und P(X) = 1. η (Nur am Rande sei noch bemerkt, daß man aus innermathematischen Gründen nicht verlangen kann, daß P(A) für alle Teilmengen A aus X definiert ist.)
1.2 Das Additionstheorem W i r betrachten nun neben der Menge A von Ausprägungen noch eine dazu elementfremde Menge Β von Ausprägungen (ζ. B. neben A : Durchmesser zwischen 3,00 und 3,01 mm noch Β: Durchmesser von 2,99 bis unter 3,00 mm). Bei einer einzelnen Realisation des Zufallsexperimentes kann dann höchstens A oder ß, nicht aber beides gleichzeitig, eintreten. Unter „ A + B" wollen wir die Vereinigungsmenge von A und Β verstehen (im obigen Beispiel also: Durchmesser zwischen 2,99 und 3,01 mm). Das Ergebnis eines Zufallsexperimentes liegt in (Α + B), wenn es in A oder in Β liegt. Es sei η (A) die Häufigkeit von A in einer Serie von η Realisationen, n{B) die von B, Dann ist n(A + B), die Häufigkeit von
12
1 Die Wahrscheinlichkeit
(A + Β), gleich m (A) + η (Β). Daraus folgt für die relativen Häufigkeiten : n(A + B) = n(A)_ + tm_ (1) η η η In Anlehnung an diese Gleichung fordert man die entsprechende Gleichung für die "Wahrscheinlichkeiten : (2) P(A + B) = P ( A ) + P(J3). (2) nennt man das Additionstkeorem der Wahrscheinlichkeitsrechnung. Aus mathematischen Gründen wird dieses Additionstheorem nicht nur für zwei und damit endlich viele Summanden gefordert, sondern für abzählbar unendlich viele. 1 Betrachten wir als Beispiel den idealen Würfel, für den Ρ ({/'}) = — 6 für i = 1, 2 , . . 6 . Das Auftreten einer ungeraden Augenzahl bedeutet * e {1, 3, 5}. Nach dem Additionstheorem gilt P({1, 3, 5}) = P({1}) + P({3}) + Ρ({5}) = 3 · j = ~ , d. h. die Wahrscheinlichkeit für das Auftreten einer ungeraden Augenzahl ist —. Wir bezeichnen zwei Mengen von Ausprägungen A und Ä komplementär, wenn sie einander ausschließen und zusammen möglichen Ausprägungen umfassen, d. h. A + Ä = X gilt. Aus Additivität folgt dann P(A) + Ρ(Λ) = 1, d . h . die Summe Wahrscheinlichkeiten komplementärer Ereignisse ist 1.
als alle der der
1.3 Stochastische Unabhängigkeit Wir betrachten nun ein Zufallsexperiment, dessen Ergebnis durch das Merkmalspaar ( χ , y) beschrieben wird (ζ. B. Körpergröße und Gewicht). Unter (A, B) wollen wir die Menge aller Paare (x, y) mit Λ: in A und y in Β verstehen. Sei X die Menge aller möglichen Ausprägungen des ersten Merkmales, Y die des zweiten. Dann bezeichnet (A, Y) die Menge aller Paare ( χ , y) mit χ in A, ohne Rücksicht auf die Ausprägung des zweiten Merkmales.
1.3 Stochastische Unabhängigkeit
13
Ist ein Wahrscheinlichkeitsmaß Ρ auf hinreichend vielen Teilmengen von (X, Y) erklärt, dann kann man Ρ (A, Y) als Wahrscheinlichkeitsmaß auf gewissen Teilmengen A aus X auffassen. So betrachtet heißt es erstes Randmaß von P. Analog kann man das zweite Randmaß P(X, B) bilden. Wir betrachten nun eine Serie von η Realisationen, η (A, ß) sei die Anzahl der Realisationen, bei denen χ in A und y in Β lag. Dann gilt: n(A,B) η (Α, Β) η (A, Y) U η «(A, Y ) ' η Den Ausdruck η (A, Β)/η{Α, Υ) können wir interpretieren als relative Häufigkeit, die das Ereignis „y in B" in der Serie jener Zufallsexperimente besitzt, bei denen χ in A liegt. Dementsprechend definiert man die bedingte Wahrscheinlichkeit von B, gegeben A, (Symbol: P(B I A)) durch die (1) entsprechende Relation (2)
Ρ(Α,Β) = Ρ ( Β | Α ) · Ρ ( Α , Y).
Wir sagen, die Merkmale χ und y sind voneinander unabhängig, wenn die Ausprägung, die y annimmt, unabhängig ist von der Ausprägung von χ. Diesen intuitiven Begriff der Unabhängigkeit können wir durch folgende Definition präzisieren: Die Merkmale χ und y heißen stochastisch unabhängig, wenn für beliebige (meßbare) Mengen A und Β gilt: (3)
P(B I A) = P(B I Ä).
Denken wir an die Häufigkeitsinterpretation der Wahrscheinlichkeit, so bedeutet diese Definition, daß zwei Merkmale dann unabhängig sind, wenn — in einer hinreichend langen Serie von Versuchen — das Ereignis „y in B" in der Teilserie jener Experimente, bei denen χ in A liegt, mit etwa der gleichen relativen Häufigkeit auftritt wie in der Teilserie jener Experimente, bei denen χ in Ä liegt, und zwar für beliebige Mengen A und B. Aus den Formeln (2) und (3) folgt, wie man leicht zeigen kann, für den Fall der stochastischen Unabhängigkeit (4)
P(A,B) = P(A, Υ)·Ρ(Χ,Β).
14
1 Die Wahrscheinlichkeit
Die Beziehung (4) nennt man das Multiplikationstheorem der Wahrscheinlichkeitsrechnung: Für zwei unabhängige Merkmale (χ, y) ist die Wahrscheinlichkeit, daß gleichzeitig χ in A und y in Β liegt, gleich dem Produkt der Randwahrscheinlichkeiten für χ in A (unabhängig vom Wert von y) und y in Β (unabhängig vom Wert von x). Ein Wahrscheinlichkeitsmaß mit der Eigenschaft (4), welches also der Verteilung der Ergebnisse zweier stochastisch unabhängiger Merkmale beschreibt, heißt Produktmaß, genauer: Produkt der beiden Randmaße. Mit Hilfe der stochastischen Unabhängigkeit kann man auch die intuitive Idee der unabhängigen Wiederholung eines Zufallsexperimentes mathematisch erfassen: Sei χ das beobachtete Merkmal, das seine Werte in einer Grundmenge X annimmt. Das Wahrscheinlichkeitsmaß Ρ beschreibe die Verteilung der Ergebnisse bei diesem Experiment. Dann heißt ein Experiment mit den Ergebnissen x2 in X unabhängige Wiederholung des Experimentes mit den Ergebnissen Xi in X, wenn die Wahrscheinlichkeit für xx in A und x2 in Β gleich P(A) · P(B) ist. Zur Vereinfachung der Sprechweise wollen wir das Ergebnis einer «-fachen unabhängigen Wiederholung, xlt..., x„, als Stichprobe vom Umfang η bezeichnen. Häufig werden wir auch die Redewendung gebrauchen „Xi, .. ., xn und y-L,. .., ym seien zwei unabhängige Stichproben". Damit ist gemeint, daß X i x „ η unabhängige Wiederholungen ein und desselben Zufallsexperimentes sind, desgleichen yi}. .., ym m unabhängige Wiederholungen eines anderen Zufallsexperimentes, und daß jedes y/ von allen Xi,..x„ unabhängig ist. Wir bemerken, daß Funktionen f ( x l t . . . , xn) und g(yi, •.ym), die wir auf Grund zweier unabhängiger Stichproben bilden, voneinander unabhängig sind. (Wegen des hier implizit verwendeten Begriffes der Verteilung einer Funktion zufälliger Variabler vgl. Abschnitt 3.1.) Dem Sprachgebrauch folgend werden wir statt vom „Ergebnis χ eines Zufallsexperimentes" auch von der „Realisation χ einer zufälligen Variablen" sprechen.
15
2 Häufigkeitsverteilungen 2.1 Grundbegriffe Wir haben in Kapitel 1 das Wahrscheinlichkeitsmaß definiert als eine Funktion, die gewissen Teilmengen A der Grundmenge X eine Wahrscheinlichkeit Ρ (A) zuordnet. So aufgefaßt ist das Wahrscheinlichkeitsmaß noch ein reichlich abstraktes Gebilde. Wir wollen uns daher im folgenden mit der Frage befassen, wie man — wenigstens in dem Fall, daß X = {0, 1, 2 , . . .} oder X = R (Menge der reellen Zahlen) oder X = Rfe (Euklidischer Raum) — ein Wahrscheinlichkeitsmaß so beschreiben kann, daß man damit rechnen kann. Am einfachsten ist dies im Falle X = { 0 , 1 , 2 , . . .}. Hier genügt es, für jedes i = 0 , 1 , 2 , . . . die Wahrscheinlichkeit Ρ ({/}) anzugeben, 00
so daß die Bedingungen P({i}) > 0 und Σ Ρ (US) = 1 erfüllt sind. i=0
Durch P{A) = Σ P(iiì) ist das Wahrscheinlichkeitsmaß dann für i£A beliebige Teilmengen A von X erklärt. Solche Wahrscheinlichkeitsmaße heißen diskret. Beispiele diskreter Wahrscheinlichkeitsmaße werden in den Abschnitten 2.2, 2.3, 2.4 behandelt. Ist X = R und das Wahrscheinlichkeitsmaß nicht auf der Menge {0, 1, 2 , . . .} konzentriert, so ist es in allen praktisch wichtigen Fällen möglich, das Wahrscheinlichkeitsmaß durch seine Dichte zu beschreiben, d. h. es existiert eine nichtnegative Funktion p mit der Eigenschaft, daß P(A) = f p(x)dx. A Wegen Ρ (X) = 1 muß f p{x)dx= 1 gelten. Solche Wahrscheinlichkeitsmaße heißen stetig. Ein ganz einfaches Beispiel eines stetigen Wahrscheinlichkeitsmaßes ist die sogenannte Exponentialverteilung mit der Dichte 1 -— - ¿ e 6 für χ > 0 . ö Eine Exponentialverteilung tritt häufig als Verteilung der Lebensdauer technischer Produkte auf. Sie beschreibt auch den radio-
2 Häufigkeitsverteilungen
16
aktiven Zerfall, d. h. die Lebensdauer der Atome. Das praktisch wichtigste Beispiel einer stetigen Verteilung ist die Normalverteilung (vgl. Abschnitt 2.5) sowie die aus dieser abgeleiteten Verteilungen (vgl. Abschnitt 3.3). In gleicher Weise kann man gewisse Wahrscheinlichkeitsmaße für X = R* durch ihre Dichte darstellen. Im Falle des zweidimensionalen Raumes hat man dann für geeignete Teilmengen C aus Ra Ρ(C) = f p(xι, x2)dxιdx2. c Die erste Randverteilung, die der Teilmenge A aus Κ das Maß P(A, R) zuordnet, besitzt dann gleichfalls eine Dichte pi, die gegeben ist durch Pi(xi) = / P(xi, x2)dx2. Für diese gilt P(A, R)=fp1(x1)dx1. A Die Unabhängigkeit der Variablen kommt in dem Falle, daß das "Wahrscheinlichkeitsmaß durch eine Dichte p beschrieben werden kann, darin zum Ausdruck, daß diese als Produkt darstellbar ist: p(xι, Xz) = piixììpiixi), (wobei pi die Dichte der 1., p2 die Dichte der 2. Randverteilung ist.) Das bedingte Wahrscheinlichkeitsmaß Ρ (A \ x2) wird für diskrete Wahrscheinlichkeitsmaße definiert durch P{A 1 χύ -
m
·
Es wird interpretiert als die Wahrscheinlichkeit mit der Xi in A liegt, wenn die zweite Variable den Wert x2 annimmt. Für stetige Wahrscheinlichkeitsmaße ist diese Definition nicht sinnvoll, da für diese P(A, {x2}) = 0 und P(R, {x2}) = 0 für alle x2. Man kann sich jedoch in diesem Falle dadurch behelfen, daß man Ρ (A | x2) als Grenzwert von ^
Ι* 2 ' X * ,
für h
0 definiert.
P(R, (x2, Xi + h)) Man kommt auf diese Weise zu der Formel fp(x1,x2)dxl P(A . p2{x2)
2.1 Grundbegriffe
Daraus folgt, daß das Maß Ρ (A | x¡) die Dichte
17 Ρ
)
y—— besitzt.
pi(x2)
Diese Ergebnisse werden in Abschnitt 2.9 für den konkreten Fall der 2-dimensionalen Normalverteilung nochmals erläutert. Gelegentlich erweist es sich auch als zweckmäßig, zur Beschreibung eines Wahrscheinlichkeitsmaßes im Falle X = R die sogenannte Summenfunktion (oder Verteilungsfunktion) F heranzuziehen. Diese ist durch F{r) = P(— r] definiert. Für ein stetiges r
Wahrscheinlichkeitsmaß gilt F(r) — f p (x) dx. Man kann in die— oo
sem Falle also die Dichte durch Differentiation der Summenfunktion gewinnen. Zur Exponentialverteilung beispielsweise gehört die Summenf χ __L funktion F(r) =f — e 9 dx — 1 — e 6 . Definiert man — wie in — oo " der Physik üblich — die Halbwertszeit τ durch F (τ) = l / 2 , dann gilt θ = τ/log 2. Der Parameter θ ist also proportional zur Halbwertszeit. Oft erweist es sich als zweckmäßig, für das Wahrscheinlichkeitsmaß bestimmte charakteristische Größen zu berechnen. Verschiedene damit zusammenhängende Fragen wurden in Band I, Kapitel 3, besprochen. Wir wollen hier als für das Folgende besonders bedeutsam den Erwartungswert herausheben: Es sei m{x) eine beliebige Funktion der zufälligen Variablen x. Dann gilt: Erwartungswert*)
:
Σ m {i) Ρ ( {i})
(1)
1=0
E[m{x)} (2)
=
für diskrete Wahrscheinlichkeitsmaße
4- oo
/ m (x)p {x) dx für stetige Wahrscheinlich° keitsmaße
_0
·) Der Vollständigkeit halber sei vermerkt, daß es Funktionen rnix) gibt, für die E[m(x)] nicht existiert, da entweder im Falle einer diskreten Verteilung £mt,i)P{{¡}) nicht absolut
»
konvergent ist oder im Falle einer stetigen Verteilung die Funktion m (*) bezüglich ρ (χ) nicht integrabel ist, wie ζ. B. die Funktion m (χ) = χ bezüglich der Dichtefunktion der t-Verteilung mit 1 Freiheitsgrad (vgl. S. SO, i l ) .
2 Häufigkeitsverteilungen
18
Mittelwert μ = Ε (χ), Varianz σ2 = £[(* — μ)2]. Die Berechnung der Varianz wird oft durch den sogenannten Verschiebungssatz erleichtert: σ2 = Ε (χ2) — μ2. Für die Varianz verwenden wir im folgenden auch das Symbol V(x). 2.2 Die Binomialverteilung Wir betrachten ein (artmäßiges oder zahlenmäßiges) Merkmal, das zwei Ausprägungen besitzt. Diese wollen wir mit A bzw. Ä (Komplement von A) bezeichnen. Gegeben sei eine zufällige Variable, welche die Ausprägung A mit der Wahrscheinlichkeit p, die Ausprägung Ä mit der komplementären Wahrscheinlichkeit 1 — p annimmt. Beispiel: a) Bei der Kontrolle eines Produktionsprozesses werden die einzelnen Stücke klassifiziert: A = defekt, Ä = nicht defekt, p ist die Wahrscheinlichkeit, daß ein produziertes Stück defekt ist. b) Wir betrachten eine Aufgliederung der Geborenen nach dem Geschlecht : A = männlich, Ä = weiblich, ρ ist die Wahrscheinlichkeit, daß ein Geborenes männlichen Geschlechtes ist.
Betrachten wir 2 Realisationen dieser zufälligen Variablen, so sind offenbar 4 Ergebnisse möglich: AA, AÄ, ÄA, ÄÄ. Sind die beiden Realisationen voneinander unabhängig, dann haben diese 4 möglichen Ergebnisse nach dem Multiplikationstheorem folgende Wahrscheinlichkeiten : Ergebnis :
AA AÄ ÄA ÄÄ
Wahrscheinlichkeit :
PP p( 1 - p) (1 - P)P (1 - p)( 1 - p)
Sehen wir von der Reihenfolge der beiden Realisationen ab, so gibt es nur 3 mögliche Ergebnisse: beide Realisationen haben zu dem Ergebnis A geführt (AA), nur eine Realisation hat zu dem Ergebnis A geführt {AÄ oder ÄA), keine Realisation hat zu dem Ergebnis A geführt {ÄÄ). Bei Vernachlässigung der Reihenfolge
2.2 Die Binomialverteilung
19
können wir die möglichen Ausprägungen einfach dadurch charakterisieren, daß wir angeben, wie oft A innerhalb einer vorgegebenen Zahl von Realisationen auftritt : Häufigkeit von A
Ergebnisse mit dieser Häufigkeit
2 1 0
AA AR, ÄA ÄÄ
Wahrscheinlichkeit
pp = p2 p(l-p)+ (l-p)p=2p(l-p) (1 - p) (1 - p) = (1 - pf
Die Überlegungen, die wir hier für den Fall von zwei Realisationen angestellt haben, lassen sich auf eine beliebige Zahl η von Realisationen übertragen. Jede Kombination von η Realisationen, die genau ¿-mal das Ergebnis Λ und (η — ¿)-mal das Ergebnis Ä enthält, hat die Wahrscheinlichkeit pk( 1 — p)n~k. Wie die elementare Kombinatorik lehrt, ist die Anzahl dieser Kombinationen ή \k) k\(n — k)\ Möglichkeiten, die k Α-Ergebnisse auf die η Realisa(Es gibt tionen aufzuteilen.) Daher ist die Wahrscheinlichkeit p[{k}), daß unter den η Realisationen genau ¿-mal das Ergebnis A eintritt, gegeben durch p m ^ f y p ^,fe/1 i -_ P-h\n-k )
(1) Insbesondere ist
= ^
= 1, also die Wahrscheinlichkeit, daß
«-mal A eintritt, gleich p", die Wahrscheinlichkeit, daß «-mal Ä eintritt, gleich (1 - p)n. Die so gewonnene Verteilung wird Binomialverteilung genannt und mit dem Symbol B„ (p) bezeichnet. Wir überzeugen uns leicht, daß die Summe über die Wahrscheinlichkeiten p ({k}) von k = 0,1,...,« tatsächlich 1 ergibt. Nach dem binomischen Lehrsatz gilt nämlich: Σ (?) pk( 1 - p)»-k =[p+( k=o W
1 - p)]" = 1" = 1 ·
20
2 Häufigkeitsverteilungen
1. Beispiel: Eine Maschine produziert mit einem durchschnittlichen Ausschußanteil von 0,03 (3%). Besteht zwischen den einzelnen Stücken Unabhängigkeit, d. h. ist die Wahrscheinlichkeit, daß ein bestimmtes Stück Ausschuß wird, unabhängig davon, ob die vorhergehenden Stücke Ausschuß waren oder nicht, so wird die Anzahl der Ausschußstücke in einer Serie der Länge η einer Binomialverteilung gehorchen : 0,03 fe 0,97»- fe . Bild 1 zeigt die Verteilung für η = 20. Die Wahrscheinlichkeit, daß unter den 20 zufällig herausgegriffenen Stücken kein Ausschuß ist, ist rund 0,544, d. h. etwa 54%.
Bild 1. Die Verteilung B20(0,03).
Bild 2. Die Verteilung B2(3/4).
2. Beispiel: Bei einer Kreuzung Aa x Aa haben wir folgende Nachkommen zu erwarten: AA mit Wahrscheinlichkeit 1/4, Aa mit Wahrscheinlichkeit 1/2, aa mit Wahrscheinlichkeit 1/4. Ist A dominant, so können wir nur zwischen zwei Phänotypen unterscheiden: Phänotypus A, der den Genotypen AA und Aa entspricht und daher mit der Wahrscheinlichkeit 3/4 auftritt, und Phänotypus a, der dem Genotypus aa entspricht und mit der Wahrscheinlichkeit 1/4 auftritt. Die Wahrscheinlichkeit p ({fe}), daß unter η Nachkommen genau k vom Phänotypus A sind, ist dann ^ j
j^j
. Bild 2 zeigt diese Vertei-
lung für η = 8. Es ist zu beachten, daß die Wahrscheinlichkeiten p {{k}) nur dann einer Binomialverteilung gehorchen werden, wenn die Genotypen
2.2 Die Binomialverteilung
21
der einzelnen Nachkommen voneinander unabhängig sind, also nicht etwa eineiige Mehrlinge vorkommen.
Nun berechnen wir Mittelwert und Varianz der Binomialverteilung: (2)
Mittelwert:
E(k) = np.
Nach Definition ist
Nun ist aber i
k )
n
= n
î)'ais° m
( k ~
=
à
n
( ι
:
î)
-
p)
"'k
= ηρ Σ ( j I J ) p k ~ l (1 - ρ)«"- 1 »-^-!) = n p . (3)
Varianz:
V(k) = np (1 - ρ).
Nach dem Verschiebungssatz gilt : V(k) = E[(k - E{k))2] = E(fe2) - [E(&)]2. Ferner ist (4)
also
E(k2) = E[k(k1)] + E(k), V(k) = E[k(k - 1)] + E(k) -
[E(k)]2.
Nun gilt aber wegen k* die Relation so daß
- 1 ) © E[k{k
- c - n f t :
l)
- 1)] = η [η - 1 )p\
V(k) = »(» - l)p2 + np - n2p* = np(l -
p).
Da die numerische Berechnung der "Wahrscheinlichkeiten (1) der Binomialverteilung langwierig ist (ausgenommen für sehr kleine n), wurden Tabellen ausgearbeitet, in denen diese Wahrscheinlichkeiten und die zugehörigen Summenfunktionen 1 - F ( f - 1 ) = Í Q 2
pk(l-p)"-k
Pfanzagl, AJIgem. Methodenlehre d. Statistik Π, 4. Aufl.
22
2 Häufigkeitsverteilungen
für verschiedene Werte von n, r und p tabelliert sind. (Vgl. die Tabellenwerke des National Bureau of Standards und des Office of the Chief of Ordnance.) Sind solche Tabellen nicht verfügbar, erweist sich oftmals eine Relation als nützlich, welche die Summenfunktion der Binomialverteilung mit der F-Verteilung verknüpft. "Wir kommen darauf in Abschnitt 6.1, S. 116, näher zu sprechen.
2.3 Die Hypergeometrische Verteilung Bei der Ableitung der Binomialverteilung gingen wir von einem Merkmal aus, das zwei Ausprägungen, A und Ä, annehmen kann. Die Wahrscheinlichkeit, mit der die Ausprägung A angenommen wird, haben wir mit p bezeichnet. Die Wahrscheinlichkeit, daß unter η voneinander unabhängigen Realisationen dieser Variablen genau ¿.-mal die Ausprägung A auftritt, ist dann durch (2.2.1) gegeben. Die bei der Ableitung der Binomialverteilung zugrundegelegte Modellvorstellung ist beispielsweise dann adäquat, wenn wir einen Produktionsprozeß betrachten, der mit einer gewissen Wahrscheinlichkeit p defekte Stücke produziert. Die Wahrscheinlichkeit, daß unter η zufällig herausgegriffenen Stücken genau k defekt sind, ist dann durch (2.2.1) gegeben, vorausgesetzt, daß das Auftreten defekter Stücke im Produktionsprozeß zufallsartig erfolgt, und nicht etwa serienweise ! Entnehmen wir jedoch aus einem ganz bestimmten Los eine Stichprobe vom Umfang n, mit dem Ziele, Aussagen über den Anteil der defekten Stücke in diesem Los zu machen (und nicht etwa Aussagen über den Prozeß, aus dem dieses Los hervorgegangen ist), so haben wir nicht mehr η voneinander unabhängige Realisationen ein und derselben zufälligen Variablen vor uns : Nehmen wir an, das Los bestehe aus Ν Stücken, von denen Κ defekt sind. Dann ist die Wahrscheinlichkeit, daß ein zufällig herausgegriffenes Stück defekt ist, gleich — . Greifen wir nacheinander zwei Stücke heraus, so ist die
2.3 Die Hypergeometrische Verteilung
23
Wahrscheinlichkeit, daß das zweite Stück defekt ist, nicht mehr die gleiche wie beim ersten Stück und hängt außerdem davon ab, ob das erste Stück defekt war oder nicht. War das erste Stück defekt, so wird das zweite Stück aus einem Los vom Umfang Ν — 1 mit Κ — 1 defekten Stücken herausgegriffen. Die Wahrscheinlichkeit, als zweites ein defektes Stück herauszugreifen, wenn jç j auch das erste Stück defekt war, ist daher . War das erste Ν - 1 Stück nicht defekt, so ist die Wahrscheinlichkeit, als zweites ein defektes Stück herauszugreifen, gleich
_
.
Wir ersehen daraus, daß wir im Falle eines endlichen Loses die Überlegungen, die uns zu der Binomialverteilung geführt haben, nicht anwenden können (sofern sich die Untersuchung tatsächlich auf das konkret vorliegende Los und nicht auf den dahinter stehenden Produktionsprozeß bezieht. Vgl. zu der hier angeschnittenen Frage der endlichen versus unendlichen Gesamtheit auch Bd. I, Abschnitt 9.5). Um die Wahrscheinlichkeit zu ermitteln, daß in einer Stichprobe vom Umfange η genau k defekte Stücke auftreten, wenn das Los aus Ν Stücken besteht, von denen Κ defekt sind, haben wir folgende Überlegung anzustellen: Es gibt insgesamt ^ j
Möglichkeiten,
aus den Κ defekten Stücken k herauszugreifen, und ^
_ ^ j
Möglichkeiten, aus den (Ν — K) nicht defekten Stücken (n — k) herauszugreifen. Aus der Kombination dieser Möglichkeiten ergeben sich insgesamt
j ^
_ ^ j Möglichkeiten, aus einem Los
mit Κ defekten und (Ν — K) nicht defekten Stücken eine Stichprobe mit k defekten und (n — k) nicht defekten Stücken zu entnehmen. Die Gesamtzahl der Möglichkeiten, auf die man eine Stichprobe vom Umfange η aus einem Los vom Umfang Ν ziehen kann, ist (
J. Jede dieser Möglichkeiten ist bei Zufallsauswahl (N\ gleich wahrscheinlich, hat also die Wahrscheinlichkeit l/( ). ν
2 Häufigkeitsverteilungen
24
Daher ist die Wahrscheinlichkeit einer Stichprobe mit genau k defekten Stücken gleich
(N - K\ (1)
=
Die durch (1) definierte Verteilung heißt Hypergeometrische
teilung.
Ver-
1. Beispiel: Ein Los von 500 Stück soll laut Liefervertrag höchstens 4% Ausschuß enthalten. Um dies zu überprüfen, wird eine Stichprobe von 25 Stück entnommen und das Los abgelehnt, wenn unter den 25 Stücken 1 oder mehrere defekte sind. Daß dieses Prüfverfahren unzulänglich ist, ergibt sich aus folgender Überlegung: Enthält das Los genau 4 % Ausschuß, d. h. 20 defekte Stücke, so ist die Wahrscheinlichkeit, daß in einer Stichprobe vom Umfange η = 25 genau k defekte Stücke auftreten, gleich:
(2)
ρ m) =
g i ù
8 0
']
, )
.
125/ Insbesondere ist die Wahrscheinlichkeit für die Annahme des Loses (d. h. die Wahrscheinlichkeit für k — 0 ) : /480\ U51 |500j
=
480-479.-.456 500-499.. .476
'
Ein Los, das noch dem Liefervertrag entspricht, sollte jedoch mit einer möglichst großen Wahrscheinlichkeit (z.B. 90%) angenommen werden. (Vgl. hierzu auch das Beispiel auf S. 125.) 2. Beispiel: Ein Teich enthält eine unbekannte Anzahl von Fischen, die wir mit Ν bezeichnen wollen. Um Ν zu schätzen, werden Κ Fische gefangen, markiert und wieder freigelassen. Nach einer gewissen Zeit werden η Fische gefangen und festgestellt, daß sich darunter k markierte befinden. Hat zwischen den beiden Zeitpunkten eine vollständige Durchmischung in der Fischpopulation stattgefunden, dann gehorcht k der hypergeometrischen Verteilung (1). Zum Unterschied vom vorigen Bei-
2.3 Die Hypergeometrische Verteilung
25
spiel ist jetzt jedoch nicht K, sondern Ν die unbekannte Größe. Angenommen, es wäre Κ = 1000, η = 500 und k = 44. Dann ist
/1000\ (N - 1000\ l 44 M 456 )
(3)
ÍN\ [sooj
die Wahrscheinlichkeit der beobachteten Stichprobe. Gewisse Werte von Ν (ζ. Β. Ν = 2000 oder Ν = 100000) werden unplausibel sein, weil für sie das Auftreten der beobachteten Stichprobe sehr unwahrscheinlich wäre. Am ehesten wird man einen Wert von Ν vermuten, für den die Wahrscheinlichkeit (3) sehr groß ist. Dies trifft für Ν nahe 114000 zu, denn (1), als Funktion von Ν betrachtet, besitzt ein Maximum nahe Κ
η
.
Diese Schlußweise — ein erstes Beispiel für die in Abschnitt 4.3 in anderem Zusammenhang ausführlich behandelte maximum likelihood-Methode — liefert im konkreten Fall den gleichen Schätzwert wie der Ansatz, daß der Anteil der markierten Fische in der Stichprobe genau so groß ist wie der Anteil der markierten Fische in der gesamten Fischpopulation. Dennoch ist dies kein Beispiel dafür, daß es auch ohne Wahrscheinlichkeitstheorie geht. Denn wie sollte man ohne Wahrscheinlichkeitstheorie zu Aussagen über die Genauigkeit des Schätzers für Ν kommen ? (Wegen weiterer Einzelheiten vgl. ζ. B. Jolly.) Für die Hypergeometrische Verteilung gilt : (4)
Mittelwert :
(5)
· Vananz:
E(k) = n — ; =
n(N — pn) · - KL ^ 1 - - K\ ) .
jr
Führen wir die Abkürzung p = — ein, so ist: E(k) = np, V(k) = η ψ ^ - p d
~ p) .
Ist Ν sehr groß, so wird die Hypergeometrische Verteilung praktisch mit der Binomialverteilung identisch. Dementsprechend strebt auch die Varianz der Hypergeometrischen Verteilung gegen die Varianz der Binomialverteilung (2.2.3).
2 Häufigkeitsverteilungen
26
Hypergeornetrische Verteilung Κ Binomialverteilung
o
2
3
4
5
6
Bild 3. Vergleich von Hypergeometrischer Verteilung und Binomialverteilung mit gleicher Wahrscheinlichkeit.
Bild 3 zeigt die im Beispiel auf S. 24 verwendete Hypergeometrische Verteilung (2), verglichen mit der Verteilung B^ (0,04).
2.4 Die Poissonverteilung Wir betrachten isolierte Drahtstücke einer bestimmten Länge und zählen ab, wie viele Fehler die Isolierschicht aufweist. Im Durchschnitt mögen auf einem Drahtstück der gegebenen Länge α Fehler auftreten. Wir fragen nun, ob man irgendwelche Aussagen über die Verteilung der Anzahl der Fehler machen kann (d. h. angeben kann, wie groß die Wahrscheinlichkeit für 0,1, 2 , . . . Fehler pro Drahtstück ist.) Eine solche Aussage über die Verteilung ist leicht zu gewinnen, wenn man annimmt, daß die Fehler voneinander unabhängig sind, d. h. daß sie nicht etwa stets gehäuft oder aber in periodischen Abständen auftreten (was ζ. B. auf einen Fehler bei einem rotierenden Maschinenteil zurückzuführen sein könnte). Außerdem müssen wir annehmen, daß die Fehler sehr klein (im Idealfall: punktförmig) sind, so daß nicht ein Fehler infolge seiner Ausdehnung das Auftreten anderer Fehler in seiner unmittelbaren Nachbarschaft ausschließt. Wir denken uns nun das Drahtstück in η Teilstücke unterteilt. Dabei sei η so groß gewählt, daß kein Teilstück mehr als einen
2.4 Die Poissonverteilung
27
Fehler enthält. Der Anteil der mit einem Fehler behafteten Teilstücke wird dann im Durchschnitt— sein, d. h. die Wahrscheinlichn keit, daß ein zufällig herausgegriffenes Teilstück einen Fehler enthält, ist — . η Da nach Voraussetzung die Fehlerhaftigkeit eines bestimmten Teilstückes unabhängig von der Fehlerhaftigkeit der benachbarten Teilstücke ist, ist die Wahrscheinlichkeit, daß von den η Teilstücken (die zusammengenommen das ursprüngliche Stück bilden) genau k fehlerhaft sind, gegeben durch die Binomialverteilung :
Nun wird die oben gemachte Annahme, daß jedes Teilstück höchstens einen Fehler besitzt (und die Anzahl der fehlerhaften Teilstücke daher mit der Anzahl der Fehler identisch ist), nur dann für die fiktive Gesamtheit aller Drahtstücke gelten, wenn η über alle Grenzen wächst. Für η °° strebt jedoch der Ausdruck (1) gegen p{{k})=4-e-a.
(2) ^Es strebt 'n\ 1 , »κ} ~~k η
=
1 TT kl
- ^-j
-k
gegen e~a und
n(n - 1) · · · [n - k + 1) gegen η· η· · · η
π)·
Dies ist die Wahrscheinlichkeit dafür, daß auf dem Drahtstück genau k Fehler auftreten, wenn die Anzahl der Fehler im Durchschnitt a beträgt. Wir überprüfen noch, ob die Summe aller Wahrscheinlichkeiten gleich 1 ist: oo ak oo k Σ-Γ7 e~'= 1, da Σ ~rr = e". fe=o kl k=o kl Die durch (2) definierte Verteilung heißt Poissonverteilung. Poissonverteilte Größen werden wir überall dort beobachten, wo die bei der Ableitung der Poissonverteilung gemachten Voraussetzungen wenigstens annähernd erfüllt sind.
28
2 Häufigkeitsverteilungen F ü r die Poissonverteilung gilt :
Mittelwert:
E(k)
=
a.
N a c h Definition ist ak
°°
=
k=0 k\ fe °° ak~1 Σ-jT 7
a
fe=i ( k -
Varianz: V(k)
1)! V(k)
Es gilt: E[k{k=
a2 +
ak
00
= i
k\ a' Σ - - e ~ * = a .
00 =
=
Λ
¿=0 i^-
a.
1)] = a\ Wegen (2.2.4) folgt d a r a u s :
a — a* =
a.
Beispiel: Wir betrachten die Verteilung von Hefezellen in einer Suspension. Tabelle 1 bringt für 400 Volumeinheiten die Aufgliederung nach der Anzahl der Hefezellen. Tabelle 1 Aufgliederung von 400 Volumeinheiten nach der Anzahl der Hefezellen Anzahl der Hefezellen k
0 1 2 3 4 5 6 7 8 9 10 11 12 mehr als 12 Σ
Anzahl der Volumeinheiten mit k Hefezellen « i
knk
0 20 43 53 86 70 54 37 18 10 5 2 2 0
0 20 86 159 344 350 324 259 144 90 50 22 24 0
0,000 0,050 0,108 0,132 0,215 0,175 0,135 0,092 0,045 0,025 0,013 0,005 0,005 0,000
0,009 0,043 0,102 0,159 0,185 0,174 0,135 0,091 0,053 0,028 0,013 0,005 0,002 0,001
400
1872
1,000
1,000
nk
400
4
> 6 8 f e £—4,68 fe!
Quelle: Student: On the error of counting with a haemacytometer, Biometrika Bd. 5, 1907, S. 3 5 1 - 3 6 0 .
29
2.4 Die Poissonverteilung
Die Gesamtzahl der Hefezellen beträgt 1872, im Durchschnitt pro 1872
Volumeinheit also
= 4,68. Die beiden letzten Spalten von Tabelle 1
400 zeigen die empirische Häufigkeitsverteilung und die Poissonverteilung mit a = 4,68, die miteinander gut übereinstimmen. (Ein exakter Test für die Übereinstimmung wird auf S. 176, 177 durchgeführt.)
Weitere Beispiele für das Auftreten der Poissonverteilung sind: Die Anzahl der innerhalb einer bestimmten Zeitspanne zerfallenden Atome; die Anzahl der innerhalb einer bestimmten Zeitspanne eintreffenden Telephonanrufe; die Anzahl der Unfälle pro Arbeiter innerhalb einer bestimmten Zeitspanne; in der Spinnerei die Anzahl der Fadenbrüche innerhalb einer bestimmten Zeitspanne, die Anzahl der Noppen auf einem Kammzugstück bestimmter Größe usw. Vielfach wird auch dort mit der Poissonverteilung gearbeitet, wo eigentlich eine Binomialverteilung vorliegt. Ist nämlich in einer Binomialverteilung die Wahrscheinlichkeit p klein, so stimmt die Wahrscheinlichkeit der Binomialverteilung (2.2.1) annähernd überein mit der Wahrscheinlichkeit, die sich für eine Poissonverteilung mit dem Mittelwert np ergeben würde: kl Auf diese Weise kann man verschiedene Berechnungen vereinfachen (vgl. das Beispiel S. 132,133). Tabelle 2 Vergleich von Binomial- und Poissonverteilung mit gleichem Mittelwert
k
Binomialverteilung ρ = 0,05, η = 10
Poissonverteilung a = 0,5
0 1 2 3 4 mehr als 4
0,599 0,315 0,075 0,010 0,001
0,607 0,303 0,076 0,012 0,002
0,000
0,000
Σ
1,000
1,000
30
2 Häufigkeitsverteilungen
W^Binomial tBBSPoisson
o
2
3
4
Bild 4. Vergleich von Binomialverteilung und Poissonverteilung.
2.5 Die Normalverteilung Die bisher betrachteten Verteilungen waren diskret: Es handelte sich beispielsweise um die Anzahl defekter Stücke (Binomialverteilung, Hypergeometrische Verteilung) oder um die Anzahl der Fehler pro Stück (Poissonverteilung), also Größen, die ihrer Natur nach nur ganzzahlige Werte annehmen können. Im folgenden wollen wir stetige zahlenmäßige Merkmale betrachten, bei denen — zumindest innerhalb eines gewissen Intervalles — jeder beliebige Wert angenommen werden kann. Beispiele für solche Merkmale sind: Länge, Gewicht, Zeit usw. (Wegen des Unterschiedes von diskreten und stetigen Merkmalen vergleiche Band I, Abschnitt 2.2.) Bildet man für ein stetiges Merkmal auf Grund der beobachteten Werte eine Häufigkeitsverteilung, so weist diese oftmals eine charakteristische glockenförmige Gestalt auf, die durch folgende Dichtefunktion beschrieben werden kann : (1)
na
Eine Verteilung mit dieser Dichte heißt Normalverteilung und wird mit dem Symbol Ν (μ, σ2) bezeichnet. (Auf die Gründe, warum viele der empirisch beobachteten Verteilungen annähernd einer
2.5 Die Normalverteilung
31
Normalverteilung entsprechen, kommen wir in Abschnitt 3.4, S. 61, noch zu sprechen.) Der Nachweis, daß (1) tatsächlich eine Dichtefunktion ist, d. h. + 00
daß f φ (χ ; μ, σ) àx = 1 für alle μ und σ, ist etwas komplizierter, — oo wird aber in fast allen Lehrbüchern der Mathematischen Statistik gegeben (vgl. ζ. B. Stange l, S. 210ff.). Die Dichtefunktion der Normalverteilung weist 2 Parameter auf: μ und er. Es gilt: + 00
(2)
Mittelwert:
E{x) =
(3)
Varianz:
V{x)=
/ χψ(χ; μ, σ)άχ = μ, — oo + 00
f (χ — μ)2φ(χ; μ, ο)άχ = σ2. — oo
μ ist also der Mittelwert, σ2 die Varianz (σ die Standardabweichung) der Normalverteilung. (Wir haben diese Parameter von vornherein entsprechend ihrer Bedeutung bezeichnet.) Die Normalverteilung ist symmetrisch um μ : Die Dichtefunktion nimmt an den Stellen χ' = μ - Δ und χ" = μ + Δ den gleichen Wert an. μ charakterisiert die Lage der Verteilung, o ihre Streuung. Wie Bild 5 zeigt, weist die Kurve der Dichtefunk-
Bild 5. Die Bedeutung von μ und σ bei der Normalverteilung.
32
2 Häufigkeitsverteilungen
tion für χ' = μ — ο und χ" = μ + α je einen Wendepunkt") auf. Je größer σ ist, um so weiter sind diese beiden "Wendepunkte von μ entfernt. Die Wahrscheinlichkeit, daß eine Realisation der zufälligen Variablen kleiner als ein bestimmter Wert χ ausfällt, ist: X Φ ( χ · μ , σ ) =
(4)
f — oo
Χ~μ
(6) Χ —
e~ i V 2 df,
a
μ
- bezeichnen wir als standardisierte Variable, weil durch σ diese Transformation eine beliebige Normalverteilung mit den Parametern μ und c auf die Standard-Normalverteilung mit μ = 0 und er = 1 zurückgeführt wird. Da ψ{χ·, 0, 1) um den Wert 0 symmetrisch ist, gilt: ~x j ψ(u; — oo
(7)
+00
0,1)
du
=
f +x
+x
(*2,μ2, "2) • Für ρ = 0 ist die Dichte der 2-dimensionalen Normalverteilung das Produkt der Dichten ihrer beiden Randverteilungen, d. h. für ρ = 0 sind die beiden Variablen xlt x2 stochastisch unabhängig. Die bedingte Verteilung von Χι, gegeben x3, ist wieder eine (eindimensionale) Normalverteilung mit σ ι Mittelwert: μι + ρ — (x2 — μί),
Varianz:
— o2).
Diese Beziehung zeigt die Bedeutung von ρ besonders klar: Im Falle ρ = 0 ist der Mittelwert der bedingten Verteilung der Variablen X\ vom Wert der zweiten Variablen unabhängig, für Werte ρ Φ 0 besteht eine Abhängigkeit. Die Varianz der bedingten Verteilung ist um so kleiner, je größer ρ ist. Dem Extremfall ρ = ± 1 entspricht funktionale Abhängigkeit, d. h. ist durch x2 eindeutig bestimmt. Der Unterschied zwischen positiven und negativen Werten von ρ besteht nicht in der Stärke des Zusammenhanges, sondern in der Richtung. Bei positivem ρ sind große Werte x2 im allgemeinen mit großen Werten Xi verbunden (positive Korrelation), während bei negativem ρ große Werte im allgemeinen mit kleinen Werten Xi verbunden sind (negative Korrelation). Unterwirft man xx und x2 linearen Transformationen, so beeinflußt dies zwar die Parameter μι, und μ2, nicht jedoch den Parameter ρ.
49
3 Funktionen zufälliger Variabler 3.1 Das induzierte Wahrscheinlichkeitsmaß Gegeben sei ein Wahrscheinlichkeitsmaß über dem 1RM. Das M-tupel ( x i , . . X n ) repräsentiere das Ergebnis eines Zufallsexperimentes, das durch dieses Wahrscheinlichkeitsmaß beschrieben wird. (Häufig wird es sich dabei um die «-fache unabhängige Wiederholung ein und desselben Zufallsexperimentes handeln, das Wahrscheinlichkeitsmaß über dem RM also ein Produktmaß sein, doch ist das für die folgenden Überlegungen nicht relevant.) Berechnen wir zu jeder Realisation ( * i , . . . , x„) des Zufallsexperimentes den Funktionswert tn(xi,...,x„) so erhalten wir wieder eine zufällige Variable: Der Wert von m(xi,. . . , x„) wird von einer Realisation zur nächsten zufällig variieren. Es ist daher sinnvoll, nach dem Wahrscheinlichkeitsmaß zu fragen, das die Verteilung von m[xi,.. .,x„) beschreibt. Es heißt das durch die Funktion m induzierte Wahrscheinlichkeitsmaß oder kürzer auch: Die Verteilung von m{xi,..., xn)· Diese Verteilung kann aus m und dem die Verteilung der ( x l t . . . , x„) beschreibenden Wahrscheinlichkeitsmaß Ρ errechnet werden: Die Wahrscheinlichkeit, die das induzierte Wahrscheinlichkeitsmaß der Menge Β zuordnet, ist gleich der Wahrscheinlichkeit, die das Wahrscheinlichkeitsmaß Ρ der Menge jener ( * i , . . . , xn) zuordnet, für die πι(χχ,.. ., x„) ε Β. Das so definierte induzierte Wahrscheinlichkeitsmaß hat eine ganz konkrete Bedeutung, und könnte im Prinzip empirisch ermittelt werden, indem man sehr viele Realisationen . . . , xn) herstellt und die Häufigkeitsverteilung der zugehörigen Funktionswerte m{xi,.. ., xn) ermittelt. Im folgenden wollen wir die Berechnung des induzierten Wahrscheinlichkeitsmaßes an einigen Beispielen illustrieren. 1. Beispiel: Es wird mit zwei idealen Würfeln gewürfelt. Gesucht wird die Wahrscheinlichkeit dafür, daß das Produkt der beiden Augenzahlen den Wert 4 annimmt. Das Ergebnis des Zufallsexperiments können wir durch das Zahlenpaar (i, j) beschreiben, wobei i die Augenzahl des ersten, / die Augenzahl des zweiten Würfels bedeutet. Die Grundmenge X besteht in diesem Falle also aus den 36 Zahlenpaaren {(/, ;) : i = 1 , . . . , 6; / = 1 , . . . , 6)}. Da wir annehmen können, daß die Augenzahl des ersten
3 Funktionen zufälliger Variabler
50
Würfels von der Augenzahl des zweiten Würfels unabhängig ist, gilt 1 1 _ 1 Ρ ({i, j}) = — ' — — — . Gesucht ist das von der Funktion m (i, j) = i · j 6
6
j o
induzierte Wahrscheinlichkeitsmaß, insbesondere: die Wahrscheinlichkeit, die dieses induzierte Maß der Menge {4} zuordnet. Wir haben daher die Menge aller Paare (»',/) aus der Grundmenge aufzusuchen, für die m (') /) = 4. Dies sind die Paare (1, 4), (2,2), (4,1). Die Wahrscheinlichkeit, die der aus diesen drei Paaren bestehenden Menge {(1,4), (2,2), (4,1)} zukommt, ist P{( 1 , 4 ) , (2, 2), ( 4 , 1 ) } =
+
+
=
.
2. Beispiel: Seien xu . . x n n unabhängige Realisationen eines Zufallsexperimentes, bei dem das Ergebnis Λ: mit Wahrscheinlichkeit ρ den Wert 1, mit Wahrscheinlichkeit 1 — ρ den Wert 0 annimmt. Gesucht ist die Wahrscheinlichkeit dafür, daß xt + . . . + x„ den Wert k annimmt für k = 0 , 1 , . . . , n. Die Berechnung führt auf den Wert (j^J
pk(l-p)M_fe,
d. h. auf die Binomialverteilung (vgl. Abschnitt 2.2). 3. Beispiel: Seien xlt..., xn unabhängige Realisationen von η Zufallsexperimenten, die durch die Wahrscheinlichkeitsmaße Pu ..., Pn über R beschrieben werden. Gesucht ist das durch die Funktion tn ( * ! , . . Xn) = min { * ! , . . . , Xn) induzierte Wahrscheinlichkeitsmaß. Es erweist sich in diesem Falle als zweckmäßig, das induzierte Wahrscheinlichkeitsmaß durch die Summenverteilung zu beschreiben: Bezeichne { ( ^ , . , . , Χ η ) : min { * ! , . . . , xn} t} die Menge jener M-tupel {xlt. . xn), für die min { * ! , . . . , Xn} is t. Dann gilt für die Summenfunktion Fn des induzierten Wahrscheinlichkeitsmaßes : Fn (t) = Ρ { ( » ι , . . X n ) '· min { x x , . . . , xn} t} = 1 - Ρ{(Χχ,. . ., Xn): min { * ! , . . . , * „ } > {} = 1 - P { ( x , . . ., x„) : xi > t für i = 1, . . ., η). Da die Realisationen xlt. . ., xn voneinander stochastisch unabhängig sind, gilt
P i f o , . . . , x„) : x¡ > t für i = 1, ...,«}= somit
η Π Pitt,
¡=
1
,
Fn(t) = 1 - Π Pdt, oo) . 1= 1
a) Gesucht ist die Wahrscheinlichkeit dafür, daß unter 3 Würfen als kleinste Augenzahl 2 auftritt. Diese Wahrscheinlichkeit ist F 3 (2) — F 3 (1), 3
3
5
also 7 7 P , (1, - Π P/(2, o o ) . D a P , ( l , oo) = P¡{2,3,4,5,6} = -7- und 6 ί= 1 ί= 1 3 3 4 / 5 \ / 4 \ 6 1 Pj{ 2,oo) = - - , erhalten wir hierfür den Wert I — j — ( — j = ·
3.1 Das induzierte Wahrscheinlichkeitsmaß
51
b) Wir betrachten ein Aggregat, das aus η Komponenten besteht. x¡ repräsentiere die Lebensdauer der i. Komponente. Wir nehmen an, daß die Lebensdauern der einzelnen Komponenten voneinander unabhängig sind (daß also nicht, beispielsweise, eine Komponente knapp vor dem Ausfall abnorm funktioniert und damit den Ausfall anderer Komponenten begünstigt). Wir nehmen ferner an, daß das Aggregat ausfällt, sobald die erste Komponente ausfällt, min { * ! , . . . , xn] ist dann die Lebensdauer des Aggregates und das durch diese Funktion induzierte Wahrscheinlichkeitsmaß beschreibt die Verteilung der Lebensdauer der Aggregate. Ist die Lebensdauer der ». Komponente exponentiell verteilt mit der Dichte 1 -τ- e
σ>
°> , dann gilt Ρ,· (i,
\F
= —
I
"i J t
ÏL
e
e
. Die Sum-
menfunktion der Verteilung der Lebensdauer des Aggregates ist also gleich
Fn(t) = 1
»
He
"
- —
1=1
"·• = l-β
i=1
1 ΊΓ
' .
Daraus erhalten wir durch Differenzieren nach t die Dichte dieser Verteilung,
(¿iK' 4 i · Die Lebensdauer des Aggregates ist also wieder exponentiell verteilt.
4. Beispiel: Sei χ die Realisation einer zufälligen Variablen, deren Wahrscheinlichkeitsmaß die Dichte p besitzt. Gesucht ist die Verteilung von m (χ) = χ2. Wir erhalten die Summenfunktion der induzierten Verteilung F(t) = P{x:
x2 ^ t} =P(-
r-
1/7
r-
y t , f t ) =
/
p(x) dx. Daraus er-
halten wir durch Differenzieren nach t für die Dichte der Verteilung von χ2 die Funktion
t~
yin
i
( ρ (ί^) + ρ ( -
) . Ist etwa p (x) = —
so ist die Dichte der Verteilung von x2 gleich
t"
yiñ
γΐπ
1
2
Verteilung mit 1 Freiheitsgrad (vgl. Abschnitt 3.3).
ι
e
- -L 2
e
_ ί! 2
,
, also die χ 2 -
52
3 Funktionen zufälliger Variabler 3.2 Lineare Funktionen zufälliger Variabler
In der Statistik besonders wichtig sind lineare Funktionen unabhängiger zufälliger Variabler, m{xi,.. ., x„) = a0 + axxx + a2x¡¡ + .. . + a„x„. Über die Verteilung von m läßt sich zwar im allgemeinen nichts aussagen, doch gibt es eine sehr einfache und wichtige Relation für Mittelwert und Varianz (vgl. ζ. B. Stange I, S. 170 bis 171). Es sei :
E(x¡) = n,
V(*,-) = of.
Dann gilt: (1) (2)
E(m(xi,..., V(m(Xl,...,
x„)) = a0 + αφχ + α2μζ + . . . + α„μ„, x„)) = a\a\ + a\a\ + ... + aW„.
Aus (1) und (2) folgt für das arithmetische Mittel χ= + x2 + ... + x„)/n: (3)
Ε(χ)=-(μι
(4)
v(*) = - ^ - ( « ; + * · + . . . + < * ) . η
η
+
μί
+ . . . + μ„),
Sind die Verteilungen identisch oder haben sie zumindest gleichen Mittelwert und gleiche Varianz, so gilt: (5)
Ε(χ)=μ,
V(x)=
Neben dem arithmetischen Mittel * = (*i + Xg + . . . + xn)/n ist vielfach auch die Summe S = Χι + x2 + .. . + x„ von Interesse. Für diese gilt : (6)
(7)
E{S) = μι + μ2 + . . . + μ„, V(S) = a\ + a¡ + . . . + ai.
Für Verteilungen mit demselben Mittelwert und derselben Varianz gilt daher: (8)
£(S) = »j»,
V(S) = «σ 2 .
3.2 Lineare Funktionen zufälliger Variabler
53
Bei manchen Verteilungstypen gehört die Verteilung der Summenvariablen wieder demselben Verteilungstyp an. Solche Verteilungstypen werden reproduktiv genannt. Dies gilt z. B. für die Poissonverteilung : Hat x¡ eine Poissonverteilung mit dem Parameter a¡, so hat S eine Poissonverteilung mit dem Parameter (Λι + a2 + ... + a„). Dies ist übrigens im speziellen Falle der Poissonverteilung sehr anschaulich, wenn wir uns daran erinnern, wie wir zur Poissonverteilung gekommen sind: Wir betrachten ein Drahtstück vorgegebener Länge, auf dem die durchschnittliche Zahl der Fehler a betrug. Bilden wir die Verteilung der Summe zweier Variabler, so heißt dies, daß wir die beiden Drahtstücke in eines zusammenfassen und uns nur für die Anzahl der Fehler auf beiden Drahtstücken zusammen interessieren. Diese wird poissonverteilt sein und im Durchschnitt (αχ + a2) betragen. Im Falle « = 2 ist der exakte Beweis für die Reproduktivität der Poissonverteilung übrigens sehr leicht zu führen: Es sei die Wahrscheinlichkeit, daß xj den Wert k annimmt, gleich ^ r e ~ a ' ( j = 1,2). Die Variable x1 +x2 nimmt den Wert k für folgende Paare {xlt x2) an:
(0, k), (1, k - 1),..., (i,k - 0 :
(1) Wählt man ζ. B. t — 10, so erhält man die Aussage: Die Wahrscheinlichkeit, daß χ von μ um mehr als 10 abweicht, ist höchstens 1%. Die Tschebysrheff' sehe Ungleichung gilt für beliebige Verteilungen (sowohl diskrete als auch stetige). Es ist daher nicht erstaunlich, daß ihre Aussagen bei gewissen Verteilungstypen nicht sehr scharf sind. Ihre praktische Bedeutung ist folglich beschränkt. Man ersieht aus der Tscbebyscbeff'sehen Ungleichung jedoch sofort, daß die Wahrscheinlichkeit dafür, daß das Stichprobenmittel vom Erwartungswert um mehr als ε abweicht, mit steigendem η gegen 0 strebt. (Hinweis: Man setze in (1) ί=ε)/η/σ.) Prägnanter formuliert: Das Stichprobenmittel konvergiert mit steigendem Stichprobenumfang (stochastisch) gegen den Erwartungswert. Dies ist eine schwache Form des Gesetzes der großen Zahlen. Es ist jedoch möglich, über das Verhalten der Mittelwerte aus großen Stichproben noch eine tiefer liegende Aussage zu machen. Zu diesem Zwecke betrachten wir die Verteilung der Mittelwerte aus Stichproben vom Umfang η (d. h. wir denken uns, daß das Ziehen einer Stichprobe vom Umfang η mit anschließender Berechnung des Mittelwertes sehr oft wiederholt und aus diesen Mittelwerten eine Häufigkeitsverteilung gebildet wird). Das Gesetz der großen Zahlen sagt aus, daß sich diese Häufigkeitsverteilung mit steigendem Stichprobenumfang mehr und mehr um den Erwartungswert konzentriert : Nach der Tscbebyscbeff' sehen Ungleichung umfaßt der Bereich (μ - 10σ/j/w , μ + 1 0 α / ] / η ) mindestens 99% dieser Verteilung. Das „Zusammenziehen" der Verteilung der Mittelwerte um den Erwartungswert ist jedoch nicht das einzige Phänomen, das wir beim Ansteigen des Stichprobenumfanges beobachten. Wir stellen
63
3.4 Mittelwerte aus großen Stichproben
darüber hinaus fest, daß die Gestalt der Verteilung immer ähnlicher der Gestalt der Normalverteilung wird. Dies ist der Inhalt des Zentralen Grenzwertsatzes. Die praktische Konsequenz aus dem zentralen Grenzwertsatz ist die, daß man bei der Berechnung eines Toleranzintervalles für die Verteilung der Mittelwerte bei großen Stichprobenumfängen nicht auf die Tschebyscheff'sehe Ungleichung angewiesen ist, sondern von der Normalverteilung ausgehen kann : Der Bereich (μ — toi Ϋ n, μ + t er/)/ η ) enthält laut Tschebyscheff'scher Ungleichung minde1 stens den Anteil — der Verteilung der Mittelwerte. Laut Zentrat +t lem Grenzwertsatz ist dieser Anteil etwa
J e
xV2
dx,
also
viel größer. Will man beispielsweise ein Toleranzintervall berechnen, das mindestens 99% aller Mittelwerte umfaßt, müßte man nach der Tschebyscheff'sehen Ungleichung das Intervall (μ — 10 σ / / « , μ + \Qa/Yñ) bilden. Nach dem Zentralen Grenzwertsatz umfaßt — für hinreichend große η — bereits das Intervall (μ — 2,58 σ/Υ η, μ + 2,58 α/Υ~ϋ) 99% aller Mittelwerte. Wie genau die Näherungsaussage des Zentralen Grenzwertsatzes ist, hängt natürlich davon ab, wie stark die Ausgangsverteilung von der Normalverteilung abweicht. Ist die Ausgangsverteilung eingipfelig und nicht allzu schief, wird die Näherungsaussage bereits für kleine η recht genau sein (soferne die Ausgangsverteilung endlichen Erwartungswert und endliche Varianz besitzt). Um zu demonstrieren, daß auch für Variable, deren Verteilung von der Normalverteilung stark abweicht, die Verteilung der Mittelwerte bereits für kleine Stichprobenumfänge gut mit der Normalverteilung übereinstimmt, wurde die Häufigkeitsverteilung der Summe der Augenzahlen berechnet, die man beim Werfen von 5 Würfeln erhält. Bild 21 zeigt, daß diese bereits die typische Glockenform der Normalverteilung besitzt, obwohl die Ausgangsverteilung eine
64
3 Funktionen zufälliger Variabler
Gleichverteilung ist (die jedem der Werte 1, 2 , . . . , 6 die Wahr1 scheinlichkeit— zuordnet). 6 — exakte Verteilung —Normalverteilung
5 6 7 BS 10 η 12 Ο Κ 15 Κ 17 IS 19 20 21 22 23 24 Χ 26 27 2β 2 Bild 21. Die Verteilung der Augen-Summe von 5 Würfeln und deren Approximation durch die Normalverteilung.
Der Zentrale Grenzwertsatz erklärt auch, warum so viele empirische Häufigkeitsverteilungen annähernd einer Normalverteilung entsprechen. Wenn ein Merkmal durch Zusammenwirken sehr vieler voneinander unabhängiger Einflußfaktoren bestimmt wird und nicht einer der Einflußfaktoren dominiert, wird die Verteilung annähernd normal sein, wenn die Wirkungen der einzelnen Einflußfaktoren additiv sind. Nimmt man an, daß die Wirkung jedes Einflußfaktors proportional zu dem bereits erreichten Wert des Merkmals ist, erhält man eine logarithmisch-normale Verteilung (vgl. Cramer, S. 219, 220). Der Zentrale Grenzwertsatz liefert natürlich nicht nur eine Aussage über die Verteilung von Mittelwerten großer Stichproben, sondern auch über die Verteilung von Summen großer Stichproben. Ist ( * i + . . . + xn)/n asymptotisch normalverteilt mit Erwartungswert μ und Standardabweichung o/fñ, so ist + . . . + Xn asymptotisch normalverteilt mit Erwartungswert η μ und Standardabweichung σ 1Γ η .
3 . 4 Mittelwerte aus großen Stichproben
65
Anwendung des Zentralen Grenzwertsatzes auf die Binomialverteilung: Da wir eine nach B„ (p) verteilte zufällige Variable als Summe von η unabhängigen zufälligen Variablen auffassen können, folgt aus dem Zentralen Grenzwertsatz, daß die Verteilung der standardisierten Variablen (k — ηρ)/Ϋ np(l — p) für η ->· °° gegen die Verteilung Ν (0,1) strebt. Für große η stimmt daher die Binomialverteilung B„{p) annähernd mit der Verteilung N(np, np(1 — p)) überein; d. h., es gilt: fe+l/2
/ \ W
Γ J
k — l/Z
1 Ϋ2π Ϋ„ρ(ι
(»-»ρ)· -
ρ)
/ k + 112 - np \ ( k - 1/2 - np ,/ , . - ΦI Vnpd-p) J ^ Vnp(l-p) J' wobei das Zeichen „ ^ " ausdrücken soll, daß die ersten beiden Ausdrücke von (2) nur annähernd gleich sind. (2)
Λ
= Φ
Wie gut die Binomialverteilung mit der Normalverteilung übereinstimmt, hängt wesentlich von p ab, denn je stärker p vom Werte 1/2 abweicht, um so größer ist die Asymmetrie der Binomialverteilung, und um so größer muß η sein, um eine befriedigende Übereinstimmung mit der Normalverteilung zu erreichen. Als praktische Faustregel gilt, daß man die Binomialverteilung dann mit hinreichender Genauigkeit durch eine Normalverteilung approximieren kann, wenn
Beispiel: Bei genetischen Anwendungen hat man oft mit der Verteilung B„ (1/4) zu tun. Für η = 50 können wir diese Verteilung bereits durch eine Normalverteilung mit Mittelwert μ — 50 · 1 / 4 = 12,5 und Varianz σ 2 = 5 0 · 1 / 4 · 3 / 4 = 9,375 approximieren. Bild 2 2 zeigt die auf Grund der Binomialverteilung berechneten exakten Wahrscheinlichkeiten und deren Approximation durch die Normalverteilung.
Anwendung des Zentralen Grenzwertsatzes auf die Poissonverteilung: Da die Summation zweier unabhängiger poissonverteilter Variabler mit den Parametern a^ und a 2 wieder zu einer Poissonverteilung mit dem Parameter {αχ + a2) führt, hat die Summe zn
66
3 Funktionen zufälliger Variabler
von η unabhängigen poissonverteilten Variablen mit dem Parameter a wieder eine Poissonverteilung, und zwar mit dem Parameter na. Da für diese Poissonverteilung μ = na und σ2 = na, strebt nach dem Zentralen Grenzwertsatz die Verteilung von (z„ — na)/Y na
Bild 22. Die Verteilung B 6 0 ( l / 4 ) und deren Approximation durch die Normalverteilung Ν (12,5 , 9,375).
für m °° gegen Ν (0,1). Also strebt auch die Verteilung von (k — a w a gegen die Normalverteilung Ν (0,1) für a -» wenn die zufällige Variable k nach einer Poissonverteilung mit dem Parameter a verteilt ist. Für große a gilt daher: ak
-a
Λ
( * + 1/2 - a \
- f k - î / 2 - a \
Praktisch kann man die Poissonverteilung durch eine Normalverteilung approximieren, sobald a > 9. Beispiel: Aus einer großen Zahl von Messungen ergab sich die Anzahl der Fadenbrüche pro 200 Spindelstunden mit 10,7. Es ist zu bestimmen, in welchem Bereich die Werte für die einzelnen Spindeln pro 200 Spindelstunden streuen werden. Einen Bereich, der 99% aller Einzelwerte urafaßt, erhalten wir aus:
3.5 Transformationen + 1/2 - a
67
= 2,58, also fej = - 1/2 + 10,7 + 2,58 / l 0 , 7 « 19 ,
η ko -
1/2 - a
- 2,58, also ¿ 0 = 1 / 2 + 10,7 - 2,58 Ϋ10,7 « 3 .
η
Die Anzahl der Fadenbrüche pro 200 Spindelstunden wird also fast immer zwischen 3 und 19 liegen.
0
2
i
6
8
10 12 Μ IS 18 20 22 2¿
Bild 23. Die Poissonverteilung mit dem Mittelwert 10,7 und deren Approximation durch die Normalverteilung Ν(10,7 , 10,7).
3.5 Transformationen In diesem Abschnitt wollen wir verschiedene praktisch wichtige Transformationen zufälliger Variabler besprechen. Sei Λ: annähernd verteilt nach Ν (μ, σ2) und m eine beliebige Funktion. Ist die Krümmung von m im Streubereich der Verteilung gering, so kann m(x) dort durch die lineare Funktion m [μ) + + (χ — μ) m' (μ) approximiert werden. Da eine lineare Funktion einer normalverteilten Variablen wieder normalverteilt ist (vgl. 3.2.9 für η = 1), sind die transformierten Werte gleichfalls annähernd normalverteilt, und zwar nach Ν{ιη{μ), {m'(μ))2σ2). Beispiel: Wer bei der Prüfung von Garnen die Nummer (Nm) bestimmt, wird annehmen, daß eine Normalverteilung vorliegt. Wer das Meter-
68
3 Funktionen zufälliger Variabler
gewicht von Garn bestimmt, wird ebenfalls eine Normalverteilung annehmen. Beide Annahmen stehen jedoch genaugenommen zueinander im Widerspruch, denn die eine Größe ist der Kehrwert der anderen, und wenn eine der beiden normalverteilt ist, kann es die andere theoretisch nicht sein. Praktisch muß jedoch nicht notwendigerweise eine der beiden Annahmen falsch sein: Ist nämlich der Variationskoeffizient klein, so X 9Î9>-I
sS»r SÎ95
SSSÍ-
3Ä599 98 97 : 95 90 HO 70
91 • 97 95 • 90 Κ 70 -
so SO
SO • SO to -
40 30
X 20 10 -
20
10 5
S
i 05M5 :
:
2I -
2
OS
35 36 37 39 39 iO it ¡2 NmC^i 4» 2/0 2X 2f0 270 2B0 220 K~3Vm
Bild 24. Summenkurve zur Verteilung der Garnnummern.
Bild 25. Summenkurve zur Verteilung der Metergewichte.
kann die durch Bildung des Kehrwertes sich ergebende Transformation in dem gesamten für die Verteilung relevanten Bereich durch eine lineare Transformation approximiert werden. Lineare Transformationen führen aber bekanntlich eine Normalverteilung wieder in eine Normalverteilung über. Im konkreten Falle kann die Transformation \/x in der Nähe von μ durch 1 1 1 — = μ (* - ™ μ) —γ X μ2 approximiert werden. Bild 24 zeigt die Summenkurve der Verteilung von 100 Garnnummern (Sollwert Nm 40, Weiflänge 100 m), Bild 25 die Summenkurve der Verteilung der zugehörigen Metergewichte (g/m). Nummer und Metergewicht
3.5 Transformationen
69
sind zueinander reziprok. Trotzdem zeigen beide Summenkurven im Wahrscheinlichkeitsnetz einen geradlinigen Verlauf* Ist die Krümmung der Transformation im Streubereich der Verteilung nicht vernachlässigbar, wird die Gestalt der Verteilung geändert. M a n kann daher Transformationen auch dazu verwenden, um die Gestalt der Verteilung zu verändern, ζ. B . um eine Verteilung annähernd in eine Normalverteilung zu transformieren. Dies ist deshalb praktisch bedeutungsvoll, weil viele statistische Methoden nur auf normalverteilte Größen anwendbar sind. Praktisch relevante Abweichungen von der Normalverteilung treten vor allem dann auf, wenn bei einer Häufigkeitsverteilung die Variable nach unten durch den Wert 0 begrenzt ist und einen großen Variationskoeffizienten aufweist. Dies gilt ζ. B . für Festigkeitswerte oder für Zeiten (Verrichtungszeit, Reaktionszeit usw.). Auch auf dem Gebiete der Biologie und Medizin treten oft schiefe Verteilungen auf. W e n n die Verteilung von links durch den Wert 0 begrenzt ist und nach rechts flach ausläuft, dann zeigt sich häufig, daß man durch Logarithmieren zu annähernd normalverteilten Werten k o m m t . Durch das Logarithmieren wird nämlich der Bereich zwischen 0 und 1 in den Bereich von — oo bis 0 übergeführt und daher der linke T e i l der Verteilung stark gestreckt. V o n praktischer Bedeutung wird die logarithmische Transformation bei einer nach unten durch den W e r t 0 begrenzten Verteilung vor allem dann sein, wenn die Streuung nicht klein im Vergleich mit dem Mittelwert ist und somit der Grenzwert 0 in das „natürliche Toleranzintervall" fällt, also wenn μ — 3 o < 0 , d. h. σ 1 — > — . M a n wird daher vor allem dann eine logarithmische T r a n s it 3 formation anwenden, wenn der Variationskoeffizient größer als 1/3 ist. D a logarithmische Transformationen häufig angewandt werden, gibt es auch ein sogenanntes „logarithmisches" Wahrscheinlichkeitsnetz, bei dem die Teilung der Abszissenachse logarithmisch ist, so daß man es sich erspart, die Werte vor der Eintragung in das Wahrscheinlichkeitsnetz zu logarithmieren. Bild 27 zeigt die SumS
Pfanzagl, Allgem. Methodenlehre d. Statistik II, 4. Auf!.
3 Funktionen zufälliger Variabler
70
menkurve der in Bild 26 dargestellten Häufigkeitsverteilung im gewöhnlichen, Bild 28 im logarithmischen Wahrscheinlichkeitsnetz. Während die Summenkurve im gewöhnlichen Wahrscheinlichkeitsnetz deutlich gekrümmt ist, verläuft sie im logarithmischen Wahrscheinlichkeitsnetz praktisch geradlinig, so daß man annehmen
7
β
$
10
11
12
13
14
15
Bild 26. Häufigkeitsverteilung von Blutkalkwerten. Quelle: Proppe, Α.: Blutkalkbestimmungen zur Überwachung der Vigantolbehandlung des lupus vulgaris. Der Hautarzt, I (1950), S. 114.
kann, daß diese Verteilung durch das Logarithmieren tatsächlich annähernd in eine Normalverteilung übergeführt wird. Der an der logarithmisch-normalen Verteilung besonders interessierte Leser wird auf das Buch von Aitchison und Brown sowie auf die Arbeiten von Gebelein und Wartmann hingewiesen. Anwendungen auf technische Probleme finden sich bei Daeves und Beckel, Anwendungen auf medizinische Probleme bei Gebelein und Heite. Auch bei diskreten Verteilungen kann eine Transformation unter Umständen von Nutzen sein. Wie wir in Abschnitt 3.4 gesehen haben, strebt die Binomialverteilung gegen eine Normalverteilung. Es liegt daher nahe, verschiedene speziell für die Normalverteilung entwickelte Verfahren (wie Streuungszerlegung und Regressions-
3.5 Transformationen
71
analyse) auch auf binomialverteilte Variable anzuwenden. Dies scheitert jedoch zunächst daran, daß die genannten Verfahren von der Voraussetzung ausgehen, daß die Varianz für alle Stichproben die gleiche ist, während sich die Varianz der Binomialverteilung χ sss» sas= 99.5 99 98 97 95 90 SO 70 SO SO
Ψ
ï
Pi~ 16 • Um θ zu schätzen, bezeichnen wir die Besetzungszahlen des i. Phänotypus mit «,·. (In unserem konkreten Beispiel gilt: = 1997, ti2 = 906, «3 = 904, « j = 32.) Dann ist die likelihood-Funktion :
H I +
»)*(!-»)-(t-f°*·
log L = m log ( y + ö) + (»2 + «3) log 1 · u "1 m. l.-Gleichung: - j y ^ y oder:
- o j + m4 log Θ.
"2 + "3 , «1 _ . + χ - 0,
θ + « 2 + « 3 + « 4 )θ 2 — (nx — 2n 2 — 2n 3 —nt) —
«4 —= 0.
5.1 Einleitung
85
In unserem konkreten Beispiel lautet diese Gleichung: 3839Ö 2 + 4 1 3 , 7 5 0 - 4
=
0.
Eine sinnvolle Lösung ist natürlich nur die positive Wurzel dieser Gleichung. Diese lautet: θ = 0,00893. Nimmt man an, daß p = p', so erhält man daraus den Schätzer p = 2 ]/ θ = 0,189.
Wegen weiterer Anwendungen der m. 1.-Methode vergleiche u. a. Abschnitt 8.2 (S. 170). Nicht immer ist es möglich, die m. l.-Gleichung aufzulösen, d. h. den Schätzer θ explizit als Funktion von xlt..., xn darzustellen. In solchen Fällen ist man gezwungen, die m. l.-Gleichung bei jeder einzelnen Anwendung mit einem numerischen Näherungsverfahren aufzulösen. Man geht dabei von einem groben Näherungswert θ(χ1,..., x„) aus und bildet θ*(χ1,...,χ„) mit l (χ, θ)
= θ(χ1,...,χη)+ d
log ρ (χ,
£1(Xi,
θ).
θ(Χι,··
.,Χη))/Ϋί(θ(Χι,.·.,Χη))
i=1
Dieses Näherungsverfahren kann iterativ angewendet werden, doch führt unter gewissen Regularitätsvoraussetzungen bereits die einmalige Anwendung zu einem Schätzer mit asymptotisch minimaler Varianz. Wegen Einzelheiten vgl. Kendali und Stuart II, S. 48, oder v. d. Waerden, S. 152 ff. Außerdem gibt es Fälle, in denen die m. l.-Methode überhaupt versagt, weil gewisse Regularitätsvoraussetzungen nicht erfüllt sind. Dies ist beispielsweise dann der Fall, wenn die Anzahl der Parameter mit dem Stichprobenumfang ständig ansteigt. Beispiele dieser Art finden sich bei v. d. Waerden, S. 151, ferner Neyman und Scott.
5 Normalverteilung; elementare Verfahren 5.1 Einleitung Gegeben sei eine Stichprobe xlt x2,..., x„, aus der eine Funktion m(xι, Xu,..., xn) gebildet wird, m sei — als zufällige Variable aufgefaßt — normalverteilt mit unbekanntem Mittelwert μ und 6
Pfanzagl, Allgem. Methodenlehre d. Statistik II, 4. Aufl.
86
5 Normalverteilung ; elementare Verfahren
bekannter Varianz σ 2 /«. Die wichtigste Anwendung betrifft den speziellen Fall m{xi, x2,..., xn) = x- Das Ziel der in diesem Kapitel entwickelten Verfahren besteht darin, Aussagen über den Mittelwert μ (oder — bei Vorliegen von zwei Stichproben — über die Differenz der beiden Mittelwerte) zu machen. Gleichzeitig werden auch die für die folgenden Kapitel bedeutungsvollen Begriffe des Mutungsintervalles (Vertrauensintervalles, Konfidenzintervalles) und des Signifikanz-Tests entwickelt. Die in diesem Kapitel besprochenen Verfahren sind auf verschiedene Situationen anwendbar : a) Auf Grund einer Stichprobe beliebigen (auch kleinen) Umfanges aus einer Normalverteilung mit bekannter Varianz ist eine Aussage über den unbekannten Mittelwert der Verteilung zu machen. b) Es liegt eine große Zahl von Stichproben beliebigen (auch kleinen) Umfanges aus Normalverteilungen mit identischer — aber unbekannter — Varianz und unbekannten Mittelwerten vor. Es ist zu prüfen, ob die Mittelwerte aller Verteilungen identisch sind (Kontrollkarten-Problem). Da die Zahl der Stichproben groß ist, kann die unbekannte Varianz mit der aus den Stichproben gewonnen Schätzung identifiziert werden. c) Es liegt eine große Stichprobe vor, und die daraus gebildete Funktion m ist asymptotisch normalverteilt. Es ist eine Aussage über den Mittelwert zu machen. Da die Stichprobe groß ist, kann die unbekannte Varianz aus der Stichprobe geschätzt werden. Hat der Schätzer m(x 1 , . . . , *») die Form — Σ h {x¡), dann kann η ¡=ι man die Varianz er2 durch-
h (κ,)2 —
schätzen.
Ist m ein m. I.-Schätzer, dann ist die Varianz als Funktion des zu schätzenden Parameters μ gegeben: σ(μ) 2 . In diesem Falle darf man bei Vorliegen einer großen Stichprobe in allen Formeln er (μ) durch c{tn{xι,.. .,xn)) ersetzen. Im wesentlichen sind die hier besprochenen Verfahren also dann anwendbar, wenn entweder die Varianz bekannt ist oder eine große Zahl von Werten (sei es in Form einer großen Stichprobe oder einer
5.2 D a s Mutungsintervall für den Mittelwert
87
großen Zahl kleiner Stichproben) vorliegt, so daß die Varianz mit hinreichender Genauigkeit geschätzt werden kann. Stehen für die Schätzung der Varianz nur wenige Werte zur Verfügung, so daß man den Schätzwert der Varianz nicht einfach mit dem wahren Wert σ2 identifizieren kann, dann müssen feinere Verfahren angewendet werden, wie sie in Kapitel 9 besprochen werden.
5.2 Das Mutungsintervall für den Mittelwert Ist m verteilt nach Ν (μ, a 11ri), so ist die standardisierte Größe — — — γ η verteilt nach N ( 0 , 1 ) . Daher gilt mit der Wahrschein 2% ist, so hat man die Hypothese μ0 2% zu testen, und man wird reklamieren, falls diese Hypothese mit großer Sicherheitswahrscheinlichkeit widerlegt wird. Die Trennschärfe eines Tests hängt, wie bereits oben festgestellt wurde, wesentlich vom Stichprobenumfang ab. Eine Stichprobe kann zu klein sein in dem Sinne, daß sie es nicht erlaubt, wesentliche Abweichungen von der Hypothese zu erkennen. Eine Stichprobe kann jedoch auch zu groß sein: Dann nämlich, wenn ihre Trennschärfe so stark ist, daß man auch praktisch irrelevante Unterschiede als statistisch signifikant nachweisen kann. Dies ist im allgemeinen nicht von unmittelbarem Nachteil, wenn man den Unterschied von praktisch relevant und statistisch signifikant beachtet. Eine Reduzierung des Stichprobenumfanges würde in einem solchen Falle jedoch Kosten einsparen, ohne daß die damit verbundene Minderung der Trennschärfe praktisch relevant wäre. Faustregeln für die Bestimmung des angemessenen Stichprobenumfanges finden sich auf S. 103 und S. 105. In dem oben besprochenen einfachen Fall, in dem man sowohl die Möglichkeit hat, einen Signifikanz-Test vorzunehmen als auch ein Mutungsintervall zu berechnen, wird man sich in der Regel für die Berechnung eines Mutungsintervalles entscheiden: Es gibt mehr Informationen über die Lage des Parameters und ist auch anschaulicher. Während der Signifikanz-Test nur sagt, ob der
96
5 Normalverteilung; elementare Verfahren
hypothetische Wert μ 0 als richtiger Parameterwert in Frage kommt oder nicht, gibt das Mutungsintervall eine Information über die Gesamtheit aller μ, die als richtige Parameterwerte in Frage kommen. Wir werden jedoch später (u. a. in Kap. 8) Probleme kennenlernen, wo man zwar eine Hypothese testen, aber kein Mutungsintervall berechnen kann. Die Redewendung, daß ein Signifikanz-Test mit einer Sicherheitswahrscheinlichkeit von 99% (oder einer Irrtumswahrscheinlichkeit von 1%) arbeite, wird oft dahingehend interpretiert, daß 99% der Urteile, die auf Grund des Tests gefällt werden, richtig seien. Diese Interpretation ist jedoch falsch. Wie aus Formel (5.2.1) hervorgeht, wird die Testgröße dann, wenn die Hypothese richtig ist, in 99% aller Fälle zwischen den Grenzen ± 2,58 liegen. Also wird die Hypothese, wenn sie richtig ist, tatsächlich nur in 1% aller Fälle fälschlicherweise verworfen, der Anteil der falschen Urteile ist 1%. Wie groß der Anteil der falschen Urteile ist, wenn die Hypothese nicht zutrifft, hängt jedoch davon ab, wie stark die Wirklichkeit von der Hypothese (hier: der tatsächliche Mittelwert μ vom hypothetischen Wert μ0) abweicht. Man kann auch nicht angeben, wie groß der Anteil der richtigen Hypothesen unter jenen ist, die auf Grund des Testverfahrens angenommen werden. Das hängt entscheidend davon ab, wie gut die dem Test unterworfenen Hypothesen mit der Wirklichkeit übereinstimmen. Werden lauter richtige Hypothesen getestet, so werden auch unter den angenommenen lauter richtige sein; werden lauter falsche Hypothesen getestet, so werden unter den angenommenen lauter falsche sein. Wieviele von den angenommenen Hypothesen richtig sind, hängt daher primär von der Fähigkeit des Wissenschaftlers ab, richtige Hypothesen zu formulieren. Statistische Tests haben lediglich eine gewisse Filterwirkung, die dazu führt, daß die richtigen Hypothesen unter den angenommenen angereichert werden. Wenn auf Grund eines Tests festgestellt wird, daß der Unterschied zwischen μ und μ 0 signifikant und die Hypothese μα daher „wahrscheinlich" falsch ist, so handelt es sich dabei um eine „Wahrscheinlichkeit", die nicht als relative Häufigkeit interpretierbar ist und daher auch keine zahlenmäßig angebbare Größe besitzt. Dies wird
5 . 4 Allgemeine Bemerkungen über das Testen von Hypothesen
97
vielfach als störend empfunden, kann aber den praktischen Wert von Signifikanz-Tests keineswegs beeinträchtigen, denn die induktive Forschung arbeitet sehr viel mit „Wahrscheinlichkeiten", die sich nicht als relative Häufigkeiten interpretieren und zahlenmäßig fixieren lassen. Eine weitere im Zusammenhang mit dem Testen von Hypothesen wesentliche Frage ist die nach der zweckmäßigen Wahl der Sicherheitswahrscheinlichkeit. Üblicherweise werden hierfür Werte zwischen 90% und 99,9% verwendet, und es scheint dem Unerfahrenen zunächst völlig willkürlich, für welchen dieser Werte man sich entscheidet. Tatsächlich gibt es jedoch gewisse allgemeine Gesichtspunkte, die man heranziehen kann, um die Sicherheitswahrscheinlichkeit in einer der jeweiligen Sachlage angemessenen Höhe festzulegen. Wir wollen uns dies an einem Beispiel klarmachen : Es wird eine Versuchsreihe unternommen, um ein Produkt Β zu entwickeln, das besser ist als das bisher erzeugte Produkt A. Angenommen, der letzte Test würde eine Ablehnung der Hypothese „B gleichwertig A" zugunsten der Hypothese „B besser als A" mit einer Sicherheitswahrscheinlichkeit von etwa 90% erlauben. Soll eine Entscheidung darüber gefällt werden, ob die Versuchsreihe in der bisherigen Richtung weitergeführt oder abgebrochen werden soll, so wird man eine Sicherheitswahrscheinlichkeit von 90% sicherlich als ausreichend ansehen und die Versuchsserie weiterführen. Denn es wäre ein großer Nachteil, einen erfolgversprechenden Weg vorzeitig abzubrechen. Man wird eine Sicherheitswahrscheinlichkeit von 90% jedoch nicht als ausreichend ansehen, um die Produktion von A einzustellen, den Betrieb mit neuen Maschinen auszustatten und die Produktion von Β aufzunehmen. Allgemein gesprochen, werden wir also bei der Wahl der Sicherheitswahrscheinlichkeit im Auge behalten müssen, welche Verluste damit verbunden sind, wenn wir einen tatsächlich vorhandenen Unterschied nicht erkennen, bzw. dort, wo kein Unterschied vorhanden ist, fälschlicherweise das Vorhandensein eines solchen behaupten. Je größer wir die Sicherheitswahrscheinlichkeit wählen, desto größer wird auch die Wahrscheinlichkeit, daß ein bestehender Unterschied nicht als signifikant nachgewiesen werden kann. Es gilt daher die Faustregel: Ist der Verlust hoch, wenn ein tatsächlich
98
5 Normalverteilung; elementare Verfahren
bestehender Unterschied nicht erkannt wird, dann wird man eine kleine Sicherheitswahrscheinlichkeit wählen. Ist der Verlust hoch, wenn das Vorhandensein eines Unterschiedes irrtümlich angenommen wird, dann wird man eine große Sicherheitswahrscheinlichkeit wählen. Die Sicherheitswahrscheinlichkeit verliert ihre Gültigkeit, wenn die Hypothese auf Grund des gleichen Materials inspiriert wurde, an Hand dessen sie getestet wird. Jedes umfangreiche empirische Material zeigt rein zufällig zustande gekommene Effekte. Werden diese vom "Wissenschaftler als Hypothesen formuliert und dann an Hand des gleichen Materials statistisch getestet, verliert der Test praktisch jede Filterwirkung, wenn sich die Intuition des Wissenschaftlers ungefähr an den gleichen Kriterien orientiert wie der Test selbst. Um eine Filterwirkung zu erzielen, muß der statistische Test also auf Grund empirischen Materials durchgeführt werden, das unabhängig von jenem ist, durch das die Hypothese inspiriert wurde (s. S. 94, zweiter Absatz, sowie Abschnitt 9.11). Eine Verfälschung der Sicherheitswahrscheinlichkeit tritt auch dann ein, wenn zwar nicht die Hypothese, wohl aber das Testverfahren an Hand des gleichen Materials ausgewählt wurde, wenn also ζ. B. mehrere Merkmale, die als Indikatoren für den nachzuweisenden Effekt in Frage kommen, mit verschiedenen Tests durchprobiert wurden, um jene Kombination von Merkmal und Test zu finden, bei der der Effekt am deutlichsten nachzuweisen ist. Auch hier wird die Filterwirkung der statistischen Tests geschwächt. Es bestehen jedoch keine Bedenken, Untersuchungen der oben beschriebenen Art an einem Material durchzuführen und den Test in der so bestimmten Form dann an einem anderen, davon unabhängigen Material durchzuführen.
5.5 Einseitige und zweiseitige Problemstellung Ein weiterer Punkt, der oft unklar bleibt, ist die Unterscheidung zwischen einseitigen und zweiseitigen Tests. Bei Beispiel 1 (S. 92) kommt es darauf an, jede Abweichung von der auf Grund der Mendelschen Regeln zu erwartenden hypothetischen Wahrscheinlichkeit 1/4 festzustellen. Abweichungen nach unten sind genauso
5.5 Einseitige und zweiseitige Problemstellung
99
interessant wie Abweichungen nach oben. Fordert man dagegen, daß der maximal zulässige Ausschußanteil μ0 bestimmter Warenlieferungen höchstens 2% sein soll und will man nachprüfen, ob bei einer gegebenen Warenlieferung diese Bedingung eingehalten wird oder nicht, so ergibt sich aus der sachlichen Seite des Problems, daß nicht alle Abweichungen vom Wert μα = 2% interessant sind. Will man ζ. B. über die Berechtigung einer Reklamation entscheiden, werden nur Abweichungen nach oben (μ0 > 2%) von Bedeutung sein. Man testet also die Hypothese μ0 S 2% gegen die Alternative μ0 > 2%. Bei solchen einseitigen Fragestellungen arbeitet man in der Regel mit einseitigen Grenzen. Die kritische Region
Bild 31a. Zweiseitige kritische Region zur Sicherheitswahrscheinlichkeit 99 %.
Bild 31b. Einseitige kritische Region zur Sicherheitswahrscheinlichkeit 99 %.
100
5 Normalverteilung; elementare Verfahren
(jener Bereich, für den die Hypothese verworfen wird) besteht dann nicht mehr aus den Werten unterhalb — 2,58 und oberhalb + 2,58, sondern nur mehr aus Werten oberhalb + 2,58. Das Weglassen der unteren Hälfte der kritischen Region verändert allerdings die Irrtumswahrscheinlichkeit : Sie beträgt nicht mehr 1%, sondern nur mehr 0,5%. Will man auch bei der einseitigen Version des Tests eine Irrtumswahrscheinlichkeit von 1% zulassen, so muß man statt des Wertes + 2,58 den Wert + 2,33 verwenden. Schließlich sei noch bemerkt, daß der Test für die Hypothese μ = μ0 gegen die Alternative μ > μ0 mit der kritischen Region —
—
>
2,33 auch als Test für die allgemeinere Hypothese
a
μ á μα dienen kann : Ist der wahre Mittelwert kleiner als μ0, so wird der Wert m mit noch kleinerer Wahrscheinlichkeit als 1% in der kritischen Region liegen. So wie wir durch zweiseitige Begrenzung der Testgröße (Formel (5.2.1), S. 87) ein zweiseitig begrenztes Mutungsintervall (Formel (5.2.3)) erhielten, ergibt sich durch einseitige Begrenzung ein einseitiges Mutungsintervall : Mit der Wahrscheinlichkeit 0,99 gilt : (1)
ÜLZJL j / ñ < 2 , 3 3 a
und (2)
m -
2,33
V η
< μ .
Wollen wir ein Mutungsintervall, das nach oben begrenzt ist, so gehen wir aus von (3)
-2,33
a
und erhalten (4)
μ < m
+ 2,33 - ^ L V η
(beides mit der Wahrscheinlichkeit 0,99). Beispiel: Wir knüpfen an das auf S. 88 u. 91 behandelte Beispiel der Zugfestigkeit an. Wollen wir die Zugfestigkeit nach unten abschätzen,
101
5.6 Die Gütefunktion eines Tests
d. h. angeben, daß die mittlere Zugfestigkeit fast sicher (99%) größer als ein bestimmter Wert sei, so gehen wir von Formel (2) aus. Mit den auf S. 88 verwendeten Zahlen erhalten wir: m -
2,33 · ο/γη
= 415,3 -
2,33 · 5 , 7 / ^ 8 0 = 4 1 3 , 8 .
Die mittlere Zugfestigkeit ist also fast sicher (99%) größer als 413,8. Auf S. 89 erhielten wir das zur selben Sicherheitswahrscheinlichkeit von 99% gehörige zweiseitige Mutungsintervall mit 413,7 bis 416,9 g.
5.6 Die Gütefunktion eines Tests Wie wir uns überlegt haben, bedeutet die Wahl einer Sicherheitswahrscheinlichkeit von 99%, daß eine richtige Hypothese in 1% aller Fälle verworfen wird. Die Wahrscheinlichkeit, daß eine falsche Hypothese verworfen wird, hängt von dem jeweiligen Wert des Parameters μ ab. Diese Wahrscheinlichkeit, ausgedrückt als Funktion von μ, wird Gütefunktion des Tests genannt. Der Wert der Gütefunktion wird für μ nahe dem hypothetischen Wert μ0 sehr klein sein und mit steigender Entfernung des richtigen Wertes μ vom hypothetischen Wert μ0 zunehmen. In unserem in Abschnitt 5.3 behandelten Fall ist die Gütefunktion sehr leicht zu berechnen : Sie ist gleich der Wahrscheinlichkeit, daß (ra — μ0)Ϋη /a nicht zwischen ± 2,58 liegt (oder gleichbedeutend, daß ra nicht zwischen μΒ ± 2,58 σ/[/« liegt). Da (ra — μ)γη/σ nach Ν (0,1) verteilt ist, ist die Wahrscheinlichkeit für ra < μ0 - 2,58 μ0 + 2,58 σ/Ϋ η ist ι - Φ[{{μ9 + 2,58 0,3 zu schließen. Wir bemerken, daß dieser Test für die Hypothese p — po gegen die Alternative p > po auch als Test für die allgemeinere Hypothese p Sí p0 geeignet ist : Ist der wahre Parameterwert nicht gleich, sondern kleiner als p0, wird die Hypothese mit noch geringerer Irrtumswahrscheinlichkeit verworfen. Wir geben wieder die Sicherheitswahrscheinlichkeit 0,99 vor, d. h., wir verlangen, daß die Hypothese — wenn sie richtig ist — nur in 0,01 aller Fälle verworfen wird. Dann haben wir die kritische
6.1 Binomialverteilung: Test für ρ
115
Region so zu bilden, daß sie für p = p0 eine Wahrscheinlichkeit von 1% besitzt. Wählen wir als kritische Region den Wert k = n, so besitzt dieser bei der Bs (0,3) die Wahrscheinlichkeit 0,35 = 0,00243. Nehmen wir noch den Wert k = η — 1 dazu, d. h. bilden wir die kritische Region aus den beiden Werten 4 und 5, so besitzt sie die Wahrscheinlichkeit 0,03078. Wir können also die vorgeschriebene Irrtumswahrscheinlichkeit von 1% gar nicht exakt erreichen. Wir haben nur die Wahl zwischen einer Irrtumswahrscheinlichkeit, die etwa 0,24% ist, und einer Irrtumswahrscheinlichkeit von 3,08%. Diese Erscheinung tritt nicht nur bei der Binomialverteilung auf, sondern bei allen diskreten Verteilungen. Praktisch geht man meist so vor, daß man vorschreibt, die Sicherheitswahrscheinlichkeit müsse mindestens 99% (die Irrtumswahrscheinlichkeit also höchstens 1%) betragen. Dementsprechend bestünde in unserem konkreten Beispiel die kritische Region nur aus dem Wert k = 5. Die Hypothese p = 0,3 wird also angenommen für k = 0,1,2,3,4 und abgelehnt für k = 5. Bei kleinen η und p nahe 0 oder 1 kann es vorkommen, daß bereits der extremste k- Wert (k = 0 bzw. k = n) eine Wahrscheinlichkeit besitzt, die größer als die zulässige Irrtumswahrscheinlichkeit ist. Würde es sich im obigen Beispiel der ß 5 (0,3) nicht um die Alternative p > 0,3, sondern um die Alternative p < 0,3 handeln, so bestünde die kritische Region aus den kleinen k-Werten. Der Wert k = 0 hat aber bereits eine Wahrscheinlichkeit 0,75 = 0,168 oder 16,8%. Man muß also entweder mit der Irrtumswahrscheinlichkeit 0,168 arbeiten oder, wenn die Irrtumswahrscheinlichkeit von 1% auf jeden Fall eingehalten werden soll, auch für k = 0 in einem Teil der Fälle die Hypothese annehmen. Dies geschieht durch sogenanntes Randomisieren : Man entscheidet im Falle k = 0 durch ein zusätzliches Zufallsexperiment, ob die Hypothese angenommen oder verworfen werden soll. Will man im konkreten Fall die Irrtumswahrscheinlichkeit von 1% einhalten, muß man die Hypothese mit der Wahrscheinlichkeit 0,01/0,168 = 0,06 verwerfen und mit der Wahrscheinlichkeit 0,94 annehmen. Dann erhält man genau die zugelassene Irrtumswahrscheinlichkeit von 1%. Praktisch wird ein solches Randomisierungsverfahren jedoch nur selten angewendet.
116
6 Kleine Stichproben aus diskreten Verteilungen
Um die Hypothese p = p0 gegen die Alternative p > p0 mit einer Irrtumswahrscheinlichkeit von höchstens 1% zu testen, bilden wir die kritische Region aus jenen ¿-Werten, f ü r die
Sind keine Tabellen f ü r die Summenfunktion der Binomialverteilung verfügbar, so erweist sich die folgende Relation mit der auf S. 59 definierten Schranke der F-Verteilung fi* (w, ») von Nutzen*) : i ( j ) * > ' ' ( ! - *)"-' = « , wenn (1)
^—•^-^η — k + 1
ρ
=
Fi-a{2(n-k+l),2k).
Da F a mit wachsendem α zunimmt, ist i
( j ) p'( 1 - p)"-' á 0,01,
solange ^ •^-î-^F0,99(2(nη — k τ 1 p
k +
l),2k).
Die kritische Region mit der Irrtumswahrscheinlichkeit 0,01 f ü r die Hypothese p = p0 gegen die Alternative p > po besteht also aus allen jenen Werten k, für welche (2)
*
« — k + 1
·
po
S fi),99 (2 (« -
k + 1),
2k).
f Sucht man umgekehrt einen Test gegen die Alternative p < p0, so hat man die kritische Region aus den kleinsten ¿-Werten zu bilden : i
Q
p't ( 1 - Po)"-' á 0,01.
*) Genaueres über diese Relation findet der Leser z. B. in Statistical Theory with Engineering Applications von Haid, S. 673 ff. und in Angewandte Statistik, Bd. I, von Stange, S. 433 ff.
6 . 1 Binomialverteilung : T e s t f ü r ρ
117
Es gilt:
wenn
Wie oben überlegen wir uns, daß die kritische Region für die Hypothese p = po gegen die Alternative p < p0 aus allen jenen ¿-Werten besteht, für welche (4)
ΐk τ+Τ 1' Ύ1 — ^ Γpo 1),2(m - k)). will man nicht einen einseitigen, sondern einen zweiVielfach seitigen Test, d. h. einen Test, der die Hypothese p = p0 nicht nur bei p > po, sondern auch bei p < po verwirft. Es ist naheliegend, in diesem Falle die kritische Region aus den kleinen und aus den großen k-Werten zusammenzusetzen, so daß beide Teile der kritischen Region zusammengenommen eine Irrtumswahrscheinlichkeit von höchstens 1% besitzen. Ganz analog hatte ja auch bei den im Abschnitt 5.3 besprochenen Tests der zweiseitige Test eine zusammengesetzte kritische Region: Die Hypothese war zu verwerfen, wenn χ > μ0 + 2,58 σ/)/ η oder χ < μ0 ~ 2,58 er/]/ « . Im Falle der Binomialverteilung ist allerdings die Frage, wie man die 1% Irrtumswahrscheinlichkeit auf die obere und die untere Hälfte der kritischen Region verteilen soll, nicht von vornherein klar. Dieses Problem trat beim zweiseitigen Test für μ nicht auf, denn die Normalverteilung ist symmetrisch, und daher liegt es nahe, auch die kritische Region symmetrisch zu dem hypothetischen Wert zu wählen, d. h. eben den Bereich μ0 ± 2,58 a/γη abzugrenzen. Die obere und die untere Hälfte der kritischen Region besitzen dann jede die Wahrscheinlichkeit 0,5%. Auch bei der Binomialverteilung grenzt man die kritische Region in der Regel so ab, daß die untere und die obere Hälfte je eine Wahrscheinlichkeit ^ 0,5% besitzen. Dementsprechend brauchte man für die einseitigen Tests eine Tabelle der F-Verteilung mit der Irrtumswahrscheinlichkeit 1%, 8
Pfanzagl, Allgem. Methodenlehre d. Statistik Π, 4. Aufl.
118
6 Kleine Stichproben aus diskreten Verteilungen
für den zweiseitigen Test eine Tabelle mit der Irrtumswahrscheinlichkeit 0,5%. Im Tabellenteil dieses Buches konnte die Irrtumswahrscheinlichkeit 0,5% nicht berücksichtigt werden. Es erscheint jedoch für praktische Zwecke durchaus vertretbar, auch beim zweiseitigen Test mit der F-Tabelle für die Irrtumswahrscheinlichkeit 1% zu arbeiten. Man erhält dann einen Test, dessen Irrtumswahrscheinlichkeit höchstens 2 % , im allgemeinen aber kleiner als 2% ist. Beispiel: Bei dominantem Erbgang beträgt die Wahrscheinlichkeit des Phänotypus A bei der Kreuzung Aa x Aa nach den Mendelschea Regeln 3/4. In einem konkreten Falle wurden unter 16 Nachkommen nur 8 beobachetet, die dem Phänotypus A angehören. Steht dieses Beobachtungsergebnis zu der Annahme p = 3/4 im Widerspruch? Entsprechend den obigen Ausführungen bilden wir: 3 n-k Pq = 1 6 - 8 _ 4 _ = k + l ' 1-p0 8+1 3^ ' ' 1 4 Fo,99(2(fe + 1),2 (n - k)) = Po,99 (18,16) = 3,31 . Da 2,66 < 3,31, liegt der beobachtete Wert k — 8 außerhalb der kritischen Region und widerspricht der Hypothese ρ = 3/4 nicht. (Daß der Wert k = 8 nicht in der anderen Hälfte der kritischen Region liegen kann, ist evident.)
6.2 Binomialverteilung: Mutungsintervall für ρ
119
W i e in Abschnitt 5 . 6 (S. 101 ff.) können wir natürlich auch hier die Frage nach der Gütefunktion des Tests stellen, d. h. nach der Wahrscheinlichkeit, daß die Hypothese p0 verworfen wird, wenn der echte W e r t p beträgt. In unserem konkreten Beispiel wäre eine brauchbare kritische Region k á 7 und k = 16· Die Gütefunktion lautet dann :
(5) Sie ist in Bild 38 (S. 118) dargestellt.
6.2 Binomialverteilung: Mutungsintervall für ρ Die Ausführungen in den Abschnitten 5 . 2 und 5.3 haben den engen Zusammenhang zwischen Mutungsintervallen und Tests aufgezeigt. N a c h d e m wir für jeden beliebigen W e r t p0 die Hypothese p — po gegen die einseitige Alternative p > p0 bzw. p < p„ oder die zweiseitige Alternative ρ Φ p0 testen können, ist auch das Problem des Mutungsintervalles gelöst. W i r haben im Prinzip nichts anderes zu tun, als bei gegebenem k für jeden W e r t p„ die Hypothese ρ = p 0 mit einer bestimmten Sicherheitswahrscheinlichkeit zu testen. J e n e Werte von p, für die diese Hypothese nicht verworfen wird, bilden ein Mutungsintervall mit der vorgegebenen Sicherheitswahrscheinlichkeit: W e n n p0 der richtige W e r t ist, so wird die Hypothese ρ = Po in mindestens 9 9 % aller Fälle angenommen (nicht verworfen), d. h., der richtige W e r t p0 wird in mindestens 9 9 % aller Fälle dem Mutungsintervall angehören. Angenommen, bei einer bestimmten Krankheit wurden mit einer bestimmten Heilmethode unter η Fällen k Heilungen erzielt. Gesucht ist ein nach unten begrenztes Mutungsintervall für den Anteil der Heilungen, p. D a s Mutungsintervall besteht nach den obigen Ausführungen aus allen jenen Werten p, für welche der beobachtete W e r t k nicht der kritischen Region angehört, für die also gilt:
Da
8*
120
6 Kleine Stichproben aus diskreten Verteilungen
eine monoton wachsende Funktion von p ist, haben wir einfach jenen Wert pB zu bestimmen, für den
Das Mutungsintervall mit der Sicherheitswahrscheinlichkeit von mindestens 99% besteht dann aus allen Werten ρ > pa. Den Wert pQ bestimmen wir einfach aus der Relation (6.1.1) (1)
k _ 1 - Po η —k + 1 po
Fo,99(2(«- k+
l),2k).
Wäre beispielsweise « = 19 und k = 14, so wäre F0,99 (12, 28) = 2,90, und wir erhielten :
Daraus folgt: (1 - p0)/po = 2,90 · 6/14 = 1,24 und p0 = 0,45. Die Rate der Heilungen wäre also fast sicher größer als 45%. Wollte man umgekehrt ein Mutungsintervall, das p nach oben abschätzt (Ρ < Pi)> s o müßte man die kritische Region aus den kleinen kWerten bilden. Der Wert pi wäre dann aus Relation (6.1.3) zu bestimmen. Ein zweiseitiges Mutungsintervall erhält man aus einer kritischen Region, die große und kleine Werte umfaßt. Praktisch wird man einfach den Bereich p0 < p < pi als Mutungsintervall verwenden. Dieses hat eine Sicherheitswahrscheinlichkeit, die mindestens 98% beträgt. Dabei ist die zugelassene Irrtumswahrscheinlichkeit ( = Wahrscheinlichkeit, daß das Intervall (p 0 , Pi) den wahren Parameter p nicht enthält) von 2% zu gleichen Teilen auf die beiden „Schwänze" [0, p0] und [pi, 1] verteilt. Andere Mutungsintervalle für den Parameter p einer Binomialverteilung findet der interessierte Leser in den Arbeiten von Clopper und Pearson und von Bunke. In diesen Arbeiten werden die Mutungsintervalle so bestimmt, daß sie gewisse Optimalitätseigenschaften haben (ζ. B. minimale durchschnittliche Länge). Bei solchen Mutungsintervallen ist dann im allgemeinen die zugelassene
6.2 Binomialverteilung: Mutungsintervall für ρ
121
Irrtumswahrscheinlichkeit nicht gleichmäßig auf die beiden Schwänze verteilt. Die oben angegebenen Mutungsintervalle wurden so konstruiert, daß der vorgegebene Wert der Irrtumswahrscheinlichkeit sicher nicht überschritten wird. Jedoch wird im allgemeinen diese Irrtumswahrscheinlichkeit nicht erreicht, d. h., man wird oft mit einer wesentlich kleineren Irrtumswahrscheinlichkeit als der zugelassenen arbeiten und damit die Länge des Mutungsintervalles vergrößeren. Die einzige Möglichkeit, die Irrtumswahrscheinlichkeit auf das jeweils erlaubte Ausmaß hinaufzusetzen, bestünde in einer Randomisierung (vgl. S. 115). Da sich die Praxis mit dem Gedanken randomisierter Verfahren nicht befreunden kann, erschiene es allenfalls vertretbar, eine Formel zu verwenden, die für das Mutungsintervall eine Grenze liefert, die näherungsweise dem Erwartungswert der durch Randomisieren erhaltenen Grenzen entspricht. Auf verschiedene Probleme angewandt, wird diese Formel im langfristigen Durchschnitt zu einer Irrtumswahrscheinlichkeit führen, die mit dem zugelassenen Wert gut übereinstimmt. Im konkreten Falle empfiehlt sich, als Näherungswert für die untere Grenze eines einseitigen Mutungsintervalles für p (mit der Irrtumswahrscheinlichkeit «) den Wert p'0 zu wählen, der bestimmt ist durch die Formel 2(n-k)
+ l
pB
bzw. für die obere Grenze den Wert ist durch die Formel
zu nehmen, der bestimmt
(3)
— k) + 1,2k + Í ) .
2(n — £) + 1 '
~
Formel (2) oder (3) können wir auch verwenden, um einen mediantreuen Schätzer für ρ zu gewinnen. Wir brauchen zu diesem Zweck nur « = 0,5 zu setzen und (2) oder (3) nach p'0 bzw. p[ aufzulösen. Die allgemeine Näherungsformel für den mediantreuen Schätzer p lautet dann : 2k + 1
122
6 Kleine Stichproben aus diskreten Verteilungen
Greifen wir auf unser obiges Beispiel zurück, so ergibt sich aus (4) als Schätzwert für den Anteil der Heilungen : '
29 + 11 · F0,J (11, 29)
'
"
k Der m. l.-Schätzer ρ = — liefert den Schätzwert ρ = 0,74. Somit η stimmen in unserem Beispiel die beiden Schätzwerte ungefähr überein. Daß dies nicht immer der Fall ist, sieht man bereits daran, daß für k = 0 der Schätzer p stets gleich Null ist, während p größer als Null ausfällt.
6.3 Binomialverteilung: Vergleich zweier Wahrscheinlichkeiten Gegeben seien zwei Binomialverteilungen : ΡΪ(1 - ρύ*-** und ( j j pk2'( 1 - p 2 )"»- fe ·. Es ist die Hypothese pi = p2 gegen die Alternative pi > p2 zu testen. Zu diesem Zwecke betrachtet man die bedingte Verteilung von kr für gegebenes èi + k2 = k. Diese ist im Falle pi = p2 :
also die Hypergeometrische Verteilung, die von dem gemeinsamen "Wert p unabhängig ist. Die kritische Region ist für die Alternative Pi > p2 aus den größten fei-Werten zu bilden, und zwar wieder so, daß die Irrtumswahrscheinlichkeit eine gewisse Schranke, ζ. B. 1%, nicht überschreitet. Beispiel: Es soll die Wirksamkeit zweier Heilmethoden, (1) und (2), miteinander verglichen werden. Zu diesem Zwecke werden 15 Patienten mit Methode (1), 15 Patienten mit Methode (2) behandelt. Die Anzahl der Geheilten betrage 13 bzw. 10. Die bedingte Verteilung von k-¡_ für kx + k2 = 23 ist:
6.3 Binomialverteilung : Vergleich zweier Wahrscheinlichkeiten 123 Tabelle 5 Heilerfolge der Methoden (1) und (2) Methode :
Anzahl der Behandelten
darunter : geheilt
«i
ki
(1)
15
13
(2)
15
10
Σ
30
23 ( ¿ J 123 -
?
(S)
kj
'
Der größte Wert, den k x annehmen kann, ist 15. Es gilt: Ρ ({15}) = 0,003 Ρ ({14}) = 0,037 Ρ ({13}) = 0,155. Die Wahrscheinlichkeit, daß der Wert k x — 13 oder ein noch extremerer Wert auftritt, ist also 0,195, d. h. fast 20 %. Die Überlegenheit von Methode (1) gegenüber Methode (2) kann daher auf Grund der vorliegenden Daten nicht bindend nachgewiesen werden.
Ist die Alternative nicht pi > P2, sondern pi + pi, haben wir also einen zweiseitigen Test vorzunehmen, so wird man ähnlich wie in Abschnitt 6.1 die kritische Region aus den größten und den kleinsten ¿-Werten zusammensetzen. Genau das gleiche Testverfahren wird übrigens auch dann angewendet, wenn es sich nicht um den Vergleich zweier Stichproben, sondern um eine sogenannte 2 X 2-Kontingenztafel handelt, bei der eine Stichprobe nach zwei Merkmalen kombiniert aufgegliedert wird. Die Verwendung dieses auf der Hypergeometrischen Verteilung beruhenden Tests für die 2 X 2-Kontingenztafel wurde von R. A. Fisher vorgeschlagen. Seine Optimalität wurde von Tocher nachgewiesen. Beispiel: Die Kinderlähmung tritt in zwei Formen auf, der spinalen und der bulbären. Es wird vermutet, daß das Entfernen der Mandeln (Tonsillektomie) das Auftreten der bulbären und wesentlich bösartigeren Form begünstigt.
124
6 Kleine Stichproben aus diskreten Verteilungen Tabelle 6 Kinderlähmung und Tonsillektomie bei 10jährigen Kinderlähmungsfälle insgesamt «
\
x
0.01 ( 2 ¿ ) .
Auf analogem Wege erhält man ein 99%-Mutungsintervall, das a nach oben abschätzt : (5)
Λ < jXÌ99(2(k+
1)).
130
6 Kleine Stichproben aus diskreten Verteilungen
Will man ein zweiseitiges Mutungsintervall, so kann man das Intervall \xoM2k)
1))
0, so wird die Hypothese nur dann verworfen, wenn die tatsächlich realisierte Stichprobe eine besonders große Summe aufweist. Dieser Gedanke wird wie folgt präzisiert: Ist ε die vorgegebene Irrtumswahrscheinlichkeit, so sucht man die nächstkleinere ganze Zahl von ε · 2" auf. Diese sei r. Dann bildet man die kritische Region aus den r größten Stichproben, d. h., man lehnt die Hypothese μ = 0 ab, wenn die tatsächlich realisierte Stichprobe unter den r größten Stichproben ist. (Mit „größten" Stichproben sind hier natürlich die Stichproben mit der größten Summe gemeint.) Dieses Vorgehen garantiert tatsächlich eine Irrtumswahrscheinlichkeit von höchstens ® ; denn wenn die Hypothese zutrifft, sind alle 2" Stichproben gleichwahrscheinlich, so daß jede einzelne die Wahrscheinlichkeit 1/2" besitzt. Die kritische Region
144
7 Verteilungsunabhängige Verfahren
hat somit die Wahrscheinlichkeit r/2" Sí ε. Will man einen zweiseitigen Test, d. h. einen Test gegen die Alternative μ φ 0, so wird man die kritische Region zur Hälfte aus den größten, zur Hälfte aus den kleinsten Stichproben bilden. Bei kleinen Stichprobenumfängen kann es vorkommen, daß e · 2K < 1, also r = 0 wird. In diesem Falle gibt es keine kritische Region mit einer Irrtumswahrscheinlichkeit SÍ «. Man könnte dann die gewünschte Irrtumswahrscheinlichkeit durch eine zusätzliche Randomisierung (s. S. 115) erreichen. Die bestechende logische Einfachheit dieses Randomisierungstests wird allerdings mehr als aufgewogen durch die Tatsache, daß er in der Durchführung sehr schwer zu handhaben ist. Nehmen wir an, der Stichprobenumfang wäre 10. Dann hätte man 210 = 1024 gleichwahrscheinliche Stichproben zu bilden und ihrer Summe nach zu ordnen. Bei 1% Irrtumswahrscheinlichkeit besteht dann die (zweiseitige) kritische Region aus den 5 größten und den 5 kleinsten Stichproben. In der Praxis wird man natürlich nicht alle 1024 Stichproben zusammenstellen, sondern nur die 5 größten oder die 5 kleinsten. Eine weitere Vereinfachung der Rechenarbeit ergibt sich, wenn man beachtet, daß die Stichproben mit den größten Summen jene sind, bei denen die Summen der negativen Werte am kleinsten sind. Die obigen Überlegungen zur Herleitung des Randomisierungstests gelten unabhängig von der Gestalt der Verteilung, vorausgesetzt, daß diese symmetrisch ist. Ein sehr wichtiger Fall, in dem die Voraussetzung einer symmetrischen Verteilung a priori erfüllt ist, stellt der zweier verbundener Stichproben dar. Wir wollen uns dies an einem Beispiel klarmachen : Um die Wirksamkeit einer Spezial-Sämaschine mit der einer gewöhnlichen Sämaschine zu vergleichen, wurden 10 Versuchsfelder ausgewählt. Von jedem Versuchsfeld wurde die Hälfte mit der Spezialmaschine und die Hälfte mit der gewöhnlichen Maschine besät. Tabelle 11 gibt den Ernteertrag. Wir testen die Hypothese, daß beide Sämaschinen die gleiche Wirksamkeit besitzen. Ist diese Hypothese richtig, so sind die Differenzen der Ernteerträge, d¡, Realisationen zufälliger Variabler
7.5 Tests für den Median einer symmetrischen Verteilung
145
aus einer symmetrischen Verteilung mit dem Mittelwert (Median) 0: Denn wenn tatsächlich beide Maschinen genau die gleiche Wirksamkeit besitzen, so muß offenbar die Differenz —2,4 die gleiche Wahrscheinlichkeit besitzen wie +2,4. Es hätte dann ebensogut der Wert 5,6 bei der Spezialmaschine und der Wert 8,0 bei der gewöhnlichen Maschine auftreten können. Tabelle 11 Ernteertrag bei Einsatz verschiedener Sämaschinen Versuchsfeld
Ernteertrag Spezialgewöhnliche maschine Maschine
1 2 3 4 5 6
7
8 9 10 Quelle:
J. Wishart: Statistics in
8,0 8,4 8,0 6,4 8,6 7,7 7,7 5,6 5,6 6,2
5,6 7,4 7,3 6,4 7,5 6,1 6,6 6,0 5,5 5,5
Differenz
di 2,4 1,0 0,7 0,0 1,1 1,6 1,1 -0,4 0,1 0,7
agricultural research, Suppl. J. R. S. S. Bd. 1, 1934, S. 32.
Die Alternative ist, daß die Spezialmaschine höhere Erträge liefert. Wir werden daher die Stichproben mit großen Summen als kritische Region wählen. Unter den Differenzen kommt auch der Wert 0,0 vor. Dieser trägt zur Summe nichts bei, so daß eigentlich nur 9 relevante Werte vorliegen. Lassen wir eine Irrtumswahrscheinlichkeit von 1% zu, so besteht die kritische Region aus 0,01 · 29 » 5 Werten. Um die kritische Region zu bestimmen, ordnen wir die Differenzen ihrem Absolutbetrage nach. Dann bestimmen wir jene 5 Vorzeichenkombinationen, welche die kleinste Summe der negativen Werte ergeben. Dies sind dann genau jene, welche die größte TotalSumme ergeben.
146
7 Verteilungsunabhängige Verfahren
+
+
+
+
+
+
+
Summe der neg. Werte 0,4
+ + + + —
+ + + + +
+ + + + +
+ + + + +
+ + + + +
+ + + + +
+ + + + +
0,0 0,1 0,4 0,5 0,7
+
-
+
+
+
+
+
0,7
Absolutbetrag
0,1 0,4 0,7 0,7 1,0 1,1 1,1 1,6 2,4
Vorzeichen
+ + —
+ —
—
+ + —
+
+
+
+
Die tatsächlich aufgetretene Vorzeichenkombination liegt in der kritischen Region (3. Zeile), womit die unterschiedliche Wirksamkeit beider Sämaschinen nachgewiesen ist. Werte, die mehrfach auftreten, heißen Bindungen. Im obigen Beispiel sind dies bei den Absolutbeträgen die Werte 0,7 und 1,1, unter den o. a. Summen der Wert 0,7. Bindungen bei den Ausgangswerten haben stets Bindungen bei den Summen zur Folge, doch können letztere auch auf andere Art entstehen (ζ. B. wenn einer der Werte gleich der Summe anderer Werte ist). Geht die Grenze der kritischen Region durch eine solche Bindung der Summe hindurch und gehören die tatsächlich beobachteten Werte dieser Bindung an (wie dies im obigen Beispiel etwa der Fall wäre, wenn tatsächlich die Vorzeichenkombination + + — + + + + + + aufgetreten wäre), so müßte man die Entscheidung über Annahme oder Ablehnung der Hypothese streng genommen einem Randomisierungs-Verfahren mit geeigneten Wahrscheinlichkeiten überlassen, um die Einhaltung der Irrtumswahrscheinlichkeit sicherzustellen. Ist der Stichprobenumfang etwas größer, so kann die Rechenarbeit sehr umfangreich werden. Man kann jedoch für größere η 1 " die Verteilung der Testgröße 3 = — Σ d¡ durch die t-Verteilung η approximieren. Genauer gesagt: Man kann zeigen, daß die Größe (1)
±)fc
7.5 Tests für den Median einer symmetrischen Verteilung
147
für große η annähernd i-verteilt ist mit (n — 1) Freiheitsgraden, " 1 wobei sd = τ- Σ (di — J ) 2 . Der Ausdruck (1) ist aber bei dem η - 1 i=i oben beschriebenen Randomisierungs-Verfahren eine monotone Funktion von d, denn es ist — j/n = — Sd
^
Ϋη
-«,?»)/(«-1)
η
und Σ d¡ bleibt ja von einer Änderung der Vorzeichen unbeeinflußt. 1= 1
Um mit Hilie dieser Näherungs-Verteilung eine 1% -kritische Region zu bestimmen, haben wir einfach jene Werte von (1) zur kritischen Region zu erklären, welche größer als die obere 99%-Grenze der t-Verteilung (bzw. kleiner als die untere 99%-Grenze) sind. Wollen wir einen zweiseitigen Test, so haben wir von | d 11!η /sd auszugehen. Das hier beschriebene Approximationsverfahren führt also für größere η zu demselben ¿-Test, wie er im Falle der Normalverteilung für beliebige η anzuwenden ist. Eine ausführliche Behandlung des i-Tests bringt Abschnitt 9.6. b) Rang-Test: Ein anderer Weg, den mit dem RandomisierungsTest verbundenen Rechenaufwand zu reduzieren, ist die Verwendung eines Rang-Tests. Im konkreten Falle werden die Werte Xi, Xz,.. .,xn dem Absolutbetrage nach geordnet, durch ihre Rangzahlen ersetzt und diese sodann mit dem ursprünglichen Vorzeichen versehen. Beispiel: Die Stichprobenwerte 0,1, 3,7, — 0,5, — 2,1, 1,1, nach dem Absolutbetrag geordnet, lauten: 0,1, — 0 , 5 , 1 , 1 , — 2,1, 3,7. Die zugehörigen Rangzahlen, mit den entsprechenden Vorzeichen versehen, sind 1, - 2,3,-4,5.
Im Prinzip geht man nun so vor, daß man den oben beschriebenen Randomisierungs-Test durchführt, aber nicht mit den Stichprobenwerten selbst, sondern mit den mit Vorzeichen versehenen Rangzahlen. Der Vorteil der Verwendung von Rangzahlen besteht darin, daß man die kritische Region, die nunmehr von der Summe der Rangzahlen ausgeht, nicht mehr wie beim Randomisierungs-Test
148
7 Verteilungsunabhängige Verfahren
für jede Stichprobe individuell bestimmen muß, sondern sie ein für allemal berechnen und tabellieren kann. Beispiel: Wir betrachten Stichproben vom Umfange 10. Es gibt also 2 1 0 = 1024 gleichwahrscheinliche Stichproben. Wollen wir zu der Irrtumswahrscheinlichkeit von 1% eine einseitige kritische Region bestimmen, so haben wir beispielsweise die 10 Stichproben mit den größten Rangsummen auszuscheiden, oder, einfacher: jene 10 Stichproben, bei denen die Summen der Rangzahlen mit negativen Vorzeichen am kleinsten sind.
1
+
2
+ + +
•
—
•
+ —
+
—
+ -
+ +
3
+ + -
+ +
4
+ + + + +
+ + + +
+ +
—
—
•
+
+
+
—
—
+ +
5
+ + + + + + + -
+ + +
6
+ + + + + + + + + + —
7
+ + + + + + + + + + +
8
+ + + + + + + + + + +
10
9
+ + + + + + + + + + +
+ + + + + + + + + + +
s_ 0 1 2 3 3 4 4
5 5 5 6
Dabei bedeutet S_ die Summe der negativen Rangzahlen. Die 10 ersten Stichproben (d. h. die 10 Stichproben mit den größten Rangsummen) haben also eine Summe der negativen Rangzahlen, die nicht größer als 5 ist. Sucht man umgekehrt die 10 letzten Stichproben, so sind dies jene mit einer Summe der positiven Rangzahlen, die nicht größer als 5 ist. Ähnlich wie wir es hier für « = 10 getan haben, kann man für jeden Stichprobenumfang die Sicherheitsgrenze für die Summe der negativen bzw. positiven Rangzahlen berechnen. In der Tabelle auf S. 291 sind die Sicherheitsgrenzen für die Abweichung der Rangsummen von ihrem Erwartungswert « ( « + l ) / 4 tabelliert. Die dort angegebenen Werte garantieren bei zweiseitiger Anwendung eine Irrtumswahrscheinlichkeit von höchstens 1 % (bzw. 5 % ) , bei einseitiger Anwendung eine solche von höchstens 0 , 5 % (bzw. 2 , 5 % ) . M a n geht also so vor, daß man S_ oder S+ berechnet, dann (2)
5 -
^
^
7.5 Tests für den Median einer symmetrischen Verteilung
149
bildet und nachsieht, ob dieser Wert zwischen ± c liegt. Trifft dies zu, so wird die Hypothese μ = 0 angenommen. Ist S — n(n + l)/4 ä; c oder S — n(n + l)/4 ^ - c, so wird die Hypothese μ = 0 verworfen. Dabei ist gleichgültig, ob man der Berechnung S- und S+ zugrunde legt, da wegen S_ + S+ = η {n+ l ) / 2 stets 0) Man wird also in der Regel von jenem Vorzeichen ausgehen, das seltener auftritt, da dann die Rechenarbeit etwas geringer ist. Für η > 25 kann man die Verteilung der Summe der negativen (positiven) Rangzahlen durch eine Normalverteilung approximieren. Für die Grenze der kritischen Region erhält man dadurch die Näherungsformel : (4)
- H /
W ( W +
1
242W+l1·
Dabei ist N* die auf S. 36 eingeführte Grenze der Normalverteilung N(0,1). Der hier besprochene Rang-Test wird in der englischsprachigen Literatur als Wï/coxon-matched-pairs-signed-rank-test bezeichnet. Dementsprechend könnte man im Deutschen etwa vom „Vorzeichen-Rang-Test von Wilcoxon" sprechen. Beispiel: Wir knüpfen an das auf S. 144ff. behandelte Beispiel der beiden Sämaschinen an. Wieder scheiden wir die Differenz mit dem Werte 0,0 aus und ordnen die übrigen Differenzen nach dem Absolutbetrage: 2,4 Absolutbetrag 0,1 0,4 0,7 0,7 1,0 1,1 1,1 1,6 Vorzeichen + + + + + + + + Rangzahl 1 2 3V 2 3V 2 5 6 7 2 6V 2 8 9 Die Summe der negativen 2 - 9 · 10/4 = - 20,5. Ein daß für η = 9 und 97,5 % zahl c = 16,5 gilt, so daß Maschinen gesichert ist.
Rangzahlen ist 2. Die Testgröße ist daher Vergleich mit der Tabelle auf S. 291 zeigt, Sicherheitswahrscheinlichkeit die Annahmeder Unterschied in der Wirksamkeit beider
Treten Bindungen auf, so empfiehlt es sich, allen in einer Bindung vereinigten Werten dieselbe Rangzahl zuzuordnen, und zwar das 10
Pfanzagl, AUgem. M e t h o d e n l e h r e d. Statistik II, 4. Aufl.
150
7 Verteilungsunabhängige Verfahren
arithmetische Mittel jener Rangzahlen, die die in der Bindung vereinigten Werte bekämen, wenn sie verschieden wären. Im obigen Beispiel war die erste Bindung bei 0,7. Die Werte 0,7 hätten die Rangzahlen 3 und 4 bekommen. Da sie gleich sind, bekommt jeder die durchschnittliche Rangzahl (3 + 4)/2 = 3 V 2 . Wären in der Bindung 3 Werte 0,7 vereinigt, so wären für sie die Rangzahlen 3, 4 und 5 bestimmt. Da sie gleich sind, bekommt jeder die durchschnittliche Rangzahl (3 + 4 + 5)/3 = 4. Praktische Bedeutung besitzt dieses Vorgehen allerdings nur, wenn die in der Bindung vereinigten Werte verschiedene Vorzeichen besitzen. Man wird wahrscheinlich vermuten, daß durch den Übergang von den eigentlichen Meßwerten zu den Rangzahlen ein wesentlicher Teil der Informationen verlorengeht und die Wirksamkeit eines Rang-Tests daher nur gering sein könne. Untersuchungen haben jedoch gezeigt, daß die asymptotische Wirksamkeit des hier besprochenen Rang-Tests bei Anwendung auf die Normalverteilung, verglichen mit dem im Falle der Normalverteilung optimalen i-Test, 3/n = 0,95 oder 95% beträgt. Ähnliche Werte wurden auch für kleine Stichprobenumfänge gefunden. Für keine Verteilung kann die asymptotische Wirksamkeit dieses Rang-Tests, verglichen mit dem i-Test, weniger als 86% betragen. Es gibt jedoch Verteilungen, für die sie größer als 100% ist. (Vgl. hierzu die Arbeit von Hodges jr. und Lehmann.) Erscheint daher die Voraussetzung der Normalverteilung fraglich oder scheut man die mit der Anwendung des ¿-Tests verbundene Rechenarbeit, so ist die Anwendung des hier besprochenen Rang-Tests durchaus zu empfehlen. Ein Test für die Lage des Mittelwertes (und für das hier angeschnittene Problem des Vergleiches zweier abhängiger Stichproben) im Falle der Normalverteilung wird in den Abschnitten 9.4 und 9.6 behandelt. 7.6 Der Vergleich zweier unabhängiger Stichproben a) Randomisierungs-Test: Gegeben seien 2 voneinander unabhängige Stichproben 5 > · · · ·5 %ΤΙι und yi,yi,..., yn,· Hypothese ist, daß beide Stichproben aus derselben Verteilung stammen. Wenn dies zutrifft, hat jede Permutation der («t + w2) Zahlen
7.6 Der Vergleich zweier unabhängiger Stichproben
151
{χι, x2,..., yi, y2, · • ; y«,) die gleiche Wahrscheinlichkeit. Da jedoch die Reihenfolge innerhalb ein und derselben Stichprobe auch dann keine Rolle spielt, wenn die Hypothese nicht zutrifft, brauchen wir nur jene Permutationen zu betrachten, bei denen sich die Zusammensetzung der beiden Stichproben ändert. Die Anzahl dieser „ . . /wi+w2\ (mi+M 2 )! . ,. . , Permutationen ist I= — - — . Dies ist die Anzahl der \ «1 j Ml ! «2 Möglichkeiten, (mi + w2) Objekte in zwei Gruppen zu teilen, so daß die eine Gruppe Mi und die andere n2 Objekte enthält. Da jede dieser Möglichkeiten die gleiche Wahrscheinlichkeit hat, beträgt diese 1 Mi + M2 \ Mi
>)
Um eine kritische Regionjmit einer Irrtumswahrscheinlichkeit Sa e zu erhalten, bestimmen wir r, die nächstkleinere ganze Zahl von . /«ι + «2\ Bezeichnen wir r von diesen Permutationen als kriV « ι / tische Region und lehnen wir die Hypothese ab, wenn die tatsächlich aufgetretene Anordnung in diese kritische Region fällt, so haben wir im Falle des Zutreffens der Hypothese eine Irrtumse
Wahrscheinlichkeit —,
γ
.
/Mi + M2\
is ε. Dies gilt, unabhängig davon,
welche r Permutationen wir zur kritischen Region erklären. Jedoch hängt die Gütefunktion des Tests wesentlich von der getroffenen Auswahl der r kritischen Permutationen ab. Es ist sehr plausibel, als Kriterium für die Auswahl der kritischen Permutationen die Differenz χ — y zu wählen und jene r Permutationen als kritische Region zu wählen, bei denen | χ — y I am größten ist. Im Falle eines einseitigen Tests wird man jene r Permutationen als kritische Region wählen, für die χ — y besonders groß (bzw. besonders klein) ist. Da TtiX + n2y bei der hier vorgenommenen Randomisierung konstant ist, ist χ — y eine monoton steigende Funktion von x, denn es gilt ja: χ — y = \ 1 + — i χ — — (mi£ + n2y) • \ m2 j M2 10*
152
7 Verteilungsunabhängige Verfahren
Dies vereinfacht die praktische Durchführung, denn wir müssen nun nicht mehr für jede Permutation die Differenz χ — y berechnen. Es genügt, χ zu berechnen, denn wir wissen, daß die Reihung der Permutationen nach χ mit der Reihung nach χ — y identisch ist. Die oben getroffene Wahl der kritischen Region ist nicht nur besonders plausibel; man kann auch zeigen, daß sie optimale Trennschärfe gegenüber der Alternative liefert, daß die beiden Stichproben aus Normalverteilungen mit gleicher Varianz, aber verschiedenen Mittelwerten stammen. Die Normalverteilung spielt aber, wie gesagt, nur im Zusammenhang mit der Optimierung eine Rolle. Die Irrtumswahrscheinlichkeit im Falle des Zutreffens der Hypothese ist unabhängig von der Form der Verteilung. Was wir über den Randomisierungs-Test für den Mittelwert einer symmetrischen Verteilung gesagt haben, gilt für den hier besprochenen Randomisierungs-Test noch in verstärktem Ausmaße: Angenommen, wir wollen zwei Stichproben vom Umfange 10 miteinander vergleichen. Dann gibt es
= 184756 relevante Permuta-
tionen, und die kritische Region zur Irrtumswahrscheinlichkeit von 1 % besteht aus 1847 Permutationen. Dieser Randomisierungs-Test ist daher nur bei sehr kleinen Stichproben anwendbar. Beispiel: Bei einer — relativ kostspieligen — Lebensdauerprüfung waren zwei verschiedene Fabrikate, A und B, miteinander zu vergleichen. Zwei Stichproben vom Umfange 5 bzw. 8 ergaben folgende Werte der Lebensdauer : x'
np¡
wobei große Werte als signifikant gelten. Bei Zutreffen der Hypothese ist die Testgröße V für große Stichproben annähernd ^-verteilt. Die Anzahl der Freiheitsgrade ist gleich der Anzahl der Gruppen vermindert um 1, also (m — 1). (Die Verminderung um eins kommt — anschaulich gesprochen — daher, daß die Besetzungszahlen der einzelnen Gruppen nicht beliebig variieren können, sondern sich stets zum vorgegebenen Stichprobenumfang η aufaddieren müssen.) Wie gut die Verteilung von V mit der χ 2 -Verteilung übereinstimmt, hängt vor allem von den schwach besetzten Gruppen ab. Als Faustregel kann gelten, daß man mit der χ 2 -Verteilung arbeiten darf, wenn keine der Gruppen eine erwartete Besetzungszahl np¡ kleiner als 1 hat und und wenn höchstens 1/5 der Gruppen erwartete Besetzungszahlen kleiner als 5 haben. (Wenn χ2 nur einen einzigen Freiheitsgrad besitzt, sollte keine der Gruppen eine erwartete Besetzungszahl kleiner als 5 haben und außerdem η mindestens 30 sein.) Ist diese Voraussetzung nicht erfüllt, so empfiehlt es sich, schwach besetzte Gruppen zusammenzufassen. Für die praktische Berechnung erweist sich Formel (1) nur dann als zweckmäßig, wenn die Größen np¡ ganzzahlig sind, so daß die Differenzen n¡ — np¡ ebenfalls ganzzahlig und daher leicht zu quadrieren sind. Sind die np¡ nicht ganzzahlig, so wird man zweckmäßiger von der äquivalenten Formel (2)
V
=
1
m
n*
η ,·=ι ρ
-,
ausgehen, sofern man sich nicht aus bestimmten Gründen für die erwarteten Werte np\ interessiert. Als Faustregel gilt, daß bei der Berechnung von V nach Formel (1) die erwarteten Werte np¡ mit einer Dezimalstelle zu verwenden sind. Die Genauigkeit, mit der p¡ 11*
8 Die ^ - M e t h o d e ; Kontingenztafeln
168
bei Formel (2) einzusetzen ist, soll ebenfalls so groß sein, daß bei npi die erste Dezimalstelle noch genau wird. Bei den in diesem Abschnitt behandelten Beispielen sind allerdings die p¡ meist sehr einfache Brüche und die Frage der Genauigkeit ist hier daher nicht sehr aktuell. Diese tritt jedoch bei der im nächsten Abschnitt besprochenen M e t h o d e auf, w o die p¡ aus der Stichprobe geschätzt werden. 1. Beispiel: Es wird vermutet, daß bei Pferderennen auf einer kreisförmigen Rennbahn die Startposition einen Einfluß auf die Gewinnchancen besitzt. Nachfolgende Tabelle zeigt in der Spalte «,· die Aufgliederung von 144 Siegern nach der Nummer ihrer Startposition (Die Startpositionen wurden von innen nach außen numeriert). Tabelle 16. Berechnung von V. Nummer der Startposition i
Anzahl der Sieger «.·
«,· - 144/8 ! = «,· — 18 J
(», - 18) 2
1 2 3 4 5 6 7 8
29 19 18 25 17 10 15 11
11 1 0 7 1 8 3 7
121 1 0 49 1 64 9 49
Σ
Quelle:
S. Siegel:
-
144
294
Nonparametric Statistics, New York 1956, S. 45.
Hätte die Startposition keinen Einfluß, so müßten die Sieger gleichmäßig über alle Startpositionen verteilt sein, d. h., die Wahrscheinlichkeit, daß ein Sieger eine bestimmte Startposition hatte, wäre für jede Startposition 1/8. In unserem Falle ist npt ganzzahlig, so daß wir Formel (1) anwenden. Da alle p¡ gleich sind: p¡ = 1 Im, vereinfacht sich Formel (1) zu:
8.1 Die ^-Methode
169
Es gilt η!m = 144/8 = 1 8 . Aus obiger Tabelle entnehmen wir, daß E{n¡ - 18)2 = 294, so daß V = 294/18 = 16,3. Die 99%-Grenze der χ2-Verteilung mit 7 Freiheitsgraden liegt bei 18,5. Die beobachteten Werte widersprechen also der Annahme, daß die Startposition keinen Einfluß besitzt, nicht unbedingt. Der beobachtete Wert V = 16,3 ist allerdings so groß, daß eine weitere Untersuchung mit vergrößertem Material ratsam erscheint. Würde sich ein signifikanter Wert V ergeben, so wäre dies ein Beweis dafür, daß die Siegeschancen irgendwie mit der Startposition zusammenhängen. Dieser Zusammenhang könnte ζ. B. darin bestehen, daß gewisse Startpositionen die Siegeschancen vergrößern, aber auch darin, daß „Favoriten" von vornherein gewisse Startpositionen zugeteilt werden. 2. Beispiel: Nehmen wir an, es hätten sich in dem im Beispiel auf S. 166 besprochenen Erbgang bei einem Versuch folgende Zahlen ergeben: « ! = 14, « 2 = 25, M3 = 18. Sind diese Zahlen mit den Wahrscheinlichkeiten pi = 1/4, p2 = 1/2, p3 = 1/4, wie sie sich aus den Mendelschtn Regeln ergeben, verträglich ? Tabelle 17. Berechnung von V.
Pi
η(
ni
1 4
14
196
784
1 2
25
625
1250
1 Τ
18
324
1296
Σ
η = 57
Pi
3330
Die 99%-Grenze der χ2-Verteilung mit 2 Freiheitsgraden liegt bei 9,2. Da V = 1,4 wesentlich unterhalb dieser Grenze liegt, stehen die beobachteten Werte mit den Mendelschea Regeln durchaus im Einklang. Der Wert der Testgröße V ist von der Reihenfolge der einzelnen Gruppen unabhängig: Eine Permutation der Gruppen ändert den Wert von V nicht. Bei manchen Sachverhalten wird man aber er-
170
8 Die ^-Methode; Kontingenztafeln
warten, daß dann, wenn überhaupt ein Effekt vorhanden ist, dieser in einem wesentlichen Zusammenhang mit der Reihenfolge der Gruppen steht; im obigen Beispiel 1 etwa, daß dann, wenn überhaupt ein Einfluß der Startpositionen vorhanden ist, dieser sich so auswirkt, daß eine Startposition um so günstiger ist, je näher sie am Innenrand der Rennbahn liegt. In solchen Fällen wird man von einem guten Test erwarten, daß er diesen organischen Zusammenhang mit der Reihenfolge der Gruppen berücksichtigt. Dies ist beim Z2-Test, wie oben erwähnt, nicht der Fall. Er wird daher bei Problemen dieser Art keine optimale Wirksamkeit besitzen. Ein für die Behandlung solcher Probleme adäquater Test wird in Abschnitt 8.5 besprochen. Spezialisieren wir Formel (1) für den Fall m = 2, so erhalten wir : y _ («ι - npi)2 + (w2 - npi}2 npi np2 Die Größe V ist asymptotisch χ2-verteilt mit 1 Freiheitsgrad, d. h., für η -> °° besitzt V eine χ2-Verteilung mit 1 Freiheitsgrad. Berücksichtigt man die Beziehung pi + p2 = 1 und «i + «2 = n, so erhält man durch eine leichte Umformung: v =
(«i - «fri)2 npA 1 - pi) '
Dieses Ergebnis steht im Einklang mit dem Ergebnis auf S. 65. Dort wurde gezeigt, daß «1 - npi Ϋηρ1( 1 - pO asymptotisch nach N(0,1) verteilt ist. V ist gerade das Quadrat dieser Größe und daher asymptotisch ^-verteilt mit 1 Freiheitsgrad.
8.2 Die ¿^-Methode bei Abhängigkeit von einem Parameter Sehr oft finden wir in der Praxis den Fall, daß die Wahrscheinlichkeiten pi,pa,.. .,pm von einem unbekannten Parameter (oder mehreren) abhängen: Ρι{θ), ρζ(θ), ..pm(Ö), und nicht etwa Interesse daran besteht, eine Hypothese über die Größe dieses
8.2 Die x 2 -Methode bei Abhängigkeit
171
Parameters, sondern vielmehr die durch Ρι{θ), p2(Θ), ..., pm{®) zum Ausdruck gebrachte Art der funktionalen Abhängigkeit zu prüfen. Beispiel: Aus einem bestimmten genetischen Modell der Rotgrünblindheit ergeben sich folgende Wahrscheinlichkeiten : Geschlecht
männlich
weiblich
0
normal
Λ - β ( ΐ - γ )
rotgrünblind
Ρ3
1- 0
(1 - θ)2
2
2
Will man dieses genetische Modell prüfen, so ist nicht der Wert von θ interessant, sondern lediglich die sich aus dem Modell ergebende Art der funktionalen Abhängigkeit der Wahrscheinlichkeiten p¡ vom Parameter Θ.
Um den gewünschten Test für die Art der Abhängigkeit zu erhalten, muß man zunächst einen Schätzer für den unbekannten Parameter gewinnen. Zu diesem Zweck wird man am besten die maximum likelihood-Methode (siehe 4.3) anwenden. Likelihood-Funktion : m. l.-Gleichung: S Α
m
3ρ,(θ)
Ρ i (θ)
do
Durch Auflösen dieser Gleichung gewinnt man einen Schätzer 9. Als Testgröße dient: (1)
,=i
np¡{d)
oder, für die praktische Berechnung : ι m „? (2)
V
=
η i=i
p¡[e)
Wieder gelten große Werte als signifikant. Bei Zutreffen der Hypothese ist V für hinreichend große η annähernd ^-verteilt mit
172
8 Die ^-Methode; Kontingenztafeln
{m — 2) Freiheitsgraden. Wird nicht nur 1 Parameter aus der Stichprobe geschätzt, sondern / Parameter, so ist V annähernd verteilt nach χ 2 mit (m — l — 1) Freiheitsgraden. Ob η so groß ist, daß man die χ2-Verteilung anwenden darf, wird auch hier nach der oben (S. 167) angegebenen Faustregel bestimmt. Der Schätzer für θ kann auch nach einer anderen Methode als der m. l.-Methode gewonnen werden. So kann man als θ jenen Wert von θ wählen, für den V, als Funktion von θ betrachtet, das Minimum annimmt (z 2 -Minimum-Methode). In den meisten Fällen ist dieser Wert jedoch komplizierter zu berechnen als der m. 1.Schätzer. 1. Beispiel: Bezeichnen wir die Besetzungszahlen der 4 Felder im obigen Beispiel über die Rotgrünblindheit der Reihe nach mit ttu w2, « 3 , w4, so ist die m. l.-Gleichung: J_ 1— 8 1 _ 2 * ' T + n * m 0(1-0/2) " ' Τ^ΊΓ ~ 0 ·
Daraus erhalten wir nach einigen Umformungen: Ml
- γ
j. w j.
n
* Λ.
\
+ 2 + " y + w* I ~ •y «ι + 2n 2 + n3+ 2n 4 j +
+ n2) = 0 .
Bei einer Untersuchung wurden folgende Zahlen ermittelt: Tabelle 18. Rotgrünblindheit nach dem Geschlecht. Geschlecht normal rotgrünblind
männlich
weiblich
8324
9032
725
40
Quelle: G. Η. M. Waaler: Über die Erblichkeitsverhältnisse der verschiedenen Arten von angeborener Rotgrünblindheit, Zeitschrift f. ind. Abstammungs- und Vererbungslehre Bd. 45,1927, S. 2 7 9 - 3 3 3 .
Daraus ergibt sich die m. l.-Gleichung: Θ2 · 13596,5 - θ · 31355 + 17356 = 0 mit den beiden Lösungen Qy = 0,9229 und θ2 = 1,3832. Da aus dem Modell heraus für θ nur Werte zwischen 0 und 1 in Frage kommen, ist also θχ = 0,9229 die gesuchte Lösung. Daraus folgt (vgl. S. 171) :
8.2 Die x 2 -Methode bei Abhängigkeit 0,9229
Pi (β) =
173
= 0,4615 ,
/ 0,9229 \ p2(Ö) = 0,9229 11 - — - — j = 0,4970 Ρ»(θ) =
1 - 0,9229 ^ = 0,0386 ,
ρ* m
=
= 0,0030
Wir erhalten somit: •w —
1 / 83242 Ι 18121 V 0,4615
ι
90322 0,4970
ι
7252 0,0386
402 \J 0,0030 /
18121
=
'
Die Zahl der Feiheitsgrade ist 2, da 4 Gruppen vorliegen und 1 Parameter 0 aus der Stichprobe geschätzt wurde. Die 99%-Grenze liegt bei 9,2, ist also wesentlich größer als der berechnete Wert V = 3,2. Das oben beschriebene genetische Modell der Rotgrünblindheit steht also mit den Beobachtungsergebnissen im Einklang. Dies ist um so bemerkenswerter, als der Test infolge der großen Stichprobe (über 18000) sehr empfindlich ist und auch auf geringfügige Abweichungen anspricht. 2. Beispiel: Wir betrachten ein Erbmerkmal, das in drei verschiedenen Allelen, Αχ, A 2 , A s auftritt. Es ist die Hypothese zu prüfen, daß in der Population vollständige Durchmischung herrscht, d. h. daß die Paarungswahrscheinlichkeiten von diesen Allelen unabhängig sind. Im Falle der vollständigen Durchmischung kann man die Wahrscheinlichkeiten, mit denen die einzelnen Genotypen in der Population auftreten, durch die sog. „Genwahrscheinlichkeiten" θ1} 0 2 , θ3 (0χ + θ 2 + 0 3 = 1) ausdrücken*): Allgemein hat das Zusammentreffen der Allele A< und A¡ im Falle der vollständigen Durchmischung die Wahrscheinlichkeit 6 ( 6j. Da die Genotypen AiAj und AjAi identisch sind, erhalten wir: Genotypus Ai Ai A2 A2 A3 A3 AIA 2 A2A3 A 3 Ai
Wahrscheinlichkeit
*) Vgl. hierzu etwa H. Geppert und S. Koller: Erbmathematik, Theorie der Vererbung in Bevölkerung und Sippe, Leipzig 1938, S. 39ff.
174
8 Die ^ - M e t h o d e ; Kontingenztafeln
In einem konkreten Falle — es handelte sich um die Untersuchung von Chromosomen-Inversionen — waren die drei Homozygoten (A 1 A 1 , A2A2, A3AS) bei der mikroskopischen Untersuchung nicht unterscheidbar. Tatsächlich beobachtbar waren daher 4 Gruppen: Phänotypus
Wahrscheinlichkeit
(•AJAJ, A2A2, Asas) A¡A3 A3At ΑχΛϋ
p0 p! pz p3
= = = =
beobachtete Häufigkeit
ΘΙ + ΘΙ + e¡ 202θ3 2 030! 20 x 02
n0 = 71 n1= 4 n2 = 47 n3= 1 κ = 123
Um die Hypothese der vollständigen Durchmischung zu testen, hat man daher zu prüfen, ob die beobachteten Besetzungszahlen der einzelnen Gruppen mit der funktionalen Abhängigkeit der Wahrscheinlichkeiten pi von den Parametern 0 X , 0 2 , 0 3 , die sich aus der Hypothese der vollständigen Durchmischung ergibt, verträglich sind oder nicht. Es interessiert dabei, wie gesagt, die Art der funktionalen Abhängigkeit, nicht die Werte der Parameter 0 l 5 0 2 , θ 3 . Trotzdem müssen diese — sozusagen als Mittel zum Zweck — geschätzt werden. Da 3 Parameter zu schätzen sind, ist ein System von 3 m.l.-Gleichungen unter der Nebenbedingung 0 J + 0 2 + 0 3 = 1 aufzulösen. Die i. m. l.-Gleichung erhält man dadurch, daß man den Logarithmus der likelihood-Funktion nach 0¡ differenziert und gleich Null setzt. Dabei wird die Nebenbedingung mit Hilfe eines Lagrange sehen Multiplikators berücksichtigt: «„ · log(0? + θ\ + 0g) +
M l log(20 2 0 3 )
+ « 2 log(20 x Ö 3 ) +
+ H 3 log(20 x 0 2 ) - λ(θ1 + θ2 + 0 3 ) = Maximum. Durch Ableiten nach Θ1, θ2 bzw. 0 3 und Nullsetzen erhält man der Reihe nach die Gleichungen: 20 x ' ~θ[+θξΤθΪ 202 n ° "θ[+θξ+θΐ+
1 1 "2 ' ~G¡ + ' 07 " 1 1 η* • m + ' 07 " 20 3 1 1 ' I f T e f + e f + "1 · + »«·τ3 " +
λ
~ ° ' -
λ
λ
-
»
0
0
·
Indem man die Gleichungen der Reihe nach mit , θ2 bzw. ö 3 multipliziert und aufaddiert, erhält man unter Berücksichtigung der Neben-
8.2 Die x 2 -Methode bei Abhängigkeit bedingung + 0 2 + θ3 = 1 als erstes den Wert λ — In. wir die Abkürzung
175 Weiter führen
2 Wo
=
η(θ* + θ\ + β»)
ω
ein. Dann gilt: 6i =
l ± l / l - ωπ
. η — n0 — rij . , wobei r¡ = , t = 1, 2, 3 .
co wird aus der Nebenbedingung 0X + θ 2 + θ 3 = 1 berechnet. Da 0J + θ| + 03 die Wahrscheinlichkeit der Homozygoten ist, und also durch
angenähert werden kann, erhält man als erste Näherungslösung
für ω geben bei 0j ω die
den Wert 2. Setzt man diesen Wert in die Formel für 0,· ein, so ersich vernünftige Werte für die 0,·, wenn man bei 0 3 das positive, und 0 2 das negative Vorzeichen der Wurzel gelten läßt. Daher muß Gleichung
-
+
ω
co
+
+
= ι
erfüllen. Daraus folgt: co = 1,987 (d. h., die Lösung stimmt sehr gut mit dem ersten Näherungswert überein). Durch Einsetzen in die Formeln für 0,· erhält man: 1/ =
48~ = 0-265 ,
1,987
> - V
1 -
1,987
5
1Î3
1,987 1 -
1,987
1,987
51 I23
= 0,021,
176
8 Die ^-Methode; Kontingenztafeln
Daraus folgt: p0 = 0,265 2 + 0,021 a + 0,714 a = 0,5805, pi. = 2· 0,021 · 0,714 = 0,0300, p2 = 2 · 0,714 · 0,265 = 0,3784, p3= 2· 0,265 · 0,021 = 0,0111. Diese Werte in Formel (2), S. 171, eingesetzt, ergibt: 1 / 71 2 4a 47 a Ia \ V= 1 1 1 — 123 = 0 1 123 V 0,5805 0,0300 0,3784 0,0111 j ' ' Die Zahl der Freiheitsgrade ist 1, da 4 Gruppen vorliegen und 2 unabhängige Parameter aus dem Material geschätzt wurden. (Da die Parameter öi, θ 2 , θ 3 durch die Nebenbedingung Θ1 + 0 2 4- 0 3 = 1 verbunden sind, liegen nur 2 unabhängige Parameter vor.) Die 95 % -Grenze für die χ2Verteilung mit 1 Freiheitsgrad liegt bei 3,8. Daher sind die beobachteten Werte mit der Hypothese der vollständigen Durchmischung durchaus verträglich.
3. Beispiel: Auf Seite 28 stellten wir durch Vergleich fest, daß die Verteilung von Hefezellen in einer Suspension sehr gut mit einer PoissonTabelle 19 Test auf Übereinstimmung mit der Poissonverteilung Anzahl der Hefezellen
i 0 1 2 3 4 5 6 7 8 9 10 11 12 u. mehr
Σ
Anzahl der Volumeinheiten mit i Hefezellen
Hi
Schätzwerte der Wahrscheinlichkeiten
.2 "i
pi
Pi
ro 20 43 53 86 70 54 37 18 10 5 2 2
0,0093 0,0434 0,1016 0,1585 0,1855 0,1736 0,1354 0,0905 0,0530 0,0275 0,0129 0,0055 0,0033
0 9217 18199 17722 39871 28226 21536 15127 6113 3636 1938 727 1212
400
1,0000
163524
8.2 Die x 2 -Methode bei Abhängigkeit
177
Verteilung übereinstimmt. Die ^-Methode ermöglicht es, die Übereinstimmung exakt nachzuprüfen. Dabei können wir auf die seinerzeit berechneten Schätzwerte für p¡ = {a'/H)e~a zurückgreifen, da der dort verwendete Schätzer a = 4,68 ein maximum likelihood-Schätzer ist. Allerdings müssen hier die Wahrscheinlichkeiten mit 4 Dezimalstellen geschätzt werden, da sonst die 1. Dezimale des Wertes V nicht mehr genau ist. Um zu erreichen, daß der Erwartungswert der Besetzungszahl für alle Gruppen größer als 1 ist, wurde die Gruppe 12 mit allen darauffolgenden Gruppen zusammengefaßt. Es gilt: V = 163524/400 - 400 = 8,8. Es liegen 13 Gruppen vor. 1 Parameter wurde aus dem Material geschätzt, so daß die Verteilung von V 11 Freiheitsgrade besitzt. Die 95%Grenze der ^-Verteilung mit 11 Freiheitsgraden liegt bei 19,7. Die Hypothese der Poissonverteilung ist also mit den Beobachtungsergebnissen sehr gut verträglich.
Die z 2 -Methode kann auch bei stetigen Verteilungen dazu verwendet werden, eine Hypothese über die Art der Verteilung zu prüfen. Allerdings ist in diesem Falle eine künstliche Gruppierung des Materials erforderlich : Wollen wir testen, ob die zu einer gegebenen stetigen Verteilung gehörende Dichte eine vom Parameter 0 abhängige Funktion p (χ, θ) ist, so haben wir die Gesamtheit der möglichen Stichprobenergebnisse in eine endliche Anzahl, m, disjunkter Gruppen zu teilen und die Wahrscheinlichkeiten p¡(6) zu berechnen, die diesen Gruppen bei der durch p (χ, 0) bestimmten Verteilung zukommen. Es gilt : p¡ (θ) =
G< G
J ρ (χ, θ) dx, i = 1 , 2 , . . . , m,
¿-1
wobei G¡ die obere Grenze der i. Gruppe bezeichnet. Dann können wir die Hypothese pi(6), pz{0), ..., pm(0) mittels der Testgröße (1) prüfen, wenn wir f ü r n¡ die Anzahl derjenigen Stichprobenwerte einsetzen, die in der i. Gruppe liegen. Die Gruppierung ist so vorzunehmen, daß die Anzahl der erwarteten Werte in den beiden Randgruppen mindestens 1 ist. Die Anzahl der erwarteten Werte in den übrigen Gruppen soll nicht kleiner als 5 sein. Dies sind Voraussetzungen dafür, daß die Verteilung von V tatsächlich durch eine χ 2 -Verteilung approximiert werden kann. Außerdem soll die Anzahl der erwarteten Werte in keiner Gruppe zu groß sein, denn eine zu starke Zusammenfassung beeinträchtigt die Wirksamkeit des Tests. Als Faustregel kann gelten, daß keine
178
8 Die ^ - M e t h o d e ; Kontingenztafeln
Gruppe mehr als Werte enthalten soll. Bei sehr großem η wird diese Faustregel praktisch allerdings schwer zu verwirklichen sein, da man sonst u. U. einige hundert Gruppen erhält. Allerdings ist die Befolgung der Faustregel in diesem Falle auch nicht sehr wichtig, weil dann der Test — infolge des großen η — ohnedies sehr wirksam ist. Praktisch kann man die Grenzen der Gruppen wohl nur selten zahlenmäßig fixieren, bevor die Beobachtungen tatsächlich vorliegen. Man wird daher meist so vorgehen, daß man die Besetzungszahlen der einzelnen Gruppen vorgibt und die Abgrenzung dann auf Grund der vorliegenden Stichprobe so festlegt, daß die vorgegebenen Besetzungszahlen tatsächlich eingehalten werden. (Vgl. hierzu die Arbeit von Witting.) Theoretisch sollten die Parameter der Verteilung geschätzt werden auf dem Wege über die Wahrscheinlichkeiten, die sich aus der hypothetischen Verteilung für die einzelnen Gruppen ergeben. Dies führt jedoch meist zu rechnerischen Schwierigkeiten. (Für den Fall der Normalverteilung vgl. ζ. B. : v. d. Waerden, S. 230.) Man wird daher in der Praxis jene Schätzungen wählen, die man auf Grund der maximum likelihood-Methode aus den Einzelwerten erhält bzw. bei sehr großem η eine bequeme Schätzung aus dem gruppierten Material vornehmen. Beispiel: Tabelle 20 gibt eine Aufgliederung von 200 elektrischen Widerständen nach der Größe des Widerstandes in Ohm. Wir wollen nun mit dem x 2 -Test prüfen, ob diese Werte einer Normalverteilung entsprechen oder nicht. Z u diesem Zwecke mußten wir die Gruppen 157—158 und 158 — 159 wegen der zu geringen Besetzung zusammenfassen. Die Schätzwerte für die p¡ berechnen wir einfach auf Grund der bereits oben (S. 34) verwendeten Werte χ = 152,9 und s = 1,7 nach der Formel
Pi =
φ
( G; -
—: s
x\
/)
/ G, - 1
-Φ\\
s
Dabei ist G¡ die obere Grenze der i. Gruppe. Die Zahl der Freiheitsgrade beträgt 7, da 10 Gruppen vorliegen und 2 Parameter (μ und σ) aus dem Material geschätzt werden. Die 9 5 % Grenze der χ 2 -Verteilung mit 7 Freiheitsgraden liegt bei 14,1. Die Annahme, daß die Widerstände normalverteilt sind, ist daher mit dem vorliegenden Beobachtungsmaterial durchaus verträglich. (Daß keine markanten
8.3 Die Unabhängigkeit in einer Kontingenztafel
179
Abweichungen von der Normalverteilung vorliegen, zeigte bereits die Darstellung der empirischen Summenverteilung im Wahrscheinlichkeitsnetz, Bild 11, S. 40.) Tabelle 20 Test auf Übereinstimmung mit der Normalverteilung Widerstand in Ω
Anzahl der Widerstände "i
148-149 149-150 150-151 151-152 152-153 153-154 154-155 155-156 156-157 157-159
Σ
Schätzwerte der Wahrscheinlichkeiten
«? Ρ
Pi
1 5 22 39 38 49 21 17 7 1
0,0116 0,0339 0,0902 0,1658 0,2264 0,2143 0,1503 0,0724 0,0272 0,0079
86 737 5366 9174 6378 11204 2934 3992 1801 127
200
1,0000
41799
V = 41799/200 - 200 = 9,0.
8.3 Die Unabhängigkeit in einer Kontingenztafel Eine sehr wichtige Anwendung der z 2 -Methode ist die Prüfung der Unabhängigkeit in einer Kontingenztafel. Beispiel: Tabelle 21 auf S. 180 enthält Angaben über die Religionszugehörigkeit von Braut und Bräutigam jener Ehen, die in Köln im Jahre 1970 geschlossen wurden. Es ist zu untersuchen, ob die Religionszugehörigkeit irgendeinen Einfluß auf die Wahl des Ehepartners hat oder nicht. Zu prüfen ist also die Hypothese der Unabhängigkeit: Die Religion hat keinen wie immer gearteten Einfluß auf die Wahl des Ehepartners. Im allgemeinen Fall haben wir zwei Merkmale mit r bzw. s verschiedenen Ausprägungen. Bei jedem Stichprobenelement wird festgestellt, in welcher Ausprägung jedes der beiden Merkmale
180
8 Die ^-Methode; Kontingenztafeln Tabelle 21 Aufgliederung der Eheschließungen nach dem Religionsbekenntnis von Braut und Bräutigam, Köln 1970 Braut röm.kath.
evang.
sonstige Rei. Bek.
ohne Rei. Bek.
Σ
röm.-kath.
2987
1100
25
56
4168
evangelisch
1193
784
14
47
2038
sonstige Rei. Bek.
90
40
146
14
290
ohne Rei. Bek.
152
122
6
78
358
4422
2046
191
195
6854
Bräutigam
\
Σ
Quelle: Statistisches Jahrbuch der Stadt Köln, Jahrgang 1970.
vorliegt: «+y¡Z { = X i + y ¡ - 1 3
Zi2
y> 13,6 15,8 15,3 12,8 16,1 13,8 14,3 11,6 11,1 11,7
0,6 2,8 2,3 -0,2 3,1 0,8 1,3 -1,4 -1,9 -1,3
0,36 7,84 5,29 0,04 9,61 0,64 1,69 1,96 3,61 1,69
136,1
6,1
32,73
Nehmen wir an, daß bei Anlage des Versuches mit unabhängigen Stichproben die 10 mit der Spezialmaschine zu besäenden Versuchsfelder durch ein Zufallsexperiment aus den 20 Versuchsfeldern ausgewählt wurden, haben wir den Wirkungsgrad grundsätzlich nach Formel (1)
9.10 Vergleich mehrerer Mittelwerte: unabhängige Stichproben
223
zu berechnen. Im Hinblick auf die geringe Genauigkeit der Schätzwerte wollen wir uns jedoch mit der Näherungsformel (3) begnügen. Es gilt: 2 1 ( ¿ = - ( 3 2 , 7 3
6,1 2 \ - — ) = 3,22.
Den Wert s\ = 0 , 6 7 übernehmen wir von S. 211. Dann erhalten wir:
Obwohl die hier verwendeten Werte von und si: mit nicht zu vernachlässigenden Fehlern behaftet sind, da sie nur aus kleinen Stichproben berechnet wurden, erscheint es trotzdem evident, daß die Verwendung verbundener Stichproben in diesem Fall rentabel ist.
9.10 Vergleich mehrerer Mittelwerte: unabhängige Stichproben Der in 9.7 behandelte Vergleich zweier Mittelwerte läßt sich auf den Vergleich einer beliebigen Zahl von Mittelwerten erweitern. Gegeben seien k unabhängige Stichproben: xn, xt2, . . X m v i = 1 , 2 , . . . , k. Die Umfänge der k Stichproben, « i , « 2 , . . ., «fe, können verschieden sein. Wir nehmen an, daß die Stichproben aus Normalverteilungen stammen und daß alle diese Normalverteilungen die gleiche Varianz besitzen. Die Mittelwerte dieser Normalverteilungen seien μχ, μ2,. . ., ftt. Die Hypothese lautet: ß l = i"2 =
.. · =
rtt.
Die Alternative ist, daß einige oder auch alle μ·, voneinander verschieden sind, also eine sehr allgemein gehaltene Alternative. Ist die Hypothese richtig, d. h. haben tatsächlich alle Verteilungen den gleichen Mittelwert μ, so ist
(1)
1
k
—τ Σ (x¡ - x)2n¡ °
¿=i
Z 2 -verteilt mit (k — 1) Freiheitsgraden. Dies ist leicht einzusehen :
224
9 Normalverteilung; höhere Verfahren
ist verteilt nach Ν (0,1) ; also ist (*i - μΥ
n¡
jí2-verteilt mit 1 Freiheitsgrad und daher *
Σ „ — «ι 30 hier nicht erfüllt ist — erhalten wir : -
2 / 0.003269 2 ~ ~9 ( - 1 9 -
V ( £ 2 )
Da
Σ
2
- 2,58 Ϋνφ ) 2
0,000057 2 \ 40
+
< Σ
2
< Σ
) = 2
1 2
'5_^
8
+ 2,58 V V ( £ 2 )
mit 9 9 % Wahrscheinlichkeit, gilt 0,00015 < Σ 0,012 < Σ
2
< 0,00199 1 . QQ0. c . , , . < 0,045 j mit 9 9 % Sicherheit.
·
240
9 Normalverteilung; höhere Verfahren
Wir interessieren uns nun, wie die Genauigkeit von χ von Σ 2 und σ2 abhängt. Es gilt: k
V 2 Σ n¡ (3)
=
η2
2
+
—. η
Diese Formel gibt uns Aufschluß darüber, wie groß wir k, die Anzahl der Stichproben, und die Stichprobenumfänge «i, n 2 , . . ., rik wählen müssen, um χ möglichst genau (d. h. mit möglichst kleiner Varianz) zu schätzen. Selbstverständlich wird diese Schätzung beliebig genau, wenn man η beliebig groß macht. Es ist jedoch sinnvoll, zu fragen, wie man mit einer Stichprobe vorgegebenen Umfanges η eine möglichst große Genauigkeit erzielen kann. Bei vork gegebenem η hängt V{x) nur noch von Σ η· ab. V (χ) ist ein Miniai k 2 k mum, wenn Σ «¿ = Min, wobei Σ »< = »· Halten wir k (die i=i 30 gilt:
Ca » N a
1 , yη — 1
, mit
f 1,64 für α = 9 5 %
N„=\
[2,33 f u r « = 9 9 %
(Vgl. hierzu die Ausführungen auf S. 2 7 7 , 2 7 8 . )
einseitiger
Α. Allgemeine Literaturhinweise 1. Einige Standardwerke über allgemeine Methodenlehre:
a) Allgemein: * C r a m é r , H . : Mathematical Methods of Statistics, 11. Aufl., Princeton 1966, 574 S. F a b i a n , V . : Statistische Methoden, 2. Aufl., Berlin 1970, 529 S. (Übersetzung a. d. Tschechischen). F i s h e r , R . Α.: Statistical Methods for Research Workers, 13. Aufl., London 1958, 356 S. (Die deutsche Übersetzung ist nicht zu empfehlen.) F i s z , M . : Wahrscheinlichkeitsrechnung und mathematische Statistik, 5. Aufl., Berlin 1966, 551 S. (Übersetzung a. d. Polnischen). • F r a s e r , D. A. S.: Nonparametric Methods in Statistics, New York 1963, 299 S. - : Statistics - An Introduction, New York 1958, 398 S. H o d g e s , J . L. jr. und E . L . L e h m a n n : Basic Concepts of Probability and Statistics, 2. Aufl., San Francisco 1970, 441 S. H o e l , P. G . : Introduction to Mathematical Statistics, 3. Aufl., New York 1963, 427 S. ' K e n d a l l , M . G. und A . S t u a r t : The Advanced Theory of Statistics, Bd. I, 2. Aufl., London 1963, 433 S., Bd. II, London 1961, 676 S „ Bd. III, London 1966, 560 S. K r e y s z i g , E . : Statistische Methoden und ihre Anwendungen, 2. Aufl., Göttingen 1967, 422 S. • L e h m a n n , E. L . : Testing Statistical Hypotheses, New York 1959, 369 S. L i n d e r , Α.: Statistische Methoden für Naturwissenschaftler, Mediziner und Ingenieure, 4. Aufl., Basel 1964, 484 S. * L i n d l e y , D . : Introduction to Probability and Statistics from a Bayesian Viewpoint, Cambridge 1965, Bd. I, 260 S., Bd. II, 292 S.
*) Die mit * versehenen Bücher sind vor allem für Mathematiker gedacht.
300
Allgemeine Literaturhinweise
M o o d , Α. M. und F. A. G r a y b i l l : Introduction to the Theory of Statistics, 2. Aufl., New York 1963, 443 S. • M o r g e n s t e r n , D.: Einführung in die Wahrscheinlichkeitsrechnung und mathematische Statistik, 2. Aufl., Berlin-Göttingen-Heidelberg 1968, 249 S. M ü l l e r , P. H. (Hrsg.) : Wahrscheinlichkeitsrechnung und mathematische Statistik - Lexikon, Berlin 1970, 278 S. N e y m a n , J.: First Course in Probability and Statistics, New York 1950, 350 S. Q u e n o u i l l e , M. H.: Introductory Statistics, London 1950, 248 S. — : Rapid Statistical Calculations, London 1960, 44 S. * S c h m e t t e r e r , L.: Einführung in die mathematische Statistik, 2. Aufl., Wien 1966, 420 S. S e n d e r s , V. L.: Measurement and Statistics, New York 1958, 594 S. S t a n g e , K.: Angewandte Statistik, Bd. I, Berlin-Heidelberg-New York 1970, 592 S., Bd. II, Berlin-Heidelberg-New York 1971, 505 S. S t ü r m e r , H. (Hrsg.): Praktische Anleitung zu statistischen Prüfungen, München 1971, 111 S. V a n d e r W a e r d e n , B. L.: Mathematische Statistik, 3. Aufl., BerlinGöttingen-Heidelberg 1971, 360 S. W e t z e l , W.: Statistische Grundausbildung für Wirtschaftswissenschaftler, II. Schließende Statistik, Berlin-New York 1973, 278 S. * W i l k s , S. S.: Mathematical Statistics, New York 1962, 644 S. * W i t t i n g , H.: Mathematische Statistik, Stuttgart 1966, 223 S. " ' W i t t i n g , H. und G. N o l l e : Angewandte mathematische Statistik, Stuttgart 1970, 194 S. Y u l e , G. U. und M. G. K e n d a l l : An Introduction to the Theory of Statistics, 14. Aufl., London 1958, 701 S. * Z a c k s , S.: The Theory of Statistical Inference, New York 1971, 609 S. b) Unter besonderer Berücksichtigung der Anwendungen in Biologie und Medizin: C a m p b e l l , R. C.: Statistische Methoden für Biologen und Mediziner, Stuttgart 1971, 269 S. (Übersetzung a. d. Englischen). F i n n e y , D. J.: Statistical Method in Biological Assay, London 1964, 668 S. F r e u d e n b e r g , Κ.: Grundriß der medizinischen Statistik, Stuttgart 1962, 313 S. G e b e l e i n , H. und H. J. H e i t e : Statistische Urteilsbildung, Berlin 1951, 192 S. G u r l a n d , J. (Hrsg.) : Stochastic Models in Medicine and Biology, Madison 1964, 393 S.
Allgemeine Literaturhinweise
301
H o s e m a n n , H.: Die Grundlagen der statistischen Methoden für Mediziner und Biologen, Stuttgart 1949, 132 S. K o l l e r , S.: Statistische Auswertung der Versuchsergebnisse, in: Handbuch der physiologisch- und pathologisch-chemischen Analyse (Hrsg. : Hoppe-Seyler/Thierfeld), Bd. 2: Allgemeine Untersuchungsmethoden (Hrsg. : K. Lang/E. Lehnartz), zweiter Teil, 10. Aufl., Berlin-GöttingenHeidelberg 1955, S. 931-1036. M a t h e r , K.: Statistische Analysen in der Biologie, Wien 1955, 466 S. (Übersetzung a. d. Englischen). O l d h a m , P . D . : Measurement in Medicine — The Interpretation of Numerical Data, London 1968, 216 S. R a o , C. R.: Advanced Statistical Methods in Biometrie Research, New York 1952, 390 S. S n e d e c o r , G. W. und W. G. C o c h r a n : Statistical Methods Applied to Experiments in Agriculture and Biology, 6. Aufl., Ames 1968,593 S. W e b e r , E.: Grundriß der biologischen Statistik, Anwendung der mathematischen Statistik in Naturwissenschaft und Technik, 7. Aufl., Stuttgart 1972, 706 S. c) Unter besonderer Berücksichtigung der Anwendungen in Psychologie und Soziologie: B l a l o c k , H. M.: Social Statistics, New York 1960, 465 S. B r u n s w i k , E.: Perception and the Representative Design of Psychological Experiments, 2. Aufl., Berkeley 1956, 154 S. D u Bois, Ph.: An Introduction to Psychological Statistics, New York 1965, 530 S. C l a u s s , G. und H. E b n e r : Grundlagen der Statistik für Psychologen, Pädagogen und Soziologen, Berlin 1970, 367 S. E d w a r d s , A. L.: Statistical Methods for the Behavioral Sciences, 5. Aufl., New York 1958, 542 S. F e r g u s o n , G. Α.: Statistical Analysis in Psychology and Education, 2. Aufl., New York 1966, etwa 347 S. G a r r e t t , Η. E.: Statistics in Psychology and Education, 5. Aufl., New York 1958, 478 S. H a g o o d , M. J. und D. O. P r i c e : Statistics for Sociologists, 2. Aufl., New York 1952, 575 S. H o f s t ä t t e r , P . R.: Einführung in die quantitativen Methoden der Psychologie, 2. Aufl., München 1966, 298 S. L e w i s , D.: Quantitative Methods in Psychology, New York 1960, 558 S. L i e n e r t , G. Α.: Verteilungsfreie Methoden in der Biostatistik — Dargestellt an Beispielen aus der psychologischen, medizinischen und biologischen Forschung, Meisenheim am Glan 1962, 361 S.
302
Allgemeine Literaturhinweise
L i n d q u i s t , E. F.: Statistical Analysis in Educational Research, New York 1956, 312 S. L o r d , F. M . und M . R. N o v i c k : Statistical Theories of Mental Test Scores, Reading 1968, 568 S. M c N e m a r , Q. : Psychological Statistics, 3. Aufl., New York 1962, 451 S. M i t t e n e c k e r , E . : Planung und statistische Auswertung von Experimenten, 8. Aufl., Wien 1970, 220 S. M u e l l e r , J . H. und K. F. S c h u e s s l e r : Statistical Reasoning in Sociology, 2. Aufl., Boston 1970, 479 S. S i e g e l , S.: Nonparametric Statistics for the Behavioral Sciences, New York 1956, 312 S. Z e l d i t c h , M . j r . : A Basic Course in Sociological Statistics, New York 1959, 370 S. d) Unter Berücksichtigung
der Anwendungen
in der
Technik:
G r a f , U. und H. J . H e n n i n g : Statistische Methoden bei textilen Untersuchungen, 2. Aufl., Berlin 1960, 278 S. G r a n t , E. L. : Statistical Quality Control, 3. Aufl., New York 1964, 610 S. H a i d , Α.: Statistical Theory with Engineering Applications, 6. Aufl., New York 1965, 783 S. H e i n h o l d , J . und K. W. G a e d e : Ingenieur-Statistik, München-Wien 1964, 327 S. J u r a n , J . M . , A. S e d e r und F. M . G r y n a (Hrsg.): Quality Control Handbook, 2. Aufl., New York 1962, etwa 800 S. L u d w i g , R . : Methoden der Fehler- und Ausgleichsrechnung, Braunschweig 1969, 259 S. S c h a a f s m a , Α. H. und F. G. W i l l e m z e : Moderne Qualitätskontrolle, 4. Aufl., Eindhoven 1964, 493 S. S c h i n d o w s k i , E. und O. S c h ü r z : Statistische Qualitätskontrolle, Kontrollkarten, Berlin 1959, 343 S. S m i r n o v , N. W. und I. W. D u n i n - B a r k o w s k i : Mathematische Statistik in der Technik, 2. Aufl., Berlin 1969, 479 S. (Übersetzung a. d. Russischen). S t ö r m e r , H . : Mathematische Theorie der Zuverlässigkeit — Einführung und Anwendungen, München 1970, 329 S. S t o r m , R . : Wahrscheinlichkeitsrechnung, mathematische Statistik und Qualitätskontrolle, Leipzig 1965, 284 S. S t r a u c h , H . : Statistische Güterüberwachung, 2. Aufl., München 1964 etwa 180 S. T i p p e t t , L. H. C . : Technological Applications of Statistics, New York 1952, 312 S. U h l m a n n , W . : Statistische Qualitätskontrolle, Stuttgart 1966, 220 S.
Allgemeine Literaturhinweise
303
— : Statistische Schätzverfahren für Dauerfestigkeitsversuche, München 1967, 66 S. — : Kostenoptimale Prüfpläne, Tabellen, Praxis und Theorie eines Verfahrens der statistischen Qualitätskontrolle, 2. Aufl., Würzburg-Wien 1970, 76 S. 2. Tabellenwerke: Eine vollständige Übersicht über statistische Tabellen in Tabellenwerken und Zeitschriften bringen G r e e n w o o d , J. A. und H. O. H a r t l e y : Guide to Tables in Mathematical Statistics, Princeton 1962, 1014 S. O w e n , D. Β.: Handbook of Statistical Tables, Reading 1962, 580 S. Die wichtigsten Tabellenwerke sind : D a v i d , F. Ν.: Tables of the Ordinates and Probability Integral of the Distribution of the Correlation Coefficient in Small Samples, Cambridge 1954, 55 S. F i s h e r , R. A. und F. Y a t e s : Statistical Tables for Biological, Agricultural and Medical Research, 6. Aufl., London-Edinburgh 1963, 146 S. G r a f , U., H . J . H e n n i n g und K . S t a n g e : Formeln und Tabellen der mathematischen Statistik, 2. Aufl., Berlin 1966, 362 S. H a i d , Α.: Statistical Tables and Formulas, New York 1952, 98 S. J. R. Geigy A. G.: Documenta Geigy, wissenschaftliche Tabellen, 6. Aufl., Basel 1960, 742 S. K o l l e r , S.: Neue graphische Tafeln zur Beurteilung statistischer Zahlen, 4. Aufl., Darmstadt 1969, 167 S. L i n d e r , Α.: Handliche Sammlung mathematisch-statistischer Tafeln, Basel 1961, 40 S. N a t i o n a l B u r e a u of S t a n d a r d s : Tables of the Binomial Probability Distribution, Washington 1950, 387 S. O f f i c e of t h e Chief of O r d n a n c e : Tables of the Cumulative Binomial Probabilities, Washington 1952, 577 S. P e a r s o n , K.: Tables of the Incomplete Gamma-Function, 2. Aufl., London 1957, 164 S. — : Tables of the Incomplete Beta-Function, 2. Aufl., Cambridge 1956, 494 S. P e a r s o n , E. S. und Η. O. H a r t l e y : Biometrika Tables for Statisticians, Cambridge 1958, 238 S. R e s n i k o f f , G. J. und G. J. L i e b e r m a n n : Table of the Non-Central t-Distribution, Stanford 1959, 389 S. R o m i g , H. G.: 5 0 - 1 0 0 Binomial Tables, New York 1953, 172 S.
304
Allgemeine Literaturhinweise
S m i r n o v , Ν. V. (Hrsg.) : Tables of the Normal Probability Integral, the Normal Density, and its Normalized Derivatives, New York 1965, 125 S. W e t z e l , W., M. D. J ö h n k und P. N a e v e : Statistische Tabellen, Berlin 1967, 168 S. 3. Bibliographien und Referatblätter: a)
Bibliographien:
Bibliographien der laufend erscheinenden Arbeiten finden sich in den meisten methodischen Zeitschriften, am vollständigsten in Revue de l'Institut International de Statistique. Ein umfassendes Verzeichnis vorhandener statistischer Bibliographien, geordnet nach Autoren und Sachgebieten, gibt L a n c a s t e r , Η. O.: Bibliography of Statistical Bibliographies, Edinburgh 1968, 103 S. b)
Referatblätter.•
Statistical Theory and Method Abstracts, Internationales Statistisches Institut. International Journal of Abstracts on Statistical Methods in Industry, Internationales Statistisches Institut. Ferner finden sich Referate über statistische Arbeiten in Referatblättern anderer Fachgebiete, vor allem im Zentralblatt für Mathematik und in den Mathematical Reviews. 4. Einige methodische Zeitschriften und Kongreßberichte : a)
Zeitschriften:
Annals of the Institute of Statistical Mathematics. Annals of Statistics, Institute of Mathematical Statistics. Applied Statistics, A Journal of the Royal Statistical Society. Australian Journal of Statistics, Stat. Soc. New South Wales. Biometrics, Journal of the Biometrie Society. Biometrika, The Biometrika Office, London. Biometrische Zeitschrift, Institut für Angewandte Mathematik und Mechanik der Deutschen Akademie der Wissenschaften zu Berlin. Journal of the American Statistical Association, American Statistical Association. Journal of Multivariate Analysis, Academic-Press, New York-London.
Spezielle Literaturhinweise
305
Journal of the Royal Statistical Society, Ser. Β. : Methodological, Royal Statistical Society. Mathematische Operationsforschung und Statistik, Institut für Angewandte Mathematik und Mechanik der Deutschen Akademie der Wissenschaften zu Berlin. Metrika — Zeitschrift für theoretische und angewandte Statistik, PhysicaVerlag, Würzburg-Wien. Revue de l'Institut International de Statistique, Verlag W. P. van Stockum Fils, Den Haag. Revue de Statistique Appliquée, Institut de Statistique de l'Université de Paris. Sankhyä — T h e Indian Journal of Statistics. Statistische Hefte — Internationale Zeitschrift für Theorie und Praxis, Westdeutscher Verlag, Opladen. Technometrics — A Journal of Statistics for the Physical, Chemical and Engineering Sciences, T h e American Society for Quality Control and the American Statistical Association. b) Kongreßberichte
:
Bulletin de l'Institut International de Statistique. Proceedings of the Berkeley Symposium on Mathematical Statistics and Probability.
B. Spezielle Literaturhinweise zu den einzelnen Kapiteln Verwendete Abkürzungen AMSt BISt JASA JRSS MMS StVj
Annals of (Mathematical) Statistics Bulletin de l'Institut International de Statistique Journal of the American Statistical Association Journal of the Royal Statistical Society Mitteilungsblatt für Mathematische Statistik Statistische Vierteljahresschrift Kapitel 1
A c k e r m a n n , W. G . : Einführung in die Wahrscheinlichkeitsrechnung, Leipzig 1955, 185 S. B a u e r , H . : Wahrscheinlichkeitstheorie und Grundzüge der Maßtheorie, Berlin 1968, 342 S.
306
Spezielle Literaturhinweise
B a s l e r , H . : Grundbegriffe der Wahrscheinlichkeitsrechnung und statistischen Methodenlehre, Würzburg-Wien 1968, 147 S. G n e d e n k o , B. W . : Lehrbuch der Wahrscheinlichkeitsrechnung, 5. Aufl., Berlin 1968, 399 S. (Übersetzung a. d. Russischen). G n e d e n k o , B. W. und A. J . K h i n t c h i n e : Elementare Einführung in die Wahrscheinlichkeitsrechnung, 6. Aufl., Berlin 1966, 135 S. (Übersetzung a. d. Russischen). K r i c k e b e r g , K . : Wahrscheinlichkeitstheorie, Stuttgart 1963, 200 S. L o è v e , M . : Probability Theory, 3. Aufl., New York 1963, 685 S. P a r z e n , E . : Modem Probability Theory and its Application, New YorkLondon 1962, 464 S. P r a b h u , N. U.: Stochastic Processes: Basic Theory and Applications, New York 1965, 233 S. R é n y i , A . : Wahrscheinlichkeitsrechnung, 2. Aufl., Berlin 1966, 547 S. R i c h t e r , H . : Wahrscheinlichkeitstheorie, 2. Aufl., Berlin-GöttingenHeidelberg 1966, 462 S. S a v a g e , L. J . : T h e Foundations of Statistics, New York 1954, 294 S. V o g e l , W . : Wahrscheinlichkeitstheorie, Göttingen 1970, 385 S. Kapitel 2 B o g d a n d y , L. v.: Berechnung der wirtschaftlichsten Sicherheitsabschnitte bei Massekopfblöcken für Radreifen, Archiv f. d. Eisenhüttenwesen, Bd. 26, 1955, S. 7 8 3 - 7 8 6 . D a e v e s , K . und A. B e c k e l : Großzahl-Methodik und HäufigkeitsAnalyse, 2. Aufl., Weinheim 1958, 143 S. H e u m a n n , H. und E. N o b i s : Bestimmung des durchschnittlichen und des wirtschaftlichen Materialverbrauches von Kunststoff bei Kabelund Leitungsisolierungen, Metrika, Bd. 2, 1959, S. 230 — 238. J o h n s o n , N. L. und S. K o t z : Distributions in Statistics, Bd. I: Discrete Distributions, New York 1969, 328 S., Bd. II/III : Continuous Univarite Distributions 1/2, New York 1970, 300 S./306 S., Bd. I V : Continuous Multivariate Distributions, New York 1972, 333 S. J o l l y , G. M . : Estimates of population parameters from multiple recapture data with both death and dilution — deterministic model, Biometrika, Bd. 50, 1963, S. 1 1 3 - 1 2 6 . R o h r b e r g , Α.: Die Anwendung der Wahrscheinlichkeits- und Häufigkeitsnetze, Einbeck 1959, 28 S. W e i c h s e l b e r g e r , K . : Über ein graphisches Verfahren zur Trennung von Mischverteilungen und zur Identifikation kupierter Normalverteilungen bei großem Stichprobenumfang, Metrika Bd. 4, 1961, S. 1 7 8 - 2 2 9 .
Spezielle Literaturhinweise Kapitel
307
3
A i t c h i s o n , J . und J. A. C. B r o w n : The Lognormal Distribution with Special Reference to its Uses in Economics, Cambridge 1957, 176 S. B o r g e s , R.: Derivation of normalizing transformations with an error of order 1/n, Sankhyä, Ser. A, Bd. 33, 1971, S. 4 4 1 - 4 6 0 . D a e v e s , Κ. und Α. Β e e k e l : Großzahl-Methodik und HäufigkeitsAnalyse, 2. Aufl., Weinheim 1958, 143 S. F i s h e r , R. Α.: On a distribution yielding the error functions of several well known statistics, Proc. Int. Math. Congress, T o r o n t o 1924, Bd. 2, S. 8 0 5 - 8 1 3 . G e b e l e i n , H . : Logarithmische Normalverteilungen und ihre Anwendungen, MMS, Bd. 2, 1950, S. 155 - 1 7 0 . — : Einige Bemerkungen und Ergänzungen zum graphischen Verfahren von Mosteller und Tukey, MMS, Bd. 5, 1953, S. 1 2 5 - 1 4 2 . G r i m m , H. : Transformation von Zufallsvariablen, Biom. Ztschr., Bd. 2, 1960, S. 1 6 4 - 1 8 2 . H e l m e r t , F. R.: Uber die Wahrscheinlichkeit der Potenzsummen der Beobachtungsfehler und einige damit in Zusammenhang stehende Fragen, Ztschr. f. Math. u. Physik, Bd. 21, 1876, S. 1 9 2 - 2 1 8 . L u s t i g , H. und J. P f a n z a g l : Industrielle Qualitätskontrolle, 50 Beispiele aus der Praxis, Wien 1957, 120 S. M o s t e l l e r , F. und J . W . T u k e y : Uses and usefulness of binomial probability paper, JASA, Bd. 44, 1949, S. 1 7 4 - 2 1 2 . S t u d e n t : The probable error of a mean, Biometrika, Bd. 6, 1908, S. 1 - 2 5 . W a r t m a n n , R.: Einige Bemerkungen zur logarithmischen Normalverteilung, MMS, Bd. 7, 1955, S. 1 5 2 - 1 6 5 . — : Anwendung der logarithmischen Normalverteilung, M M S , Bd. 8, 1956, S. 8 3 - 9 1 . Kapitel
4
B a h a d u r , R. R.: Examples of inconsistency of maximum likelihood estimates, Sankhyä, Bd. 20, 1958, S. 2 0 7 - 2 1 0 . B i r n b a u m , Α.: Median-unbiased estimators, Bull, of Math. Statistics, Research Association of Stat. Sciences, Bd. 11, 1964, S. 25 — 34. B u r k h o l d e r , D. L.: Point estimation, in: International Encyclopedia of the Social Sciences, Bd. 5, ed. by D. L. Sills et al., 1968, S. 1 4 2 - 1 5 0 . C h e r n o f f , H . : Large-sample theory: Parametric case, AMSt, Bd. 27, 1956, S. 1 - 2 2 . N e y m a n n , J. und E. L. S c o t t : Consistent estimates based on partially consistent observations, Econometrica, Bd. 16, 1948, S. 1—32.
308
Spezielle Literaturhinweise Kapitel 5
A r o i a n , L. A. und H. L e v e n e : The effectiveness of quality control charts, JASA, Bd. 45, 1950, S. 5 2 0 - 5 2 9 . A W F , Technische Statistik: Kontrollkarten für statistische Qualitätskontrolle, Frankfurt a. M . 1956, 31 S. B a r n a r d , G. Α.: Control charts and stochastic processes, JR.SS (B), Bd. 21, 1959, S. 2 3 9 - 2 5 7 . G r a f , U. und R . W a r t m a n n : Die Extremwertkarte bei der laufenden Fabrikationskontrolle, M M S , Bd. 6, 1954, S. 121 - 1 3 9 . L e h m a n n , E. L . : Hypothesis testing, in: International Encyclopedia of the Social Sciences, Bd. 7, ed. by D. L. Sills et al., 1968, S. 4 0 - 4 7 . L u s t i g , H. und J . P f a n z a g l : Industrielle Qualitätskontrolle, 50 Beispiele aus der Praxis, Wien 1957, 120 S. L u s t i g , H., J . P f a n z a g l und L. S c h m e t t e r e r : Moderne Kontrolle, 3. Aufl., Wien 1958, 83 S. M ü n z n e r , H . : Die typischen Schlußweisen der mathematischen Statistik, MMS,Bd. 1, 1949, S. 5 - 2 0 , 6 9 - 8 0 , 1 8 5 - 2 0 2 , Bd. 2, 1950, S. 1 7 - 3 5 . P f a n z a g l , J . : Confidence intervals and regions, in: International Encyclopedia of the Social Sciences, Bd. 5, ed. by D. L. Sills et al., 1968, S. 1 5 0 - 1 5 7 . R i c e , W. Β . : Control Charts in Factory Management, 3. Aufl., New York 1955, 149 S. Kapitel 6 B u n k e , O . : Neue Konfidenzintervalle für den Parameter der Binomialverteilung, Wissenschaftliche Zeitschrift der Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Reihe, Bd. 9 , 1959/ 1960, S. 3 3 5 - 3 6 3 . C l o p p e r , C. J. und E. S. P e a r s o n : T h e use of confidence or fiducial limits illustrated in the case of the binomial, Biometrica, Bd. 26, 1934, S. 404 - 413. F i n n e y , D. J . : T h e Fisher-Yates test of significance in 2 X 2 contingency tables, Biometrika, Bd. 35, 1948, S. 145 - 1 5 6 . H a i d , Α.: The compound hypergeometric distribution and a system of single sampling inspection plans based on prior distribution and costs, Technometrics, Bd. 2, 1960, S. 275 - 340. — : Bayesian single sampling attribute plans for continuous prior distributions, Technometrics, Bd. 10, 1968, S. 6 6 7 - 6 8 3 . H a m a k e r , H. C.: Le controle qualitif sur échantillon, Revue de Statistique Appliquée, Bd. 8, 1960, S. 5 - 4 0 .
Spezielle Literaturhinweise
309
P f a n z a g l , J . : Die Auswahl von Stichprobenplänen nach wirtschaftlichen Gesichtspunkten, Mathematik-Technik-Wirtschaft, Bd. 9,1962, S. 9 7 - 1 0 1 . — : Sampling procedures based on prior distributions and costs, Technometrics, Bd. 5, 1963, S. 4 7 - 6 1 . P f a n z a g l , J . und F. P u n t i g a m : Aussagen über den Quotienten zweier Poisson-Parameter und deren Anwendung auf ein Problem der Pockenschutzimpfung, Biom. Ztschr., Bd. 3, 1961, Heft 2. P f a n z a g l , J. und W. S c h ü l e r : The efficiency of sequential sampling plans based on prior distributions and costs, Technometrics, Bd. 12, 1970, S. 2 9 9 - 3 1 0 . P r a t t , J. W . : Length of confidence intervals, JASA, Bd. 56, 1961. R o s s o w , E. und P. L e i n w e b e r : Beitrag zur Vereinheitlichung von Stichprobenvorschriften, Qualitätskontrolle, Bd. 3, 1958, S. 39—52. S t a n g e , K . : Kostengünstige Prüfpläne, Eine Ubersicht über den Stand der Entwicklung, in: Ablauf- und Planungsforschung, Operational Research in der Wirtschaftspraxis, Bd. 10, 1969, S. 3 2 3 - 3 4 1 . T o c h e r , Κ. D . : Extension of the Neyman-Pearson theory of tests to discontinuous variâtes, Biometrika, Bd. 37, 1950, S. 130 — 144. Kapitel 7 F r i e d m a n , M . : The use of ranks to avoid the assumption of normality implicit in the analysis of variance, JASA, Bd. 32, 1937, S. 675 — 701. H á j e k , J . : A Course in Nonparametric Statistics, San Francisco 1969, 184 S. H á j e k , J. und Ζ. S i d á k : Theory of Rank Tests, New York-London 1967, 297 S. H o d g e s , J. L. jr. und E . L . L e h m a n n : The efficiency of some nonparametric competitors of the t-test, AMSt, Bd. 27,1956, S. 324—335. K r a f t , Ch. Κ. und C. van E e d e n : A Nonparametric Introduction to Statistics, New York-London 1968, 342 S. K r u s k a l j W . H . : A nonparametric test for the several sample problem, AMSt, Bd. 23, 1952, S. 525 - 540. — : Historical notes on the Wilcoxon unpaired two-sample test, JASA, Bd. 52, 1957, S. 3 5 6 - 3 6 0 . L e h m a n n , E. L . : Statistical Methods Based on Ranks: An Introduction to Nonparametric Interference, erscheint 1974, etwa 650 S. N o e t h e r , G . E.: Elements of Nonparametric Statistics, New York 1967, 104 S. P u r i , M . L. (Hrsg.): Nonparametric Techniques in Statistical Inference, Cambridge 1970, 623 S. 20
Pfanzagl, Allgem. Methodenlehre d. Statistik Π, 4. Aufl.
310
Spezielle Literaturhinweise
W a l s h , J. E.: H a n d b o o k of N o n p a r a m e t r i c Statistics, Bd. I, Princeton 1962, 549 S., Bd. II, Princeton 1965, 686 S., Bd. III, Princeton 1968, 747 S. Kapitel 8 B e r k s o n , J . : A note o n the chi-square test, the Poisson and the binomial, JASA, Bd. 35, 1940, S. 3 6 2 - 3 6 7 . C o c h r a n , W . G.: T h e * 2 -test of goodness of fit, AMSt, Bd. 23, 1952, S. 3 1 5 - 3 4 5 . — : Some methods for strengthening the c o m m o n jf 2 -tests, Biometrics, Bd. 10, 1954, S. 4 1 7 - 4 5 1 . E e d e n , C. van u n d J. H e m e l r i j k : A test for the equality of p r o b abilities against a class of specified alternative hypotheses including trend, Indag. M a t h . , Bd. 17, 1955, S. 1 9 1 - 1 9 8 . F i x , E., J. L. H o d g e s jr. und E. L. L e h m a n n : T h e restricted chi-square test, in: Probability a n d Statistics. T h e Harald Cramer Volume, Ed. by U. Grenander, Stockholm-New York 1959, S. 9 2 - 1 0 7 . G o o d m a n , L. A. u n d W. H . K r u s k a l : Measures of association for cross classification I - I I I , JASA, Bd. 49, 1954, S. 7 3 2 - 7 6 4 , Bd. 54, 1959, S. 1 2 3 - 1 6 3 , Bd. 58, 1963, S. 3 1 0 - 3 6 4 . K r u s k a l , W . H . : Ordinal measures of association, JASA, Bd. 53, 1958, S. 8 1 4 - 8 6 1 . P f a n z a g l , J . : Tests u n d Konfidenzintervalle f ü r exponentielle Verteilungen u n d deren Anwendung auf einige diskrete Verteilungen, Metrika, Bd. 3, 1960, S. 1 - 2 5 . W e i c h s e l b e r g e r , K. : Über die Parameterschätzungen bei Kontingenztafeln, deren R a n d s u m m e n vorgegeben sind I, Metrika, Bd. 2, 1959, S. 1 0 0 - 1 3 0 , II, Metrika, Bd. 2, 1959, S. 1 9 8 - 2 2 9 . W i t t i n g , H . : Uber einen j; 2 -Test, dessen Klassen durch geordnete Stichp r o b e n f u n k t i o n e n festgelegt werden, Archiv d. M a t h . , Bd. 10, 1959, S. 468 - 479. Kapital 9 B a u e r , R. K.: Die Lexis'sche Dispersionstheorie in ihren Beziehungen zur modernen statistischen Methodenlehre, insbesondere zur Streuungsanalyse (analysis of variance), M M S , Bd. 7, 1955, S. 25 — 45. B o r g e s , R . : Varianzanalyse mit Kontrollbeobachtungen u n d Scheffé's S-Methode als kombiniertes Konfidenz- u n d Testverfahren, Biometrische Zeitschrift, Bd. 6, 1964, S. 1 - 9 . B o x , G. E. P.: Non-normality and tests on variances, Biometrika, Bd. 40, 1953, S. 3 1 8 - 3 3 5 . B o x , G. E. P. u n d S. L. A n d e r s e n : Permutation theory in the derivation of robust criteria a n d the study of departures f r o m assumption, JRSS (B), Bd. 17, 1955, S. 1 - 2 6 .
Spezielle Literaturhinweise
311
C o c h r a n , W. G. und G. M . C o x : Experimental Designs, 2. Aufl., New York 1960, 611 S. D a v i e s , O. L.: Design and Analysis of Industrial Experiments, 2. Aufl., Edinburgh 1956, 649 S. F i s h e r , R. A. : The Design of Experiments, 8. Aufl., London 1966, 248 S. K e m p t h o r n e , O . : T h e Design and Analysis of Experiments, 2. Aufl., New York 1960, 631 S. — : T h e randomization theory of experimental inference, JASA, Bd. 50, 1955, S. 9 4 6 - 9 6 7 . L e v e n e , H . : Robust tests for equality of variances, in: Contributions to Probability and Statistics, Essay in Honor of H. Hotelling, Ed. by I. Olkin et al., Stanford 1960, S. 2 7 8 - 2 9 2 . L i n d e r , Α.: Planen und Auswerten von Versuchen, 2. Aufl., Basel 1959, 182 S. L i n n i k , Ju. V . : Statistical Problems with Nuisance Parameters, Providence, Rhode Island 1968, 258 S. (Übersetzung a. d. Russischen). P a g u r o v a , V. I.: On a comparison of means of two normal samples, Theory of Probability and its Applications, Bd. 13, 1968, S. 527 — 534. P f a n z a g l , J . : Ein kombiniertes Test- und Klassifikations-Problem, Metrika, Bd. 2, 1959, S. 1 1 - 4 5 . P r o s c h a n , F . : Confidence and tolerance intervals for the normal distribution, JASA, Bd. 48, 1953, S. 5 5 0 - 5 6 4 . S c h e f f é , H . : Practical solutions of the Behrens-Fisher problem, JASA, Bd. 65, 1970, S. 1 5 0 1 - 1 5 0 8 . — : T h e analysis of variance, 2. Aufl., New York 1961, 477 S. S t a n g e , K . : Stichprobenverfahren bei der Beurteilung von Massengütern, insbesondere von Kohle, M M S , Bd. 6, 1954, S. 204 - 220. W a l d , Α.: Testing the difference between the means of two normal populations with unknown standard deviations, in: Selected Papers in Statistics and Probability by Abraham Wald, Ed. by T . W. Anderson et al., Stanford 1957, S. 6 6 9 - 6 9 5 . W a l d , Α. und J. W o l f o w i t z : Tolerance limits for a normal distribution, AMSt, Bd. 17, 1946, S. 2 0 8 - 2 1 5 . W a r t m a n n , R . : Rechnen mit gerundeten bzw. verschlüsselten Zahlen, insbesondere bei Varianzanalyse, Biometrische Zeitschrift, Bd. 1, 1959, S. 1 9 0 - 2 0 2 W e l c h , B. L. : The generalisation of „Student's" problem when several different population variance are involved, Biometrika, Bd. 34, 1947, S. 2 8 - 3 5 . — : Further note on Mrs. Aspin's table and on certain approximations to the tabled functions, Biometrika, Bd. 36, 1949, S. 2 9 3 - 2 9 6 . 20*
312
Spezielle Literaturhinweise Kapitel 10
A c t o n , F. S.: Analysis of Straight-Line Data, New York 1966, 207 S. A n d e r s o n , T. W.: Introduction to Multivariate Statistical Analysis, 2. Aufl., New York 1960, 374 S. E z e k i e l , M. und K . A . F o x : Methods of Correlation and Regression Analysis, 3. Aufl., New York 1959, 548 S. G o l l n i c k , H.: Einführung in die Ökonometrie, Stuttgart 1968, 319 S. H e l l w i g , Z. : Linear Regression and its Application to Economics, Oxford-London-New York-Paris 1963, 238 S. (Ubersetzung a. d. Polnischen). H o t e l l i n g , H. und M. R. P a b s t : Rank correlation and tests of significance involving no assumption of normality, AMSt, Bd. 7, 1936, S. 2 9 - 4 3 . J o w e t t , G. H.: Least squares regression analysis for trend-reduced time series, JRSS (B), Bd. 17, 1955, S. 9 1 - 1 0 4 . O r c u t t , G. H. und S. F. J a m e s : Testing the significance of correlation between time series, Biometrika, Bd. 35, 1948, S. 397—413. P l a c k e t t , R. L.: Principles of Regression Analysis, Oxford 1960, 173 S. Q u e n o u i l l e , M. H.: The Analysis of Multiple Time Series. Griffins Statistical Monographs Nr. 1, 1957, S. 105. W e t t e , R.: Regressions- und Kausalanalyse in der Biologie, Metrika, Bd. 2, 1959, S. 131-137. W i l l i a m s , E, J.: Regression Analysis, New York 1959, 214 S. Y u l e , G. U.: Why do we sometimes get nonsense-correlations between time series?, JRSS, Bd. 89, 1926, S. 1 - 6 4 .
Namen- und Sachverzeichnis Ablehnungsbereich s. kritische Region Abnahmeprüfung 125 — 128 Abstand, verallgemeinerter 265 Ackermann, W. G. 305 Acton, F. S. 254, 263, 312 Additionstheorem der Wahrscheinlichkeitsrechnung 1 1 - 1 2 Aitchison, J. 70, 307 Alternative, einseitige s. Test, einseitiger — , zweiseitige s. Test, zweiseitiger Andersen, S. L. 201, 230, 310 Anderson, T. W. 312 Annahmebereich 91, s. a. kritische Region Annahmewahrscheinlichkeit 126, s. a. Gütefunktion eines Tests, Operationscharakteristik Annahmezahl 126 Aroian, L. A. 110, 308 asymptotisch normalverteilt 63-67 asymptotische Wirksamkeit s. Wirksamkeit eines Tests Ausprägungen eines Merkmals 1 0 - 1 2 Ausschuß 20, 24, 34, 35, 44, 46, 95, 99, 1 2 5 - 1 2 7 Autokorrelation 257 AWF 42, 110, 308 Bahadur, R. R. 307 Barnard, G. A. 308 Bartlett, M. S. 229, 230 Basler, H. 306 Bauer, H. 9, 305 Bauer, R. K. 310
Beckel, A. 41, 70, 306, 307 Behandlungsmethode, vergleich von -n 162 bis 165, 210 - 212, 242, 243 Behandlungsmethoden 219 - 222, 246, 251, 252 Behrens, F. 216, 231 Berger, Κ. 132 Berkson, J. 310 Bestimmtheitsmaß 2 6 6 - 2 6 7 Bindungen 146, 149, 150, 156, 157 Binomialpapier 72 Binomialverteilung 18 — 22, 25, 70 - 72, 81, 92, 131, 1 3 5 - 1 3 7 , 141, 229 - , Mittelwert d e r - 21 — , Parameter der — 76 — , Reproduktivität der — 50, 54 — , Summenfunktion der — 21, 22, 116 — , Tests und Schätzungen bei kleinen Stichproben 114-124 — , Übereinstimmung mit der Normalverteilung 65, 93, 137, 141 — , Übereinstimmung mit der Poissonverteilung 29, 30, 1 3 0 - 1 3 2 — , Varianz der— 21 — , Vergleich zweier -en 1 2 2 - 1 2 4 , 186, 190, 191 Birnbaum, A. 307 Blalock, H. M. 301 Block 1 6 2 - 1 6 5 , 242 - 249, 249 - 251, 2 5 1 - 2 5 2 Bogdandy, L. v. 46, 306 Du Bois, P. H. 301 Borges, R. 72, 307, 310 Box, G. Ε. P. 201, 230, 310 Brown, J. A. C. 70, 307 Brunswik, E. 301
Bunke, O. 120, 308 Burkholder, D. L. 307 Campbell, R. C. 300 Chernoff, H. 307 X' Methode 1 6 6 - 1 9 1 χ1-Minimum-Methode 172 χ'-Test 1 6 6 - 1 9 1 χ'-VerteiIung 51, 5 7 - 5 8 , 128, 129, 209, 256, s. a. Xa-Methode — als asymptotische Verteilung einer Testgröße 159, 160, 161, 165, 166, 167, 170, 171, 172, 177, 182, 186, 187 — als Verteilung einer Testgröße 195, 254 — , Dichte der — 57 - , Mittelwert der - 58 —, Reproduktivität der — 58 - , Tabellen 283 — , Varianz der — 58 Clauss, G. 301 Clopper, C. J. 120, 308 Cochran, W. G. 301, 309, 310, 311 confidence interval 8 7 - 8 9 , s. a. Mutungsintervall Cox, G. M. 311 Cramér, H. 64, 299 Cushny, A. R. 136 Daeves, K. 41, 70, 307 David, F. N. 269, 303 Davies, O. L. 311 Dichte (-funktion) 15, 16, 17, 31 — , der χ'-Verteilung 57 - , der F-Verteilung 59 — , der Normalverteilung 30,31 — , der t-Verteilung 60
314
Namen- und Sachverzeichnis
— , der zweidimensionalen N o r m a l v e r t e i l u n g 47 Differenz der Mittelwerte b e i u n a b h ä n g i g e n Stichp r o b e n 103 — 1 0 6 , 2 0 6 , 212-219 — d e r M i t t e l w e r t e bei v e r bundenen Stichproben 210-212 — zweier normalverteilter Variabler 55 D i s k r i m i n a n z a n a l y s e s. Trennverfahren D o c u m e n t a Geigy 124, 303 Dunin-Barkowski, I.W. 302 Ebner, H. 301 E d w a r d s , A. L . 3 0 1 Eeden, C. van 193, 310 E i n z e l w e r t k a r t e 110 E r e i g n i s 10 — , k o m p l e m e n t ä r e s 12 E r g e b n i s eines { Z u f a l l s - ) E x p e r i m e n t e s 9 — 14, s. a . R e a l i s a t i o n einer z u f ä l l i gen Variablen E r w a r t u n g s t r e u e einer S c h ä t z f u n k t i o n (eines Schätzers) 73, 74 Erwartungswert 76 — einer z u f ä l l i g e n V a r i a b l e n 17 E r w a r t u n g s w e r t e d e r m . 1.Schätzer für die Koeffizienten einer R e g r e s s i o n s geraden 255 E x p o n e n t i a l v e r t e i l u n g 15,17, 51, 82 E x t r e m w e r t k a r t e 110 Ezekiel, M . 261, 312 F a b i a n , V. 299 Fehler 1. A r t s. I r r t u m s wahrscheinlichkeit — 2 . A r t s. G ü t e f u n k t i o n eines T e s t s Ferguson, G. A. 301 Festigkeitsprüfungen 42, 88, 9 1 , 1 0 0 , 1 0 1 , 1 0 4 , 105, 161, 2 1 8 , 2 1 9 , 2 2 7 , 2 2 8 , 233, 234, 2 5 8 - 2 6 1 , 263, 265, 270, 2 7 8 - 2 8 0 Finney, D . J . 124, 300, 308
Fisher-Behrens-Problem 2 1 6 - 2 1 9 , 231 F i s h e r , R . A . 5 9 , 8 2 , 123, 158, 216, 231, 299, 303, 307, 311 Fisz, M . 9, 269, 299 Fix, E. 310 F o x , K. A. 261, 312 Fraser, D . A. S. 299 F r e i h e i t s g r a d e d e r X s -Vert e i l u n g 58 - , der F-Verteilung 59 — , d e r t-Verteilung 60 F r e m e l , F . 124 Freudenberg, K. 300 Friedman, M . 164, 166, 194, 309 F-Test 166, 1 9 7 - 2 0 1 , 223 b i s 2 3 5 , 2 3 2 , 2 3 6 , 2 4 2 bis 249, 251, 256 Funktional-Parameter 76-77. Funktionen, lineare — zufälliger Variabler 5 2 - 5 7 — , lineare — unabhängiger normalverteilter Variabler 54-57 — , spezielle — u n a b h ä n g i ger normalverteilter Variabler 5 7 - 6 1 — z u f ä l l i g e r V a r i a b l e r 49 b i s 72 F-Verteilung 22, 59-60, 1 1 6 - 1 1 8 , 120, 121, 128, 1 3 1 - 1 3 3 , 136, 1 3 7 , 138 — als asymptotische Vert e i l u n g einer Testgröße 159, 164 — a l s V e r t e i l u n g einer Testgröße 1 9 7 - 1 9 9 , 201, 219, 225, 230, 232, 236, 237, 244, 251, 256 - , D i c h t e d e r - 59 - , Tabellen 2 8 4 - 2 8 9 Gaede, K. W. 302 Garret, H . E. 301 Gebelein, H . 7 0 , 7 2 , 3 0 0 , 3 0 7 G e i g y s. D o c u m e n t a G e i g y Genetische Probleme 20, 8 2 - 8 5 , 9 2 , 118, 166, 169, 171-176, 188-190 G e p p e r t , H . 173 Gesetz der großen Zahlen 62
Gollnick, H. 312 G o o d m a n , L . A. 184, 310 G ö s s e t , "W. S. s. S t u d e n t G n e d e n k o , B. W. 9, 306 G r a f , U . 110, 3 0 2 , 3 0 3 , 3 0 8 Grant, E. L. 302 Graybill, F. Α. 300 G r e e n w o o d , J . Α. 3 0 3 G r i m m , Η . 72, 307 Gryna, F. M . 302 G ü t e f u n k t i o n eines T e s t s 1 0 1 - 1 0 3 , 118, 119, 126, 134, 1 5 1 Gurland, J. 300
H a g o o d , M . J. 301 H i j e k , J . 309 H a i d , A . 4 4 , 109, 116, 1 3 0 , 206, 218, 237, 258, 261, 262, 302, 303, 308 H a m a k e r , H . C . 308 Hartley, Η . O. 303 H ä u f i g k e i t 10 — , r e l a t i v e 10 Häufigkeitsinterpretation der Wahrscheinlichkeit 10-13 Häufigkeitspapier 41, 44 Häufigkeitsverteilung, empirische 29, 30, 36 — 47, 64 —, t h e o r e t i s c h e 15 — 4 8 , s. a . Verteilung Heinhold, J. 302 Heite, H . J . 70, 300 Hellwig, Z . 312 Helmert, F. R. 58, 307 H e m e l r i j k , J . 193, 3 1 0 Henning, H . J. 302, 303 H e u m a n n , H . 46, 306 H o d g e s , J . L . jr. 9, 150, 1 5 7 , 299, 309, 310 H o e l , P. G . 2 9 9 H o f s t ä t t e r , P. R . 3 0 1 Horneffer, L. 273 Hosemann, H. 301 Hotelling, H. 278, 312 H u n s m a n n , W. 200 H u x l e y , J . D . 189 Hypergeometrische Verteilung 2 2 - 2 6 , 1 2 2 - 1 2 4 - , M i t t e l w e r t 25 —, S t i c h p r o b e n p l ä n e f ü r
Namen- und Sachverzeichnis qualitative Merkmale 125-128 — , Übereinstimmung mit der Binomialverteilung 25-26 —, Varianz 25 Hypothese 9 0 - 1 0 3 Irrtumswahrscheinlichkeit 9 4 - 1 0 1 , 1 1 4 - 1 2 2 , 130 James, S. F. 276, 312 Jöhnk, M. D. 304 Johnson, N. L. 306 Jolly, G. M. 25, 306 Jowett, G. H. 312 Juran, J. M. 302 Kardinale Skala 134 Kempthorne, O. 251, 311 Kendali, M. G. 78, 85, 299, 300 Khintchine, A. J. 306 Koller, S. 173, 301, 303 Komponenten der Streuung 235-242 Konfidenzintervall 86, 87 bis 89, s. a. Mutungsintervall Kontingenztafel 123, 179 bis 186, 187, 188, 193 Kontinuitätskorrektur 142, 185, 186 Kontrast, linearer 231-225 Kontrolle (eines Produktionsprozesses) 18,106 bis 113 Kontrollgrenze 106, 107 Kontrollkarte 86, 1 0 6 - 1 1 3 , 128, 229 - R-Karte 1 1 0 - 1 1 1 - , x-Karte 1 0 6 - 1 1 3 Kontrollpunkt 126 Konvergenz, stochastische62 Korrelation 48, 257, 267 bis 280
- , bedingte 2 7 2 - 2 7 5 - , partielle 2 7 2 - 2 7 5 —, Reihenkorrelation 275 bis 276 — , Scheinkorrelation 273 Korrelationsanalyse 267 bis 280
Korrelationskoeffizient 255, 267 - 280, 296, 297
— der zweidimensionalen Normalverteilung 47, 48 — , partieller (bedingter) 274-275 — , Spearmanscher-Rang166, 2 7 7 - 2 8 0 , 297 Kosten 106, 127, 200, 201, 241 Kotz, S. 306 Kovarianz der m. l.-Schätzer für die Koeffizienten einer Regressionsgeraden 256 Krafft, Ch. Κ. 309 Kreyszig, E. 299 Krickeberg, Κ. 9, 306 kritische Region 91, 99 Kruskal, W. H. 155, 159, 160, 162, 184, 230, 309, 310 Lancaster, Η. O. 304 Lebensdauerprüfungen 90, 152, 153 Lehmann, E. L. 9, 150, 157, 299, 308, 309, 310 Leinweber, P. 127, 309 Levene, H. 110, 201, 230, 308, 311 Lewis, D. 301 Liebermann, G. J. 303 Lienert, G. Α. 301 likelihood-Funktion 78 — 85, 171 Linder, Α. 72, 81, 142, 165, 193, 195, 202, 213, 225, 229, 242, 252, 261, 265, 299, 303, 311 Lindely, D. 299 Lindquist, E. F. 302 Linnik, Ju. V. 216, 311 Loève, M. 9, 306 Logarithmenpapier 44 logarithmisch-normale Verteilung 64, 70, 88 Lord, F. M. 302 Ludwig, R. 302 Lustig, H. 55, 56, 108, 110, 241, 307, 308 Mather, Κ. 301 maximum IikelihoodGleichung 7 9 - 8 5 , 171 maximum likelihoodMethode (-Schätzer) 25,
315
75, 7 7 - 8 5 , 86, 89, , 171 bis 178, 182, 188, 254, 268 McNemar, Q. 139, 302 Median 76, 77, 109, 138 bis 139, 1 4 2 - 1 5 0 Mediantreue einer Schätzfunktion (eines Schätzers) 74 Mendel, G. 83, 92, 93, 98, 118, 166, 169 Mendelsche Regeln s. genetische Probleme Merkmal 9 - 1 4 — , artmäßiges 18 — , diskretes 8, 30, s. a. Bd. I, Abschnitt 2.2 — , stetiges 10, 30, s. a. Bd. I, Abschnitt 2.2 — , Stichprobenpläne für qualititative -e 1 2 5 - 1 2 8 — , zahlenmäßiges 18, 30 Merkmale, (stochastisch) unabhängige 13, s. a. Unabhängigkeit, stochastische Merkmalspaar 12 Methode der kleinsten Quadrate 79, 80, 254 metrische Skala 134 Minimalvarianz asymptotisch normalverteilter Schätzer 75, 78 Mischverteilungen 41 — 44 Mittel, arithmetisches s. a. Mittelwert — , arithmetisches — unabhängiger normalverteilter Variabler 54 — , arithmetisches — unabhängiger Variabler 52, 61-67 Mittelwert 18, 76 — als Parameter bei der Regression 253 — der Binomialverteilung 21 — der χ'-Verteilung 58 — der Hypergeometrischen Verteilung 25 — der Normalverteilung 31,34,39,40,80,81, 85 bis 94, 1 0 3 - 1 0 6 , 1 0 6 - 1 1 3 — der Normalverteilung,
316
Namen- und Sachverzeichnis
Tests und Schätzungen (aus kleinen Stichproben) 2 0 2 - 2 0 5 , 2 1 0 - 2 1 9 , 223 bis 235, 2 4 2 - 2 4 9 — der Poissonverteilung 28, 1 2 8 - 1 3 1 — der t-Verteilung 60 — des Spearmanschen Rang-Korrelationskoeffizienten 278 — einer symmetrischen Verteilung 1 4 2 - 1 5 0 — linearer Funktionen unabhängiger Variabler 52 —, Prognoseintervall für den — einer Normalverteilung 205 - 207 — Schätzung des Gesamtmittelwertes bei mehreren Streuungskomponenten 240-242 —, Vergleich der beiden -e aus zwei Poissonverteilungen 131 — 133 Mittelwerte der zweidimensionalen Normalverteilung 47 Mittenecker, E. 274, 302 Mood, Α. M . 300 Morgenstern, D. 195, 300 Mosteller, F. 72, 307 Mueller, J . H. 302 Müller, P. H. 300 Münzner, H. 308 Multiplikationstheorem der Wahrscheinlichkeitsrechnung 13 — 14, 18 Mutungsintervall 74, 75, 86, 87 - 89, 91, 95, 96, 100, 101, 206 — einseitiges 100 — für den Korrelationskoeffizienten 269 - 272, 275 — für den Median 1 3 8 - 1 3 9 — für den Mittelwert einer Normalverteilung 87 — 91, 91, 2 0 2 - 2 0 5 — für den Mittelwert einer Poissonverteilung 128-131 — für den Parameter ρ einer Binomialverteilung 119-122
— für den Parameter y auf Grund einer Regressionsgeraden 2 6 3 - 2 6 5 — für den Quotienten der Komponenten der Streuung 237, 239 — für den Quotienten der Mittelwerte zweier Poissonverteilungen 132 — 133 — für den Quotienten der Varianzen zweier Normalverteilungen 1 9 7 - 2 0 1 — für die Differenz der Mittelwerte zweier Normalverteilungen 104 — 105, 212-215 — für die Koeffizienten einer Regressionsgeraden 257 — für die Varianz einer Normalverteilung 195 bis 197 — für die Komponente der Streuung 237, 239 — für lineare Kontraste 231-235 National Bureau of Standards 22, 303 Naeve, P. 304 Neyman, J . 85, 300, 307 Nobis, E. 46, 306 Noether, G. E. 309 Nolle, G. 300 Normalverteilung 30 — 36 — als asymptotische Verteilung von Mittelwerten (Summen) aus großen Stichproben 6 3 - 6 7 — als asymptotische Verteilung von Testgrößen 137, 141, 142, 149, 155, 1 9 1 - 1 9 4 , 217, 278 — als Verteilung einer Testgröße 257, 269 - 2 7 2 — als Voraussetzung bei der Korrelationsanalyse 267, 274, 275, 276 — als Voraussetzung bei der Regressionsanalyse 253 —, asymptotisch normalverteilte Schätzer 75, 77, 78 - , Dichte der - 30, 31
—, Dichte der zweidimensionalen — 47 —, Korrelationskoeffizient der zweidimensionalen — 47,48 —, lineare Funktionen unabhängiger normalverteilter Variabler 54—57 —, maximum likelihoodSchätzer für die Parameter der - 80, 81 - , Median der - 81, 109 —, Mittelwert der — 31, 8 5 - 9 4 , 1 0 3 - 1 0 6 , 106 bis 113 —, Mittelwerte der zweidimensionalen — 47 —, Parameter der — 31, 76 —, Prognoseintervall 262 - 263 —, Prognoseintervall für den Mittelwert der 205 - 207 - , Reproduktivität der 54 —, Spezielle Funktionen unabhängiger normalverteilter Variabler 57 — 61 —, Standardabweichung der - 31 — , standardisierte 32 — , Summenkurve (-gerade) der - 36, 37 - , Tabellen 282 — , Test auf Übereinstimmung mit der - 178, 179 — , Tests und Schätzungen (aus kleinen Stichproben) für den Mittelwert der — 202 - 205, 210 - 219, 223-235, 242-249 — , Tests und Schätzungen (aus kleinen Stichproben) für die Varianz der — 194-201, 202-249 209, — , Toleranzfaktoren 295 —, Toleranzgrenzen der — 35-36, 208-210 —, Toleranzintervall der — 35-36 — , Toleranzintervall für den Mittelwert 2 0 8 - 2 1 0
Namen- und Sachverzeichnis —, Transformationen normalverteilter Variabler 67—69 —, Transformationen zur Herstellung einer 69 - 72, 229, 269 - 272, 275, 296 —, Unabhängigkeit von * und S' 81, 202, 213, 22J - , Varianz der 31, 1 0 7 - 1 0 9 , 112, 113, 290 —, Varianzen der zweidimensionalen — 47 —, viertes Moment der — 81 —, Wirksamkeit verteilungsunabhängiger Tests für die - 1 3 4 - 1 3 J , 137, 1J0, 157, 158, 162, 278 —, zweidimensionale 17, 47-48,267 Novick, M. R. 302 Office of the Chief of Ordnance 22, 303 Oldham, P. D. 301 Operationscharakteristik 125,126 Orcutt, G. H. 276, 312 ordinale Skala 134 Owen, D. Β. 303 Pabst, M. R. 278, 312 Pagurova, V. 1. 218, 311 Parameter, 7 6 - 7 7 , s. a. Mittelwert, Varianz, Funktional-Parameter, Erwartungswert, Median, Quantile, sowie Bd. I, Kap. 3 — bei der χ'-Methode 170-179 — der Normalverteilung 31 - , expliziter 76, 77, 78 —, Schätzung von-n 72—85 Parzen, E. 9, 306 Pearson, E. S. 120, 303, 308 Pearson, Κ. 58, 303 Peebles, A. R. 136 Pfanzagl, J. 55, 56, 108, 110, 127, 133, 193, 229, 241, 307, 308, 309, 310, 311 Plackett, R. L. 312
Poissonverteilung 26 — 30, 72, 1 7 6 - 1 7 7 , 229 - , Mittelwert der - 28 — , Reproduktivität der — 52-54 — , Tests und Schätzungen für den Mittelwert bei kleinen Stichproben 128-133 —, Übereinstimmung mit der Normalverteilung 65 bis 67 - , Varianz der - 28 Prabhu, N. U. 306 Pratt, J. W. 309 Price, D. O. 301 Produktionsprozeß 18, 22, 34, 44, 54, 210, 215 — , Kontrolle eines -es 106-113 Produktmaß 14 Prognoseintervall 2 0 5 - 2 0 7 , 210 — (für χ) bei einer Regression 2 6 2 - 2 6 3 Proppe, A. 70 Proschan, F. 210, 311 Puntigam, F. 132, 133. 309 Puri, M. L. 309 Qualitätskontrolle 24, 34, 39, 40, 41, 42, 43, 44 - 4 7 , 55 - 57, 92, 103, 125 bis 128, 152, 153, 199, 204, 206, 210, 215, 237 - 239, 2 4 6 - 2 4 8 , s. a. Abnahmeprüfungen, Ausschuß, Festigkeitsprüfungen, Kontrolle eines Produktionsprozesses, Kontrollkarte, Lebensdauerprüfungen, Produktionsprozeß, Stichprobenpläne Quantil 76,77, 139 Quenouille, M. H. 276, 300, 312 Randmaß 13, 14, s. a. Randverteilung Randomisierung 115, 121, 144, 146 Randomisierungs-Test 142 bis 147, 1 5 0 - 1 5 4 , 159,
317
163, 164, 250, 251, 276 277 Randverteilung 16, s. a. Randmaß Randverteilung der zweidimensionalen Normalverteilung 48 Randwahrscheinlichkeiten 14 range 108 Rangsumme 147, 148, 154, 155 Rang-Test" 109, 134, 135, 147-150, 1 5 4 - 1 5 8 , 159 bis 162, 1 6 4 - 1 6 6 , 277 bis 280 Rangzahl 147, 154 Rao, C. R. 301 Realisation einer zufälligen Variablen 14 — eines (Zufalls-) Experiments 9 - 1 4 , s. a. Realisation einer zufälligen Variablen Rechts-Links-Vergleich 162, 220, 242, 252 Regressionsanalyse 70, 252 bis 267 - , mehrfache 254, 261 Regressionsfunktion 253, 254 Reihenkorrelation 2 7 5 - 2 7 6 R-Karte 1 1 0 - 1 1 1 Rempel, K. 42 Rényi, Α. 9, 306 Reproduktivität (von Verteilungstypen) 5 3 - 5 5 , 58 Resnikoff, G. J. 303 Restvarianz 248 Rice, W. B. 110, 308 Richter, H. 9, 306 Robustheit eines Test 201 Rohrberg, A. 306 Romig, H. G. 303 Rossow, E. 127, 309 Savage, L. J. 306 Schaafsma, Α. H. 302 Schätzfunktion 7 2 - 7 5 , s. a. Schätzung — , erwartungstreue 73, 74 — , mediantreue 74 Schätzung (Schätzer, Schätzwert)
318
Namen- und Sachverzeichnis
— , asymptotisch normalverteilter Schätzer 75, 77, 78 — der Koeffizienten einer Regressionsgeraden 254 bis 261 — der Parameter bei einer Kontingenztafel 182, 183 — der Standardabweichung einer Normalverteilung 39, 40 — der Varianz beim F-Test 224 — der Varianz beim f-Test 213 — der Varianz beim Vergleich verbundener Stichproben 244 — der Varianz endang einer Regressionsgeraden 254, 256, 260, 263, 264 — der Varianz für eine Kontrollkarte 107 - 1 0 9 , 290 — des Gesaratmittelwertes bei mehreren Streuungskomponenten 240 — 242 — des Korrelationskoeffizienten 2 6 7 - 2 6 9 — des Parameters y auf Grund einer Regressionsgeraden 2 6 3 - 2 6 5 — des partiellen Korrelationskoeffizienten 275 — eines Anteils in einer endlichen Population unbekannten Umfanges 25 —, erwartungstreue 73, 74 — für den Mittelwert einer Normalverteilung 34, 38, 39, 40, 88 — für die Standardabweichung einer Normalverteilung 34, 39, 40, 86 — für eine Komponente der Streuung 237, 239 —, maximum likelihoodSchätzer 25, 75, 7 7 - 8 5 , 86, 89, 1 7 1 - 1 7 8 , 182, 188, 254, 268 —, mediantreue 74 —, mediantreue — für den Mittelwert einer Normalverteilung 204
—, mediantreue — für den Mittelwert einer Poissonverteilung 130 —, mediantreue — für den Parameter ρ der Binomialverteilung 121 —, mediantreue — für den Quotienten der Mittelwerte zweier Poissonverteilungen 132—133 —, mediantreue — für den Quotienten der Varianzen zweier Normalverteilungen 199 —, mediantreue — für die Varianz einer Normalverteilung 196, 197 —, mediantreue — für eine Komponente der Streuung 237, 239 — mittels eines Mutungsintervalls 8 8 - 8 9 — von expliziten Parametern 77 — 85 — von Funktional-Parametern 76 — 77 — von Parametern 72 — 85 — von Parametern bei der X a -Methode 1 7 0 - 1 7 8 , 1 8 8 Scheffé, H. 217,232,251,311 Scheinkorrelation 273 Schindowski, E. 110, 302 Schmetterer, L. 78, 108, 195, 261, 300, 308 Schmoll, G. 273 Schüler, W. 127, 309 Schürz, O. 110, 302 Schüssler, K. F. 302 Scott, E. L. 85, 307 Seder, A. 302 Senders, V. L. 300 Sicherheit(-swahrscheinlichkeit) 74, 9 4 - 1 0 1 , 114 bis 122, 208 Sicherheitsgrenze 87 Sicherheitsgrenzen für einzelne Verteilungen s. Tabellen Sidák, Ζ. 309 Siegel, S. 124, 168, 302 Signifikanz 9 0 - 9 8 Signifikanz-Test s. Test
Skala 134 Snedecor, G. W. 301 Srairnov, N. W. 302 Smirnov, Ν. V. 304 Spannweite 108, 109, 290 - , mittlere 109 Spearman, C. 166, 277, 297 Spearmanscher Rang — Korrelations koeffizient 166, 2 7 7 - 2 8 0 , 297 Standardabweichung s. Varianz und Bd. I, Abschnitt 3.2 Standardabweichung der Normalverteilung 31, 34, 39, 40, s. a. Varianz der Normalverteilung Standard-Normalverteilung 32 Standard-Normalverteilung, Tabellen 282 Stange, K. 31,52, 54, 61,72, 127, 195, 241, 261, 300, 303, 309, 311 Stichprobe 14 —, Vergleich von r -n 186-191 Stichproben, abhängige s. Stichproben, verbundene —, unabhängige 14, 150 bis 162, 206, 2 1 2 - 2 3 1 , 252 —, verbundene 137, 144, 150, 1 6 2 - 1 6 6 , 2 1 0 - 2 1 2 , 2 1 9 - 2 2 3 , 2 4 2 - 2 4 9 , 251, 252 Stichprobenpläne 1 2 5 - 1 2 8 Stichprobenumfang, Wahl des -es für Kontrollkarten 110 — , "Wahl des -es für Signifikanztests 103, 105, 106 Störmer, H. 300, 302 S toll, R. G. 279 Storm, R. 302 Strauch, H. 302 Streubereich s. Toleranzintervall, natürliches Streuung, Komponenten der - 2 3 5 - 2 4 2 Streuungszerlegung 70, 72, 158, 162, 2 2 3 - 2 5 1 Stuart, A. 78, 85, 299 Student {W. S. Gösset) 28, 60, 202, 307
Namen- und Sachverzeichnis S u m m e n f u n k t i o n 17, 36 — der Binomialverteilung 21, 22, 116 — , empirische 38 Summengerade 36 — 40 S u m m e n k u r v e 36 — 40, 42 bis 44, 6 8 - 7 1 Summenvariable 52, 53, 64
Tabellen - , χ'-Verteilung 283 - , F-Verteilung 2 8 4 - 2 8 9 —, Normalverteilung 282 — , r-> ζ u n d ζ r 296 — , Spannweite Stand a r d a b w e i c h u n g 290 —, Spearmanscher R a n g — Korelationskoeffizient 297 —, Test von Friedman 294 —, T o l e r a n z f a k t o r e n f ü r die Normalverteilung 295 - , (-Verteilung 283 —, Vorzeichen-Rang-Test von Wilcoxon 291 - , Wilcoxon-Test 292, 293 Test (Signifikanz-Test) 86, 94-103 — auf Übereinstimmung mit der Normalverteilung 178, 179 — auf Ubereinstimmung mit einer hypothetischen Verteilung 1 6 6 - 1 7 9 — auf Übereinstimmung von r diskreten Verteilungen 1 8 6 - 1 9 1 - , χ'-Test 1 6 6 - 1 9 1 - , einseitiger 9 8 - 1 0 1 , 114 bis 117, 192 - , F-Test 166, 1 9 7 - 2 0 1 , 2 2 3 - 2 3 5 , 232, 236, 242 bis 249, 251, 256 — f ü r den Korrelationskoeffizienten 2 6 9 - 2 7 2 , 275, 2 7 6 - 2 8 0 — f ü r den M e d i a n 138-139, 142-150 — f ü r den Mittelwert einer Normalverteilung 90 — 94, 202-205 — f ü r den Mittelwert einer Poissonverteilung 128-131
— f ü r den Parameter ρ einer Binomialverteilung 114-119 — f ü r den Parameter y einer Regression 263 — 265 — f ü r d e n Quotienten der Mittelwerte zweier Poissonverteilungen 131-133 — f ü r den Vergleich v e r b u n d e n e r Stichproben (Vergleich v o n Behandlungsmethoden) 162 — 166, 210-212, 242-249 — f ü r die Differenz der Mittelwerte zweier Normalverteilungen 104-106, 212-219 — f ü r die Gleichheit der Mittelwerte mehrerer Normalverteilungen 223-231 — f ü r die Gleichheit der Varianzen zweier Normalverteilungen 197-201 — f ü r die Gleichheit mehrerer Verteilungen 158-162 — f ü r die Gleichheit von ft-Varianzen 229, 230 — f ü r die Gleichheit zweier Verteilungen 150-158 — f ü r die Koeffizienten einer Regressionsgeraden 257 — f ü r die Konstanz der Varianz entlang einer Regressionsgeraden 254 — f ü r die Linearität einer Regression 2 5 6 - 2 5 7 , 260 — f ü r die Übereins t i m m u n g von zwei Binomialverteilungen 1 2 2 - 1 2 4 , 186, 190, 191 — f ü r die Unabhängigkeit in einer Kontingenztafel 179-186 — f ü r die Varianz einer Normalverteilung 195 bis 197 — f ü r eine K o m p o n e n t e der Streuung 236
319
— für einen Prozentsatz in einer endlichen Gesamtheit 1 2 5 - 1 2 8 — f ü r lineare Kontraste 231-235 — gegen T r e n d 1 9 1 - 1 9 4 — , G ü t e f u n k t i o n eines -s 1 0 1 - 1 0 3 , 118, 119, 126, 134, 151 — mittels eines M u t u n g s intervalls 91 — Randomisierungs1 4 2 - 1 4 7 , 1 5 0 - 1 5 4 , 159, 163, 164, 250, 251, 276, 277 - , Rang-Test 1 0 9 , 1 3 4 , 1 3 5 , 1 4 7 - 1 5 0 , 1 5 4 - 1 5 8 , 159 bis 162, 1 6 4 - 1 6 6 , 277 bis 280 —, T r e n n s c h ä r f e eines -s 95, 134, 142, 152, 248, 277, s. a. G ü t e f u n k t i o n eines Tests - , ( - T e s t 135,147, 150, 157, 201, 2 0 2 - 2 0 5 , 2 1 0 - 2 1 9 , 229, 257, 264 —, verteilungsunabhängiger 1 3 4 - 1 6 6 — v o n Bartlett 229, 230 — v o n Friedman 164 — 166, 294 — von R. A. Fisher 158 — v o n Kruskal u n d Wallis 1 5 9 - 1 6 2 , 230 — von Mc Nemar 139-142 — Wilcoxon-matchedpairs-signed-rank-test ( Vorzeichen-Rang-Test v o n Wilcoxon) 1 4 7 - 1 5 0 , 291 — , "Wilcoxon-Test 1 5 4 - 1 5 8 , 160, 201, 292, 293 - , W i r k s a m k e i t eines -s 134, 135, 137, 150, 157, 158, 162, 166, 194, 219 bis 223, 278 - , X-Test 158 - , Zeichentest 1 3 5 - 1 3 7 , 138, 139, 142, 166 —, zweiseitiger 98 — 101, 117, 118 Tippet, L. H . C. 302
320
Namen- und Sachverzeichnis
Tocher, Κ. D. 123, 309 Toleranzen 34, 38, 40, 44 — , natürliche — eines Prozesses 35 Toleranzfaktoren für die Normalverteilung 209,295 Toleranzgrenze, obere 35 —, untere 35 Toleranzgrenzen 34, 38, 40, 44 — , natürliche 36, 56 — 57 Toleranzintervall 35 , 63, 208-210 — , natürliches 56 —57 Toleranzverfahren 208 topologische Skala 134 Transformation 32, 36, 37, 67 - 72, 74, 229, 254, 258, 268, 269, 278, 296 — , lineare 48 —, logarithmische 69 Treffwahrscheinlichkeit, durchschnittliche 206,207, 262, 263 - , minimale 208, 209 Trend 191, 193 Trennschärfe eines Tests s. Test, Trennschärfe eines -s ; Gütefunktion eines Tests Trennverfahren 265 Tschebyscheff, P. L. 61, 62, 63 — , Ungleichung von — 61-63 t-Test 135, 147, 150, 157, 201, 2 0 2 - 2 0 5 , 2 1 0 - 2 1 9 , 229, 257, 264 Tukey, J. W. 72, 307 t- Verteilung 17, 60 - 61,206, 262 — als asymptotische Verteilung einer Testgröße 146, 147, 153, 154 — als Verteilung einer Testgröße 202, 203, 211, 212, 213, 214, 216, 257, 264 - , Dichte der - 60 - , Mittelwert der - 60 - , Tabellen 283 — , Varianz der — 60 Uhi mann, W. 127, 302
Unabhängigkeit, stochastische 1 2 - 1 4 , s. a. Stichproben, unabhängige; Wiederholung, unabhängige; Variable, unabhängige zufällige — bei zweidimensionaler Normalverteilung 48 — der Varianz vom Parameter auf einer Regressionslinie 253 — in einer Kontingenztafel 179-186 — von χ und J« 81, 202, 213, 225 Ungleichung von Tschebyscheff 6 1 - 6 3 Variable, Erwartungswert einer zufälligen -n 17 — , standardisierte 32, 65 — , unabhängige zufällige 16, s. a. Unabhängigkeit, stochastische — , zufällige 14 Varianz 18, 76, s. a. Bd. I, Abschnitt 3.2 — , asymptotische — des maximum likelihoodSchätzers 75, 78 —, Berechnung aus der Spannweite 109, 290 — , Berechnung bei Kontrollkarten 1 0 7 - 1 0 9 — der Binomialverteilung 21 — der ¡t'-Verteilung 58 — der Hypergeometrischen Verteilung 25 — der Mittelwerte um die Regressionsgerade 256 — der Normalverteilung, 31, 80, 8 1 , 8 5 - 8 6 , 8 6 - 9 4 , 1 0 7 - 1 0 9 , 112, 113, 290, s. a. Standardabweichung der Normalverteilung — der Normalverteilung, Tests und Schätzungen (aus kleinen Stichproben) für die - 194 - 201, 202 bis 249 — der Poissonverteilung 28 — der t-Verteilung 60 — der Werte auf der Re-
gressionsgeraden 266 — des arithmetischen Mittels (Mittelwertes) 52 — des Spearmanschen Rang-Korrelationskoeffizienten 278 — , Ersetzung durch ihren Schätzwert 86, 2 0 2 - 2 0 3 , 203 - 219, 223 - 231, 244 — innerhalb der Blöcke 221 — innerhalb der Stichproben 225, 248, 249 — , Konstanz der — entlang einer Regressionslinie 253, 254 — , Komponenten der Sreuung 235 - 242 — linearer Funktionen unabhängiger Variabler 52 - , Rest - 248 — , verschiedene -en beim Vergleich von Mittelwerten aus Normalverteilungen 2 1 6 - 2 1 9 , 230 bis 231 — zwischen den Behandlungsmethoden 246 — zwischen den Blöcken 221, 246, 248 — zwischen den Stichproben 225 Varianzanalyse s. Streuungszerlegung Varianz der m. l.-Schätzer für die Koeffizienten einer Regressionsgeraden 255 Varianzen der zweidimensionalen Normaiverteilung 47 Variationskoeffizient 68, 69 u. Bd. I, Abschnitt 3.3 Verallgemeinerter Abstand 265 Verschiebungssatz 18, 21 Versuchsplanung 2 5 1 - 2 5 2 Verteilung s. Häufigkeitsverteilung, theoretische —, a priori 127 — , bedingte 48, s. a. "Wahrscnelnlichkeitsmaß, bedingtes —, Beschreibung einer — durch ein Wahrscheinlichkeitsmaß 14
Namen- und Sachverzeichnis - , diskrete 17, 1 1 3 - 1 3 3 , 166, 186, s. a. Wahrscheinlichkeitsmaß, diskretes — , homogene 41 —, logarithmisch-normale 64, 70, 88 — , mehrgipQige 41 - , stetige 16, 17, 177, s. a. Wahrscheinlichkeitsmaß, stetiges —, symmetrische 142 —150 — , zweigipflige 41 Verteilungsfunktion s. Summenfunktion Verteilungstypen, reproduktive 5 3 - 5 5 , 58 Verteilungsunabhängige Verfahren 1 3 4 - 1 6 6 , 194, 201, 2 7 6 - 2 8 0 Vertrauensintervall 86, 87 bis 89, s. a. Mutungsintervall Vogel, W. 9, 306 Vorzeichen-Rang-Test von Wilcoxon 1 4 7 - 1 5 0 , 291 Waaler, G. H. M. 172 Waerden, Β. L. van der 79, 85, 157, 158, 178, 195, 300 Wald, Α. 209, 218, 311 Wahrscheinlichkeit 8 - 1 4 — , bedingte 13 Wahrscheinlichkeitsmaß 11, 13, 14, 15, 16, 17, s. a. Häufigkeitsverteilung, theoretische — , bedingtes 16, s. a. Verteilung, bedingte — , Beschreibung einer Ver-
teilung durch ein — 14 - , diskretes 15,16,17, s. a. Verteilung, diskrete — , induziertes 49 — 51 - , stetiges 15, 16, 17, s. a. Verteilung, stetige Wahrscheinlichkeitsnetz 36-40, 41-44, 69-71 — , logarithmisches 69 — 71 Wahrscheinlichkeitsrechnung 8 — 14 Wahrscheinlichkeitsverteilung s. Häufigkeitsverteilung, theoretische Wallis, W. A. 159, 160, 162, 230 Walsh, J. E. 310 Warngrenze 107 Wartmann, R. 70, 110, 307, 308, 311 Weber, E. 301 Weichselberger, K. 44, 184, 306, 310 Welch, B. L. 216, 217, 230, 311 Wette, R. 261, 312 Wetzel, W. 300, 304 Wiederholung, unabhängige 14 Wilcoxon, F. 149, 155, 156, 157, 160, 162, 201, 291, 292, 293 Wilcoxon -matchched-paiissigned-rank-test 147-150, 291 Wilcoxon-Test 1 5 4 - 1 5 8 , 160, 162, 201, 292, 293 Wilks, S. S. 300 Willemze, F. G. 302 Williams, E. J. 254, 312 Wirksamkeit eines Tests
321
134, 135, 137, 150, 157, 158, 162, 166, 194, 219 bis 223, 278 Wirkungsgrad, relativer 221, 222, 249 Wishart, J. 145 Witting, Η. 178, 300, 310 Wolfowitz, J. 209, 311 Würfel 9, 11, 63, 64 - , idealer 12, 49 X-Karte 1 0 6 - 1 1 3 X-Test 158 Yates, F. 158, 303 Yule, G. U. 276, 300, 312 Zacks, S. 300 Zeichentest 1 3 5 - 1 3 7 , 138, 139, 142, 166 Zeitreihen 276 Zelditch, M. jr. 302 Zentraler Grenzwertsatz 63-66 Zentriertheit von Schätzern (Schätzfunktionen) 73, 74 Zerlegung von Mischverteilungen 41 — 44 Zufall 9 — -sexperiment 9 — 11, 12 bis 14 — -sfehler, maximaler 75, 103, 200, s. a. Bd. I, Abschnitt 9.2 Zuordnung, zufällige — zu den Einheiten eines Blocks 162, 220 - 222, 242, 249 bis 251
w DE
G
Pfanzagl
Walter de Gruyter Berlin-New York Allgemeine Methodenlehre der Statistik Band 1 : Elementare Methoden unter besonderer Berücksichtigung der Anwendungen in den Wirtschafts- und Sozialwissenschaften 5., verbesserte Auflage. Klein-Oktav. 265 Seiten. Mit 49 Abbildungen und 24 Tabellen. 1972. Kartoniert D M 9,80 I S B N 3 11 003476 X (Sammlung Göschen, Band 5746)
Wetzel
Statistische Grundausbildung für Wirtschaftswissenschaftler 2 Bände. Groß-Oktav Band 1 : Beschreibende Statistik 172 Seiten. Mit 40 Abbildungen und 54 Tabellen. 1971. Plastik flexibel D M 18,— I S B N 3 1 1 003747 5 Band 2: Schließende Statistik 278 Seiten. Mit 77 Abbildungen und 49 Tabellen. 1973. Plastik flexibel D M 28,— I S B N 3 11 003748 3 (de Gruyter Lehrbuch)
Haseloff— Hoffmann
Kleines Lehrbuch der Statistik Für Naturwissenschaft und Technik, Psychologie, Sozialforschung und Wirtschaft 4., neubearbeitete und erweiterte Auflage. Oktav. XII, 330 Seiten. Mit 59 Figuren, 99 Tabellen, 1 Anhang statistischer Arbeitstabellen und Übungsaufgaben und 1 Ausschlagtafel. 1970. Plastik flexibel D M 26,— I S B N 3 1 1 000716 9
Wetzel—
Statistische Tabellen
Jöhnk—Naeve
Quart. 170 Seiten. 1967. Kartoniert D M 18,— I S B N 3 1 1 000908 0
Feichtinger
Bevölkerungsstatistik Groß-Oktav. 152 Seiten. 1973. Plastik flexibel D M 24,— I S B N 3 1 1 004306 8 (de Gruyter Lehrbuch)
w DE
G Wetzel — Skarabis — H a e v e — Biining
Brockhoff
Walter de Gruyter Berlin-New York Mathematische Propädeutik für Wirtschaftswissenschaftler 2., völlig neu bearbeitete und erweiterte Auflage. Groß-Oktav. 212 Seiten. 1972. Plastik flexibel D M 18,— I S B N 3 11 004259 2 (de Gruyter Lehrbuch)
Unternehmensforschung Eine Einführung Groß-Oktav. 121 Seiten. Mit 19 Abbildungen. 1972. Plastik flexibel D M 1 8 , — I S B N 3 11 004510 9 (de Gruyter Lehrbuch)
Kaufmann— Faure
Zimmermann
Methoden des Operations Research Eine Einführung in Fallstudien Deutsche Fassung von Klaus P. Liesenfeld Groß-Oktav. X , 265 Seiten. 1974. Gebunden D M 4 8 , — I S B N 3 1 1 003473 5 (Operations Research)
Netzplantechnik Klein-Oktav. 156 Seiten. Mit 83 Abbildungen und 1 Tafel. 1971. Kartoniert D M 7,80 I S B N 3 1 1 001951 5 (Sammlung Göschen, Band 4011)
Zimmermann — Zielinski
Elben
Lineare Programmierung Ein programmiertes Lehrbuch Basistext: Sebastian Dworatschek Programmierung: Wilhelm Keller Groß-Oktav. 222 Seiten. Arbeitsmittel: Anleitungs- und Übungsblätter zum Lernprogramm Lineare Programmierung von Hans-Jürgen Zimmermann und Johannes Zielinski. Seiten 224—365 (in Rückentasche). 1971. Plastik flexibel D M 2 8 , — I S B N 3 1 1 001992 2 (de Gruyter Lehrbuch — programmiert)
Entscheidungstabellentechnik Logik, Methodik und Programmierung Groß-Oktav. 140 Seiten. 1973. Plastik flexibel D M 24,— I S B N 3 1 1 0043181 (de Gruyter Lehrbuch)
w DE
G
Walter de Gruyter Berlin-New York de Gruyter Lehrbuch
Bauer
Wahrscheinlichkeitstheorie
und Grundzüge der Maßtheorie 2., verbesserte und erweiterte Auflage. Groß-Oktav. 407 Seiten. 1974. Gebunden D M 48,— ISBN 311 004624 5
Kowalsky
Lineare A l g e b r a 6., verbesserte Auflage. Groß-Oktav. 341 Seiten. 1972. Gebunden D M 48,— ISBN 311 003723 8
Kowalsky
Einführung in die lineare A l g e b r a 2. Auflage. Groß-Oktav. 233 Seiten. 1974. Plastik flexibel D M 18,— ISBN 311 004802 7
Kowalsky
Vektoranalysis I Groß-Oktav. Etwa 224 Seiten. 1974. Plastik flexibel etwa D M 18,— ISBN 311 0046431
Hornfeck
Algebra 2., verbesserte Auflage. Groß-Oktav. 271 Seiten. 1973. Gebunden D M 28,— ISBN 311 004455 2
Hornfeck—
Einführung in die Mathematik
Lucht
Groß-Oktav. 127 Seiten. 1970. Kartoniert D M 18,— ISBN 311 006332 8
Helms
Einführung in die Potentialtheorie Groß-Oktav. 305 Seiten. 1973. Gebunden D M 48,ISBN 311 002039 4