272 112 13MB
German Pages 311 [312] Year 2007
Basiswissen Statistik Einführung in die Grundlagen der Statistik mit zahlreichen Beispielen und Übungsaufgaben mit Lösungen
von
Prof. Dr. Karl Bosch
R. Oldenbourg Verlag München Wien
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
© 2007 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0 oldenbourg.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Lektorat: Wirtschafts- und Sozialwissenschaften, [email protected] Herstellung: Anna Grosser Satz: DTP-Vorlagen des Autors Coverentwurf: Kochan & Partner, München Gedruckt auf säure- und chlorfreiem Papier Gesamtherstellung: Druckhaus „Thomas Müntzer" GmbH, Bad Langensalza ISBN 978-3-486-58253-6
Inhaltsverzeichnis Seite XI
Vorwort
Teil I: Beschreibende (deskriptive) Statistik 1
Merkmale und Skalierung
3
1.1 1.2
Merkmale Skalierung
3 5
2
Eindimensionale Stichproben
6
2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.7.1 2.7.2 2.7.3 2.7.4 2.7.5 2.8 2.9 2.9.1 2.9.2 2.10
Absolute und relative Häufigkeiten Strichliste und Häufigkeitstabelle Graphische Darstellungen Häufigkeitsverteilungen bei Klasseneinteilungen Empirische Verteilungsfunktion Klassierte Verteilungsfunktion Mittelwerte Arithmetisches Mittel (der Mittelwert) Median (Zentralwert) Harmonisches Mittel Geometrisches Mittel Vergleich der verschiedenen Mittelwerte Quantile und Quartile Streuungsmaße (Abweichungsmaße) Mittlere Abstände Varianz und Standardabweichung Aufgaben
3
Zweidimensionale (verbundene) Stichproben
3.1 3.2 3.3 3.4 3.4.1 3.4.2 3.4.3 3.5 3.5.1 3.5.2 3.5.3 3.5.4 3.6
Streuungsdiagramme Kontingenztafeln (Häufigkeitstabellen) Kovarianz und Korrelationskoeffizient Rangkorrelationskoeffizient von Spearman Rangzahlen Der Spearmansche Rangkorrelationskoeffizient r s Berechnung von r s bei Rangzahlen ohne Bindungen Regressionsrechnung Regressionsgerade Regressionsgerade durch einen vorgegebenen Punkt Von Parametern abhängige Regressionsfunktionen Linearisierung durch Transformationen Aufgaben
6 7 8 11 13 14 15 15 17 21 22 23 23 25 25 25 28
. . .
. . . . . . . .
. . . . . . . .
31 31 32 34 37 38 39 41 42 42 45 47 47 49
VI
Inhaltsverzeichnis
Teil II: Wahrscheinlichkeitsrechnung 4
Wahrscheinlichkeiten
53
4.1 4.2 4.3 4.3.1 4.3.2 4.4 4.4.1 4.4.2 4.4.3 4.4.4 4.4.4.1 4.4.4.2 4.4.5 4.4.6 4.5 4.6 4.7
Zufallsexperimente und zufällige Ereignisse Häufigkeiten von Ereignissen Definition einer Wahrscheinlichkeit Axiome einer Wahrscheinlichkeit Der klassische Wahrscheinlichkeitsbegriff Kombinatorik Produktregel der Kombinatorik (allgemeines Zählprinzip). . Anordnungsmöglichkeiten (Permutationen) Auswahlmöglichkeiten unter Berücksichtigung der Reihenfolge Auswahlmöglichkeiten ohne Berücksichtigung der Reihenfolge Ziehen ohne Wiederholung (ohne Zurücklegen) Ziehen mit Wiederholung (mit Zurücklegen) Zusammenstellung der Formeln der Kombinatorik . . . . Urnenmodelle Bedingte Wahrscheinlichkeiten Unabhängige Ereignisse Aufgaben
53 55 56 57 59 60 61 61 63 64 64 65 67 67 70 75 78
5
Diskrete Zufallsvariablen
81
5.1 5.1.1 5.1.2 5.1.3 5.1.4 5.1.5 5.1.6 5.1.7
Eindimensionale diskrete Zufallsvariablen Verteilung einer diskreten Zufallsvariablen Verteilungsfunktion einer diskreten Zufallsvariablen . . . Modalwert (Modus) einer diskreten Zufallsvariablen . . . Erwartungswert einer diskreten Zufallsvariablen Median (Zentralwert) einer diskreten Zufallsvariablen . . . Quantile einer diskreten Zufallsvariablen Varianz und Standardabweichung einer diskreten Zufallsvariablen Zweidimensionale diskrete Zufallsvariablen Gemeinsame Verteilung Funktion einer zweidimensionalen Zufallsvariablen . . . . Unabhängige diskrete Zufallsvariablen Produkt zweier diskreter Zufallsvariabler Summen diskreter Zufallsvariabler Kovarianz und Korrelationskoeffizient Spezielle diskrete Zufallsvariablen Gleichmäßige diskrete Verteilung Binomialverteilung (Verteilung der absoluten Häufigkeit). . Hypergeometrische Verteilung Geometrische Verteilung (Warten auf den ersten Erfolg) . . Poisson-Verteilung (Verteilung seltener Ereignisse) . . . . Aufgaben
81 81 84 85 86 91 93
5.2 5.2.1 5.2.2 5.2.3 5.2.4 5.2.5 5.2.6 5.3 5.3.1 5.3.2 5.3.3 5.3.4 5.3.5 5.4
93 95 95 97 98 98 99 101 103 103 104 106 107 109 112
Inhaltsverzeichnis
VII
6
115
Stetige Zufallsvariablen
6.1 6.2 6.3 6.4 6.5 6.6 6.6.1 6.6.2 6.6.3 6.6.3.1
Dichte und Verteilungsfunktion Erwartungswert Median (Zentralwert) Quantile Varianz und Standardabweichung Spezielle stetige Zufallsvariablen Gleichmäßige Verteilung Exponentialverteilung Normalverteilungen Standard-Normalverteilung als Grenzwert standardisierter Binomialverteilungen 6.6.3.2 Allgemeine Normalverteilung 6.6.3.3 Approximation der Binomialverteilung durch die Normalverteilung 6.6.4 Chi-Quadrat-Verteilung (Testverteilung) 6.6.5 t-Verteilung (Testverteilung) 6.6.6 F-Verteilung (Testverteilung) 6.7 Aufgaben
7 7.1 7.2 7.2.1 7.2.2 7.2.3 7.3
115 117 120 121 122 123 123 124 127 128 132 135 137 138 139 141
Zentraler Grenzwertsatz und Gesetze der großen Zahlen
143
Zentraler Grenzwertsatz Gesetze der großen Zahlen Tschebyschewsche Ungleichung Schwaches Gesetz der großen Zahlen Bernoullisches Gesetz der großen Zahlen Aufgaben
143 145 146 147 149 151
Teil III: Beurteilende (induktive) Statistik 8
Parameterschätzung
155
8.1 8.1.1 8.1.2 8.1.2.1 8.1.2.2 8.1.2.3 8.1.3 8.1.3.1 8.1.3.2 8.1.3.3 8.2 8.2.1
Punktschätzungen Zufallsstichproben und Stichprobenfunktionen Schätzfunktionen Allgemeine Schätzfunktionen Erwartungstreue Schätzfunktionen Konsistente Schätzfunktionen Maximum-Likelihood-Schätzungen Likelihood - Funktion bei diskreten Verteilungen Likelihood-Funktion bei stetigen Verteilungen Das Maximum-Likelihood-Prinzip Konfidenzintervalle (Intervallschätzungen) Allgemeine Konfidenzintervalle
155 155 157 157 158 159 161 161 161 162 163 164
VIII 8.2.2 8.2.2.1 8.2.2.2 8.2.3 8.2.4 8.2.5
Inhaltsverzeichnis Konfidenzintervalle für einen Erwartungswert Konfidenzintervalle bei bekannter Varianz Konfidenzintervalle bei unbekannter Varianz Konfidenzintervalle für eine Varianz bei Normalverteilungen Konfidenzintervalle für eine Wahrscheinlichkeit ρ . . . . Konfidenzintervalle für die Differenz zweier Erwartungswerte bei verbundenen Stichproben . . . Konfidenzintervalle für den Quotienten der Varianzen zweier Normalverteilungen Aufgaben
165 165 168 169 172
9
Parametertests
179
9.1 9.1.1 9.1.2 9.2 9.2.1 9.2.1.1 9.2.1.2 9.2.1.3 9.2.1.4 9.2.2 9.2.3
Einfache Alternativtests Test von H 0 : μ = μ0 gegen H j : μ = μχ Test von H 0 : ρ = p 0 gegen Η χ : ρ = p x Tests von Erwartungswerten Test eines Erwartungswertes bei bekannter Varianz . Zweiseitiger Test von H 0 : μ = μ0 gegen Η χ : μ φ μ0 Einseitiger Test von H 0 : μ > μ0 gegen H j : μ < μ0 . Einseitiger Test von H Q : μ < μ 0 gegen Ή.1: μ > μ0 . Zusammenstellung der Testentscheidungen Test eines Erwartungswertes bei unbekannter Varianz Test der Differenz der Erwartungswerte bei verbundenen Stichproben Tests von Varianzen bei Normalverteilungen Test einer einzigen Varianz Test des Quotienten zweier Varianzen Test einerWahrscheinlichkeit ρ Aufgaben
179 179 182 184 184 184 186 188 188 189
8.2.6 8.3
9.3 9.3.1 9.3.2 9.4 9.5
. . . . . . . . . . . . .
.
.
174 175 177
190 191 191 192 194 195
10
Chi-Quadrat-Tests
199
10.1 10.2 10.3 10.4 10.5
Test von mehreren Wahrscheinlichkeiten Tests von Verteilungen Unabhängigkeitstest Homogenitätstest Aufgaben . ;
199 202 208 212 216
11
Varianzanalyse
219
11.1 11.2 11.3
Einfache Varianzanalyse Doppelte Varianzanalyse Aufgaben
219 224 229
12
Lineare Regression
231
12.1 12.2 12.3 12.4
Das Lineare Regressionsmodell Schätzungen der Parameter Test auf lineare Regression Aufgaben
231 232 234 238
Inhaltsverzeichnis
13
13.1 13.1.1 13.1.2 13.2 13.3 13.3.1 13.3.2 13.4 13.4.1 13.4.2 13.5
Paxameterfreie Verfahren
Vorzeichen-Test Vorzeichen-Test bei stetigen Zufalls variablen (ohne Bindungen) Vorzeichen-Test bei beliebigen Zufalls variablen (mit Bindungen) Test des Medians bei stetigen Zufallsvariablen Sensorische Tests Der Duo-Test: Paarweise Unterschiedsprüfung Der Triangel-Test: Dreiecksprüfung Vorzeichen-Rangtest nach Wilcoxon Rangtest ohne Bindungen Rangtest bei Bindungen Aufgaben
IX
239
239 239
240 242 243 244 246 248 249 251 252
Lösungen der Aufgaben
255
Literaturverzeichnis
274
Tabellenanhang
275
Register
295
Vorwort zur dritten Auflage Die dritte Auflage wurde vollständig überarbeitet. Neben der Umstellung von DM auf Euro wurde auch die neue Rechtschreibung berücksichtigt. In den Aufgaben zum Lotto und Toto wurden die inzwischen eingetretenen Änderungen aufgenommen. Ferner wurden Fehler im Text beseitigt. Karl Bosch
Vorwort zur ersten Auflage Das vorliegende Buch wendet sich an diejenigen Studierenden, die während ihres Studiums nur wenig Vorlesungen über Statistik oder Wahrscheinlichkeitsrechnung hören müssen. Diese Einführung in die Statitik beschränkt sich auf eine kurze Behandlung der wichtigsten Grundlagen der Statistik und Wahrscheinlichkeitsrechnung. Ziel des Autors ist es, den Stoff möglichst klar und verständlich darzustellen. Viele Beispiele und Plausibilitätsbetrachtungen sollen zum besseren Verständnis beitragen. Zur Vertiefung des Stoffes gibt es am Ende eines jeden Kapitels zahlreiche Übungsaufgaben, deren Lösungen ab Seite 255 angegeben sind. Bei manchen Aufgaben- vor allem bei solchen, die nicht nach einer Standard-Methode gelöst werden können- sind Lösungshinweise zu finden. Manchmal wird der Lösungsweg skizziert oder sogar vollständig angegeben. Das Buch gliedert sich in drei Teile. Im ersten Teil wird die beschreibende (deskriptive) Statistik behandelt. Der zweite Teil beschäftigt sich mit der Wahrscheinlichkeitsrechnung, ohne die keine sinnvolle Statistik möglich ist. In der beurteilenden (induktiven) Statistik im Teil III werden schließlich statistische Verfahren behandelt. Zur Aufstellung der entsprechenden Formeln und vor allem für die Interpretation der damit gewonnenen Ergebnisse ist die Wahrscheinlichkeitsrechnung unentbehrlich. Gleichzeitig werden dabei Grundlagen aus der beschreibenden Statistik benutzt. Es ist selbstverständlich nicht möglich, in dieser kleinen Einführung sehr viele statistische Verfahren zu behandeln. Dazu sei auf die weiterführende Literatur verwiesen, ζ. B. auf die von dem gleichen Autor ebenfalls im Oldenbourg-Verlag erschienenen Bücher Statistik-Taschenbuch (814 Seiten) und Großes Lehrbuch der Statistik (585 Seiten). Für die sorgfältige Durchsicht des Manuskripts sowie für zahlreiche Hinweise und Verbesserungsvorschläge möchte ich mich bei meinem Mitarbeiter Herrn Dr. Martin Bohner recht herzlich bedanken. Karl Bosch
Teil I: Beschreibende (deskriptive) Statistik Ziel der beschreibenden Statistik ist es, umfangreiches Datenmaterial aus statistischen Erhebungen übersichtlich darzustellen. Dazu können graphische Darstellungen benutzt werden, die eine "optische Information" über das gesamte Datenmaterial liefern. Häufig werden aus dem Datenmaterial sogenannte Kenngrößen berechnet, die über das gesamte Stichprobenmaterial möglichst viel Informationen liefern sollen. Durch die Angabe solcher Kenngrößen findet allerdings im Allgemeinen eine Datenreduktion statt. In der Regel gehen dabei Informationen über das gesamte in der statistischen Erhebung gewonnene Datenmaterial (Urmaterial) verloren. Mit Hilfe dieser Kenngrößen (Parameter) können zunächst nur Aussagen über die Grundgesamtheit gemacht werden, die im vorliegenden Datenmaterial untersucht wurde. Aus dem Datenmaterial abgeleitete Aussagen dürfen nicht ohne weiteres auf größere Grundgesamtheiten übertragen werden. Dazu müssen bestimmte Voraussetzungen bezüglich der Stichprobenentnahme erfüllt sein. Es muss sich um sogenannte "repräsentative" Stichproben handeln. Diese Thematik wird in der beurteilenden Statistik (Teil III) behandelt. Dazu benötigt man jedoch Verfahren aus der Wahrscheinlichkeitsrechnung (Teil II).
Kapitel 1: Merkmale und Skalierung 1.1 Merkmale In einer statistischen Erhebung werden an verschiedenen M e r k m a l s t r ä g e r n (Individuen oder statistischen Einheiten) ein oder auch gleichzeitig mehrere Merkmale festgestellt. Die verschiedenen Ergebnisse, die bei der Beobachtung eines b e s t i m m t e n M e r k m a l s auftreten können, nennt m a n Merkmalsausprägungen. Beispiele dafür sind: Beruf, Konfession, Haarfarbe, Steuerklasse, G e w i c h t , Ertrag, Handelsklasse bestimmter Lebensmittel, Zensuren bei P r ü f u n g e n , monetäre, chemische oder physikalische Größen. Merkmale werden i m Allgemeinen nach verschiedenen T y p e n klassifiziert. Unterschieden wird dabei nach der A r t des Merkmals und nach der A n z a h l der möglichen A u s p r ä g u n g e n . Quantitative (zahlenmäßige) Merkmale sind solche, deren A u s p r ä g u n g e n in bestimmten Einheiten (Maßeinheiten) gemessen werden können. Sie werden durch reelle Zahlen dargestellt. Zwischen verschiedenen A u s p r ä g u n g e n eines q u a n t i t a t i v e n M e r k m a l s besteht immer eine R a n g o r d n u n g (Reihenfolge), also eine Größer-Kleiner-Beziehung. Die A u s p r ä g u n g e n unterscheiden sich durch ihre Größe. Bei q u a n t i t a t i v e n Merkmalen muss der Unterschied zwischen zwei Merkmalsausprägungen stets quantifizierbar sein, m a n muss die einzelnen Unterschiede also messen können. B e i m Zählen, Messen oder Wiegen werden A u s p r ä g u n g e n quantitativer Merkmale festgestellt. Qualitative (artmäßige) Merkmale sind Merkmale, welche nicht q u a n t i t a tiv sind. Sie können nicht direkt durch Zahlen gekennzeichnet werden, zwischen denen eine natürliche Reihenfolge (Größer-Kleiner-Beziehung) besteht. Daher ist nur eine q u a l i t a t i v e (verbale) Beschreibung möglich. Die Ausprägungen eines q u a l i t a t i v e n Merkmals unterscheiden sich nur durch ihre A r t , nicht j e d o c h durch ihre Größe. Der Unterschied zwischen zwei Ausprägungen eines qualitativen M e r k m a l s kann nicht objektiv gemessen werden. Q u a l i t a t i v e M e r k m a l e sind ζ. B. Geschlecht, Familienstand, Beruf, Konfession, Haarfarbe, Handelsklasse oder Steuerklasse. F o r m a l könnte man zwar allen A u s p r ä g u n g e n eines qualitativen Merkmals Zahlen zuordnen. Durch eine solche formale Quantifizierung geht das q u a l i t a t i v e Merkmal jedoch keineswegs in ein quantitatives über, es bleibt weiterhin qualitativ. Nur die Bezeichnungen für die Ausprägungen werden dadurch geändert.
4
Kapitel 1: Merkmale und Skalierung
Beispiel 1.1: Bei den üblichen Zensuren für Leistungen in der Schule oder Universität "sehr gut, gut, befriedigend, ausreichend, mangelhaft, ungenügend" handelt es sich um ein qualitatives Merkmal. Dabei ist zwischen den Ausprägungen zwar eine Rangordnung vorgegeben, denn "sehr gut" ist ζ. B. besser als "gut", "gut" besser als "befriedigend" usw. Die genauen Unterschiede zwischen den einzelnen Noten liegen im Allgemeinen aber nicht fest und sind meistens auch nicht gleich. Insbesondere gilt dies bei der Bewertung von Aufsätzen in Deutsch oder Geschichtsarbeiten. In der Regel werden den Zensuren zwar die Zahlen 1 , 2 , 3 , 4 , 5 , 6 zugeordnet. Dadurch findet eine Quantifizierung statt. Das Merkmal wird also formal quantifiziert. Durch diese Quantifizierung entsteht allerdings der Eindruck, dass die Unterschiede zwischen zwei aufeinanderfolgenden Zensuren jeweils gleich sind, was im Allgemeinen keineswegs der Fall ist. Diskrete Merkmale besitzen nur endlich viele oder höchstens abzählbar unendlich viele verschiedene Merkmalsausprägungen. "Endlich viele" bedeutet dabei, dass die Merkmalsausprägungen von 1 an bis zu einer endlichen ganzen Zahl durchnummeriert werden können. "Abzählbar unendlich" heißt, dass es unendlich viele verschiedene Merkmalsausprägungen gibt, die jedoch wie die natürlichen Zahlen von 1 an durchnummeriert werden können. Beim Zählen werden Ausprägungen diskreter Merkmale untersucht. Bei stetigen Merkmalen können die möglichen Ausprägungen alle reellen Zahlen aus einem ganzen Intervall der Zahlengeraden annehmen. Die Ausprägungen gehen im Gegensatz zu diskreten Merkmalen fließend ineinander über. Beim Messen oder Wiegen werden im Allgemeinen Ausprägungen stetiger Merkmale festgestellt.
1.2 Skalierung Um die verschiedenen Ausprägungen eines Merkmals nach den gleichen Kriterien angeben oder messen zu können, muss zuerst eine Skala vorgegeben werden. Durch die Skalierung werden den Merkmalsausprägungen einzelne Werte (Plätze) der Skala zugeordnet. Die jeweilige Skala hängt dabei vom Typ des Merkmals ab. Nominalskala: Eine Nominalskala liegt vor, wenn durch sie nur die Verschiedenheit der Ausprägungen eines Merkmals zum Ausdruck gebracht werden kann. Merkmale, deren Ausprägungen nur in einer solchen Skala dargestellt werden könnnen, heißen nominale Merkmale. Nominalskalen sind Skalen qualitativer Merkmale, bei denen es keine natürliche Rangordnung gibt. Nominalskalen sagen am wenigsten über die Merkmalsausprägungen aus. Sie stellen die niedrigste Stufe einer Skala dar.
1.2 Skalierung
5
Beispiele dafür sind: Geschlecht, Konfession, Beruf, Farbe oder Steuerklasse. Die Ausprägungen sind nicht miteinander vergleichbar. Es handelt sich um nominale Merkmale. Durch die Zuordnung: männlich0; weiblich1 entsteht auch nur eine Nominalskala. Durch diese Zuordnung wird das Merkmal Geschlecht zwar formal quantifiziert, es bleibt aber trotzdem nur qualitativ. Ordinalskala (Rangskala): Eine Ordinalskala (Rangskala) liegt vor, wenn die unterscheidbaren Merkmalsausprägungen in eine natürliche Rangordnung (Reihenfolge) gebracht werden können. Ordinal skalierte Merkmale heißen ordinale Merkmale. Abstände zwischen verschiedenen Ausprägungen ordinaler Merkmale sind jedoch nicht quantifizierbar (nicht interpretierbar). Durch die Rangordnung können den Ausprägungen zwar Zahlen z u g e ordnet werden, doch sagen diese Zuordnungszahlen nichts über die Abstände der einzelnen Merkmalsausprägungen aus. Bei den Handelsklassen bestimmter Lebensmittel gibt es eine Rangordnung. Die Handelsklasse I ist besser als II, II besser als III usw. Daher handelt es sich um ein ordinales Merkmal. Im Gegensatz zu qualitativen können quantitative Merkmale immer angeordnet werden. So besteht bei den Merkmalen Güteklasse bei Lebensmitteln, Tabellenplatz einer Fußballiga oder Intelligenzquotient eine natürliche Rangordnung. Ihre Ausprägungen lassen sich anordnen, obwohl es sich um kein quantitatives Merkmal handelt. Metrische Skala (Kardinalskala): Man spricht von einer metrischen Skala oder Kardinalskala, wenn zwischen den Merkmalsausprägungen nicht nur eine Reihenfolge (Rangordnung) besteht, sondern auch die Abstände zwischen den Merkmalsausprägungen miteinander verglichen werden können. Metrische Skalen sind Skalen quantitativer Merkmale. Merkmale mit einer metrischen Skala nennt man metrisch skaliert oder kardinal. Beispiele für metrisch skalierte Merkmale sind: Erträge, Längen, Gewichte, monetäre und physikalische Größen. Die metrischen Skalen sind im Allgemeinen bis auf die Wahl der Maßeinheit eindeutig bestimmt.
Kapitel 2: Eindimensionale Stichproben In diesem Abschnitt soll nur ein einziges Merkmal untersucht werden. An η Merkmalsträgern aus einer bestimmten Grundgesamtheit wird jeweils die Ausprägung des Merkmals festgestellt. Die Merkmalsausprägung beim iten Merkmalsträger bezeichnen wir mit Xj für i = 1 , 2 , . . . , n . Man nennt x^ die i-te Beobachtungseinheit. Alle η Merkmalswerte zusammen bilden das n-Tupel χ = (x lf x 2 , . . . , Xn). Dieses n-Tupel heißt Stichprobe (Beobachtungsreihe oder Urliste) vom Umfang n. Falls die Merkmalswerte sämtlicher Individuen einer Grundgesamtheit festgestellt werden, spricht man von einer Total- oder Vollerhebung, andernfalls von einer Teilerhebung. Bei Volkszählungen finden in der Regel Totalerhebungen, bei Meinungsumfragen Teilerhebungen statt.
2.1 Absolute und relative Häufigkeiten Die möglichen Ausprägungen des untersuchten Merkmals bezeichnen wir mit a 1 , a 2 , . . . , a j , . . . . Die Anzahl derjenigen Beobachtungseinheiten aus der Stichprobe vom Umfang n, welche die Merkmalsausprägung aj besitzen, nennt man die absolute Häufigkeit von aj. Wir bezeichnen sie mit h n (aj) oder kurz mit hj. Dabei stellt der Index η den Umfang der Stichprobe dar. Es ist also hj = h n (aj) — Anzahl der Beobachtungswerte, die gleich aj sind. (2.1) Die absolute Häufigkeit 46 ist bei einem Versuchsumfang η — 50 groß, während sie bei einem Versuchsumfang η = 1 000 sehr klein ist. Aus diesem Grunde setzen wir die absolute Häufigkeit in Relation zum Versuchsumfang n. Division der absoluten Häufigkeit hj durch den Stichprobenumfang η ergibt eine Größe, die vom Versuchsumfang η unabhängig ist. Den so erhaltenen Wert r
j = r n ( a j ) = rr. j = 1 , 2 , . . . (2.2) nennt man die relative Häufigkeit von aj in der Urliste. Weil 100 · rj % der Beobachtungswerte die Ausprägung aj besitzen, beschreibt die relative Häufigkeit den prozentualen Anteil (prozentuale Häufigkeit) der Merkmalsausprägung aj. Die relative Häufigkeit liegt unabhängig vom Stichprobenumfang η immer zwischen Null und Eins. Je größer eine relative Häufigkeit ist, um so öfter ist der Merkmalswert eingetreten. Die relative Häufigkeit beschreibt damit die absolute Häufigkeit unabhängig vom Versuchsumfang n. Die prozentuale Häufigkeit liegt zwischen 0 und 100.
2.2 Strichliste und Häufigkeitstabelle
7
Allgemein gelten für die absoluten und die relativen Häufigkeiten die Eigenschaften: 0 < hj < η
für jedes j ,
0 < rj < 1
für jedes j ,
Σ j Σ j
= η; (2.3) r
j— 1·
Definition 2.1 (Häufigkeitsverteilung): In einer Stichprobe vom Umfang η sollen die Merkmalsausprägungen a-y, a 2 , . . . die absoluten Häufigkeiten h j , h 2 , . . . und die relativen Häufigkeiten r j , r 2 , . . . besitzen. Dann heißt die Gesamtheit der Paare {(aj>hj)< i = 1 . 2 . - } die absolute Häufigkeitsverteilung und { ( a j ' rj) ' j ^ 1 ' 2 ' · · · } die relative Häufigkeitsverteilung des diskreten Merkmals.
2.2 Strichliste und Häufigkeitstabelle In der Urliste sind die Beobachtungswerte im Allgemeinen völlig ungeordnet und d a m i t - v o r allem bei großem Stichprobenumfang η - n i c h t übersichtlich. Aus diesem Grund versucht man, die Beobachtungswerte in einer Häufigkeitstabelle übersichtlich darzustellen. Dazu trägt man in der ersten Spalte der Häufigkeitstabelle (vgl. Tab. 2.1) die Merkmalsausprägungen ein. Falls es sehr viele oder gar abzählbar unendlich viele verschiedene Merkmalswerte gibt, müssen Merkmalswerte zusammengefasst werden; sinnvollerweise solche, die in der Urliste selten vorkommen. Für jeden Beobachtungswert der Urliste wird in die zweite Spalte hinter dem entsprechenden Merkmalswert ein senkrechter Strich | eingetragen. Der Ubersicht halber werden fünf Striche durch den Block jjff dargestellt. Jeweils der fünfte Strich wird waagrecht durch die vorangehenden vier Striche gezogen. Dadurch entstehen Fünferblöcke mit einem Rest. In weiteren zwei Spalten werden die absoluten Häufigkeiten (Anzahl der Striche) und die relativen Häufigkeiten der jeweiligen Merkmalswerte eingetragen. Die Häufigkeitstabelle enthält also die absolute und die relative Häufigkeitsverteilung. Durch die Übertragung der Urliste in eine Häufigkeitstabelle gehen allerdings wesentliche Informationen über die Urliste verloren, da die Reihenfolge, in der die Beobachtungswerte auftreten, aus der Tabelle allein nicht mehr feststellbar ist.
Kapitel 2: Eindimensionale Stichproben
8
Beispiel 2.1: Bei 50 Familien wurde jeweils die Anzahl der Kinder festgestellt und in der Tabelle 2.1 eingetragen. Anzahl der Kinder a J=j
Anzahl der Familien absolute mit j Kindern Häufigkeit h j
relative Häufigkeit r j
prozentualer Anteil 100 · r j
0
W M II
12
0,24
24
1
UMttttll
17
0,34
34
2
MIHI
9
0,18
18
3
ttttl
6
0,12
12
4
IUI
4
0,08
8
5
II
2
0,04
4
0
0
0
mehr als 5 Summe
η = 50
1,00
100
Tab. 2.1: Strichliste und Häufigkeitstabelle
2.3 Graphische Darstellungen Eine in einer Häufigkeitstabelle angegebene Beobachtungsreihe kann in einer graphischen Darstellung übersichtlicher dargestellt werden. Bei der Wahl der graphischen Darstellung muss dabei zwischen quantitativen und qualitativen Merkmalen unterschieden werden. Bei quantitativen Merkmalen werden in einem Stabdiagramm (vgl. Bild 2.1 a) über den einzelnen Merkmalswerten senkrecht nach oben Stäbe angetragen, deren Längen die absoluten bzw. relativen Häufigkeiten sind. Im Stabdiagramm der absoluten Häufigkeiten haben alle Stäbe zusammen die Länge η (Anzahl der Stichprobenwerte). Diese Eigenschaft muss bei der Maßstabsfestsetzung berücksichtigt werden. Im Stabdiagramm der relativen Häufigkeiten ist die Gesamtlänge aller Stäbe zusammen immer gleich Eins unabhängig vom Stichprobenumfang n. Aus diesem Grund kann bei Stabdiagrammen für die relativen Häufigkeiten immer der gleiche Maßstab gewählt werden. In einem Häufigkeitspolygon (Bild 2.1 b) werden die Endpunkte der einzelnen Stäbe geradlinig miteinander verbunden. In einem Histogramm (Bild 2.1 c) stellt man die absoluten bzw. relativen Häufigkeiten durch Flächen von Rechtecken senkrecht über den einzelnen
2.3 Graphische Darstellungen
9
Merkmalsausprägungen dar. Nur wenn alle Rechtecke die gleiche Breite besitzen, können als Höhen jeweils die Häufigkeiten bzw. das gleiche Vielfache davon benutzt werden. Bei verschiedenen Rechtecksbreiten sollten die Höhen jedoch so gewählt werden, dass die Inhalte der einzelnen Rechtecke proportional zu den Häufigkeiten sind. Als Rechteckshöhen eignen sich bis auf den Maßstab die Quotienten Häufigkeit Rechtecksbreite ' Damit erhält man eine flächenproportionale Darstellung. In Bild 2.1 ist die relative Häufigkeitsverteilung aus Tab. 2.1 (Beispiel 2.1) in einem Stabdiagramm, Häufigkeitspolygon und Histogramm graphisch dargestellt. Weil jeweils zwei benachbarte Merkmalsausprägungen (Anzahl der Kinder) voneinander den Abstand 1 besitzen, können im Histogramm als Höhen direkt die relativen Häufigkeiten gewählt werden. Die Bilder für die absoluten und relativen Häufigkeiten unterscheiden sich nur durch den Maßstab auf der y-Achse.
a) Stabdiagramm
b) Häufigkeitspolygon
c) Histogramm
Bild 2.1: Verteilungen der relativen Häufigkeiten Bei qualitativen Merkmalen sind die Ausprägungen im Allgemeinen keine reelle Zahlen. Formal könnte man die abstrakten Ausprägungen zwar auf der Zahlengeraden darstellen und die Graphiken wie bei quantitativen Merkmalen anfertigen. Dieses Vorgehen ist jedoch nicht sinnvoll. Bei einer Darstellung auf dem Zahlenstrahl besteht nämlich die Gefahr, dass durch die willkürlich gewählte Anordnung fälschlicherweise eine Rangordnung zwischen den Ausprägungen hinein interpretiert wird. Aus diesem Grund benutzt man hier andere graphische Darstellungen. Dazu das
10
Kapitel 2: Eindimensionale Stichproben
Beispiel 2.2: In einem Verein kandidierten drei Personen Α, Β und C für den Posten des ersten Vorstands. Bei der Abstimmung waren 75 Personen stimmberechtigt. Nach der Satzung ist derjenige Kandidat gewählt, welcher die meisten Stimmen erhält. Die Stimmenverteilung ist in Tabelle 2.2 dargestellt. Für die Summe der relativen Häufigkeiten erhält man den Wert 0,999. Die Abweichung vom tatsächlichen Wert ist auf das Runden zurückzuführen.
Kandidat
absolute relative prozentualer abgegebene Stimmen Häufigkeit Häufigkeit Anteil
Kandidat A
HU [ π ι μη ι tttt tttt tttt 1
16
0,213
21,3
Kandidat Β
U l i 1111 ILLL ILLL ||||
24
0,320
32,0
22
0,293
29,3
Enthaltungen tttt litt III
13
0,173
17,3
ungültig
0
0
0
Summe
η = 75
0,999
99,9
Kandidat C
tttt tttt tttt Trrr im HU im MM MM Μ ΐ π τ τ ΐ π ΤΤΐΐ τ π ΐ II
Tab. 2.2: Strichliste und Häufigkeitstabelle In einem Rechteckdiagramm (Bild 2.2 a) werden die Rechtecksflächen proportional zu den Häufigkeiten aufgeteilt. Dann verhalten sich die Häufigkeiten zweier Merkmalswerte wie die Inhalte der ihnen zugeordneten Flächen (flächenproportionale Darstellung). Im Kreisdiagramm (Bild 2.2 b) wird zu jeder Merkmalsausprägung ein Kreissektor gebildet, wobei die Flächen der Sektoren und damit auch die Innenwinkel proportional zu den Häufigkeiten sind. Jeder einzelnen Stimme entspricht ein Innenwinkel von 360/75 = 4,8°. Damit erhält man der Reihe nach die Winkel: 76,8°; 115,2°; 105,6°; 62,4°.
Bild 2.2: a ) Rechteckdiagramm
b) Kreisdiagramm
2.4 Häufigkeitsverteilungen bei Klasseneinteilungen
11
2.4 Häufigkeitsverteilungen bei Klasseneinteilungen Falls ein stetiges Merkmal erhoben wird, sind die in der Urliste vorkommenden Beobachtungswerte im Allgemeinen alle voneinander verschieden, wenn nur genau genug gemessen wird. Die Häufigkeitsverteilungen sind dann nicht übersichtlich. Das gleiche Problem tritt bei diskreten Merkmalen mit sehr vielen verschiedenen Ausprägungen auf. In einem solchen Fall ist es sinnvoll, Merkmalswerte zu Klassen zusammenzufassen. Falls bei einem qualitativen Merkmal Werte zusammengefasst werden, sind die so entstehenden Ausprägungen (Klassen) wieder qualitativ. Dann können die Häufigkeitsverteilungen dieser Merkmalsklassen wie in Abschnitt 2.3 dargestellt werden. Bei quantitativen stetigen Merkmalen wird die Klasseneinteilung auf einem Intervall vorgenommen, welches alle Beobachtungswerte enthält. Dazu wird das Intervall in mehrere Teilintervalle zerlegt. Die Teilintervalle nennt man Klassen oder Gruppen. Jede Klasse ist durch eine linke und eine rechte Klassengrenze bestimmt, wobei eindeutig festgelegt sein muss, zu welcher der beiden angrenzenden Klassen der entsprechende Grenzpunkt gehört. Als Klassenintervalle wählt man im Allgemeinen halboffene Intervalle. Eine ideale Klasseneinteilung wäre eine mit gleichen Klassenbreiten. Oft sind jedoch bei einer solchen äquidistanten Einteilung Klassen - vor allem an den Rändern- sehr schwach besetzt. Dann ist es sinnvoll, die Randklassen breiter zu machen. Die Anzahl der Klassen bezeichnen wir mit m und die einzelnen Klassen der Reihe nach mit
Die zugehörigen Klassenbreiten seien b 1 , b 2 , . . . , b m . Aus einer Klasseneinteilung allein lassen sich allerdings die Beobachtungswerte nicht mehr genau feststellen. Man weiß nur, zwischen welchen Grenzen sie liegen. Daher ist eine Klassenbildung mit einem gewissen Informationsverlust verbunden. Man kann nur noch feststellen, wie viele Beobachtungswerte in der jeweiligen Klasse liegen. Die genauen Zahlenwerte können aus der Klasseneinteilung jedoch nicht mehr abgelesen werden. Die Anzahl der Beobachtungswerte, welche in der Klasse Kj enthalten sind, heißt die absolute Klassenhäufigkeit. Wir bezeichnen sie mit hj = Anzahl der Beobachtungswerte in der Klasse K j . Division durch den Versuchsumfang η = h j + h 2 + . . . + h m ergibt die relative Klassenhäufigkeit mit
m Σ rj - 1 ·
12
Kapitel 2: Eindimensionale Stichproben
Die Klasseneinteilung wird in einem Histogramm (s. Bild 2.3) graphisch dargestellt. Dazu wird über jeder Klasse ein Rechteck gebildet, dessen Flächeninhalt proportional zur absoluten bzw. relativen Klassenhäufigkeit ist. Nur wenn sämtliche Klassen die gleiche Breite besitzen, dürfen als Höhen unmittelbar die Klassenhäufigkeiten benutzt werden. Sonst müssen andere Höhen gewählt werden. Für die relativen Klassenhäufigkeiten erhält man die „ . , , .., r·. ,. t^i τ^ Rechteckshohe iur die Klasse K ; : J
rj relative Klassenhäufigkeit Η- = τη c—η— · bj Klassen breite
Oft ist man gezwungen, auf beiden Achsen verschiedene Maßstäbe zu wählen. Das gesamte Histogramm besitzt dann den Flächeninhalt Eins. Beispiel 2.3: Bei 50 Aggregaten des gleichen Typs wurde die Betriebsdauer in Stunden festgestellt und in folgender Klasseneinteilung dargestellt (Klassengrenzen 200, 400, 8 0 0 , 1 2 0 0 , 1 6 0 0 , 2000, 3000). hj = absolute Klassenhäufigkeit
rj = relative Klassenhäufigkeit
9
0,18
K2 = (200;400]
10
0,20
K3 = (400;800]
10
0,20
K 4 = (800; 1200]
4
0,08
K 5 = (1200; 1600]
6
0,12
K6 = (1600;2000]
7
0,14
K 7 = (2000; 3000]
4
0,08
η = 50
1,00
Klasse Kj Kx = ( 0 ; 2 0 0 ]
Summe Tab. 2.3:
Klasseneinteilung
Im flächenproportionalen Histogramm in Bild 2.3 für die relativen Klassenhäufigkeiten dürfen als Höhen der Rechtecke nicht unmittelbar die relativen Klassenhäufigkeiten gewählt werden, weil die Klassenbreiten verschieden sind. Die relativen Häufigkeiten werden durch die Klassenbreiten dividiert. Dadurch erhält man der Reihe nach die Rechteckshöhen ^
= 0,0009 ;
^
= 0,00035
= 0,001; ^ = 0,00008.
= 0,0005; ^
= 0,0002 ; ^
= 0,0003 ;
2.5 Empirische Verteilungsfunktion
13
ri Breite
0,001 -
0,0005 -
0,0001 -
200
400
χ
800 χ
3000
Bild 2.3: Histogramm einer Klasseneinteilung
2.5 Empirische Verteilungsfunktion Bei vielen Problemen möchte man wissen, wie viele der Beobachtungswerte eine bestimmte Grenze χ nicht überschreiten. Dazu die Definition 2.2 (empirische Verteilungsfunktion): Für eine Stichprobe vom Umfang η heißt die durch , , Anzahl der Stichprobenwerte x ; mit x ; < χ Fn(x) = ί
, (2.4)
für jedes χ € R definierte Funktion F n die empirische Verteilungsfunktion oder relative Summenhäufigkeitsfunktion der Stichprobe.
An jeder Stelle χ e R ist der Funktionswert F n ( x ) der relative Anteil derjenigen Stichprobenwerte, die kleiner oder gleich, also höchstens gleich χ sind. Zur Bestimmung von F n müssen die η Stichprobenwerte der Größe nach geordnet werden. Der Zusatz empirisch wird häufig weggelassen.
x
14
Kapitel 2: Eindimensionale Stichproben
Beispiel 2.4 (vgl. Beispiel 2.1): In Beispiel 2.1 gibt die empirische Verteilungsfunktion F 5 0 ( x ) an der ganzzahligen Stelle j den relativen Anteil derjenigen Familien an, die höchstens j Kinder haben für j = 0 , 1 , . . . , 5 . Bis zur nächsten Sprungstelle bleibt die Verteilungsfunktion konstant. Aus Tab. 2.1 erhält man die Werte der Verteilungsfunktion: F50(X) = 0
für
χ < 0 ;
F 5 0 ( X ) = 0,88
für
3 < χ < 4 ;
F 5 0 ( X ) = 0,24
für
0 < χ < 1 ;
F 5 0 ( X ) = 0,96
für
4 < χ < 5 ;
F 5 0 ( X ) = 0,58
für
1 < χ < 2 ;
F.n(x) = 1
für
χ > 5.
F 5 0 ( X ) = 0,76
für
2 < χ < 3 ;
Die empirische Verteilungsfunktion ist in Bild 2.4 graphisch dargestellt. Fn(x)
1 -
0,5
0,1 -J 0
1
2
3
4
5
Bild 2.4: Empirische Verteilungsfunktion Allgemein ist F N eine monoton wachsende Treppenfunktion. Sie springt an den Stichprobenwerten um die relative Häufigkeit des Stichprobenwertes nach oben. Die empirische Verteilungsfunktion F N steigt von Null auf Eins an. Links vom kleinsten Stichprobenwert verschwindet F N , vom größten Stichprobenwert an besitzt sie den Wert 1.
2.6 Klassierte Verteilungsfunktion Aus einer Klassenbildung allein können die Beobachtungswerte Xj nicht mehr genau festgestellt werden. Man sieht nur, wie viele der Werte in den einzelnen Klassen liegen. Daher kann der vollständige Verlauf der empirischen Verteilungsfunktion nicht exakt angegeben werden. Man kann allerdings die exakten Werte der empirischen Verteilungsfunktion an den Klassengrenzen berechnen, weil aus der Klasseneinteilung abgelesen werden
2.7 Mittelwerte
15
kann, wie viele Stichprobenwerte die rechte Klassengrenze nicht übersteigen. Die Anzahl aller Beobachtungswerte, welche eine Klassengrenze nicht überschreiten, ist dann gleich der Summe der absoluten Häufigkeiten aller Klassen bis zu dieser Stelle. Daher ist die empirische Verteilungsfunktion an einer Klassengrenze gleich der Summe der relativen Häufigkeiten aller Klassen links von dieser Grenze. Verbindet man die so erhaltenen Werte geradlinig, so erhält man die sogenannte klassierte Verteilungsfunktion. Durch sie wird die tatsächliche Verteilungsfunktion approximiert. J e feiner die Klasseneinteilung ist, umso besser stimmt die klassierte Verteilungsfunktion mit der Verteilungsfunktion der Ausgangsstichprobe überein. Die klassierte Verteilungsfunktion der Klasseneinteilung aus T a b . 2.3 ist in Bild 2.5 dargestellt. Sie ist die Integralfunktion des Histogramms aus Bild
Bild 2.5: Klassierte Verteilungsfunktion
2.7 Mittelwerte Mit Hilfe von Mittelwerten sollen Aussagen über unübersichtliche Stichproben gemacht werden. Wir wollen uns auf die Angabe von vier verschiedenen Mittelwerten beschränken. Welcher dieser Mittelwerte eine Stichprobe am besten charakterisiert, hängt von der Problemstellung ab; manchmal kann der eine, manchmal ein anderer Mittelwert geeigneter sein.
2.7.1 Arithmetisches Mittel (der Mittelwert) Das Gesamteinkommen einer bestimmten Personenschicht allein enthält nicht viel Information, falls nicht gleichzeitig mitgeteilt wird, um wie viele Personen es sich dabei handelt. Division des Gesamteinkommens durch die Anzahl der entsprechenden Personen ergibt das Durchschnitts- oder das Pro-Kopf-Einkommen, das wesentlich mehr Information enthält. Bei der Berechnung des durchschnittlichen Zuckerverbrauchs wird der gesamte Zuckerverbrauch durch die Anzahl der Personen dividiert. Dieser Durchschnittswert allein lässt jedoch keine Aussage über den Verbrauch der ein-
16
Kapitel 2: Eindimensionale Stichproben
zelnen Personen zu. Manche davon werden viel mehr, manche wesentlich weniger Zucker konsumiert haben. Definition 2.3 (arithmetisches Mittel): Bei metrisch skalierten Merkmalen heißt der Zahlenwert ι
η
x = s E x i=l
ι m i
= i E V j—1
m 4
i
=
Σ rj • a j j=l
(2-5)
das arithmetische Mittel (der Mittelwert oder Durchschnittswert) der Stichprobe. O f t nennt man χ den Mittelwert und lässt den Zusatz arithmetisch einfach weg. Falls die W e r t e nur in F o r m einer Urliste gegeben sind, wird zur Berechnung des Mittelwertes die erste Gleichung benutzt. Die zweite oder dritte Darstellung verwendet man bei Häufigkeitsverteilungen. W e g e n
n - x = x 1 + x 2 + ... + xn =
η Σχί i=l
(2.6)
beschreibt das arithmetische Mittel immer die Gesamtsumme. Bei vielen Problemstellungen wird nur der Durchschnittswert χ angegeben, z.B. der Pro-Kopf-Verbrauch oder das Durchschnittseinkommen. Multipliziert man diesen Durchschnittswert mit der Anzahl, bezüglich derer der Durchschnitt gebildet wurde, so erhält man den Gesamtverbrauch bzw. das Gesamteinkommen. W ü r d e ζ. B. die gesamte Lohnsumme eines Betriebs unter allen Betriebsangehörigen gleichmäßig aufgeteilt, so müsste jede Person diesen Durchschnittswert erhalten. Beispiel 2.5 (vgl. Beispiel 2.1): Für die Anzahl der Kinder pro Familie in Beispiel 2.1 erhält man das arithmetische Mittel χ = ^ ( 1 2 · 0 + 1 7 · 1 + 9 · 2 + 6 · 3 + 4 · 4 + 2 · 5 ) = 1,58. Bei diesen 50 Familien beträgt die mittlere Kinderzahl also 1,58. I m Stabdiagramm in Bild 2.1 ist der Mittelwert χ = 1,58 bereits eingetragen. Allgemein stellt in einem Stabdiagramm das arithmetische Mittel χ den Abszissenwert des Schwerpunkts der Stäbe dar. Mittelwert einer linear transformierten Stichprobe Die Beobachtungswerte Xj werden durch y j = a + b Xj mit
a, b e R
linear transformiert. Dann lautet der Mittelwert der transformierten Stichprobe y = ( y 1 , y 2 , . . . , y n ) = (a + b x 1 , a + b x 2 , . . . 1 a + b x n ) = a + b x
2.7 Mittelwerte η y = Η Σ ^ i=l
17 = äE(a+b!ti) i=l
1 = η
η i=l
Damit transformiert sich auch der Mittelwert y nach dem gleichen Gesetz: a + bx = a + bx
für a , b e R .
(2.7)
Aus einer Klasseneinteilung allein kann der Mittelwert nicht mehr exakt berechnet werden. In diesem Fall identifiziert man alle Werte einer Klasse mit der Klassenmitte und berechnet davon den Mittelwert. Dadurch erhält man einen Näherungswert für den tatsächlichen Mittelwert.
2.7.2 Median (Zentralwert) Beispiel 2.6: Neun Personen erhalten folgende Gehälter in Euro: 2200; 2250; 2480; 2700; 2750; 2930; 3000; 3100; 16480. Die 17 Gehälter sind also bereits der Größe nach geordnet. Der Mittelwert fion χ = —g— = 4 210 liegt nicht im Zentrum der Stichprobenwerte. Links von ihm befinden sich 8 Werte, rechts davon jedoch nur ein einziger. Der sogenannte Ausreißer 16 480 zieht den Mittelwert stark nach oben. Daher suchen wir nach einem Wert, der die Stichprobenwerte in zwei ungefähr gleich große Gruppen zerlegt. Weil der Stichprobenumfang ungerade ist, gibt es genau einen Stichprobenwert, welcher in der Mitte der geordneten Stichprobenwerte liegt, nämlich der fünfte Wert 2 750. Dieser Wert ist der sogenannte Median oder Zentralwert χ der Stichprobe, also χ = 2 750. Wir nehmen noch einen weiteren Wert dazu und erhalten die Stichprobe 2150; 2 200; 2 250; 2 480; 2700; 2750 ; 2 930; 3 000; 3100; 16 480 vom Umfang η = 10 (gerade). Bei geradem Stichprobenumfang η gibt es keinen Einzelwert, sondern gleichzeitig zwei Stichprobenwerte, die in der Mitte der geordneten Stichprobe liegen. Bei geradem Stichprobenumfang nennt man die beiden in der Mitte der geordneten Stichprobe stehenden Stichproben werte Mediane (Zentralwerte). Man kann aber auch jeden zwischen diesen beiden Stichprobenwerten liegenden Zahlenwert als Median bezeichnen. Dann spricht man vom Mediauintervall [2 700; 2 750]. Um den Median eindeutig festzulegen, gibt man oft die Mitte des Medianintervalls an, hier also den Wert χ = 2 725.
18
Kapitel 2: Eindimensionale Stichproben
Der Median kann nur von ordinal oder metrisch skalierten Merkmalen berechnet werden. Weil die Merkmalsausprägungen zur Bestimmung des Medians in einer Reihenfolge angeordnet werden, muss eine Rangordnung (Größer-Kleiner-Beziehung) vorgegeben sein. Zunächst werden die Beobachtungswerte der Größe (Rangordnung) nach geordnet. Diese geordneten Werte bezeichnet man der Reihe nach mit X
(l) ^ X (2) ^
X
(3) < · · · < x ( n ) ·
Definition 2.4 (Median): Die Stichprobenwerte werden bezüglich der Rangordnung (der Größe nach) angeordnet. Bei ungeradem η ist der Median (Zentralwert) χ der in der Mitte der geordneten Reihe stehende Beobachtungswert, also χ = χ
n+1
, falls η ungerade ist.
(2-8)
Bei geradem η erfüllt jeder Merkmalswert zwischen X/n\ und X/n ^2/ \2 ' einschließlich der Grenzen die Bedingung eines Medians. Dann ist jeder Merkmalswert zwischen diesen Werten Median. Bei stetigen metrisch skalierten Merkmalen wählt man häufig das arithmetische Mittel der beiden mittleren Stichprobenwerte als Median, also X =
H
X
(S)
+ x
(S
+ 1
))
für gerades η.
(2.9)
Diese Mittelwertbildung ist allerdings bei nur ordinalen Merkmalen nicht möglich. Der Median oder Zentralwert χ einer Beobachtungsreihe kann jeweils durch eine der beiden gleichwertigen Eigenschaften erklärt werden: a) Mindestens die Hälfte der Beobachtungswerte sind kleiner oder gleich und mindestens die Hälfte größer oder gleich dem Median x . b) Höchstens die Hälfte der Beobachtungswerte sind kleiner und höchstens die Hälfte größer als der Median χ . Bestimmung des Medians aus einer Häufigkeitstabelle a) Springt die relative Summenhäufigkeit bei einem Merkmalswert von unter 0,5 auf über 0,5, so ist dieser Merkmalswert der Median. b) Ist die relative Summenhäufigkeit eines Merkmalswerts gleich 0,5, so ist jeder Wert zwischen diesem und dem nächstgrößeren Merkmalswert Median.
2.7 Mittelwerte
19
Beispiel 2.7 (vgl. Beispiel 2.1): In der nachfolgenden Tabelle 2.4 springt beim Merkmalswert 1 die relative Summenhäufigkeit erstmals auf über 0,5. Daher ist χ = 1 der Median der Anzahl der Kinder bei den 50 Familien aus Beispiel 2.1. relative Häufigkeit
relative Summenhäufigkeit
0
0,24
0,24
1
0,34
0,58
2
0,18
0,76
3
0,12
0,88
4
0,08
0,96
5
0,04
1,00
Anzahl der Kinder
r%j
* -
χ
Tab. 2.4: Bestimmung des Medians aus einer Häufigkeitstabelle Beispiel 2.8: In der nachfolgenden Häufigkeitstabelle (Tab. 2.5) ist beim Merkmalswert 20 die relative Summenhäufigkeit gleich 0,5. Daher sind 20 und 25 gleichzeitig Mediane. relative Häufigkeit
relative Summenhäufigkeit
0,18
0,18
20
0,32
0,50
χ
25
0,41
0,91
χ
30
0,09
1,00
a
j 10
Tab. 2.5: Bestimmung des Medians aus einer Häufigkeitstabelle Bestimmung des Medians aus der empirischen Verteilungsfunktion Die Bestimmung des Medians aus der Häufigkeitstabelle ergibt unmittelbar die folgende Eigenschaft: a) Falls die empirische Verteilungsfunktion auf einer Treppenstufe den Wert 0,5 annimmt, sind dieser und der nächstgrößere Merkmalswert Mediane. b) Wenn die empirische Verteilungsfunktion den Wert 0,5 nicht annimmt, ist der Median gleich dem kleinsten Merkmalswert, an dem die Verteilungsfunktion größer als 0,5 ist.
20
Kapitel 2: Eindimensionale Stichproben
Beispiel 2.9: In der nachfolgenden empirischen Verteilungsfunktion auf der linken Seite erhält man die beiden Mediane 3 und 4 bzw. das Medianintervall [ 3 ; 4 ] . Im Bild auf der rechten Seite ist der Median χ = 3 eindeutig bestimmt.
0
1 2
z=3 4
5
6
Bild 2.6: Bestimmung des Medians aus der Verteilungsfunktion
Median bei Klasseneinteilungen Aus einer Klasseneinteilung allein lässt sich der Median nicht mehr exakt bestimmen. Man kann nur diejenige Klasse feststellen, in welcher der Median enthalten ist. Als Näherungswert für den Median wählen wir denjenigen Wert, an dem die klassierte Verteilungsfunktion aus Abschnitt 2.6 den Wert ^ annimmt. Das ist diejenige Stelle, die das Histogramm der relativen Klassenhäufigkeiten (vgl. Bild 2.3) in zwei gleich große Bereiche mit dem jeweiligen Flächeninhalt 0,5 teilt. Eigenschaften des Medians Im Gegensatz zum Mittelwert liegt der Median immer im Zentrum der geordneten Stichprobenwerte. Er ist unempfindlich gegenüber Ausreißern. Der Median kann nicht nur bei metrisch skalierten, sondern auch bei ordinalen qualitativen Merkmalen berechnet werden, bei denen die Berechnung des arithmetischen Mittels gar nicht möglich ist. Zur Bestimmung des Medians benötigt man nur eine Anordnung (Rangreihenfolge) wie ζ. B. bei den Handelsklassen bestimmter Lebensmittel.
2.7 Mittelwerte
21
2.7.3 Harmonisches Mittel Falls ein Autofahrer immer die gleichen Zeiten mit jeweils konstanten Geschwindigkeiten fährt, ist die Durchschnittsgeschwindigkeit das arithmetische Mittel der Einzelgeschwindigkeiten. Diese Mittelwertbildung darf jedoch nicht mehr benutzt werden, wenn gleich oder gar verschieden lange Strecken mit verschiedenen Geschwindigkeiten gefahren werden. Dazu das Beispiel 2.10: Ein Autofahrer möchte eine Strecke von 450 km fahren. Für die Zeitplanung geht er von folgender Vorstellung aus: jeweils ein Drittel der Strecke möchte er mit den konstanten Geschwindigkeiten (in km/h) Xj = 150, x 2 = 100 und x 3 = 75 fahren. Gesucht ist die Durchschnittsgeschwindigkeit bei Einhaltung dieser Bedingungen. In Tab. 2.6 sind die für die einzelnen Strecken benötigten Zeiten angegeben.
Streckenlänge
Durchschnittsgeschwindigkeit in ^jp
benötigte Zeit in Stunden
150
150
1
150
100
1,5
150
75
2
Tab. 2.6: Tabelle zur Berechnung des harmonischen Mittels Für die Gesamtstrecke 450 km werden 4,5 Stunden benötigt. Daraus erhält man die Durchschnittsgeschwindigkeit * h = f f = 1 0 0 km/h. Dieser Durchschnittswert ist kleiner als das arithmetische Mittel der drei Einzelgeschwindigkeiten χ = i ( 1 5 0 -I- 100 + 75) =
» 108,33.
Die Durchschnittsgeschwindigkeit kann folgendermaßen dargestellt werden: ^
h
_ 450 _ 450 _ 1 ~ 4,5 ~ 1 M 4 . I 5 0 j . 1 5 0 ~ 150 Μ , 1 , J_\ 150 100 75 450 V150 100 75 / _
1 3 \150
100
75/
Im Nenner dieses Bruches steht das arithmetische Mittel der reziproken Stichprobenwerte jq-, ^ und ^ . Man nennt x h das harmonische Mittel der Beobachtungswerte.
22
Kapitel 2: Eindimensionale Stichproben
Definition 2.5 (harmonisches Mittel): Das harmonische Mittel der Stichprobe ( x j , x 2 ,. ., XjJ mit Xj > 0 für alle i ist erklärt durch ψ — _ η _ 1 (2.10) h η ! 1 η ! τ λ It — Χ: η L, χ.1 ί=1 1 ΐ=1 Das harmonische Mittel ist der Kehrwert (reziproke Wert) des arithmetischen Mittels der reziproken Beobachtungswerte ^ , i = 1, 2 , . . . , n. Beispiel 2.11 (Durchschnittspreis beim Kauf für gleiche Beträge zu verschiedenen Preisen): Von einer Ware werde n-mal zu verschiedenen Preisen jeweils für den gleichen Betrag c gekauft. Zwischen den gekauften Mengen Mj und den zugehörigen Preisen pj pro Mengeneinheit gilt also die Beziehung · pj = c (konstant). In Abhängigkeit vom Preis betragen die Kaufmengen M ; = p;. 1 Damit gilt: n
Gesamtpreis:
η • c;
Gesamtmenge:
n
Μ = Σ Μ· = Y\ ^ . - . 1 1=1
. . γϊ 1=1 1
Hieraus erhält man den Durchschnittspreis n-c _ η _ 1 _— _ P h Μ " -L + J - + + J _ ~ I ( J _ + J_ + +1Λ · η + + + Pi P2 Pn ΐΡι Ρ2 · · · Ρ η ; Beim Kauf zu verschiedenen Preisen für jeweils gleiche Beträge ist der Durchschnittspreis das harmonische Mittel der η Einzelpreise.
2.7.4 Geometrisches Mittel Beispiel 2.12 (mittlere Preissteigerung): Während η Jahren stiegen die Preise für eine bestimmte Ware der Reihe nach um ρ χ , p 2 , . . . , p n %. Prozentuale Preissteigerung bedeutet dabei, dass der zu Beginn des i-ten Jahres gültige Preis am Ende des Jahres mit dem Preissteigerungsfaktor qj = l + p j / 1 0 0 multipliziert werden muss. Mit dem Ausgangspreis Α erhält man damit nach η Jahren den Endpreis Ej = A - q i - q 2 - . . . - q n . Die durchschnittliche (mittlere) Preissteigerung ρ ist diejenige jährlich konstante Preissteigerung, die nach η Jahren zum gleichen Endpreis geführt hätte wie die verschiedenen Preissteigerungen. Mit dem konstanten Steigerungsfaktor q = l + p/100 erhält man den Endpreis E2 = A - q n . Gleichsetzen von E x und E 2 ergibt
2.8 Quantile und Quartile q11 = q i - < i 2 · · · · · % ;
23 q =
Μ qi · q 2 · · · · · q n ·
Der mittlere Preissteigerungsfaktor q ist das sogenannte geometrische Mittel der einzelnen Preissteigerungsfaktoren. Hieraus erhält man die mittlere prozentuale Preissteigerung als 100 · (q — 1) %. Definition 2.6 (geometrisches Mittel): Das geometrische Mittel der η positiven Beobachtungswerte X j , x 2 , . . . , XJJ ist erklärt durch xg=
x x · x 2 · . . . ·Xj,
für Xj > 0 für i = 1 , 2 , . . . , n .
(2-11)
Mit Hilfe des geometrischen Mittels können durchschnittliche Wachstumsfaktoren berechnet werden.
2.7.5 Vergleich der verschiedenen Mittelwerte Es gibt keine allgemeine Ungleichung zwischen dem arithmetischen Mittel und dem Median. Einmal kann der eine Wert, ein anderes Mal der andere größer sein. Der Grund dafür ist die Empfindlichkeit des arithmetischen Mittels gegenüber Ausreißern. Falls alle Stichprobenwerte positiv sind, können das arithmetische, das geometrische und das harmonische Mittel miteinander verglichen werden. Wenn alle η Stichprobenwerte übereinstimmen, sind diese drei Mittelwerte gleich, also = x g = χ = Xj
für x x = x 2 = . . . = XJJ > 0 .
(2.12)
Falls nicht alle η Werte der Beobachtungsreihe gleich, also mindestens zwei Beobachtungswerte voneinander verschieden und alle X; > 0 sind, gilt allgemein xh ; + nx2 i=l
·
Division durch η — 1 liefert die für die praktische Rechnung nützliche Formel
Wenn alle Stichprobenwerte in der Nähe des Mittelwertes χ liegen, ist die Varianz s 2 und damit auch die Standardabweichung s klein. Die Varianz verschwindet nur dann, wenn sämtliche η Beobachtungswerte übereinstimmen, also nur für x 1 = x 2 = . . . = x ^ . Bemerkung: Zunächst wäre es naheliegend, bei der Varianz nicht durch η — 1, sondern durch η zu dividieren, also die mittlere quadratische Abweichung §2 = A E ( x i - x ) 2 - i I ^ i s 2 < s 2 (2.21) i—1 2 zu benutzen. In der beurteilenden Statistik hat jedoch s eine größere Anwendungsmöglichkeit als s 2 . Wegen s 2 > s 2 verwendet man damit einen Ausdruck, der etwas größer ist als die mittlere quadratische Abweichung. Anstelle der Abstandsquadrate vom Mittelwert χ könnte man auch Abweichungsquadrate bezüglich einer beliebigen reellen Zahl c wählen, also n
1
i=l
i-c)2·
(2.22)
Für jede beliebige Zahl c erhält man E(xi-c)2 i=l
=
£ [ ( x i - x ) + (x-c)]2 i=l
=
£(xi-x) i=l
2
+ 2 ( x - c ) f : ( x i - x ) + η · (χ —c) 2 . vi = l V ' = 0
2.9 Streuungsmaße (Abweichungsmaße)
27
Es gilt also der Steinersche Verschiebungssatz: π 0 η Σ (x; — c) = Σ (xj — x) + η · (χ — c) i=l 1=1
für jede Konstante c.
(2.23)
Für c = χ erhält man hieraus £(Xi-X)2> 1 £ ( χ . _ χ ) 2 = s2 f ü r x / x . (2.24) n 1 i=l i=l Die mittleren quadratischen Abweichungen sind nach dem Steinerschen Verschiebungssatz bezüglich des Mittelwerts χ minimal im Gegensatz zu den mittleren absoluten Abweichungen, bei denen das Minimum beim Median χ angenommen wird. 11
1
1
Beispiel 2.13 (vgl. Beispiele 2.1 und 2.5): In Beispiel 2.1 erhält man die Varianz s 2 = ^ ( 1 2 · 0 2 + 17 · l 2 + 9 · 2 2 + 6 · 3 2 + 4 · 4 2 + 2 · 5 2 - 50 · 1,58 2 ) « 1,9629. Varianz einer linear transformierten Stichprobe Die Stichprobe χ = (χ χ , x 2 , . . . , x„) besitze den Mittelwert χ und die Varianz . Die lineare Transformation y = a + b χ mit yj = a + b X; für i = 1 , 2 , . . . , n, a, b g R, besitzt wegen y = a + b x die Varianz sj =
i-y)2 = ^ E i a
= b2.AT|i(xi-x) Damit gilt allgemein «£+bx = b 2 · s 2 ;
2
+ bxi-a-bx)2
= b2l.s2.
s a + b x = | b | · s x für a, b 6 R.
(2.25)
Eine Parallelverschiebung (a beliebig, b = 1) ändert also die Varianz und Standardabweichung nicht. Falls alle Stichprobenwerte mit b multipliziert werden, ändert sich die Varianz um den Faktor b 2 und die Standardabweichung um den Faktor | b |, also um den Betrag von b. Allgemein kann man zeigen, dass für s > 0 die mittlere absolute Abweichung d^ kleiner als die Standardabweichung s ist, also
dx = s Σ 1 - χ| < * i=l )
1
! Σ (*i
x) 2 = s für s > 0 .
(2.26)
Daher ist die Standardabweichung s ein geeignetes Abweichungsmaß.
28
Kapitel 2: Eindimensionale Stichproben
2.10 Aufgaben Aufgabe 2.1: Bei 11 Personen wurde der Intelligenzquotient gemessen. Dabei ergaben sich die Werte 90; 111; 82; 115; 95; 103; 121; 74; 116; 124; 78. Berechnen Sie das arithmetische Mittel, den Median und die Standardabweichung der Stichprobe. Aufgabe 2.2: Eine kleine Pension verfügt über 10 Betten. Während eines Jahres wurde registriert, wie viele Betten täglich belegt waren. Dabei ergaben sich folgende Häufigkeiten: belegte Betten
0
1
2
3
4
5
6
7
8
9
10
Häufigkeit
0
3
9
15
31
39
49
47
54
57
61
a) Zeichnen Sie ein Stabdiagramm für die relativen Häufigkeiten. b) Skizzieren Sie die empirische Verteilungsfunktion. c) Bestimmen Sie das arithmetische Mittel und den Median. d) Berechnen Sie die Standardabweichung. Aufgabe 2.3: Von der Stichprobe Werte
-1
absolute Häufigkeiten
9
0
2
h2
h3
seien die beiden absoluten Häufigkeiten h 2 und h 3 unbekannt. Man kennt jedoch das arithmetische Mittel χ = 1 und die Varianz s 2 = 1,56. Berechnen Sie hieraus h 2 und h 3 . Aufgabe 2.4: Es seien χ = (χ χ , x 2 ,..., x n ) und y = (y lf y 2 , . . . , y n ) zwei Stichproben vom gleichen Umfang n. Durch (xj + y x , . . . ,χ^ + y n ) wird die Summe x + y zweier Stichproben vom gleichen Umfang η erklärt. a) Zeigen Sie, dass für das arithmetische Mittel allgemein gilt x + y -
x + y.
b) Geben Sie ein Gegenbeispiel an, aus dem hervorgeht, dass die Additivität für die Varianzen nicht gilt.
2.10 Aufgaben
29
Aufgabe 2.5: Gegeben ist die Klasseneinteilung Klasse
Klassenhäufigkeit
Kj =(0;200]
10
K 2 = (200;400]
21
K 3 = (400;500]
21
K 4 = (500;600]
20
K 5 = (600;800]
19 9
K 6 = (800; 1000]
a) Zeichnen Sie ein flächenproportionales Histogramm für die relativen Klassenhäufigkeiten. b) Zeichnen Sie die klassierte Verteilungsfunktion. c) Bestimmen Sie Näherungswerte für den Mittelwert und den Median. d) Bestimmen Sie Näherungswerte für das 10 %- und das 95 %-Quantil. Aufgabe 2.6: Bei einer Klausur erreichten 50 Studierende folgende Punktzahlen: 18, 15, 12, 16, 8, 4, 9, 19, 6, 10, 20, 14, 13, 11, 16, 7, 15, 17, 10, 3, 9, 6, 12, 17, 8, 11, 14, 18, 5, 13, 11, 14, 12, 13, 7, 12, 14, 5, 13, 6, 18, 13, 16, 11, 15, 15, 12, 8, 17, 12. a) Bestimmen Sie das arithmetische Mittel, den Median und die Standardabweichung der Stichprobe. b) Für die Benotung gelte folgender Schlüssel: Punkte
0-4
Zensur
6
5-8
9-12
5
4
13-16 3
17-18 2
19-20 1
Zeichnen Sie mit dieser Klasseneinteilung ein flächenproportionales Histogramm für die relativen Häufigkeiten der Punkte. c) Berechnen Sie das arithmetische Mittel und den Median der Zensuren. Aufgabe 2.7: In einem bestimmten Land betrug die Inflationsrate (in %) während 10 Jahren der Reihe nach 3,6; 4,5; 5,2; 4,8; 4,7; 3,9; 3,2; 3,5; 3,9; 4,2. Berechnen Sie die mittlere Inflationsrate pro Jahr.
Kapitel 2: Eindimensionale Stichproben
30
Aufgabe 2.8: Ein Spekulant kaufte eine Aktie zum Kurswert von 500 EUR. Nach einem Jahr stieg sie um 20 Prozent auf 600 EUR, in nächsten Jahr fiel sie um 10 Prozent auf 540 EUR, danach fiel sie um 15 Prozent auf 459 EUR, im letzten Jahr stieg sie um 10 Prozent auf 504,9 EUR. a) Berechnen Sie das arithmetische Mittel der prozentualen Steigerungen. b) Um wie viel Prozent ist die Aktie im Mittel pro Jahr gestiegen? Aufgabe 2.9: Auf je einer von vier unterschiedlich modernen Maschinen werden nacheinander Werkstücke gefertigt. Die Bearbeitungszeiten (in Minuten pro Stück) sind in der nachfolgenden Tabelle zusammengestellt: Maschine
1
2
3
4
Bearbeitungszeit
15
20
30
40
Berechnen Sie durch eine geeignete Mittelwertsberechnung die durchschnittlichen Herstellungszeiten, falls a) auf jeder Maschine die gleiche Anzahl hergestellt wird; b) jede Maschine gleich lang im Einsatz ist; c) auf den Maschinen 1, 2, 3 und 4 der Reihe nach Sj = 300, s 2 = 250, s 3 = 250 und s 4 = 200 Stück hergestellt werden. Lösen Sie die Aufgaben a) — c) für den allgemeinen Fall, wo η Maschinen die Bearbeitungszeiten t; benötigen und im Teil c) die Stückzahlen s ; herstellen für i = 1 , 2 , . . . , n. Aufgabe 2.10: Ein Autofahrer möchte die Strecke Stuttgart - München mit der konstanten Geschwindigkeit 150 k m / h fahren. Die Rückfahrt möchte er konstant mit 120 k m / h fahren. Bestimmen Sie die Durchschnittsgeschwindigkeit, falls auf beiden Strecken die geplanten Geschwindigkeiten eingehalten werden. Aufgabe 2.11: Eine Stichprobe vom Umfang η = 50 besitzt den Mittelwert χ = 502,8, den Median χ = 499,2 und die Varianz s 2 = 132,5. Bestimmen Sie hieraus die mittlere quadratische Abweichung vom Median, also den Zahlenwert i£(xi-x)2· i=i
Kapitel 3: Zweidimensionale (verbundene) Stichproben An η Merkmalsträgern werden gleichzeitig die Ausprägungen zweier verschiedener Merkmale festgestellt. Beim i-ten Merkmalsträger erhält man dabei ein Paar (xj, yj) von zwei Merkmalsausprägungen. Da beide Merkmalsausprägungen Xj und jeweils am gleichen Individuum festgestellt werden, gehören sie zusammen. Man nennt sie auch verbundene Werte. Die Gesamtheit aller η Paare bilden die zweidimensionale Stichprobe (Beobachtungsreihe oder Urliste) (x,y) ^ ( ( x ! , y 1 ) , ( x 2 , y 2 ) , . . . , ( x n , y j ) . Die η Wertepaare können in einer Tabelle übersichtlich dargestellt werden: Beobachtungseinheit
1
2
1 x2
Ausprägung des ersten Merkmals
X
Ausprägung des zweiten Merkmals
yi
. . i . ..
..
X;
.··
X2 · .. yj
. ··
η ^
yn
Betrachtet man jeweils nur eines der beiden Merkmale, so erhält man die beiden eindimensionalen Stichproben χ = (x1, x 2 , . . . , xn)
und
y = (yx, y 2 , . . . , yn),
die sogenannten Randstichproben, von denen die in Kapitel 2 eingeführten Größen berechnet werden können.
3.1 Streuungsdiagramme Beispiel 3.1: Von 20 Personen wurde die Körpergröße χ (in cm) und das Körpergewicht y (in kg) festgestellt. Die auf ganze Zahlen gerundeten Messwerte sind in der nachfolgenden Tabelle zusammengestellt. Person Größe Gewicht
1
2
3
4
5
6
7
8
9
10
170 74
162 61
171 68
178 81
175 73
165 62
169 71
173 73
182 83
176 78
11
12
13
14
15
16
17
18
19
20
160 59
167 69
171 72
163 65
179 76
170 75
173 71
168 72
177 75
166 71
Kapitel 3: Zweidimensionale (verbundene) Stichproben
32
Die 20 Zahlenpaare werden als Punkte in einem kartesischen Koordinatensystem eingezeichnet. Auf der Abszissenachse wird die Körpergröße, auf der Ordinatenachse das Gewicht abgetragen. Der i-te Merkmalsträger liefert das Wertepaar (xj, y ; ), das in Bild 3.1 als Punkt in der zweidimensionalen Zahlenebene dargestellt wird. Damit kann die zweidimensionale Stichprobe als Punktwolke dargestellt werden. Eine solche Darstellung heißt Streuungsdiagramm.
80 -
70 -
6 0 •*
160
170
180
Bild 3.1: Streuungsdiagramm Die Darstellung zweier kardinaler Merkmalsausprägungen in einem Streuungsdiagramm ist nur dann sinnvoll, wenn alle Paare (x ; , y ; ) verschieden sind. Dies ist im Allgemeinen bei stetigen Merkmalen der Fall, wenn nur genau genug gemessen wird. Bei der ganzzahligen Rundung werden bei sehr großem Umfang η manche Paare übereinstimmen. Dann müsste an dem entsprechenden Punkt die Häufigkeit angegeben oder eine andere graphische Darstellung verwendet werden.
3.2 Kontingenztafeln (Häufigkeitstabellen) Beide Merkmale seien diskret und sollen nur endlich viele verschiedene Ausprägungen besitzen. Die Ausprägungen des ersten Merkmals bezeichnen wir mit a x , a 2 , . . . , a m , die des zweiten mit bj, b 2 , . . . , bj. Insgesamt gibt es dann ml verschiedene geordnete Paare, nämlich (aj, b k )
für
j = 1, 2 , . . . , m
und
k = 1,2,...,/.
Jedes Paar (xj, yj) für i = 1 , 2 , . . . , η der verbundenen Stichprobe muss dann mit einem dieser Paare übereinstimmen. Die Anzahl der Beobachtungspaare (xj,yj), welche gleich ( a j , b j J sind, ist die absolute Häufigkeit von (aj, bjJ. Wir bezeichnen sie mit h
jk = h n ( a j ' b k)
für
j = l,2,...,m;
k = 1,2,...,/.
3.2 Kontingenztafeln (Häufigkeitstabellen)
33
Division durch den Stichprobenumfang η ergibt die relative Häufigkeit r jk
= rn(aj-bk) = Für die Summen aller ml Häufigkeiten (Doppelsummen) gilt allgemein m
l
m
Σ Σ V = n; j=l k=l
l
Σ Σ r jk = 1 · j=l k=l
Die absoluten bzw. relativen Häufigkeiten können in einem rechteckigen Schema, der sogenannten Kontingenztafel, übersichtlich dargestellt werden. Dazu trägt man in die erste Spalte die m Ausprägungen a j , a 2 , . . . , a m des Spaltenmerkmals und in die erste Zeile die / Ausprägungen , b 2 ,. -., des Zeilenmerkmals ein. So entstehen ml Plätze für die absoluten bzw. relativen Häufigkeiten hj k bzw. rj k . Diese werden an derjenigen Stelle eingetragen, an der sich die Zeile von aj mit der Spalte von b k kreuzt. W
b2
al
hn
a2
h 21
aj
hü
am
Vi h-i
Summe
.
. bk
. . . b,
h 12
·
•
hik
· ·•
h 22
·
•
h 2k
'
•
h2/
hj2
.
•
h jk
· ·•
V
h m2
·
•
h mk
h. 2
.
. h. k
·
hl-
• hm/ .. .
Summe
h.,
h2.
hm· h.. = n
Tab. 3.1: Kontingenztafel für die absoluten Häufigkeiten w
b2
.
al
rll
r12
· . . rlk
a2
r 21
r22
·
aj
rji
r j2
· . . rjk
am
r ml
rm2
'
• rmk '
Γ ·ι
r. 2
.
. r. k
Summe
. bk
. • b, . • rlJ
• r2k ·
•
. • •
T
21
Summe r l· Γ2·
rj'
rj·
rm /
rm·
. • r·/
r.. = 1
Tab. 3.2: Kontingenztafel für die relativen Häufigkeiten Im Falle m = / = 2 heißt die Kontingenztafel eine Vierfeldertafel.
34
Kapitel 3: Zweidimensionale (verbundene) Stichproben
3.3 Kovarianz und Korrelationskoeffizient Ausgangspunkt ist eine zweidimensionale Stichprobe (x,y) = ( ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x n , y n ) ) , die auch in einer Kontingenztafel dargestellt sein kann. Falls beide Merkmale metrisch skaliert sind, besitzen die beiden eindimensionalen Randstichproben χ = (χ1,χ2,...,χη)
y = (yvy2
und
yn)
die Mittelwerte
x
n n —1i=l η Σχί! y1i=l — nEyi
und die Varianzen
Definition 3.1 (Kovarianz und Korrelationskoeffizient): Beide Merkmale seien kardinal skaliert. Dann heißt
s
xy-nli.E(xi x)-(yi y)
(3.1)
die (empirische) Kovarianz der Stichprobe. Für s x > 0 und s y > 0 ist
r- r
—
y
η E(xi~x)(yi-y)
-
i=l
(3.2)
der (empirische) KorrelationskoeSizient der Stichprobe. Die Kovarianz ist vom Maßstab abhängig, nicht jedoch der Korrelationskoeffizient. Es gilt folgende Umformung s
1 Ii _ _ 1 η ^ xy = ΪΓ^Τ . ^ ( x i - x M y i - y ) = 5 τ γ ϊ E ( x i y i - x i y - x y j + xy) _
—
η 1 χ — X ^ x i y — n x y - n x y + n x y _— 1 Σ η — 1 i=l η — 1 i=l ΐ y j
nx
y ·
Damit erhält man die Darstellung π - nxy (3.3)
3.3 Kovarianz und Korrelationskoeffizient
35
Satz 3.1 (Eigenschaften des Korrelationskoeffizienten): Für den Korrelationskoeffizienten r einer zweidimensionalen Stichprobe gelten allgemein folgende Eigenschaften: a)
| r | < 1, d . h . - 1 < r < 1.
b)
| r | = 1 gilt genau dann, wenn alle Punkte der Stichprobe auf der Regressionsgeraden y -y = -^-·(χ-χ) s
x
(vgl. Abschnitt 3.5.1) liegen, also nur für y; = y + - γ - • (x; - x) s
für i = 1 , 2 , . . . , n.
x
Im Falle r = + 1 ist die Steigung dieser Geraden positiv, für r = — 1 ist sie negativ. Beweis: ο
0 folgt hieraus 1 - r 2 > 0, r 2 < 1, also | r | < 1. Nur für r 2 = 1 verschwindet die Quadratsumme. Dies ist jedoch nur dann möglich, wenn sämtliche Summanden gleich Null sind, also für g (yi — y) = ^ - ( x j - x ) s
für i = l , 2 , . . . , n .
x
Für | r | = 1 liegen damit alle η Punkte auf der sogenannten Regressionsgeraden (vgl. Abschnitt 3.5.1) y-y = -öMx-x)·
(3.5)
Im Falle r = + 1 ist die Kovarianz s x y und damit auch die Steigung positiv, für r = — 1 negativ. Damit sind die Behauptungen bewiesen.
Kapitel 3: Zweidimensionale (verbundene) Stichproben
36
In (3.4) steht die Summe der vertikalen Abstandsquadrate der η Beobachtungswerte (χ;, y ; ), i = 1, 2 , . . . , η von der Regressionsgeraden (3.5). Je näher | r | bei 1 ist, umso kleiner wird diese quadratische Abweichungssumme. Aus diesem Grund ist der Korrelationskoeffizient r ein Maß für den linearen Zusammenhang der Ausprägungen zweier Merkmale. Je größer | r | ist, umso mehr sind die Beobachtungspaare in der Nähe einer Geraden konzentriert. Nur für | r | = 1 liegen alle η Wertepaare auf einer Geraden. Aus einem solchen Zusammenhang kann jedoch keineswegs geschlossen werden, dass eines der beiden Merkmale vom anderen abhängt. Die Ursache für einen solchen Zusammenhang könnte nämlich ein drittes Merkmal sein, von dem beide abhängig sind. Dann spricht man von einer Schemkorrelation . Für r > 0 nennt man die Beobachtungspaare positiv korreliert. Die Punktwolke verläuft dann von links nach rechts mit steigender Tendenz. Für r < 0 sind die Beobachtungspaare negativ korreliert. Die Punktwolke hat dann von links nach rechts fallende Tendenz. Im Falle r = 0, also für s x y = 0 nennt man die Beobachtungspaare unkorreliert. Dann ist in der Punktwolke keine einheitliche Tendenz erkennbar. Liegt r in der Nähe von 0, so heißen die Beobachtungspaare schwach korreliert. Beispiel 3.2 (vgl. Beispiel 3.1): Für die Stichprobe der Körpergrößen Xj und Gewichte y; erhält man durch elementare Rechnung: 20
20
Σ χ ; = 3415; i=l
20
£ x ? = 583787; i=l
20
£ yj = 1 429 ; £ y? = 102 841; i=l i=l
20
Σ χ ^ ; = 244 639. Hieraus folgt x = 3415 _ 170,75
;
= i - ( 5 8 3 787 - 20 · 170,752) » 35,5658 ;
s x « 5,964; y = ! i ^ = 71,45 ; s y « 6,236; Kovarianz:
s2y = i (102 841 - 2 0 - 7 1 , 4 5 2 ) « 38,8921;
s x y = ^ (244 639 - 20 · 170,75 · 71,45) « 33,5395 ;
Korrelationskoeffizient: r Äi ~p—Λ» . ö—7T777» ^ 0,902. 5,9o4 · ο,ζόο Körpergröße und Körpergewicht sind stark positiv korreliert. Hier gilt das Motto: "je größer, umso schwerer". Dies ist nur als Tendenz richtig. Ausnahmen sind bereits in den Stichprobenwerten erkennbar.
3.4 Rangkorrelationskoeffizient von Spearman
37
In Bild 3.2 sind einige Punktwolken mit den dazugehörigen Korrelationskoeffizienten abgebildet.
•
• •
r = -0,00871
r = 0,9854
r = 1
·
· ·
r = -1
r = -0,979
r = 0,625
Bild 3.2: Streuungsdiagramme mit verschiedenen Korrelationskoeffizienten
3.4 Rangkorrelationskoeffizient von Spearman Beispiel 3.3: Zwei Weinexperten X und Y mussten 8 Weinsorten bezüglich der Qualität in eine eindeutig bestimmte Reihenfolge bringen. Dabei ergaben sich die Plätze Sorte i
1
2
3
4
5
6
7
8
Reihenfolge von X
2
5
6
1
8
3
4
7
Reihenfolge von Y
1
5
7
3
8
2
4
6
Kapitel 3: Zweidimensionale (verbundene) Stichproben
38
Von den Prüfern konnten die Ergebnisse nicht metrisch gemessen werden. Es handelt sich daher nur um ein ordinales Merkmal mit einer "Besser als" - Beziehung. Von diesen Rangzahlen kann der Korrelationskoeffizient r nach Abschnitt 3.3 bestimmt werden. Wären die beiden Prüfer zur gleichen Reihenfolge gelangt, so wäre der Korrelationskoeffizient r der Rangzahlen gleich 1, bei völlig entgegengesetzter Reihenfolge wäre r = — 1. Aus den Paaren der Reihenfolgen erhält man f>
i=l
i y i
= 200;
I > i =
i=l
f > i = 36;
£ x? = Σ y? = 204
i=l
i=l
und den Korrelationskoeffizienten der Rangzahlenpaare \2
r -
200 - 8 - ( I ) 204-8-(|)
2 λ
38
Ü «
0,9048.
204-8.(|)
Da der Rangkoeffizient relativ groß ist, haben beide Prüfer ähnliche Tendenzen in ihrer Bewertung. Bei Merkmalen, die nur nach einer ordinalen und nicht nach einer metrischen Skala geordnet werden können, ist die Berechnung des Korrelationskoeffizienten nach Abschnitt 3.3 nicht möglich, falls die Merkmalsausprägungen keine Zahlenwerte sind. Sind die Ausprägungen eines nur ordinalen Merkmals zahlenmäßig verschlüsselt, so könnte man den Korrelationskoeffizienten r zwar formal berechnen. Da die Differenzen X; — χ und yj —y jedoch nicht messbar sind, wäre der Korrelationskoeffizient r genauso wie die Mittelwerte eine willkürliche Größe. Aus diesem Grund sollte bei nur ordinal skalierten Merkmalen der Korrelationskoeffizient r aus Abschnitt 3.3 nicht verwendet werden. Bei vielen Sportarten können die Ergebnisse nicht metrisch gemessen werden, ζ. B. beim Eiskunstlauf oder bei einem Tanzturnier. Die Punktrichter sind jedoch gezwungen, eine Reihenfolge (Rangfolge) festzulegen. Verschiedene Punktrichter kommen oft zu unterschiedlichen Rangordnungen. Trotzdem möchte man die Ergebnisse von verschiedenen Wertungsrichtern miteinander vergleichen und ein Maß der Übereinstimmung angeben. Eine ähnliche Situation liegt bei der Verkostung von Lebensmitteln vor, ζ. B. bei der Festlegung der Güteklasse einer Weinsorte in Beispiel 3.3. 3.4.1
Rangzahlen
Die eindimensionale Beobachtungsreihe ( z ^ z j , . . . , z n ) bestehe aus Ausprägungen eines ordinal skalierten Merkmals, so dass zwischen ihnen eine natürliche Rangordnung (Reihenfolge) besteht. Bezüglich dieser Rangordnung werden die Werte wie bei der Bestimmung des Medians der Größe nach wie folgt aufsteigend geordnet
3.4 Rangkorrelationskoeffizient von Spearman Z
39
(l) — Z (2) — Z (3) — · · · — Z(n) '
(3·6)
Werden die Ausprägungen eines nur ordinal skalierten Merkmals zahlenmäßig verschlüsselt, ζ. B. durch Vergabe von Punktzahlen, so kann die Rangordnung in (3.6) nach steigender oder auch nach fallender Punktzahl festgelegt werden. Man kann vom kleinsten bis zum größten Wert oder umgekehrt sortieren. Jedem Beobachtungswert Zj der Urliste wird als Rang Rj = R(zj) die Platznummer zugewiesen, die z- in der geordneten Reihe (3.6) einnimmt. Falls alle η Werte z1 verschieden sind, ist diese Rangzuordnung eindeutig. Tritt jedoch eine Merkmalsausprägung öfters auf, so ordnet man jeder Ausprägung der gleichen Gruppe das arithmetische Mittel derjenigen Ränge zu, welche die gleichen Beobachtungswerte einnehmen. In einem solchen Fall spricht man von Bindungen. Beispiel 3.4: a) Bei einem Tanzturnier bekamen 8 Paare mit den Startnummern 1,2,3,4, 5,6,7,8 folgende Plätze (Ränge) Paar Nr.
1
2
3
4
5
6
7
8
Platznummer
3
2
5
1
7
8
4
6
Die Platznummern stellen unmittelbar die Rangzahlen der einzelnen Paare dar. b) Die Beobachtungsreihe (3; 5 ; 2 ; 5 ; 3 ; 8; 1; 5 ; 2 ) geht über in die geordnete Reihe Z
(l)
=
^ Z(2) -
Z
(3) -
2
; Z(4)
=
Z
(5)
=
3
; Z(6)
=
Z
(7)
=
Z
(8)
=
5
5 z (9) =
8
Daraus erhält man die Rangzahlen (i)
1
2
2
3
3
5
5
5
8
Rang
1
2,5
2,5
4,5
4,5
7
7
7
9
z
3.4.2 Der Spearmansche Rangkorrelationskoeffizient r s Gegeben sei eine Beobachtungsreihe zweier ordinal skalierter Merkmale (x,y) = ( ( x l t y 1 ) , ( x 2 , y2).---.(xn. yn))· Zunächst werden in jeder der beiden getrennten Stichproben x = (x1,x2,...)xn)
und
y = (yi,y2,...,yn)
·
40
Kapitel 3: Zweidimensionale (verbundene) Stichproben
die Rangzahlen R ( x ; ) und R ( y J nach Abschnitt 3.4.1 berechnet. Für die Rangsummen der η Beobachtungswerte erhält man allgemein, also auch bei mittleren Rängen (Bindungen) die Summe t R(Xi) = Σ R f r i ) = 1 + 2 + . . . + η = " ' ( " + L i=l i=l
1 }
.
(3.7)
Division durch η ergibt den Mittelwert der Ränge als R(x) = R ( y ) = i ± ±
(3.8)
Die Paare der Rangzahlen ( R ( x i ) , R ( y j ) ) , i = 1 , 2 , . . . , η bilden dann eine zweidimensionale Stichprobe von metrisch skalierten Merkmalen ( R ( x ) , R ( y ) ) = ((R(x1), R ( y i ) ) , (R(x2), R(y2)), .... (R(xn), R ( y n ) ) ) . Davon kann der gewöhnliche Korrelationskoeffizient aus Abschnitt 3.3 berechnet werden. Dabei kann die Eigenschaft (3.8) benutzt werden. Der gewöhnliche Korrelationskoeffizient der Rangzahlen feRtoRW-nRWRfr)
£R( i=l
=
X i
)R(
y i
)-
a(n+l)2 *
^ ( £R2(xi)- }(π+ΐ)2)·( £R
2
(3·9)
( y i ) - } (n+i)2)'
heißt Spearmanscher Rangkorrelationskoeffizient Dieser Rangkorrelationskoeffizient wird nach dem britischen Psychologen Charles Edward Spearman (1863 — 1945) benannt. Da r g gleich dem gewöhnlichen Korrelationskoeffizienten r der Rangpaare ist, gilt auch hier - 1 < rs < + 1 . r s = + 1 ist genau dann erfüllt, wenn die Ränge völlig gleichsinnig verlaufen, also für R ( x j ) = R ( y j ) i 1 < i < n. Im Falle r s = — 1 verhalten sich die Rangnummern vollständig gegensinnig. Falls sie bei den x-Werten steigen, fallen sie bei den y-Werten und umgekehrt. Liegt r s in der Nähe von + 1, so liegt eine stark positive Rangkorrelation vor. Wenn Xj einen hohen (niedrigen) Rangplatz hat, dann hat meistens auch y· einen hohen (niedrigen) Rangplatz und umgekehrt. Falls r g in der Nähe von — 1 liegt, so ist eine stark negative Rangkorrelation vorhanden. Hohen (niedrigen) Rängen der x-Werte entsprechen dann meistens niedrige (hohe) Ränge der y-Werte und umgekehrt. Ist r s ungefähr gleich Null, so besteht fast keine Rangkorrelation.
3.4 Rangkorrelationskoeffizient von Spearman
41
3.4.3 Berechnung von r s bei Rangzahlen ohne Bindungen Falls beide Merkmalsausprägungen jeweils nur verschiedene Rangzahlen besitzen (Rangzahlen ohne Bindung), kommen als Rangzahlen alle natürliche Zahlen von 1 bis η vor. Dann lauten die Quadratsummen Σ R 2 ( x i ) = Σ R 2 ( y i ) = ι + 2 2 + 32 + . . . + n 2 = i=l i=l
n
1
(" +
H2" +
1
0
).
(3.10)
Damit erhalten wir für den Nenner in (3.9) die Werte t R 2 ( X i ) - } ( n + l ) 2 = Σ R 2 ( Y i ) - } (η + l ) 2 H i=l i=l * _ —
n(n + l ) ( 2 n + l ) 6fi
n/
n Λ 4 Vv ''
η (η + 1) (η — 1) 12
_
2 _ — >/ ~
η ( n + l)(4n + 2 - 3n - 3) 19 12
n(n2-l) 12
also £ R 2 ( x . ) - £(n + l)2 = 4 i=l i=l
- J(n + l)2 = *
.
(3.11)
Der Rangkorrelationskoeffizient (3.9) geht dann über in 12 £ R ( x i ) - R ( y i ) - 3 n ( n + l ) 2 rS
=
—
T~2 n(n - 1 )
·
(3.12)
Wir benutzen noch die Umformung E [ R ( X i ) - R ( y i ) ] 2 = Σ Κ 2 ( χ ; ) - 2 ς R(x;) · R(y;) + Σ R2(yi) · i=l i=l i=l i=l
(3.13)
Mit (3.10) ergibt sich hieraus j f i R W - R W = i=l
n("
+
1>?-nx2)-b
=
Σ > ; -yj - n x y . i=l
Division durch η — 1 ergibt die Gleichung s 2 · b = s x y ( = Kovarianz) mit der Lösung Syy S„„ S S b = —ψ — s .s 's^ — r ' s ~ Sx χ y χ χ
(Γ
=
Korrelationskoeffizient).
Aus (1) folgt damit _ , _ _ a = y-b-x = y
s xy
— j--x .
sx
Zur Überprüfung auf ein Minimum bilden wir die zweiten Ableitungen
d2Q2(a,
b)
da 2
d 2 Q 2 (a, b) '
0. i=l i=l Daher handelt es sich um ein Minimum. Damit erhalten wir die Gleichung der Regressionsgeraden: y - y = b · (x - x ) ; η Σ ( x i - x)(yi - y )
(3.18) s
i=l Die Regressionsgerade geht durch den Punkt P ( x , y ) der Mittelwerte der beiden Randstichproben χ und y.
3.5 Regressionsrechnung
45
Bei der Korrelationsrechnung in Abschnitt 3.3 wurde in Gleichung (3.4) bereits die Summe der vertikalen Abstandsquadrate Q 2 (a, b) aller η Punkte P(xj, y ; ) von der Regressionsgeraden berechnet als Q 2 ( a , b ) = (η — 1) ·s 2 · (1 — r 2 ).
(3.19)
Beispiel 3.6 (vgl. Beispiele 3.1 und 3.2): Nach Beispiel 3.2 gilt χ = 170,75; y = 71,45; Hieraus erhalten wir
s x y « 33,5395 ; s 2 « 35,5658 .
h - ^ L · ~ 33,5395 ~ η Q/Π · b ~ s 2 ~ 35,5658 ~ U , y 4 < 5 ' y - 71,45 = 0,943 · (x - 170,75) ;
y = 0,943 · χ - 89,56725.
In Bild 3.4 ist in das Streuungsdiagramm aus Bild 3.1 die Regressionsgerade eingezeichnet.
Bild 3.4: Regressionsgerade
3.5.2 Regressionsgerade durch einen vorgegebenen Punkt Bei vielen Problemen ist bekannt, dass die Regressionsgerade durch einen bestimmten Punkt gehen muss, ζ. B. durch den Koordinatenursprung O. Gesucht ist die Gleichung der Regressionsgeraden, die durch den Punkt P ( x 0 , y 0 ) mit den Koordinaten x 0 und y 0 geht. Sie besitzt die Darstellung y - yo =
c
· ( x - x o) ·
(3.20)
Kapitel 3: Zweidimensionale (verbundene) Stichproben
46
Der Parameter c wird wie bei der Herleitung der allgemeinen Regressionsgeraden nach der Methode der kleinsten vertikalen Abstandsquadrate bestimmt. Der P u n k t P(Xj,yj) besitzt von dieser Geraden das vertikale Abstandsquadrat d
? = [ (yi — yo) — c - ( x i — x o) ] 2 ·
Damit lautet die Summe der vertikalen Abstandsquadrate Q2(C)= £ [ ( y i - y o ) - c - ( x i - x o ) ] 2 ·
(3·21)
i=l
Differenziation nach c ergibt
a c
= - 2 E [ ( y i - y o ) - c - ( x i - x o ) ] - ( x i - x o ) = 0. i=l
also η E(yi-y0)(xi-xo) -
c
i=l
η Σ(*Ϊ-*Ο)
i=l
= °
mit der Lösung E(yi-yo)(xi-xo)
c —
i=l
Σ (xi -
i=l
x
o)
2
Wegen
de'
i=l
handelt es sich tatsächlich um ein Minimum. Damit lautet die Gleichung der Regressionsgeraden durch den Punkt P(xg · yo) : η E(yi-y0)(xi-xo) y - y 0 = C - ( X - X o ) mit c = . χ
(3.22)
χ
Σ( ι- ο)
i=l
Die Formel für die Steigung c unterscheidet sich von derjenigen für den allgemeinen Regressionskoeffizienten b nur dadurch, dass anstelle der Mittelwerte χ und y die Koordinaten xQ und y 0 des Punktes stehen, durch den die Regressionsgerade gehen soll.
3.5 Regressionsrechnung
47
3.5.3 Von Parametern abhängige Regressionsfunktionen Viele Streuungsdiagramme lassen sich durch eine Regressionsgerade nur schlecht anpassen. Manchmal ist ein Parabelansatz y = b0 + b 1 x + b 2 x 2 oder ein Polynom m-ten Grades m . y=Ebkxk k=0 besser. Beim exponentiellen Wachstum liegen die Punkte des Streuungsdiagramms meistens in der Nähe einer Funktion mit der Gleichung y = f(x) = a — b e - c x
mit drei Konstanten a, b, c > 0 .
Bei dieser Funktion gilt lim f (x) = a . X—»oo Für große χ nähert sich die abhängige Variable y immer mehr der "Sättigungsgrenze" a. Die drei Parameter a , b und c sollen so bestimmt werden, dass das Streuungsdiagramm möglichst gut durch diese Funktion angepasst wird. Allgemein betrachten wir eine von den / Parametern a 1 , a 2 , . . . , a^ abhängige Regressionsfunktion y = f ( a j , a 2 , . . . , a j , x ) mit a ; G R für i = 1, 2 , . . . , n.
(3.23)
Mit den / Parameterwerten ist die Regressionsfunktion dann eindeutig bestimmt. Nach dem Gaußschen Prinzip der kleinsten Quadrate erhält man die optimalen Parameter durch die Minimierung der Summe der vertikalen Abstandsquadrate Q 2 ( a 1 , a 2 , . . . , a i ) = £ [yj - f(a x , a 2 , . . . , a,,X;) l 2 -> min. i=l
(3.24)
Falls die Funktion f nach allen l Parametern stetig differenzierbar ist, erhält man die Parameter als Lösungen des Gleichungssystems
^ k
= -2 t j—1
x O ] - a f ( a i ' % ' a - - ' a / , X i ) = 0 (3.25) k für k = 1 , 2 , . . . , /.
3.5.4 Linearisierung durch Transformationen Durch eine geeignete Transformation (Substitution) kann die Berechnung einer Regressionsfunktion manchmal so vereinfacht werden, dass für die transformierten Beobachtungswerte eine bereits bekannte einfachere Formel benutzt werden kann.
Kapitel 3: Zweidimensionale (verbundene) Stichproben
48
Beispiel 3.7 (Substitution): In der speziellen Regressionsfunktion y = a + b x a , α e R vorgegeben mit a / 0, a, b 6 R gesucht kommt nur die Potenz x a der Einflussgröße χ vor. Durch die Einführung der neuen Variablen ζ = χ α geht die Regressionsfunktion über in die Regressionsgerade y = a + bz. Für die transformierten Werte z ; = x·* können unmittelbar die Formeln für die Regressionsgerade aus Abschnitt 3.5.1 übernommen werden. Beispiel 3.8 (Logarithmieren): Zur Bestimmung der beiden Parameter c und b der Regressionsfunktion y = cxb;
c,x>0
könnte man beide Seiten formal logarithmieren. In lny = lnc + b · In χ erhält man mit den transformierten Variablen w = In y und ζ = In χ das linearisierte Regressionsmodell w = lnc + b z -
a + bz
mit a = lnc.
Mit den logarithmierten Stichprobenwerten Zj = In Xj und w; = In yj können die Parameter lnc und b mit Hilfe der Formeln für die lineare Regression geschätzt werden. Diese Linearisierung wird in der Praxis zwar sehr oft durchgeführt, doch leider viel zu oft falsch interpretiert. Bei der Rücktransformation entsteht nämlich ein wesentliches Problem. Den logarithmierten Werten wird nach dem Prinzip der kleinsten vertikalen Abstandsquadrate eine Gerade optimal angepasst. Der so erhaltene Parameter a = In c könnte zwar prinzipiell zurücktransformiert werden durch c = e a . Die so entstandene Potenzfunktion
besitzt nicht mehr die Eigenschaft, dass die Summe der vertikalen Abstandsquadrate der Punkte P ( x j , y j ) von dieser Kurve minimal ist. Diese Eigenschaft geht nämlich bei der Transformation durch Logarithmieren verloren. Man könnte die rücktransformierte Funktion höchstens als Näherung für die gesuchte Regressionsfunktion verwenden. In der nachfolgenden Tabelle sind einige Funktionstypen und deren Linearisierungen angegeben.
3.6 Aufgaben
49
Funktionstyp
linearisiertes Modell
y = α + β x k , k bekannt 1 y-
y = α + β ζ mit ζ = x k
y
a +
w = α + β χ mit w = y
ßx
y = α + β • In χ
y = a + /?z
y = ax^
w —α + β ·ζ
ß
w = In y ; α = In a ; z = lnx
y = aex 1 yy
mit ζ = In χ
In y = In a + β · ζ mit ζ = i
a · ßx
w = In a + χ · In β mit w = In y
Tab. 3.3: Linearisierte Modelle
3.6 Aufgaben Aufgabe 3.1: Bei 100 Schülern der gleichen Altersgruppe wurden die Körpergröße X; und die Schuhgröße yj [jeweils in cm] gemessen. Dabei erhielt man die Summen 100
100
Σ χ ; = 14152; i=l
£ i=l
„
100
100
100
E y i = 4210; i=l
Σ > ? = 190 241; i=l
£xj · i=l
=
2
120780; = 630 991.
Bestimmen Sie den Korrelationskoeffizienten r. Aufgabe 3.2: An 10 Börsentagen lauteten die Schlusskurse Xj bzw. yj der Aktien zweier Automobilfirmen Xj
420
429
445
418
431
459
451
465
449
473
y\
495
506
516
475
493
531
537
554
547
565
a) Zeichnen Sie das Streuungsdiagramm. b) Bestimmen Sie den Korrelationskoeffizienten. c) Bestimmen Sie die Gleichung der Regressionsgeraden y = a + b x . Aufgabe 3.3: Die Studierenden, die sowohl an der ersten Klausur zur Statistik und zur Mathematik teilnahmen, erhielten die in der nachfolgenden Kontingenztafel aufgeführten Punkte:
Kapitel 3: Zweidimensionale (verbundene) Stichproben
50
Math.
1
Statistik 2 3
1 2 3 4 5
15 11 0 0 0
12 23 20 5 0
6 15 45 21 12
4
5
0 4 27 58 26
0 0 2 21 67
Berechnen Sie den Korrelationskoeffizienten. Aufgabe 3.4: Drei Bierexperten Α, Β und C mussten 6 Biersorten bezüglich des Geschmacks mit einer Note von 1 (sehr gut) bis 6 (sehr schlecht) bewerten. Sorte i
1
2
3
4
5
6
Note von A Note von Β Note von C
2 5 2
1 4 3
3 3 3
4 2 1
6 1 2
5 6 2
Bestimmen Sie den Spearmanschen Rangkorrelationskoeffizienten zwischen den Experteneinschätzungen von Α und Β bzw. von Β und C. Aufgabe 3.5: Ein bestimmtes Serum wurde in 5 verschiedenen Konzentrationen auf seine Lichtdurchlässigkeit untersucht. Die Messungen ergaben folgende Werte: i
1
2
3
4
5
X; (in Units/Milliliter) 30,125
60,25
125
250
500
y ; (in Extinktion)
0,848
1,178
1,635
1,914
0,536
Passen Sie den Daten eine Kurve y = α + β lnx nach der Methode der kleinsten Abstandsquadrate an. Aufgabe 3.6: Zur Untersuchung der Lagerfähigkeit eines vakuumverpackten Lebensmittels wurden jeweils nach χ Wochen an einer Probe eine Geschmackskennziffer y (Durchschnittswert mehrerer Probanden) festgestellt i
1
2
3
4
5
y;
2,0
1,9
2,3
2,4
3,3
x
Passen Sie den Werten nach der Methode der kleinsten Quadrate eine Funktion an a) vom Typ y = a + b • b) vom Typ y = ax b (über die logarithmierten y-Werte).
Teil II: Wahrscheinlichkeitsrechnung In diesem zweiten Teil werden die wichtigsten Grundlagen der Wahrscheinlichkeitsrechnung zusammengestellt, ohne die keine sinnvollen statistischen Auswertungen möglich sind. Die in diesem Teil behandelten Methoden der Wahrscheinlichkeitsrechnung werden in der beurteilenden Statistik (Teil III) angewandt, um statistisch abgesicherte Ergebnisse zu erhalten. Mit Hilfe des Wahrscheinlichkeitsbegriffe können allgemein Aussagen über die Chance des Eintretens bestimmter zufälliger Ereignisse gemacht werden. Je größer die Wahrscheinlichkeit eines Ereignisses ist, umso öfter wird es auf Dauer eintreten. Bei vielen Zufallsexperimenten ist man gar nicht am genauen Ergebnis interessiert, sondern nur an Zahlenwerten, die durch den Ausgang des Zufallsexperimentes bestimmt sind. Beispiele dafür sind Gewinne bei Glücksspielen, Gewichte oder Längen von zufällig ausgewählten Gegenständen oder die Füllmengen der von einer Maschine abgefüllten Fleischen. Dadurch erhält man eine Zufallsvariable. Bei der Einführung und Behandlung von Zufallsvariablen werden die meisten Begriffe aus der beschreibenden Statistik benutzt. Sowohl bei Zufallsvariablen als auch bei Stichproben werden die Begriffe Verteilungsfunktion, Median, Quantile, Varianz, Standardabweichung, Kovarianz und Korrelationskoeffizient eingeführt. Der Erwartungswert einer Zufallsvariablen ist das Analogon zum Mittelwert einer Stichprobe. Der Zusammenhang dieser sowohl in der beschreibenden Statistik als auch in der Wahrscheinlichkeitsrechnung benutzten Begriffe wird in der beurteilenden Statistik (Teil III) deutlich. Die Gesetze der großen Zahlen und Grenzwertsätze liefern schließlich das "Bindeglied" zwischen der beschreibenden und der beurteilenden Statistik sowie der Wahrscheinlichkeitsrechnung.
Kapitel 4: Wahrscheinlichkeiten 4.1 Zufallsexperimente und zufällige Ereignisse Bei vielen Experimenten ist man wegen des zufälligen Charakters oder der Komplexität des Experiments nicht in der Lage, vor Versuchsdurchführung mit Bestimmtheit vorherzusagen, welches der möglichen Ergebnisse eintreten wird. Solche Experimente nennt man Zufallsexperimente. Man sagt auch "das Ergebnis des Experiments hängt vom Zufall ab". Die möglichen Ergebnisse eines Zufallsexperiments bezeichnen wir mit kleinen Buchstaben, z.B. mit a , b , c oder ω. Die Menge aller möglichen Ergebnisse ist die Ergebnismenge. Sie wird üblicherweise mit Ω bezeichnet. Ein (zufalliges) Ereignis ist eine Zusammenfassung von bestimmten Versuchsergebnissen, also eine Teilmenge der Ergebnismenge Ω. Der Zusatz zufällig wird dabei meistens weggelassen. Ereignisse bezeichnen wir mit großen Buchstaben, ζ. B. mit Α, Β , C , . . . , A 1 , A 2 , . . . . Ein Ereignis Α = {ω}, das nur ein einziges Element enthält, heißt Elementarereignis. Jedes Elementarereignis ist also eine einelementige Menge. Man sagt: Bei der Versuchsdurchführung tritt das Ereignis Α ein (oder ist das Ereignis Α eingetreten), wenn das Ergebnis ω des Zufallsexperiments ein Element von Α ist, also für ω e Α. Im Falle ω £ Α ist das Ereignis A nicht eingetreten. Das Ereignis Ω enthält alle möglichen Versuchsergebnisse. Da Ω bei jeder Versuchsdurchführung eintritt, nennt man Ω das sichere Ereignis. Die leere Menge 0 enthält kein Versuchsergebnis und kann daher nie eintreten. Aus diesem Grund ist 0 das unmögliche Ereignis. Beispiel 4.1: a) Beim Werfen einer Münze gibt es die beiden Versuchsergebnisse "Wappen liegt oben" und "Kopf liegt oben". Wir bezeichnen sie mit W und K. Damit gilt Ω = {W, K}. b) Beim Roulette wird eine der Zahlen 0,1, 2 , . . . , 3 6 ausgespielt mit der Ergebnismenge Ω = {0 , 1 , . . . , 36}. c) Gemessen wird der Methanolgehalt von Obstbranntweinen. Als Einheit wählt man ζ. Β. 1 mg pro 100 ml Alkohol. Da es sich um ein stetiges kardinales Merkmal handelt, können als Werte alle Zahlen aus einem bestimmten Bereich auftreten. Das Intervall Ω muss so gewählt werden, dass garantiert jeder Messwert darin enthalten ist, ζ. Β. Ω = [0; 2 000].
54
Kapitel 4: Wahrscheinlichkeiten
Das Ereignis A H B = A B ("A und B " , der Durchschnitt von Α und B) tritt genau dann ein, wenn sowohl Α als auch B, also beide gleichzeitig eintreten. Es gilt Α Π Β = {ω| ω e Α und ω e Β}. Das Ereignis A U B ("A oder B " , die Vereinigung von Α und B) tritt ein, wenn mindestens eines der beiden Ereignisse Α und Β eintritt. Es ist A U B = { w | w e A oder ω e B}. Bei der hier benutzten "oder"-Beziehung handelt es sich nicht um ein ausschließendes "oder". Man lässt auch zu, dass ω gleichzeitig zu beiden Mengen Α und Β gehört. Das Ereignis Α ("Α nicht", das Komplement bzw. das Komplementärereignis von A) tritt genau dann ein, wenn Α nicht eintritt. Dabei gilt Α = {ω I ω e Ω und ω ( A}. Das Ereignis A \ B = Α Π Β ("Α, aber Β nicht", die Differenz von Α und B) tritt ein, wenn A, aber nicht Β eintritt mit A \ B = Α Π Β = {ω 6 Α und ω g Β}. Zwei Ereignisse Α und Β heißen unvereinbar (disjunkt oder elementfremd), wenn sie beide nicht gleichzeitig eintreten können. Dann muss Α Π Β = 0 sein. η Das Ereignis Π A; = Aj Π A 2 Π . . . Π Α η (Durchschnitt von η Ereignissen) i=l tritt genau dann ein, wenn alle η Ereignisse gleichzeitig eintreten. Es ist η Π Α; = {ω I ω e Aj für alle i = 1, 2 , . . . , n}. i=l η Das Ereignis U A ; = A j U A 2 U . . . U A n (Vereinigung von η Ereignissen) i=l tritt ein, wenn von den Ereignissen Α χ , A 2 , . . . , A n mindestens eines eintritt. Es gilt also η U A ; = {ω | ω e Α; für mindestens ein i}. i=l Entsprechend wird der Durchschnitt und die Vereinigung von abzählbar unendlich vielen Ereignissen definiert durch oo
Π Aj = A 1 Π A 2 Π . . . i=l oo
U Aj = A j U A j U . . . i=l
(alle A ; treten ein); (mindestens ein A ; tritt ein).
Im Falle A C B tritt mit dem Ereignis Α auch das Ereignis Β ein. In der Sprache der Ereignisse sagt man "das Ereignis Α zieht das Ereignis Β nach sich". A C Β ist genau dann erfüllt, wenn Α Π Β = Α und A U Β = Β ist.
4.2 Häufigkeiten von Ereignissen
55
4.2 Häufigkeiten von Ereignissen Ein Zufallsexperiment werde n-mal durchgeführt. Bei jedem Einzelversuch soll festgestellt werden, ob das Ereignis Α oder dessen Komplement Α eintritt. Nach Abschnitt 2.1 ist die absolute Häufigkeit h n ( A ) des Ereignisses Α die Anzahl derjenigen Versuche, bei denen Α eintritt. Die relative Häufigkeit r n ( A ) = ^ stellt den relativen Anteil der Versuche dar, bei denen Α eintritt. Dabei ist 100 · r n ( A ) der prozentuale Anteil dieser Versuche in der Gesamtserie. Für die relativen Häufigkeiten gilt offensichtlich der Satz 4.1 (Eigenschaften der relativen Häufigkeit): Für die relative Häufigkeit r n gilt 0 < r n ( A ) < 1 für jedes Ereignis Α
(Nichtnegativität);
Γ η ( Ω ) = 1 (Normierung);
(4.1) (4.2)
rn(AUB) = rn(A)+rn(B),
falls Α Π Β = 0
(4.3)
(Additivität bei unvereinbaren (disjunkten) Ereignissen); / OO \ r n ( (J Α ; ) = i=1
i=i
für paarweise unvereinbare Ereignisse mit A j f l A k = 0 für j φ k.
(4.4)
Aus diesen Eigenschaften können unmittelbar weitere abgeleitet werden, z.B. r n ( 0 ) = O; rn(A U B) = r n ( A ) + rn(B) - rn(A Π Β) *n(Ä) =
für beliebige Ereignisse Α , Β ;
l-rn(A);
aus A C Β folgt r n ( A ) < r n ( B ) .
Stabilisierung der relativen Häufigkeiten Falls das gleiche Zufallsexperiment sehr oft unabhängig und unter denselben Bedingungen durchgeführt wird, stellt man in den meisten Versuchsserien einen gewissen Stabilisierungseffekt fest. Die relativen Häufigkeiten r n ( A ) schwanken für große η in der Regel sehr wenig um einen festen Zahlenwert. Diesen Sachverhalt nennt man das Gesetz der großen Zahlen. Allerdings wird es immer wieder Ausnahmeserien geben, auch wenn der Versuchsumfang η noch so groß gewählt wird. Solche Ausnahmeserien sind zwar immer möglich, sie treten jedoch im Allgemeinen mit wachsendem η seltener auf. Ganz ausschließen kann man sie jedoch nicht. Dieses Gesetz wird in Abschnitt 7.2 näher präzisiert.
56
Kapitel 4: Wahrscheinlichkeiten
4.3 Definition einer Wahrscheinlichkeit Bereits im 18. Jahrhundert benutzten vor allem französische Mathematiker bei der Untersuchung der Chancen bei Glücksspielen einen Wahrscheinlichkeitsbegriff. Es handelt sich um die sogenannte klassische (Laplace-) Wahrscheinlichkeit. Dabei wird die Wahrscheinlichkeit eines Ereignisses Α nach folgender Formel berechnet: "Anzahl der für Α günstigen Fälle dividiert durch die Anzahl der insgesamt möglichen Fälle". Ebenfalls wurden schon seit langer Zeit Wahrscheinlichkeiten mit Hilfe der Längen- und Flächenberechnung bestimmt. Dabei handelt es sich um sogenannte geometrische Wahrscheinlichkeiten. Bei stetigen Merkmalen hat schon der deutsche Mathematiker Carl Friedrich Gauß (1777-1855) bei der Fehler- und Ausgleichsrechnung Wahrscheinlichkeiten berechnet. Die von ihm benutzte Methode ist bekannt unter dem Namen Gaußsche Glockenkurve. Es gibt also schon seit einiger Zeit verschiedene Begriffe der Wahrscheinlichkeit. Dennoch konnte man mit ihrer Hilfe sehr viele Probleme nicht lösen, wie ζ. B. die Berechnung von Wahrscheinlichkeiten beim Werfen eines verfälschten Würfels oder der Wahrscheinlichkeit, dass ein zufällig aus der Produktion ausgewähltes Werkstück fehlerhaft ist. Aus diesem Grund wurde immer wieder versucht, den Wahrscheinlichkeitsbegriff zu erweitern. Zuerst hat Richard von Mises (1883 — 1953) im Jahre 1931 auf Grund des bekannten Stabilisierungseffekts versucht, die Wahrscheinlichkeit P(A) eines Ereignisses Α als Grenzwert der relativen Häufigkeiten zu definieren durch P(A)= limrn(A). η—>oo Dieser Ansatz war jedoch aus folgenden Gründen zum Scheitern verurteilt: a) Der Grenzwert existiert im mathematischen Sinne gar nicht. b) Auch wenn dieser Grenzwert existieren würde, könnte man ihn mit Hilfe einer Beobachtungsreihe nicht bestimmen. Denn irgendwann muss jede Versuchsserie abgebrochen werden, ohne dass man sicher sein kann, dass die relativen Häufigkeiten nahe genug bei dem unbekannten Grenzwert liegen. Aus verschiedenen Serien würde man dann im Allgemeinen auch verschiedene "Wahrscheinlichkeiten" für das gleiche Ereignis Α erhalten. Zur Entwicklung einer mathematisch fundierten Theorie benötigt man jedoch eine objektive, eindeutig bestimmte Wahrscheinlichkeit. Im Jahre 1933 ist es dem russischen Mathematiker Andrej Nikolajewitsch Kolmogorow (1909 — 1987) erstmals gelungen, den Wahrscheinlichkeitsbegriff mathematisch widerspruchsfrei zu verallgemeinern. Dabei verlangt man von einer solchen Verallgemeinerung, dass ihre Einschränkung auf be-
57
4.3 Definition einer Wahrscheinlichkeit
reits bekannte Modelle den dort benutzten Wahrscheinlichkeitsbegriff ergibt. Kolmogorow hat die Wahrscheinlichkeit axiomatisch eingeführt. Ahnlich wie in der Geometrie verlangt er von einer allgemeinen Wahrscheinlichkeit, dass sie gewisse Eigenschaften (Axiome) erfüllt. Zwar kann mit Hilfe dieser Axiome der genaue Wert einer Wahrscheinlichkeit nicht ohne weiteres berechnet werden, doch ist es möglich, mit ihrer Hilfe eine Theorie zu entwickeln, mit der dann unbekannte Wahrscheinlichkeiten beliebig genau geschätzt werden können. Dies geschieht in der beurteilenden Statistik im Teil III. Es ist naheliegend, als Axiome Eigenschaften zu benutzen, welche die relativen Häufigkeiten sowie die klassische und die geometrische Wahrscheinlichkeit erfüllen.
4.3.1 Axiome einer Wahrscheinlichkeit Definition 4.1 (Axiome einer Wahrscheinlichkeit): Eine auf einem System von Ereignissen aus Ω definierte reelle Funktion Ρ (Ρ = Probabilite) heißt eine Wahrscheinlichkeit, wenn sie folgende Axiome erfüllt: (Kl)
0 < P ( A ) < 1 für jedes Ereignis Α
(Nichtnegativität);
(K2)
Ρ(Ω) = 1
(Normierung);
(K3)
P( υ A i ) = Σ p ( A i ) i=i i=l
oo
oo
(σ-Additivität)
für paarweise unvereinbare Ereignisse mit Aj Π A k = 0 für j φ k . Setzt man in (K3) Aj = 0 für alle i > η + 1, so folgt hieraus unmittelbar die endliche Additivität (K3')
η η P( (J Aj) = Σ P(Aj) i=l i=l
für paarweise unvereinbare Ereignisse.
Satz 4.2 (Folgerungen aus den Axiomen): Aus den drei Axiomen ( K l ) , (K2) und (K3) bzw. ( K 3 ' ) erhält man die folgenden Eigenschaften: a) P(0) = 0 ; b) P ( X ) = 1 - P ( A ) für jedes Ereignis A ; c) aus A C Β folgt P ( A ) < P ( B )
(Monotonie);
d) P(A U B) = P ( A ) + P ( B ) - P(A Π Β) für beliebige Ereignisse; e) P ( A \ B ) = P ( A ) - P(A Π Β) für beliebige Ereignisse; f) P ( A \ B ) = P ( A ) - P ( B ) , falls
BCA.
58
Kapitel 4:
Beweis: a ) 0 = 0U0,0n0
= 0 ergibt
aus ( K 3 ' ) :
P(0)
=
Wahrscheinlichkeiten
P(0) +
P(0), also
P(0)
= 0.
b) Aus A U Α = Ω ; Α Π Ä = 0 folgt nach (K2) und ( K 3 ' ) 1 = P(A) + P(Ä), also P(Ä) = 1 - P(A). c) Wegen A C Β gilt A B = A. Mit Ω = A U Α erhält man hiermit B = B n f i = B n ( A l J Ä ) = B A U B Ä = A u B Ä ; Α Π (BÄ) = 0. Aus der Additivität von Ρ ergibt sich P ( B ) = P(A) + P ( B Ä ) . Wegen P ( B Ä ) > 0 folgt hieraus P ( B ) > P(A). d) Für zwei beliebige Ereignisse Α und Β gilt A U Β = A U (Α Π B). Dabei sind Α und Α Π Β unvereinbar. Daher gilt nach ( K 3 ' ) P(A U B ) = P(A) + P ( Ä Π Β ) .
(4.5)
Β = (Α Π Β ) U (Ä Π Β ) ergibt Ρ ( Β ) = Ρ(Α Π Β) + Ρ(Α η Β), Ρ(ΑΠΒ) = Ρ ( Β ) - Ρ ( Α Π Β ) .
(4.6)
(4.6) in (4.5) eingesetzt liefert die Behauptung P(A U B ) = P(A) + P ( B ) - P(A Π Β ) . e) A\B = Α Π Β
ergibt
P(A\B) = P(A Π Β ) = P(A) - P(A Π Β ) . f) Wegen Β C A => A B = Β folgt die Behauptung unmittelbar aus e).
Wahrscheinlichkeiten bei endlichen Ergebnismengen Falls die Ergebnismenge Ω = {u^, ω 2 , . . . , w m } nur aus m verschiedenen Versuchsergebnissen besteht, genügt die Angabe der Wahrscheinlichkeiten der m Elementarereignisse durch pj = Ρ ( { ω ; } ) > 0 für i = 1, 2 , . . . , m, welche die Bedingung m
EPi = i i=l erfüllen. Die Wahrscheinlichkeit für ein beliebiges Ereignis Α lautet dann P(A)=
Σ Pi· iiwj e A
4.3 Definition einer Wahrscheinlichkeit
59
Wahrscheinlichkeiten bei abzählbar unendlichen Ergebnismengen Falls die Ergebnismenge Ω = { ω 1 , ω 2 , . . . } abzählbar unendlich viele Versuchsergebnisse besitzt, müssen die Wahrscheinlichkeiten pj = Ρ({ω ; }) > 0 für i = 1 , 2 , . . . die Bedingung oo Σ Pi = 1 i=l
erfüllen. Die Wahrscheinlichkeit für ein Ereignis Α lautet P(A)=
Σ
€A
Pi-
Interpretation einer Wahrscheinlichkeit Das Ereignis Α besitze bei einem Einzelexperiment die Wahrscheinlichkeit ρ = P(A). Das Zufallsexperiment werde n-mal unabhängig unter den gleichen Bedingungen durchgeführt. Dann liegt wegen des Stabilisierungseffekts bei großen Stichprobenumfängen η die relative Häufigkeit des Ereignisses Α meistens in der Nähe von ρ . Für große η gilt also im Allgemeinen die Näherung r n (A) » P(A). Diese Eigenschaft wird bei den Gesetzen der großen Zahlen in Abschnitt 7.2 näher präzisiert und auch bewiesen. Aus diesem Grund kann eine unbekannte Wahrscheinlichkeit ρ durch die relative Häufigkeit in einer genügend langen unabhängigen Versuchsserie geschätzt werden. Aussagen über solche Schätzungen werden in der beurteilenden Statistik gemacht.
4.3.2 Der klassische Wahrscheinlichkeitsbegriff Der klassische Wahrscheinlichkeitsbegriff wurde bereits von dem französischen Mathematiker Pierre Simon Laplace (1749-1827) bei der Beurteilung der Chancen bei Glücksspielen benutzt. Zur Anwendung dieses Wahrscheinlichkeitsbegriffs benötigt man folgende Voraussetzungen: (LI) Bei dem Zufallsexperiment gibt es nur endlich viele verschiedene Versuchsergebnisse, d.h. die Ergebnismenge Ω ist endlich. (L2) Keines der Versuchsergebnisse darf bevorzugt auftreten, d. h. alle Elementarereignisse sind gleichwahrscheinlich. Die erste Bedingung ist bei vielen Zufallsexperimenten erfüllt. Die zweite Bedingung der Chancengleichheit sämtlicher Versuchsergebnisse ist oft rein äußerlich nicht ohne weiteres erkennbar. Doch kann man bei vielen Experimenten auf Grund der Konstruktion des Zufallsgeräts und der Versuchsdurchführung von einer solchen Chancengleichheit ausgehen. Ob die Bedingung (L2) tatsächlich erfüllt ist, sollte im Einzelfall mit Hilfe statistischer Methoden nachgeprüft werden. So ist z.B. statistisch nachgewiesen, dass bei neugeborenen Kindern das Geschlecht "männlich" leicht überwiegt. Die Wahrscheinlichkeit für eine Knabengeburt ist etwas größer als A.
Kapitel 4: Wahrscheinlichkeiten
60
Ein Zufallsexperiment, bei dem die beiden Voraussetzungen (LI) und (L2) erfüllt sind, nennt man ein Laplace-Experiment. Der bei diesem Modell benutzte Wahrscheinlichkeitsbegriff heißt klassische oder Laplace-Wahrscheinlichkeit. Die endliche Ergebnismenge Ω = {ω^, ω 2 , . . . , w m } besitze m Versuchsergebnisse. Dann hat jedes der m Elementarereignisse wegen (L2) die gleiche Wahrscheinlichkeit p. Wegen der Additivität und der Normierung auf Eins folgt dann aus ( L I ) und (L2) mit ( K l ) und (K3')
also
m Ω = υ κ ΐ ; i=l
m 1 = Ρ(Ω)= Σ Ρ ( Μ ) = m-p, i=l
p = P ( { u , i } ) = i T für i = 1, 2 , . . . , m.
Falls ein Ereignis Α aus r Versuchsergebnissen besteht, erhält man durch Summenbildung die Formel
^ ' ~
1 _ r _ I A-1 _ Anzahl der für Α günstigen Fälle , , _ m _ ΙΩΙ - Anzahl der insgesamt möglichen Fälle " " '
m
Beispiel 4.2 (Roulette): Beim Roulette wird eine der 37 Zahlen 0 , 1 , 2 , . . . , 35 , 36 ausgespielt, es ist also | Ω | = 37. Die Chancengleichheit aller 37 Zahlen dürfte dann gegeben sein, wenn der Roulette-Teller homogen ist und alle 37 Kreissektoren gleich groß sind. Ferner muss gewährleistet sein, dass am Roulette-Teller keine Manipulationen vorgenommen wurden und dass der Croupier die Kugel "korrekt" rollen lässt. Dann erhält man folgende Laplace-Wahrscheinlichkeiten: P(ungerade Zahl) = P(rot) = P(schwarz) =
.
Bei einfachen Chancen (Ereignisse, die aus 18 Zahlen bestehen) ist daher die Gewinnwahrscheinlichkeit kleiner als ^. P ( l . Dutzend) = P ( { 1 , 2 , . . . , 1 1 , 1 2 } ) = ± f ; P(Querreihe 31,32,33) =
4.4 Kombinatorik Bei der nach (4.7) zu bestimmenden klassischen Wahrscheinlichkeit ist die Anzahl der günstigen und die Anzahl der möglichen Fälle zu berechnen. Dabei muss allerdings gewährleistet sein, dass es nur endlich viele verschiedene Versuchsergebnisse gibt und dass tatsächlich alle gleichwahrscheinlich sind. Zur Berechnung der Anzahl der Fälle werden in der Kombinatorik bestimmte Formeln bereitgestellt.
61
4.4 Kombinatorik
4.4.1 Produktregel der Kombinatorik (allgemeines Zählprinzip) Ein m-stufiges Zufallsexperiment entsteht dadurch, dass m Zufallsexperimente nacheinander oder gleichzeitig durchgeführt werden. Das Zufallsexperiment der i-ten Stufe besitze die Ergebnismenge Ω^ für i = 1,2, . . . , m . Dann können die m Ergebnisse ω 1 , ω 2 , . . . ) ω ι η der einzelnen Stufen unter Berücksichtigung der Reihenfolge als (geordnetes) mTupel (wj, ω 2 »· · · > w m ) dargestellt werden, wobei an der i-ten Stelle das Ergebnis ω· des i-ten Zufallsexperiments steht, also Wj e Ω; . Die Ergebnismenge Ω des m-stufigen Gesamtexperiments ist die Menge aller m-Tupel, das sogenannte direkte Produkt der einzelnen Ergebnismengen Ω-. Das direkte Produkt bezeichnen wir mit Ω = Ωχ χ Ω 2
Χ
... χ Ω Γ η .
Daraus erhält man den Satz 4.3 (Produktregel der Kombinatorik): Bei einem m-stufigen Zufallsexperiment sei die Anzahl der möglichen Versuchsergebnisse bei der i-ten Stufe gleich nj = | Ωί |. Dann besitzt das m-stufige Gesamtexperiment η = ηχ · n 2 · . . . · n m verschiedene Ergebnisse (m-Tupel), also IΩ | = | Ωχ | · | Ω 2 | •... · | ΩΠ11.
(4.8)
Beweis: In den möglichen m-Tupeln ω 2 , . . . , w m ) gibt es nach Voraussetzung für die i-te Komponente ω·1 insgesamt n; Auswahlmöglichkeiten. Zu jeder der ηχ möglichen Auswahlmöglichkeiten für gibt es n 2 Möglichkeiten, die zweite Komponente ω 2 auszuwählen. Daher gibt es für die ersten beiden Komponenten ω-ί und ω 2 insgesamt ηχ • n 2 verschiedene Auswahlmöglichkeiten. So fortfahrend erhält man ingesamt η χ · n 2 · . . . · n m verschiedene mögliche m-Tupel. Mit diesem allgemeinen Zählprinzip können viele Formeln der Kombinatorik sehr einfach hergeleitet werden.
4.4.2 Anordnungsmöglichkeiten (Permutationen) Unter einer Permutation von η Elementen versteht man eine Anordnung dieser Elemente. Für die Auswahl des ersten Elements gibt es η Möglichkeiten, für die Auswahl des zweiten verbleiben noch η — 1 Möglichkeiten. So fortfahrend erhält man schließlich für die Auswahl des n-ten Elements nur noch eine Möglichkeit. Damit erhält man aus der Produktregel den
Kapitel 4: Wahrscheinlichkeiten
62
Satz 4.4 (Anzahl der Permutationen): η verschiedene Dinge lassen sich (unter Berücksichtigung der Reihenfolge) auf η! = 1 · 2 · . . . - η
(4.9)
verschiedene Arten anordnen (Anzahl der Permutationen). Das Symbol n! spricht man dabei als "η-Fakultät" aus. Für die Fakultäten n! gilt die Rekursionsformel η! = η · (n — 1 ) ! . Damit diese Formel auch noch für η = 1 richtig ist, setzt man 0! =
1.
Falls manche Elemente nicht unterscheidbar sind, gilt der Satz 4.5 (Anordnungsmöglichkeiten von Gruppen gleicher Elemente): Von η Dingen seien jeweils
,n 2 , . . . , n r gleich.
Dann gibt es für diese η Dinge unter Berücksichtigung der Reihenfolge n! - y ; n = n i + n 2 + . . . + nr (4.10) V-n2! verschiedene Anordnungsmöglichkeiten. Beweis: Die gesuchte Anzahl bezeichnen wir mit x. Die jeweils gleichen Dinge werden unterscheidbar gemacht. Dann gibt es im unterscheidbaren Modell insgesamt n! verschiedene Anordnungsmöglichkeiten. In jeder der χ möglichen Anordnungen im nichtunterscheidbaren Ausgangsmodell können die n k gleichen Elemente jeweils permutiert werden, was jeweils auf n k ! verschiedene Arten möglich ist. Dadurch erhält man sämtliche Anordnungsmöglichkeiten n! = (n 2 + . . . + n r )! im unterscheidbaren Modell. Es gilt also χ · nj! · n 2 ! · . . . · n r ! = n!. Hieraus erhält man die gesuchte Anzahl x = n! n.! · n„! · ·η ! Beispiel 4.3: Eine Gruppe von 4 Studentinnen und 3 Studenten stellen sich in zufälliger Reihenfolge an einer Theaterkasse an. Gesucht ist die Wahrscheinlichkeit, dass die vier Studentinnen nebeneinander stehen. Insgesamt gibt es 7! _ 1 · 2 · 3 · 4 · 5 · 6 · 7 _ 5 · 6 · 7 _ , ε 3!· 4 ! " 1 · 2 · 3 · 1 · 2 · 3 · 4 2-3
4.4 Kombinatorik
63
mögliche Fälle. Zur Bestimmung der Anzahl der günstigen Fälle schreiben wir w für Studentin und m für Student. Dann gibt es die für das interessierende Ereignis nur 4 günstige Fälle, nämlich die Reihenfolgen wwwwmmm; mwwwwmm; mmwwwwm; mmmwwww. Daraus erhalten wir die gesuchte Wahrscheinlichkeit ρ = ^ sa 0,1143 .
4.4.3 Auswahlmöglichkeiten unter Berücksichtigung der Reihenfolge Aus η verschiedenen Dingen sollen k Stück nacheinander ausgewählt werden. Dabei spiele die Reihenfolge der Ziehung der einzelnen Elemente eine Rolle. Man spricht dann vom Ziehen unter Berücksichtigung der Reihenfolge (Anordnung). Beim Ziehen ohne Zurücklegen (ohne Wiederholung) werden die gezogenen Elemente vor dem nächsten Zug nicht mehr zu den übrigen zurückgelegt. Beim Ziehen mit Zurücklegen (mit Wiederholung) werden die ausgewählten Elemente nur registriert und vor dem nächsten Zug wieder zur Grundmenge zurückgelegt. Beim Ziehen ohne Wiederholung gibt es für den ersten Zug η Möglichkeiten, für den zweiten η — 1, für den dritten η — 2 , . . . usw. Das k-te Element kann schließlich auf η — (k — 1) = η — k + 1 Arten ausgewählt werden. Dabei darf k höchstens gleich η sein. Beim Ziehen mit Wiederholung wird bei jedem Zug aus der ganzen Grundgesamtheit mit jeweils η Möglichkeiten ausgewählt. Mit der Produktregel der Kombinatorik erhält man für beide Fälle die im folgenden Satz angegebene Anzahl der Ziehungsmöglichkeiten. Satz 4.6: Aus η verschiedenen Dingen werden k Stück unter Berücksichtigung der Reihenfolge ausgewählt. Dann beträgt die Anzahl der verschiedenen Auswahlmöglichkeiten: a) beim Ziehen ohne Zurücklegen (ohne Wiederholung) η · (η — 1) · (n — 2) · . . . · (n — k + 1)
für k < η ;
(4.11)
b) beim Ziehen mit Zurücklegen (mit Wiederholung) nk
für beliebiges k.
(4.12)
Beispiel 4.4 (Geburtstagsproblem): Gesucht ist die Wahrscheinlichkeit dafür, dass von η zufällig ausgewählten Personen mindestens zwei am gleichen Tag Geburtstag haben. Zur Berechnung der gesuchten Wahrscheinlichkeit machen wir die Modellannahme: Das Jahr habe 365 Tage, die als Geburtstage für jede der η Personen gleichwahrscheinlich sind. Schaltjahre werden also nicht berücksichtigt.
64
Kapitel 4: Wahrscheinlichkeiten
Das entsprechende Ereignis bezeichnen wir mit A n . Da nach der Modellannahme bei η > 365 Personen mindestens zwei Personen am gleichen T a g Geburtstag haben müssen, gilt P ( A n ) = 1 für η > 365. Für η < 365 berechnen wir zunächst die Wahrscheinlichkeit für das Komplementärereignis A n . Die Wahrscheinlichkeit dafür lässt sich nämlich wesentlich einfacher bestimmen. Es tritt ein, wenn alle η Personen an verschiedenen Tagen Geburtstag haben. Die Personen werden durchnummeriert. Die Anzahl der möglichen Fälle ist dann 365 n . Die Anzahl der günstigen Fälle erhält man durch folgende Überlegung: Für die erste Person kommen 365, für die zweite 364, für die dritte 363 , . . . , für die n-te 365 — n + 1 Tage infrage. Für A n gibt es dann nach dem Multiplikationsprinzip insgesamt 365 · 364 · . . . · (365 — n + 1 ) günstige Fälle. Damit gilt T _ nAn) -
365 · 364 · . . . · (365 — n + 1 ) 365s ·
Zur Berechnung eignet sich die Rekursionsformel Ι>
(5ϋ + ι ) = ^ Ρ ·
Hieraus folgt P/Ä , , p(An) = 1 -
ρ P
ρ
(
,τ ν (An) =
ϊ
η )
1 1
mit
P(Ä 1 ) = l f ü r n = l , 2 , . . . , 3 6 4 .
3 6 5 - 3 6 4 · · . . - ( 3 6 5 - n + l ) ... 365Π fur η < 365.
Für η = 23 erhält man den etwas überraschenden Wert P ( A 2 3 ) « 0,507. Weil die Schaltjahre unberücksichtigt bleiben, ist die hier berechnete Wahrscheinlichkeit etwas zu groß. Die Gleichverteilung der Geburtstage auf alle 365 Tage ist auch nicht ganz realistisch. Eine ungleichmäßige Verteilung würde die Wahrscheinlichkeit etwas erhöhen.
4.4.4
Auswahlmöglichkeiten ohne Berücksichtigung der Reihenfolge
Aus η verschiedenen Dingen sollen k Stück ausgewählt werden, wobei die Reihenfolge, in der die Elemente gezogen werden, keine Rolle spielt. 4.4.4.1 Ziehen ohne Wiederholung (ohne Zurücklegen) Die k Elemente können einzeln gezogen werden, wobei die ausgewählten Elemente vor dem nächsten Zug nicht mehr zu den übrigen zurückgelegt werden dürfen. Genauso kann man aber auch alle k Stück auf einmal ziehen. Beim Ziehen ohne Zurücklegen darf k höchstens gleich η sein. Die Anzahl der Möglichkeiten, aus η Dingen k Stück ohne Wiederholung auszuwählen, bezeichnen wir mit x.
4.4 Kombinatorik
65
Aus jeder bestimmten Auswahlmöglichkeit ohne Berücksichtigung der Reihenfolge erhalten wir durch alle möglichen Permutationen der k ausgewählten Elemente k! verschiedene Auswahlmöglichkeiten unter Berücksichtigung der Reihenfolge. Nach (4.11) gilt daher χ • k! = η · (η - 1) · (η - 2) · . . . · (η - k + 1), als
°
_ η · (η — 1) · (η — 2) · . . . · (η — k + 1) ~ k! Erweiterung dieses Bruchs mit (η —k)! ergibt Χ
x =
n! = k! · (n — k)!
Dabei ist
M \kj-
(sprich "n über k") ein sogenannter Biiiomialkoeffizient.
Man setzt
(!)"· Damit haben wir folgenden Satz bewiesen: Satz 4.7: Aus η verschiedenen Elementen können k Stück ohne Berücksichtigung der Reihenfolge und ohne Wiederholung auf fn\_
η · (n — 1) · (n — 2) · . . . · (n — k + 1) _ n! 1 · 2 · 3 ·... · k ~ k!-(n-k)!
V
'
verschiedene Arten ausgewählt werden für k = 1, 2 , . . . , n. 4.4.4.2 Ziehen mit Wiederholung (mit Zurücklegen) Aus η Elementen werde k mal hintereinander eines ausgewählt, wobei die gezogenen Elemente vor dem nächsten Zug zu den übrigen zurückgelegt werden. Die Reihenfolge der Ziehung spiele dabei keine Rolle. Die η Elemente, aus denen mit Wiederholung ausgewählt wird, werden von 1 bis η durchnummeriert. Als Beispiel nehmen wir η = 4 und k = 5. Dabei soll dreimal die 1 und zweimal die 3 ausgewählt worden sein. Dieses Ergebnis stellen wir folgendermaßen dar: s ± i i 3 mal 1
' w
'
0 mal 2
>±jL> 2 mal 3
· 0 mal 4
Falls aus η Elementen mit Wiederholung und ohne Berücksichtigung der Reihenfolge k Elemente ausgewählt werden, kann jedes Ergebnis symbolisch mit Hilfe von k Pluszeichen und η — 1 Kommata dargestellt werden. Jeder zufälligen Reihenfolge dieser Symbole wird ein Ziehungsergebnis in eineindeutiger Weise zugeordnet. Die Reihe
Kapitel 4: Wahrscheinlichkeiten
66
+++, +, , ,++,..., ++++ bedeutet ζ. B, dass das erste Element dreimal, das zweite einmal, das dritte und vierte nicht, das fünfte zweimal,..., das letzte viermal gezogen wurde. Jedes derartige Schema enthält dann genau k Pluszeichen und η — 1 Kommata. Falls zwischen zwei K o m m a t a kein Pluszeichen steht, ist das entsprechende Element nicht gezogen worden. Die Pluszeichen und Kommata zusammen bilden also η + k — 1 Plätze, von denen genau k mit einem Pluszeichen zu versehen sind. Dafür gibt es aber insgesamt ^ ^ k
verschiedene Möglichkeiten. So viele Möglichkeiten gibt es, aus
η Dingen k Stück mit Wiederholung und ohne Berücksichtigung der Reihenfolge auszuwählen. Damit gilt der Satz 4.8: Aus η verschiedenen Elementen werde k-mal hintereinander eines ausgewählt und vor dem nächsten Zug jeweils wieder zurückgelegt. Dann gibt es ohne Berücksichtigung der Reihenfolge ingesamt
verschiedene Auswahlmöglichkeiten. Bemerkung: In (4.14) ist die Anzahl aller verschiedenen Auswahlmöglichkeiten mit Zurücklegen und ohne Berücksichtigung der Reihenfolge angegeben. Damit sämtliche dieser Fälle auch tatsächlich gleichwahrscheinlich sind, muss das Auswahlverfahren nach der im Beweis angegebenen Methode durchgeführt werden. Bei einer wiederholten Einzelziehung sind nicht alle der in (4.14) angegebenen Fälle gleichwahrscheinlich. Dazu das Beispiel 4.5: Aus zwei Personen a und b werden einzeln hintereinander zwei ohne Berücksichtigung der Reihenfolge und mit Zurücklegen ausgewählt. Dann gibt es nach (4.14) mit η = k = 2 insgesamt
ei τω-
verschiedene Möglichkeiten, nämlich: zweimal a, zweimal b und gemischt (a und b). Die Wahrscheinlichkeit, dass a zweimal ausgewählt wird, ist bei der Einzelauswahl nicht gleich ^ . Zur Berechnung dieser Wahrscheinlichkeit müssen nämlich die vier gleichwahrscheinlichen Fälle a a ; a b ; b a ; b b unter Berücksichtigung der Reihenfolge benutzt werden, von denen nur einer günstig ist. Die gesuchte Wahrscheinlichkeit ist daher gleich 4 .
4.4 Kombinatorik
67
4.4.5 Zusammenstellung der Formeln der Kombinatorik Aus η verschiedenen Dingen sollen k ausgewählt werden. Dann erhält man für die Anzahl der verschiedenen Auswahlmöglichkeiten in Abhängigkeit vom Auswahlverfahren folgende Werte: mit Berücksichtigung der Reihenfolge (geordnet) ohne Wiederholung (ohne Zurücklegen)
ohne Berücksichtigung der Reihenfolge (ungeordnet)
η · (η—1) · . . . · (η—k+1)
mit Wiederholung (mit Zurücklegen)
nk
(ϊ) ( " T
1
)
4.4.6 Urnenmodelle Eine Grundmenge bestehe aus Ν verschiedenen Elementen, von denen genau Μ eine bestimmte Eigenschaft besitzen. Aus der gesamten Grundmenge sollen η Stück zufällig ausgewählt werden. Zur Versuchsdurchführung und zur Berechnung gesuchter Wahrscheinlichkeiten bei einer solchen zufälligen Auswahl eignen sich die sogenannten Urnenmodelle. Anstelle der Ν Elemente betrachtet man Ν Kugeln, von denen genau Μ schwarz sind. Den Elementen mit der interessierenden Eigenschaft werden also schwarze Kugeln zugeordnet. Den restlichen Ν — Μ Elementen ordnen wir weiße Kugeln zu. Mit diesem Hilfsmodell erhält man folgende Aussage: Satz 4.9 (Urnenmodelle): Eine Urne enthalte Ν Kugeln, von denen Μ schwarz und die restlichen Ν — Μ weiß sind. Dabei gelte 1 < Μ < N. Aus dieser Urne werden η Kugeln zufällig ausgewählt. p k sei die Wahrscheinlichkeit dafür, dass sich unter den η ausgewählten Kugeln genau k schwarze befinden. Diese Wahrscheinlichkeit lautet a) beim Ziehen ohne Zurücklegen / ΜW N - M \
Pk=
k
Αλ-1* V
n
für
/
° 0 für alle i
und
Beispiel 5.2 (Augensumme zweier idealer Würfel): Zwei ideale Würfel, bei denen die Wahrscheinlichkeiten für alle Augenzahlen gleich sind, werden gleichzeitig geworfen. Zur Berechnung der Wahrscheinlichkeiten für die Augensummen benutzen wir ein Hilfsmodell: Die Würfel werden unterscheidbar gemacht und zwar soll einer rot und der an-
5.1 Eindimensionale diskrete Zufallsvariablen
83
dere weiß sein. Dann tritt als Versuchsergebnis ein geordnetes Zahlenpaar ( i , j ) auf, wobei i die Augenzahl des roten und j die des weißen Würfels ist. Insgesamt gibt es 36 geordnete Paare. Die Paare mit der gleichen Augensumme sind in der nachfolgenden Tabelle zusammengestellt: Augenpaare
Augensumme 2
( i , i) (2,1)
(1,2)
3
(3, 1) (2, 2) (1, 3)
4
(4,1) (3,2)
(2,3) (1,4)
5
(5,1) (4,2)
( 3 , 3 ) (2, 4) ( 1 , 5 )
6
(6,1) (5,2)
(4,3) (3,4) (2,5)
(6,2) (5,3)
( 4 , 4 ) (3, 5) (2, 6)
8
(6,3) (5,4)
( 4 , 5 ) (3, 6)
9
(6,4) ( 5 , 5 )
(4,6)
10
(6,5)
(1,6)
7
11
(5,6)
12
(6,6) Tab. 5.1 Augensumme zweier idealer Würfel
Da alle 36 Paare gleichwahrscheinlich sind, erhält man für die Zufallsvariable X der Augensumme die Verteilung i
2
3
4
5
6
7
8
9
10
11
12
Pi
1 36
2 36
3 36
4 36
5 36
6 36
5 36
4 36
3 36
2 36
1 36
x
Wie die Häufigkeitsverteilung einer Stichprobe in Abschnitt 2.3 kann auch die Verteilung einer diskreten Zufallsvariablen in einem Stabdiagramm graphisch dargestellt werden. Dazu werden über den Werten der Zufallsvariablen X senkrecht nach oben Stäbe abgetragen, deren Längen die Wahrscheinlichkeiten P(X = x ; ) der entsprechenden Werte sind. Das Stabdiagramm einer diskreten Zufallsvariablen ist also das Analogon zum Stabdiagramm der relativen Häufigkeitsverteilung einer Stichprobe. Das Stabdiagramm dieser Verteilung ist in Bild 5.1 graphisch dargestellt. Interpretation Falls mit zwei idealen Würfeln sehr oft geworfen wird und als Stichprobe die Augensummen gebildet werden, liegen nach dem Gesetz der großen Zahlen (s. Abschnitt 7.2.3) die relativen Häufigkeiten der Augensummen
Kapitel 5: Diskrete Zufallsvariablen
84
meistens in der Nähe der Wahrscheinlichkeiten. Dann wird das Stabdiagramm der relativen Häufigkeiten der Stichprobe dem Stabdiagramm der Verteilung der Zufallsvariablen X der Augensumme ähnlich sein. P%
5/36-
Bild 5.1: Stabdiagramm der Verteilung einer diskreten Zufallsvariablen
5.1.2 Verteilungsfunktion einer diskreten Zufalls variablen In Analogie zur empirischen Verteilungsfunktion F n einer Stichprobe vom Umfang η (vgl. Abschnitt 2.5) interessiert man sich oft für die Wahrscheinlichkeit dafür, dass bei der Versuchsdurchführung die Realisierung der Zufallsvariablen X nicht größer als ein fest vorgegebener Zahlen wert χ ist. Dazu die Definition 5.1 (Verteilungsfunktion): Die durch F(x) = P ( X < χ) = Ρ ( { ω | Χ(ω) < χ } ) = £ P ( X = Χ;) (5.2) i : Xj < χ für jedes χ e R definierte Funktion F heißt die Verteilungsfunktion der diskreten Zufallsvariablen X. Die Verteilungsfunktion F einer diskreten Zufallsvariablen X hat ähnliche Eigenschaften wie die empirische Verteilungsfunktion F n einer Stichprobe. Sie ist eine monoton wachsende Treppenfunktion, die von Null auf Eins ansteigt. Die Sprungstellen von F sind die Werte Xj aus dem Wertebereich von X, die Sprunghöhen die Wahrscheinlichkeiten p ; = P ( X = Xj). Wenn es im Wertebereich von X einen kleinsten Wert gibt, verschwindet F links von dieser Stelle. Gibt es einen größten Wert, so ist F von dieser Stelle an immer gleich Eins. Die Verteilungsfunktion ist an jeder Stelle χ rechtsseitig stetig. An allen Stellen außerhalb des Wertebereichs ist die Verteilungsfunktion stetig.
5.1 Eindimensionale diskrete Zufallsvariablen
85
Allgemein gilt lim
F(x) = 0;
lim F(x) = 1.
(5.3)
Aus der Verteilungsfunktion F lassen sich die Wahrscheinlichkeiten für Intervalle und einzelne Werte berechnen durch P(a < X < b) = F(b) - F(a);
P(a < X < b) = F(b - 0) - F(a);
P(a0
Beispiel 5.3 (idealer Würfel): Beim Werfen eines idealen Würfels sei X die Zufallsvariable der geworfenen Augenzahl. Wegen p. = P ( X = i); = i für 1 < i < 6 Fl 6 - haben in dem in Bild 5.2 a) dargestellten Stabdiagramm alle sechs Stäbe die gleiche Länge jL In b) ist die Verteilungsfunktion F skizziert.
F(X)
1·
Pi
1/6-
0
I I >I I 1
1
Bild 5.2:
2
a)
3
4
5
6
Xi
Stabdiagramm
1/6-
0
^ H | | | J 1 1
2
3
4
5
6
b) Verteilungsfunktion
5.1.3 Modalwert (Modus) einer diskreten Zufallsvariablen Definition 5.2 (Modalwert oder Modus): Jeder Wert x M e W, für den die Wahrscheinlichkeit P ( X = Xj), X; 6 W maximal ist, heißt Modalwert (Modus oder wahrscheinlichster Wert) der Zufalls variablen X. Es gilt also P(X = x M ) =
max P ( X = χ ; ). xjGW
Kapitel 5: Diskrete Zufallsvariablen
86
Der Modalwert ist im Allgemeinen nicht eindeutig bestimmt. In Beispiel 5.1 der Risikolebensversicherung ist der Wert 1000 der einzige Modalwert, in Beispiel 5.2 der Augensumme zweier idealer Würfel ist die Augensumme 7 der Modus, während in Beispiel 5.3 bei einem idealen Würfel jede Augenzahl gleichzeitig Modalwert ist.
5.1.4 Erwaxtungswert einer diskreten Zufallsvaxiablen Zunächst gehen wir davon aus, dass der Wertevorrat der diskreten Zufallsvariablen X endlich ist mit W = { x 1 , x 2 , x 3 , . . . , x,,,}. Das zugehörige Zufallsexperiment werde n-mal unabhängig durchgeführt, wobei die η Realisierungen der Zufallsvariablen X zu einer Stichprobe vom Umfang η zusammengefasst werden. Diese Stichprobe kann dann in einer Häufigkeitstabelle mit den relativen Häufigkeiten rj der Werte Xj für i = 1, 2 , . . . , m dargestellt werden. Diese vom Zufall abhängige Stichprobe besitzt den Mittelwert m * = Σ *i · r i · (5-5) i=l Nach dem Gesetz der großen Zahlen (Stabilisierungseffekt) gilt für große η die Näherung r ; « P(X = x ; ) für alle i. Dann gilt
m χ » £ X; · P(X = x·). i=l
(5.6)
Die rechte Seite von (5.6) hängt gar nicht mehr von der Stichprobe, sondern nur noch von der Verteilung der Zufallsvariablen X ab. Man nennt diese Summe den Erwartungswert von X. Der Erwartungswert einer beliebigen diskreten Zufallsvariablen wird folgendermaßen definiert: Definition 5.3 (Erwartungswert einer diskreten Zufallsvariablen): Die diskrete Zufallsvariable X besitze die Verteilung (xj, pj = P(X = Xj)), i = 1 , 2 ,... . Dann heißt der Zahlen wert Ε(Χ) = μ = £ χ Γ Ρ ( Χ = χ ; )
(5.7)
der Erwartungswert von X, falls gilt Σ | Χ ί | · Ρ ( Χ = Χί) < 00. i
(5.8)
Bemerkung: Bei endlichem Wertevorrat W ist die Bedingung (5.8) der sogenannten absoluten Konvergenz immer erfüllt, da es sich um eine endliche Summe handelt. Daher existiert der Erwartungswert einer diskreten Zufallsvariablen X mit endlichem Wertevorrat immer.
5.1 Eindimensionale diskrete Zufallsvariablen
87
Die Zusatzbedingung (5.8) wird nur für diskrete Zufallsvariable mit abzählbar unendlichem Wertevorrat benötigt (s. Beispiel 5.6). Falls die absolute Konvergenz (5.8) erfüllt ist, nimmt (5.7) bei jeder beliebigen Summationsreihenfolge immer den gleichen endlichen Wert μ an. Interpretation des Erwartungswertes Das entsprechende Zufallsexperiment werde sehr oft unabhängig durchgeführt, wobei die Realisierungen der Zufallsvariablen X zu einer Stichprobe χ zusammengefasst werden. Dann gilt nach (5.6) für das arithmetische Mittel χ dieser Stichprobe für große η die Näherung xwE(X).
(5.9)
Der Erwartungswert E ( X ) stellt im Stabdiagramm der Verteilung von X den Abszissenwert des Schwerpunktes der Stäbe dar. Beispiel 5.4 (vgl. Beispiel 5.1): Die Zufallsvariable X des Reingewinns aus der Risiko-Lebensversicherung in Beispiel 5.1 besitzt den Erwartungswert E ( X ) = - 99 000 · 0,00577 + 1 000 · 0,99423 = 423 E U R . Falls die Versicherungsgesellschaft mit vielen 50jährigen Männern einen solchen Vertrag über 100 000 E U R abschließt, macht sie auf Dauer im Mittel pro Vertrag einen Reingewinn von 423 E U R . Beispiel 5.5 (Roulette): a) Beim Roulette setze ein Spieler jeweils eine Einheit (ζ. B. 5 E U R ) auf eine feste Zahl, etwa auf die 13. Falls diese Zahl ausgespielt wird, erhält er den 36-fachen Einsatz ausgezahlt. Abzüglich seines Einsatzes verbleibt ihm dann ein Reingewinn von 35 Einheiten. Andernfalls verliert er den Einsatz (Reingewinn = — 1). Die Zufallsvariable X beschreibe den Reingewinn pro Einzelspiel. Da eine von 37 Zahlen ausgespielt wird, ist P ( X = 35) = P ( { 1 3 » . Damit besitzt die Zufallsvariable X die Verteilung Werte von X Wahrscheinlichkeiten
- 1
35
36 37
1 37
und den Erwartungswert E(X)= - 1 . 3 8 +
3 5 . ^ = - ^ .
Auf Dauer wird der Spieler den 37. Teil seines Einsatzes verlieren. b) Falls der Spieler eine Einheit auf das erste Dutzend D = { 1 , 2 , . . . , 12} setzt, erhält er im Falle eines Gewinns den dreifachen Einsatz ausge-
Kapitel 5: Diskrete Zufallsvariablen
88
zahlt. Die Zufallsvariable Y , die den Reingewinn pro Spiel beschreibt, besitzt die Verteilung Werte von Y
- 1
2
25 37
12 37
Wahrscheinlichkeiten und den Erwartungswert E(Y)= -l.jj5
+
2.12=
-jfc.
Da die Erwartungswerte in a) und b) gleich groß sind, wird man auf Dauer mit beiden Strategien ungefähr gleich viel verlieren, nämlich den 37. Teil des Einsatzes.
Indikatorvariable Es sei Α ein beliebiges Ereignis, welches die Wahrscheinlichkeit P ( A ) besitzt. Durch AV
'
\ 0 fur ω ί A
wird eine Zufallsvariable, die sogenannte Indikatorvariable des Ereignisses A, definiert. Ihre Realisierung ist gleich Eins, wenn das Ereignis Α eintritt. Tritt Α ein, so ist die Realisierung gleich Null. Diese Zufallsvariable I A besitzt den Erwartungswert E(IA) = P ( A ) .
(5.10)
Die Wahrscheinlichkeit eines Ereignisses Α ist also gleich dem Erwartungswert der zugehörigen Indikatorvariablen.
Erwartungswert einer Funktion einer diskreten Zufallsvariablen Eine beliebige reellwertige Funktion y = g (x) bilde den Wertebereich W der Zufallsvariablen X ab auf W = { y ^ , } ^ ) · · · } · Dann ensteht durch P(Y = y j ) =
Σ P(x = *i) •:g(Xi)=yj
die Verteilung einer diskreten Zufallsvariablen Y mit den Realisierungen Υ ( ω ) = g ( X ( w ) ) . Diese Zufallsvariable bezeichnet man mit Y = g ( X ) . Sie besitzt einen Erwartungswert, falls folgende Reihen absolut konvergieren: E(Y)=Eyj-P(Y = yj)=Eyj j j = Σ j
Σ i:g(*i)=yj
Damit gilt allgemein der
· Σ P(x = i:g(xj)=yj
xi)
g( x i) · P ( X = x i ) = Σ g ( x i ) ' P ( X = x i )· ι
5.1 Eindimensionale diskrete Zufallsvariablen
89
Satz 5.1 (Funktionssatz): Es sei X eine diskrete Zufallsvariable mit dem Wertebereich W. Ferner sei y = g (x) eine reelle Funktion mit dem Definitionsbereich W. Dann besitzt die Zufallsvariable Y = g(X) genau dann einen Erwartungswert und zwar E(Y) = E(g(X)) = £
g(x.) P(X = χ;),
(5.11)
falls diese Reihe absolut konvergiert mit Σ i
|g(xi)|P(X = X i ) < o o .
Erwartungswert einer linearen Transformation Alle Realisierungen x ; der Zufallsvariablen X werden gemäß y ; = a + bx ; mit a , b g R linear transformiert. Durch die Übertragung der Wahrscheinlichkeiten P(Y = y ; ) = P(Y = a + bx ; ) = P(X = Xj) erhält man eine diskrete Zufallsvariable Y. Man nennt sie eine lineare Transformation von X und bezeichnet sie mit Y = a + bX. Ihre Verteilung lautet für b φ 0 { (yj = a + bxj ; p. = P(X = Xj)), Xj 6 W(X) } . Falls X den Erwartungswert E(X) besitzt, erhält man den Erwartungswert der linearen Transformation Y in der Form E(Y) = E(a-fbX) = £ (a+bx;) P(X=Xj) = a £ Ρ ( Χ = χ ; ) + b £ x ; Ρ ( Χ = χ ; ) nJ = a + bE(X).' ^ T~—' v ' =1 = E(X) Damit wird auch der Erwartungswert linear transformiert durch
E(a + bX) = a + b · E(X)
für a , b e R, falls E(X) existiert.
(5.12)
Bemerkungen: Im Falle b = 1 und a φ 0 stellt die lineare Transformation Υ = X + a eine Parallelverschiebung der Werte Xj um a dar. Dabei wird auch der Erwartungswert um den gleichen Wert a parallel verschoben. Für b = 0 erhält man eine deterministische Zufallsvariable Y = a, die mit Wahrscheinlichkeit 1 den konstanten Wert a annimmt. Dann ist a der Erwartungswert der deterministischen Zufallsvariablen Y = a. Symmetrische Verteilungen Das Stabdiagramm in Bild 5.1 ist symmetrisch zur Stelle s = 7. Diese Symmetriestelle ist der Erwartungswert.
Kapitel 5: Diskrete Zufallsvariablen
90
Definition 5.4 (symmetrische Verteilung): Die Verteilung der diskreten Zufallsvariablen X nennt man symmetrisch zur Stelle χ = s, wenn der Wertevorrat zu dieser Stelle symmetrisch liegt und jeweils die beiden von s gleich weit entfernten Werte die gleiche Wahrscheinlichkeit besitzen. Dann lässt sich der Wertebereich darstellen in der Form W = {s ± z1, s ± z 2 , s ± z 3 , . . . } mit P(X =
S +
Z;
) = P(X =
S -
Zj )
für alle symmetrisch zu s gelegenen Wertepaare. Wir nehmen an, X sei symmetrisch zur Stelle s verteilt. Ferner existiere der Erwartungswert E(X). Dann besitzen die Zufallsvariablen X —s und — (X — s) die gleiche Verteilung und somit auch den gleichen Erwartungswert. Aus E ( X - s ) = E( — (X — s)) folgt nach (5.12) E ( X - s ) = E ( - ( X - s ) ) = — (Ε (X — s)), 0 = E(X - s) = E(X) - s, also E(X) = s. Damit gilt der Satz 5.2 (Erwartungswert symmetrisch verteilter Zufallsvariabler): Die Verteilung der Zufallsvariablen X sei symmetrisch zur Stelle s. Ferner besitze X einen Erwartungswert. Dann lautet er E(X) = s .
(5.13)
Bei symmetrisch verteilten Zufallsvariablen mit endlichem Wertevorrat ist die Symmetriestelle s immer gleich dem Erwartungswert. Falls der Erwartungswert nicht existiert, kann jedoch (5.13) nicht gelten. Dazu das Beispiel 5.6 (symmetrische Verteilung ohne Erwartungswert): Die diskrete Zufallsvariable X besitze die Verteilung W = { ± 2 n , n = 1 , 2 , 3 , . . . } ; P(X = 2 n ) = P(X = - 2 n ) = für η = 1 , 2 , . . . . Die Verteilung ist symmetrisch zu s = 0. Wegen A^n+I
4
2k
—
4
2
besitzen alle Werte zusammen die Wahrscheinlichkeit Eins. Aus 2 n · P(X = 2 n ) = i ; ( - 2 n ) · P(X = - 2 n ) = - ± folgt E | x i | - P ( X = x i ) = oo.
^ L
5.1 Eindimensionale diskrete Zufallsvariablen
91
Die Bedingung (5.8) der absoluten Konvergenz ist hier nicht erfüllt. Durch verschiedene Summationsreihenfolgen der Produkte Xj · P ( X = Xj) = ± 1 können verschiedene Summenwerte erzeugt werden. a) Falls man jeweils einen positiven und einen negativen Wert paarweise zusammenfasst, entstehen lauter Nullen als Summanden. Dann verschwindet auch die Summe. Der Erwartungswert würde in diesem Fall mit der Symmetriestelle s = 0 übereinstimmen. b) Nimmt man in der Summationsreihenfolge zuerst k positive (bzw. negative) Werte und danach paarweise jeweils einen positiven und einen negativen, so erhält man als Summe den Wert k/2 (bzw. — k/2). c) Fasst man jeweils zwei positive und einen negativen Wert zusammen, so entsteht die Summe oo. d) Durch Zusammenfassen von jeweils zwei negativen und einem positiven Wert erhält man die Summe — oo. Durch verschiedene Summationsreihenfolgen entstehen verschiedene Summen. Daher kann die Zufallsvariable X keinen Erwartungswert besitzen, da dieser doch von der Summationsreihenfolge unabhängig sein sollte. Eine solche Situation wird durch die Bedingung (5.8) der absoluten Konvergenz ausgeschlossen. Sie gewährleistet, dass man in (5.7) bei jeder beliebigen Summationsreihenfolge den gleichen Wert μ erhält.
5.1.5 Median (Zentralwert) einer diskreten Zufallsvaxiablen Wie der Mittelwert χ einer Stichprobe ist auch der Erwartungswert E ( X ) einer diskreten Zufallsvariablen empfindlich gegenüber einem Ausreißer, falls dieser nicht eine sehr kleine Wahrscheinlichkeit besitzt. Daher führt man wie in der beschreibenden Statistik (Abschnitt 2.7.2) auch bei diskreten Zufallsvariablen den Median ein, der mehr im Zentrum der Wahrscheinlichkeitsmasse (Verteilung) liegt. Zur Definition des Medians wird die Bestimmung des empirischen Medians aus der empirischen Verteilungsfunktion aus Abschnitt 2.7.5 formal übertragen. Dies ergibt die Definition 5.5 (Median oder Zentralwert): Jeder Wert μ e W der diskreten Zufallsvariablen X mit P(X5
und
P(X>£)>^
(5.14)
heißt Median oder Zentralwert der Zufallsvariablen X. Bestimmung des Medians aus der Verteilungsfunktion Aus der Verteilungsfunktion F einer diskreten Zufallsvariablen kann der Median wie aus der empirischen Verteilungsfunktion einer Stichprobe in Abschnitt 2.7.2 bestimmt werden (vgl. Bild 5.3).
Kapitel 5: Diskrete Zufallsvariablen
92
a) Die Verteilungsfunktion F(x) nehme an keiner Stelle den Wert 0,5 an. Dann ist der Median μ der Wert, bei dem die Verteilungsfunktion von unter 0,5 auf über 0,5 springt (s. Bild 5.3 links). b) Die Verteilungsfunktion nehme an der Stelle x 0 den Wert 0,5 an, es gelte also F(XQ) = 0,5. Dann ist gleichzeitig die Stelle x 0 am linken Ende und die Stelle am rechten Ende der Treppenstufe (nächstgrößerer Wert aus W) Median (s. Bild 5.3 rechts). Da zwischen diesen beiden Werten kein weiterer Wert aus dem Werte Vorrat der Zufallsvariablen X liegt, ist es nicht sinnvoll, wie beim Median einer Stichprobe bei stetigen Merkmalen (vgl. Abschnitt 2.7.2) jeden Zahlenwert der ganzen Treppenstufe bzw. das arithmetische Mittel als Median zu wählen. F(x)
0,5--
Bild 5.3: Bestimmung des Medians aus der Verteilungsfunktion Bei einer diskreten Verteilung sind diejenigen Werte μ e W Mediane, für die gilt F(x) 0 , s = Symmetriestelle
^
^
μ = s ± Zj, Zj € W, Zj möglichst nahe bei s für P(X = s) = 0. Die Verteilung der Augensumme zweier idealer Würfel aus Beispiel 5.2 ist symmetrisch zu s — 7 mit P(X = 7) > 0. Daher ist der Median μ = 7 eindeutig bestimmt. Die Zufallsvariable der Augenzahl eines idealen Würfels
5.1 Eindimensionale diskrete Zufallsvariablen
93
aus Beispiel 5.3 ist symmetrisch zur Stelle s = 3,5. Diese Stelle gehört nicht zum Wertebereich W . Daher sind 3 und 4 gleichzeitig Mediane. Die Verteilung aus Beispiel 5.6 ist symmetrisch zur Stelle s = 0, die nicht zum Wertebereich W gehört. Die beiden benachbarten Werte 2 und — 2 sind gleichzeitig Mediane. Diese Zufallsvariable besitzt keinen Erwartungswert. Im Gegensatz zum Erwartungswert existiert der Median immer.
5.1.6 Quantile einer diskreten Zufalls variablen Bei diskreten Zufallsvariablen werden Quantile analog zu den Quantilen einer Stichprobe in Abschnitt 2.8 erklärt. Definition 5.6 (Quantil): Für 0 < q < 1 heißt der Zahlenwert £ q 6 W q-Quantil oder 100q%-Quantil der diskreten Zufallsvariablen X, wenn folgende Bedingung erfüllt ist P(X < £q) > q
und
P(X>iq)>l-q.
Der Median ist das 0,5 - Quantil. Es gilt also μ — ξ0
(5.17)
5
.
Interpretation Mindestens 100 q % der Wahrscheinlichkeitsmasse ist auf Werte konzentriert, welche kleiner oder gleich dem q-Quantil £ q sind und mindestens 100(1 — q) % der gesamten Wahrscheinlichkeitsmasse liegt bei den Werten, die größer oder gleich dem q-Quantil £ q sind. q-Quantile können aus der Verteilungsfunktion F analog zum Median bzw. zu den Quantilen einer Stichprobe aus Abschnitt 2.8 bestimmt werden.
5.1.7 Varianz und Standardabweichung einer diskreten Zufallsvariablen Als Analogon zur empirischen Varianz und Standardabweichung Stichprobe aus Abschnitt 2.9.2 erhält man die
einer
Definition 5.7 (Varianz und Standardabweichung): Die diskrete Zufallsvariable X besitze die Verteilung ( x j , P ( X = Xj)), X; e W und den Erwartungswert μ = E ( X ) . Im Falle der Existenz heißt Var(X) = σ 2 = £ (x ; - μ)2 • P ( X = x ; ) i die Varianz und σ = + -\J σ 2 die Standardabweichung von X .
(5.18)
94
Kapitel 5: Diskrete Zufallsvariablen
Die Varianz ist der Erwartungswert der Zufallsvariablen (X — μ)2, also Var(X) = E((X — μ)2) .
(5.19)
Wir betrachten folgende Umformung: Var(X) = Σ ( * i " M) 2 P(X = *i) = Σ ( * ? -2//Χ; + μ 2 ) P(X = Xj) i i = Σχ?ρ( i
= Χί)-2μΣΧίΡ(Χ = i ν
χ
'
+ μ2 Σ i v
ρ
(
χ
= Xi)
V
'
Damit gilt die für die praktische Rechnung nützliche Formel Var(X) = σ2=
Σ * ? · P(X = *i) - μ2 = E(X 2 ) - [ E(X) ] 2 .
(5.20)
Beispiel 5.7 (Roulette, vgl. Beispiel 5.5): Ein Spieler setze eine Einheit gleichzeitig auf k Zahlen, sofern dies möglich ist. Für k = 1 setzt er auf eine einzige Zahl, für k = 2 auf zwei benachbarte, für k = 3 auf eine Querreihe, für k = 12 auf ein Dutzend und für k = 18 auf eine einfache Chance. Im Falle eines Gewinns erhält er das 36/k-fache seines Einsatzes ausgezahlt, so dass ihm ein Reingewinn von 36/k — 1 Einheiten verbleibt. Andernfalls verliert er seinen Einsatz. Die Sonderregelung bei einfachen Chancen (k = 18) soll hier unberücksichtigt bleiben. Die Wahrscheinlichkeit, dass der Spieler bei einem Spiel gewinnt, ist ρ = . Die Zufallsvariable X k des Reingewinns hat die Verteilung 36 τ - 1 Werte von X k 1 k k i_JL 37 37 Daraus erhält man den Erwartungswert von X k (Gewinnerwartung) Wahrscheinlichkeiten
Diese Gewinnerwartung hängt gar nicht mehr von k ab. Unabhängig davon wie man setzt, im Mittel wird man auf Dauer pro Spiel den 37. Teil des Einsatzes verlieren. Obwohl die Gewinnerwartung bei allen Strategien gleich ist, ist das Risiko verschieden groß. Bei einfachen Chancen (k = 18) ist es am kleinsten, beim Einsatz auf eine einzige Zahl (k = 1) am größten. Dieses Risiko wird durch die Varianz der Zufallsvariablen X k beschrieben. Aus (5.20) erhält man
~ 37k
35 37
1 372·
Die Varianz ist für k = 1 am größten und wird mit wachsendem k kleiner.
5.2 Zweidimensionale diskrete Zufallsvariablen
95
Varianz einer linearen Transformation Die Zufallsvariable X besitze den Erwartungswert μ und die Varianz σ2. Dann besitzt nach (5.12) die lineare Transformation Y = a + b X den Erwartungswert a + b μ. Für die Varianz erhalten wir hiermit Var(a + b X) =
£ (a + bx; - a - b μ)2 P ( X = χ.)
= b 2 Σ (Xi - μ)2 P(X = X;) = b 2 Var(X) . i Damit gilt allgemein Var(a + bX) = b 2 · Var(X) für a , b e R, falls Var(X) existiert. (5.21) Durch eine Parallelverschiebung (a beliebig, b = 1) bleibt die Varianz und damit auch die Standardabweichung unverändert. Multiplikation der Werte einer Zufallsvariablen mit b bewirkt eine Multiplikation der Varianz mit b 2 und der Standardabweichung mit | b |. Standardisierung einer Zufallsvariablen Die Zufallsvariable X besitze den Erwartungswert μ und die Standardabweichung σ φ 0. Dann heißt die linear transformierte Zufallsvariable Υ*
Λ
-
_ Χ - μ σ
die Standardisierte (oder Standardisierung) von X. Aus (5.12) und (5.21) erhält man E ( X * ) = 0 und V a r ( X * ) = E ( X * 2 ) = 1.
(5.22)
5.2 Zweidimensionale diskrete Zufallsvariablen In diesem Abschnitt werden gleichzeitig zwei diskrete Zufallsvariablen X und Y betrachtet, die auf der Ergebnismenge Ω des gleichen Zufallsexperiments erklärt sind, also eine zweidimensionale Zufallsvariable ( X , Y ) .
5.2.1 Gemeinsame Verteilung Beispiel 5.8 (Roulette): Beim Roulette setze ein Spieler jeweils eine Einheit auf das erste Dutzend D = { 1 , 2 , . . . , 12} und auf den Sechserblock S = { 1 0 , 1 1 , 1 2 , 1 3 , 1 4 , 1 5 } . Die Reingewinne aus den beiden Strategien werden durch die Zufallsvariablen X (Gewinn mit D) und Y (Gewinn mit S) beschrieben. Falls das Ereignis D eintritt, ist die Realisierung von X gleich 2 (Auszahlung minus Einsatz),
Kapitel 5: Diskrete Zufallsvariablen
96
beim Eintritt von S ist die Realisierung von Y gleich 5. Sonst ist der jeweilige Einsatz verloren mit der Realisierung —1. Die gemeinsamen Wahrscheinlichkeiten lauten P ( X = 2 ; Y = 5) = P ( D Π S) = P ( { 1 0 , 1 1 , 1 2 } ) = £ ; P(X = 2 ; Y = - 1 ) = P({1,2, 3 , 4 , 5 , 6 , 7 , 8 , 9 } ) = £ ; P ( X = - 1 ; Y = 5) = P ( { 1 3 , 1 4 , 1 5 } ) = £ ; P(X = - 1 ; Y = - 1 ) = P({0,16,17,..., 35,36}) = g
(Summe = 1).
Die Wahrscheinlichkeiten sind in der folgenden Vierfeldertafel eingetragen: \
yj
xi
-1
5
Summe
22 37 9 37
3 37 3 37
25 37 12 37
31 37
6 37
1
-1 2 Summe
In der letzten Spalte stehen die Wahrscheinlichkeiten der Zufallsvariablen X, in der letzten Zeile die der Zufallsvariablen Y . Allgemein werde jedes Versuchsergebnis ω e Ω durch zwei Zufallsvariablen abgebildet auf Χ ( ω ) und Υ(ω). Jedem ω wird damit ein Zahlenpaar (Χ(ω), Υ ( ω ) ) e R 2 zugeordnet. Die Wertebereiche der beiden Zufallsvariablen bezeichnen wir mit W x = {xj, x2, x3,...} ;
W Y = {yx, y2, y3,...}.
Auf das Wertepaar ( x ; , y j ) , x ; e W x , yj e W Y
wird das Ereignis
Ay - {ω I X ( W ) = Xi, Υ(ω) = y. } = {ω | Χ(ω) = x j Π { ω | Υ (ω) =
Yj}
abgebildet. Durch Py
= P ( X = x i l Y = yj) = P(Aij)
(5.23)
wird die Wahrscheinlichkeit Ρ von Ω auf die Paare ( x ; , yj) der Realisierungen der beiden Zufallsvariablen übertragen. Dabei gilt Σ
1
EPij =
j
Σ
1
E
p
j
( x =
x
i-
Y
= yj) = i -
Definition 5.8 (gemeinsame Verteilung): {((xi'yj)'Pij =
p
(
x
= xi>Y = yj))>xie w x , y
heißt die gemeinsame Verteilung von ( X , Y ) .
j e
w
Y
}
5.2 Zweidimensionale diskrete Zufalls variablen
97
Wie die gemeinsame Häufigkeitsverteilung einer zweidimensionalen Stichprobe (Abschnitt 3.2) kann die gemeinsame Verteilung zweier diskreter Zufallsvariabler in einer Kontingenztafel übersichtlich dargestellt werden (s. Tab. 5.1). Anstelle der relativen Häufigkeiten werden die gemeinsamen Wahrscheinlichkeiten eingetragen. Zeilen- bzw. Spaltensummen ergeben die Verteilungen der beiden einzelnen Zufallsvariablen X und Y, die sogenannten Randverteilungen mit p(x = p
(Y
E P ( x = Xi-Y = yj) = Σ Pij = P i j j = yj) = Σ ρ ( χ = x i - Y = yj) = Σ Pij = p - j
X
Xi)=
1
yi
y2
• . . y.
...
Summe
Pn
P12
· ··
Pij
···
Pi·
...
P2-
Pi·
x
2
P21
P22
· . . p2j
x
i
Pil
Pi2
• ••Pij
···
Summe
P-i
P-2
·
. p..
...
(5.24)
p.. = 1
Tab. 5.1: Kontingenztafel der gemeinsamen Verteilung
5.2.2 Funktion einer zweidimensionalen Zufallsvariablen Es seien X und Y zwei diskrete Zufallsvariablen mit der gemeinsamen Verteilung { ( x i , y j ) , P ( X = x i , Y = y j ) , x i 6 W x , y j e W Y } . Ferner sei g ( x , y ) eine beliebige reellwertige Funktion in den beiden Veränderlichen χ und y. Dann wird auf W x x W y durch Ζ(ω) = Β ( Χ ( ω ) , Υ ( ω ) )
(5.25)
eine eindimensionale diskrete Zufallsvariable Ζ = g(X,Y) erklärt. Ihr Wertebereich W(Z) = {zj, z 2 ,z 3 ,...} besteht aus allen möglichen Funktionswerten g(x;,yj). Die Zufallsvariable Ζ besitzt genau dann einen Erwartungswert, wenn folgende Reihe absolut konvergiert: E(Z)=
Σ \ • p ( z = zk) = Σ zk · Σ P(x = k k i.j:g(Xi,yj) = z k
=
Σ
=
Eg(xi,yi)'P(x=xilY=yj)·
Damit gilt der
k
Σ z k - P ( X = x i , Y = yj) 1 >j:g(x;-yj) =
Xi,Y
=
yj)
Kapitel 5: Diskrete Zufallsvariablen
98
Satz 5.3 (Funktionssatz): Es seien X und Y zwei diskrete Zufallsvariablen mit der gemeinsamen Verteilung { ((x ; , y j , p^ ) , i = 1, 2 , . . . ; j = 1 , 2 , . . . } . Ferner sei g ( x , y ) eine auf W x χ W Y definierte reellwertige Funktion in den beiden Veränderlichen χ und y. Dann besitzt die Zufallsvariable Ζ = g (Χ , Y) genau dann einen Erwartungswert und zwar E(Z) = E(g(X , Υ)) = Σ g(*i, yj) · P ( x = Xi, Y = Yj) ,
(5.26)
•j
wenn diese Reihe absolut konvergiert mit Σ |g(xi>yj)l-p(x=xi.Y=yj) < ij
00
·
5.2.3 Unabhängige diskrete Zufalls variablen Die Unabhängigkeit zweier diskreter Zufallsvariabler X und Y wird auf die Unabhängigkeit der Urbilder ihrer Werte zurückgeführt, also auf die Unabhängigkeit aller Ereignispaare A; = {ω | Χ(ω) = Xj} und Bj = { ω | Υ ( ω ) = yj}. Diese Ereignisse sind nach Satz 4.13 genau dann unabhängig, wenn für alle Paare (Aj, Bj) die Produktdarstellung P ( A i n B j ) = P(Ai)-P(Bj)
für i = 1 , 2 , . . . ; j = 1 , 2 , . . .
gilt. Damit erhält man die Definition 5.9 (Unabhängigkeit zweier diskreter Zufallsvariabler): Zwei diskrete Zufallsvariablen X und Y heißen unabhängig, wenn für alle Wertepaare (xj, yj) mit x ; e W x , yj e W Y gilt P(X = Χ;, Y = yj) = P(X = X;) · P( Y =
yj)
.
(5.27)
Bei unabhängigen Zufallsvariablen X und Y gilt also Pij = Pi· · P-j für alle i, j. Die gemeinsame Verteilung ist bei unabhängigen Zufallsvariablen durch die beiden Randverteilungen über die Produktbildung eindeutig bestimmt.
5.2.4 Produkt zweier diskreter Zufallsvariabler Die Zufallsvariable des Produkts Ζ = X · Y wird durch Ζ(ω) = Χ(ω)·Υ(ω)
(5.28)
definiert. Der Wertebereich besteht aus allen möglichen Produkten Xj · yj · Der Erwartungswert E(Z) existiert nach dem Funktionssatz 5.3 genau dann, wenn folgende Reihe absolut konvergiert:
5.2 Zweidimensionale diskrete Zufallsvariablen
Ε ( Χ · Υ ) = J > i - y j - P ( x = Xi.Y = yj)· ij
99
(5-29)
Wenn X und Y endliche Wertebereiche haben, existiert der Erwartungswert des Produktes X · Y immer. Die Summe (5.29) kann im Allgemeinen nicht mehr vereinfacht werden. Es gilt jedoch der
Satz 5.4 (Erwartungswert des Produkts unabhängiger Zufallsvariabler): Die beiden diskreten Zufallsvariablen X und Y seien unabhängig und besitzen die Erwartungswerte E ( X ) und E ( Y ) . Dann hat auch das Produkt X · Y einen Erwartungswert und es gilt Ε(Χ·Υ) = E(X)-E(Y).
(5.30)
Beweis: Wegen der Unabhängigkeit gilt für alle i , j die Produktdarstellung P(X = Xi.Y =
yj)
= P ( X = xj) · P ( Y =
yj).
Damit geht (5.29) über in E ( X · Υ) = Σ > Σj *i · yj · P ( X = Xi) · P ( Y = yj) = Σ ^ · P ( X = χι) · E y j · P ( Y = yj) = E ( X ) · E ( Y ) , 1 j womit der Satz bewiesen ist.
5.2.5 Summen diskreter Zufallsvariabler Die Zufallsvariable der Summe Ζ = X + Y ist definiert durch Z(u>) = Χ ( ω ) + Υ ( ω ) .
(5.31)
Der Wertebereich der Summenvariablen X + Y besteht aus allen möglichen Summen Xj + y j . Falls manche Summen übereinstimmen, müssen die entsprechenden Wahrscheinlichkeiten addiert werden. Nach dem Funktionssatz 5.3 lautet im Falle der Existenz der Erwartungswert E ( X + Y ) = E E ( x i + y j ) - P ( x = X i . Y = yj) 1 j
= E E v P ( x = * i . Y = yj) + E E y j - P ( x = * i . Y = yi)
1 j
1 j
= E * i E P ( x = X i . Y = y j ) + E y j E P ( x = X i . Y = yj) • j j I
= Σ ν 1
Damit gilt der
ρ
(
χ
= x i ) + E y j - P ( Y = yj) = E(x) + E ( Y ) . j
Kapitel 5: Diskrete Zufallsvariablen
100
Satz 5.5 (Erwartungswert einer Summe zweier Zufallsvariabler): Die beiden Zufallsvariablen X und Y sollen die Erwartungswerte E(X) und E(Y) besitzen. Dann hat auch die Summe X + Y einen Erwartungswert, und es gilt E(X + Y) = E(X) + E(Y).
(5.32)
Die Additivität (5.32) kann mit Hilfe des Prinzips der vollständigen Induktion auf mehrere Summanden übertragen werden. Die Zufallsvariablen Xj sollen die Erwartungswerte E(X ; ) besitzen für i = 1 , 2 , . . . , n. Dann besitzt die Summe den Erwartungswert E(X a + X 2 + ... + X J = E ( X j ) + E(X 2 ) + ... + E ( X J .
(5.33)
Die beiden diskreten Zufallsvariablen X und Y seien unabhängig und sollen die Erwartungswerte E(X) = μ χ und E(Y) = μ γ besitzen. Ferner sollen ihre Varianzen existieren. Dann gilt wegen der Additivität des Erwartungswertes und der Produktdarstellung E(X · Y) = E(X) · E(Y) für die Varianz der Summe Var(X + Υ) = Ε ( [ Χ + Υ - μ χ - μ γ ] 2 )
(5.34)
= E ( ( X - μ χ ) 2 + (Υ - μ γ ) 2 + 2(X - μ χ ) ( Υ - μ γ ) ) = Var(X) + Var(Y) + 2 E ( ( X — μ χ ) ( Υ — μ γ ) ) = Var(X) + Var(Y)+2 [E(X · Y) - E(X) E(Y)] "
= Var(X) + Var(Y).
v/
'
=0
Damit haben wir folgenden Satz bewiesen: Satz 5.6 (Varianz einer Summe zweier unabhängiger Zufallsvariabler): Die beiden diskreten Zufallsvariablen X und Y seien unabhängig und besitzen die Varianzen Var(X) und Var(Y). Dann hat auch die Summe X + Y eine Varianz, und es gilt Var(X + Y) = Var(X) + Var(Y).
(5.35)
Eigenschaft (5.35) kann unmittelbar auf mehrere Summanden übertragen werden: Es gilt Var(Xi + . . . + X J = Var(Xj) + . . . + V a r ( X j ,
(5.36)
falls die Zufallsvariablen paarweise (also alle Paare) unabhängig sind.
101
5.2 Zweidimensionale diskrete Zufallsvariablen
5.2.6 Kovarianz und Korrelationskoeffizient Die in Abschnitt 3.3 bei zweidimensionalen Stichproben eingeführten Begriffe Kovarianz s x y und Korrelationskoeffizient r werden auf Paare von diskreten Zufallsvariablen übertragen. Die Zufallsvariablen X und Y sollen die Erwartungswerte μ χ = E ( X ) und μγ — E(Y) besitzen. Falls die Varianz der Summe X + Y existiert, hat sie nach (5.34) die Darstellung Var(X + Y ) = Var(X) + Var(Y) + 2 E[ (X - μ χ ) ( Υ - μγ) ].
(5.37)
Dabei gilt Ε [ (X - μ χ ) ( Υ - μ γ ) } = E(X · Υ ) - μ χ • μ γ . Diese Größen erhält man nach dem Funktionssatz 5.3 in der Form Ε [ (X - μ χ ) ( Υ - μγ) ] = £ (χ; - /i x )(y. - μ γ ) Ρ ( Χ = χ., Υ = y.) ; Ε(Χ · Υ ) = Σ x i yj P ( X = χ;, Υ = y j ) . ij
(
Definition 5.10 (Kovarianz und Korrelationskoeffizient): Im Falle der Existenz heißt Cov(X, Υ ) = σ χ γ = Ε [ (X - μ χ ) ( Υ - Μγ) ] = Ε(Χ · Υ ) - μ χ μγ (5.39) die Kovarianz und C 0 V ( X ' Y ) Ρ = Ρ(Χ,Υ)=, Η ' ^JVar(X) · Var(Y)
σΧ
(5.40)
σΥ
der Korrelationskoeffizient von Χ und Υ . Im Falle ρ — 0, also für Cov(X , Y ) = 0, heißen X und Y unkorreliert. Bemerkungen: 1. Für X = Y geht die Kovarianz über in die Varianz von X: Cov(X, X ) = σ χ χ = Ε [ (X - μ χ ) ( Χ - μχ)}
= Var(X).
2. Mit der Kovarianz gilt nach (5.37) allgemein die Darstellung Var(X + Y ) = Var(X) + Var(Y) + 2 Cov(X , Y ) .
(5.41)
3. Nach Satz 5.4 gilt bei unabhängigen Zufallsvariablen Ε ( Χ · Υ ) = Ε ( Χ ) · Ε ( Υ ) =» C o v ( X , Y ) = 0 . Unabhängige Zufallsvariable sind also auch unkorreliert. Aus der Unabhängigkeit folgt die Unkorreliertheit. Die Umkehrung gilt im Allgemeinen nicht. Aus der Unkorreliertheit folgt nicht ohne weiteres die Unabhängigkeit. Dazu das folgende
102
Kapitel 5: Diskrete Zufallsvariablen
Beispiel 5.9: Die beiden Zufallsvariablen X und Y sollen die in der nachfolgenden Kontingenztafel dargestellte Verteilung besitzen:
x
i 1
1
2
3
Summe
0
4
1
0
4
4
0
4
0
4
1
2 3
1
1
Summe
1
1 2
4
0 1
4
1 1 2 1
4
1
Die Zufallsvariablen sind nicht unabhängig, da die gemeinsamen Wahrscheinlichkeiten nicht gleich dem Produkt der jeweiligen Randwahrscheinlichkeiten sind. Wegen E(X) = E(Y) = 2;
Ε(Χ·Υ) = 4 = Ε(Χ)·Ε(Υ)
sind die beiden Zufallsvariablen jedoch unkorreliert. Mit Ε(Χ2) = Ε(Υ2) = 1 · Ι + 4 · 1 + 9 - i = | ; Var(X) = V a r ( Y ) = | - 4 = ± erhält man wegen der Unkorreliertheit Var(X + Y) = Var(X) + Var(Y) = 1. Für den Korrelationskoeffizienten ρ zweier diskreter Zufallsvariabler gelten ähnliche Eigenschaften wie für den Korrelationskoeffizienten r einer zweidimensionalen Stichprobe (vgl. Satz 3.1). Satz 5.7 (Eigenschaften des Korrelationskoeffizienten): Für den Korrelationskoeffizienten ρ zweier diskreter Zufallsvariabler (X , Y) gelten allgemein folgende Eigenschaften: a
) IΡ I
1) a ^ s o
—
1< Ρ
1·
b) | ρ | = 1 ist genau dann erfüllt, wenn alle Wertepaare (xj, yj) mit P(X = Χ;, Y = yj) > 0 auf einer Geraden liegen. Dann gilt die lineare Beziehung σγ Υ — μ γ = 0Γ— · (X — μ χ ) für ρ — 1 (positive Steigung) Λ Υ - μγ
-
-
σΥ
• (Χ - μ χ ) für ρ = - 1
(negative Steigung).
5.3 Spezielle diskrete Zufallsvariablen
103
Beweis: Mit Hilfe der Standardisierungen kann der Korrelationskoeffizient ρ dargestellt werden in der Form „ = „(X,Y) = E
= E(X* · Y*).
Mit E ( X * 2 ) = V a r ( X * ) = E ( Y * 2 ) = V a r ( Y * ) = 1 erhält man 0oo folgt damit p—>0. Dann gilt n
limo(£).pk.(l-p)n-k =
für k = 0 , 1 , 2 , 3 , . . . .
(5.58)
ηρ=λ Für große η und kleine ρ gilt somit die Näherung (E)-pk-(l-p)n~k«
np
für k = 0 , l , 2 , 3 , . . . .
(5.59)
Diese Approximation ist für η > 50 und ρ < 0,1 brauchbar. Beweis: Mit ρ = jj gilt für jedes k -k (J).p>. · - · ( - ' • + ' )
n - ( n - l ) . . . . . ( n - k + l) η · η •... · η
•ff.fr.A)· -k
λ
Für festes k erhält man lim ( 1 — i 1 = 1 für jedes i = l , 2 , . . . , k —1; n—»oo ' lim ( 1 —
~
=1
und
lim ( l -
=
e~λ .
für
k = 0,1,2,3
Daraus folgt unmittelbar die Behauptung lim ( E ) ' P k - ( l - P ) n " k = n - e ~ A ηρ=λ Aus folgt
. oo eA = Σ ρK!" k=o
k=0 κ ·
(5-60)
Kapitel 5: Diskrete Zufallsvariablen
110
Daher werden durch p k = P(X = k ) = ^ - e - ' x
für
k = 0,1,2,3,...
(5.61)
Wahrscheinlichkeiten einer diskreten Zufallsvariablen X erklärt. X hat den abzählbar unendlichen Wertebereich W = { 0 , 1 , 2 , 3 , . . . } = N 0 . Definition 5.11 (Poisson-Verteilung): Die Zufallsvariable X mit der Verteilung (5.62) heißt Poisson-verteilt mit dem Parameter λ. Diese Verteilung ist nach dem französischen Mathematiker Simeon Denis Poisson (1781 — 1840) benannt. Für jedes k e N0 erhält man _ k+ i
λ* + 1 (k + 1)!
-λ _ λ Ak ~ k + 1 k!
-λ _ λ ~ k+ 1
Pk
'
Damit gilt die für die praktische Berechnung der Wahrscheinlichkeiten nützliche Rekursionsformel: Pk+i=] 0 beträgt? Aufgabe 5.3: Beim Werfen einer idealen Münze erhält ein Spieler den doppelten Einsatz ausgezahlt, falls Wappen auftritt; andernfalls verliert er seinen Einsatz. Der Spieler benutzt folgende Strategie: Er setzt eine Einheit und verdoppelt jeweils seinen Einsatz so lange, bis einmal Wappen auftritt, dann hört er auf. Die Zufallsvariable X beschreibe den Gesamteinsatz und Y den Reingewinn pro Spielserie. Bestimmen Sie die Erwartungswerte der beiden Zufallsvariablen für folgende Fälle: a) Der Spieler verfügt über beliebig viel Kapital; b) der Spieler kann insgesamt höchstens 1023 Einheiten einsetzen. Aufgabe 5.4: Beim Roulette benutzt ein Spieler folgende Strategie: Er setzt immer auf das erste Dutzend. Zunächst setzt er eine Einheit und verdoppelt jeweils
5.4 Aufgaben
113
seinen Einsatz so lange, bis er gewinnt. Im Falle eines Gewinns erhält er das Dreifache des laufenden Einsatzes ausbezahlt. Die Zufallsvariable X beschreibe den Reingewinn pro Serie. a) Zeigen Sie, dass X keinen Erwartungswert besitzt, falls der Einsatz pro Spiel beliebig groß sein darf. b) Berechnen Sie den Erwartungswert von X, falls der Höchsteinsatz pro Spiel auf 4 096 Einheiten beschränkt ist. Aufgabe 5.5: Eine Firma behauptet, in einer Produktionsmenge sei jedes einzelne Stück mit Wahrscheinlichkeit ρ = 0,05 fehlerhaft. In einer Eingangskontrolle werden aus der Lieferung 50 Stück zufällig ausgewählt. a) Falls sich in dieser Stichprobe mehr als drei fehlerhafte Stücke befinden, wird die Sendung nicht angenommen. Mit welcher Wahrscheinlichkeit wird die Annahme zu Unrecht verweigert? b) Die Annahme werde bei mehr als k fehlerhaften Stücken in der Stichprobe vom Umfang 50 verweigert. Wie groß muss k mindestens sein, damit die Sendung mit einer Wahrscheinlichkeit von höchstens 0,05 zu Unrecht nicht angenommen wird? Aufgabe 5.6: Bei einer Weinprobe soll die Rebsorte erkannt werden. Für 10 Proben ist jeweils unter vier angegebenen Möglichkeiten eine auszuwählen. Die Auszeichnung WEINKENNER erhält jemand, der mindestens 8 Rebsorten richtig erkennt. Wie groß ist die Wahrscheinlichkeit, dass jemand, der bei jeder der 10 Proben jeweils eine zufällig auswählt, also durch Raten diese Auszeichnung erhält? Aufgabe 5.7: Jemand hat in seiner Tasche 5 rein äußerlich kaum unterscheidbare Schlüssel, von denen für die Haustüre nur einer passt. Die Person kommt abends nach Hause und wählt so lange zufällig einen Schlüssel aus, bis dieser passt. Berechnen Sie den Erwartungswert und die Standardabweichung für die Anzahl der benötigten Versuche, falls a) die bereits ausgewählten nicht passenden Schlüssel beiseite gelegt und nicht mehr ausgewählt werden; b) die nicht passenden Schlüssel vor dem nächsten Versuch zu den übrigen zurückgelegt werden. Aufgabe 5.8: Es werde mit zwei idealen Würfeln geworfen. X bzw. Y beschreibe die Anzahl der geworfenen Sechsen bzw. Einsen. a) Bestimmen Sie die gemeinsame Verteilung von ( X , Y ) . Sind X und Y unabhängig? b) Berechnen Sie Erwartungswert und Varianz von X und Y.
114
Kapitel 5: Diskrete Zufallsvariablen
c) Bestimmen Sie die Verteilung, den Erwartungswert und die Varianz der Zufallsvariablen X + Y und X · Y. d) Berechnen Sie den Korrelationskoeffizienten von X und Y. Sind X und Y unkorreliert? Aufgabe 5.9: Mit einem idealen Würfel werde dreimal hintereinander geworfen. Dabei sei die Zufallsvariable X die Anzahl der geworfenen Einsen und Y die der geworfenen Zweien. a) Bestimmen Sie die gemeinsame Verteilung. Sind X und Y unabhängig? b) Berechnen Sie den Korrelationskoeffizienten von X und Y. Aufgabe 5.10: Die zweidimensionale Zufallsvariable ( X , Y ) besitze die gemeinsame Ver\
x
2 5 10
y j i \
- 1
2
5
0,2 0,1 0,15
0,1 c 0,1
0,05 0,2 0,05
a) Bestimmen Sie die Konstante c . b) Berechnen Sie die Erwartungswerte und Varianzen von X und Y. c) Bestimmen Sie den Korrelationskoeffizienten p. Aufgabe 5.11: Die Sterbewahrscheinlichkeit innerhalb eines Jahres der Ehepartner einer bestimmten Altersgruppe seien in einer Sterbetafel gegeben als P(beide überleben) = 0,984; P(nur der Mann stirbt) = P(nur die Frau stirbt) = 0,0078. Beide Ehepartner schließen jeweils eine Risikolebensversicherung über 10 000 E U R ab, deren Jahresprämie für jede Person 100 E U R beträgt. Die Zufallsvariablen X und Y beschreiben den Reingewinn pro Jahr der Versicherungsgesellschaft bezüglich der einzelnen Verträge. a) Bestimmen Sie die gemeinsame Verteilung sowie die Randverteilungen. b) Bestimmen Sie Verteilung und Erwartungswert von X + Y. c) Sind die Zufallsvariablen X und Y unabhängig? Aufgabe 5.12: Der Ausschussprozentsatz bei der Serienherstellung von Werkzeugen betrage 2 %. Bei einer Kontrolle werden zufällig 50 Werkzeuge herausgegriffen. Wie groß ist die Wahrscheinlichkeit, unter diesen a) kein, b) genau 2 , c) mindestens 2 Ausschussstücke zu finden? Berechnen Sie diese Wahrscheinlichkeit exakt mit Hilfe der Binomialverteilung, und geben Sie einen Näherungswert mit Hilfe der Poisson-Verteilung an.
Kapitel 6 Stetige Zufallsvariablen Beim Wiegen oder Messen werden die Ausprägungen eines stetigen quantitativen Merkmals untersucht. Als Ausprägungen sind dann alle reellen Zahlen aus einem bestimmten Intervall möglich. Daher können bei solchen Zufallsvariablen Wahrscheinlichkeiten nicht mehr mit Hilfe von Summen berechnet werden. Anstelle von Summen werden Integrale über Dichten benutzt. Wir beschränken uns auf die Untersuchung einer einzigen stetigen Zufallsvariablen. Bezüglich zweidimensionaler stetiger Zufallsvariabler sei auf die weiterführende Literatur verwiesen, z.B. Bosch, K. [1996].
6.1 Dichte und Verteilungsfunktion Definition 6.1 (Dichte): Eine auf ganz Κ integrierbare Funktion f heißt Dichte (Dichtefunktion oder Wahrscheinlichkeitsdichte), wenn sie folgende Bedingungen erfüllt: a) f(x) > 0 für alle χ e U ; +OC b) Jf(x)dx=l.
(6.1)
Der Graph der Dichte f verläuft oberhalb oder auf der x-Achse und schließt mit der x-Achse eine Fläche vom Inhalt Eins ein (vgl. Bild 6.1). Wegen b 0 < J f(x) dx < 1 a
für alle a < b können die Inhalte der Flächen, welche f über den Intervallen [ a ; b ] mit der x-Achse einschließen, als Wahrscheinlichkeiten aufgefasst werden.
Bild 6.1: Dichte
Definition 6.2 (stetige Zufallsvariable): Eine Zufallsvariable X heißt stetig mit der Dichte f, wenn für alle a < b gilt b P(a < X < b) = Ρ ( { ω e Ω | a < Χ(ω) < b}) = Jf(x)dx . (6.2)
Kapitel 6: Stetige Zufallsvariablen
116
Die Wahrscheinlichkeit dafür, dass die Realisierung der stetigen Zufallsvariablen X im Intervall [ a ; b ] liegt, ist also gleich dem Inhalt der Fläche, welche die Dichte f mit der x-Achse über diesem Intervall einschließt. Für a = b = χ erhält man P(X = χ) = 0 für jedes χ € R.
(6.3)
Jede Realisierung einer stetigen Zufallsvariablen besitzt also die Wahrscheinlichkeit 0, sämtliche Realisierungen zusammen haben trotzdem die Wahrscheinlichkeit 1. Wegen P(X = a) = P(X = b) = 0 können bei der Berechnung von Wahrscheinlichkeiten für Intervalle die Grenzen dazugenommen oder auch weggelassen werden, ohne dass sich dadurch die Wahrscheinlichkeit ändert. Es gilt also b P(a < X < b) = P(a < X < b) = P(a < X < b) = P(a < X < b) = Jf(x)dx. a Im Falle f(x) > 0 ist der Funktionswert f(x) nicht gleich der Wahrscheinlichkeit P(X = x). Dichten sind also keine Wahrscheinlichkeiten. Wegen der Integraldarstellung (6.2) beschreibt die Dichte f global (über Intervallen) Wahrscheinlichkeiten einer Zufallsvariablen X. Sie kann aber auch Wahrscheinlichkeiten lokal beschreiben. Ist f an der Stelle xQ rechtsseitig stetig, so gilt die Näherung P( x 0
x) = P ( X > x ) = 1 - P ( X < x) = 1 - F ( x ) , χ g R.
6.2
E r w a r t u n g s
w e r t
Zur Motivation gehen wir zunächst von einer Dichte f aus, die außerhalb des Intervalls [ a ; b ] verschwindet. Wie bei der Einführung des bestimmten Integrals wird das Intervall [ a ; b ] in η Teilintervalle zerlegt (s. Bild 6.2) mit den Zerlegungspunkten a = x
0
0
heißt exponentialverteilt mit dem Parameter λ. f(x) ist nichtnegativ mit OO OO r . ηΟΟ J f(x)dx= j A - e " * x d x = [ - e " A x ] = 1. - oo 0 Daher ist f tatsächlich Dichte. In Bild 6.7 sind Dichten mit verschiedenen Parametern λ skizziert.
6.6 Spezielle stetige Zufallsvariablen
125
1
T—t
2
Bild 6.7: Dichten von Exponentialverteilungen Die Verteilungsfunktion lautet F(x) = 0 für χ < 0 ; F(x) = $ X - e ~ X u d u = [ -
-Aul
r- x > 0 = 1 — e λ χ für
also F(x) = ί K J \ l - e
-ΛχίίίΓΧ 0 .
Mit Hilfe der partiellen Integration bezüglich u(x) = χ ; v'(x) = e hält man wegen lim x k e ~ A x = 0
λ x
er-
für k = 1 , 2 , . . .
den Erwartungswert E(X) = f Ä x e " A x d x = [ - Ä i x e - λ χ =
0
-
°°
0 +
Γ ΐ6β - ^ Γ - ΐ La J 0 - A ·
oo e 0J
dx (6.25)
Damit gilt jAxe
Ax
dx =
— x e — λχ _ J_e A — λ X λ
Mit u(x) = χ und v'(x) = Axe A x d x le Integration mit (6.25) und (6.26)
(6.26)
erhält man ebenfalls durch partiel-
126
Kapitel 6: Stetige Zufallsvariablen \ J x - A x e x d x 0
00
E(X )
=
x2 e ^ —
0 +
2 λ2
1 — 1j x e
- λ χ
.
—Λ χ
"100
°° - A +ι Jf r[ x„ e„ ~
1
x
.+ 1 j e„ -—Aλ xχ]ι d
x
+ +
2
λ2
—
;
2
λ'
V a r ( X ) = E ( X 2 ) - [ E ( X ) ]2 = ^
- i
-
;
i
σ = \ .
(6.27)
Den Median μ erhält man aus der Verteilungsfunktion durch 1 - e " ^
=
I;
e " ^
=1;
- A · ? = In ( i ) = - l n 2 ; £ =
l n 2
Die Exponentialverteilung besitzt folgende typische Eigenschaft: Satz 6.3 (Eigenschaft der Exponentialverteilung): Die Zufallsvariable X sei exponentialverteilt mit dem Parameter λ > 0. Dann gilt für jedes χ > 0 und jedes h > 0 P(X < x + h|X > x ) = P(X < h ) .
(6.28)
Beweis: Die Zufallsvariable X sei exponentialverteilt. Dann gilt für die Verteilungsfunktion F nach Definition der bedingten Wahrscheinlichkeit für jedes χ > 0 und jedes h > 0 P f X < x + h I X > x") P(Xx) _
P ( * < X < * + h) _ F ( x + h ) - F ( x ) p ( x > x ) Γ-TFÖÖ 1
_e-A(x + h)_
[ 1
1 - [1 - e_
e
~
A x
~ = womit der Satz bewiesen ist.
-e~
A ( x + h )
e-Ax l-e"
A h
_e-Ax
Λχ
_
]
] e
_ A x
-[l-e-
~
= F(h) = P ( X < h ) ,
e"Ax
A h
]
6.6 Spezielle stetige Zufallsvariablen
127
Interpretation Falls die Zufallsvariable X die Lebensdauer eines Geräts oder eines Maschinenteils ist, besagt (6.28) folgendes: Beim Erreichen eines jeden Alters χ ist die bedingte Verteilung der restlichen Lebensdauer gleich der Verteilung der Lebensdauer eines neuen Geräts. Die bedingte Verteilung der weiteren Lebensdauer ist dann unabhängig vom erreichten Alter. Bei solchen Geräten findet somit keine Alterung statt. Man sagt auch, die Exponentialverteilung besitzt kein Gedächtnis. Wegen dieser Eigenschaft sind viele Zufallsvariablen aus der Praxis wenigstens näherungsweise exponentialverteilt. Beispiele dafür sind: — die Lebensdauer (Betriebsdauer) elektronischer Geräte, die kaum einem mechanischen Verschleiß ausgesetzt sind — die Dauer von Telefongesprächen — die Differenz der Ankunftszeiten zweier nacheinander an einem Bankschalter ankommenden Kunden. Beispiel 6.4: a) Die Zufallsvariable X der Betriebsdauer (in Stunden) eines elektronischen Gerätes sei exponentialverteilt mit dem Erwartungswert μ = 500. Mit welcher Wahrscheinlichkeit liegt die Betriebsdauer zwischen 300 und 600 Stunden? Der Parameter lautet λ = 1/500 = 0,002. F ( x ) = 1 - e - °· 0 0 2 x für χ > 0 ergibt P(300 < X < 600) = [ 1 - e - °· 0 0 2 x =
_
e
- 0,002 · 600
+
e
- 0,002 · 300
=
^ e
- 0,6 _
e
- 1,2 ^
0
247
g
b) Die Zufallsvariable der Zeitdifferenz (in Minuten) zwischen dem Eintreffen zweier Kunden an einem Schalter sei exponentialverteilt. Die Wahrscheinlichkeit, dass mindestens zwei Minuten lang kein Kunde ankommt, sei 0,1. Gesucht ist der Parameter λ der Verteilung. 0,1 = P ( X > 2 ) = 1 — [ 1 — e _ A " 2 ] = ε — 2 λ = In0,1 = l n ^ =
2 λ
;
- I n 10; λ = A - l n l O .
6.6.3 Nonnalverteilungen Wie schon der Name besagt, spielt die Normalverteilung in der Praxis eine zentrale Rolle. Viele in der Praxis vorkommende stetige Zufallsvariablen sind - wenigstens näherungsweise- normal verteilt. Ein Grund dafür sind die zentralen Grenzwertsätze aus Abschnitt 7.1.
Kapitel 6: Stetige Zufallsvariablen
128
6.6.3.1 Standard-Normalverteilung als Grenzwert standardisierter Binomialverteilungen Wir gehen von einer mit den Parametern η und ρ binomialverteilten Zufallsvariablen X n aus (vgl. Abschnitt 5.3.2) mit pk = P(Xn = k ) = ^ - p
k
.(l-p)
-
n
für k = 0 , l , . . . , n ;
k
E ( X n ) = np; V a r ( X n ) = np(l - p ) . In Bild 6.8 sind für ρ = 0,5 Histogramme der Verteilungen jeweils für η = 10 , η = 15 und η = 20 skizziert. Da mit wachsendem η die Erwartungswerte und Varianzen größer werden, "wandern" die Histogramme mit steigendem η immer mehr nach rechts, wobei die Histogramme gleichzeitig breiter und somit flacher werden.
0,2
0
ι 1
I 2
I 3
I 4
I 5
I 6
I 7
8
I 9
I
1 2
I 3
I 4
I 5
I 8
I 6
I 9
I 10
15
Ρ
V1 "Τ 1
p = 0.5; η =
I —ι —I 1 1 12 1 3
0,2
0
10
I 10
0,2
0 1
ρ = 0.5; η =
2
Γ 3
1
"Γ 1 1 Γ' ' "Ι"
τ - 1'-Η —ρ-1' τ - '
4
7
5
6
8
9
10
1— 15
= 0.5; η =
—Η 11
1 14
ι ' 12
13
ι 14
20
1
ι —r 15
·
16
Bild 6.8: Histogramme von Binomialverteilungen Um dieses "Abwandern" und die "Verflachung" zu verhindern, gehen wir über zu den Standardisierungen v
* _ n
X n ~ n P ,|np(l-p)
6.6 Spezielle stetige Zufallsvariablen
129
mit E(X*) = 0; Var(X*) = 1 für alle η . Die flächenproportionalen Histogramme der Standardisierungen der Binomialverteilungen aus Bild 6.8 sind in Bild 6.9 dargestellt.
ψ 1θ(ζ)
Bild 6.9: Histogramme standardisierter Binomialverteilungen Da die Histogramme mit der x-Achse eine Fläche vom Inhalt 1 einschließen, können die Deckseiten ψ η der Histogramme der standardisierten Binomialverteilungen als Dichten interpretiert werden. Bereits kann sehr gut durch eine Glockenkurve approximiert werden. Allgemein kann gezeigt werden, dass die Histogramme φ η der standardisierten Binomialverteilungen mit beliebigem ρ für n->oo gegen eine Glockenkurve konvergieren. Genauer gilt 1 η—too
Ν
Bei Renyi, Α. [1971], S. 129 ist ein Beweis für den folgenden Satz zu finden.
130
Kapitel 6: Stetige Zufallsvariablen
Satz 6.4 (globaler Grenzwertsatz): Für die Standardisierungen X * =
. n 2 = binomialverteilter Zufalls^|np(l - p )
variabler mit 0 < ρ < 1 gilt für jedes a < b * lim P ( a < X* < b) = j = 4 = n—>oo Ν .
x2 2
dx.
(6.30)
Die bereits in Bild 6.9 (unten) eingezeichnete Kurve besitzt die Darstellung 2 φ(χ)
=
— 1 — e "
(6.31)
ψ ist symmetrisch zur y-Achse. Man kann zeigen, dass sie mit der x-Achse eine Fläche vom Inhalt 1 einschließt. Daher ist ψ Dichte einer stetigen Zufallsvariablen. Definition 6.8 (Standard-Normalverteilung): Die Zufallsvariable Ζ heißt standard-normalverteilt oder kurz N ( 0 ; 1 ) verteilt, wenn sie die Dichte 2
(6.32) besitzt. Wegen ; ·e
2
dz =
•e
2
- J ^ e - T ΛΪ2Ϊ
dz =
• X e - T
1 .
1
existiert der Erwartungswert der Zufallsvariablen Ζ mit E(Z) = 0
(Symmetriestelle).
(6.33)
Ferner gilt (s. Bosch, K. [1996], S. 254) Var(Z) = 1 .
(6.34)
In der Bezeichnung N(0; 1)-Verteilung stellt damit der erste Parameter den Erwartungswert und der zweite die Varianz dar. Für die Dichte ψ (ζ) kann keine Stammfunktion in geschlossener Form angegeben werden. Daher müssen die Werte der Verteilungsfunktion
6.6 Spezielle stetige Zufallsvariablen
Φ(ζ) = P ( Z < z ) =
ζ J" p ( u ) d u = — oo
131 U Γ 1=· e "~2"du Ν27Γ J — oo
(6.35)
mit Hilfe numerischer Methoden berechnet werden. Wegen der Symmetrie der Dichte ψ zur y - A c h s e ist Φ(0) = 0,5. Aus Symmetrie-Gründen genügt es daher, die Verteilungsfunktion Φ für nichtnegative Werte zu tabellieren (s. Tabelle 1 im Anhang). Unterhalb der Dichte φ liegt rechts von ζ und links von — ζ jeweils eine Fläche (s. Bild 6.10) mit dem gleichen Inhalt. Daher gilt φ( - ζ) = P(Z < - ζ) = P(Z > ζ) = 1 - P(Z < ζ) = 1 - Φ ( ζ ) . Damit erhält man die Funktionswerte für negative Werte aus Φ( - ζ ) = 1 - Φ ( ζ )
für jedes ζ e R.
(6.36)
Bild 6.10: Dichte und Verteilungsfunktion der N ( 0 ; 1)-Verteilung Für die Quantile z q mit Φ(ζ ) = q gilt wegen der Symmetrie zur y-Achse
Z l
_
q
= -
Z q
für 0 < q < 1.
(6.37)
Daher genügt die Vertafelung der rechtsseitigen Quantile (Tabelle 2 im Anhang). Verteilungsfunktion und Quantile der N ( 0 ; 1)-Verteilung sind in vielen Taschenrechnern fest programmiert. Allgemein gilt für a < b P ( a < Ζ < b) = ® ( b ) - Φ(β) und speziell für ζ > 0 P ( - ζ < Ζ < ζ ) = Φ ( ζ ) - Φ( - ζ ) = Φ ( ζ ) - [1 - Φ ( ζ ) ] = 2 Φ ( ζ ) - 1, also Ρ ( - ζ < Ζ < ζ ) = 2 Φ ( ζ ) - 1 für jedes ζ > 0.
(6.38)
132
Kapitel 6: Stetige Zufallsvariablen
6.6.3.2 Allgemeine Normal Verteilung Es sei Ζ eine N(0; 1)-verteilte Zufallsvariable mit der Dichte φ. Mit σ > 0 und μ ς Κ (beliebig) betrachten wir die lineare Transformation Χ = μ + σΖ. Aus (6.13) und (6.21) erhält man die Kenngrößen E(X) = Ε(μ + σ Ζ) = μ + σ Ε(Ζ) = μ; (6.39)
Var(X) = Var(/i + σ Ζ) = σ2 Var(Z) = σ2 . Man kann zeigen, dass die Zufallsvariable X die Dichte (χ-μΓ 2 c) = 1 - P ( X < c) = 1 - Ρ ( X = 1-φ(£ζι1000)
φ(_£ζι1000)
=
=
000
0 erhält man über die Standardisierung mit (6.38) P(| x — | < kcr) =
Ρ(μ - ktf < X < μ + k 0 gilt damit p(I x - μ I
100. Je näher ρ bei 0 oder 1 liegt, desto größer muss η sein. Die Binomialverteilung ist eine diskrete Zufalls variable. Da sie durch die Verteilung einer stetigen Zufallsvariablen approximiert werden soll, wird die Näherung durch die sogenannte Stetigkeitskorrektur verbessert. Im Histogramm aus Bild 6.8 sind die Rechtecksinhalte gleich den Wahrscheinlichkeiten P(X = k) für die Rechtecksmitten. Aus diesem Grund ist die folgende Korrektur sinnvoll: P(k x < x n < k 2 ) = P ( k j _ 1 < X n < k 2 + i ) ; P(X n = k) = P ( k - i < X n < k + i ) . Uber die Standardisierung erhält man dann mit der Verteilungsfunktion Φ der Standard-Normalverteilung den Satz 6.7 (globale Approximation der Binormalverteilung durch die Normalverteilung) : Die Zufallsvariable X sei binomialverteilt mit den Parametern η und p. Im Falle np(l — p) > 9 gilt für 0 < k j < k 2 < η und jedes 0 < k < η mit der Verteilungsfunktion Φ der Standard-Normalverteilung die Näherung P(ki < X n < k 2 )
J
k 2 ~ n p + 0,5\ V^p(l-p) )
P(X = k) « φ Λ - η ρ + 0,5\ V ^ ^np(l-p)/
^ - η ρ - Ο , δ λ \ ·\| np(l — ρ) : — np — 0,5 ip(l-p) ,
y
(6.43)
Kapitel 6: Stetige Zufallsvariablen
136
Beispiel 6.7 ( Multiple-Choice): Eine Prüfung besteht aus 50 Fragen. Bei jeder der Fragen sind in zufälliger Reihenfolge die richtige und drei falsche Antworten angegeben. Wie viele richtige Antworten müssen zum Bestehen der Prüfung mindestens verlangt werden, damit jemand durch Raten (zufälliges Ankreuzen je einer Antwort) die Prüfung höchstens mit Wahrscheinlichkeit 0,01 bestehen kann? Die Zufallsvariable X der Anzahl der richtigen Antworten ist binomialverteilt mit η = 50 und ρ = 0,25. Die Parameter lauten E(X) = 12,5 ; Var(X) = np(l - p) = 50 · 0,25 · 0,75 = 9,375 > 9. Daher kann die Binomialverteilung durch die entsprechende Normalverteilung approximiert werden, c sei die verlangte Mindestanzahl richtiger Antworten. Als Bedingung erhält man 0,01 = P(X > c) = 1 - P(X < c) = 1 - P(X < c - 0,5); 0,99 = Ρ ( Χ < ο - 0 , 5 ) =
φ(^ρ).
Aus der Tabelle 2 im Anhang erhält man das Quantil c - 0 , 5 - 12,5
— z 0 99 = 2,32635 ; c = 20 (gerundet).
Der nachfolgende Grenzwertsatz stammt von Abraham (1667 - 1754) und Pierre Simon Laplace (1749 - 1827).
de
Moivre
Satz 6.8 (lokaler Grenzwertsatz von de Moivre-Laplace): Für np(l — p) > 9 gilt die lokale Approximation (k-np) 2 2
°p("p)
< 6 · 44 »
für k = 0 , 1 , 2 , . . . , n. Beweis: Nach dem globalen Grenzwertsatz 6.7 gilt für jedes k P(X
=
^
k)Ri
'
d/k -np + O ^ _ ^np(l-p); k+0,5
1 •
P
(u-np)2 2np(l-p)^,_ tiu
1 . -1—•" 1 • · e ,]2πηρ(1-ρ)
(k-np)2 2np(l — p)
. J k — 0,5 Dabei gilt die letzte Approximation nach dem Mittelwertsatz der Integralrechnung (die Länge des Integrationsintervalls ist gleich Eins). 2πηρ(1 — ρ)
c
> - n p - 0 , 5 \ ^np(l-p);
6.6 Spezielle stetige Zufallsvariablen
137
6.6.4 Chi-Quadrat-Verteilung (Testverteilung) Die Chi-Quadrat-Verteilung spielt in der beurteilenden Statistik (Teil III) eine wichtige Rolle. Es seien Zl, Z2,...,Zn unabhängige N(0; l)-verteilte Zufallsvariablen. Dann heißt die Zufallsvariable der Q u a d r a t s u m m e Xn = Z 2 + Z 2 + . . . + Z 2
(6.45)
2
Chi-Quadrat-, kurz χ -verteilt mit η Freiheitsgraden. Die Realisierungen dieser Zufallsvariablen sind nichtnegativ. Daher hat die Verteilungsfunktion an der Stelle 0 den Wert 0 . Für die N(0; l)-verteilte Zufallsvariable Z k gilt wegen E(Z k ) = 0 Var(Z k ) = E(Z k 2 ) = 1. Wegen der Additivität des Erwartungswertes folgt hieraus E ( X 2 ) = n. Z\ besitzt die Varianz Var(Z£) = 2 (s. Bosch, K. [1993], S. 288). D a m i t erhält man wegen der vorausgesetzten Unabhängigkeit der S u m m a n d e n Var(X2) = 2n. Für jedes η kann die Dichte g n (x) der Chi-Quadrat-Verteilung mit η Freiheitsgraden in geschlossener Form angegeben werden: 0 gnW =
x
für χ < 0 ,
— 2 _ 1 — 2 —
(6.46)
e
für χ > 0 .
22 Γ $ ) Dabei ist Γ die für jedes x > 0 Gamma-Funktion mit Γ(χ+1)=χ·Γ(χ);
durch Γ(χ) = J e
'-t*
0
r(|)=Γ2ΪΓ - >Γ2ΪΓ J
ηJ
Damit erhält man für die Quantile der Chi-Quadrat-Verteilung mit η Freiheitsgraden für η > 30 die Näherung
χ2
n;q
« η + >[2n~ · zQ ; z O u a n t i l der N(0 ; 1) - Verteilung. 4
4
(6.48)
6.6.5 t-Verteilung (Testverteilung) Auch diese Verteilung spielt in der beurteilenden Statistik eine wichtige Rolle. Es sei Ζ eine N(0; l)-verteilte Zufallsvariable und χ 2 eine davon unabhängige % 2 -verteilte Zufallsvariable mit η Freiheitsgraden. Dann heißt die Zufallsvariable ^
= Τ=7= i Xn/n
(6-49)
t-verteilt oder Student-verteilt mit η Freiheitsgraden. Diese Verteilung wurde im Jahre 1908 erstmals von William Sealy Gösset (1876 - 1937) unter dem Pseudonym Student veröffentlicht. Die t-Verteilung besitzt die Dichte r(B±i) g
»
(t)
= Λ Τ Τ Ι ) •,
I s p n
n . - o o < t < « ,
l ) Dabei ist Γ die Gamma-Funktion (s. S. 137). 1 +
(6.50)
6.6 Spezielle stetige Zufallsvariablen
139
Wegen g n ( — t) = g n (t) für alle t e R sind die Dichten der t - Verteilungen symmetrisch zur y-Achse. In Bild 6.13 sind Dichten mit verschiedenen Freiheitsgraden skizziert. *Sn(t)
Bild 6.13: Dichten von t-Verteilungen Quantile der t -Verteilung mit η Freiheitsgraden bezeichnen wir mit tn;q
mit
P(Tn 30 gilt die Näherung P ( T n < t ) « Φ Ο Ο für t g R ;
t n ; q « z q f ü r 0 < q < 1.
(6.53)
6.6.6 F-Verteilung (Testverteilung) Eine für die beurteilende Statistik ebenfalls wichtige Verteilung ist die FVerteilung. Es seien χ ^ und zwei unabhängige Chi-Quadrat-verteilte Zufallsvariablen mit m bzw. η Freiheitsgraden. Dabei ist m der Zählerund η der Nennerfreiheitsgrad. Die Zufallsvariable (6-54)
Kapitel 6: Stetige Zufallsvariablen
140
heißt F-verteilt oder Fisher-verteilt mit (m, n) Freiheitsgraden. Diese Verteilung ist nach Sir Ronald Aylmer Fisher (1890 — 1962) benannt. Die von den beiden Parametern m und η abhängige Zufallsvariable Fj, besitzt die Dichte 0
für X < 0 ,
X
gm,n( ) =
2
r(f)r(|)
1
für χ > 0.
m+n (l+£x) 2
( f ?
Dabei ist Γ die Gamma-Funktion (s. S. 137). In Bild 6.14 ist die Dichte der F-Verteilung mit (m = 5 ,n = 10) Freiheitsgraden skizziert. S5.io(a:)
0
1
2
3
4
5
Bild 6.14: Dichte der F-Verteilung mit (5,10) Freiheitsgraden Quantile der F-Verteilung mit (m, n) Freiheitsgraden bezeichnen wir mit fm,n;q
mit
P F
( m , η < ^ , η ; q) = 0.
(7.11)
Diese sogenannte Konvergenz in Wahrscheinlichkeit nennt man das schwache Gesetz der großen Zahlen. Damit haben wir den folgenden Satz bewiesen: Satz 7.3 (Das schwache Gesetz der großen Zahlen): Für jedes η seien die Zufallsvariablen X j , X 2 , . . . , X n paarweise unabhängig und besitzen alle den gleichen Ewartungswert μ und die gleiche Varianz σ 2 . Dann gilt für jedes beliebige ε > 0 έΣΧ i-μ i—l
)
ηε (7.12)
lim Ρ ( | έ . Σ Χ ι - μ
| > e ) = o.
7.2 Gesetze der großen Zahlen
149
Interpretation Wegen des schwachen Gesetzes der großen Zahlen liegen für große η die Realisierungen χ der Zufallsvariablen X des arithmetischen Mittels meistens in der Nähe des Zahlenwertes μ. Daher ist der Mittelwert χ einer entsprechenden Stichprobe als Realisierung der Zufallsvariablen X im Allgemeinen ein recht guter Schätzwert (Näherungswert) für den unbekannten Erwartungswert μ, also χ « μ. Beispiel 7.3: Jemand geht immer zu einem zufällig gewählten Zeitpunkt zur Straßenbahnhaltestelle, ohne sich um den Fahrplan zu kümmern. Die Wartezeit X bis zum Eintreffen der nächsten Bahn besitze den Erwartungswert μ = 3 Minuten und die Varianz Var(X) = 1,5 Minuten 2 . Die Person fahre während eines Jahres 250mal mit der Bahn. Gesucht ist eine untere Schranke für die Wahrscheinlichkeit, dass die mittlere Wartezeit zwischen 2,5 und 3,5 Minuten liegt. Aus (7.12) folgt ,
250
j
1 -
250
9 M ΣΑ X i ~ 250 ι
3
>0,5
1,5 = 0,976. 250 · 0,52
7.2.3 Bernoullisches Gesetz der großen Zahlen In diesem Abschnitt wird das schwache Gesetz der großen Zahlen auf eine beliebige Wahrscheinlichkeit ρ = P(A) übertragen. Es sei Α ein beliebiges Ereignis, das bei einem Einzelexperiment die Wahrscheinlichkeit ρ = P(A) besitzt. Das Experiment werde n-mal unabhängig durchgeführt. r n (A) sei die relative Häufigkeit des Ereignisses Α in einer solchen Versuchsserie. r n (A) hängt vom Zufall ab und ist daher Realisierung einer Zufallsvariablen; wir bezeichnen diese Zufallsvariable mit R n (A). Dann ist X = η · R n (A) = H n (A) die Zufallsvariable der absoluten Häufigkeit. Sie ist nach Abschnitt 5.3.2 binomialverteilt mit den Parametern η und p. In Abschnitt 5.3.2 wurde X dargestellt in der Form X = X1 + X2 + . . . + X n , ^ _ Γ 1, ' \ 0,
falls beim i-ten Versuch Α eintritt; sonst.
Dabei sind die Zufallsvariablen Xj unabhängig mit E(X;) = p ; Var(Xj) = p ( l — p ) . Damit gilt für R n (A) = X = I J X k k=l E(R n (A)) = ρ ;
Var(R n (A)) = ^
^
< £
.
150
Kapitel 7: Zentraler Grenzwertsatz und Gesetze der großen Zahlen
Die Funktion f(p) = p(l — p) ist eine nach unten geöffnete Parabel. An der Stelle P = ! nimmt sie das Maximum ^ an. Daher gilt p(l — p) < 5 für 0 < ρ < 1. Wendet man das schwache Gesetz der große Zahlen (Satz 7.3) auf die Zufallsvariable R n (A) der relativen Häufigkeit an, so erhält man das nach Jakob Bernoulli (1654 — 1706) benannte Gesetz Satz 7.4 (Bernoullisches Gesetz der großen Zahlen): In einem Einzelexperiment besitze das Ereignis Α die Wahrscheinlichkeit p. Das Experiment werde n-mal unabhängig durchgeführt. Dann gilt für die Zufallsvariable R n (A) der relativen Häufigkeit von A: E(R n (A)) = ρ ;
Var(R n (A)) =
ρ ( Κ ( Α ) -
Ρ
| >
ε
< £
;
) < Ρ ^ < ^ ;
lim P ( | R ( A ) - p | > ε ) = 0 für jedes ε > 0 . η—>oo V n /
(7.13) (7.14) (7.15)
Der Vorschlag von Richard von Mises (s. Abschnitt 4.3), die Wahrscheinlichkeit als Grenzwert der relativen Häufigkeiten zu erklären, war also gar nicht so abwegig. Er hatte nur den falschen Konvergenzbegriff benutzt. Die gewöhnliche Konvergenz muss durch die Konvergenz in Wahrscheinlichkeit ersetzt werden. Beispiel 7.4 (Schätzen einer unbekannten Wahrscheinlichkeit): Die Wahrscheinlichkeit ρ eines Ereignisses Α sei nicht bekannt und soll durch die relative Häufigkeit r n (A) in einer unabhängigen Versuchsserie vom Umfang η geschätzt werden. Dafür soll der minimale Stichprobenumfang η so bestimmt werden, dass die Zufallsvariable R n (A) der relativen Häufigkeit höchstens mit Wahrscheinlichkeit 0,05 von der unbekannten Wahrscheinlichkeit um mehr als 0,01 abweicht, also mit p(|Rn(A)-p|>0,0l) 0,01) < < * ^ < 0,05; V ' J ~ η · O.Ol2 ~ 4 · η · 0.01 — η> ί = 50 000 . ~ 4-0,Ol2-0,05 b) Aus Vorinformationen sei ρ < 0,1 bekannt. Dies ist z.B. bei einer Ausschusswahrscheinlichkeit der Fall oder auch bei der Wahrscheinlichkeit, dass eine zufällig ausgewählte Person bei einer Bundestagswahl eine bestimmte kleine Partei wählt. Da die Funktion f(p) = p ( l — p) zwischen 0 und 0,5 streng monoton wachsend ist, nimmt sie im Bereich [ 0 ; 0 , 1 ] das Maximum am rechten Randpunkt 0,1 an. Daraus folgt
7.3 Aufgaben
151
p(|Rn(A)-p|>0,0l) < v '
P ( 1
P
η · 0,01
= 0,1-0,9
j
0,4) < 0,05 gilt? c) Wie groß muss d bei η = 100 mindestens sein, damit P( | X — 10 | < d) > 0,99 erfüllt ist? Aufgabe 7.3: Die Zufallsvariable X beschreibe den Durchmesser (in mm) maschinell gefertigter Unterlegscheiben. Der Erwartungswert μ der Zufallsvariablen X hänge von der Maschineneinstellung ab und kann sich somit im Laufe der Zeit ändern. Die Varianz Var(X) = 0,04 sei als Maschinengröße bekannt.
152
Kapitel 7: Zentraler Grenzwertsatz und Gesetze der großen Zahlen
Sie sei von der Maschineneinstellung unabhängig. Zur Schätzung des unbekannten Erwartungswertes μ werden η Scheiben zufällig ausgewählt. Dabei beschreibe ^ η x = η Σ xi i=l den mittleren Durchmesser. Wie groß muss η mindestens sein, damit Ρ ( | Χ - μ | < 0 , 1 ) > 0,999 erfüllt ist, a) falls über die Verteilung von X nichts bekannt ist; b) falls X näherungsweise normalverteilt ist? Interpretieren Sie die Ergebnisse. Aufgabe 7.4: Mit einem idealen Würfel werde n-mal geworfen. Wie groß muss η mindestens sein, damit die Wahrscheinlichkeit dafür, dass die mittlere Augenzahl von der erwarteten Augenzahl um mehr als a) 0,1; b) 0,01; c) 0,001 höchstens mit einer Wahrscheinlichkeit von 0,95 abweicht? Aufgabe 7.5: R n ( A ) beschreibe die relative Häufigkeit eines Ereignisses Α mit der Wahrscheinlichkeit ρ = P(A) in einer unabhängigen Versuchsserie vom Umfang n. Wie groß muss η mindestens sein, damit P ( | R n ( A ) - p | > 0,1) < 0 , 0 5 erfüllt ist, falls a) über ρ nichts bekannt ist; b) ρ < 0,05 bekannt ist? Aufgabe 7.6: R 1 0 0 0 ( A ) beschreibe die relative Häufigkeit in einer unabhängigen Versuchsserie vom Umfang 1000. Dabei sei ρ = P(A) unbekannt. Wie groß muss c mindestens sein, damit P(|Riooo(A)-p|>c)x2'--->xn)·
t8·1)
Dieser Funktionswert t n ist Realisierung einer Zufallsvariablen, die wir mit Tn = gn(X1>X2>...,Xn)
(8.2)
bezeichnen. Eine solche durch die Stichprobe bestimmte Zufallsvariable T n
156
Kapitel 8: Parameterschätzung
heißt Stichprobenfunktion oder Statistik. Falls sie zur Schätzung eines Parameters benutzt wird, nennt man sie auch Schätzfunktion. Wird die Stichprobenfunktion zur Durchführung eines Tests verwendet (Kapitel 9), so heißt sie auch Testfunktion. Beispiel 8.1: Es sei χ — ( x j ) χ 2 ' • • •' *n) e ^ n e einfache Stichprobe. Dann sind alle Stichprobenwerte Xj Realisierungen einer einzigen Zufallsvariablen X. Diese Zufallsvariable soll den Erwartungswert E(X) = μ und die Varianz Var(X) = σ 2 besitzen. Falls einer oder beide Parameter nicht bekannt sind, sollen dafür aus der Zufallsstichprobe Schätzwerte bestimmt werden. a) Der Mittelwert der Stichprobe — 1 n x = ϊίΣχί i=l ist Realisierung der Stichprobenfunktion (Zufallsvariablen) Χ = π Σ Χ i(8-3) i=l Dabei sind die einzelnen Zufallsvariablen X j , X 2 , . . . , X n unabhängig und besitzen alle die gleiche Verteilung und die gleichen Parameter E(Xj) = μ ; Var(Xj) = σ2
für i = 1 , 2 , . . . , η .
Wegen der Unabhängigkeit der Summanden ist nicht nur der Erwartungswert, sondern auch die Varianz additiv. Daher gilt E ( X ) = Η Σ E(Xj) = jj · η · μ = μ ; i=l (8.4) Var(X) = \ ± Var(Xj) = ± . η i=! n"
2
n
.σ = 4 ·
b) Die Varianz der Stichprobe η η — 1 jt^
ν
1
'
η — 1 i=l
- η ·χ
ist Realisierung der Zufallsvariablen S 2 = - J - r £ ( X :1 - X ) 2 = — ^ £ x ? n-1 ' η — 1 i=l
-η·Χ2
Zusammen mit (8.4) erhält man g)
0
lim p ( | T - i ? | > ε ) = 0 für jedes ε > 0 , η—*oo ν n / also die Konsistenz der Schätzfunktion T n . Beispiel 8.3 (Schätzfunktionen für μ und . E(Xj) = i=l also für η Σ«ί = ΐ · i=l
μ±αί, i=l
T n besitzt wegen der Unabhängigkeit der Xj die Varianz Var(T n ) = J a f V a r i X i ) = σ 2 ί > ? . i=l i=l η a Unter der Nebenbedingung i — 1 nimmt diese Varianz das Minii=1 i mum für c*j = s an. Daher liefert das Stichprobenmittel X in gewisser Weise unter diesen Schätzfunktionen die besten Schätzwerte für μ. b) Falls die Zufallsvariablen X; die Varianz σ 2 besitzen, gilt wegen (8.4) nach (7.12) für jedes beliebig kleine ε > 0 P(| X - μ | > ε)
0 f ü r n ^ o o . ε η ·ε
Damit ist X konsistent und erwartungstreu für μ. Die Schätzfunktion S 2 ist konsistent für σ 2 , falls der Erwartungswert E(S 4 ) existiert.
161
8.1 Punktschätzungen
Beispiel 8.4 (Schätzung einer unbekannten Wahrscheinlichkeit): Als Schätzwert für eine unbekannte Wahrscheinlichkeit ρ = P ( A ) benutzt man die relative Häufigkeit r n ( A ) in einer unabhängigen Versuchsserie vom Umfang n, also ρ = r n ( A ) . Nach dem Bernoullischen Gesetz der großen Zahlen (Satz 7.4) ist die zugehörige Schätzfunktion R n ( A ) erwartungstreu und konsistent. Für jedes ε > 0 gilt p ( | R
8.1.3
n
( A ) -
P
| >
£
) < ^ - ^
· • · >
(8-11)
Mit den m Parametern ist dann auch die Verteilung der Zufallsvariablen X bekannt. Ein Beispiel dafür ist die Poisson-Verteilung, die durch den einzigen Parameter = λ bestimmt ist. Bezüglich der Zufallsvariablen X wird eine einfache Stichprobe vom Umfang η gezogen. In der Stichprobe χ = ( x j , x 2 , . . . , XjJ seien also die Stichprobenwerte Xj unabhängige Realisierungen der Zufallsvariablen X . Wegen der Unabhängigkeit ist die Wahrscheinlichkeit für diese Stichprobe gleich dem Produkt der Wahrscheinlichkeiten für die einzelnen Werte, also L(x1,x2,...,xn;t?1,i?2,...,l?m)= Π ρ ^ ; ^ , ^ , . . . , ^ ) . i—1
(8-12)
Die von den unbekannten Parametern abhängige Funktion L nennt man Likelihood-Funktion. Sie ist die Wahrscheinlichkeit, mit der man bei der Durchführung des Zufallsexperiments die gezogene Stichprobe erhält. 8.1.3.2 Likelihood-Funktion bei stetigen Verteilungen Die Dichte f einer stetigen Zufallsvariablen X hänge von m Parametern ab. Dafür schreibt man f(x)=f(x;i?1,t?2,...,l?m).
162
Kapitel 8:
Parameterschätzung
Für eine einfache Stichprobe aus dieser Grundgesamtheit ist die Likelihood-Funktion das Produkt der Funktionswerte der Dichte an den entsprechenden Stellen L(x1,x2)...,xn;l?1,l92,...,i?m)= Π ^ Χ ί ^ ι Λ i=l
(8-13)
8.1.3.3 Das Maximum-Likelihood-Prinzip Nach dem Maximum-Likelihood-Prinzip werden die unbekannten Parameter so bestimmt, dass die Likelihood-Funktion (8.12) bzw. (8.13) maximal wird. Falls die Likelihood-Funktion nicht nach allen Parametern stetig differenzierbar ist, muss das Maximum mit Hilfe numerischer Methoden berechnet werden. Wenn die Funktion L jedoch nach allen m Variablen stetig differenzierbar ist, setzt man alle m partiellen Ableitungen gleich Null und erhält das Gleichungssystem d L _ f.. dü1 ~ υ '
d L _ n. . dL θΰ2 ~ u ' · · · ' ddm~
_ r, υ·
Da Wahrscheinlichkeiten und Dichten nichtnegativ sind und außerdem der natürliche Logarithmus streng monoton wachsend ist, nimmt die Likelihood-Funktion an denjenigen Stellen das Maximum an, an denen der Logarithmus In L maximal wird. Wegen η lnL(x1,X2 ,..., X n ! ! ? ! , ^ = Σ l n P ( x i 5 ' ϋ2 ' · • · ' ^m) bzw· i=l =
J>f(xi;Vi?2,...,tfm) i=l ist es häufig einfacher, das folgende äquivalente Gleichungssystem zu lösen: d In L _ n . u ' ~~ θΰι ~ '
2
Ν η
Ο
4·ζ?_α·^c
=>•
Entscheidung gegen H0 (Annahme von H j ) ;
χ ·
Entscheidung für H0 (keine Ablehnung von H 0 ).
Zunächst wäre es vielleicht naheliegend, sich für denjenigen Erwartungswert zu entscheiden, bei dem χ am nächsten liegt. Dann müsste c als arithmetisches Mittel + Ah) gewählt werden. Doch wir lassen die genaue Wahl von c noch offen. Bei dieser Testentscheidung können zwei Arten von Fehlern (Fehlentscheidungen) gemacht werden: Eine Entscheidung gegen H 0 , obwohl H0 richtig ist, nennt man Fehler 1. Art; eine Entscheidung für H 0 , obwohl H1 richtig ist, heißt Fehler 2. Art. Die Wahrscheinlichkeit dafür, dass bei einer Testentscheidung ein Fehler 1. Art gemacht wird, bezeichnen wir mit a . Dann heißt α die Irrtumswahrscheinlichkeit 1. Art. Die Irrtumswahrscheinlichkeit 2. Art β ist die Wahrscheinlichkeit für einen Fehler 2. Art. Beide Irrtumswahrscheinlichkeiten α und β hängen von c ab. In der Tabelle 9.1 sind alle vier Entscheidungsmöglichkeiten zusammengestellt. Entscheidung für H0
Entscheidung gegen H0
H0 richtig
richtige Entscheidung
Fehler 1. Art Irrtumswahrscheinlichkeit a
H1 richtig
Fehler 2. Art Irrtumswahrscheinlichkeit β
richtige Entscheidung
Tab. 9.1: Entscheidungsmöglichkeiten beim Alternativtest Ein Fehler erster Art wird gemacht, wenn die Nullhypothese abgelehnt wird, obwohl sie richtig ist, wenn X also Ν(μ 0 ; σ^) - verteilt ist. Ein solcher Fehler wird begangen, wenn das Ereignis X > c unter der Bedingung der Nullhypothese H0 eintritt. Dann ist die Zufallsvariable X des arithmetischen Mittels Ν^μ 0 ; ^ ^-verteilt. Mit Hilfe der Standardisierung erhält man α = P(X > c | H 0 ) = 1 - P(X < c | H 0 )
181
9.1 Einfache Alternativtests
Zwischen der Irrtumswahrscheinlichkeit 1. Art α und der kritischen Grenze c besteht also die Beziehung =
(9.1)
Mit dem (1 — a ) - Quantil ζ χ _ hieraus ^ · Ν Γ ί Γ = ζ
1
_
α
;
der Standard-Normalverteilung erhält man
c =
Ai0
+ ^£..z1_e.
(9.2)
Falls c vogegeben ist, kann α aus (9.1) bestimmt werden. Umgekehrt kann man α vorgeben und nach (9.2) die kritische Grenze c berechnen. Ein Fehler zweiter A r t wird gemacht, wenn man sich für H 0 entscheidet, obwohl H j richtig ist, wenn also das Ereignis X < c eintritt und die Zufallsvariable X N(//j; aj)-verteilt ist. Die Wahrscheinlichkeit dafür ist β =
P(X 51,9048 entscheidet man sich gegen H 0 , sonst für H 0 .
9 . 1 . 2 T e s t v o n Hq : ρ = p 0 g e g e n H j : ρ = P j m i t p 0 < p j Von einer Wahrscheinlichkeit ρ = P(A) sei bekannt, dass sie entweder gleich p 0 oder gleich p j ist. Dabei seien die beiden Werte p 0 und p j gegeben mit p 0 < p j . Analog zu Abschnitt 9.1.1 betrachten wir die Nullhypothese und Alternative Nullhypothese H 0 : ρ = p 0 ; Alternative Hj.· ρ = p x mit Pq < Pi · Zur Testdurchführung wird die relative Häufigkeit r n (A) des Ereignisses A in einer unabhängigen Versuchsserie vom Umfang η benutzt. Mit Hilfe einer kritischen Grenze c mit p 0 < c < p j gelangt man zur Testentscheidung: r n (A) > c
=>·
Entscheidung gegen H 0 (Annahme von Η χ ) ;
r n (A) < c
=>•
Entscheidung für H 0
(keine Ablehnung von H 0 ).
Für die Zufallsvariable R n (A) der relativen Häufigkeit gilt nach (7.13) E(R n (A)) = p ;
Var(R n (A)) =
^
Dabei kommen für den Parameter ρ nur die beiden Werte p 0 oder p x in Betracht, je nachdem, ob H 0 oder Hx richtig ist. Im Falle n p 0 ( l — p 0 ) > 9 und n p 1 ( l — p j ) > 9 ist R n (A) näherungsweise normalverteilt. Die beiden möglichen Irrtumswahrscheinlichkeiten sind in Tab. 9.1 aufgeführt. Ein Fehler erster Art wird gemacht, wenn H 0 zu Unrecht abgelehnt wird, wenn also das Ereignis R n (A) > c eintritt und ρ = p 0 die richtige Wahrscheinlichkeit ist. Damit erhält man die Irrtumswahrscheinlichkeit 1. Art α = P ( R n ( A ) > c | p = p0) = l - P ( R n ( A ) < c | p = p0)
9.1 Einfache Alternativtests
183
c —Po
1—α -JPo(1_Po) ergibt mit dem (1 — α) - Quantil zx _ Q der N(0; 1) - Verteilung Φ
c = Po +
z
PoCi-Po)
I-q'\
mit
Φ(ζ χ _ Q ) = 1 - a .
(9.6)
Ein Fehler zweiter Art wird begangen, wenn man sich für H 0 entscheidet, obwohl H j richtig ist, falls also R n ( A ) < c eintritt und ρ = P l die tatsächliche Wahrscheinlichkeit ist. Daher lautet die Irrtumswahrscheinlichkeit 2. Art β = P(Rn(A))
Ablehnung von H 0 : μ = μ 0 (Annahme von Η, : μ φ μ 0 ) ; ι
=>· keine Ablehnung von H 0 ·
υ
9.2 Tests von Erwartungswerten
185
Bei dieser Testentscheidung wird ein Fehler 1. Art begangen, wenn die Nullhypothese H 0 zu Unrecht abgelehnt wird. Die zugehörige Wahrscheinlichkeit α ist die Irrtumswahrscheinlichkeit 1. Art. Zur Bestimmung der Ablehnungsgrenze c wird α vorgegeben. Bei richtiger Nullhypothese erhalten wir über die Standardisierung von X für c die Bestimmungsgleichung « =
=
= 2Φ( μ0 ist die Nullhypothese HQ ebenfalls richtig. Falls μ > μ 0 der wahre Erwartungswert ist, muss bezüglich μ und nicht bezüglich μ0 standardisiert werden. Dann lautet die von μ abhängige Irrtumswahrscheinlichkeit 1. Art «Μ = Ρ ( 2 ^ · ^ < ο | μ ) = Ρ(χ μ0
.
Die Funktion α(μ) ist im Nullhypothesenbereich {μ\μ> μ 0 } streng monoton fallend. Sie nimmt das Maximum α(μ0) — oc am linken Rand μ = μ0 an. Daher ist bei diesem Test die Irrtumswahrscheinlichkeit 1. Art höchstens gleich α. Man nennt α das Signifikanzniveau des Tests. Irrtumswahrscheinlichkeit 2. Art Die Irrtumswahrscheinlichkeit 2. Art β(μ) hängt ebenfalls vom tatsächlichen Parameterwert μ < μ0 ab. Es gilt β(μ)
=
p ( ? L ^ . { ^ > c \
ß
=
β(μ)
= p ( x >
für
Im Alternativenbereich {μ\μ noton wachsend mit lim
)
ß o
+ c . ^ L \
μ < μ
0
ß
)
(9.15)
.
< μ0} ist die Funktion β(μ) in μ streng mo-
= 1 - Φ (c) = 1 - α.
Wie beim zweiseitigen Test in Abschnitt 9.2.1.1 kann die Irrtumswahrscheinlichkeit 2. Art unter Umständen sehr groß sein. Sie kann fast 1 — α erreichen, wenn der Erwartungswert μ sehr nahe bei μ0 liegt. Aus diesem Grund sollte man die Nullhypothese nicht ohne weiteres annehmen. Beispiel 9.3 (Fortsetzung): Die Standardabweichung des Gewichts sei σ 0 = 5. Zum Test der Nullhypothese H 0 : μ > 250 gegen die Alternative H 1 : μ < 250 wird der Mittelwert χ einer Stichprobe vom Umfang η = 100 benutzt. Welchen Wert muss χ mindestens unterschreiten, damit die Nullhypothese H 0 höchstens mit einer Irrtumswahrscheinlichkeit von a = 0,05 abgelehnt werden kann? Aus (9.13) erhält man den Ablehnungsbereich
188
Kapitel 9: Parametertests =
- * 0 , 9 5 = " 1,64485;
χ < 250 - 1,64485 · ^
= 249,1776.
9.2.1.3 Einseitiger Test von H 0 : μ < μ0 gegen H j : μ > μ0 Falls man zur Testentscheidung μ > μ 0 gelangen möchte, sollte als Nullhypothese
H0: μ < μ0
und als Alternative
Hj^: μ > μ 0
gewählt werden. Wie in Abschnitt 9.2.1.2 handelt es sich um einen einseitigen Test. Mit einer kritischen Grenze c gelangt man zur Testentscheidung: z
z
x - μ0 ber. — ~σ ber
=
|— Νη > c
x— — σ ^μ_· Ν ι— η < c
=>· Ablehnung von H 0 : μ < μ 0 (Annahme von H 1 : μ > μ 0 ) ; =>· keine Ablehnung von Η 0 .
Aus dem Signifikanzniveau α, der maximalen Irrtumswahrscheinlichkeit 1. Art des Tests, erhält man die Ablehnungsgrenze c aus
= 1 - Φ(ο)
als c
= ζι-α·
(9-16)
Während die Irrtumswahrscheinlichkeit 1. Art höchstens gleich α ist, kann auch bei diesem Test die Irrtumswahrscheinlichkeit 2. Art β sehr groß werden, sogar fast gleich 1 — α sein, falls μ in der Nähe von μ 0 liegt. 9.2.1.4 Zusammenstellung der Testentscheidungen: Nullhypothese H 0
Alternative H j
Ablehnungsbereich von Η 0
a)
μ = μ0
μφμ0
z
ber.=
b)
μ > μ0
μ < μ0
z
ber. =
I χ - μ01 ι— ^ σ0 ' 'η
μ0
z
ber. =
Ι ^ - ^ ο Ι ι— σ0 'Ν 11
σ0
·>1η
>ζ!_|
^
Ζ
1—α
1— α
9.2 Tests von Erwartungswerten
189
9.2.2 Test eines Erwartungswertes bei unbekannter Varianz Falls die Varianz σ 2 nicht bekannt ist, wird sie wie bei der Bestimmung von Konfidenzintervallen in Abschnitt 8.2.2.2 durch die empirische Varianz s 2 einer einfachen Stichprobe vom Umfang η geschätzt. Dann ist die Testgröße ^ S ^ · ^
(9.17)
t - verteilt mit η — 1 Freiheitsgraden, falls μ 0 der tatsächliche Erwartungswert von X ist. Mit der aus einer Stichprobe vom Umfang η berechneten Realisierung ber. ~
S
I— ' ' n
und den Quantilen der t - Verteilung mit η — 1 Freiheitsgraden erhält man für den zweiseitigen Test a) und die beiden einseitigen Tests b) und c) die in der nachfolgenden Tabelle angegebenen Ablehnungsgrenzen. Testentscheidungen: Alternative Hj
Nullhypothese H 0
Ablehnungsbereich von Η 0
a)
μ -
μ0
Μ Φ μ0
tber. =
I χ — μ 0 I ι— S ^ n > t
b)
μ >
μ0
μ < μ
tber. =
χ — μ η ι— S ·ΝΠ
t 5 0 . 0
°-^I=
975
- 2 , 4 5 4 9 ; t 5 0 . 0 9 7 5 = 2,0086.
wird die Nullhypothese H 0 abgelehnt.
Kapitel 9: Parametertests
190
9.2.3 Test der Differenz der Erwartungswerte bei verbundenen Stichproben Wie in Abschnitt 8.2.5 sei (χ, y) = ( ( x x , y x ) , ( x 2 , y 2 ) , . . . , (Xn, y n ) ) eine verbundene Stichprobe bezüglich der zweidimensionalen Zufallsvariablen ( X , Y) mit den Erwartungswerten E(X) = μ χ und E(Y) = μ γ . Zum Test der Differenz μ χ — μ γ sei die Normalverteilung oder η > 30 vorausgesetzt. Allgemein soll getestet werden, ob die Differenz μ χ — μ γ der beiden Erwartungswerte gleich, kleiner oder größer als eine fest vorgegebene Konstante a ist. Dabei ergibt a = 0 als Spezialfall den Test auf Gleichheit der beiden Erwartungswerte. Wie bei der Bestimmung von Konfidenzintervallen in Abschnitt 8.2.5 wird aus der Stichprobe d = χ — y der Differenzen dj = Xj — yj der Mittelwert und die Varianz bestimmt: d - x - y 4 £ ( x i - y i ) ; i=l
4 =
n
1
(9.18)
i=l
Unter der Bedingung μ χ — μ γ — a besitzt die Zufallsvariable D = X — Y den Erwartungswert μ χ — μ γ = a. Dann ist (9.19) (ungefähr) t-verteilt mit η — 1 Freiheitsgraden. Zur Testentscheidung benutzt man die Realisierung (9.20) Wie in den Abschnitten 9.2.1 und 9.2.2 können ein zweiseitiger Test sowie zwei einseitige Tests durchgeführt werden. Die jeweiligen Nullhypothesen und Alternativen sind in der nachfolgenden Tabelle zusammengestellt. Die Ablehnungsgrenzen werden analog zu den Abschnitten 9.2.1 und 9.2.2 bestimmt. Es sind Quantile der t-Verteilung mit η — 1 Freiheitsgraden (Tab. 3 im Anhang). Damit gelangt man zu den Testentscheidimgen: Nullhypothese H 0 )
ßx~ßY
)
ß x ~ ß y >
)
μχ-μγ
μχ - μγ < a
χ — y — a ι— sd ·>|η
χ — y — a ι— sd Ίη >t
&
4
„η
ι ι « - 1ί1~2 t
n
_
n
_
1 ; 1
1 ; 1
_
_
Q
a
9.3 Tests von Varianzen bei bei Normalverteilungen
191
Beispiel 9.5: Es wird vermutet, dass die Reaktionszeit (in Sekunden) auf ein bestimmtes Signal durch den Genuss einer bestimmten Menge Alkohol um mehr als 0,2 Sekunden erhöht wird. Da m a n von μ χ — μ γ > 0,2 überzeugt ist, sollte dieser Bereich als Alternative H j gewählt werden. Mit α = 0,05 ist daher Η :
ο
μχ-Α2
ge8en
Η :
ι
Μχ - βγ > 0,2
zu testen. Es handelt sich u m den Test c) mit a = 0,2. Zum Test wurden bei 100 zufällig ausgewählten Personen die Reaktionszeiten im nüchternen Zustand und eine Stunde nach dem Genuss einer bestimmten Menge Alkohol gemessen. Dabei erhielt man die Werte: y = 0,95 (ohne Alkohol); χ = 1,19 (mit Alkohol). Die Stichprobe der Differenzen besitze die Standardabweichung s d = 0,18. Daraus erhält m a n mit a = 0,2 die Testgröße x - y - a ^
M 9 =
- q
0
' ^ -
0
'
2
· ^
^ 2,2222.
Das (1 — α ) - Q u a n t i l der t-Verteilung mit η — 1 = 99 Freiheitsgraden beträgt t 9 9 . 0 9 5 = 1,6604. Wegen -
> t n _ 1 . ι _ α wird die Nullhypothese H 0 abgelehnt,
die Alternative Η χ also angenommen. Aufgrund des Stichprobenergebnisses kann man also davon ausgehen, dass der Erwartungswert der Reaktionszeit durch den Alkoholgenuss u m mehr als 0,2 Sekunden erhöht wird.
9.3 Tests von Varianzen bei Normalverteilungen In diesem Abschnitt wird vorausgesetzt, dass die entsprechenden Zufallsvariablen normalverteilt sind mit unbekanntem Erwartungswert und unbekannter Varianz. Im ersten Abschnitt soll eine einzige Varianz σ 2 getestet werden, im zweiten Teil wird der Quotient der Varianzen zweier unabhängiger Normalverteilungen getestet.
9.3.1 Test einer einzigen Varianz Von einer normalverteilten Zufallsvariablen X sei weder der Erwartungswert noch die Varianz bekannt. Zu einer vorgegebenen Grenzstelle sind für den zweiseitigen und die beiden einseitigen Tests die Nullhypothesen und zugehörigen Alternativen in der nachfolgenden Tabelle angegeben. Falls σQ die tatsächliche Varianz der Zufallsvariablen X ist, so ist nach Abschnitt 8.2.3 die Testfunktion
192
Kapitel 9: Parametertests η =
σ
ο
^
. Σ (Xi -
/ „ i x o2
X
)
(9.21)
σ
ο
Chi-Quadrat-verteilt mit η — 1 Freiheitsgraden. Dabei ist die Realisierung von S 2 die empirische Varianz s 2 einer Stichprobe vom Umfang n. Mit der Stichprobenvarianz s 2 und den Quantilen der Chi-Quadrat-Verteilung mit η — 1 Freiheitsgraden erhält man analog zu Abschnitt 9.2 die Testentscheidungen: Nullhypothese H 0 Alternative Η χ a)
0-2
σ2 -
b)
σ2 < σ2
c)
σ2 >
σΐ
Φ
σ
ο
Ablehnungsbereich von Η 0 χη2 1 ; -1; 2 ~
σ2 > σ 2
(η — 1) s 2 2 ^ σ ο
σ2 10 wird die Varianz s 2 einer 51 benutzt. Wie groß muss s 2 mindestens sein, mit α = 0,05 abgelehnt werden kann? Aus b) ers2 > · χ 2 0 . 0 9 5 = ^ · 67,5048 = 13,50.
9.3.2 Test des Quotienten zweier Varianzen Wir betrachten zwei unabhängige normalverteilte Zufallsvariablen X und Y mit den unbekannten Varianzen σ χ und σ γ . Getestet werden soll, ob der Quotient σ \ ΐ σ \ kleiner, gleich oder größer als eine vorgegebene positive Konstante a ist. Für a = 1 erhält man als Spezialfall den Test auf Gleichheit der beiden Varianzen. Wie bei der Bestimmung von Konfidenzintervallen für den Quotienten in Abschnitt 8.2.6 berechnet man aus zwei unabhängigen Stichproben x = ( x 1 , x 2 , . . . , x n ) ; y = (y x , y 2 , . . . , y n ) x y mit den Umfangen η χ und n y die Varianzen £ = ϊ Η γ τ Σ (Xi - χ ) 2 χ
1
i=l
«nd
Σ (y» - y ) 2 ·
sj = ^ y
1
(9.22)
i=l
Falls σ ^ und σ γ die tatsächlichen Varianzen sind, ist nach Abschnitt 8.2.6
9.3 Tests von Varianzen bei bei Normal Verteilungen
193
q2 Q2 Q2 2 f x . fY _ f x . fY 2 · σ 2 c2 σ 2 σ h Χ
Υ
Y
r q 2on
\v.toj
Χ
F-verteilt mit (η χ — 1, n y — 1) Freiheitsgraden. In (9.23) setzt man zur Beσ Χ _= a . Damit erhält man nach Bosch, Stimmung der Ablehnungsgrenzen —ψ σ γ K. [1996], S. 419ff für die drei möglichen Tests die Testen tscheidungen: Nullhypothese H 0 Alternative χ a)
4 σ\
= a
σγ
Ablehnungsbereich von Η 0 -Ο ^ ä ' f sy oder
σ\
Η
a
.
f
ι (Χ !
1
~2
;l-f
'fnx-l,ny-l;l-a
a η - 1 , ηχ - 1 ; 1 - α
(η χ = Umfang der x-Stichprobe, n y = Umfang der y-Stichprobe). Beispiel 9.7: Eine Firma behauptet, in einer Abfüllanlage werde durch den Einbau einer speziellen Vorrichtung die Standardabweichung der Zufallsvariablen der Füllmenge um mehr als 10% verkleinert. Vor der Umrüstung wurde aus einer Stichprobe vom Umfang 201 die Standardabweichung s y = 4,3 bestimmt. Nach der Umrüstung soll in einer Stichprobe vom Umfang 101 die Standardabweichung s x bestimmt werden. Wie groß darf s x höchstens sein, damit man der Behauptung der Firma mit einer Irrtumswahrscheinlichkeit α = 0,05 glauben kann? Es muss der einseitige Test c) durchgeführt werden: σγ σ 1γ σ1γ H0: > 0,9 ο -£>0,81; Η,: - £ < 0 , 8 1 . υ
Υ
σγ
σγ
Mit a = 0,81 erhält man aus c) den Ablehnungsbereich j c a °'81-s? ^0,81-4,32 f X f Sy 100 , 200 ; 0,95 ' 100 , 200 ; 0,95 1,32064 s x < 3,3676.
=
11)3107.
194
9.4
Kapitel 9: Parametertests
T e s t
einerWahrscheinlichkeit
ρ
Für eine unbekannte Wahrscheinlichkeit ρ = P(A) eines beliebigen Ereignisses Α sollen in diesem Abschnitt zweiseitige und einseitige Tests durchgeführt werden. Wie in Abschnitt 9.1.2 soll für die Grenzwahrscheinlichkeit p 0 der Nullhypothese H 0 die Bedingung nPoi 1 " P o ) >
9
erfüllt sein, so dass die Zufallsvariable R n (A) der relativen Häufigkeit des Ereignisses Α in einer unabhängigen Versuchsserie vom Umfang η näherungsweise normal verteilt ist. Falls p 0 die tatsächliche Wahrscheinlichkeit ist, so ist die Standardisierung
AJPo^-PO) ungefähr standard-normalverteilt. Mit der relativen Häufigkeit r n des Ereignisses Α in einer unabhängigen Versuchsserie vom Umfang η und den Quantilen der Standard-Normalverteilung gelangt man analog zu Abschnitt 9.2.1 zu den Testentscheidungen: Nullhypothese H 0 a)
b)
c)
ρ = Po
Ρ < Po
Ρ > Po
Alternative Η χ P/Po
Ρ > Po
Ablehnungsbereich von H 0
AlPo^-Po) ^
ΛΙΡο^-ΡΟ) ^
>
>
Z
i-f
Zl
~a
Ρ < Po
Beispiel 9.8: Ein herkömmliches Medikament besitze eine aus Erfahrung bekannte Heilungswahrscheinlichkeit ρ = 0,6. Ein neu entwickeltes Medikament soll nur dann auf den Markt gebracht werden, wenn statistisch nachgewiesen ist, dass dessen Heilungswahrscheinlichkeit größer als 0,65 ist. a) Zum Test von H 0 : ρ < 0,65 gegen Η χ : ρ > 0,65 mit a = 0,05 wurde das neue Medikament insgesamt 100 an der Krankheit leidenden Personen verabreicht. Davon wurden 68 geheilt. Mit der relativen Häufigkeit r 1 0 0 = 0,68 lautet die Realisierung der Testgröße
9.5 Aufgaben
, Γ"-ρ° · ^Po(l-Po)
195
=
, °'68-°'65 .10 = 0,629. 0,65 · (1 — 0,65)
Die Ablehnungsgrenze ist z 1 _ a — z 0 9 5 = 1,645. Da die berechnete Testgröße dieses Quantil nicht überschreitet, kann die Nullhypothese H 0 nicht abgelehnt werden. Es sind zwar mehr als 65 % der Patienten durch das neue Medikament geheilt worden. Das Ergebnis ist jedoch nicht signifikant, es kann auf den Zufall zurückgeführt werden. b) Das Medikament werde 1000 Patienten verabreicht. Wie viele davon müssen mindestens geheilt werden, damit man sich mit a = 0,01 für die Alternative H j : ρ > 0,65 entscheiden kann? rlooo-0,65 rjöÖQ- > -yj 0,65 · (1 — 0,65)
z
= 2,3263 0,99
ergibt ^0,65 · ( 1 - 0 , 6 5 ) r 1 0 0 0 > 0,65 + ^ · 2,3263 = 0,6851. Λ|1000 Es müssen also mindestens 686 der 1 000 Patienten geheilt werden.
9.5 Aufgaben Aufgabe 9.1: Ein Markthändler verkauft Eier zweier Hühnerrassen. Die Zufallsvariablen der Gewichte (in Gramm) seien jeweils normalverteilt. Bei der ersten Rasse sei / i j = 4 8 ; = 100, bei der zweiten Rasse μ2 = 52; σ\ — 25. Ein Händler kauft eine Sendung Eier. Dabei sei bekannt, dass alle ihm angebotenen Eier von der gleichen Rasse stammen. Zum Test von H 0 : / i = 48
gegen
Η χ : μ — 52
wird eine Palette von 30 Eiern gewogen. Wenn das Durchschnittsgewicht χ einen kritischen Wert c überschreitet, entscheidet man sich für H j , sonst für HQ . Die zugehörigen Irrtumswahrscheinlichkeiten seien α und ß. Von den drei Werten c, α und β wird jeweils einer vorgegeben. Bestimmen Sie die beiden anderen aus: a) c = 53 ; b) α = 0,05 ; c) β = 0,5. d) Wie muss die kritische Grenze c gewählt werden, damit beide Irrtumswahrscheinlichkeiten gleich groß sind? e) Bestimmen Sie den minimalen Stichprobenumfang η so, dass beide Irrtumswahrscheinlichkeiten übereinstimmen und höchstens gleich 0,01 sind.
196
Kapitel 9: Parametertests
Aufgabe 9.2: In einer Schießbude sind durch ein Versehen zwei Gewehre vertauscht worden. Fest steht nur noch, dass eines davon eine Trefferwahrscheinlichkeit von 0,5, das andere eine von 0,8 hat. Zur Identifizierung der Gewehre geht der Schießbudenbesitzer folgendermaßen vor: Mit einem der beiden Gewehre gibt er 4 Schüsse ab. Falls mindestens 3 davon treffen, entscheidet er sich bei dem ausgewählten Gewehr für eine Trefferwahrscheinlichkeit von 0,8; sonst für 0,5. Berechnen Sie die Irrtumswahrscheinlichkeiten. Aufgabe 9.3: In der vorhergehenden Aufgabe schießt der Schießbudenbesitzer 200mal. Bei mindestens 120 Treffern entscheidet er sich für ρ = 0,8; sonst für ρ = 0,5. Lösen Sie die Aufgabe näherungsweise mit Hilfe der Normalverteilungsapproximation . Aufgabe 9.4: Beim Uberprüfen der Reißfestigkeit einer Drahtsorte wurden die Werte 299, 300, 302, 305, 307, 311 gemessen. Die Messwerte können als unabhängige Stichprobe einer normalverteilten Zufallsvariablen betrachtet werden. a) Testen Sie mit a = 0,05 die Nullhypothese H Q : μ = 300 gegen die Alternative Hj: μ φ 300. b) Testen Sie mit a — 0,05 H 0 : μ < 300 gegen Hj: μ > 300, wobei σ 0 = 6 bekannt sei. Aufgabe 9.5: Ein Hersteller kleiner Elektromotoren behauptet, dass die Motoren im Mittel nicht mehr als 0,8 Ampere aufnehmen. Eine Stichprobe von 16 Motoren ergab einen Mittelwert von χ = 0,96 Ampere und eine Standardabweichung s = 0,32 Ampere. Kann die Behauptung des Herstellers mit der Irrtumswahrscheinlichkeit a — 0,05 unter der Normalverteilungsannahme abgelehnt werden? Aufgabe 9.6: Die Gewichte (in Gramm) von Pfeffertüten seien normalverteilt mit der konstanten Standardabweichung aQ = 1,5, während der Erwartungswert μ von der Maschineneinstellung abhängt. Zum Test von H 0 : μ = 80 (Sollwert) gegen H j : μ φ 80 werde der Mittelwert χ einer Stichprobe vom Umfang η = 100 benutzt. Für |x — 80| > c soll die Nullhypothese abgelehnt werden. a) Bestimmen Sie die Ablehnungsgrenze c für a — 0,05. b) Bestimmen Sie die Irrtumswahrscheinlichkeit 2. Art, falls μ = 80,5 der tatsächliche Erwartungswert ist.
9.5 Aufgaben
197
Aufgabe 9.7: Eine Verbraucherzentrale vermutet, dass die von einem Hersteller verkauften Pakete entgegen dessen Behauptung im Schnitt weniger als 300 Gramm wiegen. Eine Stichprobe von 101 Paketen ergab einen Mittelwert χ = 299,5 und eine Standardabweichung s = 2,7. Kann damit die Vermutung der Verbraucherzentrale mit a = 0,05 bestätigt werden? Aufgabe 9.8: Die Zufallsvariable X der Temperatur (in Grad) eines Kühlregals in einem Supermarkt sei normalverteilt und besitze im Idealfall den Erwartungswert μ = — 15. Um größere Temperaturschwankungen zu vermeiden, soll die Standardabweichung σ kleiner als 0,6 sein. Zum Test der Standardabweichung wurde eine Stichprobe vom Umfang η = 20 gezogen mit dem Ergebnis 20
20
-304,5; i=l
„
£ x ? = 4 641,8. i=l
Kann damit die Behauptung σ < 0,6 mit a = 0,05 bestätigt werden? Aufgabe 9.9: Es wird vermutet, dass bei einem Blutalkoholgehalt von 0,8 Promille die mittlere Reaktionszeit auf ein bestimmtes Signal um mindestens 0,1 Sekunden größer ist als bei 0 Promille. a) Stellen Sie die Nullhypothese H 0 und die zugehörige Alternative H j auf, falls Sie von der Bestätigung der Vermutung fest überzeugt sind. b) Zum Test wurden bei 10 Personen die Reaktionszeiten (in Sekunden) Xj bei 0 Promille und später die Reaktionszeiten yj bei 0,8 Promille festgestellt: Person i 1 4 2 3 5 6 7 8 9 10 X;
y.
0,18 0,21 0,15 0,23 0,19 0,23 0,27 0,14 0,22 0,16 0,29 0,34 0,24 0,37 0,32 0,38 0,51 0,24 0,30 0,27
Führen Sie unter der Normalverteilungsannahme den Test mit α = 0,05 durch. Aufgabe 9.10: Der Lieferant einer Ware behauptet, die Ausschusswahrscheinlichkeit sei höchstens 0,06. Ein Abnehmer prüft 500 zufällig ausgewählte Stücke. Bei welcher Mindestanzahl fehlerhafter Stücke in dieser Stichprobe kann der Abnehmer die Behauptung des Lieferanten zurückweisen mit einer Irrtumswahrscheinlichkeit a) α = 0,05; b) α = 0,02; c) α = 0,01?
Kapitel 9: Parametertests
198
Aufgabe 9.11: Der Hersteller eines Medikaments behauptet, die Heilungswahrscheinlichkeit durch dieses Medikament sei mindestens gleich 0,9. In einem Krankenhaus wurde das Medikament 400 Patienten verabreicht. 340 davon wurden geheilt. Kann hieraus mit einer Irrtumswahrscheinlichkeit a = 0,01 die Behauptung des Herstellers widerlegt werden? Aufgabe 9.12: Eine Firma behauptet, bei der Herstellung von Autoreifen werde durch die Zugabe eines bestimmten Mittels die Standardabweichung der Lebensdauer um mehr als 20 % verkleinert. Zum Test dieser Behauptung wurde bei der alten Produktion von 501 Reifen die Lebensdauer in km festgestellt. Dabei betrug die Standardabweichung 4223 km. Von 26 mit dem Zusatzmittel produzierten Reifen werde in einem Schnelltest jeweils die Lebensdauer festgestellt. Wie groß darf die Standardabweichung s höchstens sein, damit die obige Behauptung mit einer Irrtumswahrscheinlichkeit a = 0,05 als gesichert angesehen werden kann? Aufgabe 9.13: Zum Test von H0: μ < μ0
gegen
Ηα : μ > μ0
wird der Mittelwert χ einer Stichprobe benutzt. Dabei sei χ < μ 0 . Geben Sie spontan eine Testentscheidung ohne jegliche Rechnung an. Aufgabe 9.14: In einer unabhängigen Versuchsserie vom Umfang η besitzt ein Ereignis A die relative Häufigkeit r n (A) = 0,3. Daraus wird die Nullhypothese H 0 : P(A) = 0,3 aufgestellt. Weshalb ist es nicht zulässig, H 0 mit dieser Stichprobe zu testen? Aufgabe 9.15: Die Zufallsvariable X des Gewichts (in Gramm) der von einer Anlage abgefüllten Pakete sei normalverteilt. Der Erwartungswert μ kann sich im Laufe der Zeit ändern, während die Standardabweichung σ0 = 3 konstant ist. Zum Test von Η 0 : | μ — 1000 | > 2
gegen
Η χ : | μ — 1000 | < 2
wird mit dem Mittelwert χ des Gewichts von 400 zufällig ausgewählten Paketen folgende Entscheidung getroffen: Im Falle | χ — 1000 | < 1,7 wird H 0 zugunsten von Hx abgelehnt. Bestimmen Sie die von μ abhängige Irrtums Wahrscheinlichkeit 1. Art des Tests. Wie groß kann diese Irrtumswahrscheinlichkeit maximal werden?
Kapitel 10: Chi-Quadrat-Tests Bei den Chi-Quadrats-Tests sind die Testfunktionen näherungsweise ChiQuadrat-verteilt. Mit Hilfe der Anpassungstests können gleichzeitig mehrere Wahrscheinlichkeiten getestet werden. Es kann aber auch untersucht werden, ob eine bestimmte Verteilungsfunktion vorliegt bzw. ob die unbekannte Verteilungsfunktion zu einer bestimmten Klasse von Verteilungsfunktionen gehört, z.B. zur Klasse der Normalverteilungen. Mit den Unabhängigkeitstests werden zwei Zufallsvariablen auf Unabhängigkeit getestet. Mit den Homogenitätstests kann getestet werden, ob mehrere Zufallsvariablen die gleiche Verteilung besitzen.
10.1 Test von mehreren Wahrscheinlichkeiten Beispiel 10.1: Zum Test der Nullhypothese H 0 : "ein Würfel ist ideal" müssen gleichzeitig sechs Wahrscheinlichkeiten getestet werden, da diese bei einem idealen Würfel alle gleich g sind. Die Nullhypothese lautet also H0:
Pi
= P(X = i) = i
für i = 1,2 , . . . , 6.
Weil die Summe aller 6 Wahrscheinlichkeiten gleich Eins ist, handelt es sich im Grunde genommen nur um den Test von 5 Wahrscheinlichkeiten. Es ist naheliegend, dass man zum Test die relativen bzw. absoluten Häufigkeiten der einzelnen Augenzahlen benutzt. Falls einige oder alle relativen Häufigkeiten r ; von den hypothetischen Wahrscheinlichkeiten P; = g stärker abweichen, wird man die Nullhypothese ablehnen. Nach der allgemeinen Theorie werden wir auf dieses Beispiel zurückkommen. Allgemein sei A1, A 2 , . . . , A r eine vollständige Ereignisdisjunktion, also r paarweise unvereinbare Ereignisse, von denen bei jeder Versuchsdurchführung genau eines eintreten muss. Für diese Ereignisse gilt damit Q=IJA: mit Α:J Π A k = 0 für j ^ k. i—1 Bezüglich vorgegebener Wahrscheinlichkeiten p j , p 2 , . . . , p r mit Ρ; > 0 für alle i
und
Γ Σ Pj = 1 i=l
(10.1)
Kapitel 10: Chi-Quadrat-Tests
200
soll folgende Nullhypothese getestet werden: H 0 : P(A X ) = P l ; P(A 2 ) = p 2 ; ... ; Ρ (A r ) = p r .
(10.2)
Γ Wegen Σ Pi — 1 sind n u r r — 1 Wahrscheinlichkeiten zu testen. i=l Zum Test werden in einer unabhängigen Versuchsserie vom Umfang η die absoluten Häufigkeiten h ; = h n (A;) für i = 1 , 2 , . . . , r bestimmt. In der unabhängigen Versuchsserie vom Umfang η sei H n (Aj) die Zufallsvariable der absoluten Häufigkeit des Ereignisses Aj. Bei richtiger Nullhypothese H 0 ist H n (A ; ) binomialverteilt mit den Parametern Ε (H n (Aj)) = npj;
Var (Η η (Α;)) = n P i (1 -
Pi)
für i = 1, 2 , . . . , r .
Für große η ist H n (Aj) ungefähr normal verteilt. Dann ist H„(A ; ) —np; Zi=
'
(10·3)
ebenfalls näherungsweise normalverteilt mit Ε (Ζ;) = 0 ; Var (Ζ;) = ± • Var (Η η (Α ; )) = 1 - p..
(10.4)
Zu Ehren des englischen Statistikers Egon Sharpe Pearson (1895 — 1980) heißt die Stichprobenfunktion χ 2
=
έ
a
y
«
( 1 M )
i=l Pearsonsche Testfunktion. Sie ist asymptotisch Chi-Quadrat-verteilt mit r — 1 Freiheitsgraden, falls die Nullhypothese H0 richtig ist. Die Approximation durch die asymptotische Chi-Quadrat-Verteilung darf bereits dann benutzt werden, wenn von den r erwarteten Häufigkeiten npj höchstens 20% kleiner als 5, aber alle mindestens gleich 1 sind. Sollte diese Bedingung nicht erfüllt sein, so müssen von den Ereignissen Aj manche zusammengefasst werden, bis die Approximationsbedingung für die zusammengefasste Ereignisdisjunktion erfüllt ist. Oder es muss der Stichprobenumfang η vergrößert werden. Eine evtl. zusammengefasste vollständige Ereignisdisjunktion bezeichnen wir wieder mit A 1 , A 2 , . . . , A r . Die Realisierung der Testfunktion kann umgeformt werden durch 2
*ber
_
^ (hj-npj)2 _ 2-^1 np ; i=l r h?
^ h f - 2 n h i P i + n2Pf 2-^i np ; i=l
201
10.1 Test von mehreren Wahrscheinlichkeiten Testdurchführung: 1. Die hypothetischen Wahrscheinlichkeiten der Nullhypothese lauten H 0 : P(Aj) =
Σ ρ ; = 1. i=l Von den erwarteten Häufigkeiten npj für i = 1 , 2 , . . . , r dürfen höchstens 20 % kleiner als 5, aber alle müssen mindestens gleich 1 sein. Andernfalls müssen Ereignisse zusammengefasst oder der Stichprobenumfang η vergrößert werden. Pi
für i = 1 , 2 , . . . , t
mit
2. Man bestimme die absoluten Häufigkeiten h j , h 2 , . . . , h r der Ereignisse , A 2 , . . . , A r in einer Versuchsserie vom Umfang n. 3. Man berechne die Testgröße Aber ~~ 2-^t
i=l
np;
~~ η 2—i Pi
i=l
4. Man bestimme das (1 — a ) - Quantil teilung mit r — 1 Freiheitsgraden.
1.
j _ a der Chi-Quadrat-Ver-
5. Testentscheidung: Im Falle Xb er > χ^ - 1 · ι - α sonst wird H 0 nicht abgelehnt.
abgelehnt,
Bemerkungen: In der Testgröße werden die beobachteten Häufigkeiten h ; mit den erwarteten Häufigkeiten npj verglichen. J e weniger diese Werte voneinander abweichen, umso kleiner wird die Testgröße. Sie verschwindet nur dann, wenn alle Häufigkeiten h ; mit den erwarteten Häufigkeiten npj übereinstimmen. Kleine Abweichungen können auf den Zufall zurückgeführt werden, größere stehen in signifikantem Widerspruch zur Nullhypothese. Aus diesem Grund benutzt man zur Testentscheidung nur das (1 — α ) - Q u a n t i l der Chi-Quadrat-Verteilung (einseitiger Test). Falls die Nullhypothese auf Grund des Stichprobenergebnisses nicht abgelehnt werden kann, folgt daraus noch keineswegs, dass sie richtig ist. Die entsprechende Irrtumswahrscheinlichkeit 2. Art β kann bei einer Nichtablehnung der Nullhypothese H 0 unter Umständen sehr groß sein, besonders dann, wenn die Nullhypothese falsch ist, aber die tatsächlichen Wahrscheinlichkeiten in der Nähe der hypothetischen Wahrscheinlichkeiten liegen. In einem solchen Fall steht das Stichprobenergebnis nicht in signifikantem Widerspruch zur Nullhypothese. Beim Test auf Gleichheit aller r Wahrscheinlichkeiten, also bei H0: P(A1) = P ( A 2 ) = ...
=P(Ar)=I,
vereinfacht sich die Berechnung der Testgröße zu
Xber =
ffi>?
i=l
- n
für
Pi = P
2
=
·
(10.7)
202
Kapitel 10: Chi-Quadrat-Tests
Beispiel 10.2 (vgl. Beispiel 10.1): Zum Test mit α = 0,05, ob ein Würfel ideal ist, wurde dieser n-mal unabhängig geworfen. Wegen Pj = g muss die Approximationsbedingung np ; = Ξ. > 5 , also η > 30 erfüllt sein. Für η = 120 erhielt man folgende Häufigkeiten der Augenzahlen: Augenzahl
1
2
3
4
5
6
Häufigkeit
18
15
19
21
22
25
Die erwartete Augenzahl ist jeweils gleich 20. Aus (10.7) erhält man mit r = 6 die Realisierung der Testfunktion Xber =
i f > ?
- 1 1 = ^ . 2 4 6 0
-
120 =
3.
Das 0,95-Quantil der Chi-Quadrat- Verteilung lautet X5 . 0 95 = H O ? . Wegen < X5 . 0 95 kann die Nullhypothese nicht abgelehnt werden. Das Ergebnis steht nicht in signifikantem Widerspruch zur Idealität des Würfels. Stetigkeitskorrektur nach Yates Beim Chi- Quadrat-Test wird eine diskrete Verteilung durch eine stetige approximiert. Daher wird im Allgemeinen das Quantil der exakten Verteilung der Testfunktion von dem der Chi-Quadrat-Verteilung abweichen. Falls man beim Test der diskreten Verteilung die Testgröße aus der stetigen Verteilung ohne Korrektur berechnet, besteht die Tendenz, die Nullhypothese H 0 zu oft abzulehnen. Aus diesem Grund sollte die Testgröße ähnlich wie bei der Approximation der Binomialverteilung durch die Normalverteilung in Abschnitt 6.6.3.3 korrigiert werden. Frank Yates hat im Jahre 1934 gezeigt, dass bei der korrigierten Testgröße
XL· = Σ
1
np
2 )
(10.8)
i=l
die Chi-Quadrat-Approximation verbessert wird. Diese Korrektur muss allerdings nur bei einem Freiheitsgrad, also für r = 2 benutzt werden. Bei mehr als einem Freiheitsgrad kann auf sie verzichtet werden.
10.2 Tests von Verteilungen Es sei F eine unbekannte Verteilungsfunktion einer Zufallsvariablen X. Mit dem Chi-Quadrat-Anpassungstest können zwei Arten von Hypothesen getestet werden:
10.2 Tests von Verteilungen
203
a) H 0 : F = F 0 ; E 1 : F φ F 0 . Dabei ist F 0 eine vorgegebene hypothetische Verteilungsfunktion. Bei diskreten Zufallsvariablen kann man anstelle der Verteilungsfunktion F 0 eine bestimmte hypothetische Verteilung vorgeben; bei stetigen Verteilungen genügt die Angabe der Dichte f. b) H 0 : F gehört zu einer Klasse von Verteilungsfunktionen, die durch m (unbekannte) Parameter Θ1, θ2 , . . . , festgelegt ist. Durch die m Parameter kann auch die Verteilung festgelegt sein. H1 : F gehört nicht zu dieser Klasse. In a) muss die Verteilungsfunktion F 0 (x) vollständig vorgegeben sein, ζ. B. dass die Zufallsvariable X normalverteilt ist mit dem Erwartungswert μ = 100 und der Varianz σ 2 = 5, also N(100; 5)-verteilt ist. In b) kann ζ. B. getestet werden, ob eine Zufallsvariable Poisson-verteilt, binomialverteilt, exponentialverteilt oder normalverteilt ist. Dabei müssen die Parameter nicht vorgegeben werden. Diese werden aus einer Stichprobe vom Umfang η geschätzt. Im Fall b) werden die unbekannten Parameter aus einer Stichprobe vom Umfang η nach der Maximum-Likelihood-Methode (s. Abschnitt 8.1.3) geschätzt und in die Verteilungsfunktion F eingesetzt. Damit erhält man wie in a) eine vollständig vorgegebene Verteilungsfunktion F 0 bzw. eine eindeutig festgelegte Verteilung. Unser Ziel ist es, den Test auf den in Abschnitt 10.1 zurückzuführen. Dazu wird der Wertevorrat der Zufallsvariablen X in r disj unkte Klassen A 1 , A 2 , . . . , A r zerlegt. Mit Hilfe der Verteilungsfunktion F 0 oder der hypothetischen Verteilung werden die Wahrscheinlichkeiten Pi
= P ( X e A ; ) für i = 1 , 2
r
(10.9)
bestimmt. Mit dem Umfang η der benutzten Stichprobe muss die bereits in Abschnitt 10.1 angegebene Bedingung npj > 5 für mindestens 80% der Klassen und npj > 1 für alle Klassen erfüllt sein. Andernfalls müssen Klassen zusammengelegt werden. Die Anzahl der so entstandenen Klassen soll wieder mit r bezeichnet werden. Aus der Stichprobe wird für jedes i die Anzahl der Stichprobenwerte hj bestimmt, die in der Klasse Aj liegen, also die absolute Klassenhäufigkeit h; = h n (Aj) für i = l , 2 , . . . , r . Hiermit berechnet man die Pearsonsche Testfunktion
204
Kapitel 10:
Chi-Quadrat-Tests
Unter der Nullhypothese H 0 ist sie Realisierung einer Zufallsvariablen, die näherungsweise Chi-Quadrat-verteilt ist. Die Anzahl der Freiheitsgrade beträgt r — m — 1. Dabei ist m die Anzahl der in b ) geschätzten Parameter. Falls kein Parameter (Fall a ) ) geschätzt wird, ist m = 0 zu setzen.
Testdurchführung: 1. Die Wertemenge der Zufallsvariablen X Klassen Α-ί, A 2 , . . . , A r eingeteilt.
wird in r > 2 disj unkte
2. Aus einer Stichprobe vom Umfang η werden die Klassenhäufigkeiten h;, also die Anzahl der Stichprobenwerte bestimmt, die in der Klasse A j liegen für i = 1, 2 , . . . , r. 3. Im Fall b ) werden die m unbekannten Parameter nach der Maximum-Likelihood-Methode (s. Abschnitt 8.1.3) geschätzt und in die Verteilung bzw. Verteilungsfunktion eingesetzt. Dadurch erhält man die hypothetische Verteilungsfunktion F 0 bzw. eine hypothetische Verteilung der Zufallsvariablen X . 4. Für die Zufallsvariable X mit der Verteilungsfunktion F 0 werden die hypothetischen Klassenwahrscheinlichkeiten Ρ ( X 6 A j ) = pj berechnet für i = 1 , 2 , . . . , r. Von den erwarteten Klassenhäufigkeiten np; dürfen höchstens 20 % kleiner als 5, aber alle müssen mindestens gleich 1 sein. Andernfalls müssen Klassen zusammengefasst werden. Die Anzahl der Klassen soll wieder mit r bezeichnet werden. 5. Man berechne die Testgröße Aber
—
LJ
i=l
np ;
i=l
P; ^
11
·
6. Man bestimme das (1 — a ) - Q u a n t i l A ^ - m - l . j _ a der Chi-QuadratVerteilung mit r — m — 1 Freiheitsgraden. Dabei ist m die Anzahl der geschätzten Parameter. 7. Testentscheidung: Im Falle %£er > χ ^ - π ι - ι · ι - α sonst nicht.
Nullhypothese H 0 abgelehnt,
Hinweis zur Testentscheidung: Durch die Klasseneinteilung wird in Wirklichkeit nur getestet, ob die Zufallsvariable die mit Hilfe der hypothetischen Verteilungsfunktion F 0 berechneten Klassenwahrscheinlichkeiten besitzt. Falls man zu einer Ablehnung dieser Klassenwahrscheinlichkeiten kommt, kann gleichzeitig die Nullhypothese H 0 abgelehnt werden. Wäre nämlich die Nullhypothese H 0 richtig, so müssten auch die daraus berechneten Klassen Wahrscheinlichkeiten korrekt sein.
10.2 Tests von Verteilungen
205
Falls die Nullhypothese H 0 nicht abgelehnt werden kann, tritt neben der Irrtumswahrscheinlichkeit 2. Art β ein zusätzliches Problem auf. Wenn die berechneten Klassenwahrscheinlichkeiten sogar richtig wären, müsste die Nullhypothese noch keineswegs erfüllt sein. Die tatsächliche Verteilungsfunktion könnte ja von F 0 abweichen und trotzdem die gleichen Klassenwahrscheinlichkeiten besitzen. Dieses zusätzliche Problem kann vernachlässigt werden, wenn die Klasseneinteilung sehr fein gewählt wird. Dazu benötigt man allerdings einen sehr großen Stichprobenumfang n. Geeignete Wahl der Anzahl der Klassen Damit die erwarteten Klassenhäufigkeiten groß werden, sollte man nicht zu viele Klassen wählen. Andererseits ist bei einer kleinen Klassenzahl der Informationsverlust, der durch die Klasseneinteilung entsteht, groß. Es hat sich als brauchbar erwiesen, die Klassenanzahl ungefähr als ·\Γη~ zu wählen. Beispiel 10.3 (Test auf Binomial Verteilung): Glühbirnen einer bestimmten Sorte werden in einer Großhandlung in Viererpackungen verkauft. Mit a — 0,01 soll folgende Nullhypothese H 0 getestet werden: Die Anzahl der defekten Glühbirnen pro Viererpackung ist binomialverteilt mit einer unbekannten Wahrscheinlichkeit p. Der andere Parameter ist η = 4 (da sich in jeder Packung 4 Glühbirnen befinden). Zum Test wurden 500 Packungen untersucht mit dem Ergebnis 0
1
2
3
4
319
93
51
22
15
Anzahl defekter Birnen pro Packung absolute Häufigkeit
Der Parameter ρ = P(eine Glühbirne ist defekt) wird aus der Stichprobe nach der Maximum-Likelihood-Methode geschätzt. Nach Beispiel 8.5 ist die Maximum-Likelihood-Schätzung die relative Häufigkeit. In den 500 Packungen befinden sich 4 · 500 = 2 000 Glühbirnen. Davon sind 0 · 319 + 1 · 93 + 2 · 51 + 3 • 22 + 4 · 15 = 321 OOI defekt. Für ρ erhält man damit den Schätzwert ρ = t ^ q q = 0,1605. Falls tatsächlich eine Binomialverteilung vorliegt, erhält man mit diesem Schätzwert die Wahrscheinlichkeiten =P(X = k)=^-0,1605k-0,83954-k
für k = 0 , 1 , 2 , 3 , 4 .
Zusammen mit den beobachteten Häufigkeiten hj sind die erwarteten Häufigkeiten 500 • pj in der nachfolgenden Tabelle eingetragen. def. Glühbirnen pro Packung beobachtete Häufigkeiten erwartete Häufigkeiten
0
1
2
3
4
319
93
51
22
15
248,34
189,92
54,46
6,94
0,33
206
Kapitel 10: Chi-Quadrat-Tests
Beim letzten Wert ist die erwartete Häufigkeit kleiner als 1. Daher fasst man die beiden letzten Klassen zusammen. Def. Glühbirnen pro Packung
0
1
2
3 oder 4
319
93
51
37
248,34
189,92
54,46
7,27
beobachtete Häufigkeiten erwartete Häufigkeiten
Daraus erhält man die Realisierung der Testfunktion 2
*ber
_ -
(319-248,34)2 248^34
=
191,36.
+
( 9 3 - 189,92) 2 (51 - 5 4 , 4 6 ) 2 + + 189,92 54,46
(37-7,27)2 7,27
Zur Berechnung der Testgröße wurden r = 4 Klassen benutzt. 1 Parameter wurde geschätzt. Aus der Chi-Quadrat-Verteilung mit r — m — 1 = 2 Freiheitsgraden erhält man das Quantil χ 2 _ ^ _ ^ . Q 9 9 = · 0 99 = · Wegen χ£ 6 Γ > χ 2 · ο 999 gelehnt.
die Nullhypothese der Binomialverteilung ab-
Beispiel 10.4 (Test auf Poisson-Verteilung): Es wird vermutet, dass die Zufallsvariable X der Anzahl der Druckfehler pro Seite in einem 400-seitigen Buch Poisson-verteilt ist. Zum Test mit a = 0,01 wurde auf jeder Seite des Buches die Anzahl der Druckfehler festgestellt. Dabei erhielt m a n das Ergebnis Druckfehler pro Seite beobachtete Häufigkeiten
0
1
2
3
4
302
67
15
10
6
Nach Beispiel 8.6 ist die Maximum-Likelihood-Schätzung des Parameters λ das Stichprobenmittel, also λ = x = - L (0-302 + 1 -67 + 2 · 15 + 3 · 10 + 4 -6) =
= 0,3775 .
Damit erhalten wir die geschätzten Wahrscheinlichkeiten pk
=
0^775^. e-0,3775
f ü r k
= o,l,....
Alle Werte von 4 an werden zunächst zu einer Klasse zusammengefasst. Die fünfte Klasse {X > 4} besitzt dann die Klassenwahrscheinlichkeit q4 =
1
- Po _ P i
_
P2 _ P3 ·
Hiermit erhält m a n PQ = 0,68557; Pi = 0,25880; p 2 = 0,04885; p 3 = 0,00615; q 4 = 0,00063. In der nachfolgenden Tabelle sind die beobachteten und die erwarteten Klassenhäufigkeiten zusammengestellt:
10.2 Tests von Verteilungen Druckfehler pro Seite beobachtete Häufigkeiten erwartete Häufigkeiten
207 0
1
2
3
> 4
302
67
15
10
6
274,23
103,52
19,54
2,46
0,25
Weil die erwartete Häufigkeit der letzten Klasse kleiner als 1 ist, werden die letzten beiden Klassen zusammengefasst. Damit lautet die Realisierung der Testfunktion 2
*ber
_ -
(302-274,23)2 274^23
=
81,93.
+
( 6 7 - 103,52) 2 + 103^52
(15 - 19,54) 2 + Γ^54
(16-2,71)2 2,71
Da ein Parameter geschätzt wurde, beträgt das Quantil χ ^ . 0 9 9 = 9,21. Wegen > χ 2 · ο 99 w i r d die Nullhypothese der Poisson-Verteilung abgelehnt. Beispiel 10.5 (Test auf Normalverteilung): Zum Test auf Normalverteilung müssen die Werte auf der Zahlengeraden in Klassen eingeteilt werden. Dazu wurden die Stichprobenwerte bereits in der ersten und zweiten Spalte der nachfolgenden Klasseneinteilung sortiert. Pj (Wahrsch.) F(»i) Klasseneinteilung Häufigkeit (recht. Rand) F ^ - F i z i , ! ) 90 95 100 105 110
< < < <
- 1)(/-1) · 1 - α
w r
' d die Nullhypothese, dass die
m Zufallsvariablen die gleiche Verteilung besitzen, abgelehnt.
Test auf Gleichheit zweier Wahrscheinlichkeiten Es soll getestet werden, ob in zwei verschiedenen Grundgesamtheiten das Ereignis Α die gleiche Wahrscheinlichkeit besitzt. Zu diesem Test benutzt man die Vierfeldertafel A
A
1. Grundgesamtheit
hu
h
12
h
2. Grundgesamtheit
h
h
22
h2. = n2
Spaltensummen
h-1
h. 2
n = h..
21
Zeilensummen i· =
n
l
10.4 Homogenitätstest
215
Der Test wird wie in Abschnitt 10.3 durchgeführt. Für η < 20 sollte dieser Test nicht verwendet werden. Für 20 < η < 200 benutzt man die nach Yates korrigierte Teststatistik n
'(| hll"h22 -
\2
h
12,h2l|-f)
Für η > 200 verwendet man die Testfunktion n
21
\2
' "2 ' "·1 - " · 2 Die Anzahl der Freiheitsgrade ist gleich 1. Testentscheidung: Im Falle %£er > . j _ wird die Nullhypothese der Gleichheit der beiden Wahrscheinlichkeiten abgelehnt.
Beispiel 10.7: In zwei Werken einer Firma wird das gleiche Produkt hergestellt. Es soll mit α = 0,05 getestet werden, ob in beiden Werken die Ausschusswahrscheinlichkeit gleich ist. Dazu sei folgende Stichprobe gegeben: fehlerhaft
fehlerfrei
Summe
Werk I
31
369
400
Werk II
41
459
500
Summe
72
838
900
Die Testgröße lautet 2 _ 900 -(31 - 4 5 9 - 41 · 369) 2 Xber 72 . 838 · 400 · 500 ~ U,0öü4.
Wegen < χ^. 0 9 5 = 3,84 kann die Nullhypothese der Gleichheit der beiden Ausschusswahrscheinlichkeiten nicht abgelehnt werden.
Kapitel 10: Chi-Quadrat-Tests
216
10.5 Aufgaben Aufgabe 10.1: Bei einem Zufallsexperiment soll immer genau eines der drei paarweise unvereinbaren Ereignisse Α, Β und C eintreten. Zum Test der Nullhypothese H0:
P(A)=ip(B)=ip(C)
wurde das Experiment 600mal durchgeführt, wobei sich folgende Häufigkeiten ergaben: h 6 0 0 (A) = 85; h 6 0 0 ( B ) = 185 ; h 6 0 0 (C) = 330. Kann die Nullhypothese mit einer Irrtumswahrscheinlichkeit a — 0,05 abgelehnt werden? Aufgabe 10.2: Eine Firma verkauft eine Ware in 5 Güteklassen. Nach ihren Angaben sind die Wahrscheinlichkeiten dafür, dass ein zufällig ausgewähltes Stück den einzelnen Güteklassen angehört, in der nachfolgenden Tabelle zusammengestellt: I
Güteklasse Wahrscheinlichkeit
0,10
II 0,20
III
IV
0,35
0,25
V 0,10
Zum Test wurden 190 Stücke zufällig ausgewählt mit dem Ergebnis Güteklasse
I
II
III
IV
V
Häufigkeit
18
36
58
58
20
Testen Sie mit mit a = 0,05, ob die Angaben des Herstellers richtig sind. Aufgabe 10.3: Ein Student sollte als Hausaufgabe 50mal aus den Ziffern 0,1, 2, . . . ,9 eine zufällig auswählen. Dabei brachte er das folgende Ergebnis mit Ziffer
0
1
2
3
4
5
6
7
8
9
Häufigkeit
0
2
6
8
6
7
5
10
3
3
Der Professor hat den Verdacht, dass der Student das Zufallsexperiment gar nicht durchgeführt, sondern die Tabelle willkürlich angefertigt hat. Lässt sich dieser Verdacht mit einer Irrtumswahrscheinlichkeit a) α = 0,05; bestätigen?
b) α = 0,1
217
10.5 Aufgaben
Aufgabe 10.4: Zum Test, ob ein Würfel unverfälscht ist, wurde er 120mal geworfen. Dabei erhielt man als Summe der Quadrate der Häufigkeiten für die einzelnen Augenzahlen 2 669. Kann hiermit die Nullhypothese der Unverfälschtheit des Würfels mit der Irrtumswahrscheinlichkeit a) a = 0,05; b) a = 0,01 abgelehnt werden? Aufgabe 10.5: Glühbirnen werden in Dreierpackungen verkauft. Bei einer Überprüfung von 1000 Packungen auf die Anzahl der beschädigten Glühbirnen erhielt man folgendes Ergebnis: Anzahl fehlerhafter Glühbirnen pro Packung absolute Häufigkeit
0
1
2
3
719
243
28
10
Es sei X die Zufallsvariable der Anzahl der fehlerhaften Glühbirnen je Packung in der Gesamtproduktion. Testen Sie mit a = 0,01 die Nullhypothese H 0 : die Zufallsvariable X der Anzahl der defekten Glühbirnen pro Dreierpackung ist binomialverteilt. Aufgabe 10.6: Prüfen Sie die Nullhypothese (α = 0,05), dass die Werte der folgenden Stichprobe Realisierungen einer normalverteilten Zufallsvariablen sind. Die Stichprobe besitze den Mittelwert 101,2 und die Varianz 94,2. Benutzen Sie dabei die in Aufgabe 8.3 angegebenen Maximum-Likelihood-Schätzungen. Klasse Häufigkeit
( - oo; 90] (90; 95] (95; 100] (100; 105] (105; 110] (110; oo) 12
17
22
20
15
14
Aufgabe 10.7: Es wird vermutet, dass die Lebensdauer (in Stunden) bestimmter Geräte exponentialverteilt ist. Zum Test wurde die Betriebsdauer von 25 Geräten festgestellt: 232 ; 105 ; 523 ; 549; 776 ; 276 ; 196 ; 180; 305; 994; 420 ; 630 ; 68; 163; 407; 782 ; 389 ; 619 ; 1478 ; 17 ; 980; 222; 269 ; 501; 231. Führen Sie den Test mit α = 0,05 und den Klassengrenzen 200, 300 und 600, also mit 4 Klassen durch. Benutzen Sie dabei die Maximum-Likelihood-Schätzung aus Aufgabe 8.2.
Kapitel 10: Chi-Quadrat-Tests
218
Aufgabe 10.8: Bei der Befragung von Personen, ob sie trinken bzw. rauchen, erhielt man folgende Häufigkeiten: Raucher Trinker Nichttrinker
Nichtraucher
120
70
48
62
Testen Sie mit a = 0,01, ob die beiden Merkmale "Rauchen" und "Trinken" unabhängig sind. Aufgabe 10.9: Zum Test, ob die Mitgliedschaft in einer Gewerkschaft vom Geschlecht abhängig ist, wurden die Angehörigen eines Betriebes befragt. Das Ergebnis ist in der nachfolgenden Häufigkeitstabelle zusammengestellt. Mitglied männlich weiblich
nicht Mitglied
1851 382
291 61
Führen Sie den Test mit a — 0,05 durch. Aufgabe 10.10: Vier Wochen vor einer Bundestagswahl erklärten 492 von 2 000 zufällig ausgewählten Personen, sie würden nicht zur Wahl gehen. Eine Woche vor der Wahl wurden nochmals 1 000 Personen befragt. Davon erklärten 219, sie würden nicht zur Wahl gehen. Kann aufgrund dieses Ergebnisses mit a — 0,05 behauptet werden, dass sich in der Zwischenzeit Nichtwähler umstimmen ließen? Aufgabe 10.11: In einer Meinungsumfrage wurden 150 Personen nach ihrer Meinung über die zukünftige Konjunkturentwicklung befragt mit folgendem Ergebnis:
Männer Frauen
aufwärts
abwärts
bleibt gleich
weiß nicht
29 14
11 16
23 17
18 22
Testen Sie mit a = 0,05, ob die Prognosen vom Geschlecht unabhängig sind.
Kapitel 11: Varianzanalyse Auf die Ausprägungen eines bestimmten Merkmals haben häufig verschiedene Einflussfaktoren eine unterschiedliche Wirkung. So hängt ζ. B. der mittlere Ertrag von Getreide oft von der Sorte, der Düngung, dem Anbauort oder der Anbauart ab. Mit der von R. A . Fisher entwickelten Varianzanalyse ist es möglich, solche Einflüsse statistisch nachzuweisen. W i r behandeln hier nur zwei elementare Fälle der Varianzanalyse. In der einfachen Varianzanalyse wird der Einfluss eines einzigen Faktors untersucht. Bei der doppelten Varianzanalyse liegen zwei verschiedene Faktoren vor. Bezüglich weiterer Modelle sei auf weiterführende Literatur verwiesen, ζ. B. Schach, S.; Schäfer, T . [1978].
11.1 Einfache Varianzanalyse Wir betrachten m unabhängige Zufallsvariablen , X 2 , . . . , X m , die alle normalverteilt sind. Dabei seien die Varianzen gleich, d. h. V a r ( X ; ) = σ 2 , wobei σ 2 nicht bekannt sein muss. Die m Zufallsvariablen können verschiedene Erwartungswerte Ε ( Χ ; ) = μ ; besitzen. In der Varianzanalyse soll die (evtl. unbekannte) Varianz σ 2 geschätzt und ein Test auf Gleichheit aller m Erwartungswerte durchgeführt werden. Getestet werden soll also die Nullhypothese (11.1)
H0: μι = μ2 - · • • - Μ, 'm gegen die Alternative : /ij φ /ik
für mindestens ein Paar j φ k .
Zur Testdurchführung benötigt man wie in Abschnitt 10.4 für jede Zufallsvariable X j eine unabhängige Stichprobe vom Umfang nj ( x i i , x i 2 . · · ·. XjnJ
für
i — 11 2 , . . . , m.
Die i-te Stichprobe besitze die Kenngrößen Summe der Stichprobenwerte: Mittelwert:
*·· X; = i f -
1 n; Η: Σ
xij!
(11.2)
220
Kapitel 11 Varianzanalyse
Die Stichprobenwerte Xjj jeder Gruppe werden zusammen mit den Umfangen n ; , den Summen x ; . und den Mittelwerten Xj für i = 1,2, . . . , m in der Tabelle 11.1 übersichtlich dargestellt. Gruppe
Gruppen- Zeilenumfang summe
Stichprobenwerte
Gruppenmittel
1
X11 x 12
x 13
χ 1η χ
nl
xv
X1
2
X21 x 22
x 23
x 2n 2
n2
x2.
x2
i
xil
x i3
ni
x i"
xi
nm
xm·
xm
η
X..
m
x i2
X ml x m2 x m3
Gesamt
···
Χιτυι
m
Summe
xX
- iηn
Tab. 11.1: Schema für die einfache Varianzanalyse Alle m Einzelstichproben werden zu einer Gesamtstichprobe ( x l l ' · · •' x l n 11 ' X21 ' · · ·' x 2nζ0 i • • • 5 Χχηΐ ' · · ·' mV , ) m vom Umfang η = Σ η ί zusammengefasst. Sie besitzt das Gesamtmittel i=l n 1 m i ι m m η. χ = ί ^ Σ Exy =έΣΧί· = ^ = Σ η ^ ί · (11.3) i—1 j=l i=l i=l x =
Für die Summe q g e s der Abweichungsquadrate aller Stichprobenwerte vom Gesamtmittelwert χ wird folgende Zerlegung durchgeführt: qges
mni mni x χ = Σ Σ ( ij - ) = Σ Σ [ ( x ij - χ ; ) + ( x i - x ) ] i=l j=l i=l j=l ~ n ;l m = Σ Σ(χ,-χ) i=l j=l
™ m n :ι + Σ Σ(χ„-χί) 1=1 j=l
+
2
™ m n :ι Σ Σ ( x ij - x i ) ( x i - χ ) · i=l j=l
Für die Summe der gemischten Produkte gilt m _ _ n i mni _ _ _ x x x x Σ Σ ( ij ~ i ) ( i - ) = Σ ( x i - χ ) Σ ( x ij - x i ) i=i j=i i=i j=i
m m = Σ ( χ ί - χ ) · ( χ ί · - η ΐ · χ ί ) = Σ ( χ ΐ - χ ) · ( χ ί · - χ ί · ) = o. i=l i=l Damit erhalten wir die Quadratsummenzerlegung
11.1
221
Einfache Varianzanalyse
qges= Σ E(xy-xr= i—1
Σ Σ^-χ;)·
i=l ' r^· - V
i = l i=l >—-—ν = qin
(ΐΐ·4)
Für die nachfolgenden Umrechnungen benutzen wir die Eigenschaft Σ (*„ - *) 2 = ι/=1
- Ν Ζ2 ;
Σ 4
ζ = 4 Σ Χ 1,1
ν—Χ
(Mittelwert).
ι/=1
Damit ist die gesamte Quadratsumme m ni m ni „ 2 q g es = Σ Σ ( χ ϋ - χ ) 2 = Σ Σ 4 ~ τ τ (n-5) i=l j = l i=l additiv zerlegbar in die Summe der Abstandsquadrate der Gruppenmittel χ ; vom Gesamtmittel x, also zwischen den Gruppenmitteln m m χ 2. 2 qzw=
Eni(5q-x)
i=l
2
=
E n i 1-
i=l
-
if
(H-6)
und die Summe der Abstandsquadrate der einzelnen Gruppenwerte x^ von ihrem Gruppenmittel χ ; , also innerhalb der Gruppen m ni qin= Σ Σ(χ„-χί) i=l j = l
m ni = Σ Σ 4 i=l j = l
-
m χ?. Σητ· i=l 1
(H-7)
Für die praktische Rechnung ist es sinnvoll, zuerst q g e s und q z w und daraus die Differenz q i n = q g e s — q 2W zu berechnen. q i n ist Realisierung der Zufallsvariablen Qin= Σ £ ( X i j - X i ) 2 · i=l j=l
(11-8)
Die Stichprobenfunktion S
?
2 (Xij-Xi)2 j=l
1
ist nach der Modellannahme erwartungstreu für σ 2 mit E
(S.?) = Ϊ Γ ^ Ί ι
E
( Σ (Xij - Xi)2) =
σ2
·
j=l
Hieraus folgt n Ε ( Σi (Xij - X i ) 2 ) = ("i - l ) - 2 für i = 1 , 2 , . . . , m.
E ( Q J = Σ Ε (v E ( X i Jj - X i ) 2 ) = £ ( n i - l V i=l j=i ' i=l
2
= (n-m)CT2.
(11.9)
Diese Eigenschaft gilt auch, wenn die Nullhypothese H 0 nicht richtig ist.
222
Kapitel 11 Varianzanalyse
Wir nehmen an, die Nullhypothese H 0 sei erfüllt. Dann kann die gesamte Stichprobe vom Umfang η als Zufallsstichprobe einer normalverteilten Zufallsvariablen mit dem Erwartungswert μ = μ1 — μ2 = ... — μτη und der Varianz σ 2 aufgefasst werden. Sie besitzt die (empirische) Varianz
Wegen der Erwartungstreue der Schätzfunktion S 2 für σ 2 gilt E(S2|H0)=^E(Q
g e s
|H0)^2,
also E(Qges|H0) = ( n - l ) a 2 .
(11.10)
Mit (11.4) folgt aus (11.9) und (11.10) E(QZW|H0)=
E(Qges|H0)-E(Qin)
= (η - 1)σ 2 - (η - m) 0 · x Die Schätzwerte b j und bQ sind Realisierungen der Zufallsvariablen Σ(χ i-xKYi-Ϋ) Β
= x
Σ ( i - *) i=l
£(xi-x)Yi -;Β Σ(χι-χ)2 i=l
=Υ-χ·Β
0
1
.
(12.7)
Diese Identität folgt aus £ ( x i - x ) - Y = o. Aus der Modell Voraussetzung (12.1) erhält man Ε (Υ;) = ß0 + β
Λ
;
Ε (Ϋ) = ßQ + βχχ;
Ε (Yj - Ϋ) = β fa - χ ) .
Da die Werte χ ; als Konstanten vorgegeben werden, erhält man hiermit Ε(Χ;-Χ)Ε(Υ;-Ϋ) Ε (B x ) = — ηΣ (*i - χ) i=l
t ß f a - * )
2
— = ßl ;
Σ(χί-χ) i=l
E ( B 0 ) = Ε ( Ϋ ) - χ · Ε ( Β 1 ) = ß0 + ß1x-ß1x
=
ßQ.
Die Schätzfunktionen B x bzw. B 0 sind erwartungstreu für ßx bzw. ßQ. Zu jedem Beobachtungswert y ; wird für s 2 > 0 durch yi = y + ~~Y ( x i — χ) s x der zugehörige Wert yj auf der geschätzten (empirischen) Regressionsgeraden bestimmt. Wie y ; Realisierung der Zufallsvariablen Y ; ist, so ist auch yj Realisierung der Zufallvariablen Y j . Dabei gilt (s. Bosch, K. [1996], S. 511) Σ ( Υ ; - Ϋ ; ) 2 ) = σ2.
(12.8)
Damit erhält man in
= Λ 11
Δ
Σ (yi - y;) 2 i=l
einen erwartungstreuen Schätzwert für die gemeinsame Varianz σ 2 .
(12.9)
234
Kapitel 12: Lineare Regression
12.3 Test auf lineare Regression Für jedes x e l C R sei Y(x) eine normal verteilte Zufallsvariable mit konstanter Varianz σ 2 . Es soll getestet werden, ob die von χ abhängigen Erwartungswerte E(Y(x)) auf einer Geraden liegen. Die Nullhypothese lautet H 0 : E(Y(x)) = f(x) = ßQ + /? l X
für jedes χ e I .
(12.10)
Bei richtiger Nullhypothese H 0 liegt eine lineare Regression vor. Die Testdurchführung erfolgt wie bei der einfachen Varianzanalyse (Abschnitt 11.1) mit Hilfe einer analogen Quadratsummenzerlegung. Um Gruppenabweichungen bilden zu können, müssen zu mindestens einem x-Wert mindestens zwei y-Werte gehören. In der gesamten Stichprobe sollen m verschiedene x-Werte x^ , Xj , . . . , x ^ vorkommen. Zu x* gehören die y-Werte y ; i , y i 2 > yj3, · · ·, yj n . • Die m Gruppenstichproben können in das nachfolgende Schema der Varianzanalyse eingetragen werden:
Gruppe
y n yia yi3 x
2
*r
Gruppenumfang
Stichprobenwerte ··•
Zeilensumme
Gruppenmittel
^
n
l
yi·
yi
2
y2·
y2
··•
y2n 2
yü
···
y;ni
n
i
yi·
y;
yml ym2 ym3 • • · ^mnm
n
m
ym'
ym
η
y··
y;2
y;3
Gesamt
Summe
II l>»
y2i y22 y23
n
Tab. 12.1: Schema für die Varianzanalyse m Die gesamte Stichprobe vom Umfang η = Σ n i besitzt die folgenden Kenni=1 größen: Mittelwert und Varianz aller χ - W e r t e : Χ= έ£η;ΧΓ;
s2 =
«i(*r -
=^zj ( J>i
Die einzelnen y-Stichproben besitzen die Kenngrößen:
xf2 - η x2).
12.3 Test auf lineare Regression
Gruppenmittel:
_ ι yi = ^
Gesamtmittel:
_ ν y =
Gesamtvarianz:
s2 = —
1 y·· Σ y- = ^ für i = 1 , 2 ,, . . . , m ; 1 j=i ι m ni 1 m 1 m = Σ Σ Υ ί ϊ = η Σ Yj- = η Σ n J i 5 i=i j=l i=l i=l
1
π
Kovarianz:
s
y
235
(
Σ Σ ^ i=i j=i
1 ν
-
= —^-r ( Σ χ Γ Υ ϊ · — η - i \i=1
η
Ϋ
n
*y) · !
2
); '
Zerlegt wird die Summe der vertikalen Abweichungsquadrate aller Punkte von der empirischen Regressionsgeraden y = b 0 + b x x qges=
=
Σ Σ ( y y - b0 - W χ?)2 = £ Σ ( ( y y - Fi) + (Fi - b 0 - W * T ) ) * i—l j = l i==l j = l v ' Σ Σ(Υα-7ίΥ+ i=l j = l V ' =
Σ η i=l
- ( y
i
i
- b
0
- b ^ Y
v
q in
= q Reg
W i e bei der Varianzanalyse verschwindet auch hier die Summe der gemischten Produkte n: ~ „m Π;ι m ι Σ Σ (yy - Fi) (Fi - b 0 - b x x f ) = Σ (Fi - b 0 - ^ x ? ) · Σ ( y y - Fi) i=l j = l i=l j=l m m = Σ (Fi - b 0 - w * T ) ( y i · - n i F i ) = Σ (Fi - b 0 - b x xf ) ( y j . - y j . ) = 0. i=l i=l Nach (3.4) gilt für die gesamte Abweichungssumme q g es = Σ S(yy-bo-bixT) 1=1 j = l Elementare
Rechnung
ergibt
die
=
a
(»-i)(«i-b?«4).
Abweichungsquadrate
innerhalb
der
Gruppen: m qin =
ni
m
Σ E(yy-Fi) i=l j=l
=
ni
m y?,
Σ Eyy Σ τ τ · i=l j=l J i=l 1
Abweichungsquadrate der Gruppenmittel von der Regressionsgeraden: m qReg =
ni
m
Σ Σ (Fi - b 0 - w x f ) 2 = Σ Hi (Fi - b 0 - b x x f ) 2 . i=l j = l i=l
Man kann zeigen, dass unter H 0 die zugehörigen Zufallsvariablen folgende Erwartungswerte besitzen (s. Bosch, K . [1996], S. 523):
E(Qin) = (n-m)cr2 E(Q6es|H0) =
(gilt i m m e r ) ;
(n-l)a
2
;
E(QReg|H0) =
(12.11) (m-2)a2.
236
Kapitel 12: Lineare Regression
Somit erhält man folgende Tafel der Varianzanalyse: Abstandsquadrate
Summen der Abstandsquadrate
Gruppenmittel m von der Regres- 03 ~
E*Tyy i >j
=
12
25
' 3,612 2 ) = 0,11943 ;
· 15,7 + 14 · 17,5 + 16 · 17,9 + 18 · 19,1 + 20 · 20,1
= 1465,6;
s x y = J L (1465,6 - 25 · 16 · 3,612) = 0,8667; r -
,„?'8667 - 0,8638; λ ι ^ · 0,1192
"
s
x
= 0,104;
b 0 = y - \ χ = 1,948;
y = 1,948 + 0,104x . Die Schätzwerte der einzelnen Gruppen auf der Regressionsgeraden lauten: y 1 = 3,196 ; y 2 = 3,404 ; y 3 = 3,612 ; y 4 = 3,82; y 5 = 4,028. Als Summe der Abstandsquadrate der Gruppenmittel von der Regressionsgeraden erhält man qReg =
5
· Σ (Yi - Yi)2 = s((3,14 - 3,196) 2 + (3,5 - 3,404) 2
+ (3,58 - 3,612) 2 + (3,82 - 3,82) 2 + (4,02 - 4,028) 2 ) = 0,0672.
Kapitel 12: Lineare Regression
238
Summe der Abstandsquadrate aller Werte von der Regressionsgeraden: q g e s = ( n - l ) ( s j - b 2 s 2 ) = 24(0,11943-0,104 2 · 8,3333) = 0,7032. Summe der Abweichungsquadrate innerhalb der Gruppen: q i n = V s - ^Reg = ° ' 7 0 3 2 " ° ' 0 6 7 2 = ° ' 6 3 6 · Daraus erhält man die Testgröße = ber
qReg/(m-2) qin/(n-m)
0,0672/3 0,636/20
'
Das 0,95-Quantil lautet f
= 3 , 1 0 . Wegen f b e r < f 3 2 ο· ο 95 kann 3,20 ί 0)95 ' ' ' die Nullhypothese einer linearen Regression nicht abgelehnt werden.
12.4 Aufgaben Aufgabe 12.1: Bei 25 Männern verschiedener Altersstufen wurde der systolische Blutdruck gemessen. Dabei ergaben sich folgende Werte: Alter [Jahre] 20 30 40 50 60
Blutdruck [mm in HG] 111 117 134 139 141
107 109 132 137 146
112 119 129 129 139
118 115 122 133 148
109 122 127 134 143
a) Testen Sie unter der Normalverteilungsannahme auf lineare Regression mit a = 0,05. b) Bestimmen Sie Schätzwerte für die Parameter ßQ und βχ der Regressionsgeraden f(x) = ß 0 + /? χ χ. c) Geben Sie einen Schätzwert für die Varianz σ 2 an. Aufgabe 12.2: Mit der Stichprobe **
5 10 15
9,1 20,9 27,7
10,2 17,7 29,1
14,4 19,7 31,2
12,9 21,1 30,7
soll für a — 0,05 unter der Normalverteilungsannahme die Nullhypothese getestet werden, dass f(x) = c · χ mit einer Konstanten c e Κ die Regressionsfunktion ist. Bestimmen Sie zunächst die Regressionsgerade durch den QRe /( m - !) Koordinatenursprung O. Benutzen4XSie die Testfunktion — rK, r- . Qin/( n - m )
Kapitel 13: Parameterfreie Verfahren In Kapitel 9 werden Hypothesen getestet, die sich auschließlich auf Parameterwerte beziehen. In diesem Kapitel behandeln wir Hypothesen, die sich nicht nur auf spezielle Parameter stützen. Bei den Chi-Quadrat-Tests in Kapitel 10 wurden bereits spezielle parameterfreie Verfahren behandelt. Da man bei diesen Tests keine Voraussetzungen über die Verteilung der zu untersuchenden Zufallsvariablen benötigt, nennt man derartige Tests auch verteilungsfreie Tests.
13.1 Vorzeichen-Test Beispiel 13.1: In Beispiel 9.5 aus Abschnitt 9.2.3 wurde der Einfluss einer bestimmten Menge Alkohol auf die Reaktionszeit auf ein bestimmtes Signal untersucht. Dabei wurde unterstellt, dass die entsprechenden (verbundenen) Zufallsvariablen normalverteilt sind. In diesem Abschnitt soll der Fall behandelt werden, dass die Zufallsvariablen nicht unbedingt normalverteilt sind. Zum Test werden wie in Beispiel 9.5 bei η Personen die Reaktionszeiten vor und nach dem Alkoholgenuss festgestellt und ihre Differenzen berechnet. Falls der Alkoholgenuss keinen Einfluss hätte, wären die Abweichungen rein zufällig. Dann müssten ungefähr die Hälfte der Differenzen positiv und die andere Hälfte negativ sein. Uber die Größe der einzelnen Differenzen wird bei diesem Test allerdings nichts ausgesagt. Die genauen Werte der einzelnen Differenzen werden beim Wilcoxon-Vorzeichenrangtest in Abschnitt 13.4 berücksichtigt.
13.1.1
Vorzeichen-Test bei stetigen Zufallsvaxiablen (ohne Bindungen)
Es sei (X, Y) eine zweidimensionale stetige Zufallsvariable, deren gemeinsame Verteilung nicht bekannt sein muss. Dann ist die Zufallsvariable X — Y ebenfalls stetig. Daher gilt P ( X - Y = 0) = 0. Einer der folgenden Tests soll durchgeführt werden:
(13.1)
Kapitel 13: Parameterfreie Verfahren
240
a) H 0 : P ( X — Y > 0) = P ( X — Y < 0 ) ; H ^ P ( X - Y > 0) φ P ( X - Y < 0 ) ; b) H o : P ( X - Y > 0 ) < P ( X - Y < 0 ) ;
H ^ P ( X - Y > 0) > P ( X - Y < 0 ) ;
c) Η 0 : P ( X — Y > 0) > P ( X — Y < 0 ) ; H ^ P ( X - Y > 0) < P ( X — Y < 0 ) . In a) handelt es sich um einen zweiseitigen Test, während die beiden anderen Tests einseitig sind. Zur Testdurchführung werden wie in Abschnitt 9.2.3 aus einer verbundenen zweidimensionalen Stichprobe ( χ , y) = ( ( x j , y x ) , ( x 2 , y 2 ) , . . . , ( x n , y n ) ) vom Umfang η die Differenzen d ; = X; - y ;
für i = 1 , 2 , . . . , η
bestimmt. Falls die Nullhypothese H 0 aus a) richtig ist, gilt wegen der vorausgesetzten Stetigkeit P(X-Y>0) = P(X-Y 0) = P(D < 0) P(D > 0) φ P(D < 0) v+ < k a oder 2
> η — ka 2
P(D > 0) < P(D < 0) P(D > 0) > P(D < 0) P(D > 0) > P(D < 0) P(D > 0) < P(D < 0)
< < K
Quantile bei großem Stichprobenumfang Bei großem Stichprobenumfang η kann die Binomialverteilung durch die Normalverteilung approximiert werden. Unter der Bedingung (13.2) genügt bereits η > 36. Mit den Kenngrößen E(V+|P = £ ) = § ;
Var(V+|p = I ) = |
erhält man aus der Verteilungsfunktion Φ der Standard-Normalverteilung mit der Stetigkeitskorrektur die Approximation
ka« |-0,5 + ^ · ζ
13.1.2
α
= |-0,5 - ^ · ζ ι _
α
für η > 36.
(13.5)
Vorzeichen-Test bei beliebigen Zufallsvariablen (mit Bindungen)
Bei beliebigen Zufallsvariablen kann die Wahrscheinlichkeit Ρ (X — Y = 0) von Null verschieden sein. Auch in diesem Fall soll mit dem VorzeichenTest eine der Nullhypothesen aus Abschnitt 13.1.1 getestet werden. Besonders im Fall P(X — Y = 0) > 0 werden Bindungen auftreten, also Differenzen Xj — yj verschwinden. Zunächst wäre es naheliegend, die verschwindenden Differenzen gleichmäßig auf die Gruppen der positiven und negativen Differenzen aufzuteilen. Die Zuordnung könnte aber auch zufällig (gleichwahrscheinlich) erfolgen. Besser ist es jedoch, in einem solchen Fall die Werte der Bindungen einfach wegzulassen und den Test aus Abschnitt 13.1.1 mit dem reduzierten Stichprobenumfang durchzuführen. Dann bleibt der Test konservativ, d.h. die Irrtumswahrscheinlichkeit 1. Art wird dadurch nicht vergrößert.
Kapitel 13: Parameterfreie Verfahren
242
Beispiel 13.2 (vgl. Beispiel 13.1): Bei 500 zufällig ausgewählten Personen wurden die Reaktionszeiten auf zwei verschiedene Reizsignale gemessen. Dabei waren bei 271 Personen die Reaktionszeiten auf das zweite Signal größer und bei 214 kleiner als auf das erste Signal. Bei den restlichen 15 Personen wurden gleiche Zeiten festgestellt. Mit diesem Ergebnis soll mit a = 0,05 getestet werden, ob die positiven Differenzen allgemein eine größere Wahrscheinlichkeit besitzen als die negativen Differenzen. Es handelt sich um den Test b). Da 15 Differenzen verschwinden, ist der reduzierte Stichprobenumfang η = 485. Mit der Approximation durch die Normalverteilung erhält man aus (13.5) k
~
4 8 5
0 5
^485
7
- 224·
n-k
-261
Wegen v
485 = 271 > η - k 0 > 0 5
gelangt man zur Testentscheidung: Mit Wahrscheinlichkeit von mehr als 0,5 ist die Reaktionszeit beim zweiten Signal größer als die beim ersten Signal.
13.2 Test des Medians bei stetigen Zufallsvariablen Der Median μ einer stetigen Zufallsvariablen ist definiert durch
Ρ(Χ>μ)
=
Ρ
(
Χ
η — kQ wird H 0 : ρ = i abgelehnt, also H j : ρ > i angenommen.
Für η > 36 kann die Approximation der Binomialverteilung durch die Normalverteilung benutzt werden mit
P ( X < k j H k
Q
0
) « $ |
' k e - j [ + 0t5\ ^ | = or; n Ν4
- f + 0,5
— r =
«
Νη 2
z
a
= -
z
l --
α >
n - k ^ ^ n + l + j i T ' Z j . J (aufrunden!)
für η > 36 .
(13.11)
Beispiel 13.4: a) Es werden 15 Proben analysiert. W i e viele davon müssen mindestens richtig analysiert werden, damit dem Prüfer mit a — 0,05 sensorische Fähigkeiten bestätigt werden können? Aus (13.10) erhält man
(θ5)
+
(\
5
)
+
•··
+
(kj os)-0'05'215
1 + 15 + 105 + 455 = 576 < 1638;
=
1638;
k°'05
maximal
-
1365;
k 0 , 0 5 = ( θ ) + (115)+···+(145)> 1638 3; n - k 0 i 0 5 = 12. Es müssen mindestens 12 Proben richtig analysiert werden. Die tatsächliche Irrtumwahrscheinlichkeit beträgt dann - ^ - 5 7 6 = 0,01758.
Falls nur mindestens wäre α = 0,05923.
11 richtige Identifikationen verlangt
würden,
b) W i e viele von 200 Proben müssen mindestens richtig beurteilt werden, damit H 0 mit α = 0,01 abgelehnt werden kann? Aus (13.11) folgt mit z 0 9 9 = 2,3263 n-k0
01
« i ( 2 0 0 + l - H 2 0 0 -2,3263) « 117 (aufgerundet).
246
Kapitel 13: Parameterfreie Verfahren
13.3.2 Der Triangel-Test: Dreiecksprüfung Beim Triangel-Test werden dem Prüfer n-mal drei Proben vorgegeben. Dabei sind zwei der Proben gleich, die dritte ist abweichend. Der Prüfer muss die abweichende Probe identifizieren. Die drei Proben können in Dreiecksform angeordnet werden. Daher rührt der Name Triangel-Test. Bei jedem Probentripel sollte die abweichende Probe richtig analysiert werden. Es sei ρ die Wahrscheinlichkeit, dass die abweichende Probe richtig identifiziert wird. Bei reinem Raten ist ρ = 5 . In Analogie zum Duo-Test aus Abschnitt 13.4.1 betrachten wir folgende Nullhypothese und Alternative: H0:p = i;
H
i :
p>i.
Zum Test werden η Probentripel benutzt. X beschreibe die Anzahl der richtig identifizierten Proben. Unter H 0 ist X binomialverteilt mit den Parametern η und ρ = 5 · Es gilt also unter H 0
P(X = k|H o ) = (
E
).(i)
k
.(|)
n
-
k
= ( n ) . ^ , k = 0,l,...,n; (13.12)
E(X|H0)=|;
Var(X|H0)=n.I.§ = §n.
Wegen ρ φ | ist unter der Nullhypothese H 0 die Zufallsvariable X nicht symmetrisch verteilt. Daher müssen die Quantile am rechten Rand bestimmt werden. Zu einer vorgegebenen Irrtumswahrscheinlichkeit α wird c minimal bestimmt mit P(X > c I H0) = t
(J) · ( i ) ' · (Ι)" " " < « ·
(13.13)
Gleichwertig damit ist die Bedingung η c minimal mit
ζ
2
n _ k
< α · 3n.
(13.14)
Hiermit erhält man die Testentscheidung: Von η Probentripeln werden χ richtig analysiert. Im Falle x>c
( e s . (13.14))
wird H 0 : ρ = i abgelehnt, also H x : ρ > i angenommen. Für η > 40 kann die Approximation der Binomialverteilung durch die Normalverteilung benutzt werden mit
13.3 Sensorische Tests
247
P ( X > c | H 0 ) = 1 - P ( X < c - 11 H 0 ) /c-i-fi + 1 - Φ
3
2 „ Ν9
o ^ -
a;
'c-J-0,5' ΦΙ
1 -α.
Mit dem (1 — a ) - Q u a n t i l man hieraus
Zj_a
1 -
c »
| + 0 , 5 + ^ · ζ
1
_
der Standard-Normalverteilung
α
'
α
= 1 ( η + | + Λ[27Γ·ζ 1 _ J ,
erhält
also c « ^ ( n + | + ' i 2 n " - z 1 _ a ) (aufrunden!) f ü r n > 4 0 .
(13.15)
Beispiel 13.5: a) Es werden 10 Probentripel analysiert. W i e viele davon müssen mindestens richtig analysiert werden, damit H 0 (Raten) mit a = 0,05 abgelehnt werden kann? Aus (13.13) erhält man von k = 10 ausgehend
(^•αΓΗ^α)9·©^^)·®8·«)2^1,0)^7·«)3 = 0,0000169 + 0,0003387 + 0,0030483 + 0,0162577 = 0,0196616. Wegen ( g ^ ) ' ( j ) ' ( § )
~ 0,0569019 würde mit dem nächsten Summan-
den die vorgegebene maximale Irrtumswahrscheinlichkeit a — 0,05 überschritten. Falls bei mindestens 7 richtigen Analysierungen H 0 abgelehnt wird, ist a — 0,0196616 die tatsächliche Irrtumswahrscheinlichkeit erster A r t . Verlangt man jedoch zur Ablehnung von H 0 nur 6 richtige Identifizierungen, so beträgt die Irrtumswahrscheinlichkeit α = 0,0765635. b) Bei 50 Probentripel benötigt man zur Ablehnung von H 0 mit α = 0,01 nach (13.15) mindestens c « i (50 + 1 + ^ 2 - 5 0 · 2,32635) = 25 (aufgerundet) richtige Identifizierungen.
Kapitel 13: Parameterfreie Verfahren
248
13.4 Vorzeichen-Rangtest nach Wilcoxon Mit dem Vorzeichentest a) aus Abschnitt 13.1 wird nur die Hypothese untersucht, ob positive und negative Werte gleichwahrscheinlich sind. Uber die Verteilung der beiden Bereiche wird jedoch keine Aussage gemacht. Auch wenn positive und negative Differenzen gleichwahrscheinlich sind, könnten die positiven Differenzen viel größer als die negativen Differenzen sein. In diesem Abschnitt soll untersucht werden, ob sich die positiven und negativen Differenzen gleich verhalten. Dies ist genau dann der Fall, wenn die Verteilung der Differenzenvariablen X — Y symmetrisch zur Stelle s = 0 ist, wenn also die beiden Zufallsvariablen X - Y
und
- (X - Υ ) = Υ - X
die gleiche Verteilung besitzen. Gleichwertig damit ist für jedes u e R P ( X - Y < - u ) = P ( - ( X - Y ) < — u) = P(X — Y > u ) . Wenn z.B. der Alkoholgenuss keinen Einfluss auf die Reaktionszeit hat, dann müsste die Verteilung der Zufallsvariablen der Differenzen D = X — Y symmetrisch zur Stelle s = 0 sein. Daher können wir uns auf die Behandlung einer einzigen Zufallsvariablen beschränken. Diese soll wieder mit X bezeichnet werden. Als hypothetische Symmetriestelle lassen wir einen allgemeinen Wert ΰ 0 zu. Die Symmetriestelle ist gleichzeitig der Median μ . Für eine beliebige Zufallsvariable X betrachten wir die Nullhypothese H 0 : die Verteilung von X ist symmetrisch zur Stelle i? 0 .
(13.16)
Dabei ist ϋ0 ein vorgegebener Zahlen wert. Diese Nullhypothese ist genau dann richtig, wenn die Zufallsvariable Y=X-tf
(13.17)
0
symmetrisch um 0 verteilt ist, wenn also (X - ΰ0)
und - (X -
= ϋ0 - X
die gleiche Verteilung besitzen. Zur Testdurchführung wird aus einer Stichprobe χ = ( x j , x 2 , . . . , x n ) vom Umfang η die transformierte Stichprobe y = χ _ 0 ο = (x1-l?0,x2-l?0,...,xn-iJ0) = (y1,y2,...,yn) bestimmt. Wenn die Nullhypothese H 0 richtig ist, werden sich die positiven und negativen Differenzen "ähnlich" verhalten.
13.4 Vorzeichen-Rangtest nach Wilcoxon
249
13.4.1 Rangiest ohne Bindungen Wie in Abschnitt 13.1.1 setzen wir zunächst voraus, dass die Zufallsvariable X stetig ist. Dann gilt für die Symmetriestelle t?0 wegen P(X = = 0 P(X 0 o ) = i .
(13.18)
Wegen der vorausgesetzten Stetigkeit sind in der transformierten Stichprobe y= x= ( X l - ϋ0, x 2 - ΰ0,..., x„ - ΰ0) mit Wahrscheinlichkeit Eins alle η Werte voneinander und von Null verschieden. Dann treten keine Bindungen auf. Falls Bindungen auftreten muss der Test nach Abschnitt 13.4.2 durchgeführt werden. Die nach Frank Wilcoxon (1892 — 1965) benannte Testgröße wird folgendermaßen berechnet: 1) Die Beträge | yj | = | Xj — ι?0 | der transformierten Stichprobe werden der Größe nach geordnet
|y(i)l< ly(2)l< ··· < 1 ^ ) 1 · Wegen der vorausgesetzten Stetigkeit sind mit Wahrscheinlichkeit Eins alle η Ränge verschieden, so dass gleiche Ränge (Bindungen) im wesentlichen nur auf das Runden zurückzuführen sind. 2) Die Stichprobenwerte yj = X j —1?0 besitzen in dieser Anordnung die Ränge rj (vgl. Abschnitt 3.4.1). Als Testgröße wird die Summe der Ränge w+ der positiven y-Werte aus 2) bestimmt. Als Testgröße kann auch die Summe der Ränge der negativen y-Werte benutzt werden. Die Summe aller Ränge ist 1 + 2 + . . . + η =
^ . Daher gilt
+
(13.19)
w+ bzw. w ~ sind Realisierungen von Zufallsvariablen W * bzw. . Falls die Nullhypothese der Symmetrie der Verteilung zur Stelle richtig ist, besitzen die beiden Zufallsvariablen W * und die gleiche Verteilung und somit auch den gleichen Erwartungswert und die gleiche Varianz. Aus W+ + W - - n ( n + 1 ) η ^ vvn 2 folgt damit unter der Nullhypothese H 0 Ε (W+ | H 0 ) = Ε (W " | H 0 ) =
.
Die Testgröße W+ kann dargestellt werden in der Form
(13.20)
Kapitel 13: Parameterfreie Verfahren
250
^ W+ = £ i - Z ; i=i
. 1, falls Y: > 0 ; Z; = { 1 0, falls Yj < 0.
mit
Unter der Nullhypothese H 0 gilt Ε (Zj | H 0 ) = Ε (Zf | H 0 ) = Ρ (Ζ; > 0 | H 0 ) = \ ; Var (Zj | H 0 ) = \ . Aus der Unabhängigkeit der Zufallsvariablen Z; erhält man unter der Nullhypothese H 0 E(Wi|H0)
=
f i . i
= ϊίϊ + ΰ ;
i=1
Var (Wj!" | H 0 ) = £
(13.21) 4
+
=
.
Die Verteilung der Testgröße W * Die Testgröße W+ besitzt den Wertevorrat {θ, 1 , 2 , . . . , n ( n 2 + 1 ) }. Das Ereignis W+ = 0 tritt ein, wenn alle η Stichprobenwerte yj negativ sind. Sind sämtliche Stichprobenwerte yj positiv, so ist die Realisierung gleich n ^ . Unter der Nullhypothese H 0 ist W + symmetrisch verteilt τ, η (n + 1) zum Erwartungswert ^ . In Tabelle 6 im Anhang sind Quantile w+. a aufgeführt. Asymptotische Verteilung von W^ In der Darstellung W η+ = .*-*·' Ε i · Z:ι 1=1
' 1, falls Y. > 0 ; mit
Zjι =
0, falls Yj < 0
sind die einzelnen Summenvariablen Zi voneinander unabhängig. Unter der Nullhypothese H 0 konvergiert daher nach dem zentralen Grenzwertsatz die Folge der Verteilungsfunktionen der standardisierten Summen Z„ = n
Wn+-E(Wn+)_ yj V a r ( W + )
n(n+l)(2n+l) 24
gegen die Verteilungsfunktion Φ der Standard-Normalverteilung. Mit der Stetigkeitskorrektur erhält man für η > 20 die brauchbare Näherung
13.4 Vorzeichen-Rangtest nach Wilcoxon
251
Mit der Summe wjj" der positiven Differenzen x ; — ΰ 0 und den kritischen Grenzen w + α maximal mit Ρ (W„ < w + α ) < g erhält man die n n; 2 -2 2 Testentscheidung: Im Falle
wn+ < w + a - n;T
oder wn+ > " -
2
^ — wn + a ·"2
wird die Nullhypothese der Symmetrie zur Stelle t?0 abgelehnt. Für η < 60 sind Quantile große η benutzt man (13.22).
in Tabelle 6 im Anhang vertafelt. Für
13.4.2 Rangtest bei Bindungen Falls die Zufallsvariable X diskret ist, werden Stichprobenwerte mit gleichem Betrag, also Bindungen auftreten. Wenn Ρ (X = ϋ0) > 0 ist, entstehen auch Nulldifferenzen y; = X; —1?0 = 0. Die Nulldifferenzen werden weggelassen und der Test mit dem reduzierten Stichprobenumfang durchgeführt. Falls von den nichtverschwindenden y-Werten Beträge gleich sind, benutzt man Durchschnittsränge. Dadurch ändert sich der Erwartungswert der reduzierten Testgröße W^" nicht. Die Varianz wird jedoch verkleinert. Wenn es bezüglich der Testgröße insgesamt m verschiedene Bindungsgruppen gibt mit jeweils bj ranggleichen Elementen für j = 1 , 2 , . . . , m, erhält man nach Bosch K. [1996], S. 479 unter der Nullhypothese H Q : E(Wi|H0)
= (13.23)
standardisieri Zufallsvariable Für η > 25 ist unter H 0 die standardisierte
w+ zn =
^
n n + 1
(
)
n(n+l)(2n+l) _ Ä,. 24 48 A p D i
3
_
M D j
i
näherungsweise Ν (0; 1)-verteilt. Mit dieser Testgröße kann dann der Test durchgeführt werden. Beispiel 13.6: Mit der Stichprobe - 50 , - 45, - 40 , - 35 , - 30 , - 25, - 20 , - 15 , - 14 , - 11, 1,2,3,4,5,6,7,8,9,10
252
Kapitel 13: Parameterfreie Verfahren
soll die Nullhypothese H 0 getestet werden, dass die Verteilung der Zufallsvariablen X zur Stelle s = 0 symmetrisch ist. a) Mit dem Vorzeichentest aus Abschnitt 13.1.1 erhält man die Testgröße V^Q = 10. Sogar für α = 0,5 kann mit diesem Test die Nullhypothese nicht abgelehnt werden. b) Der Wilcoxon-Vorzeichenrangtest liefert die Testgröße = ^ ^ ^ = 55. Wegen w^"0 < w^" 0 . 0 0 5 = 60 (Tab. 6) kann die Nullhypothese mit a = 0,1 abgelehnt werden.
13.5 Aufgaben Aufgabe 13.1: Jemand hat die Vermutung, dass der Median einer diskreten Zufallvariablen größer als 251 ist. Zum Test wurden 1000 Stichprobenwerte benutzt. 51 dieser Messwerte waren gleich 251. Wie viele von den restlichen Messwerten müssen größer als 251 sein, damit die Vermutung mit a) α = 0,05; b) α = 0,01 bestätigt werden kann? Aufgabe 13.2: Ein Tomatensaft soll daraufhin untersucht werden, ob er süßer empfunden wird als ein Konkurrenzprodukt. Neun Prüfern wurde je ein Probenpaar vorgelegt, zwei von ihnen beurteilten das Konkurrenzprodukt als süßer. Welche Aussage kann bei a = 0,05 gemacht werden? Aufgabe 13.3: Geprüft werden soll, ob ein neues Verfahren zur Herstellung von Hühnerbrühe den Geschmack beeinflusst. Dazu wurde 8 Prüfern je ein Probentripel vorgelegt und zwar je 4 Prüfern die nach dem neuen bzw. nach dem alten Verfahren hergestellte Hühnerbrühe als Doppelprobe. 5 Prüfer haben die abweichende Probe richtig identifiziert. Kann hieraus mit a = 0,05 geschlossen werden, dass das neue Verfahren einen Einfluss auf den Geschmack hat? Aufgabe 13.4: Bei einem Test konnten 25 Punkte erreicht werden. Zum Test von H 0 : die Verteilung der Punktezahl ist symmetrisch zu 12,5 mit a = 0,05 soll folgende Stichprobe benutzt werden:
13.4 Vorzeichen-Rangtest nach Wilcoxon
253
Punktezahlen 16 8 11 19 7 12 25 6 13 21 9 14 17 Kann damit H 0 abgelehnt werden? Aufgabe 13.5: Bei 50 Personen wurde die Reaktionszeit auf ein bestimmtes Signal und nach dem Genuss einer bestimmten Menge Alkohol bestimmt. Mit fe des Vorzeichen-Rangtests soll mit α = 0,01 geprüft werden, ob die wächse der Reaktionszeiten symmetrisch um 0 verteilt sind. Dabei sei Rangsumme der positiven Differenzen wjj"0 = 910.
vor HilZudie
Aufgabe 13.6: Bei zehn Proben wurde der Nährstoffgehalt mit zwei Analysegeräten gemessen: 1
2
3
4
5
6
7
8
9
10
Gerät I 2,1 Gerät II 2,5
1,6 1,4
3,2 3,5
3,7 3,0
1,9 1,8
4,2 4,9
0,8 0,2
4,6 5,1
1,1 1,3
2,7 2,9
Probe
Sind die Abweichungen rein zufällig? Führen Sie dazu ohne Normalverteilungsannahme mit a = 0,05 a) den Vorzeichen-Test; b) den Vorzeichen-Rangtest durch. Aufgabe 13.7: Ein Olkonzern behauptet, durch einen Zusatz im Benzin werde der Verbrauch gesenkt. Dazu wurden bei 15 verschiedenen Fahrzeugen der Verbrauch in l/100km einmal ohne und einmal mit dem Zusatz gemessen: ohne Zusatz mit Zusatz
9,5 9,1
8,2 8,3
11,3 10,4
7,9 7,1
9,2 9,1
12,3 11,5
ohne Zusatz 10,5 mit Zusatz 9,9
8,9 8,6
7,3 7,5
8,3 8,1
11,6 11,2
10,5 10,6
7,2 7,4
6,8 7,1
13,5 12,9
Testen Sie mit α = 0,05 die Nullhypothese H 0 : Durch den Zusatz ändert sich der Benzinverbrauch nicht a) mit dem gewöhnlichen Vorzeichentest; b) mit dem Vorzeichen-Rangtest.
Lösungen der Aufgaben Kapitel 2 100,8182; χ = 103 ; s 2 = 322,9636; s = 17,9712.
2.1
x =
2.2
r 0 = 0; r x = 0,008; r 2 = 0,025; r 3 = 0,041; r 4 = 0,085; r 5 = 0,107; r 6 = 0,134; r 7 = 0,129; r 8 = 0,148; r 9 = 0,156; r 1 0 = 0,167. a)
*• 0,1 0
1
2
3
-r=T 1 2
3
4
5
6
7
8
9
I
I 9
10
1 -·
0,5-
0,1-
0
2.3
1
I 4
I 5
I 6
c)
χ =
d)
s 2 = 5,1863; s = 2,2774.
7
8
I 10
« 7 , 0 2 1 9 ; χ = 7;
9 + 2 h3 n = 9 + h2 + h 3 ; x = — — — L = i 9 + h2 + h3 =
I
h 3 - h 2 = 18
8 + h + h [1 * 9 + 4h 3 - (9 + h 2 + h 3 )] = 1,56 2 τ "3
1,44 h 3 - 2,56 h 2 = 12,48 ;
Lösung: h 2 = 12 ; h 3 = 30.
256
2.4
Lösungen der Aufgaben
a)
= i
Eixi + y ^ i i=l
£ x i + i E y i = x + y; i=l i=l
b) y = - χ = ( - X 1 , - X2 , . . . , - x j Xi
2.5
+
yi
=:0
mit
für 1 = 1 , 2 , . . . ,
a) η = 100; Höhe dj = ^
s
=
> 0;
2 + y = 07ts2+s£ .
(bj = Breite); ^
= 0,0005; d 2 = 0,00105;
d 3 = 0,0021; d 4 = 0,002; d 5 = 0,00095; d 6 = 0,00045; 11 t>j 0,0020,001-
0
200 400 600 800 1000
Ο
-ι 1 1 1 1 1 1 Ι200 400 600 800 1000
c) x fti 491,5 (Berechnung über die Klassenmitten); X = I ( x ( 5 0 ) + x ( 5 1 ) ) liegt in κ 3 ;
χ κ 400 + 100 · ^
= 492,857;
d ) x 0 1 = I ( x ( 1 0 ) + x ( n ) ) tu 200 + i · ^ · 200 = 204,762 ; 1
4 5
*0,95 = \ ( x (95) + X (96)) «
+ -f"
200
=
900·
a) η = 50; χ = 12 ; χ = 12 ; s x = 4,238; Zensur hi dj
=
1 2
to
2.6
800
3
4
5
6
6
16
14
10
2
~~
0,1 d3 -
0,08
d2 = 0,05
0,06
0,04 0,02
di = 0,0089 0 1 2 3 4 5 6 7 8 9
c) ζ = 3,6 ; ζ = 4.
0,07
d 5 = 0,06
de = 0,0267 1 I 1 I 1 1 11 10 1112 13 14 15 16 17 18 19 20 Punkte
Lösungen der Aufgaben
257
2.7 ρ = 4,1482 %. 2.8 χ = 1,25 ; 504,9 = q4 · 500 ; q = 1,002441; ρ = 0,2441 %. 2.9 a) t = |(15 + 20 + 30 + 40) = 26,25 Minuten; 22,857 Minuten; b)th = T 4 u5 20 30 40' c) t = 15-300+ 20-250+ 30-260+ 40.200 = 25 Minuten 1000
Allgemein: Σ sj · tj n / a)t=i £t i; b) th = -4—; c) t = 1 = Σ ( ί i=1 =ι VΣ V i Ei=l j r"l Σ s k=l k k=l 9 in * ι -400 2H50 120' 2.11 Steinerscher Verschiebungssatz: £(xi-x)2= Σ(χ;-χ)2 + η.(χ-χ)2; i=l i=l I t (Xi -x)2 = M s 2 + (x-x)2 = 142,81. i=l Kapitel 3 3.1 r = 0,8986. 3.2
a)
y
550500470 -J —1 1 1— 400 420 450
500
b) r = 0,9451; c) y = 1,4761 χ - 133,5084. 3.3 r = 0,7704.
Lösungen der Aufgaben
258 6E[R(*i)-R(yi)]2 3.4
a) r s = l -
1=1
n(n
2
=
-1)
-0,3714;
b) da gleiche Ränge vorkommen, darf die Formel aus a) nicht verwendet werden. Mit den Durchschnittsrängen erhält man r s = 0,1852.
3.5
y = 0,5031 l n x - 1,1996.
3.6
a) w =
; y = 0,9499 w + 0 , 7 8 7 6 ;
b) u = In χ ;
v = lny;
ν = 0,27109 u + 0 , 5 8 7 9 .
Kapitel 4 4.1
P(A Π B ) = 0 , 1 ;
P ( Ä U B ) = 0,9;
P ( Ä f l B ) = 0,2 ;
P ( A U B ) = 0,8.
4.2
P(A U B) = 0,8 ;
P(B) = 0,4; P(A Π Β) = 0,4 ; P(Xn Β) = 0,1.
4.3
a) 3 1 3 = 1 5 9 4 3 2 3 ; b)
P(ÄnB) = 0,l;
eine Tippreihe hat 13 Richtige;
/13 \
Anzahl der Tippreihen mit 12 Richtigen: I
^ I· 2 = 26 ;
Anzahl der Tippreihen mit 11 Richtigen: ^
^ · 2 2 = 312 ;
Anzahl der Tippreihen mit 10 Richtigen: ^ j jj ^ · 2 3 = 2 2 8 8 .
ί4Υί 4-4
a)
4.5
a) P ( { 3 3 3 3 3 3 3 } ) =
^32^
=
_
496 '
b)
2 8
ϊ
^32^
70
= ~ 31 '
e)
. 6 9 . 6 8 . 6 7 • 66 · 65 · 64
^
=
1 2 2
1 y 231'
0,0000000008342;
P ( { 0 1 2 3 4 5 6 } ) = 70 . 6 9 · 68 · 67 · 66 · 65 · 64 = 0,0000001363 ; b) Ziehen mit Zurücklegen oder jede einzelne Ziffer aus { 0 , 1 , . . . , 9 } ziehen. 4.6
«
η > — - η ρ ; η > 13 ln (e)
C
+
(aufgerundet).
5 " Χ Ι ) —
Lösungen der Aufgaben
259
4.8
P(A) = 0,8436.
4.9
Bayessche Formel:
a) 0,905624;
b) 0,999495.
4.10
Bayessche Formel:
a) 0,576471;
b) 0,999142.
4.11 a) ^ 1 6 °^ = 210; b) ^ ^ = 8 217 822 536 ;
c)
( « Ϊ V4 / _ 123410 _ 210 . — 8 217 822 536 _ / 4 9 \ ' /49 λ ν io) I « ; die Chance auf einen Sechser ist gleich groß wie mit der entsprechenden Anzahl (210) beliebiger, aber verschiedener Reihen.
4.12
a) 1 — (0,2) 3 = 0,992 ;
4.13
1 - (0,96) 5 = 0,184627.
4.14
a) 0,054;
4.15 a) A ; 4.16
b) (0,992) 1 0 = 0,922819 ;
b)P(H1|A)=^; b)
P(H2|A)=±;
c) 0,999941.
P(H 3 |A) = ^ .
21.
T ; : Auto steht hinter der i-ten Tür; Ρ ( Τ χ ) = P ( T 2 ) = P ( T 3 ) = Die Tür, welche der Spieler auswählt, bezeichnen wir mit T j . S 2 (S 3 ): der Spielleiter öffne die 2. (3.) Tür; P(S2|T1)=i;
P(S 2 | T 2 ) = 0 ; P ( S 2 | T 3 ) = 1;
P(S 3 |T 1 ) = i ;
P ( S 3 | T 2 ) = 1; P ( S 3 | T 3 ) = 0 .
Der Spielleiter öffne die Tür T 2 . Aus der Bayesschen Formel folgt prT 1 3 1
m
_ 2 ;
P(S2|T3)-P(T3) " P(S 2 I T x ) · P C T J + P(S 2 I T 2 ) . P ( T 2 ) + P(S 2 | T 3 ) . Ρ ( Τ 3 )
ι4 H
+ 0 +
_ 2. 1
'3
P ( T 1 | S 2 ) = 1 - P ( T 2 | S 2 ) - P ( T 3 | S 2 )_= 1. i - 0 O l entsprechend erhält man P ( T 3 | S 3 ) = ^; P ( T j | S 3 ) = Durch einen Wechsel verdoppelt sich die Wahrscheinlichkeit, das Auto zu gewinnen von ^ auf | .
Lösungen der Aufgaben
260
Kapitel 5 5.1 5.2
= 0,3875. a) ρ = l - ( 0 , 9 9 ) l o = 0,095618; b) 100 · ( 0 , 9 9 ) 1 0 + 11 · 100 · [1 - ( 0 , 9 9 ) 1 0 ] = 195,618 ; c )
5.3
n
+
n
_
n ( 1
_
k
p )
i-tes Spiel führe erstmals zu einem Gewinn: pj = i ; Gesamteinsatz:
l + 2 + ... + 2 i - 1 = 2 i - l ;
Einsatz für das laufende Spiel: 21 - 1 ; Auszahlung: 2 · 21 _
1
= 21;
Reingewinn: 1; 00 a) E ( X ) = Σ
i=l
b) 2 n +
1
, i - i = i ; 2
= 1 0 2 4 ; η + 1 = 10 ; η = 9;
maximale Serie hat die Länge 10 ; Verlust: 1 023 ; Pverlust 10 1 1 E ( Y ) = 5 ^ 1 - Λ - 1 0 2 3 · - 4 η = 0. 1 iti 2 2 5-4
10 a) P ( D ) = 2Y;
=
"To' 2
Pj = P(i-tes Spiel führt erstmals zu einem Gewinn) ^ • ( Ι Ι Γ
Gesamteinsatz:
1
1 + 2 + ... + 2
«iri = ί _ 1
Einsatz für das laufende Spiel: 21 ~
l,2,...;
=2'-1; Auszahlung: 3 · 21 ~ 1 ;
Reingewinn: 1 + 21 ~ 1 ; E(X)= £ ( l + 2i"1)-if-(If)1"1 b) 2 1 2 = 4 0 9 6 ; Spieler 13mal einsetzen.
kann
12mal
= oo; verdoppeln,
also
höchstens
Verlustwahrscheinlichkeit: ( § | ) 1 3 ; Verlust: 2 1 3 - 1 = 8 192 ; mit a) folgt E(Y) =
g ( l +
J f - ^ j -
= γ3·[ΐ- (|f)13]« 5.5
a) 0,239592 ;
1
- ( 2 » - l ) . ( § f )
-3,778254.
b) mindestens 6 fehlerhafte.
1 3
Lösungen der Aufgaben
261
5.6
a) 0,0004158.
5.7
a) P ( X = k ) = i f ü r k = l , 2 , . . . , 5 ;
E ( X ) = 3 ; σ - >|T;
b) geometrische Verteilung mit ρ = i ; E ( X ) = 5 ; σ = >[20".
0
1
2
Summe
0
16 36
8 36
1 36
25 36
1
8 36
2 36
0
10 36
2
1 36
0
0
1 36
25 36
10 36
1 36
1
*i
\
Summe
a) X und Y sind nicht unabhängig; b) E(X) = E ( Y ) = c)
W(X +
Var(X) = Var(Y) = Y)
Wahrsch.
0
1
2
4
4 9
1 9
9
X Y
Wahrsch.
E ( X + Y ) = | = E(X) + E ( Y ) ; d) ρ = — f
1
17 18
1 18
Var(X + Y ) = | ;
=> X und Y sind nicht unkorreliert.
0
1
2
0
64 216
48 216
12 216
1
48 216
3 216
0
75 216
2
12 216
24 216 3 216
0
0
15 216
3
1 216
0
0
0
1 216
Summe
125 216
75 216
15 216
1 216
1
x
0
i \
3 1 216
Summe 125 216
X und Y sind nicht unabhängig, b) ρ = — i => X und Y sind nicht unkorreliert.
Lösungen der Aufgaben
262
5.10 a) c = 0,05 ; b) E(X) = 5,45 ; Var(X) = 10,4475 ; E(Y) = 1,55 ; Var(Y) = 6,5475 ; c) E(X-Y) = 8,5; ? = 0,006348.
- 9 900
100
Summe
0,0004 0,0078
0,0078 0,984
0,0082 0,9918
Summe
0,0082
0,9918
1
W(X + Y)
- 19 800
- 9 800
200
Wahrsch.
0,0004
0,0156
0,984
x
i
- 9 900 100
E(X + Y) = 36; c) X und Y sind nicht unabhängig. 5.12
Binomialverteilung: P(X = 0) = 0,364170; P(X = 2) = 0,185801; P(X > 2) = 0,264229. Poisson-Verteilung: P(X = 0 ) « e
_ 1
« 0,367879; 1
P(X = 2) ta i e ~ « 0,183940 ; P(X > 2) tu 1 - 2e -
Kapitel 6 6.1
a) f(x) > 0 ; J f(x) dx = Jf(x)dx = 1; -oo ι für χ < 1;
0
b) F(x) =
χ
2
χ , 1 +\
1 c) E ( X ) = I ; V a r ( X ) = § ;
6.2
a) '
für 1 < x < 3; für χ > 3. μ=
c=— 2π
b) E(X) = f ;
Var(X) = 2 | ! ;
1+{2.
1
« 0,264242 .
Lösungen der Aufgaben
263 0
c) F(x) =
für χ < 0 ; für 0 < χ < 2π;
47Γ
d) μ = "lΎπ;
für χ > 2π. = ^0,4 π;
£ 0 9 5 = ^ 3,8 π;
2π e) E(Y) = E(cos(X)) = J" cos χ · f(x) dx = 0 . ο 6.3
«J
a) Ankunftszeit X ist in [ 0 ; ^ ] gleichmäßig verteilt.
( |
für 0 < χ < Ι ;
0
sonst.
ό
Ζ
Τ = Zufallsvariable der Wartezeit; P(T = 0) = b) 1 2 3
^—·— grün
rot
0.5
I 1 1 [
1.5
Verteilungsfunktion
„Dichte"
E(T) = 0 · ^ +
§udu = I 0 1
Ε(Τ ) = 0 · ± + J § u 2 d u = § ; 2
2
Var(T)=i;
c) μ = i (eindeutig bestimmt). 6.4
E(X)=I;
λ = ^
= 0,0005;
Verteilungsfunktion: F (x) = a) e " 1 , 2 5 « 0,2865 ;
0 l-e-°'0005x
b) e ~ ° ' 5 « 0,6065.
für χ < 0 ; für χ > 0.
264
Lösungen der Aufgaben
6.5
a) 0,1056;
6.6
a) X > 4,321;
6.7
Approximation durch die Normalverteilung, a) 0,0840;
6.8
6.10
c) 0,7888;
b) X > 4,066;
d) 0,3721;
e) c = 11,2281.
c) X > 3,966.
b) 0,9971.
X1 + X 2 ist N(70; 1,5) - verteilt. a) 0,5851;
6.9
b) 0,2266;
b) 0,0512.
a) Y ist N(50 200 ; 1600) - verteilt;
b) X ist N(502; 0,16) - verteilt.
a) S ist N(81; 225) - verteilt; b) 0,7257; c) mindestens 100,22 Minuten.
Kapitel 7 7.1
1000
Υ = Σ i=l
ist nach dem zentralen Grenzwertsatz näherungsweise
normalverteilt mit E(Y) = 100 kg; σγ = 160g = 0,16 kg. a) 0,8640 ; 7.2
b) c = 99,6278.
E(X) = 10 ; V a r ( X ) = § ; a) P ( | X - 1 0 | > 9 , 4 )
b) η > 1125 ;
c) d > 3.
7.3
a) η > 4 000 ;
7.4
a) η > 308; b) η > 30 702; c) η > 3 070 176 (aufgerundete Werte).
7.5
P( | R n - ρ | > 0,1) < a
)'
Μ b)
ΐ 0,01η η Τ ^
b) η > 44 (aufgerundet).
(Tschebyschewsche Ungleichung).
40 (aufgerundet). 8.7
η sehr groß =>
pu
[62,04; 67,96];
8.8
« r n =pz _ α · \ 2
[64,07; 65,93];
[64,70 ; 65,30];
=>• / « 2 Zj _ α · \ ' n - ( l - ' n )
a) η sehr groß
< -
^-fV
η > l—j— i ; b)
Pu,o«rn
T z
[64,91; 65,09] Μ {n
. '
η > 2 654 (aufgerundet); i - f
" n —TT—^- !
[0,0654; 0,1346];
c) P(X > 50) « Φ(0,0745) = 0,5297.
Kapitel 9 9.1
a) α = 0,0031; ß = 0,8633;
b) c = 51,003; ß = 0,1374;
c) c = 5 2 ; α = 0,0142; d
)
c
= lio + Έ ^ Έ Ι • (»ι ~ ^o) = ψ
=> 9.2
« 50,6667;
η > 77 (aufgerundet).
H 0 : ρ = 0,5 ; Ηχ : ρ = 0,8 ; Binomialverteilung mit η = 4 ; α = Ρ ( Χ > 3 | ρ = 0,5) = 0,3125 ; β = Ρ(Χ < 3 | ρ = 0,8) = 0,1808 .
9.3
α — Ρ ( Χ > 120 I ρ = 0,5) = 0,0029 ; β = Ρ ( Χ < 120 IΡ = 0,8) = Φ( - 7,1595) = 0 .
9.4
Η 0 : μ = 300 ; Η ^ μ / 300; χ = 304; s 2 = 20,8; a) I t b e r I = 2,1483 < t 5 . 0
975
= 2,571 => H 0 nicht ablehnen;
b) z b e r = 1,63299 < z 0 9 5 = 1,64485 9.5
H 0 : μ < 0,8; tber =
2
=» H 0 nicht ablehnen.
: μ > 0,8 ;
> ι ΐ 5 ; 0,95 =
1'753
=> Η ο ablehnen.
Lösungen der Aufgaben 9.6
267
a) Φ ( y f ) = 0,975; c = 0,2940; b) /?(80,5) = P( | X - 80 | < 0,2940 | μ = 80,5) = P(79,706 < X < 80,2941 μ = 80,5) φ^80,294 — 80,5 .
=
9.7
_ ^9,706-80,5 .^
=
M M 8
Η 0 : /i > 300 ; Η χ : μ < 300 ; t b e r = - 1,8611 < —1 100 . 0 9 5 = - 1,66 => H 0 ablehnen.
9.8
H 0 : σ > 0,6 Ο σ2 > 0,36;
Ηι:σ2• Η 0 nicht ablehnen.
Xber = 16.0764
0,1;
b) d ; = y; — Xj; d = 0,128; s2d = 0,00204; her 9.10
d
l d 0 , 1 · f n = 1,9604 > t 9 . 0
95
= 1,833
=> H 0 ablehnen.
H 0 : ρ < 0,06; Η : ρ > 0,06; Wegen n p 0 ( l — p 0 ) = 22,8 kann die Approximation durch die Normalverteilung benutzt werden. Ablehnungsbereich: , Γ " ~ Ρ ° . Wl-Po)
=
Γ " ~ ° ' ° 6 . -J5ÖÖ > z, λ|0,06·0,94
„;
0,06-0,94 a) r n > 0,0775 ; 9.11
b) r n > 0,0818 ;
H 0 : ρ > 0,9 ; H j : ρ < 0,9 ;
c) r n > 0,0847.
Normalverteilungsapproximation ;
η = 400, r n = 0,85; z b e r = - ψ < - z 0 9 9 = - 2,32635 =>• Η 0 ablehnen. 9.12
X : Lebensdauer mit Zugabe des Mittels; Y: ohne Zugabe; 2
H0 :
γ
>0,8 ^
^ >0,64; σγ
2
E1: ^ < 0,64 ; σγ
s = 4223;
Lösungen der Aufgaben
268 Ablehnungsbereich: 0,8 Sy j
fn
y
ΐ)Π
x
_
_i;i_a
0,8
_ 0,64 .
^500, 25 ;0,95
1.726'
S x < 2 571,5421. 9.13
Es wäre immer α = P(X < μ \ μ0) > i .
9.14
Testgröße = 0 => X2 ; 0,95 10.2
xleT = 3,618
·
H 0 ablehnen.
χ\. 0 95 = 9)488
=>·
H 0 nicht ablehnen.
für i = 0 , 1 , . . . , 9 ; η = 50;
a) χ£ β Γ = 16,4 < X9.0,95 b
10.4
=
16,919
) Xber = 16. 4 > x l ; 0,9 = I 4 ' 6 8 4
=>
H 0 nicht ablehnen;
=>
H
=>
H 0 ablehnen;
o ablehnen.
H0: p . = i f u r i = 1 , 2 , . . . , 6 ; a
) Xber = I 3 ' 4 5 > xl ;0,95 = 11,07
b) 10.5
p3 = P ( C ) = I ;
X2er =
13,45
086
^
H 0 nicht ablehnen.
Gesamtanzahl der Glühbirnen: 1000 · 3 = 3 000; . _ 0 - 7 1 9 + 1 -243 + 2 - 2 8 + 3 · 10 ninQfifi7. Ρ 3QQQ = 0,109667; Xber = 59,1253 > χ\.
099
= 9,21
=> Binomialverteilung ablehnen. 10.6
η = 100; Α = x = 101,2; Xber =>
=
σ2 = S ^ - i - s 2 = 93,258 ; =
2,34 < X 6 _ 2 _ 1 ; 0,95 —
;;0,95 0,95 " 7,815
Normalverteilung nicht ablehnen.
Lösungen der Aufgaben 10.7
269
χ = 452,48; λ = i = 0,002210042; ^ber = 2,11
• Exponentialverteilung nicht ablehnen. m s 10-8
ι η ο 1 0 9
xber
300(120-62-48-70)2 = 168 · 132 · 190 · 110 =
=>
Unabhängigkeit ablehnen.
2
« «« 2 > * ι ; ο,99 = 6.635
in77/1(W 10,7749
ο 2 585(1851-61 - 382 · 291) 2 2 *ber= 2 142-443-2 233-352 = 0,0106 < X » . 0 | 9 g = 3,841 => Unabhängigkeit nicht ablehnen.
10 10 γ 2 _ 3 000(492-781 - 2 1 9 · 1508) 2 _ 1U.1U x b e r ~ 771.2289-2000-1000
2,6876
• keine signifikante Änderung feststellbar. 10.11 Xber — n v( Σ Σ n , n j=i k=i j · -k
ι ) = 6,6403 < x 2 ; 0 > 9 5 = 7,815 '
-
=> Unabhängigkeit kann nicht abgelehnt werden.
Kapitel 11 11.1
a) q z w = 212,625; 2 FG; q i n = 142,935 ; 20 FG; f
ber =
1 4 , 8 7 5 5
=
> f 2 , 20 ; 0,95
= 3,493
=>· Nullhypothese der Gleichheit der Erwartungswerte ablehnen. b)
= 7,1468;
c) μλ = χ χ = 49,475 ; μ2 = x 2 = 47; μ3 = χ3 = 42,5. 11.2
a) q 2W = 3,8836 ; 3 FG; f
ber =
=
q i n = 20,4160; 20 FG;
1 , 2 6 8 1
< f 3 , 20; 0,95 =
3,098
=>• Gleichheit der Erwartungswerte nicht ablehnen. b) σ 2 =
= 1,0208;
_ 70 9 c) μ — χ — - ^ ξ - = 2,9542 (Gesamtmittel).
Lösungen der Aufgaben
270 11.3
q D ü n g u n g = 287,1167; 2 FG ;
q S o r t e = 53,5833 ; 3 FG; q R e s t = 40,1667;
fsorte =
6 FG;
40J667/6
2'6681
• verschiedener Einfluss der Sorte nicht feststellbar. _ 287,1167/2 Düngung - 40,1667/6 ~
> :2
_ ,6 ; 0,95 -
=>· verschiedener Einfluss der Düngung feststellbar.
11.4
q T a g = 2,8773; 4 FG; q R e s t = 1,2907; f Ta 6
= I ^ 7 l
q S c h i c h t = 0,2893; 2 FG ;
8 FG ; =
4 ' 4 5 9 4 >f4,8;0,95
= 3,838
=> Tag hat Einfluss auf die mittlere Produktionsmenge. fschicht = p f j j ^ ! = 0,8966 < f 2 , 8 . 0 i 9 5 = 4,459 kein Einfluss der Schicht erkennbar. 11.5
q P r ü f e r = 17,3440; 2 FG; q R e s t = 31,2093;
q S ä u l e = 23,0627; 4 FG ;
8 FG ;
_ 17,3440/2 _ Prüfer — 31,2093/8 ~
^ 2,8; 0,95 ~
=>• Einfluss der Prüfer kann nicht festgestellt werden. _ 23,0627/4 _ fsäule
~ 31,2093/8 -
1,4779
f949 z
05
~
=
3
z
1- a'
= 448 (gerundet);
Ablehnungsbereich: v+ 49 > 949 - 448 = 501; b) k 0 0 1 ta 474 - ^ ^
· 2,32635; k 0
01
= 438 (gerundet);
Ablehnungsbereich: v+ 49 > 949 - 438 = 511. 13.2
Duo-Test; ρ = P(richtige Diagnose); H Q : p = i ; H X = Anzahl der richtigen Diagnosen; P(X = 0 | ρ = 0,5)
0,001953 ;
P(X = 11 ρ = 0,5) = ^
= i
« 0,017578 ;
1
: p > i ; n = 9;
272
Lösungen der Aufgaben P(X = 2 | ρ = 0,5) =
= ψ » 0,070313;
Ablehnungsgrenze c = n — l = 8 ; X = 7 < c 13.3
=>· H 0 nicht ablehnen.
Triangel-Test; ρ = P(richtige Diagnose); H 0 : ρ = i ; Ηχ : ρ > X = Anzahl der richtigen Diagnosen; η = 8 ; P ( X = 8|p = | ) = i «
0,000152;
P(X = 7 IP = 5 ) = ( 7 )
0,002439;
P(X = 6|p = i ) = ( g ) - i · ( | ) 2 « 0,017071; P ( X = 5 I ρ = i ) = ( ® ) · ± · ( | ) 3 » 0,068282 ; Ablehnungsgrenze c = 6 ; X = 5 < c 13.4
H 0 nicht ablehnen.
yj = Xj — 12,5; Stichprobe der Beträge | y ; |: Beträge
0,5 0,5 1,5 1,5 3,5 3,5 4,5 4,5 5,5
Ränge
1,5 1,5 3,5 3,5 5,5 5,5 7,5 7,5
9
6,5
6,5
10,5 10,5
Rangsumme der positiven Differenzen: w ^ = 53,5; w
+ -17. 13; 0,025 ' +
w
1 3 ; 0,025
· Symmetrie zu s = 12,5 nicht ablehnen. 13.5
η = 50; w + . 0
005
= 373;
^ - w + , 0 0 0 5 = 902;
=> Symmetrie um s = 0 ablehnen. 13.6
a)H0: Ρ ( Υ - Χ > 0 ) = η = 10;
Ρ(Υ-Χ· H 0 nicht ablehnen; 2
2
b) Stichprobe der Differenzen yj — x ; : 0,4; - 0 , 2 ; 0,3; - 0 , 7 ; - 0 , 1 ; 0,7; - 0,6; 0,5; 0,2; 0,2; Beträge: 0,1 Ränge:
1
0,2
0,2
0,2
0,3
0,4
0,5
0,6
0,7
0,7
3
3
3
5
6
7
8
9,5
9,5
Rangsumme der postitiven Differenzen: w ^ = 33,5; w + w 10;
-8. 0,025 — ° '
"(n + * ) 2
w + 10
: °- 0 2 5
_ —4 7
.
'
8 < w + < 33,5 => Hypothese der zufälligen Abweichungen nicht ablehnen. 13.7
a) H 0 : P ( Y - X > 0 ) = P ( Y - X < 0 ) = | ; η = 15 ; Vjlj = 5 (positive Differenzen yj — Xj); V + | H 0 ist binomialverteilt mit ρ = 0,5 ; P ( V ^ = 0 IH 0 ) = 0,000031; P(V + = 2 | H 0 ) = 0,003204;
P(V + = 11H 0 ) = 0,000458; P(V + = 3 | H 0 ) = 0,013885;
P ( V + = 4 | H 0 ) = 0,041656; ^0,025 = 3 ; η - k 0 0 2 5 = 12 ; 3 < Vjlj < 1 2
=>• H 0 nicht ablehnen;
b) Rangsumme der positiven Differenzen: w + -25· w 15 ; 0,025 — z o ' 25 < w + < 9 5
= 21,5;
Ξ ί Ξ ± 1 1 _ w„ + -ας. 2 15 ; 0,025 ~ y o > =>· Hn nicht ablehnen.
Literaturverzeichnis Bauer, Η. [1991]: Wahrscheinlichkeitstheorie. 4., völlig überarbeitete und neugestaltete Auflage des Werkes: Wahrscheinlichkeitstheorie und Grundzüge der Maßtheorie, Berlin-New York Bosch, K. [1996]: Elementare Einführung in die Wahrscheinlichkeitsrechnung, 9. Auflage 2006, Braunschweig/Wiesbaden Bosch, K. [1994]: Elementare Einführung in die Statistik, 8., erweiterte Auflage 2005, Braunschweig/ Wiesbaden, Bosch, K. [1994]: Statistik für Nichtstatistiker, 5., überarbeitete Auflage, 2007, München Wien Bosch, K. [1993]: Statistik-Taschenbuch, 2. Auflage, München Wien Bosch, K. [1996]: Großes Lehrbuch der Statistik, München Wien Bosch, K. [2002]: Übungs- und Arbeitsbuch Statistik, München Wien Bosch, K. [2002]: Statistik - Wahrheit und Lüge, München Wien Bosch, K. [2002]: Formelsammlung Statistik, München Wien Fisz, M. [1971]: Wahrscheinlichkeitsrechnung und mathematische Statistik, Berlin Härtung, J . H: ; Elpelt B. ; Klöser Η. H. [1995]: Statistik, Lehr- und Handbuch der angewandten Statistik, 10. Auflage, München-Wien Müller, P. H. [1991]: Lexikon der Stochastik. Wahrscheinlichkeitsrechnung und mathematische Statistik. 5., bearbeitete und wesentlich erweiterte Auflage, Berlin Pfanzagl, J. [1983]: Allgemeine Methodenlehre der Statistik I: elementare Methoden, 6. Auflage, und [1974] II: höhere Methoden, 4. Auflage, Berlin — New York Renyi, A. [1971], Wahrscheinlichkeitsrechnung, Berlin Schach, S.; Schäfer, T . [1978]: Regressions- und Varianzanalyse. Eine Einführung, Berlin — Heidelberg — New York Schmetterer, L. [1966]: Einführung in die mathematische Statistik. 2. Auflage, Wien — New York
Tabellenanhang Seite
Tab. 1:
Verteilungsfunktion Φ(ζ) der Standard-Normalverteilung
276
Tab. 2 :
Quantile
277
Tab. 3:
Quantile t n . j _ α
Tab. 4: Tab. 5: Tab. 6:
z1 _ a der Standard- Normalverteilung
2
Quantile χ η. χ _ η Freiheitsgraden
der t-Verteilung mit η Freiheitsgraden
278
der Chi-Quadrat-Verteilung mit
Quantile f n .1 _ Freiheitsgraden
280 der F-Verteilung mit ( n j , n 2 )
Kritische Werte für den Wilcoxon-Vorzeichen-Rangtest
283 292
Tab. 1: Verteilungsfunktion der Standard-Normalverteilung
276
Tab. 1: Verteilungsfunktion Φ(ζ) der Standard-Normalverteilung Φ(ζ) = P(Z < ζ) ; Φ ( - 2 ) = ζ
Ι -- Φ ( ζ ) .
0,00
0,01
0,02
Ο,03
0,04
0,05
0,06
0,07
0,08
0,09
0,0 0,1 0,2 0,3 0,4
0,5000 0,5398 0,5793 0,6179 0,6554
0,5040 0,5438 0,5832 0,6217 0,6591
0,5080 0,5478 0,5871 0,6255 0,6628
0,5120 0,5517 0,5910 0,6293 0,6664
0,5160 0,5557 0,5948 0,6331 0,6700
0,5199 0,5596 0,5987 0,6368 0,6736
0,5239 0,5636 0,6026 0,6406 0,6772
0,5279 0,5675 0,6064 0,6443 0,6808
0,5319 0,5714 0,6103 0,6480 0,6844
0,5359 0,5753 0,6141 0,6517 0,6879
0,5 0,6 0,7 0,8 0,9
0,6915 0,7257 0,7580 0,7881 0,8159
0,6950 0,7291 0,7611 0,7910 0,8186
0,6985 0,7324 0,7642 0,7939 0,8212
0,7019 0,7357 0,7673 0,7967 0,8238
0,7054 0,7389 0,7704 0,7995 0,8264
0,7088 0,7422 0,7734 0,8023 0,8289
0,7123 0,7454 0,7764 0,8051 0,8315
0,7157 0,7486 0,7794 0,8078 0,8340
0,7190 0,7517 0,7823 0,8106 0,8365
0,7224 0,7549 0,7852 0,8133 0,8389
1,0 1,1 1,2 1,3 1,4
0,8413 0,8643 0,8849 0,9032 0,9192
0,8438 0,8665 0,8869 0,9049 0,9207
0,8461 0,8686 0,8888 0,9066 0,9222
0,8485 0,8708 0,8907 0,9082 0,9236
0,8508 0,8729 0,8925 0,9099 0,9251
0,8531 0,8749 0,8944 0,9115 0,9265
0,8554 0,8770 0,8962 0,9131 0,9279
0,8577 0,8790 0,8980 0,9147 0,9292
0,8599 0,8810 0,8997 0,9162 0,9306
0,8621 0,8830 0,9015 0,9177 0,9319
1,5 1,6 1,7 1,8 1,9
0,9332 0,9452 0,9554 0,9641 0,9713
0,9345 0,9463 0,9564 0,9649 0,9719
0,9357 0,9474 0,9573 0,9656 0,9726
0,9370 0,9484 0,9582 0,9664 0,9732
0,9382 0,9495 0,9591 0,9671 0,9738
0,9394 0,9505 0,9599 0,9678 0,9744
0,9406 0,9515 0,9608 0,9686 0,9750
0,9418 0,9525 0,9616 0,9693 0,9756
0,9429 0,9535 0,9625 0,9699 0,9761
0,9441 0,9545 0,9633 0,9706 0,9767
2,0 2,1 2,2 2,3 2,4
0,9772 0,9821 0,9861 0,9893 0,9918
0,9778 0,9826 0,9864 0,9896 0,9920
0,9783 0,9830 0,9868 0,9898 0,9922
0,9788 0,9834 0,9871 0,9901 0,9925
0,9793 0,9838 0,9875 0,9904 0,9927
0,9798 0,9842 0,9878 0,9906 0,9929
0,9803 0,9846 0,9881 0,9909 0,9931
0,9808 0,9850 0,9884 0,9911 0,9932
0,9812 0,9854 0,9887 0,9913 0,9934
0,9817 0,9857 0,9890 0,9916 0,9936
2,5 2,6 2,7 2,8 2,9
0,9938 0,9953 0,9965 0,9974 0,9981
0,9940 0,9955 0,9966 0,9975 0,9982
0,9941 0,9956 0,9967 0,9976 0,9982
0,9943 0,9957 0,9968 0,9977 0,9983
0,9945 0,9959 0,9969 0,9977 0,9984
0,9946 0,9960 0,9970 0,9978 0,9984
0,9948 0,9961 0,9971 0,9979 0,9985
0,9949 0,9962 0,9972 0,9979 0,9985
0,9951 0,9963 0,9973 0,9980 0,9986
0,9952 0,9964 0,9974 0,9981 0,9986
3,0 3,1 3,2 3,3 3,4
0,9987 0,9990 0,9993 0,9995 0,9997
0,9987 0,9991 0,9993 0,9995 0,9997
0,9987 0,9991 0,9994 0,9995 0,9997
0,9988 0,9991 0,9994 0,9996 0,9997
0,9988 0,9992 0,9994 0,9996 0,9997
0,9989 0,9992 0,9994 0,9996 0,9997
0,9989 0,9992 0,9994 0,9996 0,9997
0,9989 0,9992 0,9995 0,9996 0,9997
0,9990 0,9993 0,9995 0,9996 0,9997
0,9990 0,9993 0,9995 0,9997 0,9998
3,5 3,6 3,7 3,8 3,9
0,9998 0,9998 0,9999 0,9999 1,0000
0,9998 0,9998 0,9999 0,9999 1,0000
0,9998 0,9999 0,9999 0,9999 1,0000
0,9998 0,9999 0,9999 0,9999 1,0000
0,9998 0,9999 0,9999 0,9999 1,0000
0,9998 0,9999 0,9999 0,9999 1,0000
0,9998 0,9999 0,9999 0,9999 1,0000
0,9998 0,9999 0,9999 0,9999 1,0000
0,9998 0,9999 0,9999 0,9999 1,0000
0,9998 0,9999 0,9999 0,9999 1,0000
Tab. 2: Quantile der Standard-Normalverteilung
Tab. 2:
Q u a n t i l e Zj _ „
277
der Standard-Normalverteiluiig
Für das Quantil z1 _ Q gilt Φ(ζ χ _ a ) = 1 — a. Quantile für 0 < a < 0,5 erhält m a n wegen der Symmetrie der Dichte z
a — ~ Z1
1- α
Ζ
1-α
-
a ·
1 -α
Z
1—α
1 -α
ζ
1-α
1 -α
Ζ
1—α
0,50 0,51 0,52 0,53 0,54
0,00000 0,02507 0,05015 0,07527 0,10043
0,75 0,76 0,77 0,78 0,79
0,67449 0,70630 0,73885 0,77219 0,80642
0,950 0,955 0,960 0,965 0,970
1,64485 1,69540 1,75069 1,81191 1,88079
0,9975 0,9976 0,9977 0,9978 0,9979
2,80703 2,82016 2,83379 2,84796 2,86274
0,55 0,56 0,57 0,58 0,59
0,12566 0,15097 0,17637 0,20189 0,22754
0,80 0,81 0,82 0,83 0,84
0,84162 0,87790 0,91537 0,95417 0,99446
0,975 0,980 0,985 0,987 0,989
1,95996 2,05375 2,17009 2,22621 2,29037
0,9980 0,9981 0,9982 0,9983 0,9984
2,87816 2,89430 2,91124 2,92905 2,94784
0,60 0,61 0,62 0,63 0,64
0,25335 0,27932 0,30548 0,33185 0,35846
0,85 0,86 0,87 0,88 0,89
1,03643 1,08032 1,12639 1,17499 1,22653
0,9900 0,9905 0,9910 0,9915 0,9920
2,32635 2,34553 2,36562 2,38671 2,40892
0,9985 0,9986 0,9987 0,9988 0,9989
2,96774 2,98888 3,01145 3,03567 3,06181
0,65 0,66 0,67 0,68 0,69
0,38532 0,41246 0,43991 0,46770 0,49585
0,900 0,905 0,910 0,915 0,920
1,28155 1,31058 1,34076 1,37220 1,40507
0,9925 0,9930 0,9935 0,9940 0,9945
2,43238 2,45726 2,48377 2,51214 2,54270
0,9990 0,9991 0,9992 0,9993 0,9994
3,09023 3,12139 3,15591 3,19465 3,23888
0,70 0,71 0,72 0,73 0,74
0,52440 0,55338 0,58284 0,61281 0,64335
0,925 0,930 0,935 0,940 0,945
1,43953 1,47579 1,51410 1,55477 1,59819
0,9950 0,9955 0,9960 0,9965 0,9970
2,57583 2,61205 2,65207 2,69684 2,74778
0,9995 0,9996 0,9997 0,9998 0,9999
3,29053 3,35279 3,43161 3,54008 3,71902
Tab. 3: Quantile der t-Verteilung mit η Freiheitsgraden
278
Tab. 3: Quantile t n . 1 _ α der t-Verteilung mit η Freiheitsgraden Für das Quantil t n . 1 _ Q
gilt
F(tn;l-« ) = !"«• Links vom Quantil t n . 1 _ a
liegt die Wahrscheinlichkeitsmasse 1 — a .
Quantile für 0 < 1 — α < 0,5 erhält man aus t η ; α = - t η ;,1 — α 1 -α η
0,900
0,950
0,975
0,990
0,995
0,999 η
1 2 3 4 5 6 7 8 9
3,078 1,886 1,638 1,533 1,476 1,440 1,415 1,397 1,383
6,314 2,920 2,353 2,132 2,015 1,943 1,895 1,860 1,833
12,706 4,303 3,182 2,776 2,571 2,447 2,365 2,306 2,262
31,821 6,965 4,541 3,747 3,365 3,143 2,998 2,896 2,821
63,657 9,925 5,841 4,604 4,032 3,707 3,499 3,355 3,250
318,309 22,327 10,215 7,173 5,893 5,208 4,785 4,501 4,297
1 2 3 4 5 6 7 8 9
10 11 12 13 14 15 16 17 18 19
1,372 1,363 1,356 1,350 1,345 1,341 1,337 1,333 1,330 1,328
1,812 1,796 1,782 1,771 1,761 1,753 1,746 1,740 1,734 1,729
2,228 2,201 2,179 2,160 2,145 2,131 2,120 2,110 2,101 2,093
2,764 2,718 2,681 2,650 2,624 2,602 2,583 2,567 2,552 2,539
3,169 3,106 3,055 3,012 2,977 2,947 2,921 2,898 2,878 2,861
4,144 4,025 3,930 3,852 3,787 3,733 3,686 3,646 3,610 3,579
10 11 12 13 14 15 16 17 18 19
20 21 22 23 24 25 26 27 28 29
1,325 1,323 1,321 1,319 1,318 1,316 1,315 1,314 1,313 1,311
1,725 1,721 1,717 1,714 1,711 1,708 1,706 1,703 1,701 1,699
2,086 2,080 2,074 2,069 2,064 2,060 2,056 2,052 2,048 2,045
2,528 2,518 2,508 2,500 2,492 2,485 2,479 2,473 2,467 2,462
2,845 2,831 2,819 2,807 2,797 2,787 2,779 2,771 2,763 2,756
3,552 3,527 3,505 3,485 3,467 3,450 3,435 3,421 3,408 3,396
20 21 22 23 24 25 26 27 28 29
Tab. 3: Quantile der t-Verteilung mit η Freiheitsgraden
279
l-o η
0,900
0,950
0,975
0,990
0,995
0,999
30 40 50 60 70 80 90 99
1,310 1,303 1,299 1,296 1,294 1,292 1,291 1,290
1,697 1,684 1,676 1,671 1,667 1,664 1,662 1,660
2,042 2,021 2,009 2,000 1,994 1,990 1,987 1,984
2,457 2,423 2,403 2,390 2,381 2,374 2,369 2,365
2,750 2,704 2,678 2,660 2,648 2,639 2,632 2,626
3,385 3,307 3,261 3,232 3,211 3,195 3,182 3,175
30 40 50 60 70 80 90 100
100 150 200 300 400 500 600 800 1000
1,290 1,287 1,286 1,284 1,284 1,283 1,283 1,283 1,282
1,660 1,655 1,653 1,650 1,649 1,648 1,647 1,647 1,646
1,984 1,976 1,972 1,968 1,966 1,965 1,964 1,963 1,962
2,364 2,352 2,345 2,339 2,336 2,334 2,333 2,331 2,330
2,626 2,609 2,601 2,593 2,589 2,586 2,584 2,582 2,581
3,174 3,146 3,131 3,118 3,111 3,107 3,104 3,101 3,098
100 150 200 300 400 500 600 800 1000
CO
1,282
1,646
1,960
2,326
2,576
3,090
oo
η
Tab. 4: Quantile der Chi-Quadrat-Verteilung mit η Freiheitsgraden
280
T a b . 4: Q u a n t i l e x 2 n . j _ t t d e r C h i - Q u a d r a t - V e r t e i l u n g mit η Freiheitsgraden • 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39
0,005
0,010 5
0,1571:10
0,01003 0,07172 0,2070 0,4117 0,6757 0,9893 1,344 1,735 2,156 2,603 3,074 3,565 4,075 4,601 5,142 5,697 6,265 6,844 7,434 8,034 8,643 9,260 9,886 10,520 11,160 11,808 12,461 13,121 13,787 14,458 15,134 15,815 16,501 17,192 17,887 18,586 19,289 19,996
0,02010 0,1148 0,2971 0,5543 0,8721 1,239 1,646 2,088 2,558 3,053 3,571 4,107 4,660 5,229 5,812 6,408 7,015 7,633 8,260 8,897 9,542 10,196 10,856 11,524 12,198 12,879 13,565 14,256 14,953 15,655 16,362 17,074 17,789 18,509 19,233 19,960 20,691 21,426
0,3927:10
1— α 0,050
0,025 4
0,9821:10
3
0,05064 0,2158 0,4844 0,8312 1,237 1,690 2,180 2,700 3,247 3,816 4,404 5,009 5,629 6,262 6,908 7,564 8,231 8,907 9,591 10,283 10,982 11,689 12,401 13,120 13,844 14,573 15,308 16,047 16,791 17,539 18,291 19,047 19,806 20,569 21,336 22,106 22,878 23,654
0,3932:10
0,1026 0,3518 0,7107 1,145 1,635 2,167 2,733 3,325 3,940 4,575 5,226 5,892 6,571 7,261 7,962 8,672 9,390 10,117 10,851 11,591 12,338 13,091 13,848 14,611 15,379 16,151 16,928 17,708 18,493 19,281 20,072 20,867 21,664 22,465 23,269 24,075 24,884 25,695
0,100 2
0,015791 0,2107 0,5844 1,064 1,610 2,204 2,833 3,490 4,168 4,865 5,578 6,304 7,042 7,790 8,547 9,312 10,085 10,865 11,651 12,443 13,240 14,041 14,848 15,659 16,473 17,292 18,114 18,939 19,768 20,599 21,434 22,271 23,110 23,952 24,797 25,643 26,492 27,343 28,196
0,250
0,500
0,1015 0,5754 1,2125 1,9226 2,675 3,455 4,255 5,071 5,899 6,737 7,584 8,438 9,299 10,165 11,037 11,912 12,792 13,675 14,562 15,452 16,344 17,240 18,137 19,037 19,940 20,843 21,749 22,657 23,557 24,478 25,390 26,304 27,219 28,136 29,054 29,973 30,893 31,815 32,737
0,4549 1,3863 2,3660 3,3567 4,351 5,348 6,346 7,344 8,343 9,342 10,341 11,340 12,340 13,399 14,339 15,338 16,338 17,338 18,338 19,337 20,337 21,337 22,337 23,337 24,337 25,336 26,336 27,336 28,336 29,336 30,336 31,336 32,336 33,336 34,336 35,336 36,336 37,335 38,335
Tab. 4: Quantile der Chi-Quadrat-Verteilung mit η Freiheitsgraden
281
1— α η
0,750
0,900
0,950
0,975
0,990
0,995
0,999
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39
1,323 2,773 4,108 5,385 6,626 7,841 9,037 10,219 11,389 12,549 13,701 14,845 15,984 17,117 18,245 19,369 20,489 21,605 22,718 23,828 24,935 26,039 27,141 28,241 29,339 30,435 31,528 32,620 33,711 34,800 35,887 36,973 38,058 39,141 40,223 41,304 42,383 43,462 44,539
2,706 4,605 6,251 7,779 9,236 10,645 12,017 13,362 14,684 15,987 17,275 18,549 19,812 21,064 22,307 23,542 24,769 25,989 27,204 28,412 29,615 30,813 32,007 33,196 34,382 35,563 36,741 37,916 39,087 40,256 41,422 42,585 43,745 44,903 46,059 47,212 48,363 49,513 50,660
3,841 5,991 7,815 9,488 11,070 12,592 14,067 15,507 16,919 18,307 19,675 21,026 22,362 23,685 24,996 26,296 27,587 28,869 30,144 31,410 32,671 33,924 35,172 36,415 37,652 38,885 40,113 41,337 42,557 42,773 44,985 46,194 47,400 48,602 49,802 50,998 52,192 53,384 54,572
5,024 7,378 9,348 11,143 12,833 14,449 16,013 17,535 19,023 20,483 21,920 23,337 24,736 26,119 27,488 28,845 30,191 31,526 32,852 34,170 35,479 36,781 38,076 39,364 40,646 41,923 43,195 44,461 45,722 46,979 48,232 49,480 50,725 51,966 53,203 54,437 55,668 56,896 58,120
6,635 9,210 11,345 13,277 15,086 16,812 18,475 20,090 21,666 23,209 24,725 26,217 27,688 29,141 30,578 32,000 33,409 34,805 36,191 37,566 38,932 40,289 41,638 42,980 44,314 45,642 46,963 48,278 49,588 50,892 52,191 53,486 54,776 56,061 57,342 58,619 59,893 61,162 62,428
7,879 10,597 12,838 14,860 16,750 18,548 20,278 21,955 23,589 25,188 26,757 28,300 29,819 31,319 32,801 34,267 35,718 37,156 38,582 39,997 41,401 42,796 44,181 45,559 46,928 48,290 49,645 50,993 52,336 53,672 55,003 56,328 57,648 58,964 60,275 61,581 62,883 64,181 65,476
10,828 13,816 16,266 18,467 20,515 22,458 24,322 26,124 27,877 29,588 31,264 32,909 34,528 36,123 37,697 39,252 40,790 42,312 43,820 45,315 46,797 48,268 49,728 51,179 52,620 54,052 55,476 56,892 58,301 59,703 61,098 62,487 63,870 65,247 66,619 67,985 69,346 70,703 72,055
T a b . 4: Quantile der Chi-Quadrat-Verteilung mit η Freiheitsgraden
0,005
0,010
0,025
1-α 0,050
20,707 21,421 22,138 22,859 23,584 24,311 25,041 25,775 26,511 27,249 27,991 35,534 43,275 51,172 59,196 66,510 67,238
22,164 22,906 23,650 24,398 25,148 25,901 26,657 27,416 28,177 28,941 29,707 37,485 45,442 53,540 61,754 69,230 70,065
24,433 25,215 25,999 26,785 27,575 28,366 19,160 29,956 30,755 31,555 32,357 40,482 48,758 57,153 65,647 73,361 74,222
26,509 27,326 28,144 28,965 29,787 30,612 31,439 32,268 33,098 33,930 34,764 43,188 51,739 60,391 69,126 77,046 77,929
η 40 41 42 43 44 45 46 47 48 49 50 60 70 80 90 99 00
0,100 29,051 29,907 30,765 31,625 32,487 33,350 34,215 35,081 35,949 36,818 37,689 46,459 55,329 64,278 73,291 81,449 82,358
0,250 33,660 34,585 35,510 36,436 37,363 38,291 39,220 40,149 41,079 42,010 42,942 52,294 61,698 71,145 80,625 89,181 90,133
0,500 39,335 40,335 41,335 42,335 43,335 44,335 45,335 46,335 47,335 48,335 49,335 59,335 69,334 79,334 89,334 98,334 99,334
1-α 0,750
0,900
0,950
0,975
0,990
0,995
0,999
45,616 46,692 47,766 48,840 49,913 50,985 52,056 53,127 54,196 55,265 56,334 66,981 77,577 88,130 98,650 108,093 109,141
51,805 52,949 54,090 55,230 56,369 57,505 58,641 59,744 60,907 62,038 63,167 74,397 85,527 96,578 107,565 117,407 118,498
55,758 56,942 58,124 59,304 60,481 61,656 62,830 64,001 65,171 66,339 67,505 79,082 90,531 101,879 113,145 123,225 124,342
59,342 60,561 61,777 62,990 64,201 65,410 66,617 67,821 69,023 70,222 71,420 83,298 95,023 106,629 118,136 128,422 129,561
63,691 64,950 66,206 67,459 68,710 69,957 71,201 72,443 73,683 74,919 76,154 88,379 100,425 112,329 124,116 134,642 135,807
66,766 68,053 69,336 70,616 71,893 73,166 74,437 75,704 76,969 78,231 79,490 91,952 104,215 116,321 128,299 138,987 140,169
73,402 74,745 76,084 77,419 78,750 80,077 81,400 82,720 84,037 85,351 86,661 99,607 112,317 124,839 137,208 148,230 149,449
η 40 41 42 43 44 45 46 47 48 49 50 60 70 80 90 99 100
prox mationen für 0 < 1 — α < 1: _2_
Χ' ; 1 - α ζι
_α
=
χ: ; 1 - ο
χ: ; 1 - α
9n
für η > 30
(1 — α) - Quantil der Standard-Normalverteilung, η + H
z
2 η z1 _
α
für η > 30 ;
i - a + >Ι2η - 1 ] 2
für η > 1 0 0 ;
Tab. 5: Quantile der F-Verteilung (n1 -- Zähler-; n 2 = Nennergrad)
283
Tab. 5: Quantile f n j . n 2 . 1 _ a der F-Verteilung n x = Freiheitsgrade des Zählers; n 2 = Freiheitsgrade des Nenners n
l
2
1—α
1
2
3
4
5
6
7
8
9
10
1
0,990 0,975 0,950 0,900
4052 647,8 161,4 39,86
4999 799,5 199,5 49,50
5403 864,2 215,7 53,59
5625 899,6 224,6 55,83
5764 921,8 230,2 57,24
5859 937,1 234,0 58,20
5928 948,2 236,8 58,91
5981 956,7 238,9 59,44
6022 963,3 240,5 59,86
6056 968,6 241,9 60,20
2
0,990 0,975 0,950 0,900
98,50 38,51 18,51 8,256
99,00 39,00 19,00 9,000
99,17 39,17 19,16 9,162
99,25 39,25 19,25 9,243
99,30 39,30 19,30 9,293
99,33 39,33 19,33 9,326
99,36 39,36 19,35 9,349
99,37 39,37 19,37 9,367
99,39 39,39 19,38 9,381
99,40 39,40 19,40 9,392
3
0,990 0,975 0,950 0,900
34,12 17,44 10,13 5,538
30,82 16,04 9,552 5,462
29,46 15,44 9,277 5,391
28,71 15,10 9,117 5,343
28,24 14,88 9,013 5,309
27,91 14,73 8,941 5,285
27,67 14,62 8,887 5,266
27,49 14,54 8,845 5,252
27,35 14,47 8,812 5,240
27,23 14,42 8,786 5,230
4
0,990 0,975 0,950 0,900
21,20 12,22 7,709 4,545
18,00 10,65 6,944 4,325
16,69 9,979 6,591 4,191
15,98 9,605 6,388 4,107
15,52 9,364 6,256 4,051
15,21 9,197 6,163 4,010
14,98 9,074 6,094 3,979
14,80 8,980 6,041 3,955
14,66 8,905 5,999 3,936
14,55 8,844 5,964 3,920
5
0,990 0,975 0,950 0,900
16,26 10,01 6,608 4,060
13,27 8,434 5,786 3,780
12,06 7,764 5,409 3,619
11,39 7,388 5,192 3,520
10,97 7,416 5,050 3,453
10,67 6,978 4,950 3,405
10,46 6,853 4,876 3,368
10,29 6,757 4,818 3,339
10,16 6,681 4,772 3,316
10,05 6,619 4,735 3,297
6
0,990 0,975 0,950 0,990
13,75 8,813 5,987 3,776
10,92 7,260 5,143 3,463
9,780 6,599 4,757 3,289
9,148 6,227 4,534 3,181
8,746 5,988 4,387 3,108
8,466 5,820 4,284 3,055
8,260 5,695 4,207 3,014
8,102 5,600 4,147 2,983
7,976 5,523 4,099 2,958
7,874 5,461 4,060 2,937
7
0,990 0,975 0,950 0,900
12,25 8,073 5,591 3,589
9,547 6,542 4,737 3,257
8,451 5,890 4,347 3,074
7,847 5,523 4,120 2,961
7,460 5,285 3,972 2,883
7,191 5,119 3,866 2,827
6,993 4,995 3,787 2,785
6,840 4,899 3,726 2,752
6,719 4,823 3,677 2,725
6,620 4,761 3,637 2,703
8
0,990 0,975 0,950 0,900
11,26 7,571 5,318 3,458
8,649 6,059 4,459 3,113
7,591 5,416 4,066 2,924
7,006 5,053 3,838 2,806
6,632 4,817 3,687 2,726
6,371 4,652 3,581 2,668
6,178 4,529 3,500 2,624
6,029 4,433 3,438 2,589
5,911 4,357 3,388 2,561
5,814 4,295 3,347 2,538
9
0,990 0,975 0,950 0,900
10,56 7,209 5,117 3,360
8,022 5,715 4,256 3,006
6,992 5,078 3,863 2,813
6,422 4,718 3,633 2,693
6,057 4,484 3,482 2,611
5,802 4,320 3,374 2,551
5,613 4,197 3,293 2,505
5,467 4,102 3,230 2,469
5,351 4,026 3,179 2,440
5,257 3,964 3,137 2,146
10
0,990 0,975 0,950 0,900
10,04 6,937 4,965 3,285
7,559 5,456 4,103 2,924
6,552 4,826 3,708 2,728
5,994 4,468 3,478 2,605
5,636 4,236 3,326 2,522
5,386 4,072 3,217 2,461
5,200 3,950 3,135 2,414
5,057 3,855 3,072 2,377
4,942 3,779 3,020 2,347
4,849 3,717 2,978 2,323
n
284
Tab. 5: Quantile der F-Verteilung (n-, = Zähler-; n 2 = Nennergrad)
n
l
2
1 —α
11
12
13
14
15
16
17
18
19
20
1
0,990 0,975 0,950 0,900
6083 973,0 243,0 60,47
6106 976,7 243,9 60,71
6126 979,8 244,7 60,90
6143 982,5 245,4 61,07
6157 984,9 245,9 61,22
6170 986,9 246,5 61,35
6181 988,7 246,9 61,46
6192 990,3 247,3 61,57
6201 991,8 247,7 61,66
6209 993,1 248,0 61,74
2
0,990 0,975 0,950 0,900
90,41 39,41 19,40 9,401
99,42 39,41 19,41 9,408
99,42 39,42 19,42 9,415
99,43 39,43 19,42 9,420
99,43 39,43 19,43 9,425
99,44 39,44 19,43 9,429
99,44 39,44 19,44 9,433
99,44 39,44 19,44 9,436
99,45 39,45 19,44 9,439
99,45 39,45 19,45 9,441
3
0,990 0,975 0,950 0,900
27,13 14,37 8,763 5,222
27,05 14,34 8,745 5,216
26,98 14,30 8,729 5,210
26,92 14,28 8,715 5,205
26,87 14,25 8,703 5,200
26,83 14,23 8,692 5,196
26,79 14,21 8,683 5,193
26,75 14,20 8,675 5,190
26,72 14,18 8,667 5,187
26,69 14,17 8,660 5,184
4
0,990 0,975 0,950 0,900
14,45 8,794 5,936 3,907
14,37 8,751 5,912 3,896
14,31 8,715 5,891 3,886
14,25 8,684 5,873 3,878
14,20 8,657 5,858 3,870
14,15 8,633 5,844 3,864
14,11 8,611 5,832 3,858
14,08 8,592 5,821 3,853
14,05 8,575 5,811 3,849
14,02 8,560 5,803 3,844
5
0,990 0,975 0,950 0,900
9,263 6,568 4,704 3,282
9,888 6,525 4,678 3,268
9,825 6,488 4,655 3,257
9,770 6,456 4,636 3,247
9,722 6,428 4,619 3,238
9,680 6,403 4,604 3,230
9,643 6,381 4,590 3,223
9,610 6,362 4,578 3,217
9,580 6,344 4,568 3,212
9,553 6,329 4,558 3,207
6
0,990 0,975 0,950 0,900
7,790 5,410 4,027 2,919
7,718 5,366 4,000 2,905
7,658 5,329 3,976 2,892
7,605 5,297 3,956 2,881
7,559 5,269 3,938 2,871
7,519 5,244 3,922 2,863
7,483 5,222 3,908 2,855
7,451 5,202 3,896 2,848
7,422 5,184 3,884 2,842
7,396 5,168 3,874 2,836
7
0,990 0,975 0,950 0,900
6,538 4,709 3,603 2,684
6,469 4,666 3,575 2,668
6,410 4,628 3,550 2,654
6,359 4,596 3,529 2,643
6,314 4,568 3,511 2,632
6,275 4,543 3,494 2,623
6,240 4,521 3,480 2,615
6,209 4,501 3,467 2,607
6,181 4,483 3,455 2,601
6,155 4,467 3,445 2,595
8
0,990 0,975 0,950 0,900
5,734 4,243 3,313 2,519
5,667 4,200 3,284 2,502
5,609 4,162 3,259 2,488
5,559 4,130 3,237 2,475
5,515 4,101 3,218 2,464
5,477 4,076 3,202 2,455
5,442 4,054 3,187 2,446
5,412 4,034 3,173 2,438
5,384 4,016 3,161 2,431
5,359 3,999 3,150 2,425
9
0,990 0,975 0,950 0,900
5,178 3,912 3,102 2,396
5,111 3,868 3,073 2,379
5,055 3,831 3,048 2,364
5,005 3,798 3,025 2,351
4,962 3,769 3,006 2,340
4,924 3,744 2,989 2,329
4,890 3,722 2,974 2,320
4,860 3,701 2,960 2,312
4,833 3,683 2,948 2,305
4,808 3,667 2,936 2,298
10
0,990 0,975 0,950 0,900
4,772 3,665 2,943 2,302
4,706 3,621 2,913 2,284
4,650 3,583 2,887 2,269
4,601 3,550 2,865 2,255
4,558 3,522 2,845 2,244
4,520 3,496 2,828 2,233
4,487 3,474 2,812 2,224
4,457 3,453 2,798 2,215
4,430 3,435 2,785 2,208
4,405 3,419 2,774 2,201
n
Tab. 5: Quantile der F-Verteilung (n 1 = Zähler-; n 2 = Nennergrad)
n
2
1-α
25
30
40
50
60
1
0,990 0,975 0,950 0,900
6340 998,1 249,3 62,06
6261 1001 250,1 62,26
6287 1006 251,1 62,53
6303 1008 251,8 62,69
6313 1010 252,2 62,79
2
0,990 0,975 0,950 0,900
99,46 39,46 19,46 9,451
99,47 39,46 19,46 9,458
99,47 39,47 19,47 9,466
99,48 39,48 19,48 9,471
3
0,990 0,975 0,950 0,900
26,58 14,12 8,634 5,175
26,50 14,08 8,617 5,168
26,41 14,04 8,594 5,160
4
0,990 0,975 0,950 0,900
13,91 8,501 5,769 3,828
13,84 8,461 5,746 3,817
5
0,990 0,975 0,950 0,900
9,449 6,268 4,521 3,187
6
0,990 0,975 0,950 0,990
7
285
i 100
200
500
6326 1012 252,7 62,93
6334 1013 253,0 63,01
6350 1016 253,7 63,17
6359 1017 254,1 63,26
6366 1018 254,3 63,33
99,48 39,48 19,48 9,475
99,49 39,49 19,48 9,479
99,49 39,49 19,49 9,481
99,49 39,49 19,49 9,486
99,50 39,50 19,49 9,489
99,50 39,50 19,50 9,491
26,35 14,01 8,581 5,155
26,32 13,99 8,572 5,151
26,27 13,97 8,561 5,147
26,24 13,96 8,554 5,144
26,18 13,93 8,540 5,139
26,15 13,91 8,832 5,136
26,13 13,90 8,526 5,134
13,75 8,411 5,717 3,804
13,69 8,381 5,699 3,795
13,65 8,360 5,688 3,790
13,61 8,335 5,673 3,782
13,58 8,319 5,664 3,778
13,52 8,289 5,646 3,769
13,49 8,270 5,635 3,764
13,46 8,257 5,628 3,761
9,379 6,227 4,496 3,174
9,291 6,175 4,464 3,157
9,238 6,144 4,444 3,147
9,202 6,123 4,431 3,140
9,157 6,096 4,415 3,132
9,130 6,080 4,405 3,126
9,075 6,048 4,385 3,116
9,042 6,028 4,373 3,109
9,020 6,015 4,365 3,105
7,296 5,107 3,774 2,815
7,229 5,065 3,808 2,800
7,143 5,012 3,774 2,781
7,091 4,980 3,754 2,770
7,057 4,959 3,740 2,762
7,013 4,932 3,722 2,752
9,987 4,915 3,712 2,746
6,934 4,882 3,690 2,734
6,902 4,863 3,677 2,727
6,880 4,849 3,669 2,722
0,990 0,975 0,950 0,900
6,058 4,405 3,404 2,571
5,992 4,362 3,376 2,555
5,908 4,309 3,340 2,535
5,858 4,276 3,319 2,523
5,824 4,254 3,304 2,514
5,781 4,227 3,286 2,504
5,755 4,210 3,275 2,497
5,702 4,176 3,252 2,484
5,671 4,156 3,239 2,476
5,650 4,142 3,230 2,471
8
0,990 0,975 0,950 0,900
5,263 3,937 3,108 2,400
5,198 3,894 3,079 2,383
5,116 3,840 3,043 2,361
5,065 3,807 3,020 2,348
5,032 3,784 3,005 2,339
4,989 3,756 2,986 2,328
4,963 3,739 2,975 2,321
4,911 3,705 2,951 2,307
4,880 3,684 2,937 2,298
4,859 3,670 2,928 2,293
9
0,990 0,975 0,950 0,900
4,713 3,604 2,826 2,272
4,649 3,560 2,864 2,255
4,567 3,505 2,826 2,232
4,517 3,472 2,803 2,218
4,483 3,449 2,787 2,208
4,441 3,421 2,768 2,196
4,415 3,403 2,576 2,189
4,363 3,368 2,731 2,174
4,332 3,347 2,717 2,165
4,311 3,333 2,707 2,159
10
0,990 0,975 0,950 0,900
4,311 3,355 2,730 2,174
4,247 3,311 2,700 2,155
4,165, 3,255 2,661 2,132
4,155 3,221 2,637 2,117
4,082 3,198 2,621 2,107
4,039 3,169 2,601 2,095
4,014 3,152 2,588 2,087
3,962 3,116 2,563 2,071
3,930 3,094 2,548 2,062
3,909 3,080 2,538 2,055
n
80
oo
286
Tab. 5: Quantile der F-Verteilung (n 1 — Zähler-; n 2 = Nennergrad)
6
1—α
1
11
0,990 0,975 0,950 0,900
9,646 6,724 4,844 3,225
7,206 6,217 5.668 5,316 5,256 4,630 4,257 4,044 3,982 3,587 3,357 3,204 2,860 2,660 2,536 2,451
12
0,990 0,975 0,950 0,900
9,330 6,554 4,747 3,177
13
0,990 0,975 0,950 0,900
9,074 6,414 4,667 3,136
14
0,990 0,975 0,950 0,900
8,862
15
0,990 0,975 0,950 0,900
8,683 6,359 6,200 4,765 4,543 3,682 3,073 2,965
16
0,990 0,975 0,950 0,990
8,531 6,115 4,494 3,048
6,226
17
0,990 0,975 0,950 0,900
18
8
10
5,069 3,881 3,095 2,389
4,886 3,759 3,012 2,342
4,744 3,664 2,948 2,304
4,632 3,588 2,896 2,274
4,539 3,526 2,854 2,248
6,927 5,096 3,885 2,807
5.953 5,412 5,064 4,821 4,474 4,121 3,891 3,728 3,490 3,259 3,106 2,996 2,606 2,480 2,394 2,331
4,640 3,607 2,913 2,283
4,499 3,512 2,849 2,245
4,388 3,436 2,796 2,214
4,296 3,374 2,753
6,701 4,965 3,806 2,763
5,739 4,347 3,411 2,560
4,100 3,250 2,671 2,138
2,188
5,205 3,996 3,179 2,434
4,862 3,767 3,025 2,347
4,620 3,604 2,915 2,283
4,441 3,483 2,832 2,234
4,302 3,388 2,767 2,195
4,191 3,312 2,714 2,164
6,515 5,564 5,035 6,298 4,857 4,242 3.892 4,600 3,739 3,344 3,112 3,102 2,726 2,522 2,395
4,695 3,663 2,958 2,307
4,456 3,501 2,848 2,243
4,278 3,380 2.764 2,193
4,140 3,285 2,699 2,154
4,030 3,939 3,209 3,147 2,646 2,602 2,122 2,095
4.893 3,804 3,056 2,361
4,556 3,576 2,901 2,273
4,318 4,142 4.004 3,895 3,415 3,293 3,199 3,123 2,790 2,707 2,641 2,588 2,208 2,158 2,119 2,086
5,292 4,773 4,687 4,077 3,729 3,634 3,239 3,007 2,668 2,462 2,333
4.437 3,502 2,852 2,244
4,202 3,341 2,741 2,178
4,026 3,890 3,780 3,691 3,219 3,125 3,049 2,986 2,657 2,591 2,538 2,494 2,128 2,088 2,055 2,028
8,400 6,042 4,451 3,026
6,112 5,185 4.669 4,336 4,619 4,011 3,665 4.438 3,592 3,197 2,965 2,810 2,645 2,437 2,308 2,218
4,102 3,277 2,699 2,152
3,927 3,791 3,682 3,593 3,156 3,061 2,985 2,922 2,614 2,548 2,494 2,450 2,102 2,061 2 , 0 2 8 2,001
0,990 0,975 0,950 0,900
8,285 5,978 4,414 3,007
6,013 4,560 3,555 2,624
19
0,990 0,975 0,950 0,900
8,185 5,922 4,381 2,990
5,926 5,010 4,500 4,171 4,508 3,903 3,559 3,333 3,522 3,127 2,895 2,740 2,606 2,397 2,266 2,176
20
0,990 0,975 0,950 0,900
8,096 5,871 4,351 2,975
5,849 4,461 3,493 2,589
5,417 4,153 3,287 2,490
5,092 3.954 3,160 2,146
4,938 3,859 3,098 2,380
4,579 4,248 4,015 3,841 3,608 3,382 3,221 3,100 2,928 2,773 2,661 2,577 2,286 2,196 2,130 2,079
3,705 3.005 2,510 2,038
3,939 3.765 3,631 3,172 3,051 2,956 2,628 2,544 2,477 2,109 2,058 2,017
4,431 4,103 3,871 3,515 3,289 3,128 2,866 2,711 2,599 2,249 2,158 2,091
3,699 3,007 2,514 2,040
3,564 2,913 2,477 1,999
3,597 2,929 2.456 2,005
3,805 3,060 2,544 2,059
3,508 2,866
2,412 1,977
3,523 3,434 2,880 2,817 2,423 2,378 1,984 1,956 3.457 2,837 2,393 1,965
3,368 2,774 2,348 1,937
Tab. 5: Quantile der F-Verteilung (n1 = Zähler-; n 2 = Nennergrad)
1—α
11
12
13
287
14
15
16
17
18
19
20
0,990 0,975 0,950 0,900
4,462 4,397 4,342 3,474 3,430 3,392 2,818 2,788 2,761 2,227 2,209 2,193
4,293 3,359 2,739 2,179
4,251 3,330 2,179 2,167
4,213 3,304 2,701 2,156
4,180 3,282 2,685 2,147
4.150 3,261 2,671 2,138
4,123 3,243 2,658 2,130
4,099 3,226 2,646 2.123
0,990 0,975 0,950 0,900
4,220 4,155 4,100 4,052 3,321 3.277 3,239 3,206 2,717 2,687 2,660 2,637 2,166 2,147 2,131 2,117
4,010 3,177 2,617 2,105
3,972 3,152 2,599 2,094
3,939 3,129 2,583 2,084
3,909 3,108 2,568 2,075
3,883 3,090 2,555 2,067
3,858 3,073 2,544
0,990 0,975 0,950 0,900
4,025 3,960 3,905 3,857 3,197 3,153 3,115 3,082 2,635 2,604 2,577 2,533 2,116 2,097 2,080 2,066
3,815 3,053 2,533 2,053
3,778 3,027 2,515 2,042
3,745 3,004 2,499 2,032
3.716 2,983 2,484 2,023
3,689 2,965 2,471 2,014
3,665 2,948 2,459 2,007
0,990 0,975 0,950 0,900
3,864 3,095 2,565 2,073
3,800 3,050 2,534 2,054
3,745 3,012 2,507 2,037
3,697 3,656 3,619 3,586 2,978 2,949 2,923 2,900 2,484 2,463 2,445 2,428 2,022 2,010 1,998 1,988
3,556 2,879 2,413 1,978
3,529 3,505 2,861 2,844 2,400 2,388 1,970 1,962
0,990 0,975 0,950 0,900
3,730 3,008 2,507 2,037
3,666 2,963 2,475 2,017
3,612 3,564 3,522 3,485 3,452 2,925 2,891 2,862 2,836 2,813 2,448 2,424 2,403 2,385 2,368 2,000 1,985 1,972 1,961 1,950
3,423 2,792 2,353 1,941
3,396 2,773 2,340 1,932
0,990 0,975 0,950 0,990
3,616 2,934 2,456 2,005
3,553 2,889 2,425 1,985
3,498 2,851 2,397 1,968
3,450 2,817 2,373 1,953
3,409 2,788 2,352 1,940
3,372 2,761 2,333 1,928
3,339 2,738 2,317 1,917
3,310 2.717 2,302 1,908
3,283 3,259 2,698 2,681 2,288 2,276 1,899 1,891
0,990 0,975 0,950 0,900
3,519 2,870 2,413 1,978
3,455 2,825 2,381 1,958
3,401 2,786 2,353 1,940
3,353 2,753 2,329 1,925
3,312 2,723 2,308 1,912
3,275 2,697 2,289 1,900
3,242 2,673 2,272 1,889
3,212 2,652 2,257 1,879
3,186 2,633 2,243 1,870
3,162 2,616 2,230
0,990 0,975 0,950 0,900
3,434 2,814 2,374 1,954
3,371 2,769 2,342 1,933
3,316 2,730 2,314 1,916
3,269 2,696 2,290 1,900
3,227 2,667 2,269 1,887
3,190 2,640 2,250 1,875
3,158 2,617 2,233 1,864
3,128 2,596 2,217 1,854
3,101 2,576 2,203 1,845
3,077 2,559 2,191 1,837
0,990 0,975 0,950 0,900
3,360 2,765 2,340 1,932
3,297 2,720 2,308 1,912
3,242 3,195 2,681 2,647 2,280 2,256 1,894 1,878
3,153 2,617 2,234 1,865
3,116 2,591 2,215 1,852
3,084 2,567 2,198 1,841
3,054 2,546 2,182 1,831
3,027 3,003 2,526 2,509 2 , 1 6 8 2,155 1,822 1,814
0,990 0,975 0,950 0,900
3,294 2,721 2,310 1,913
3,231 2,676 2.278 1,892
3,177 2,637 2,250 1,875
3,088 2,573 2,203 1,845
3,051 2,547 2,184 1,833
3,018 2,523 2,167 1,821
2,989 2,962 2,938 2,501 2,482 2,464 2.151 2,137 2.124 1,811 1,802 1,794
3,130 2,603 2,225 1,859
2,060
3,372 2,756 2,328 1,924
1,862
288
Tab. 5: Quantile der F-Verteilung (n 1 = Zähler-; n 2 = Nennergrad)
1-α
25
30
40
50
11
0,990 0,975 0,950 0,900
4,005 3,162 2,601 2,095
3,941 3,118 2,570 2,076
3,860 3,061 2,531 2,052
3,810 3,027 2,507 2,036
3,776 3.734 3,708 3,656 3,004 2,794 2,956 2.920 2,490 2,469 2,457 2,431 2,026 2,013 2,005 1,989
3,624 2,898 2,415 1,983
3,602 2,883 2,404 1,972
12
0,990 0,975 0,950 0,900
3,765 3,008 2,498 2,031
3,701 2,963 2,466 2,011
3,619 2,906 2,426 1,986
3,569 2,871 2,401 1,970
3,535 2,848 2,384 1,960
3,493 3,467 3,414 2,818 2 , 8 0 0 2,763 2,363 2,350 2,323 1,946 1,938 1.921
3,382 2,740 2,307 1,911
3,361 2,725 2,296 1,904
13
0,990 0,975 0,950 0,900
3,571 3,507 2,882 2,837 2,412 2,380 1,978 1,958
3,425 2.780 2,339 1,931
3,375 2,744 2,314 1,915
3,341 2,720 2,297 1,904
3,298 2,690 2,275 1,890
3,272 3,219 3,187 2,671 2,634 2,611 2,261 2,234 2,218 1,882 1,864 1,854
3,165 2,595
14
0,990 0,975 0,950 0,900
3,412 2,778 2,341 1,933
3,266 2,674 2,266 1,885
3,215 2,638 2,241 1,869
3,181 2,614 2,223 1,857
3,138 3,112 3,059 3,026 2,583 2,565 2,526 2,503 2,201 2,187 2,159 2,142 1,843 1,834 1,816 1,805
3,004 2,487 2,131 1,797
15
0,990 0,975 0,950 0,900
3,278 3,214 3,132 2,689 2,644 2,585 2,280 2,247 2,204 1,894 1,873 1,845
0,990 0,975 0,950 0,990
3,165 3,101 3,018 2,967 2,614 2,568 2,509 2,472 2,227 2,194 2,151 2,124 1,860 1,839 1,811 1,793
2,933 2,889 2,863 2,447 2,415 2,396 2,106 2,083 2,068 1,782 1,766 1,757
0,990 0,975 0,950 0,900
3,068 3,003 2,920 2,548 2,502 2,442 2,181 2,148 2,104 1,831 1,809 1.781
2,869 2,405 2,077 1,763
2,835 2,380 2,058 1,751
2,791 2,348 2,035 1.735
2,764 2,709 2,676 2,329 2,289 2,264 2,020 1,991 1,973 1,726 1,706 1,694
2,653 2,247 1,960
18
0,990 0,975 0,950 0,900
2,983 2,491 2,141 1,805
2,784 2,347 2,035 1,736
2,749 2,321 2,017 1,723
2,705 2,289 1,993 1,707
2,678 2,269 1.978 1,698
2,566 2,187 1,917 1,657
19
0,990 0,975 0,950 0,900
2,909 2,844 2,761 2,709 2,441 2,394 2,333 2,295 2,106 2,071 2,026 1,999 1,782 1,759 1,730 1,711
2,674 2,270 1,980 1,699
2,630 2,237 1,955 1,683
2 , 6 0 2 2,547 2,512 2,489
0,990 0,975 0,950 0,900
2,843 2,396 2,074 1,761
2,608 2,563 2,535 2,479 2,445 2,421 2,223 2,190 2,170 2,128 2,103 2,085
16
17
20
3.348 2,732 2,308 1,912
2,919 2,444 2,107 1,783
2,778 2.349 2,039 1,738
2,835 2,384 2,063 1,754
2,695 2,287 1,994 1,708
60
80
100
3,081 3,047 3,004 2.977 2,549 2,524 2,493 2,474 2,178 2,160 2,137 2,123 1,828 1,817 1,802 1,793
2,643 2,249 1,966 1,690
200
2,923 2,435 2,095 1,774
500
2,891 2,411 2,078 1,763
oo
2,206
1,846
2,868
2,395 2,066
1,755
2,808 2,775 2,753
2,357 2,333 2,316 2,039 2,022 2,010 1,738 1,726 1,718
2,623 2,229 1,948 1,678
2,589 2,204 1,929 1,665
1,686
2,217 2,176 2,150 2,133 1,940 1,910 1,891 1,878 1,673 1,652 1,639 1,631
1,946 1,922 1,907 1,875 1,856 1,843 1,677 1,660 1,650 1,629 1,616 1,607
Tab. 5: Quantile der F-Verteilung (n 1 = Zähler- ; n 2 " Nennergrad)
6
289
10
1-α
1
0,990 0,975 0,950 0,900
7,770 5,686 4,242 2,918
5,568 4,291 3,385 2,528
4,675 3,694 2,991 2,317
4,177 3,353 2,759 2,184
3,855 3,129 2,603 2,092
3,627 2,969 2,490 2,024
3,457 2,848 2,405 1,971
3,324 2,753 2,337 1,929
3,217 3,129 2,677 2,613 2 , 2 8 2 2,236 1,895 1,866
0,990 0,975 0,950 0,900
7,562 5,568 4,171 2,881
5,390 4.182 3,316 2,489
4,510 3,589 2,922 2,276
4,018 3,250 2,690 2,142
3,699 3,026 2,534 2,049
3,473 2,867 2,421 1,980
3,304 2.746 2,334 1,927
3,173 2,651 2,266 1,884
3,067 2,979 2,275 2,511 2 , 2 1 1 2,165 1,849 1,819
0,990 0,975 0,950 0,900
7,314 5,424 4,085 2,835
5,179 4,051 3,232 2,440
4,313 3,828 3,514 3,291 3,463 3,126 2,904 2,744 2,839 2,606 2,449 2,336 2,226 2,091 1,997 1,927
3,124 2,624 2,249 1,873
2,993 2,529 2,180 1,829
2,888
0,990 0,975 0,950 0,900
7,171 5,340 4,034 2,809
5,057 3,975 3.183 2,412
4,199 3,390 2,790 2,197
3,720 3,048 3,186 3,020 3,054 2,833 2,674 2,553 2,557 2,400 2,286 2,199, 2,061 1,966 1,895 1,840
2,890 2,458 2,130 1,796
2,785 2,381 2,073 1,760
2,698 2,317
0,990 0,975 0,950 0,900
7,077 5,286 4,001 2,791
4,977 3,925 3,510 2,393
4,126 3,343 2,758 2,177
3,649 3,008 2,525 2,041
2,953 2,507 2,167 1,819
2,823 2,412 2,097 1,775
2,718 2,334 2,040 1,738
2,632 2,270 1,993 1,707
0,990 0,975 0,950 0,900
6,963 5,218 3,960 2,769
4,881 3,864 3,111 2,370
4,036 3,284 2,719 2,514
3,563 3,255 3,036 2,871 2,950 2,730 2,571 2,450 2,486 2,329 2,214 2,126 2,016 1,921 1,849 1,793
2,742 2,355 2,056 1,748
2,637 2,277 1,999 1,711
8(551 2,213 1,951
0,990 0,975 0,950 0,900
6,895 5,179 3,936 2,756
4,824 3,828 3,087 2,356
3,984 2,250 2,696 2,139
3,513 3,206 2,988 2,823 2,917 2,696 2,537 2,417 2,463 2,305 2,191 2,103 2,002 1,906 1,834 1,778
2,694 2,321 2,032 1,732
2,590 2,244 1,975 1,695
2,503 2,179 1,927 1,663
0,990 0,975 0,950 0,900
6,763 5,100 3,888 2,731
4,713 3,758 3,041 2,329
3,881 3,414 3,110 2,893 3,182 2,850 2,630 2,472 2,650 2,417 2,259 2,144 2,111 1,973 1,876 1,804
2,730 2,351 2,056 1.747
2,601 2,256 1,985 1,701
2,497 2,178 1,927 1,663
2,411 2,113 1,878 1,631
0,990 0,975 0,950 0,900
6,686
2,675 2,313 2,028 1,729
2,547 2,217 1,957 1,683
2,443 2,139 1,899 1,644
2,357 2,074 1,850 1,612
0,990 0,975 0,950 0,900
6,635 5,024 3,841 2,706
2,639 2,511 2,407 2,408 2,288 2,192 2,114 2,099 2,010 1,938 1,880 1,774 1,717 1,670 1,632
2,321 2,048 1,831 1,599
4,648 3,821 3,357 5,054 3,716 3,142 2,811 3,860 3,014 2,623 2,390 2,716 2,313 2,095 1,956 4,605 3,689 2,996 2,303
3,782 3,116 2,605 2,084
3,319 2,786 2,372 1,945
3,339 2,786 2,368 1,946
3,119 2,627 2,254 1,875
3,054 2,592 2,232 1,859
2,838 2,434 2,117 1,786
3,017 2,567 2,214 1,847
2,802
9
2,801
2,452 2,388 2,124 2,077 1,793 1,763
2,026
1,729
1,680
290
Tab. 5: Quantile der F-Verteilung (ηΊ
Zähler- ; n 2 = Nennergrad)
1h
2
1-a
11
12
13
14
15
16
17
18
19
20
25
0,990 0,975 0,950 0,900
3,056 2,560 2,198 1,841
2,993 2,515 2,165 1,820
2,939 2,476 2,136 1,802
2,892 2,441 2,111 1,785
2,850 2,411 2,089 1,771
2,813 2,384 2,069 1,758
2,780 2,360 2,051 1,746
2,751 2,338 2,035 1,736
2,724 2,318 2,021 1,726
2,699 2,300 2,007 1,718
30
0,990 0,975 0,950 0,900
2,905 2,458 2,126 1,794
2,843 2,412 2,092 1,773
2,789 2,372 2,063 1,754
2,742 2,338 2,037 1,737
2,700 2,307 2,015 1,722
2,663 2,280 1,995 1,709
2,630 2,255 1,976 1,697
2,600 2,233 1,960 1,686
2,573 2,213 1,945 1,676
2,549 2,195 1,932 1,667
40
0,990 0,975 0,950 0,900
2,727 2,334 2,038 1,737
2,665 2,288 2,003 1,715
2,611 2,248 1,974 1,695
2,563 2,213 1,947 1,678
2,522 2,182 1,924 1,662
2,484 2,154 1,904 1,649
2,451 2,129 1,885 1,636
2,421 2,107 1,868 1,625
2,394 2,086 1,853 1,615
2,369 2,068 1,839 1,605
50
0,990 0,975 0,950 0,900
2,625 2,263 1,986 1,703
2,562 2,216 1,952 1,680
2,508 2,176 1,921 1,660
2,461 2,140 1,895 1,643
2,419 2,109 1,871 1,627
2,382 2,081 1,850 1,613
2,348 2,056 1,831 1,600
2,318 2,033 1,814 1,588
2,290 2,012 1,798 1,578
2,265 1,993 1,784 1,568
60
0,990 0,975 0,950 0,900
2,559 2,216 1,952 1,680
2,496 2,169 1,917 1,657
2,442 2,129 1,887 1,637
2,394 2,093 1,860 1,619
2,352 2,061 1,836 1,603
2,315 2,033 1,815 1,589
2,281 2,008 1,796 1,576
2,251 1,985 1,778 1,564
2,223 1,964 1,763 1,553
2,198 1,944 1,748 1,543
80
0,990 0,975 0,950 0,900
2,478 2,158 1,910 1,653
2,415 2,111 1,875 1,629
2,361 2,071 1,845 1,609
2,313 2,035 1,817 1,590
2,271 2,003 1,793 1,574
2,233 1,974 1,772 1,559
2,199 1,948 1,752 1,546
2,169 1,925 1,734 1,534
2,141 1,904 1,718 1,523
2,115 1,884 1,703 1,513
100 0,990 0,975 0,950 0,900
2,430 2,124 1,886 1,636
2,367 2,077 1,850 1,612
2,313 2,036 1,819 1,592
2,265 2,000 1,792 1,573
2,223 1,968 1,768 1,557
2,185 1,939 1,746 1,542
2,151 1,913 1,726 1,528
2,120 1,890 1,708 1,516
2,092 1,868 1,691 1,505
2,067 1,849 1,676 1,494
200 0,990 0,975 0,950 0,900
2,338 2,058 1,837 1,603
2,275 2,010 1,801 1,579
2,220 1,969 1,769 1,558
2,172 1,932 1,742 1,539
2,129 1,900 1,717 1,522
2,091 1,870 1,694 1,507
2,057 1,844 1,674 1,493
2,026 1,820 1,656 1,480
1,997 1,798 1,639 1,468
1,971 1,778 1,623 1,458
500 0,990 0,975 0,950 0,900
2,283 2,019 1,808 1,584
2,220 1,971 1,772 1,559
2,166 1,929 1,740 1,537
2,117 1,892 1,712 1,518
2,075 1,859 1,686 1,501
2,036 1,830 1,664 1,485
2,002 1,803 1,643 1,471
1,970 1,779 1,625 1,458
1,942 1,757 1,607 1,446
1,915 1,736 1,592 1,435
2,248 1,993 1,789 1,571
2,185 1,945 1,752 1,546
2,130 1,903 1,720 1,524
2,081 1,866 1,692 1,505
2,039 1,833 1,666 1,487
2,000 1,803 1,644 1,471
1,965 1,776 1,623 1,457
1,934 1,752 1,604 1,444
1,905 1,729 1,587 1,432
1,878 1,708 1,571 1,421
n
oo
0,990 0,975 0,950 0,900
291
Tab. 5: Quantile der F-Verteilung (πη — Zähler-; n 2 = Nennergrad)
n
2
1—α
25
30
40
50
60
25
0,990 0,975 0,950 0,900
2,604 2,230 1,955 1,683
2,583 2,182 1,919 1,659
2,453 2,118 1,872 1,627
2,400 2,079 1,842 1,607
2,364 2,052 1,822 1,593
30
0,990 0,975 0,950 0,900
2,453 2,124 1,878 1,632
2,386 2,074 1,841 1,606
2,299 2,009 1,792 1,573
2,245 1,968 1,761 1,552
40
0,990 0,975 0,950 0,900
2,271 1,994 1,783 1,568
2,203 1,943 1,744 1,541
2,114 1,875 1,693 1,506
50
0,990 0,975 0,950 0,900
2,167 1,919 1,727 1,529
2,098 1,866 1,687 1,502
60
0,990 0,975 0,950 0,900
2,098 1,869 1,690 1,504
80
0,990 0,975 0,950 0,900
l 200
500
2,317 2,017 1,796 1,576
2,289 1,996 1,779 1,565
2,230 1,952 1,746 1,542
2,200 1,926 1,726 1,527
2,176 1,908 1,712 1,517
2,208 1,940 1,740 1,538
2,160 1,904 1,712 1,519
2,131 1,882 1,695 1,507
2,070 1,835 1,660 1,482
2,032 1,807 1,638 1,467
2,006 1,787 1,622 1,456
2,058 1,832 1,660 1,483
2,019 1,803 1,637 1,467
1,969 1,764 1,608 1,447
1,938 1,741 1,589 1,434
1,874 1,691 1,551 1,406
1,833 1,659 1,526 1,389
1,805 1,637 1,509 1,377
2,007 1,796 1,634 1,465
1,949 1,752 1,599 1,441
1,909 1,721 1,576 1,424
1,857 1,681 1,544 1,402
1,825 1,656 1,525 1,388
1,757 1,603 1,484 1,359
1,713 1,569 1,457 1,340
1,683 1,545 1,438 1,327
2,028 1,815 1,649 1,476
1,936 1,744 1,594 1,437
1,877 1,699 1,559 1,413
1,836 1,667 1,534 1,395
1,783 1,625 1,502 1,372
1,749 1,599 1,481 1,358
1,678 1,543 1,438 1,326
1,633 1,508 1,409 1,306
1,601 1,482 1,389 1,291
2,015 1,807 1,644 1,472
1,944 1,752 1,602 1,443
1,849 1,679 1,545 1,403
1,788 1,632 1,508 1,377
1,746 1,599 1,482 1,358
1,690 1,555 1,448 1,334
1,655 1,527 1,426 1,318
1,579 1,467 1,379 1,284
1,530 1,428 1,347 1,261
1,494 1,400 1,325 1,245
100 0,990 0,975 0,950 0,900
1,965 1,770 1,616 1,453
1,893 1,715 1,573 1,423
1,797 1,640 1,515 1,382
1,735 1,592 1,477 1,355
1,692 1,558 1,450 1,336
1,634 1,512 1,415 1,310
1,598 1,483 1,392 1,293
1,518 1,420 1,342 1,257
1,466 1,378 1,308 1,232
1,427 1,347 1,283 1,214
200 0,990 0,975 0,950 0,900
1,868 1,698 1,561 1,414
1,794 1,640 1,516 1,383
1,694 1,562 1,455 1,339
1,629 1,511 1,415 1,310
1,583 1,474 1,386 1,289
1,521 1,425 1,346 1,261
1,481 1,393 1,321 1,242
1,391 1,320 1,263 1,199
1,328 1,269 1,221 1,168
1,279 1,229 1,189 1,144
500 0,990 0,975 0,950 0,900
1,812 1,655 1,528 1,391
1,735 1,596 1,482 1,358
1,633 1,515 1,419 1,313
1,566 1,462 1,376 1,282
1,517 1,423 1,346 1,260
1,452 1,370 1,303 1,229
1,408 1,336 1,275 1,209
1,308 1,254 1,210 1,160
1,232 1,192 1,159 1,122
1,164 1,137 1,113 1,087
oo
1,774 1,626 1,506 1,375
1,696 1,588 1,476 1,342
1,592 1,484 1,394 1,295
1,523 1,428 1,350 1,263
1,473 1,388 1,318 1,240
1,404 1,333 1,274 1,207
1,358 1,296 1,243 1,850
1,247 1,205 1,170 1,130
1,153 1,128 1,106 1,082
1,000 1,000 1,000 1,000
0,990 0,975 0,950 0,900
80
oo
100
n
Tab. 6: Kritische Werte für den Wilcoxon-Vorzeichen-Rangtest
292
Tab. 6: Kritische Werte für den Wilcoxon-Vorzeichen-Rangtest η 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39
0,0001
0,0025
0,005
α 0,01
0,025
—
—
—
—
—
—
—
—
—
—
—
—
-
—
—
—
-
—
—
0 1 2 4 6 8 11 14 18 21 26 30 35 40 45 51 58 64 71 79 86 94 103 112 121 131 141 151 162 173
0 1 3 5 7 9 12 15 19 23 27 32 37 42 48 54 60 67 74 82 90 98 107 116 126 136 146 157 168 180 192
0 1 3 5 7 9 12 15 19 23 27 32 37 42 48 54 61 68 75 83 91 100 109 118 128 138 148 159 171 182 194 207
0 1 3 5 7 9 12 15 19 23 27 32 37 43 49 55 62 69 76 84 92 101 110 120 130 140 151 162 173 185 198 211 224
0 2 3 5 8 10 13 17 21 25 29 34 40 46 52 58 65 73 81 89 98 107 116 126 137 147 159 170 182 195 208 221 235 249
0,05 —
0 2 3 5 8 10 13 17 21 25 30 35 41 47 53 60 67 75 83 91 100 110 119 130 140 151 163 175 187 200 213 227 241 256 271
0,1
0,2
0 2 3 5 8 10 14 17 21 26 31 36 42 48 55 62 69 77 86 94 104 113 124 134 145 157 169 181 194 207 221 235 250 265 281 297
2 3 5 8 11 14 18 22 27 32 38 44 50 57 65 73 81 90 99 109 119 130 153 141 165 177 190 204 218 232 247 262 278 294 311 328
Tab. 6: Kritische Werte für den Wilcoxon-Vorzeichen-Rangtest
η
0,0001
0,0025
40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60
185 197 209 222 235 249 263 277 292 307 323 339 355 372 389 407 425 443 462 482 501
204 217 230 244 258 272 287 302 318 334 350 367 384 402 420 439 457 477 497 517 537
0,005
0,01
220 233 247 261 276 291 307 322 339 355 373 390 408 427 445 465 484 504 525 546 567
238 252 266 281 296 312 328 345 362 379 397 416 434 454 473 493 514 535 556 578 600
293
α 0,025
0,05
0,1
0,2
264 279 294 310 327 343 361 378 396 415 434 453 473 494 514 536 557 579 602 625 648
286 302 319 336 353 371 389 407 426 446 466 486 507 529 550 573 595 618 642 666 690S0
313 330 348 365 384 402 422 441 462 482 503 525 547 569 592 615 639 664 688 714 739
346 364 383 402 421 441 462 483 504 526 549 572 595 619 643 668 693 719 745 772 799
Register absolute Häufigkeit — — von Ereignissen 56 — — bei Stichproben 6 Abstand, mittlerer 25 Abweichungsquadrate, kleinste 43 Alternative 179, 182, 184 Alternativtest (einfacher) 179ff. Anordnung 61 arithmetisches Mittel 16 Augensumme 82, 144 Ausgleichsgerade s. Regressionsgerade Ausreißer 17 Auswahlmöglichkeiten — mit Berücksichtigung der Reihenfolge 63 — ohne Berücksichtigung der Reihenfolge 64ff. Axiom 57 axiomatische Definition einer Wahrscheinlichkeit 57 Balkendiagramm 12 Bayes, T. 75 Bayessche Formel 75 bedingte Wahrscheinlichkeit 71 Beobachtungsreihe —, eindimensionale 6 —, zweidimensionale 31 Bernoulli, J. 150 Bernoullisches Gesetz der großen Zahlen 150 beschreibende Statistik Iff. beurteilende Statistik 153ff. Bindungen 39, 240, 241, 251 Binomialkoeffizient 65 Binomialverteilung 104ff. — , Approximation durch die Normalverteilung 128, 135, 136 — , Approximation durch die Poisson-Verteilung 109 — , Test auf 205
Chi-Quadrat-Test 199ff. Chi-Quadrat-Verteilung 137f. , Approximation durch die Normalverteilung 138 deskriptive Statistik Iff. Dichte 115 — , symmetrische 118, 121 direktes Produkt 61 disjunkt 54 diskrete Zufallsvariable 8 Iff. — , Erwartungswert einer 86ff. — , Funktion einer 87f. — , Funktion zweier 97 — , lineare Transformation einer 89, — , Median einer 91 — , Modal wert einer 85 — , Paare von 95ff. — , Produkt zweier 98f. — , Quantil einer 93 — , Standardabweichung einer 93 — , Summe von 99f. — , symmetrische Verteilung einer 90 — , unabhängige 98, 99 — , Varianz einer 93 — , Verteilung einer 8 Iff. — , Verteilungsfunktion einer 84 — , zweidimensionale 95ff. diskretes Merkmal 4 Dreiecksprüfung 246f. Drei-Sigma-Regel 133, 147 Drei-Türen-Problem 80 Duo-Test 244ff. Durchschnittspreis 22 Durchschnittsrang 39 Ein-Sigma-Regel 133 Elementarereignis 53 Ereignis 53 —, Elementar- 53 —, komplementäres 54
Register
296 —, sicheres 53 —, unmögliches 53 Ereignisdisjunktion, vollständige 73 , Satz von der 74 Ereignisse — , Differenz zweier 54 — , disj unkte 54 — , Durchschnitt von 54 —, elementfremde 54 —, seltene 111 —, unabhängige 75f. —, unvereinbare 54 — , Vereinigung von 54 Ergebnismenge 53 erwartungstreue Schätzfunktion 158 Erwartungswert — e. diskreten Zufallsvariablen 86ff. — e. stetigen Zufallsvariablen 118ff. — einer Summe 100 — , Konfidenzintervalle für 165 — , Schätzung eines 158 — , Test eines 184 Erwartungswerte, Differenz zweier — , Konfidenzintervalle für die 174 — , Test der 190 Exponential Verteilung 124ff. —, Maximum-Likelihood-Schätzung 177 Fakkultät 62 Fehler erster Art 180, 197 — zweiter Art 180, 187 Fisher, R. A. 140, 161, 219 Fisz, M. 144, 145, 168 Fraktil s. Quantil Funktion — e. diskreten Zufallsvariablen 88f. — e. stetigen Zufallsvariablen 119 — zweier diskreter Zufallsvariabler 87ff. Funktionssatz 89, 98, 119 Fußballtoto 78 F-Verteilung 139f. Gauß, C. F. 43, 56 Gaußsche Glockenkurve 56 Geburtstagsproblem 63f.
geometrische Verteilung 107f. geometrisches Mittel 22f. Gesetz der großen Zahlen 55, 147ff. , Bernoullisches 150 gleichmäßige Verteilung - , diskrete 103f. - , stetige 123f. Glücksspirale 78 Glockenkurve, Gaußsche 56 Gösset, W. S. 138 Grenzwertsatz, zentraler 143ff. Häufigkeit, — absolute von Ereignissen 55, 104 bei Stichproben 6 —, prozentuale 6 —, relative von Ereignissen 55 bei Stichproben 6 Häufigkeitspolygon 8 Häufigkeitstabelle 8, 32 Häufigkeitsverteilung 7 — , bei Klasseneinteilungen 11 harmonisches Mittel 21 Histogramm — bei Klassenbildungen 12 — einer Stichprobe 8 Homogenitätstest 212ff. hypergeometrische Verteilung 106f. Hypothese —, einfache 184 —, einseitige 186 Indikatorvariable 88 induktive Statistik 153ff. Irrtumswahrscheinlichkeit — - 1. Art 180, 187 — - 2. Art 180, 187 kardinales Merkmal 5 Kardinalskala 5 Klasseneinteilung 11 Klassenhäufigkeit 11 klassierte Verteilungsfunktion 15
Register
297
klassische Wahrscheinlichkeit 56, 59 Maximum-Likelihood-Schätzung 162 kleinste Abweichungsquadrate 43 Median Knabengeburt, Wahrscheinlichkeit 173 — e. diskreten Zufallsvariablen 91 Kolmogorow, A.N. 56 — e. stetigen Zufallsvariablen 120 Kombinatorik 60ff. — einer Stichprobe 17ff. — , Formeln der 67 — , Test des 242 — , Produktregel der 61 Mensch ärgere Dich nicht 108 Komplement 54 Merkmal 3ff. Konfidenzintervalle 163ff. —, diskretes 4 —, einseitige 163 —, kardianles 5 —, nominales 4 — , zweiseitige 164 —, ordinales 5 Konfidenzniveau 164 —, qualitatives 3 Konfidenz Wahrscheinlichkeit 164 —, quantitatives 3 konsistente Schätzfunktion 159 Kontingenztafel 33, 97 — , stetiges 3 Korrelationskoeffizient Merkmalsausprägung 3 metrische Skala 5 — einer zweidim. Stichprobe 34 Mises von, R. 56, 150 — zweier Zufallsvariabler 10 Iff. Mittelwerte 15ff. korreliert 36 Mittel, arithmetisches 16 —, negativ 36 —, geometrisches 22f. —, positiv 36 —, harmonisches 21f. — , schwach 36 mittlerer Abstand 25 Kovarianz — einer zweidimensionalen Stichprobe 34 Modalwert (Modus) 85 Moivre, A. 136 — zweier Zufallsvariabler 101 Multiple-Choice 136 Kreisdiagramm 12 kritische Grenze 180 nichtparametrischer Test 239 k-Sigma-Regel 133, 146 nominales Merkmal 4 Laplace, P. S. 59, 136 Nominalskala 4 Laplace-Experiment 60 Normalverteilung 127ff. Laplace-Wahrscheinlichkeit 60 — , lineare Transformation einer 134 Levy, P. P. 143, 144 — , Maximum-Likelihood - Schätzungen Likelihood-Funktion 161 der Parameter 177 Lindeberg, J. W. 143, 144 —, Standard- 130 lineare Regression s. Regression — , Test auf 207 lineare Transformation Nullhypothese 179, 182, 184 — einer diskreten Zufallsv. 87, 95 ordinales Merkmal 5 — einer stetigen Zufallsv. 119, 122 Ordinalskala 5 — einer Stichprobe 16, 27 linearer Zusammenhang, Maß für den 36 Paare diskreter Zufallsvariabler Linearisierung von Regressionsfunkt. 47 paarweise Unterschiedsprüfung 244f. Lotto 68ff. Parallelsystem 77 — Vollsystem 79 parameterfreie Methoden 239
298 Parameterhypothese 179 Parameterschätzung 155ff. Parametertest 179ff. Pearson, Ε. S. 200 Pearsonsche Testfunktion 200 Permutation 61 Poisson, S. D. 110 Poisson-Verteilung 11 Of. — , Maximum-Likelihood-Schätzung des Parameters einer 162 — , Test auf 206 Preissteigerung, mittlere 22 Produkt — diskreter Zufallsvariabler 98f. — unabhängiger Zufallsvariabler 98 Produktregel der Kombinatorik 61 Produktsatz bei bedingten Wahrscheinlichkeiten 72 — für unabhängige Ereignisse 76 qualitatives Merkmal 3 Quantil — einer diskreten Zufalls variablen 93 — einer stetigen Zufallsvariablen 121 — einer Stichprobe 24 quantitatives Merkmal 3 Quartil 24 Randstichprobe 31 Randverteilungen 97 Rang 39 Rangkorrelationskoeffizient von Spearman 40ff. Rangskala 5 Rangtest, Vorzeichen- 248 Rangzahlen 38f. Rechteckdiagramm 10 Regression, lineare 23 Iff. , Test auf 234ff. Regressionsfunktion 47 Regressionsgerade 35, 44, 231 — , durch einen festen Punkt 46 Regressionskoeffizient 44 relative Häufigkeit 6, 55 Renyi, A. 129
Register Risikolebensversicherung 81, 87 Roulette 53, 60, 87, 94, 95 Schach, S. 219 Schäfer, T. 219 Schätzfunktion 156ff. — , asymptotisch erwartungstreue 158 —, erwartungstreue 158 —, konsistente 159 Scheinkorrelation 36 Schmetterer, L. 163 Schwerpunkt 16 seltene Ereignisse 111 sensorischer Test 243ff. Seriensystem 77 sicheres Ereignis 53 Signifikanzniveau 187, 188 Skala 4 Skalierung 4f. Spearman, Ch. E. 40 — scher Rangkorrelationskoeffizient 40 Stabdiagramm — bei diskreten Zufallsvariablen 83 — bei Stichproben 8 Stabilisierung der rel. Häufigkeiten 55, 59 Standardabweichung — bei diskreten Zufallsvariablen 95 — bei stetigen Zufallsvariablen 122 — bei Stichproben 26 Standardisierung 95, 123 Standard-Normalverteilung 130 Statistik — , beschreibende (deskriptive) Iff. —, beurteilende (induktive) 154ff. Steinerscher Verschiebungssatz 27 stetige Zufallsvariable 115ff. — , Dichte einer 115 — , Erwartungswert einer 118ff. — , Funktion einer 119 — , Median einer 120 — , Quantile einer 121 — , Standardabweichung einer 122 — , Varianz einer 122 — , Verteilungsfunktion einer 116 stetiges Merkmal 4
Register
299
Stetigkeitskorrektur 135, 202 Stichprobe —, eindimensionale 6 —, einfache 155 —, unabhängige 155 —, zweidimensionale 31 Stichprobenfunktion 156 Streuungsdiagramm 32 Streuungsmaße 25ff. Strichliste 7 Student-Verteilung 138 Summen diskreter Zufallsvariabler 99 symmetrische Dichte 118, 120, 121 — Verteilung 90
— , Schätzung einer 158 — einer Stichprobe 26 — , Test einer 19Iff. Varianzen — , Konfidenzintervalle für den Quotienten zweier 175 — , Test des Quotienten zweier 192f. Varianzanalyse - , doppelte 224ff. —, einfache 219ff. verbundene Stichprobe 174, 190 Vereinigung 54 Verschiebungssatz, Steinerscher 27 Verteilung - , Binomial 104ff. - , Chi-Quadrat- 137f. Test — einseitiger 186, 188 — , einer diskreten Zufalls variablen 8 Iff. - , Exponential- 124ff. — , nichtparametrischer 239 —, sensorischer 243ff. — , F- Verteilung 139f. —, gemeinsame 96 — , zweiseitiger 184 Testfunktion 156 —, geometrische 107f. — , gleichmäßige diskrete 103f. totale Ereignisdisjunktion 73 —, gleichmäßige stetige 123f. Triangel-Test 246f. —, hypergeometrische 106f. Tschebyschew, P. L. 146 - , Normal- 127ff. "Tschebyschewsche Ungleichung 146 t-Verteilung 138f. - , Poisson- 11 Of. — , Approx. durch die Normalteilung 139 — , t - Verteilung 138f. verteilungsfreier Test 239 Verteilungsfunktion unabhängige Ereignisse 75f. — einer diskreten Zufallsvariablen 84 , Test auf 210 — einer stetigen Zufallsvariablen 116 — Zufallsvariablen 98, 99, 101, 123 Unabhängigkeitstest — , klassierte 15 — , einer Stichprobe 13 — für zwei Ereignisse 21 Of. Vierfeldertafel 33, 96, 210 — für zwei Zufallsvariablen 208 vollständige Ereignisdisjunktion 73, 199 unmögliches Ereignis 53 vollständige Wahrscheinlichkeit, unkorrelierte Stichproben 36 Satz von der 74 — Zufallsvariablen 101 Vollsystem beim Lotto 79 unvereinbare Ereignisse 54 Vorzeichen-Rangtest nach Wilcoxon 248ff. Urliste 6 Vorzeichen-Test 239ff. Urnenmodelle 67ff. Varianz — einer diskreten Zufallsvariablen 93 — einer stetigen Zufallsvariablen 122 — , Konfidenzintervalle für eine 169ff.
Wahrscheinlichkeit 56ff. — , axiomatische Definition einer 57 —, bedingte 71 — , einfacher Alternativtest einer 182
300 — , klassische 56, 59 — , Konfidenzintervalle für eine 172f. — , Maximum-Likelihood-Schätzung 162 — , Schätzung einer 161 — , Test einer 194ff. Wahrscheinlichkeiten — , Test von 199ff. — , Test auf Gleichheit zweier 214f. Wilcoxon, F. 249 Wilcoxon, Vorzeichen-Rangtest 248ff. Würfel idealer 85 Yates, F. 202 Yatessche Stetigkeitskorrektur 202, 211, 215 Zählprinzip 61 Zahlenlotto 68ff. zentraler Grenzwertsatz 143ff. Zentralwert s. Median Ziegenproblem 80 zufällige Abweichungen, Test auf 239ff. Zufallsexperiment 53 Zufallsstichprobe 155 Zufallsvariable — , diskrete s. diskrete Zufallsvariable — , stetige s. stetige Zufallsvariable zweidimensionale Stichprobe 31 Zwei-Sigma-Regel 133, 147
Register