Einführung in die Statistik [5 ed.] 3835100041, 9783835100046

in die Statistik 5., durchgesehene Auflage Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek

116 4 8MB

German Pages 212 [207] Year 2006

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Einführung in die Statistik [5 ed.]
 3835100041, 9783835100046

  • Commentary
  • Published: June 2006
  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Teubner Studienbücher Mathematik

Jürgen Lehn, Helmut Wegmann

Einführung in die Statistik

Jürgen Lehn, Helmut Wegmann

Einführung in die Statistik 5., durchgesehene Auflage

Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.

Prof. Dr. rer. nat. Jürgen Lehn Geboren 1941 in Karlsruhe. Studium der Mathematik an den Universitäten Karlsruhe und Regensburg. 1968 Diplom in Karlsruhe, 1972 Promotion in Regensburg, 1978 Habilitation in Karlsruhe. 1978 Professor an der Technischen Hochschule Darmstadt. Prof. Dr. rer. nat. Helmut Wegmann Geboren 1938 in Worms. Studium der Mathematik und Physik an den Universitäten Mainz und Tübingen. Wiss. Assistent an den Universitäten Mainz und Stuttgart. 1962 Staatsexamen in Mainz, 1964 Promotion in Mainz, 1969 Habilitation in Stuttgart. 1970 Professor für Mathematik an der Technischen Hochschule Darmstadt.

1. Auflage 1985 2. Auflage 1992 3. Auflage 2000 4. Auflage 2004 5., durchgesehene Auflage Juni 2006 Alle Rechte vorbehalten © B. G. Teubner Verlag / GWV Fachverlage GmbH, Wiesbaden 2006 Lektorat: Ulrich Sandten / Kerstin Hoffmann Der B. G. Teubner Verlag ist ein Unternehmen von Springer Science+Business Media. www.teubner.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften.

Umschlaggestaltung: Ulrike Weigel, www.CorporateDesignGroup.de Druck und buchbinderische Verarbeitung: Strauss Offsetdruck, Mörlenbach Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier. Printed in Germany ISBN 3-8351-0004-1

Vorwort zur ersten Auflage Das vorliegende Buch entstand aus einem Vorlesungsskriptum zu einer Vorlesung "Einfiihrung in die Statistik", die wir in den vergangenen Jahren mehrfach an der Technischen Hochschule Darmstadt fiir Studierende der Fachrichtungen Mathematik, Informatik und Wirtschaftsinformatik gehalten haben. Auch Studenten aus den natur- und ingenieurwissenschaftlichen Fachbereichen gehorten zum Horerkreis dieser Vorlesung, die einen zeitlichen Umfang von drei Semesterwochenstunden hatte und von einer einstiindigen Ubung begleitet wurde. Fiir einen Teil der MathematikStudenten steht diese Vorlesung am Beginn eines auf mehrere Semester angelegten Stochastik-Studiums. Dagegen ist sie fiir die Mehrzahl der Studenten die einzige Lehrveranstaltung iiber dieses Gebiet. Dies und die unterschiedliche mathematische Vorbildung erfordern sowohl in der StofFauswahl als auch in der Darstellung Riicksicht auf die speziellen Interessen beider Gruppen. Das Konzept, das dieser einftihrenden Statistik-Vorlesung zugrunde lag und im Folgenden beschrieben werden soil, hat sich bei diesem gemischten Horerkreis bewahrt. Durch die Stoffauswahl und durch die Veranschaulichung der Theorie mit Hilfe von zahlreichen Beispielen haben wir versucht, in die stochastischen Denkweisen einzufiihren und die Anwendungsmoglichkeiten der Statistik anzudeuten. Die Horer sollten lernen, was fiir eine sachgemafie Anwendung statistischer Verfahren zu beachten ist und wie die Ergebnisse einer statistischen Untersuchung zu beurteilen sind. Dariiber hinaus sollte der Mathematik-Student fiir die weiterfiihrenden Lehrveranstaltungen uber Wahrscheinlichkeitstheorie und Mathematische Statistik ausreichend motiviert werden. Bei der Formulierung wesentlicher Bestandteile der Theorie wurde die in der Mathematik iibliche Strenge angestrebt, aber auf die mathematische Herleitung tiefer liegender Satze verzichtet. Hilfsmittel der Mafitheorie konnten nicht herangezogen werden. Dies hatte den zeitlichen Rahmen der Veranstaltung gesprengt und die meisten Horer iiberfordert. Einerseits sollten die Horer aus den nichtmathematischen Fachbereichen an mathematische Formulierungen stochastischer Sachverhalte gewohnt werden, andererseits sollten sie nicht durch komplizierte mathematische Beweisfiihrungen entmutigt werden. Wir haben versucht, diese Einfiihrung in die Statistik so zu gestalten, dass sie fiir einen Mathematik-Studenten ansprechend, aber auch dem Anwender mit geringeren mathematischen Kenntnissen noch zuganglich ist. Ein an der Mathematischen Statistik interessierter Student kann diese Einfiihrung lesen, um sich auf das Studium weiterfiihrender Texte, wie z.B. des Lehrbuchs "Grundkurs Stochastik" von K. Behnen und G. Neuhaus, oder der Bande "Mathematische Statistik" von H. Witting und "Angewandte Mathematische Statistik" von H. Witting und G. Nolle vorzubereiten. Es war nicht unsere Absicht, ein Handbuch der elementaren Statistik oder ein Nachschlagewerk fiir statistische Methoden zu schreiben, sondern dem Leser das Umfeld der mathematischen Modellbildung verstandlich zu machen, in das die in der Praxis angewendeten statistischen Verfahren einzuordnen sind.

Kollegen und Mitarbeitem unserer Arbeitsgruppe Stochastik und Operations Research wie auch Horern der Vorlesungen danken wir fiir viele Verbesserungsvorschlage. Den Herren Dipl.-Math. U. Krzensk, Dipl.-Math. S. Rettig und Dr. F. Rummel gilt unser besonderer Dank fiir ihre Hilfe bei der Vorbereitung und Fertigstellung des Textes. Ebenso danken wir Frau U. Sauter fiir ihre Miihe beim Schreiben des Manuskriptes. Darmstadt, im Februar 1985 J. Lehn, H. Wegmann

Vorwort zur zweiten Auflage Die zweite Auflage dieses Buches unterscheidet sich von der ersten lediglich durch einige Erganzungen, die wir auch am Stoff" unserer Vorlesung vorgenommen haben. An einigen Stellen sind wir Verbesserungsvorschlagen gefolgt, die uns von Mitarbeitem und Mitarbeiterinnen unserer Arbeitsgruppe Stochastik und Operations Research wie auch von H5rern und Horerinnen der Vorlesungen gemacht wurden. Ihnen alien, insbesondere den Herren Dipl.-Math. R Plappert und Dr. S. Rettig danken wir dafiir. Herrn Plappert gilt unser besonderer Dank fiir seine Bereitschaft, eine erste Fassung des Manuskripts durchzusehen. Ebenso danken wir Frau G. Schumm, die mit grofier Sorgfalt und viel Geschick den Text in eine ansprechende Form gebracht hat, so dass die zweite Auflage unserer Einfiihrung in dieser Hinsicht nicht hinter der dazugehorigen Aufgabensammlung zuriickstehen muss.

Vorwort zur dritten Auflage Auch in der dritten Auflage wurden gegeniiber der vorangegangenen nur einige Prazisierungen vorgenommen und Fehler verbessert. Studierende, Mitarbeiter und andere Leser des Buches haben uns auf korrekturbediirftige Stellen aufmerksam gemacht. Fiir solche Hinweise waren wir immer sehr dankbar und werden dies auch in Zukunft sein. Dank sagen wir auch alien, die uns mit zustimmenden Kommentaren ermutigt haben, die Konzeption des Buches beizubehalten. Darmstadt, im November 1999 J. Lehn, H. Wegmann

Inhaltsverzeichnis

Einleitung 1 Beschreibende Statistik

5 7

1.1

Merkmale

1.2

Darstellung von Messreihen

1.3

Mafizahlen fiir eindimensionale Messreihen

13

1.4

Mafizahlen fiir zweidimensionale Messreihen

17

1.5

Bemerkungen zur Robustheit von Mafizahlen

21

2 GrundbegrifFe der Wahrscheinlichkeitstheorie 2.1 Wahrscheinhchkeitsraume

7 8

25 25

2.2 Bedingte Wahrscheinlichkeit, Unabhangigkeit

33

2.3 Zufallsvariablen und Verteilungsfunktionen

38

2.4 Erwartungswert und Varianz

51

2.5 Mehrdimensionale Zufallsvariablen, Unabhangigkeit

64

2.6 Normalverteilung, x^-, t- und F-Verteilung

80

2.7 Gesetze der grofien Zahlen und Grenzwertsatze

87

2.8 Empirische Verteilungsfunktionen, Zentralsatz der Statistik

96

3 Schliefiende Statistik 3.1 Einfuhrendes Beispiel 3.2

Schatzverfahren und ihre Eigenschaften

107 107 109

3.3 Die Maximum-Likelihood-Methode

116

3.4

122

Konfidenzintervalle

3.5 Tests bei Normalverteilungsannahmen

132

3.6

148

Der x^-Anpassungstest und Kontingenztafeln

3.7 Einige verteilungsunabhangige Tests

162

Inhaltsverzeichnis 3.8 Einfache Varianzanalyse

181

3.9 Einfache lineare Regression

186

Anhang

196

Tabellen

196

Symbole

200

Literaturhinweise

202

Einleitung In der Statistik, wie sie im Folgenden behandelt werden soil, geht es um das Problem, Beobachtungen, die unter Einfluss des Zufalls entstanden sind, zu analysieren. Ein erster Schritt dabei ist die Aufbereitung des Beobachtungsmaterials, was mit Hilfe von graphischen Darstellungen, wie Histogrammen oder Punktediagrammen, und durch die Berechnung von Kennzahlen, wie Durchschnittswerten und StreuungsmaBzahlen, geschehen kann. Im ersten Kapitel iiber Beschreibende Statistik wird auf solche Moglichkeiten zur Aufbereitung des Datenmaterials eingegangen. In einem zweiten Schritt werden auf diesen Grundlagen die Daten beurteilt mit dem Ziel, Aussagen iiber das Zufallsgesetz zu gewinnen, das ihrer Entstehung zugrunde lag. Dies geschieht mit Verfahren der Schliefienden Statistik^ die der eigentliche Gegenstand dieser Einfuhrung sind und im dritten Kapitel behandelt werden. Da statistische Schliisse auf Daten beruhen, die unter Zufallseinfluss entstanden sind, sind sie mit Unsicherheiten behaftet. Man muss das Risiko von Fehlern in Kauf nehmen. Dieses Risiko soil jedoch kalkulierbar sein. Zu einem statistischen Verfahren gehoren darum immer quantitative Aussagen iiber die Wahrscheinlichkeiten, mit denen bei seiner Anwendung Fehlschliisse auftreten. Aus diesem Grund miissen mathematische Modelle entwickelt werden, die sich zur Beschreibung aller zufallsabhangigen Vorgange eignen, von der Entstehung der Daten bis zu ihrer Beurteilung. Solche Modelle sind Gegenstand des zweiten Kapitels iiber Wahrscheinlichkeitstheorie. Hier wird auch auf die fiir die Interpretation wahrscheinlichkeitstheoretischer Aussagen notigen Sachverhalte eingegangen. Die Auswahl des Stoffes fiir dieses Kapitel wurde nicht zuletzt im Hinblick auf seine Bedeutung fiir eine sachgerechte Anwendung statistischer Verfahren getroffen.

1 Beschreibende Statistik

1.1

Merkmale

Beginnen wir mit einem Beispiel 1.1 Bei einer Befragung von 250 Horern einer Statistik-Vorlesung wurden die folgenden Daten ermittelt: (1) Familienstand, (2) Studienrichtung, (3) Interesse am Vorlesungsgegenstand (gemafi folgender Einstufungen: aufierordentlich interessiert - sehr interessiert - interessiert - kaum interessiert - iiberhaupt nicht interessiert), (4) Anzahl der Geschwister, (5) Anzahl der bereits studierten Hochschulsemester, (6) Korpergrofie, (7) Korpergewicht, (8) Wegldnge von der Wohnung zur Hochschule. Die Gesamtheit der befragten Horer der Vorlesung wird als Beobachtungsmenge bezeichnet, ein einzelner Horer heifit Beobachtungseinheit. Die Eigenschaften oder Sachverhalte, die erfragt werden, heifien Beobachtungsmerkmale. Die Ergebnisse, die bei der Beobachtung eines Merkmals auftreten konnen, heifien Merkmalsausprdgungen. Man unterscheidet die folgenden Merkmalstypen: qualitative Merkmale wie (1) und (2) Rangmerkmale wie (3) quantitativ-diskrete Merkmale wie (4) und (5) quantitativ-stetige Merkmale wie (6), (7) und (8). Qualitative Merkmale konnen natiirlich auch durch Zahlen beschrieben werden. So lasst sich das Merkmal Konfession z.B. in folgender Weise verschliisseln: keine = 0, romisch-katholisch = 1, evangelisch = 2, jiidisch = 3, sonstige = 4. Dadurch wird natiirlich das Merkmal Konfession nicht zu einem quantitativen Merkmal. Wahrend bei quantitativen Merkmalen, wie etwa der Korpergrofie, ein Durchschnittswert, die "durchschnittliche Grofie" ein sinnvoller Begriff ist, hat es keinen Sinn, bei zwei Personen, die gemafi obiger Quantifizierung die Konfession 0 (= keine) und 4 (= sonstige) besitzen, von der mittleren Konfession 2 (= evangelisch) zu sprechen. Bei Rangmerkmalen sind die Vergleiche zwischen den einzelnen Merkmalsauspragungen im Sinne einer Reihenfolge moglich. Bei einer zahlenmafiigen Verschllisselung der Merkmalsauspragungen wird man daher darauf achten, dass sich diese Reihenfolge oder Rangordnung in der Grofier- bzw. Kleinerrelation der zugeordneten Zahlen ausdriickt. Das Merkmal "Interesse am Vorlesungsgegenstand" des obigen Beispiels

8

1 Beschreibende Statistik

konnte wie folgt verschliisselt werden: aufierordentlich interessiert = 5, sehr interessiert = 4, interessiert = 3, kaum interessiert = 2, iiberhaupt nicht interessiert = 1. Aufgrund dieser Quantifizierung hat es jedoch keinen Sinn, von einem Horer mit Interesse 4 (= sehr interessiert) zu sagen, er habe doppelt soviel Interesse wie ein Horer mit Interesse 2 (= kaum interessiert). Sinnvoll ist es jedoch zu sagen (und es freut den Dozenten, wenn dies gesagt werden kann), dass mehr als die Halfte der Horer mindestens Interesse 3 (= interessiert) haben. Diese Problematik liegt auch bei der Leistungsmessung im Schul- und Hochschulalltag und bei der Intelligenzmessung in der Psychologie vor, wo ebenfalls Rangmerkmale betrachtet werden miissen. Wir werden uns im Folgenden jedoch hauptsachhch mit quantitativen Merkmalen befassen, da in der Technik und in den Naturwissenschaften die Daten vornehmlich durch Messen oder Zahlen gewonnen werden. Quantitativ-diskrete Merkmale sind solche, bei denen die Merkmalsauspragungen nur bestimmte auf der Zahlengeraden getrennt liegende Zahlenwerte (z.B. nur ganze Zahlen) sein konnen, wahrend quantitativ-stetige Merkmale dadurch gekennzeichnet sind, dass (zumindest theoretisch) jeder Wert eines Intervalls als Auspragung moglich ist. Obwohl es sich selbst bei Langenmessungen, ja bei Messungen iiberhaupt, streng genommen - bedingt durch die Messgenauigkeit - auch um quantitativ-diskrete Merkmale handelt, ist es trotzdem sinnvoll, sie als quantitativ-stetige Merkmale zu betrachten.

1.2

Darstellung von Messreihen

Wir gehen zunachst davon aus, dass zu jeder Beobachtungseinheit ein quantitatives Merkmal gehort oder dass die verschiedenen Merkmale getrennt voneinander untersucht werden sollen. Wir legen ein quantitatives Merkmal zugrunde und nehmen an, dass an n Beobachtungseinheiten die entsprechenden Merkmalsauspragungen ermittelt werden. Notieren wir die nicht notwendig voneinander verschiedenen Beobachtungsergebnisse x i , . . . , Xn in der Reihenfolge, in der sie anfallen, so sprechen wir von einer Messreihe Xi, . . . , Xn-

Beispiel 1.2 (Quantitativ-diskretes Merkmal) Es wird bei 20 Streichholzschachteln jeweils die Anzahl der darin enthaltenen Streichholzer ermittelt. Dabei ergibt sich die folgende Messreihe: 37, 40, 41, 42, 40, 38, 38, 41, 43, 41, 40, 35, 40, 38, 31, 38, 40, 38, 31, 38.

Fur a; € M bezeichne G{x) die Anzahl der Werte in der Messreihe, die kleiner oder gleich der Zahl x sind. G{x) heifit Summenhaufigkeit und, falls n die Gesamtzahl der Messwerte bezeichnet, H(x) = iG(x) relative Summenhaufigkeit an der Stelle x. Die dadurch definierte Funktion if : E -> R heifit empirische Verteilungsfunktion. Es handelt sich dabei um eine Treppenfunktion, deren Sprungstellen die Werte der Messreihe sind. Die jeweiligen Sprunghohen sind die relativen Hdufigkeiten der Messwerte in der Messreihe.

1.2 Darstellung von Messreihen Wir erstellen die folgende Tabelle: abs. Hdufigkeit rel. Hdufigkeit Anzahl der Streichholzer 35 1 0.05 36 0 0.00 37 3 0.15 38 6 0.30 39 0 0.00 40 5 0.25 41 3 0.15 42 1 0.05 1 43 0.05 Diese Ergebnisse veranschaulichen wir graphisch durch ein Stabdiagramm der relativen Hdufigkeiten und eine Skizze der empirischen Verteilungsfunktion.

n Qf}-^ re/. Hdufigkeit 0.15

4-^

0.00

35

1.0

40

45

^

T H{x) 1

0.5-A

•T"

A -| 0.0 J

1 1

X •

^

35

1

\

1

r

1

40

1

1

\

1

1

45

1 Beschreibende Statistik

10 Beispiel 1.3 (Quantitativ-stetiges Merkmal)

100 Holzschrauben mit der angegebenen Ldnge von 5 cm wurden auf 0.5 Millimeter genau nachgemessen. Aus der Messreihe Xi,.. .,XIQQ wurde folgende Tabelle ermittelt:

Ldnge in 47.5 48.0 48.5 49.0 49.5 50.0 50.5 51.0 51.5 52.0 52.5 53.0 mm Anzahl der 1 3 9 13 15 18 14 13 8 4 1 1 Schrauben Durch die Messgenauigkeit ist in natiirlicher Weise eine Klasseneinteilung der Messwerte gegeben. Haben wir etwa 49.5 gemessen, so ist die Lange der Schrauben eine Zahl des Intervalls (49.25, 49.75]. Zur iibersichtlichen Darstellung der Messreihe benutzt man ein Histogramm, in dem die relativen Klassenhdufigkeiten gemafi folgender Tabelle eingetragen werden: Lange im Intervall

Klassenhaufigkeit

rel. Klassenhaufigkeit

(47.25, 47.75] (47.75, 48.25] (48.25, 48.75] (48.75, 49.25] (49.25, 49.75] (49.75, 50.25] (50.25, 50.75] (50.75, 51.25] (51.25, 51.75] (51.75, 52.25] (52.25, 52.75] (52.75, 53.25]

1 3 9 13 15 18 14 13 8 4 1 1

0.01 0.03 0.09 0.13 0.15 0.18 0.14 0.13 0.08 0.04 0.01 0.01

A rel. Haufigkeit 0.2

0.1 0.0

47.25

49.25

51.25

=\ > 53.25 [mm]

1.2 Darstellung von Messreihen

11

1st die Zahl der verschiedenen Messwerte sehr grofi, so liefert die durch die Messgenauigkeit vorgegebene Klasseneinteilung keine befriedigende Darstellung im Histogramm. Man wird dann eine andere Klasseneinteilung vornehmen, wie im folgenden Beispiel. Beispiel 1.4 (Quantitativ-stetiges Merkmal) 200 Nietkopfdurchmesser wurden gemessen (in Millimeter auf 2 Dezimalen genau). Alle Zahlenwerte der Messreihe xi,...,Xn lagen im Intervall (I4.IO, 14-60]. Die Werte wurden in Klassen mit der Klassenbreite 0.05 eingeteilt. Es ergab sichfolgende Tabelle: Lange im Intervall (14.10, (14.15, (14.20, (14.25, (14.30, (14.35, (14.40, (14.45, (14.50, (14.55,

Klassenhaufigkeit

rel. Klassenhaufigkeit

2 4 12 23 39 42 36 24 12 6

0.010 0.020 0.060 0.115 0.195 0.210 0.180 0.120 0.060 0.030

14.15] 14.20] 14.25] 14.30] 14.35] 14.40] 14.45] 14.50] 14.55] 14.60]

! 1

Das zugehorige Histogramm ist unten links abgebildet. Wird die doppelte Klassenbreite gewahlt und soil das dabei entstehende Histogramm mit dem eben gezeichneten vergleichbar bleiben, so ist darauf zu achten, dass der Mafistab auf der senkrechten Achse des Diagramms entsprechend geandert wird. Die relative Klassenhaufigkeiten sind dann: 0.030, 0.175, 0.405, 0.300, 0.090. P2

rel. Haufigkeit f

0.2

0.1

0.0

14.0

rel. Haufigkeit

0.4

^=a 14.2

14.4

u

14.6

14.0

14.2

14.4

14.6

Das rechte Histogramm vermittelt einen weniger genauen Eindruck von der zugrundeliegenden Messreihe. Man spricht hier davon, dass bei Vergrofierung der Klassenbreite "Information" verlorengeht.

1 Beschreibende Statistik

12

Hinweis: Bei den eben dargestellten Histogrammen war eine aquidistante Klasseneinteilung zugrundegelegt. Deshalb war es sinnvoll auf der senkrechten Achse die relative Haufigkeit abzutragen. Als Flacheninhalt der Gesamtflache des Histogramms erhalt man bei diesem Mafistab gerade die Klassenbreite. Will man ein Histogramm mit auf den Wert 1 normierten Gesamtflacheninhalt haben, so ist auf der senkrechten Achse nicht die relative Haufigkeit sondern der Quotient aus relativer Haufigkeit und Klassenbreite zu wahlen. Bei nicht aquidistanter Klasseneinteilung muss in dieser Weise verfahren werden, damit ein anschauliches Histogramm entsteht, bei dem die Flacheninhalte der Rechtecke und nicht ihre Hohen den relativen Klassenhaufigkeiten entsprechen. Bei vielen statistischen Untersuchungen geht es aber nicht nur um ein einziges Merkmal, sondern oft werden Abhangigkeiten zwischen verschiedenen Merkmalen untersucht. Wir wollen nun annehmen, dass zu jeder Beobachtungseinheit zwei quantitative Merkmale gehoren, die gemeinsam untersucht werden sollen. Eine Messreihe (^ij 2/i)) • • •) i^n, Vn) besteht dann aus Paaren reeller Zahlen. Beispiel 1.5 Bei 30 gesunden Mdnnern wurde der (systolische) Blutdruck gemessen mit dem Ziel, Zusammenhdnge zwischen Blutdruck und Lebensalter zu erkennen. Die Ergebnisse in der Form (Lebensalter, Blutdruck) sind als Punkte im folgenden Punktediagramm dargestellt.

A Blutdruck 200-



180-

• •

160-

• 140120-



• •

• . •• • • •





• •











1 an iUU

1

10

20

30

40

50

60

^

70 Alter

Diese Darstellung der Messreihe liefert eine langgestreckte "Punktewolke" um eine Gerade mit positiver Steigung herum. Diese Beobachtung bestatigt den wohlbekannten Zusammenhang, dass mit zunehmendem Alter auch mit einem hoheren Blutdruck zu rechnen ist. Teilt man die Ergebnisse, so wie dies bei eindimensionalen Daten auch geschehen ist, in Klassen ein, so erhalt man die folgende Haufigkeitstabelle, die man als Kontingenztafel bezeichnet.

1.3 Mafizahlen fiir eindimensionale Messreihen

10 0. Fine Zufallsvariable X mit dem Wertebereich N U {0} und P{X = i) =

^e-\

0,1,2,

(32)

heifit Poisson-verteilt mit dem Parameter A. Sie eignet sich zur Beschreibung von Experimenten des folgenden Typs: In einer Telefonzentrale wird an einem normalen Werktagvormittag die Anzahl der innerhalb von 60 Sekunden ankommenden Telefongesprdche ermittelt. A hat die Bedeutung der "mittleren Anzahl" der Gesprdche pro Minute. Eine in der Literatur hdufig zitierte empirische Untersuchung, die die Brauchbarkeit der Poisson-verteilten Zufallsvariablen zur Beschreibung von Zdhlvorgdngen der obigen Art unterstreicht, behandelt die Anzahl der Soldaten eines preufiischen Kavallerieregiments, die innerhalb eines Jahres an den Folgen eines Huftritts starben. Fiir 10 Regimenter wurden iiber einen Zeitraum von 20 Jahren die entsprechende Zahlen ermittelt. Es liegen also 200 Zahlen vor, und zwar die Zahlen 0 , 1 , . . . , 4 mit folgenden Hdufigkeiten: Anzahl der Todesfdlle 0 1 2 3 4 beobachtete Hdufigkeit 109 65 22 3 1 Als "mittlere Anzahl" erhdlt man aus dieser Tabelle den Wert 0.61. Wir berechnen die Wahrscheinlichkeiten, mit denen eine mit dem Parameter A = 0.61 Poissonverteilte Zufallsvariable X die Werte 0 , 1 , . . . , 4 annimmt, und erhalten: P{X = 0) P{X = 1)

,-0.61

P{X = 2)

0.543 e ' = 0.331 0.61 ^0.61^ -°«i = 0.101

P{X = 3)

- ° " = 0.021

P{X = 4)

0.003.

4! Diese Wahrscheinlichkeiten vergleichen wir in der folgenden Tabelle mit den relativen Hdufigkeiten, die fiir die einzelnen Anzahlen von Todesfdllen ermittelt wurden, und stellen eine gute Ubereinstimmung fest. 1 2 3 4 Anzahl der Todesfdlle 0 beob. rel. Hdufigkeit 0.545 0.325 0.110 0.015 0.005 Wahrscheinlichkeit 0.543 0.331 0.101 0.021 0.003 Viele physikalische und technische Probleme konnen mit Poisson-verteilten Zufallsvariablen beschrieben werden, z.B. die Ermittlung der Anzahl der a-Teilchen, die in einer bestimmten Zeitspanne von einer radioaktiven Substanz emittiert werden. Die bisher behandelten diskreten Zufallsvariablen entsprechen den quantitativ-diskreten Merkmalen der beschreibenden Statistik. Wir wenden uns nun Zufallsvariablen zu, die als Entsprechung zu den quantitativ-stetigen Merkmalen gesehen werden konnen.

2.3 Zufallsvariablen und Verteilungsfunktionen

45

Definition 2.32 Fine Zufallsvariable X heifit stetig verteilt mit der Dichte / , falls sich ihre Verteilungsfunktion F iR-^R in der folgenden Weise schreiben Idsst: F{x) = /

f(t) dt,

xeR.

Bemerkungen: oo

f{t)dt = l.

/

-oo

2. Der Zusammenhang zwischen Dichte und Verteilungsfunktion lasst sich leicht geometrisch veranschaulichen. Fiir den Wert der Verteilungsfunktion F an der Stelle X gilt: F(x) = "Inhalt der unterlegten Flache"

P{X < b)

P(X > a)

P(ab)

46

2 Grundbegriffe der Wahrscheinlichkeitstheorie 3. Die Verteilungsfunktion einer stetig verteilten Zufallsvariablen X mit Dichte ist stetig. Insbesondere folgt daraus wegen Satz 2.26 P(X = x) = F{x)-F{x-0) = 0

furalle

xeR.

(33)

4. Fiir Stetigkeitsstellen x von / gilt •^F(x) = f{x). 5. Ist X stetig verteilt mit der Dichte / , so lassen sich die Wahrscheinlichkeiten, mit denen X Werte in Intervallen annimmt, wie in obiger Skizze veranschaulichen: Dabei konnen wegen (33) die Ungleichungszeichen ""durch strikte Ungleichungszeichen "" ersetzt werden. Es folgt eine Reihe von Beispielen haufig auftretender Verteilungen mit einer Dichte. Beispiel 2.33 (Rechteckverteilung) Sei — o o < a < 6 < o o . Die Zufallsvariable X heifit rechteckverteilt im Intervall [a, b] (kurz: R(a, b) -verteilt), falls X stetig verteilt ist mit der Dichte f der Form

Die zugehorige Verteilungsfunktion F ergibt sich zu

{ (

^M ={

c 00 fiir X < a fff f^^ fur a 0.

(38)

Darum geniigt es, die Funktion $ fiir positive Argumente zu tabellieren. X

\^x)

0.00 0.25 0.50 0.75 1.00 1.25 1.50 1.75 2.00 3.00 0.500 0.599 0.691 0.773 0.841 0.894 0.933 0.960 0.977 0.999

Sei jetzt X wieder A^(/i, cr^)-verteilt mit beliebigem /u G M und cr > 0. Die Substitution u = ^ ergibt fiir die zugehorige Verteilungsfunktion

Ihre Werte lassen sich also mit Hilfe einer Tabelle der Funktion $ berechnen. Wegen p(J^ZJi

R aJs Komponenten einer Abbildung

zusammen, so sprechen wir von einer zweidimensionalen Zufallsvariablen oder von einem Zufallsvektor. Die Funktion F : R^ -> [0,1] mit F(x,y) = P(X 0 und Var{Y) > 0. (i) Sind X und Y unabhangig, so folgt E(X • Y) = E{X) • E(Y) und g(X, Y) = 0. (a)

Gilt g{X, Y) = 1 oder gilt g{X, Y) = —I, so gibt es reelle Zahlen a und b mit P{Y = aX + b) = l. Der Koeffizient a hat dann dasselbe Vorzeichen wie g{X, Y).

(Hi) Die mittlere quadratische Abweichung E{{Y — aX — 6)^) der Zufallsvariablen Y von einer linearen Funktion aX + b der Zufallsvariablen X ist genau dann minimal, wenn a= ^ ^ ^ P

und b =

EiY)-aE{X)

gilt In diesem Fall ist sie gegeben durch E({Y - aX - 6)2) = (1 - g{X, Yf) • Var{Y).

2.5 Mehrdimensionale Zufallsvariablen, Unabhangigkeit

75

Beweis: Den Beweis von (i) fiihren wir nur unter der zusatzlichen Voraussetzung, dass beide Zufallsvariablen diskret oder beide Zufallsvariablen stetig verteilt sind. Sind X und Y beide diskret verteilt, so gilt nach (69) E{XY)

=

^Xi-yj-pij

=

^Xi-yj-pi,-p,j

= Yl'^i-Pi.'J2yrP.j i

= E{X)^E{Y).

j

Sind X und Y stetig verteilt mit den Dichten /i und /2, dann ist durch f{x,y) = fi{x) • f2{y), (x,y) € M^, eine Dichte / von {X,Y) gegeben. Nach (70) gilt dann:

E{XY)

= r

r

x-yh{x)-f2(y)dydx

J —OO t/—OO

=

r

X- h(x) dx- r

J—OO

y f2{y) dy = E{X) - E{Y).

J—OO

Wir beweisen nun (iii). Mit den Rechenregeln (56) und (74) gilt E({Y-aX-bf)

= Ya.T{Y-aX-b)

+

lE{Y-aX-b)f

= Var(y) + a^V&T{X) - 2aCow{X, Y) + [E{Y) - aE(X) - bf. Die Funktion p sei gegeben durch p{a,b) = E{{Y-aX-bf),

a,b£R.

Sie ist also ein Polynom zweiten Grades in den Variablen a und 6. Sie besitzt genau ein Minimum fiir

"^^vSx?

""'' b = B{Y)-a-E{X),

wie sich aus der Untersuchung der partiellen Ableitungen ergibt. Damit ist (iii) bewiesen. Im Falle Q{x,y) = ±1 folgt E({Y - aX - bf) = 0,

also Y = aX + b

mit Wahrscheinlichkeit 1 (vgl. die Bemerkung im Anschluss an Satz 2.49). Damit ist auch die erste Behauptung in (ii) bewiesen. Die zweite folgt unmittelbar aus den Definitionen von a und p(X,Y). Zum Abschluss dieses Abschnittes gehen wir noch auf n-dimensionale Zufallsvariablen ein. Solche "Zufallsvektoren" benotigen wir, um das zufallige Entstehen von Messreihen Xi,...,Xn bzw. Datenvektoren x = {xi,.. .,Xn)'^ mathematisch zu beschreiben. Begrifflich sind gegeniiber dem bislang behandelten Fall n = 2 keine wesentlichen Erweiterungen notwendig. Sind Xi,...,Xn Zufallsvariablen iiber dem Wahrscheinlichkeitsraum (fi,2l,P), so heii5t die Abbildung ( X i , . . . , A"„) : fi -> R" eine n-dimensionale Zufallsvariable. Ihre Verteilungsfunktion F : R" -> [0,1] ist gegeben durch F{xu

...,Xn)=

P{Xi

< Xi, . . . , X „ < Xn),

(Xu • . . , X„) € R".

Gelegentlich werden wir eine n-dimensionale Zufallsvariable (Xi, Zufallsvektor bezeichnen und X = (Xi,..., X„)^ schreiben.

,X„) auch als

76

2 Grundbegriffe der Wahrscheinlichkeitstheorie

Definition 2.67 Eine n-dimensionale Zufallsvariable heifit stetig verteilt mit der Dichte f, falls sich ihre Verteilungsfunktion F mit einer nichtnegativen Funktion / : R" —> R in der folgenden Weise schreiben Idsst: F{xi,...,Xn)=

f ' • • • [ ^ f{tu.--,tn)dtn--'dU J—oo J—oo

,

(rTi, . . . , Xn) € R".

Die Wahrscheinlichkeit dafiir, dass {Xi,..., X„) Werte in einem bestimmten Bereich B des n-dimensionalen Raumes annimmt, ist, falls das Integral existiert, gegeben durch

F((xi,...,x„)€B)=y.--y/(ii,...,t„)d(*i,...,t„).

Bemerkungen: 1. Ist {ii,...,ik} eine nichtleere Teilmenge von {1,...,n} sowie {jfi,... ,jn-k} ihr Komplement, so erhalt man die Verteilungsfunktion G : R* -> [0,1] der A;-dimensionalen Zufallsvariablen [Xii,. ..,XiJ gemafi G(xi,,...,XiJ=

lim

F{xi,...,Xn),

(xii,.. .,a;ij € R*.

{Xj^,...,Xj^_^)^{0O,...,0O)

(75) Speziell ist fiir 1 < « < n die Verteilungsfunktion Fi von Xi gegeben durch Fi{xi) = 2. Ist {Xi,...,

lim F{xi, ...,Xn),

x, € R.

(76)

Xn) Stetig verteilt mit der Dichte / , so ist OO

/

POO

••• / OO

f(Xi,...,Xn)dXj,,...,dXj^_^,

(Xi,,...,XiJ €R*,

•/-OO

(77) eine Dichte von (Xij,..., Xi^). Speziell ist fiir 1 < i < n eine Dichte fi von Xi gegeben durch OO

/

/-OO

•••/ •OO

f(xi,...,

x„) d x i . . . dxi-idxi+i... dxn,

Xi 6 R (78)

J-OO

Definition 2.68 Bezeichnet Fi die Verteilungsfunktion von Xi, i = l,...,n, so heifien Xi,...,Xn unabhdngig, falls die Verteilungsfunktion F von ( X i , . . . , Xn) durch folgende Produktdarstellung F ( x i , . . . ,x„) = Fi(xi) •... • F„(xn), (xi,... ,x„) € R", gegeben ist. Eine Folge (Xn)nm "^on Zufallsvariablen heifit unabhdngig, wenn fiir jedes n £N die Zufallsvariablen X i , . . . ,X„ unabhdngig sind.

2.5 Mehrdimensionale Zufallsvariablen, Unabhangigkeit

77

Bemerkungen: 1. Sind Xi,...,Xn wenn

diskret verteilt, so sind Xi,...,Xn

P{Xi =Xi,...,Xn

genau dann unabhangig,

= Xn) = P{Xi = a;i) •... • P(X„ = x^)

fiir alle Werte Xi von Xj, z = 1,..., n, gilt. Beispiel 2.69 Seien Xiy...,Xn blen, d.h. Zufallsvariablen mit P{Xi = l)=p,

unabhdngige B{l,p)-verteilte P(Xi = 0)^l-p,

Zufallsvaria-

z = l,...,n.

Dann ist P ( X i = X i , . . . , X „ = a:„)=p*(l-pr-*,

Xi6{0,l},

i=

l,...,n,

wenn unter den Zahlen xi,...,Xn genau k-mal die Zahl 1 und (n — k)-mal die Zahl 0 vorkommt, d.h. wenn X\ + V Xn = k gilt. Da es (]J) Moglichkeiten gibt, den Zufallsvariablen X i , . . . , X„ k-mal den Wert 1 und (n — k)-mal den Wert 0 zuzuordnen, folgt P{X, + --- + Xn = k)=(fjp'{l-pr-', Die Summe Xi-\

A: = 0 , l , . . . , n .

f- X„ ist also eine B(n^p)-verteilte Zufallsvariable.

2. Ist (Xi, ...,Xn) eine n-dimensionale Zufallsvariable und sind / i , . •., /« Dichten der Zufallsvariablen X i , . . . , X„, so sind Xi,...,Xn genau dann unabhangig, wenn die Funktion / mit fixu...,Xn)

= fi(xi)-...-

eine Dichte von (Xi,...,

(a;i,...,x„) € R",

Xn) ist.

Beispiel 2.70 Sind Xi,...,Xn fallsvariablen, so ist / ( ^ i . • • • .^") = (

fn{xn),

2

unabhdngige identisch N{fj,,a'^)-verteilte Zu-

^

• e-=?-. 1 - ^ 0 bleibt der auftretende Pfad im s-Streifen, der bei n{s,e') beginnt".

\nH

H

" . .'

o ^ o°

*%^^^ooV>.28^!>:5ic?oo;.Vooo

\l

y

NiN-

-D- .•{M-i+l) .•{N-i+l)

K.lK. JLAJL.

p'-{l-

1(1-

{N-My(N-M{N-i)iN-i

^

(N-M-n+i+l) ..{N-n+l)

) . (1-f Hi-^•••(1-^)

...•(1-^-^^^) 3^)-.. R gegeben. Die Schdtzerfolge Ti,T2,... heifit konsistent fiir r : 6 -> R, falls fiir jedes e > 0 und jedes 9 £ Q gilt: \imPei\Tn{X,,...,Xn)-T{9)\>e)=0. n-¥oo

1st eine Folge erwartungstreuer Schatzer gegeben, so ist bereits die im folgenden Satz angegebene Bedingung hinreichend fiir die Konsistenz. Satz 3.10 /si Ti,T2,... eine Folge von erwartungstreuen Schdtzern fiir r : 0 —>• R und gilt fiir jedes d e Q lim

Vare{Tn{Xu-..,Xn))=0,

n-¥oo

SO ist die Folge Ti, T2,... konsistent fiir r. Beweis: T„ ist erwartungstreu fiir r, also gilt Ee{Tn{Xu.-.,Xn))=T(e),

0ee.

Nach der Tschebyscheffschen Ungleichung 2.51 erhalten wir daher fiir € > 0: P,(|T„(Xi, ...,Xn)-

T{e)\ >e)< i v a r , ( T „ ( X i , . . . , X„)) —^ 0. £^

n—¥oo

Bemerkung: Die Giite eines Schatzers T„ lasst sich anhand der Erwartungswerte der quadratischen Abweichungen vom zu schatzenden Wert T(9) beurteilen. Fiir die Schatzvariable T„ erhalt man Ee{[Tn-T{e)f) = Ee{[Tr. - EsiT^) + Ee{Tn) - T(e)Y) = Ee{[Tn - Ee(Tn)f + 2[T„ - E,(T„)] • [£?,(T0 - r ^ ] + [£;,(r„) - T(0)f) = Ee([Tn - Ee{Tn)f) + [Ee{Tn) - T(e)f = Var,(r„) + [^,(T„) - T(e)]\ wobei das vorletzte Gleichheitszeichen wegen Ee(Tn - EeiTn)) = 0 steht. Die Differenz £^^(T„) - T{d) heifit Bias oder Verzerrung des Schatzers. Fiir den mittleren quadratischen Fehler des Schatzers Tn gilt also die Gleichung EoilTn - T(0)f) = [Ee(Tn) - r(d)f -f- Var,(T„).

(95)

3.2 Schatzverfahren und ihre Eigenschaften

115

Er setzt sich aus dem Quadrat des Bias und der Varianz des Schatzers zusammen. Man erkennt aus dieser Beziehung, dass erwartungstreue Schatzer mit kleiner Varianz nach obigem Kriterium besonders "gute" Schatzer sind. Aus der Gleichung (95) folgt unmittelbar, dass die Bedingung lim EedTn - T(e)f) = 0, n—^oo

mit lim Ee{Tn) = 7(9) und n—voo

lim Var R, falls fur jedes 6 eQ gilt: \imEg{Tn{X,,...,Xn))=T{9). n-^oo

Satz 3.12 Ist die Schdtzerfolge Ti,T2,... asymptotisch erwartungstreu und geniigt sie der Bedingung lim Var0(Tn{Xu...,Xn)) = O, n->oo

fiir jedes 0 E Q, gilt also \imEe(lTn-r{e)f)=0, n->oo

SO ist die Folge Ti,T2,... konsistent fiir T. Beweis: Dem folgenden Beweis liegen die gleichen Uberlegungen zugrunde wie der Tschebyscheffschen Ungleichung (siehe Satz 2.51). Fiir e > 0 erhalt man EeilTn-rie)]^)

=

H Pe{[Tn - mf Jo

>

J

> =

> x) dx

P0{lTn-T{e)]'>x)dx

PoilTn-T{0)f>e')-e' Pem-Tie)\>e)-e\

so dass sich unter der angegebenen Voraussetzung die Konsistenz der Schatzerfolge unmittelbar ergibt. Beispiel 3.13 Betrachten wir nochmals den in Beispiel 3.7 angegebenen Schatzer Tn(Xi, . . .,Xn) = (X(n)) , der fiir das Schdtzen des Quadrates des Erwartungswertes der unabhdngigen, identisch B{1,9)-verteilten Zufallsvariablen Xi,...,Xn nicht erwartungstreu ist. Als Bias erhalten wir

116

3 Schliefiende Statistik

Der Schdtzer hat also einen positiven Bias, d.h. es werden sich "im Mittel" zu grofie Schdtzwerte einstellen. Offensichtlich ist die Schdtzerfolge aber asymptotisch erwartungstreu. Da man noch zeigen kann, dass lim Vare{(X^n)f) = 0, n-¥oo

fiir jedes B € O gilt, folgt die Konsistenz der Folge. Beispiel 3.14 Unter den Voraussetzungen von Satz 3.5 ist 1 " — , Tn{Xi, . . . , Xn) = - 2_^(-^i ~ ^(n))' 1=1

ein Schdtzer fiir T(6) = Vare{X) mit negativem Bias. Denn wegen Tn\Xi, . . . , Xn) — n ergibt sich nach Satz 3.5 (ii) E,{T„) - T{0) = ^

n

L{e;xi,...,Xn)

fur alle

0ee

heifit Maximum-Likelihood-Schdtzwert fiir den Parameter 0 zur Realisierung {x\,...,Xn).

3.3 Die Maximum-Likelihood-Methode

119

Ein Schatzverfahren T„ : R" -> M, das fiir alle Realisierungen (xi,... ,x„) 6 X", zu denen Maximum-Likelihood-Schatzwerte 9{xi,... ,a;„) existieren, diese als Schatzwerte T„(a:i,..., Xn) liefert, so dass also Tn(Xi,...,Xn)

=9(xi,...,Xn)

gilt, heifit Maximum-Likelihood-Schatzer. Bei der Bestimmung von Maximum-Likelihood-Schatzern wird man daher so vorgehen, dass man die Maximalstelien der Likelihood-Funktionen L(.; Xi,... ,x„), (xi,...,Xn) 6 X", bestimmt, um so zu einer Formel Tn{xi,. ..,Xn) zu gelangen, die die Maximum-Likelihood-Schatzwerte in Abhangigkeit von den Realisierungen {xi,.. .,Xn) angibt. Die folgenden Beispiele zeigen, dass es dabei von Vorteil sein kann, nicht die Likelihood-Funktion L( . ; x i , . . . ,a;„) selbst zu betrachten, sondern den natiirlichen Logarithmus lnL( .; Xi,... ,a;„) dieser Funktion. Beide Funktionen besitzen die gleichen Maximalstelien. Hinweis: Im Beispiel 3.16 erhalt man fiir die Realisierungen A; = 0 und k = n die Likelihood-Funktionen ^ ^ (1 - (9)" bzw. e -> ^", die im Parameterintervall 0 = (0,1) kein Maximum annehmen. Es existieren also keine Maximum-Likelihood-Schatzwerte zu den Realisierungen A; = 0 und k = n. Die gefundene Formel | liefert jedoch fiir A; = 0 und k = n die durchaus plausiblen Schatzwerte ^ = 0 bzw. ^ = 1, die allerdings nicht mehr zum eingangs festgelegten Parameterintervall 6 = (0,1) gehoren. Trotzdem ist die relative Haufigkeit im Sinne unserer Definition ein Maximum-Likelihood-Schatzer. Beispiel 3.17 X sei Poisson-verteilt mit Parameter 9 > 0. Als Likelihood-Funktion zu {xi,...,Xn) e (NU {O})"* erhalt man 1

L{9;xi,...,Xn) Xil'

...-Xn'.

Wegen \nL{9;xi,..

.,a;„) = —n9 - ln(a;i! •... -x^!) + (xi H

|-x„) -In^

ergibt sich —— = - n + = 0 fur 9 = d9 9 n Da fiir dieses 9 tatsdchlich ein Maximum vorliegt, erhalten unr 1 " ^(Xi,...,X„) = - V ' x i , also X{n) als Maximum-Likelihood-Schdtzvariable fiir 9.

.

120

3 Schliefiende Statistik

Beispiel 3.18 X sei R(0,$)-verteilt mit Parameter 6 > 0. -4/5 fiir ( x i , . . . , X n ) € (0, oo)" ergibt sich:

L{0]Xi,...,Xn)

=

/

( J ) , falls




Ui_a/2 • V — + — ' Vm n beobachtet, wird HQ verworfen; sonst wird gegen HQ nichts eingewendet Bei den beiden eben betrachteten Verfahren erweist es sich oft als Nachteil, dass sie nur anwendbar sind, wenn ganz prazise Vorstellungen iiber die Grofie der Varianzen vorliegen. Dies ist in der Praxis selten der Fall, so dass es im Falle des Gaufi-Tests naheliegt, die Varianz a^ mit dem erwartungstreuen Schatzer 5? s zu schatzen. Diese Idee liegt dem folgenden Verfahren zugrunde: Test 3.35 (t-Test): 1. Xi,...,Xn bekannt.

seien unabhdngig identisch N(fi,a^)-verteilt;

fx und cp- seien un-

2. Nullhypothese HQ : ft = ^ . 3.

Testgrofie: T(Xu...,Xn)

= y/^

Falls HQ zutrifft, ist die Testgrofie nach Satz 4- Kritischer

X{n) - Mo

(107)

2.77tn-i-verteilt.

Bereich: K = {(Xi, ...,Xn)eW:

\T(Xu • . • , a;„)| > ^ n - l ; l - a / 2 } '

f{u)

in-l;a/2

— "*n-l;l-a/2

Dichte von T, falls HQ zutrifft (tn-i- Verteilung)

0.0

*n-l;l-a/2

U

3.5 Tests bei Normalverteilungsannahmen

137

5. Entscheidungsregel: Werden x und s — \/s^ beobachtet, so dass F ~ m > tn-l;l-a/2 S

gilt, wird HQ verworfen; sonst wird gegen HQ nichts eingewendet. Wie beim Gaufi-Test gibt es auch beim t-Test ein entsprechendes Zweistichprobenverfahren, mit dem gepriift werden kann, ob bei der Beschreibung zweier Messreihen die Annahme gleicher Erwartungswerte haltbar ist. Bei der Begrundung des Verfahrens ist es eine wesentliche Voraussetzung, die Gleichheit der Varianzen anzunehmen. Es kann daher nur dann sinnvoU angewendet werden, wenn nichts gegen diese Gleichheitsannahme spricht. Wir werden auf dieses Problem zuriickkommen, wenn wir mit dem F-Test ein Verfahren zur Priifung der Hypothese gleicher Varianzen kennenlernen werden. Test 3.36 (Zweistichproben-t-Test): 1. Die Zufallsvariablen X i , . . . , Xm, F i , . . . , Kn seien unabhdngig, X i , . . . , X^ identisch N{fj,i,a^)-verteilt, Yi,...,Yn identisch N{fjL2,cr^)-verteilt. /zi, /Z2 und o^ seien unbekannt. 2. Nullhypothese: ifo : A*i = A*23. Testgrofie: T(Y

Y

V

y._

Jm-n-{m

^

+ n-2)

" +"

^(n) - X(^)

\/('n-l)5?„) + (n-l)5?„) (108)

mit ^

m

^

n

Falls HQ zutrifft, ist die Testgrofie tTO+„_2-i'erfei/i. 4- Kritischer Bereich: K = { ( X i , . . . , X^, 2/1, . . . , yn) e E"'^" : \T{xi,

. . . , Xn^, 2/1, . . . , y„)| > W n - 2 ; l - a / 2 } -

5. Entscheidungsregel: Wird (xi,.. .,Xm,yi,- • • ,yn) beobachtet, so dass \T{Xi, ...,

Xm, y i , • • • , yn)| > W n - 2 ; l - a / 2

gilt, wird HQ verworfen; sonst wird gegen HQ nichts eingewendet.

138

3 Schliefiende Statistik

Beweis: Wir zeigen, dass die Testgrofie i„i+n-2-verteilt ist, falls HQ zutrifFt. Die Zufallsvariablen

,...,

,

,...,

a a a a sind nach der Verteilungsannahme unabhangig und A'^(0, l)-verteilt. Also ist nach Folgerung 1 aus Satz 2.75 die Zufallsvariable I ^Yjn^

a

^2 _ 1 Y^Xj- Hi m 4-i o

t=i

1=1

die bei Giiltigkeit der Nullhypothese HQ : fii = ^2 gleich a ist, normalverteilt mit Erwartungswert 0 und Varianz 1 1 1 1 n--x + m - - ^ = - + — n^ m^ n m Daraus folgt, dass die Zufallsvariable _

m+n m-n

I m-n m-n F(„) - X(m) y m-{-n

N{0, l)-verteilt ist. Nach Satz 2.77 ist ^ - ^ f ^ ) eine Xm-i~verteilte Zufallsvariable und entsprechend ist ^S^n) ^^^^ Xn-i~verteilte Zufallsvariable. Aus Bemerkung 4 zu Definition 2.68 kann man schliefien, dass beide unabhangig sind. Also ist ihre Summe

^,_(m-l)g(^„) + («-l)5f„, verteilt wie eine Summe von (m—l) + (n —1) Quadraten von unabhangigen, A'^(0,1)verteilten Zufallsvariablen und damit Xm+n-2~'^^^^^^^^- ^^^ kann man wie im Beweis zu Satz 2.77 zeigen, dass Z und Z' unabhangig sind. Also ist der Quotient 7

yJZ'lin + m - 2)

T ( X i , . . . , Xm, Vi,..., F„)

eine tTO+n-2-verteilte Zufallsvariable. Damit ist die obige Verteilungsaussage iiber die Testgrofie begriindet. Beispiel 3.37 In einer landwirtschaftlichen Versuchsanstalt erhielten 9 von 22 Masttieren (Gruppe I) Griinfutterzumischung, wdhrend die iibrigen 13 Tiere (Gruppe II) ausschliefilich mit dem proteinhaltigen Mastfutter gefiittert wurden. Nach einer gewissen Zeit wurde die Gewichtszunahme in kg bei den Tieren festgestellt: Gruppe I 7.0 11.8 10.1 8.5 10.7 13.2 9.4 7.9 11.1 Gruppe II 13.4 14.6 10.4 11.9 12.7 16.1 10.7 8.3 13.2 10.3 11.3 12.9 9.7

3.5 Tests bei Normalverteilungsannahmen Fiihren beide Fiitterungen zu gleichen

139

Mastergebnissen?

Aus den Messreihen errechnet man die arithmetischen Mittel x = 9.97 und y — 11.96, die empirischen Varianzen si = 3.90 und Sy = 4.57 sowie 2.21 als Wert der Testgrofie. Wird die Nullhypothese gleicher Erwartungswerte auf dem Niveau a = 0.05 gepriift, so fiihrt dieser Wert zu einer Ablehnung, da er das Quantil t20;0.975 = 2.09 iibersteigt. In der Praxis hat man es haufig mit Problemstellungen zu tun, die als Vermutungen iiber durchschnittliche Grofien (Langen, Gewichte, Temperaturen o.a.) formuliert werden. Da Erwartungswerte die Bedeutung von Durchschnittswerten haben, entsprechen NuUhypothesen der Form HQ. fi = fiQ und HQ: fii = fj.2 solchen Vermutungen. Es treten jedoch auch Fragestellungen auf, bei denen es um Streuungen von Messwerten geht. Beispiele dafiir sind die Beurteilung der Qualitat von Prazisionsinstrumenten oder die Auswahl unter verschiedenen Messverfahren. Werden Messungen (z.B. einer physikalischen Grofie) nach einem bestimmten Messverfahren von verschiedenen Personen, zu unterschiedlichen Tageszeiten und unter ungleichen aufieren Bedingungen (wie Luftfeuchtigkeit oder Temperatur) vorgenommen, so fiihrt dies in der Regel zu voneinander abweichenden Messergebnissen. Durch die Wahl einer geeigneten Messskala kann man zwar in vielen Fallen erreichen, dass der Mittelwert vieler Messungen dem zu messenden Wert entspricht. Streuen die Messergebnisse jedoch zu stark, so besitzt die Einzelmessung wenig Aussagekraft. Bei der Auswahl unter mehreren Messverfahren wird man daher insbesondere die Streuung der Messwerte untersuchen. Dabei wird man auf NuUhypothesen der Form HQ: (J^ = (JQ oder HQ: a\ = al gefiihrt. T e s t 3.38

(x^-Streuungstest)

1. X i , . . . ,Xn seien unabhdngig identisch N{fj,,a'^)-verteilt; bekannt.

fi und o^ seien un-

^ 2 2. Nullhypothese HQ : a^2 =_ a^

3.

Testgrofie: T{Xi, . . . , Xn) —

2

• ^{n)-

Falls HQ zutrifft, ist die Testgrofie nach Satz 2.77

m a/2.

/

^

xLl;a/2

^ \ .

1-a

(109)

')^_Y-verteilt.

Dichte von T, falls HQ zutrifft (xl-i-Verteilung)

^\^^^

a/2 v2 A.n-l;l-a/2

t

140

3 Schliefiende Statistik

4. Kritischer K

=

Bereich: {(xi,...,a:„)€R": T{Xi,.

..,Xn)
X n - l ; l - a / 2 } -

5. Entscheidungsregel: Wird s^ beobachtet, so dass ^ • s^ kleiner als Xn-ia/2 oder grofier X^_i;i_a/2 al

a^>al o^ Xl-l;l-c T < xLl;«

F-Test T gemafi (110)

c^l < o\ al>G\

a\ > af ol < (7\

T < i^m-l,n-l;a T >

tm+n-2,l-a

Fm^i^n-l;l-a

Beispiel 3.43 Ein Autofahrer hat sich auf Anraten eines Bekannten in seinen Wagen, mit dem er bisher vom Volltanken bis zum Aufleuchten der Reserveanzeige durchschnittlich 450 km fahren konnte, einen neuen Vergaser einbauen lassen, was angeblich zu einer Treibstofferspamis fuhren sollte. Er traut diesen Versprechungen nicht und will anhand der Beobachtung von Fahrleistungen zwischen Volltanken und Aufleuchten der Reserveanzeige die Vermutung

144

3 Schliefiende Statistik

"Treibstoffverbrauch nach Einbau des neuen Vergasers nicht geringer geworden" iiberpriifen. Er ermittelt in den ndchsten Wochen die folgenden Fahrleistungen (in km): 474, 491, 458, 481, 446, 424, 488, 445, 412, 478. Unter der Annahme, dass diese Werte eine Realisierung von unabhdngigen N{fi, a"^)verteilten Zufallsvariablen sind, priift er daher mit dem t-Test zum Niveau a = 0.05 die Nullhypothese HQ : n < fio gegen die Alternativhypothese Hi : fi > JIQ, WObei HQ = 450 zu setzen ist. Aus den Beobachtungsdaten (xi,... ,a;io) errechnet er X = 459.7 und s = 27.35; einer Tafel der t-Verteilung entnimmt er das 0.95-Quantil *9;0.95 = 1-83. Also gilt

T(x.

..„) = ^ ^ l » i f l : ^ = 1.12 < 1.83,

d.h. gegen HQ ist auf dem 5%-Niveau nichts einzuwenden. Fiir den Autofahrer bedeutet dies, dass seine Skepsis gegeniiber dem neuen Vergaser durch die Beobachtungsergebnisse nicht widerlegt wird. Hdtte er die Uberpriifung auf dem 10%-Niveau durchgefiihrt, so ware er wegen ^950.90 = 1-38 zum gleichen Ergebnis gekommen. Auf dem 20%-Niveau hingegen ware er wegen tg.Q_so = 0.88 zur Verwerfung der Nullhypothese gelangt. Er hdtte also mit einem Test zum Niveau 0.20 seine Skepsis gegeniiber dem neuen Vergaser zerstreut. Nach reiflicher Uberlegung hdtte er aber enttduscht festgestellt, dass dies mit einem Verfahren geschehen ware, zu dem er wenig Vertrauen haben kann, da es ja in bis zu 20% der Fdlle, in denen die Nullhypothese zutreffend ist, zur unberechtigten Ablehnung der Nullhypothese fiihrt. Im Beispiel des Autofahrers wurde die Problematik der Wahl des Signifikanz-Niveaus bereits angedeutet. Anhaltspunkte fiir eine geeignete Wahl liefert die Betrachtung der Wahrscheinlichkeit fiir die sogenannten Fehler 1. und 2. Art Bei der Anwendung der angegebenen Entscheidungsregeln konnen vier verschiedene Situationen auftreten, die in folgender Tabelle angegeben sind: Ho wird abgelehnt Ho wird nicht abgelehnt

Ho ist zutreffend Hi ist zutreffend | Fehler 1. Art richtige Entscheidung richtige Entscheidung Fehler 2. Art

Fehler 1. Art: HQ wird abgelehnt, obwohl HQ zutrifft. Fehler 2. Art: HQ wird nicht abgelehnt, obwohl HQ nicht zutrifft. Bei einem Signifikanztest zum Niveau a wird zunachst darauf geachtet, dass der kritische Bereich K so gewahlt wird, dass die Wahrscheinlichkeiten fiir einen Fehler 1. Art unter der Schranke a liegen. Diese Bedingung lasst natiirlich noch viel Willkiir bei der Wahl von K zu. Um zu sinnvoUen Ablehnungsbereichen zu kommen, sind wir bei den vorgestellten Testverfahren zunachst von einer uns sinnvoU erscheinenden Testgrofie T ausgegangen und haben den Bereich K so bestimmt, dass er nur solche Beobachtungsergebnisse enthielt, fur die die Testgrofie Werte lieferte, die in einem gewissen Widerspruch zur Nullhypothese HQ standen. Dass die Wahrscheinlichkeiten fiir einen Fehler 1. Art unter der Schranke a lagen, konnte aufgrund der Kenntnis der Verteilung der Testgrofie (unter Ho) sichergestellt werden. "Gute" Testverfahren

3.5 Tests bei Normalverteilungsannahmen

145

sind bei dieser Vorgehensweise deshalb entstanden, well die Testgrofie verniinftig, d.h. dem Testproblem angemessen, gewahlt war. Will man jedoch, wie es der eigentliche Gegenstand der Mathematischen Statistik ist, moglichst gute Entscheidungsregeln angeben, wird man bei der Suche nach "optimalen" kritischen Bereichen die Wahrscheinlichkeiten fiir Fehler 2. Art betrachten miissen. Von welcher Art die Uberlegungen sind, die dann angestellt werden miissen, soil im Folgenden angedeutet werden. Wir betrachten den Einstichprobenfall, bei dem eine Realisierung der unabhangigen, identisch verteilten Zufallsvariablen X i , . . . , X„ zugrundegelegt wird, geben uns die Schranke a vor und achten bei der Wahl des kritischen Bereichs darauf, dass die Wahrscheinlichkeiten fiir einen Fehler 1. Art unter der Schranke a liegen, dass also Pe({Xi,...,Xn)eK) [0,1) mit

m

=

Pe({Xi,...,Xn)iK)

heifit Operationscharakteristik oder OC-Funktion des Tests mit dem kritischen Bereich K. Die Funktion p : G -^ [0,1] mit 9(6) = 1 - ^{9) heifit Gutefunktion. Beispiel 3.44 Die Einstellung einer Flaschenabfullmaschine wird regelmdfiig iiberpriift. Die Fiillung muss im Mittel mindestens 1000 crr^ betragen. Anhand der Messung des Inhalts von n = 50 zufallig herausgegriffenen Flaschen ist zu entscheiden, ob die Maschine neu eingestellt werden muss. Friihere Beobachtungen lassen die Annahme zu, dass die Zufallsvariablen X i , . . . , X^o, die die Messergebnisse beschreiben, unabhdngige N{0,2b)-verteilte Zufallsvariablen sind (0 G M, unbekannt). Sei OQ = 1000, Qo = {e eR : e < $0} undOi = R\Go. Es soil also die Nullhypothese HoiSe

Go,

d.h.

0eo

bei der Gegenhypothese

HiieeOu

iiberpriift werden. Auf eine Neueinstellung der Abfiillanlage wird nur dann verzichtet, wenn HQ abzulehnen ist. Wir wdhlen a = 0.05, so dass wir sicher sind, dass die Wahrscheinlichkeit, eine notige Neueinstellung der Abfiillanlage nicht vorzunehmen, hochstens a = 0.05 betrdgt. Als Testgrofie wdhlen wir gemdfi (105) T{Xi,...,Xso)

= VbO-^^'\~^'

= N/2. (X(50) - ^ 0 ) .

146

3 Schliefiende Statistik

Es gilt P0{V2 (X(50) - ^o) >t)< 0.05 fiir die

0 6 Bo,

wenn diese Ungleichung fiir 6 = 6Q gilt, was fiir t = Uo.95 zutrifft. Wir werden HQ ablehnen, falls ein arithmetisches Mittel x beobachtet wird, fiir das 1 1.645 x> -j=- U0.95 + 1000 = —7=- + 1000 1001.16 gilt

foA^)

1 - ^(^2) = 0.03

998

999

foA^)

1000 92

1001 I 1002 1001.16

1003 X

1001 I 1002 = 6>i 1001.16

1003 X

p(9{) = 0.59

998

999

1000 = 60

In den obigen Abbildungen stellt der Fldcheninhalt des schraffierten Gebietes jeweils die Wahrscheinlichkeit fiir eine falsche Entscheidung dar; in der oberen Abbildung die Wahrscheinlichkeit PeAX^n) > 1001.16) fiir ein $2 < 9Q, in der unteren P^j(X(„) < 1001.16) fiir ein 9i > OQ. Die OC-Funktion /3{9) = PeiX^so) < 1001.16) = $(N/2 (1001.16 - 9)),

-00 < 0 < 00,

hat die Werte 9

m

998 999 1000 1001 1002 1003 1004 1.00 1.00 0.95 0.59 0.12 0.01 0.00

3.5 Tests bei Normalverteilungsannahmen

147

Zum Beispiel wird bei einer mittleren Einfullmenge von 1002 err? mit Wahrscheinlichkeit 0.12 eine unnotige Neueinstellung veranlasst Neben der eben behandelten einseitigen Fragestellung behandeln wir noch das zweiseitige Problem. Die Nullhypothese HQ : 6 = 9Q wird zugunsten von Hi : 0 ^ 0Q abgelehnt, falls ein Mittelwert x mit V2\x - 1000| > wo.975, d.h.

\x - 1000| > 1.386,

beobachtet wird. Die OC-Funktion ist in diesem Fall gegeben durch P{e) = P9{\X(5Q) - lOOOl < 1.386) = $(^/2 (1001.386 - 6)) - $(\/2(998.614 - 9)). Sie hat die Werte: 0

m

997 998 999 1000 1001 1002 1003 0.01 0.19 0.71 0.95 0.71 0.19 0.01

Bei einer mittleren Abfiillmenge von 1002 cm^ wird die falsche Einstellung der Maschine mit Wahrscheinlichkeit 0.19 nicht "entdeckt". Erst bei einer Abweichung von 2.6 cm^ ware die Wahrscheinlichkeit, die Abweichung nicht zu entdecken, ebenfalls 0.05.

148

3 Schliefiende Statistik

Wir wollen nicht weiter auf OC-Funktionen von Tests eingehen, vermerken jedoch, dass die OC-Funktion eines Tests vollstandigen Aufschluss iiber die Wahrscheinlichkeiten fiir die moglichen Fehlentscheidungen bei Anwendung des entsprechenden Tests gibt. Wegen dieser Eigenschaft werden OC-Funktionen bzw. Giitefunktionen in der Mathematischen Statistik dazu benutzt, Tests umfassender zu beurteilen und geeignete Optimalitatskriterien zu formulieren. Bemerkung: Zwischen Tests und Konfidenzschatzverfahren besteht ein Zusammenhang, den wir am Beispiel des Gaufi-Tests und des in (98) angegebenen Konfidenzintervalls erlautern wollen. Man erkennt, dass bei Vorliegen einer Beobachtung {xi,... ,Xn) die Hypothese /x = A^o beim GauB-Test auf dem Niveau a genau dann verworfen wird, wenn das zu dieser Beobachtung (xi,...,a;„) ermittelte konkrete Schatzintervall I{xi,..., Xn) zum Konfidenzniveau 1 — a den Wert fiQ nicht enthalt.

3.6

Der x^~Anpassungstest und Kontingenztafeln

Im letzten Abschnitt wurden Testverfahren behandelt, die anwendbar sind, wenn die Normalverteilungsannahme gerechtfertigt erscheint. Die Unsicherheit bezog sich daher nur auf die beiden Parameter /j, und a^. In diesem Abschnitt werden wir zunachst einen Test vorstellen, der bei beliebigen Verteilungsannahmen anwendbar ist, und uns anschliefiend dem Testen der Unabhangigkeitshypothese zuwenden.

X^-Anpassungstest Betrachten wir wie im Abschnitt 2.8 beim KolmogorofF-Smirnov-Test das Problem, anhand von Beobachtungen zu iiberpriifen, ob eine bestimmte Verteilungsfunktion eine angemessene Beschreibung fiir das Zustandekommen einer Messreihe Xi,... ,Xn liefert. Es wird angenommen, dass die Zufallsvariablen X i , . . . , X„ unabhangig und identisch (wie X) mit der Verteilungsfunktion F verteilt sind. Fiir eine bestimmte, gegebene Verteilungsfunktion FQ soil iiberpriift werden, oh F = FQ gilt. Um zu einem Testverfahren zu kommen, zerlegen wir den Wertebereich R der Zufallsvariablen X in r disjunkte Telle (r > 2): R=

IiUhU-'-Ulr.

Die Teilmengen / i , / 2 , . . . , /r konnen z.B. Intervalle (bzw. Halbachsen) sein, so dass diese Zerlegung durch Zahlen ai < 02 < • • < a^-i und die Festlegung /i = (-00, ai],

/2 = (ai,a2],...,/r = (0^-1,00)

bestimmt ist. Geht es um eine diskret verteilte Zufallsvariable, so kann man sich darauf beschranken, ihren Wertevorrat in r disjunkte Teilmengen / i , / 2 , . . . , / r zu zerlegen. Die Wahrscheinlichkeiten

Pi = P(X e /i),

P2 = P(X G 72), ... ,Pr = P{X e ir),

3.6 Der x^-Anpassungstest und Kontingenztafeln

149

bilden die Grundlage fiir den folgenden Test. 1st X mit der Verteilungsfunktion F verteilt, so gilt fiir diese Wahrscheinlichkeiten im Falle der oben angegebenen Intervallzerlegung Pi = F(ai),

P2 = F{a2) - F(ai), ... ,p. = 1 - F(a,_i).

Das Problem der Uberpriifung, ob F = FQ fiir eine bestimmte Verteilungsfunktion Fo gilt, reduzieren wir auf die Fragestellung, ob (PuP2,'

•' ,Pr) = (PUPI,

• • • ,Pr)

gilt, wobei Pi = Foiai),

PI = Fo{a2) - Fo(ai), ... ,p° = 1 - Fo(a.-i)

zu setzen ist bzw. pj die Wahrscheinlichkeit P{X e Ij) unter der Annahme F = FQ bezeichnet, j = 1,.. .,r.Es soil also die NuUhypothese Ho:{pu.^.,Pr)

=

(p'i,...,p'r)

uberpriift werden, wobei ohne Einschrankung der Allgemeinheit p? > 0 , . . . , pj > 0 angenommen werden kann. Diese Problemstellung fiihrt in natiirlicher Weise auf eine Verallgemeinerung der Binomialverteilung.

150

3 Schliefiende Statistik

Definition 3.45 (Multinomial-Verteilung) Seien n £ N sowie p = (pi,... ,pr) "^^^ pi > 0,... ,pr > 0 und pi -\- • • • -\-Pr = 1Dann heifit die r-dimensionale Zufallsvariable Y = (Yi,... ,Yr) mit Werten in (N U {0})^ multinomialverteilt mit den Parametem n und pi,...,pr (oder kurz M{n,p)-verteilt), falls gilt

( 0

sonst.

Die Komponente Yj von Y = {Yi,... ,Yr) beschreibt in unserem Zusammenhang die Anzahl jener unter den Zufallsvariablen Xi,..., X„, die Werte in /, liefern, d.h. Yj = Anzahl der z G { 1 , . . . , n} mit Xi G Ij, fiir j = 1,... ,r, woraus sich unter den oben gemachten Voraussetzungen iiber die Zufallsvariablen X i , . . . , X„ die in der Definition angegebenen Wahrscheinlichkeiten berechnen lassen. Die Zufallsvariable Yj ist B(n,pj)-verteilt, so dass insbesondere E(Yj) = npj, j = l , . . . , r , gilt. Soil also die Nullhypothese Ho:(Pl,...,Pr)

=

{pl...,p'r)

bei der Alternativhypothese H^:(p,,...,pr)^{p',,...y,) iiberpriift werden, so ist es sinnvoll, eine Testgrofie zu verwenden, die die unter HQ berechneten Erwartungswerte npJ,..., np^ und die Haufigkeiten t/i,..., y^, mit denen die Beobachtungen in den einzelnen Teilmengen / i , . . . ,7^ liegen, miteinander vergleicht. Eine solche Testgrofie, die sich aus mehreren Griinden fiir diese Problemstellung als besonders geeignet erweist, ist die mit Hilfe der sogenannten x^~ Abstandsfunktion definierte Testgrofie Q(n,...,Y.;pl...y.) = ±^^'-f^\ 3=1

(111)

np-j

die zur Abkiirzung mit QiXi,.. .,Yr;p^) bezeichnet wird. Es erscheint sinnvoll, HQ abzulehnen, falls Haufigkeiten yi,...,yr beobachtet werden, fiir die Q{yi,..., yr',P^) "besonders grofi" ausfallt. Um zu definieren was dabei "besonders grofi" bedeuten soil, konnen wir wieder von einer vorgegebenen Zahl a (z.B. a = 0.05) ausgehen, eine (moglichst kleine) Schranke c^ bestimmen, fiir die (bei zutreffender Nullhypothese Ho) Ppo(Q(Fi,...,y;;p«)>0 5 fiir i = 1,. . . , r gilt. Beispiel 3.46 Ein Wiirfel wird 12mal geworfen. Die Zufallsvariable Y = {Yi,.. ..YQ), die die Hdufigkeiten des Auftretens der einzelnen Augenzahlen beschreibt, ist dann M{12, p)-verteilt. Aufgrund der Beobachtungsergebnisse soil die Nullhypothese Ho- (Pi,--.,P6) = (|, •••,!) ("der Wiirfel ist symmetrisch") bei der Gegenhypothese

("der Wiirfel ist unregelmdfiig") iiberpriift werden. Will man eine solche Uberpriifung tatsachlich vornehmen, so wird man sie natiirlich nicht auf der Grundlage von 12 Wiirfen, sondern aufgrund von viel mehr Wiirfen durchfiihren. Trotzdem nehmen wir an, dass nur 12mal gewiirfelt wird, denn fiir mehr als 12 Wiirfe sind die folgenden Rechnungen kaum zu bewaltigen. Als Testgrofie ergibt sich in diesem Falle Q(ri,...,y6;|,..-,|) = l E « - 2 ) ' . Bei der Berechnung der Wahrscheinlichkeiten

ist zunachst zu beachten, dass sich nur Werte q der Form 6

^= iZlfe-2)'

mit 2/i + --- + 2/6 = 12 6

ergeben, und dass sowohl die Summe ^ {yj - 2)^ als auch (unter der Nullhypothese) 3=1

die Wahrscheinlichkeit P{Yi = yi,...,Yr = yr) unabhangig von der Reihenfolge der Zahlen y i , . . . ,2/6 ist. Wir bestimmen daher nacheinander alle moglichen Tupel (yi) • •• 5 ye) mit ?/i > •• • > 2/6 sowie yi + .. . + y6 — 12 und berechnen jeweils

3 Schliefiende Statistik

152

Anzahl a der U m J/1 > • • • > J/6 und ordnungen VI + • • • -1- Wfi = 12 (12)00000 6 (11)10000 30 (10)20000 30 (10)11000 60 1 930000 30 921000 120 60 911100 30 840000 120 1 831000 60 822000 821100 180 30 811110 30 750000 120 741000 120 732000 731100 180 180 722100 721110 120 6 711111 660000 15 120 651000 120 642000 180 641100 60 633000 360 632100 120 631110 60 622200 180 622110 30 621111 60 552000 551100 90 543000 120 360 542100 120 541110 180 533100 180 532200 360 532110 30 531111 120 522210 60 522111 20 444000 180 443100 90 442200 180 442110 15 441111 180 433200 433110 180 360 432210 120 432111 422220 30 422211 60 333300 15 120 333210 20 333111 60 332220 90 332211 322221 30 1 222222

12! yi!-•• -ye!

1 12 66 132 220 660 1320

495 1980 2970 5940 11880

792 3960 7920 15840 23760 47520 95040

924 5544 13860 27720 18480 55440 110880 83160 166320 332640 16632 33264 27720 83160 166320 110880 166320 332640 665280 498960 997920 34650 138600 207900 415800 831600 277200 554400 831600 1663200 1247400 2494800 369600 1108800 2217600 1663200 3326400 4989600 7484400

ii:(^i-2)' 60 49 40 39 33 31 30 28 25 24 23 22 25 21 19 18 17 16 15 24 19 16 15 15 13 12 12 11 10 15 14 13 11 10 10 9 8 7 7 6 12 9 8 7 6 7 6 5 4 4 3 6 4 3 3 2 1 0

Wahrscheinlichkeit unter Ho

^ 0+ 0+ 0+ 0+ 0+ 0+ 0+ 0.0001 0.0001 0.0005 0.0002

0+ 0.0002 0.0004 0.0013 0.0020 0.0026 0.0003

0+ 0.0003 0.0008 0.0023 0.0005 0.0092 0.0061 0.0023 0.0138 0.0046 0.0005 0.0014 0.0015 0.0138 0.0092 0.0092 0.0138 0.0550 0.0092 0.0275 0.0275 0.0003 0.0115 0.0086 0.0344 0.0057 0.0229 0.0458 0.1375 0.0917 0.0172 0.0688 0.0025 0.0611 0.0204 0.0458 0.1375 0.0688 0.0034

1. die Anzahl a{yi,...,y&) der (verschiedenen) Tupel, die durch Umordnung von (2/i,->2/6) entstehen, 2. das 6^^-fache der alien durch Umordnung gewonnenen Tupeln gemeinsamen Wahrscheinlichkeiten, namlich 12! i, und

3.6 Der x^-Anpassungstest und Kontingenztafeln

153

3. den zugehorigen Wert q = ^ - ^{Vj - 2)^ der Testgrofie. 3=1

Dann ist Pf | X^(^ - 2)^ = qj gleich der Summe aller Produkte j=i

12! a(2/i,--,?/6)

yi!

1 2/6!

612

mit i Yl^yj - 2)^ = 9 sowie 2/1 > • • • > yeDie Ergebnisse sind in der Tabelle auf der vorhergehenden Seite angegeben. O"*" steht dort fiir positive Zahlen < 5 • 10"^. Als Werte der Testgrofie ergeben sich nur ganze Zahlen zwischen 0 und 60. Die Verteilung von Q(yi,..., 1^6; | , . . . , | ) unter HQ stellen wir durch ein Histograram dar, indem wir iiber den Intervallen [0,1.5), [1.5,3.5), [3.5,5.5),... usw. Rechtecke errichten, die die Flacheninhalte Ppo(0 X r - l ; l - a i

SO wird Ho abgelehnt; sonst wird gegen HQ nichts eingewendet. Bemerkung 1: Bei der Berechnung des Werts der Testgrofie ist folgende Formel niitzlich: (5(2/i,...,y,;p;,...,p«) = ^ - ^ - n .

(112)

Bemerkung 2: Man beachte, dass bei Anwendung des x^-Anpassungstests als Test fiir das Vorliegen einer Verteilungsfunktion FQ, wie dies oben beschrieben wurde, nicht die NuUhypothese F = FQ uberpriift wird, sondern nur gepriift wird, ob die Verteilungsfunktion F mit der vermuteten Verteilungsfunktion Fo an den Grenzen tti,..., ttr-i der Intervallunterteilung E = (-oo, ai] U (oi, 02] U • • • U (0^-1,00) iibereinstimmt. Man sagt auch, alle Verteilungsfunktionen G mit G{aj) = Fo(aj), j — 1,... ,r - 1, "gehoren" zur NuUhypothese HQ. Anders als der im Abschnitt 2.8 beschriebene Kolmogoroff-Smirnov-Test, der nur unter der Annahme stetiger Verteilungsfunktionen anwendbar ist, kommt dieser Test ohne die Voraussetzung der Stetigkeit aus. Der x^-Anpassungstest lasst sich nicht nur zur Uberpriifung einer bestimmten Verteilungsfunktion Fo, sondern auch zum Priifen eines bestimmten Verteilungstyps verwenden. Ist, wie in den folgenden Beispielen, der Verteilungstyp durch eine "parametrisierte" Klasse von Verteilungen (z.B. FQ^Q G 6) beschrieben, so sind die Werte p^,...,p^ nicht feste Zahlenwerte, sondern sind in Abhangigkeit vom unbekannten Parameter 0 zu sehen: Pi{9),. ..,p^(0). Deshalb kann der Wert der x^~ Abstandsfunktion zunachst nicht berechnet werden. Man hilft sich jedoch auf folgende Weise: Man bestimmt bei vorliegender Messreihe xi,...,Xn mit den Anzahlen 2/1,..., 2/r einen Maximum-Likelihood-Schatzwert 6 = 0{yi,.. .,yr) fiir 0 und ersetzt in der Formel der x^-Abstandsfunktion die vom unbekannten Parameter 0 abhangigen Wahrscheinlichkeiten p^{0),...,Pr{0) durch die Schatzwerte p^(0),.. .,p^{0). Dass dieser "vorgeschaltete" Schatzvorgang nicht ohne Einfiuss auf die Verteilung der x^-Testgrofie ist, leuchtet ein. Man kann unter gewissen, sehr allgemeinen Voraussetzungen jedoch zeigen, dass sich wiederum naherungsweise eine x^-Verteilung ergibt, jedoch mit einer geringeren Zahl von Freiheitsgraden. Wenn mehrere Parameter (z.B. jj, und (j^ bei N{^, a^)-Verteilungen) zu schatzen sind, erhalt man eine Verringerung um die Anzahl k der geschatzten Parameter. Fiir die Entscheidungsregel wird dann das Quantil Xr-jt-ii-a anstelle von Xr-iA-a herangezogen (siehe Witting, Nolle [1970], Seite 89). Es ist zu beachten, dass der Maximum-Likelihood-Schatzer fiir 0, der auf der Basis der urspriinglichen Messreihe x i , . . . ,a:„ bestimmt wird, in der Kegel nicht mit dem Maximum-Likelihood-Schatzer iibereinstimmt, der auf den Anzahlen t/i,..., 2/r

156

3 Schliefiende Statistik

basiert. Ersterer ist mitunter leicht zu berechnen (siehe Beispiele 3.17 - 3.20), und wird deshalb haufig von Anwendern falschlicherweise auch im Zusammenhang mit dem x^-Anpassungstest fiir einen Verteilungstyp verwendet. Dieses Vorgehen kajin zu Testverfahren fiihren, deren Fehlerwahrscheinlichkeit 1. Art das vorgegebene Niveau a iiberschreitet, es sei denn man zieht fiir die Entscheidungsregel das Quantil Xr-i;i-a ^nd uicht X?-jb-i;i-a ^eran (siehe Witting, Nolle [1970], Seite 90). Beispiel 3.48 In Beispiel 2.31 wurde die Anzahl der durch Hufschlag verursachten Todesfalle pro Jahr in preufiischen Kavallerieregimentem betrachtet. Will man die Frage, oh fiir dieses Phdnomen eine der Poisson-Verteilungen mit Parameter 9 > 0 angemessen ist, mit Hilfe des ^-Anpassungstests untersuchen, so bestimmt man aus den Beobachtungsdaten Anzahl der Todesfalle 0 1 2 3 4 beobachtete Haufigkeit 109 65 22 3 1 nach der Maximum-Likelihood-Methode einen Schdtzwert fiir 9. Wdhlt man als Unterteilung des Wertebereichs N U {0} der Poisson-verteilten Zufallsvariablen X die Menge h = {0}, h = {1}, h = {2}, h = {3,4,...}, so ist r = 4, P\{0) = e-' , PI{9) = ^ . e-^ , pl{9) = y ' e'^ und p\(9) = 1 - e-\l

+ ^+ y)

Die zu den Anzahlen yi = 109, y2 = 65,1/3 = 22 und 2/4 = 4 gehorende LikelihoodFunktion ist L(^; 109,65,22,4) =

{e-^''

{0 ' e-'f'- {^ - e-^f"" - {I - e''{I + 9 + ^)Y

Eine numerische Rechnung ergibt, dass das Maximum dieser Funktion bei 9 = 0.61 liegt Daraus ergeben sich die geschdtzten Wahrscheinlichkeiten p\{9) = e-°-^^ = 0.543 , pl(9) = 0.61 • e'^'^' = 0.331 , 1

^

P10) = ^ • 0-612 . g-0.61 ^ Q ;^Qi y^^ pO0^ ^ J _ J2P10)

= 0.024 .

k=0

Da k = 1 ist, weil eine Maximum-Likelihood-Schdtzung benotigt wurde, ist die X4-i-i~^3 748 74 31 9 821 60 25 10 786 51 22 6 720 66 16 5 672 50 15 7 3747 301 109 37

862 916 865 807 744 ! 4194 ;

Hier ist k = 5 und I = A. Wdhlen wir a = 0.1, so finden wir Xi2;0.9 — 18.55. Als Wert der Testgrofie ergibt sich 1440- Die Annahme der Unabhdngigkeit von Alter und Unfallneigung wird auf dem 10%-Niveau nicht verworfen. Beispiel 3.51 Bei einer Untersuchung iiber Schddlingsbefall von Apfelbdumen wurden drei verschiedene Apfelsorten iiberpruft. Es wurden insgesamt n = 100 Bdume einer Obstplantage auf Schddlingsbefall hin untersucht. Es ergab sich die folgende Kontingenztafel:

Schddlingsbefall Apfelsorte gering mittel stark A 22 6 2 30 B 30 11 12 7 40 17 12 11 c 50 30 20 100 In diesem Fall ist k = I = 3. Wdhlen wir a = 0.1, so finden wir X4;o.9 = ^-^S. Als Wert der Testgrofie ergibt sich 10.74- Die Annahme der Unabhdngigkeit des Schddlingsbefalls von der Apfelsorte ist also auf dem 10%-Niveau zu verwerfen. Im Spezialfall k — l = 2 (Vierfeldertafel) erhalt man als Entscheidungsregel: HQ ablehnen, falls (nil • yt22 - yti2 • y^2i)^ 2 ^1. • ^2. • n.i • n.2 ^'^~"

3.6 Der x^-Anpassungstest und Kontingenztafeln

161

Wegen XI,I-Q = (^1-0/2)^, wobei Wi_a/2 das (l-a/2)-Quantil der N{0,1)-Verteilung bezeichnet, ergibt sich: HQ ablehnen, falls \/n •

|nii -7222 - n i 2 -7121!

> Wl-a/2

Exakter Test von Fisher Im Falle einer Vierfeldertafel wird mitunter zur Uberpriifung der Unabhangigkeitsannahme der exakte Test von Fisher angewandt. Dies geschieht insbesondere bei kleinen Stichprobenumfangen, weil sich die Verteilung der Testgrofie bei diesem Test ohne allzu grofien Aufwand berechnen lasst und daher die Wahrscheinlichkeit dafiir, dass die Testgrofie Werte im Ablehnungsbereich liefert, nicht wie beim x^-Verfahren nur naherungsweise, sondern genau angegeben werden kann. Wir erlautern diesen Test an einem Beispiel. Beispiel 3.52 Besteht ein Zusammenhang zwischen Augenfarbe und Haarfarbe? Beobachtungen an 39 Schiilern einer Klasse ergaben die folgende Vierfeldertafel: Augenfarbe Haarfarbe blau nicht blau 1 hell 9 5 14 dunkel 6 19 25 15 24 39 Wdhrend in der ganzen Klasse knapp 40% der Schiller blaue Augen haben, betragt der Anteil der Blaudugigen unter denen mit hellen Haaren iiber 60%. Diese Uberlegung deutet auf eine Abhdngigkeit hin. Um eine quantitative Aussage machen zu konnen, berechnen wir die Wahrscheinlichkeit dafiir, dass ein solches (oder noch unausgewogeneres) Ergebnis zustande kommt, wenn Augenfarbe und Haarfarbe durch unabhangige Zufallsvariablen beschrieben werden. Unter der Unabhdngigkeitsannahme ist folgende Deutung moglich: In der Klasse mit 39 Schiilern befinden sich 15 blaudugige; I4 Schiiler, die mit hellen Haaren, werden "ohne Zuriicklegen" herausgegriffen. Dann ist die Anzahl der Schiiler in der Stichprobe, die blaue Augen haben, durch eine i/(14,39, \b)-verteilte Zufallsvariable X beschrieben, und es gilt deshalb P{X = k)

a5\/ 24

A; = 0,l,...,14.

inf{^ : P(X < t) > ^} und sei /ii_o/2 das (1 - a/2)-Quantil der Sei hQ / 2 Verteilung von X, so gilt P(Ki2 1 - a.

Wir lehnen daher die Unabhdngigkeitsannahme ab, falls weniger als h*.^ oder mehr als /ii_a/2 Schiiler mit blauen Augen unter denen mit hellen Haaren sind. Im Falle

3 Schliefiende Statistik

162 a = 0.05 erhdlt man in unserem Beispiel wegen 7

0.926 = Yl A;=0

/15\ / 24 N

(\l\ 39\

8

/15\ / 24 \

< 0-975 < E

(\l\

= ^-^^^

14/

hi-a/2 = ^0.975 = 8, SO dass der Beobachtungswert 9 im Ablehnungsbereich liegt. Die Hypothese der Unabhdngigkeit ist also auf dem 5%-Niveau zu verwerfen. Bei Anwendung des obigen x^~Tests ergibt sich v/39

9 • 19 - 5 • 6 = 2.48, VU • 25 • 15 • 24

so dass man auch bei diesem Test wegen uo.975 = 1-96 auf Ablehnung der Unabhdngigkeitsannahme gefuhrt wird. Bemerkung: Das Quantil /i* ,2 ist identisch mit dem a/2-Quantil der Verteilung von X, aufier in dem Sonderfall P{X < ha/2) = f • Dann ist /i* ,3 = ha/2 + 1-

Vorgehensweise beim exakten Test von Fisher Aufgrund der Realisierung der Zufallsvariablen {Xi, F i ) , . . . , (X„, y„) erstellt man eine Vierfeldertafel y-Weite in x-Werte in Ji J2 /i I2

nil

^12

n2l

7222

7l2.

^.1

^.2

n

und bestimmt zu gegebenem a, 0 < a < 1, die Quantile /i^/2 und hi-a/2 der /f(ni.,n, n.i)-Verteilung. Die Hypothese der Unabhangigkeit der Zufallsvariablen ist zu verwerfen, falls entweder nu < /i*y2 oder Uu > /ii_a/2 gilt- Die Quantile der hypergeometrischen Verteilung konnen in statistischen Tafelwerken nachgeschlagen werden.

3.7

Einige verteilungsunabhangige Tests

Die Anwendbarkeit der im Abschnitt 3.5 behandelten Testverfahren beruht wesentlich auf der Annahme, dass die Verteilungen der Zufallsvariablen, die die Beobachtungsdaten beschreiben, einer bestimmten Klasse von Verteilungen angehoren. Im Folgenden sollen Testverfahren vorgestellt werden, die entwickelt wurden, um ohne solche Verteilungsannahmen auskommen zu konnen. Diese Verfahren heifien verteilungsunabhangig und werden auch als nichtparametrisch bezeichnet. Sie finden insbesondere dann Anwendung, wenn die Beobachtungsergebnisse in Form von Qualitatsstufen angegeben werden, wie etwa in der Materialkunde bei der Untersuchung von Harteeigenschaften oder in der Psychologie bei der Untersuchung von

3.7 Einige verteilungsunabhangige Tests

163

SchuUeistungen und bei Intelligenzpriifungen. In solchen Fallen kann von zwei Beobachtungsergebnissen oft nur gesagt werden, welches das bessere ist, wahrend Differenzen zweier Beobachtungswerte keine sinnvolle Interpretation zulassen. Jede streng monotone Transformation einer gewahlten Messskala ist daher zur zahlenmafiigen Erfassung der Beobachtungsergebnisse ebenfalls geeignet. In die Testgrofien bei den im Folgenden vorgestellten Verfahren gehen allein die "grofier-kleiner" Beziehungen zwischen den zahlenmafiig erfassten Beobachtungsergebnissen ein. Wir behandeln zunachst den altesten nichtparametrischen Test, den Vorzeichentest, der schon zu Beginn des 18. Jahrhunderts zur Untersuchung der Haufigkeit von Knaben- und Madchengeburten angewendet worden sein soil.

Der Vorzeichentest Die Idee, die dem Vorzeichentest zugrunde liegt, erlautern wir an folgendem Beispiel: Beispiel 3.53 Ein Arzt gibt 20 Patienten, die iiber Schlafstorungen klagen, je 2 Medikamente A und B. Er bittet sie, darauf zu achten, welches der beiden Medikamente eine stdrkere Wirkung zeigt. Beim ndchsten Praxisbesuch werden die Patienten befragt. Geben nun die 20 Patienten an, dass das Medikament A eine stdrkere Wirkung zeigt, so sagt sich der Arzt: Aufgrund dieses eindeutigen Ergebnisses muss das Medikament A eine stdrkere Wirkung haben. Auch wenn "nur" 19 oder 18 Patienten dieser Ansicht sind, wird er gefiihlsmdfiig diese Feststellung treffen. Wdren die Medikamente wirklich gleichwertig beziiglich ihrer Wirkung, so konnte man annehmen, dass ein Patient mit Wahrscheinlichkeit ^ sich fiir das Medikament A (bzw. B) ausspricht. Unter der weiteren Annahme, dass die Antworten der einzelnen Patienten unabhdngig zustande kommen, z.B. weil die Patienten sich nicht kennen, wiirde sich fiir die Wahrscheinlichkeit, 20 gleichlautende Antworten zu bekommen, (1) < 10~^ ergeben. Auch die Ergebnisse "19 Patienten fiir A" und "18 Patienten fiir A" sind unter der Annahme der Gleichwertigkeit der Medikamente und der Unabhdngigkeit der Antworten sehr unwahrscheinlich. Ihre Wahrscheinlichkeiten sind ndmlich ungefdhr 2 • 10~^ bzw. 2 • 10"^. Der Arzt wird also in diesen drei Fallen annehmen, dass die Medikamente A und B nicht gleichwertig sind. Ganz anders ware seine Einschdtzung, wenn sich nur 12 oder 13 Patienten fiir A aussprechen wiirden. Diese Antworten stunden noch einigermafien im Einklang mit dem, was man bei Gleichwertigkeit der Medikamente erwarten wiirde. Die hier angedeutete Vorgehensweise soil nun prazisiert werden. Wir denken uns die Antworten der Patienten als Realisierungen von n = 20 unabhangigen Zufallsvariablen £>i,..., Z)„, die die Werte 1 (Medikament A zeigt starkere Wirkung) und 0 (Medikament B zeigt starkere Wirkung) annehmen konnen. Wir bezeichnen mit V = Di^-'

+ Dn

die Zufallsvariable, mit der die Gesamtzahl der fiir Medikament A sprechenden Patienten beschrieben wird. Unter der NuUhypothese HQ : P(Di = 1) = P{Di = 0) = i

2 = 1,..., n,

164

3 Schliefiende Statistik

ist V binomial B(n, |)-verteilt. Bestimmt man nun zu vorgegebenem a (0 < o; < 1) die grofite Zahl k = k{n, a) mit fc-i

P{V < k Oder V>n-k)

= 2F(F < A:) = 2 ^ Q) • ^ < a, i-O

SO haben wir mit der Entscheidungsregel: Falls V < k Oder v > n — k, dann HQ ablehnen. Falls k G oder

F G bedeuten soil, dass F(x) > G(x) fiir alle a; € R und F ^ G gelten soil. Betrachten wir unsere Beobachtungsergebnisse .TI, . . . , Xm, yi, • ••, J/n und ordnen sie der Grofie nach, so erhalten wir z.B. Xi, < Xi^ < Vj, < Xi^


m-n-k

ist. Die Zahl k bestimmen wir als grofite, fiir die zu vorgegebenem a unter der Nullhypothese P{U(Xi,...,Xm,Yu...,Yn)m-n-k) 21 ist. Nehmen wir nun an, es habe sich die x - y-Folge ys < y? < 1/2 < y4 < a:i < 2/6 < ys < ?/8 < a;3 < 0^2 < Vu ergeben, die U(xi^X2^Xi,yi,... jyg) = 18 Inversionen enthalt, so wird HQ bei unserem Verfahren auf dem 5%-Niveau nicht abgelehnt. Fiir grofie m und n ist der eben beschrittene Weg zur Bestimmung des Wertes k zu vorgegebenem a sehr miihsam. Man wird daher nach einer Approximation fragen, wie wir sie im Falle des Vorzeichentests und des Vorzeichen-Rang-Tests bereits kennengelernt haben. In der Tat lasst sich beweisen, dass unter HQ die Testgrofie U{X\, . . . ,Xm, ^1, • • • , ^ ) fiir grofie m und n naherungsweise normalverteilt ist (siehe Lehmann [1998], Seite 333 und 355). Wenn wir also den Erwartungswert und die Varianz kennen, lasst sich die Verteilung naherungsweise angeben. Unter HQ : F = G gilt, wie man zeigen kann, E{U{Xu-...Xm,Yu-..,Yn))

= ^

und

(119) Var(C/(Xi,...,X^,Fi,...,y„)) = ^ • m - n • (m + n +1). Das Ergebnis fiir den Erwartungswert folgt aus der Symmetric der Verteilung von U unter HQ und daraus, dass 0 der kleinste und n • m der grofite Wert ist, den U annimmt. Als Naherungswert fiir den kritischen Wert ergibt sich daraus k = ^ - ui_^/2 • y/^-m-n-im

+ n + l) .

(120)

3.7 Einige verteilungsunabhangige Tests

173

Beispiel 3.57 In der oben beschriebenen Situation seien jiir Route A die Zeiten Xi,.. .,X27 und fiir Route B die Zeiten y i , . . . , 2/32 ermittelt worden. Nach Ordnen der Zeiten ihrer Grofie nach sei die folgende x - y-Folge entstanden: yyyxxyxxxyyyxyyyxxxxxxxyxxyyyyxxxxxyyyyxyyxxyyyyxxyyxxyyyyy

(121)

Wir zdhlen die Inversionen und erhalten: [ / ( x i , . . . , 0:27, y i , . . . , 2/32)

= 3 - 2 7 + l - 2 5 + 3-22 + 3 - 2 H - 1 1 4 + 4 1 2 - l - 4 - 7 + 2-6-l-4-4 + 2-2 = 357. Mit a = 0.05 ergibt sich als Ndherungswert fiir den kritischen Wert k = 2Hl-

1.96 • ^ ^ • 27 • 32 • (27 + 32 + 1) « 303.2

und damit m • n — k ^ 560.8. Da die Beobachtungsergebnisse die Inversionenzahl 357 liefern, die zwischen diesen beiden Werten liegt, wird die Annahme gleichen zeitlichen Aufwandes auf dem 5%-Niveau nicht widerlegt. Bemerkung: Es gibt noch eine zweite Moglichkeit, die Testgrofie U zu berechnen, die eng mit dem Verfahren beim Vorzeichen-Rang-Test zusammenhangt: Wir ordnen die Messergebnisse Xi, i = l , . . . , m , und yj, j = l , . . . , n , der Grofie nach und nummerieren sie beim kleinsten beginnend durch. Die Nummer, die ein Messwert Xi bzw. yj erhalt, nennen wir seinen Rang r,. Sei nun V{xi,.. .,Xm,yij • • • ,yn) die Summe der Range r^, die zu den x-Werten gehoren. Dann lasst sich leicht zeigen, dass t/(a:i,...,a:^,2/i,...,y„) = y ( x i , . . . , r r „ „ y i , . . . , y „ ) - ^ ^ ^ (122) gilt. Wenn U auf diese Weise berechnet wird, so lasst sich auch das Testverfahren bei Vorliegen von Bindungen anwenden (siehe die Bemerkung zum Vorzeichen-RangTest). Man muss dann in den Fallen, in denen gleiche Messwerte (Bindungen) auftreten, mittlere Range zuordnen und beachten, dass sich dadurch die Verteilung der Testgrofie andert. Die Testgrofie U hat dann zwar denselben Erwartungswert wie im Fall ohne Bindungen E{U) = ^ , (123) aber eine kleinere Varianz. Als Naherungswert fiir die kritische Schranke des entsprechenden Niveau-a-Tests ist

•n^(6?-60 m •n ZU verwenden, wenn in der Folge aji,..., ar^,yi, • •.,2/n genau / verschiedene Werte jeweils mehrfach vorkommen, und zwar mit der Haufigkeit 61,...,6/ > 2 (siehe Lehmann [1998], Seite 333).

174

3 Schliefiende Statistik

Der Run-Test von Wald und Wolfowitz Wir mochten zur gleichen Fragestellung noch einen weiteren verteilungsunabhangigen Test vorstellen, der friiher publiziert wurde als der Test von Wilcoxon-MannWhitney, jedoch seltener angewendet wird. Er geht zuriick auf A. Wald und J. Wolfowitz, die die Entwicklung der modernen Statistik wesentlich beeinflusst haben. Auch hier wollen wir, wie im vorhergehenden Abschnitt, ein Zweistichprobenproblem betrachten. J\!"i,...,Xn^jYi,... ,Fn seien unabhangige Zufallsvariablen. Fiir Xi,...,Xm wird angenommen, dass sie die gleiche stetige Verteilungsfunktion F besitzen; Vi,..., y„ mogen alle die gleiche stetige Verteilungsfunktion G haben. Unter dieser Annahme soil die Nullhypothese

HQ : F =^ G

bei der Alternativhypothese Hi : F =/^ G getestet werden. Man beachte, dass hier nicht wie beim Wilcoxon-Mann-WhitneyTest eine ganz spezielle Alternative, die der Annahme "im Mittel grofier" oder "im Mittel kleiner" entspricht, sondern die ganz allgemeine Gegenhypothese der Verschiedenheit der Verteilungsfunktionen ins Auge gefasst wird. Die beobachteten Werte a;i,..., Xm, 2/i, • • •, yn der Zufallsgrofien Xi,..., Xm, Yi,...,Yn werden der Grofie nach geordnet, so dass eine Folge aus m x-Werten und n y-Werten der Form xxyyyxxyxxyyx entsteht. Eine Teilfolge gleicher Zeichen, bei der vor dem ersten und auch hinter dem letzten Zeichen eines der anderen Sorte steht, heifit Run. In obiger Folge gibt es 7 Runs: xx\yyy\xx\y\xx\yy\x Die Folge beginnt mit dem a;-Run xx der Lange 2, dann folgt ein y-Run der Lange 3, dann wieder ein x-Run der Lange 2 usw.; sie endet mit einem a;-Run der Lange 1. Die Idee, die dem Run-Test zugrunde liegt, ist wie beim Wilcoxon-Test die Uberlegung, dass unter der Nullhypothese die x- und y-Werte "gut durchmischt" sind, wahrend eine "schlechte Mischung" gegen HQ spricht. Als "gut durchmischt" soil jetzt eine Folge angesehen werden, wenn sie viele Runs besitzt. Wir wollen daher die Nullhypothese verwerfen, wenn die Anzahl der Runs im Beobachtungsergebnis kleiner als ein kritischer Wert k ausfallt. Wir wollen diesen kritischen Wert so angeben, dass die Wahrscheinlichkeit, HQ abzulehnen, obwohl HQ zutrifft, nicht grofier als eine vorgegebene Schranke a ist. Dazu betrachten wir die Testgrofie R = R{Xi,.. .,Xm,yi,- • • ,^n), die die Anzahl der Runs im Beobachtungsergebnis beschreibt. Fiir die Verteilung der Testgrofie R gelten bei zutreffender Nullhypothese HQ die folgenden Formeln fiir i = 1,2,..., min(n, m) P{R = 2i)=

^yllj-^^

(125)

3.7 Einige verteilungsunabhangige Tests

175

und /m-lWn-lX

/m-lWn-l\

P(R = 2i + 1) = ^'-'^^'Irn^Y



(126)

Dies ergibt sich aufgrund folgender Oberlegungen: Trifft HQ ZU, SO tritt jede der ("^J^") Anordnungen von m x-Werten und n y-Werten mit derselben Wahrscheinlichkeit IJ^^K auf. Wir haben daher lediglich zu berechnen, wie viele x - y-Folgen existieren, die 2i (bzw. 2i + 1) Runs enthalten. (1) Wir betrachten den Fall R = 2i. Eine x — y-Folge, die 2i Runs enthalt, muss ofFensichtlich genau i x-Runs und genau i y-Runs enthalten. Wir haben daher nur noch zu iiberlegen, wie wir m a;-Werte auf die i x-Runs verteilen, und ebenso, wie wir n y-Werte auf die i y-Runs verteilen. Im Fall i = 6 kann dies durch Zeichnen von je 5 Trennungsstrichen innerhalb der a;-Folge und der y-Folge geschehen (m = 1 3 , n = 9):

xx\xxx\x\xxxx\xx\x

yy|y|yyy|y|y|y •

Bei dieser Festlegung der Trennungsstriche ergeben sich zwei Moglichkeiten fiir x—yFolgen mit je 2i = 12 Runs: 1. Moglichkeit: xxyyxxxyxyyyxxxxyxxyxy 2. Moglichkeit: yyxxyxxxyyyxyxxxxyxxyx

, .

Wie wir an diesem Beipiel erkennen, entspricht dem Problem, aus m x-Werten und n y-Werten eine Folge mit 2i Runs zu bilden, die Aufgabe, in der x-Folge und der yFolge je i—1 Trennungsstriche zu zeichnen. Daes m - 1 bzw. n - 1 verschiedene Platze fiir Trennungsstriche gibt, haben wir insgesamt (7r/) bzw. ("^j) Moglichkeiten, i xRuns bzw. i y-Runs zu bilden. Fiir das Zusammensetzen der x - y-Folge gibt es dann jeweils 2 Moglichkeiten: Man beginnt mit einem x-Run, oder man beginnt mit einem y-Run. Insgesamt gibt es daher

Moglichkeiten, x — y-Folgen mit 2i Runs zu bilden, d.h. es gilt fm-l\ /n-l>

P{R = 2i) = (2) Wir betrachten nun den Fall R = 2i-\-l. Man erkennt, dass es entweder genau i + 1 x-Runs oder genau i + 1 y-Runs gibt. i-\-l x-Runs gibt es, falls die Folge mit einem x-Run beginnt. Entsprechend gibt es i + 1 y-Runs, falls die Folge mit einem y-Run beginnt. Zur Erzeugung einer x — y-Folge, die mit einem x-Run beginnt, setzen wir i Trennungsstriche zwischen die x-Werte und i—1 Trennungsstriche zwischen die y-Werte. Dazu haben wir (--') bzw. (»-')

176

3 Schliefiende Statistik

Moglichkeiten. Beginnen wir mit einem y-Run, so haben wir entsprechend

(?--,') bzw. ("-') Moglichkeiten. Insgesamt gibt es also

("•-')(::.') + (?:,') ("7') verschiedene x - y-Folgen mit 2i + 1 Runs, d.h. es gilt P(R = 2t + 1) =

(T')(":,') + (T-7)rr) (-:")

Beispiel 3.58 Wir greifen das Beispiel 3.54 ^^/- Die unterschiedlichen Reifentypen sollenjetzt auf dem Priifstand beziiglich ihrer Lauf leistung verglichen werden. Dazu werdenfiir je 10 Reifen der Profilsorten A und B die Lauf leistung en gemessen. Die Messwerte a:i,..., Xio und 2/i, • •,yio betrachten wir als die Werte von unabhdngigen Zufallsgrofien Xi,..., Xio, F i , . . . , Fio, deren Verteilungsfunktionen F und G als stetig angenommen werden. Auf dem 5%-Niveau soil die Gleichwertigkeit der Reifen, d.h. die Nullhypothese HQ : F = G bei der Alternativhypothese Hi'. F ^G getestet werden. Bei den Messungen seien folgende Messwerte (in 1000 km) entstanden:

\^ 1 \xi

Vi

2 3 4 5 6 7 8 9 10 40.5 48.1 62.0 60.4 47.2 50.1 54.1 54.3 52.6 58.0 63.1 69.0 71.5 59.3 66.3 58.2 88.0 70.1 59.9 41.0

Daraus ergibt sich diex — y-Folge xyxxxxxxxyyyxxyyyyyy, die 6 Runs enthdlt. Mit den Formeln (125) und (126) findet man nach kurzer Rechnung, dass bei Vorliegen der Nullhypothese gilt: P(R < 5) = 0.004,

P(R < 6) = 0.019,

P(R < 7) = 0.051.

Die Gleichwertigkeit der Reifen ist auf dem 5%-Niveau zu verwerfen, denn fiir den kritischen Wert erhalten wir k = 7, und das Messergebnis weist nur 6 Runs auf. Wie schon beim Wilcoxon-Test erweist sich die Berechnung des kritischen Wertes als sehr aufwendig, wenn m und/oder n grofi sind. Aber auch hier lasst sich unter sehr allgemeinen Voraussetzungen tiber die Verteilungsfunktion beweisen, dass fiir grofie m, n die standardisierte Testgrofie naherungsweise iV(0, l)-verteilt ist (siehe Lehmann [1998], Seite 314). Hilfreich ist, dass sich E(R) und auch Var(il) durch einfache Formeln angeben lassen, die wir jedoch nicht herleiten woUen. Es gilt „,_. , 2mn E(R) = 1 + , ^ m+n

, _- ,^. 2mn{2mn — m — ri) und Var(ie) = ^—— {r . ^ ' (m + nY(m + n-\)

/,^„v (127) ^ '

3.7 Einige verteilungsunabhangige Tests

177

Als kritischen Wert zu vorgegebenem a bestimmen wir das grofite k, fiir das unter der NuUhypothese P(R < k) < a gilt. Fiir grofie n und m lasst sich k aufgrund der Normalapproximation mit Hilfe des a-Quantils Ua der Ar(0, l)-Verteilung bestimmen. Wir erhalten

und berechnen k aus der Gleichung k - E{R) -Ui.

V^VaFCR)

woraus sich k = E{R) -\- Ua • \/Var(i?) ergibt. Verwenden wir die oben angegebenen Formeln fiir den Erwartungswert und die Varianz, so ergibt sich 2mn

/ 2mn(2mn - m - n) ui.a • 1/7

k = l +

m +n

^^7

7z .

Y (m + ny{m + n - 1)

,,^^, (128)

^

^

Beispiel 3.57 (Fortsetzung) Betrachten wir noch einmal das Problem des unterschiedlicben zeitlicben Aufwands auf den Routen A und B. Dort batten wir m = 27 und n = 32 Beobacbtungen. Betracbten wir die entstandene x-y-Folge, so erkennen wir 21 Runs. Fiir k errecbnet sicb bei a = 0.05 und Uo.05 = - 1 6 4 JL _ 1 , 2-27-32 f^-^^ 27^32 -

T f-A 1-^4

V

/2-27-32(227-32-27-32) (27+32)2(27+32-1)

^ ^. «Q ^ ^^'^^ •

Da die Anzabl der Runs, die das Beobacbtungsergebnis entbalt, kleiner als 24.09 (namlicb 21) ist, wird bei Anwendung des Run-Tests die NuUbypotbese aufdem 5%Niveau verworfen, im Gegensatz dazu, dass sicb bei der Anwendung des WilcoxonTests aufdem 5%-Niveau keine Ablebnung ergab. Dies ist nicbt verwunderlicb, da die kritiscben Bereicbe fiir die beiden Tests verscbieden gewahlt sind, was auf die verscbiedenen TestgroBen zuriickzufiibren ist, die auf die jeweils betracbteten unterscbiedlicben Gegenbypotbesen zugescbnitten sind. Betracbtet man die x — y-Folge (121), so stellt man fest, dass sicb die x- bzw. y-Werte nicbt allein zu einem Ende bin baufen, sondern dass an beiden Enden viele y-Werte liegen, wabrend sicb die x-Werte in der Mitte baufen. Da somit eine "mittlere" Anzabl von Inversionen entstebt, wird bei Anwendung des Wilcoxon-Tests nicbt abgelebnt. Andererseits entsteben wenige Runs, was bei Anwendung des Run-Tests zur Ablebnung fiibrt. Dieses Beispiel zeigt, dass es sinnvoll ist, nacb Besonderbeiten in der Struktur vorliegender Daten zu sucben, falls verscbiedene Verfabren zu unterscbiedlicben Entscbeidungen fiibren. Im obigen Beispiel konnten die kleinen y-Werte Zeiten solcber Fabrten auf der Route B entsprecben, bei denen der Bus piinktlicb zur Abfabrt der StraBenbabn an der Umsteigestelle eintraf, wabrend die groBen y-Werte zu Fabrten geboren konnten, bei denen das fabrplanmaBige Umsteigen nicbt klappte.

3 Schliefiende Statistik

178

Der Kruskal-Wallis-Test Beim Zweistichproben-Test von Wilcoxon-Mann-Whitney und beim Run-Test von Wald und Wolfowitz werden jeweils zwei Messreihen untersucht und gepruft, ob ihre Entstehung durch das gleiche Zufallsgesetz beschrieben werden kann. In den Anwendungen hat man jedoch haufig eine solche Priifung fiir mehr als zwei Messreihen durchzufiihren. Beispiel 3.59 Um den Erfolg einer Werbesendung fiir ein bestimmtes Produkt im Fernsehen zu uberpriifen, ermittelt die Herstellerfirma in 19 Grofistddten die Umsatzsteigerungen (in %) fiir das Produkt. Die Ergebnisse, nach Bundesldndem gegliedert, sind in folgender Tabelle zusammengestellt: Es soil entschieden werden, ob aus den Daten auf regionale Unterschiede im Erfolg der Werbesendung geschlossen werden kann. Wir stellen uns vor, dass die Messreihe xn,...,Xin^\X2i,...,X2n2\ durch Realisierung von unabhangigen Zufallsvariablen

XkU

,Xknk

X i i , . . . , X i „ i ; X 2 i , . . . ,^27125 • • • '•)^kii • • • i-^i•fcrifc

entstanden sind, wobei die Zufallsvariablen Xn,..., Xi„. dieselbe Verteilungsfunktion Ft besitzen {i = l,...,k). Wir setzen zunachst voraus, dass die Verteilungsfunktionen stetig sind, um zu gewahrleisten, dass mit Wahrscheinlichkeit 1 keine Bindungen auftreten. Bayern

% Rang 2.4 3.7 2.9 4.6 mittierer Rang

7 9 8 12

Baden-W. Hessen % Rang % Rang 4.8 13 7.2 17 5 0.3 1.6 3 0.2 2 5.3 15 3.9 11 14 5.1

9

9

35 3

NRW

Nieders.

% Rang

% Rang

3.8 9.2 1.4 0.1

10 2.0 19 7.3 4 5.4 1

6 18 16

17 2

40 3

Als zu testende Nullhypothese wahlen wir HQ : Fi = F2 =

Trifft HQ zu, so sind die n = rii + und identisch verteilt.

• • = Fk

+ njfc Zufallsvariablen X u , . . . , Xknk unabhangig

Wir ordnen die Gesamtheit der Beobachtungsergebnisse der Grofie nach und nummerieren sie beim kleinsten beginnend durch. Jedem Ergebnis ordnen wir seine Nummer als Rang zu. Dadurch werden den Ui Ergebnissen der i-ten Messreihe n^ Range fii,--',fini zugeordnet. Falls die Nullhypothese zutrifft, kann man erwarten, dass die Mittelwerte Ti = ^{rn + •' - + rim)

3.7 Einige verteilungsunabhangige Tests

179

der jeweiligen Range sich nicht sehr voneinander unterscheiden und deshalb alle in der Nahe des Gesamtmittels r = - ( n i - l - " - + n n , + • • • +rjfci + --- + rfc„J 1/,

«

,

n+1

aller Range liegen werden. Darum kann man davon ausgehen, dass die Quadrate (r-,-n±i)^...,(f^-=±l)2 klein sein werden. 1st die NuUhypothese verletzt, so ist damit zu rechnen, dass fiir einige der Messreihen der Mittelwert der Range deutlich unterhalb, fiir andere deutlich oberhalb des Gesamtmittels liegen wird und deswegen einige der Quadrate grofier ausfallen werden. Wir werden deshalb die NuUhypothese verwerfen, wenn die Grofie K{xii,...

12 ,xini,... ,Xki,... ,Xknk) = "7—TTT 52'^i(''^ ~ ^ ) ^ n{n-\-1) ^

(1^9)

^

eine kritische Schranke 5 iibersteigt. Mit dem Normierungsfaktor ;^7^^ und den Gewichten rii, i — l,...,fc, in der gewichteten Summe der Abweichungsquadrate wird erreicht, dass die Testgrofie K = A'(Xii,... ,Xi„j,.. .,Xjbi,.. .,Xjfc„j^) unter Ho naherungsweise x^-verteilt ist mit k - \ Freiheitsgraden. Als kritische Schranke wahlt man die kleinste reelle Zahl s mit PH,{K >S) ^ besitzt dann das Niveau a. Es heifit der Kruskal-Wallis-Test Wir erlautern nun, wie man die Verteilung von K ermitteln kann: Unter der NuUhypothese Ho kann fiir die entstehende Reihenfolge der n = Ui-^ [-Uk Messwerte die Laplace-Annahme gemacht werden. Also tritt jede der n! moglichen Reihenfolgen mit Wahrscheinlichkeit ^ auf. Darum ist auch jede Zuordnung von n^ Rangen zur 2-ten Gruppe {i = 1,.. .,k) gleichwahrscheinlich. Es gibt insgesamt ni!n2!'--njfc!

Moglichkeiten,

den k Gruppen ni,n2,...,nk Range zuzuordnen. Berechnet man fiir jede dieser Moglichkeiten den zugehorigen Wert von K, so kann man daraus die moglichen

180

3 Schliefiende Statistik

Werte von K und die Wahrscheinliehkeit ihres Auftretens ermitteln. Dies ist allerdings praktisch nur durchfiihrbar, wenn n klein ist. (In Beispiel 3.59 hat man wegen n = 19, Til = 4 , n2 = 5, ria = 3 714 = 4, ns = 3 schon ^^' = 48886437600 4! 5! 3! 4! 3! mogliche Zuordnungen.) Man ist daher in der Kegel darauf angewiesen, eine Naherungsverteilung zu verwenden. Dies ist im Fall der Testgrofie des Kruskal-Wallis-Tests die x^Verteilung mit k — 1 Freiheitsgraden (siehe Lehmann [1998], Seite 396). Bei Verwendung dieser Naherung erhalt man fiir die kritische Schranke s in (130) das (1 - a)-Quantil xl-i,i-a ^^^ x^-Verteilung mit k- 1 Freiheitsgraden, also 5«xtl;l-a-

(131)

Beispiel 3.59 (Fortsetzung) Aus der Datentabelle des Beispiels 3.59 erhalt man n = 19, rii = 4 , n2 = 5, ns = 3, 724 = 4, ns = 3 fl = 9, f2 = 9, f3 = f , f4 = f , fs = f und daraus K = 1^(4(9 - 10)2 + 5(9 - 10)2 + 3(f - 10)^ + 4 ( f - 10)^ + 3 ( f - 10)^) = 1.88 . Das 0.90-Quantil der xl-y^^t^ii^ng ist X4;0.90 = 7.78 .

Die NuUhypothese kann also aufdem 10%-Niveau nicht abgelehnt werden. Bemerkung: Treten bei den Messwerten Bindungen auf, so kann eine modifizierte Form des Kruskal-Wallis-Tests angewendet werden. Dabei wird gleichen Beobachtungswerten gemeinsam ein mittlerer Rang zugeordnet und die damit berechnete Testgrofie (129) noch durch

i-E(^'-^^)/(^'-^) geteilt. Dabei ist angenommen, dass / Gruppen mit 61, &2» •, ^/ gleichen Messwerten beobachtet wurden. Die kritische Schranke s bleibt unverandert (siehe Lehmann [1998), Seite 208).

3.8 Einfache Varianzanalyse

3.8

181

Einfache Varianzanalyse

Im vorigen Abschnitt sind wir davon ausgegangen, dass iiber die Verteilung der Zufallsvariablen, die das Entstehen der Messdaten beschreiben, keine Informationen vorliegen. Dagegen werden wir nun wieder konkrete Verteilungsannahmen trefFen und voraussetzen, dass die beschreibenden Zufallsvariablen normalverteilt sind. Dadurch wird es moglich, zu Entscheidungsproblemen, wie sie oben mit dem KruskalWallis-Test gelost wurden, effektive Testverfahren anzugeben. "Effektiv" bezieht sich dabei auf Fehlerwahrscheinlichkeiten 2. Art, d.h. bei Anwendiing solcher Verfahren ist bei Abweichungen von der Nullhypothese die Wahrscheinlichkeit dafiir, dass die Analyse der Daten zu einer Ablehnung der Nullhypothese fiihrt, grofier als bei verteilungsunabhangigen Verfahren. Allerdings sind sie nur dann anwendbar, wenn die Verteilungsannahmen gerechtfertigt sind. Das dem Kruskal-Wallis-Test entsprechende parametrische Verfahren ist die einfache Varianzanalyse. Wir beginnen mit einem Beispiel. Beispiel 3.60 Es soil die Abhdngigkeit der Ernteertrage einer bestimmten Getreidesorte von unterschiedlichen Diingemitteln Di,...,Dk untersucht werden. Wir nehmen an, dass jedes von n gleichgroften Feldem mit einem dieser Mittel gediingt wird, und zwar Ui Felder mit dem Mittel Di, i — 1,2,..., A;. Dabei soil ni>l,i = l,...,k, und ni + 712 + . . . + rifc = n > A; gelten. Es bezeichne yij den Emteertrag (z.B. in Kilogramm) auf dem j-ten Feld, das mit dem Mittel Di gediingt wurde {j = 1,... ,72^, i = I,. ..,k). Es soil festgestellt werden, ob sich die Ertrdge so stark unterscheiden, dass auf eine unterschiedliche Qualitdt der Diingemittel geschlossen werden muss. Wir suchen hier also keinen funktionalen Zusammenhang zwischen den Merkmalen Diingemittel und Ertrag, sondem wollen nur feststellen, ob iiberhaupt Unterschiede in der Wirkung der Diingemittel bestehen. Wir werden zunachst wieder mit heuristischen Argumenten ein plausibles Entscheidungsverfahren begriinden und dies anschliefiend im Rahmen eines mathematischen Modells prazisieren und analysieren. Zunachst stellen wir die Daten in einer Tabelle iibersichtlich dar. Diingemittel Anzahl der Messwerte (Gruppe) ni 1 2 n2 k Gesamt

rik

n = nx-\

Messwerte der Gruppe

Summe innerhalb der Gruppe

2/ll,---,2/lni

2/1. = 2/11 -f • • • + y i m

y21,--,y2n2

2/2. = 2/21 +

yki,---,yknk

2/)fe. = 2/ibl + • • • -h Vkrik

1- Tifc

H 2/2712

2/.. = 2/1. + • • • + Vk.

Mittelwert der Gruppe Vi = yi./ni y2 = 2/2.7^2 Vk = yk./nk y = y,./ri

Weichen die mittleren Ertrage yi,...,yk wenig voneinander (und damit nur wenig vom Gesamtmittel y) ab, so spricht das nicht gegen die Gleichwertigkeit. Bei "zu grofien" Abweichungen wird man jedoch die Hypothese der Gleichwertigkeit verwerfen. Um das quantitativ zu fassen, berechnen wir die k Quadrate (y, — y)^ der Abweichungen zwischen den Gruppen- und dem Gesamtmittel und yergleichen sie mit den Quadraten (y^ — yi^, j = l , . . . , n j ,i = l,...,fc, der Abweichungen

182

3 Schliefiende Statistik

zwischen den Ertragen und den jeweiligen Gruppenmitteln. Daraus bilden wir zwei Summen von je n Abweichungsquadraten sst = ni(yi - 2/)^ + • • • + Ukivk - yf und sse = (yii - yif + • • • + (i/i„, - yif + ••- + {yki - j/jb)^ + • • • + (yknk - VkfMan bezeichnet sst als Summe der Abweichungsqiiadrate zwischen den Gruppen ("sum of squares of treatments") und sse als Summe der Abweichungsquadrate innerhalb der Gruppen ("sum of squares of errors"). Man kann vermuten, dass bei unterschiedlicher Wirksamkeit der Diingemittel sst deutlich grofier ausfallen wird als sse. Um zu quantitativen Aussagen zu gelangen, mussen im Rahmen eines mathematischen Modells Verteilungsannahmen gemacht werden. Wir stellen uns vor, dass die Messwerte j/y Realisierungen von unabhangigen Zufallsvariablen Y^j, j = 1 , . . . , n,, i — 1 , . . . , A;, sind, die alle normalverteilt sind mit der Varianz a^. Fur die Erwartungswerte soil gelten E{Yij) = /ii,

j = 1,..., ni,

i = 1 , . . . , A;.

Als NuUhypothese, die der Annahme der Gleichwertigkeit der Dungemittel entspricht, wahlen wir ^ 0 : M l = M2 = • • • = Mik-

Den oben definierten empirischen Quadratsummen entsprechen im mathematischen Modell die Zufallsvariablen k

k

rti

SST = 5 ^ n,(F,-y)2 und SSE = ^ ^ E ^ ^ i i - F 0 ^ t=i

wobei die Mittelwerte Yi,

i=i j=i

i = 1,..., A:, und Y durch

3=1

und Z=l j = l

1=1

definiert sind. Um eine Vorstellung von den Grofienordnungen der Zufallsvariablen SST und SSE zu bekommen, berechnen wir zunachst ihre Erwartungswerte. Zur Abkurzung schreiben wir 1I = E{Y) = ^Yl''iE{Yi) i=l

= ^{mfj.1 + ... + nfc/zik)

3.8 Einfache Varianzanalyse

183

fiir den Erwartungswert des Gesamtmittels. Dann gilt mit (56) und (80), da die Zufallsvariablen F i , . . . , y^ unabhangig sind und die Erwartungswerte fj,i und die Varianzen a'^/rii, i = 1,..., A;, besitzen: E[iY,-Yf]

= [£;(Fi-F)p + Var(F,-F)

n — n, = (Mi - A) + „ „ Also ist k

k

E{SST) = J2niEl(Yi

- ¥)'] = ^ n , ( / z , - fif + {k -

t=l

l)a'.

i=l

Demgegeniiber ist mit (84)

S(SSE) = Y, ECZi^a - Y,f) = ^ ( n , - l)a' = {n- k)a\ 1=1

i=l

i=l

1st die NuUhypothese /^i = M2 = • • • = Mfc richtig, so gilt p, = fxi = • • - = ii^ und deshalb E ( ^ S S T ) = ^ ( ; ^ S S E ) = a\ Man kann dann erwarten, dass die Realisierungen jtzysst und ;;zx^^^ "^^^^^ ^" ^^^"^ verschieden ausfallen werden. Ist dagegen die NuUhypothese verletzt, so unterscheiden sich die Erwartungswerte um £(jJ_SST) - £;(;^SSE) = ^

E "*("* - ~^)' > 0•

so dass man dann mit grofieren Abweichungen zu rechnen hat. Um zu einem Verfahren zu kommen, mit dem entschieden wird, ob ^ • sst so grofi gegeniiber -^ • sse ist, dass eine solche Beobachtung gegen die NuUhypothese spricht, betrachten wir die Zufallsvariablen SST und SSE unter der Voraussetzung der NuUhypothese. Es wird sich zeigen, dass unter HQ a) ^ • SST eine xI_i-verteUte Zufallsvariable ist, b) -^ • SSE eine x^_A:~verteilte Zufallsvariable ist, c) SST und SSE unabhangig sind.

184

3 Schliefiende Statistik

Daraus folgt, dass der Quotient

ril-SST

iPIF-SST 5:=fc • J* • SSE

;r^-SSE

Fjfc_i,„_/fc-verteilt ist. Damit erhalten wir einen Test zum Niveau a mit der folgenden Entscheidungsregel fiir die einfache Varianzanalyse. Entscheidungsregel Die Hypothese jftTo : Mi = • • = MA: ist zu verwerfen, falls jkzr • sst "~1 n-k

>

Fk-\,n-k\l-a

""^

ausfallt. Wir werden diese Regel in einem Zahlenbeispiel am Ende dieses Abschnittes anwenden, woUen jedoch zuvor die obigen drei Verteilungsaussagen a), b) und c) beweisen. Dazu werden wir Satz 2.75 auf die unter HQ standardisierten Zufallsvariablen an und wahlen ein fiir dieses Problem geeignetes Orthonormalsystem [ui,... ,u„} von Vektoren des R". Sei Z

= {Zu,

. . . , Zini,

^ 2 1 , • •••> ^ 2 n 2 > • • • •> Zkl, • • • , -^Ifcufc)

die n-dimensionale Zufallsvariable mit den Komponenten Zy, und sei fiir i = 1 , . . . , A; Ui = ( C u , . . . , C i „ i , C21, . . . , C2„2, . . . , Cjfci, . . . , Ckuk)

mit J ^ Cmj=


2/i)> • •) (^nj2/n)» deren Steigung und Achsenabschnitt wir oben mit a und 6 bezeichnet haben. Nach Satz 2.66 gilt a = Cov(X,y)/Var(A:)

und b = E{Y) -

aE(X),

sowie fiir die mittlere quadratische Abweichung Ei(Y -aX-

6)2) = Var(r) • (1 - g(X,

Yf).

3.9 Einfache lineare Regression

189

Um die Grofien a und 6 und die mittlere quadratische Abweichung zu schatzen, ersetzen wir die unbekannten Kennzahlen E(X), E(Y), Var(A'),Var(y), CGV(X,Y) und Q(X, Y) durch Schatzer. Sind (Xi, Vi),..., (Xn, K) unabhangige zweidimensionale Zufallsvariablen, die alle dieselbe Verteilung wie (X, Y) haben, so sind wegen Satz 3.5 und 3.6

^> y^ rhJZi^i-^f^ ^.fl(yi-yf t=l

und

^^J2(X,-X)(Y,-Y)

i=l

i=l

erwartungstreue Schatzvariablen fiir E(X\

E(Y),

Var(X),

Var(r)

bzw.

Cov(X,Y).

Wir werden im Folgenden diese und auch andere Schatzvariablen der Einfachheit halber Schatzer nennen. In Analogic zur Bezeichnungsweise bei Messreihen fiihren wir die Bezeichnungen n

SSX = ^ ( X i - X)2, i=l

n

n

SSY = ^ ( y i - F ) 2

und SXY = J^C^i " ^ ) W " ^)

i=l

1=1

ein. Dann bieten sich als Schatzer fiir a und 6 die Zufallsvariablen A = SXY/SSX und B =

Y-AX

und fiir die mittlere quadratische Abweichung ;I^SSY(

SXY^ SSXSSY.

an. Die zu einer Messreihe (a:i,yi),.. .,(a;„,y„), d.h. zu einer Realisierung der Zufallsvariablen {Xi,Yi),..., {Xn, Yn), gehorenden Schatzwerte stimmen also mit den in Abschnitt 1.4 gewonnenen Ergebnissen a und b iiberein (siehe (133)). Fiihren wir noch die Bezeichnung

ein, so ist die empirische Quadratsumme der Residuen ssr in (137) eine Realisierung der Zufallsvariablen SSR, und wir konnen deshalb -^ssr als Schatzwert fiir die mittlere quadratische Abweichung betrachten.

Maximum-Likelihood-Methode Wir woUen schliefilich noch mit der Maximum-Likelihood-Methode Schatzer fiir a und 6 bestimmen. Dazu wahlen wir ein anderes Modell und setzen voraus, dass die Werte xi,...,a:„, die nicht alle gleich sein soUen, ohne zufallige Fehler beobachtet werden. Diese Annahme ist in der Praxis haufig gerechtfertigt, da die Zahlen

190

3 Schliefiende Statistik

Xi,...,Xn in der Regel vorgegebene (z.B. aquidistante) Messstellen oder Messzeitpunkte sind, an denen die zufallsabhangigen Messwerte yi bestimmt werden. In unserem Beispiel ist x, das Alter des i-ten Mannes. Weiter setzen wir voraus, dass Yi,...,Yn unabhangige, normalverteilte Zufallsvariablen sind mit E(Y^ = aXi-^b

und Var(yi) = a^,

i = l,...,n.

(141)

Der Erwartungswert der Zufallsvariablen Yi hangt also von der Messstelle Xj ab, und zwar linear mit unbekannten Koeffizienten a und b. Die Zufallsvariablen Yi,..., V^ haben jedoch alle die gleiche (unbekannte) Varianz cr^ > 0. Die zur Messreihe (xi, yi),..., (xn, Vn) gehorende Likelihood-Funktion ist unter diesen Voraussetzungen gegeben durch

L(a,6,a'; (x„y,),...,

(a;„,y„)) = f [ - ^ e - ^ ^ — ' ' ) V 2 . ^

Fiir jeden Wert von a^ nimmt diese Funktion ihren grofiten Wert an, wenn die n

Summe yj(yi—aa;, —6)^ am kleinsten wird. Wie wir bereits in Abschnitt 1.4 gesehen haben, hat diese ihr Minimum an der Stelle (a, b) = (a, 6) mit a = sxy/ssx und b = y — a- x. Fiir das Minimum ergibt sich n

ssr = ^{yi

- axi - bf.

i=l

Betrachten wir die Likelihood-Funktion nun fiir a = a und 6 = 6 als Funktion von a^, so hat sie (mit einer positiven Konstanten c) die Form L(a, 6, a'; [x,, y i ) , . . . , {x^, y„)) = c • ((T^)-"/^ • e--/2''^ a' > 0, und besitzt, wie die Untersuchung ihrer Ableitungen zeigt, ihr Maximum an der Stelle (7^ = i . ssr. Damit erhalten wir die Maximum-Likelihood-Schatzer A = SXY/SSX

und

B^Y-Ax

fiir die Koeffizienten a und 6, sowie den Maximum-Likelihood-Schatzer iSSR=i^(yi-^Xi-B)2

(142)

3.9 Einfache lineare Regression

191

fiir die Varianz o^. Die Schatzer A und B fiir a bzw. 6 stimmen mit den nach der Methode der minimalen mittleren quadratischen Abweichung gewonnenen Schatzern iiberein. AUerdings haben wir jetzt vorausgesetzt, dass die Messwerte oji,...,Xn vom Zufall nicht abhangen, dass also die Zufallsvariable Xi identisch gleich Xi ist, i — 1,... ,n, und darum x anstelle von X und ssx anstelle von SSX geschrieben. Wir woUen uns nun den Verteilungen der erhaltenen Schatzer zuwenden. Wir bleiben bei den zuletzt gemachten Voraussetzungen, unter denen Y\,...,Yn unabhangige, normalverteilte Zufallsvariablen mit gleicher Varianz 0 sind und die Erwartungswerte E{yi) =a-Xi-\-b, z = 1,..,, n, besitzen. Die Messstellen x i , . . . , x„ seien bekannt, wahrend die Koefiizienten a und b und die Varianz a^ als unbekannt angenommen werden. Das wesentliche Hilfsmittel zur Bestimmung der Verteilungen ist Satz 2.75, den wir auf die n-dimensionale Zufallsvariable Z = ( Z i , . . . , Zn)^ anwenden, deren Komponenten Zi = -{Yi-aXi-b),

i = 1,..., n

(143)

(7

nach unseren Modellannahmen unabhangige 7V(0, l)-verteilte Zufallsvariablen sind. Ist {ui,. ..,Un] irgendein Orthonormalsystem von Vektoren des M" und stellen wir Z als Linearkombination der Vektoren Wi,..., Un in der Form Z = Ui'Ui+U2'U2

+ U3-U3 + '-'-^Un-Un

(144)

dar, so sind nach Satz 2.75 die KoeflBzienten C/i,..., f/„ unabhangige iV(0, l)-verteilte Zufallsvariablen. Wir wahlen n i , . . . ,it„ geeignet, so dass Ui und U2 in engem Zusammenhang mit den Schatzern A und B stehen. Dies gelingt, wenn wir analog zum Vorgehen in Abschnitt 1.4 bei der Bestimmung der empirischen Regressionsgeraden

(145) setzen und das Orthonormalsystem durch Vektoren U3,... ,u„ komplettieren. Wir berechnen nun die Darstellung (144). Aus (143) folgt Z=^-(Y-a-x-b-l)

= ^•{Y-a-{x-x-l)-{b =

+

a'x)'l)

^ • (Y - {b-\ra- x) • y/n • ui - ay/ssx • 1*2). (146) Fiir die n-dimensionale Zufallsvariable Y erhalten wir ebenso wie in Abschnitt 1.4 (siehe (17)) SXY r = y •1+ (x-x-i) + R, (147) ssx wobei der Vektor der Residuen R = Y-Ax-B (148)

192

3 Schliefiende Statistik

orthogonal zu ui und U2 ist. Mittels (142) und (145) ergibt sich aus (147) Y = (B + A'x)-t

+ A-{x-x-l)-\-R={B-\-Ax)y/n-ui-\-Ay/ssx.

U2 + R (149)

Setzt man dies in (146) ein, so gewinnt man die Zerlegung Z = i ([{A - a)x + (B - 6)lv/n -ui + iA- a ) ^ ^ ^ 'U2 + R).

(150)

Durch Koeffizientenvergleich mit (144) folgt daraus f/i = i ^{A - a)x + (B - 6)] • v/^ und

U2 = ^{A-

a)^/ii^

(151)

sowie, weil R orthogonal zu ui und U2 ist, lR

= Us-Uz

+ --- + Un'Un.

(152)

Lost man die Gleichungen (151) nach A und B auf: A=-^U2

+ a und B = 4=^1 --^^2

+ b,

(153)

so wild deutlich, dass A und B Linearkombinationen unabhangiger, N{0, l)-verteilter Zufallsvariablen sind. Diese Schatzer sind darum normalverteilt mit 2

E(A) = a,

Var(^) = — ssx

1

sowie E(B)==b,

-

2

Var(B) = cr^fi + — ) . \n ssx/

(154)

Beide Schatzer sind also insbesondere erwartungstreu fiir den jeweils zu schatzenden Parameter. Ihre Varianz hangt noch von dem unbekannten Wert a^ ab. Wir bestimmen nun die Verteilung des Schatzers

fiir (7^. Aus (152) folgt ^ S S R = i | / l p = f7| + ... + e

(155)

Daraus folgt, dass diese Zufallsvariable x^_2~verteilt sowie unabhangig von (f/i, C/2) und damit von den Schatzern A und B ist. Der Schatzer J • SSR hat somit den Erwartungswert Eii • SSR) = i • a'Eij,

• SSR) = 1 • ,T^ • (n - 2).

(156)

Er ist also nicht erwartungstreu fiir a^. Statt dessen ist ; ^ S S R ein erwartungstreuer Schatzer fiir cr^. Wir fassen die soeben hergeleiteten Ergebnisse iiber die Verteilungen der Schatzer und einige Folgerungen daraus zusammen:

3.9 Einfache lineare Regression

193

Satz 3.63 (i) Die Zufallsvariable A ist ein erwartungstreuer, normalverteilter Schdtzer fiir a mit der Varianz ^ . (ii) Die Zufallsvariable

A=

^x(A-a)^f^ SSR

ist tn-2-V^f^eilt-

(Hi) Die Zufallsvariable B ist ein erwartungstreuer, normalverteilter Schdtzer fiir b mit der Varianz o^ • (—I ). \ n ssxf (iv) Die Zufallsvariable B-b B

vi +

f2 — ssx

In-2 V SSR

ist tn-2~verteilt. CCD

(v) Die Zufallsvariable ist ein erwartungstreuer Schdtzer fiir a^. n—2 SSR (vi) Die Zufallsvariable — ^ ist -)^_2-verteilt Mit diesem Satz lassen sich zahlreiche Fragen zur Regressionsgeraden beantworten. Beispiel 3.64 1. Gesucht ist ein Konfidenzintervall fiir die Steigung a zum Niveau 1 — a. Wir verwenden Teil (ii). Sei t„_2;i-a/2 das (1 — a/2)-Quantil der tn-2~y^'^^iiung. Dann gilt

"'^v'i^

1 - a = P{\A\ < «„_2,i-«/2) = P{\A -a\