221 16 14MB
German Pages 296 [293] Year 2002
Induktive Statistik Lehr- und Arbeitsbuch
Von Professor
Dr. Georg Bol
3., bearbeitete Auflage
R. Oldenbourg Verlag München Wien
Die Deutsche Bibliothek CIP-Einheitsaufnahme -
Bol, Georg:
Induktive Statistik : Lehr- und Arbeitsbuch / von Georg Bol. Aufl.. München ; Wien ISBN 3-486-27276-4
:
Oldenbourg, 2003
3., bearb. -
-
© 2003 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0
www.oldenbourg-verlag.de
Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Gedruckt auf säure- und chlorfreiem Papier Gesamtherstellung: Huber KG, Dießen ISBN 3-486-27276-4
Vorwort Mit der
„Induktiven Statistik" liegt jetzt auch der dritte Abschnitt einer zwei-
in schriftlicher Form vor, wie wir sie mehrfach an der Fakultät für Wirtschaftswissenschaften in Karlsruhe gehalten haben. Naturnämlich der gemäß baut damit dieser Band auf den beiden vorangegangenen, 1 Statistik" auf. und der Unter die„Deskriptiven „Wahrscheinlichkeitstheorie" sen Bezeichnungen werden sie auch im Text zitiert. Gerade bei der induktiven Statistik ist die Festlegung einer Konzeption und die Stoffauswahl besonders schwierig. Für Studenten der Wirtschaftswissenschaften ist es sicherüch durchaus sinnvoll, nicht so sehr die theoretischen Grundlagen kennenzulernen, als vielmehr einen Einbück in die wesentlichen Punkte statistischer Denkweise und einen Überbück über die diversen Anwendungsgebiete zu erhalten. Interessenten daran seien z.B. an das bewährte Lehrbuch von G. Bamberg und F. Baur verwiesen. Statistische Methoden werden unseres Erachtens in den kommenden Jahren mehr und mehr Einzug in die industrielle Praxis und dort vor allem in den Bereichen der Materialdisposition und Logistik sowie der Quaütätssicherung nehmen. Da diese Gebiete neben anderen wie beispielsweise der Banken- und Versicherungsbereich, in dem statistische Methoden ohnehin unverzichtbar sind, wichtige Einsatzgebiete Karlsruher Absolventen sind, scheint es mir wichtig, ein soüdes Fundament zu legen, von dem aus dann weitere Bereiche der Statistik erarbeitet werden können. Aus diesem Grund konzentriert sich das Buch auf die
semestrigen Vorlesung
-
-
Kerngebiete der induktiven Statistik, nämlich Parameterpunkt-, Parameterbereichsschätzung und Hypothesentests. Vorbereitet wird darauf durch zwei Paragraphen über entscheidungstheoretische Grundlagen, einen Abschnitt über die Grundannahmen der Statistik und einen Paragraphen über Stichprobenfunktionen. Daran schließen sich dann die genannten Gebiete an. Der letzte Paragraph weist auf auf die Beziehungen zwischen Tests und Konfidenzintervallen hin. Zur Überprüfung des erarbeiteten Wissens sind die einzelnen Paragraphen durch Übungsaufgaben ergänzt. Die benötigten Wahrscheinlichkeitsverteüungen, die Lösungen der Übungsaufgaben und einige Tabellen bilden den Anhang. Das Buch ist so konzipiert, daß es als begleitende Lektüre zu einer Vorlesung, aber auch zum Selbststudium geeignet ist. In hohem Maße profitiert bei dem Aufbau der Vorlesung und beim Schreiben dieses Buches hat der Autor von einem vorzüglichen, leider bislang nicht veröffentüchten Manuskript der (ehemaligen
Karlsruher) Kollegen Bernd Goldstein und Volker Steinmetz über Schätztheorie. Zur Ergänzung des Stoffes kann neben dem oben erwähnten Buch vom G. Bamberg und F. Baur als Nachschlagewerk das „Statistik-Taschenbuch" von K. Bosch und für konkrete Anwendungsmöglichkeiten der „Klassiker" von J. Härtung („Statistik") empfohlen werden. Daneben gibt es im Oldenbourg-Verlag, aber auch in anderen Verlagen eine Vielzahl von Büchern zur Statistik, so daß Beide sind in demselben
Verlag inzwischen
in
2.Auflage erschienen.
VI
es
Induktive Statistik
jedem möglich
sein
sollte, „seine" Auswahl
an
Büchern
zu
treffen.
Auch diesmal habe ich zahlreichen Helfern für das Zustandekommen des Buches zu danken: Den Hörern meiner Vorlesungen für zahlreiche Hinweise, wo Ergänzungen hilfreich und Verbesserungen möglich sind, Frau cand. Wi-Ing. Monika Kansy und Herrn Dipl. Ing. Jörn Basaczek für die mühevolle Schreibarbeit, Herrn cand. Wi-Ing. Edgar Hotz für das Erstellen der Abbildungen. Besonders danke ich aber Herrn Dr. Johannes Wallacher, der mit nie versiegender Geduld bei allen Problemen geholfen hat. Außerdem hat er den Großteil der Übungsaufgaben mit ihren Lösungen erstellt. Herrn Weigert und seinen Mitarbeitern im Oldenbourg-Verlag danke ich für die gewohnt gute und freundschaftliche
Zusammenarbeit.
Georg Bol
Vorwort
zur
2.
Auflage
Gegenüber
der 1. Auflage wurden „nur" die bekanntgewordenen Fehler beseitigt. Dies betrifft insbesondere die Achsenbeschriftungen in den Abbildungen A.3 und B.l B.6, aber auch eine Reihe von Schreibfehlern. Die Änderungen
wurden in zuverlässiger Weise von Frau cand. Wi.-Ing. Petra Weth vorgenommen, wofür ich Ihr herzlich danke. Herr Dipl. Wi.-Ing. Wolfganz Weitz danken wir für wertvolle Hinweise bei der Formatierung in I£T£jX. Herrn Weigert und dem Oldenbourg Verlag gilt wie immer mein Dank für die gute Zusammenarbeit. -
Georg Bol
Vorwort
zur
3.
Auflage
Auch die dritte Auflage unterscheidet sich bis auf eine ergänzende Bemerkung in Kapitel 4 nur durch die beseitigten Fehler von den vorangegangenen Auflagen. Hier bin ich meinem Freund und Kollegen Hartmut Kogelschatz aus Heidelberg für Hinweise sehr zu Dank verpflichtet. Auch dem Verlag und insbesondere Herrn Weigert danke ich für die Untersttzung.
Georg Bol
Inhaltsverzeichnis
Vorwort
V
Einführung
1
3
Entscheidungsmodell
1
Das klassische
2
Entscheidungen bei Information über
den
wahren Zustand
22
3
Grundannahmen der Statistik
33
4
Stichprobenfunktionen (Statistiken)
44
5
Erwartungstreue
6
Maximum-Likelihood-Schätzfunktionen
86
7
Intervallschätzungen
08
8
Tests
9
Neyman-Pearson-Tests
zum
61
Schätzfunktionen
Niveau
123
a
134
10
Gleichmäig beste
11
Operationscharakteristik
Tests
zum
Niveau
a
und Gütefunktion
151
171
VIII
Induktive Statistik
beste unverfälschte Tests
12
Gleichmäig
13
Der
14
Beziehungen
p-Wert
183
201
zwischen Tests und Konfldenzintervallen
210
A
Verteilung
B
Weitere
C
Lösungen
D
Tabellen
271
Literaturverzeichnis
274
von
Stichprobenfunktionen
Verteilungen der
Namen- und
Übungsaufgaben
Sachregister
216
226
233
277
Einführung der schließenden Statistik ist es, Schlußfolgerungen aus dem mit statistischen Erhebungen (meist Stichproben) gewonnenen Datenmaterial zu ziehen. Ein typisches Beispiel einer solchen Aufgabenstellung haben wir im Rahmen der Wahrscheinlichkeitstheorie (s. Wahrscheinlichkeitstheorie S. 1) schon erwähnt, nämlich die Beurteilung einer Warenpartie, genauer ihres Ausschußanteils, aufgrund von Stichprobenergebnissen. Dabei kann die Fragestellung sein, einen Wert für den unbekannten Ausschußanteil anzugeben. Da dieser höchstens zufällig ganz genau mit dem wahren Wert überemstirnmt, sprechen wir von einem „Schätzwert" des Ausschußanteils. Will man die Genauigkeit der Schätzung deutlich machen, wird man nicht einen „Punktwert", also eine reelle Zahl als Schätzwert, sondern einen Wert mit der möglichen Abweichung nach oben und unten angeben, also ein Schätzintervaü, in dem der wahre Wert nach dieser
Aufgabe
Schätzung liegt.
Eine andere AufgabensteUung ist es, anhand des Stichprobenergebnisses eine Entscheidung darüber zu treffen, ob die Warenpartie akzeptiert werden soü oder nicht. Man hat also zwei Möglichkeiten, zwischen denen man sich entscheiden muß. Da dies implizit von der Beurteüung des wahren Ausschußanteüs p abhängt, kann man zwei Hypothesen aufstellen:
(z.B. p < po zu vorgegebenem po),
Hypothese
1:
p ist
Hypothese
2:
p ist schlecht
gut
(p > po).
Stichprobe testet man damit, welche der Hypothesen vermutlich richwobei wir das Entscheidungskriterium so festlegen, daß mit möglichst tig ist, Wahrscheinlichkeit niedriger Fehlentscheidungen getroffen werden. Mit der
Mit den drei erwähnten Aufgabenstellungen in diesem Anwendungsbeispiel haben wir die drei wichtigsten Gebiete der schließenden Statistik angesprochen: • • •
Parameterpunktschätzungen, Parameterbereichsschätzungen, Testverfahren.
Bei den Parameterpunktschätzungen geht es wie in dem Beispiel darum, für einen unbekannten Parameter, meist eine der Kennzahlen der Verteilung wie Erwartungswert oder Varianz, eine reelle Zahl als Schätzwert anzugeben.
Entsprechend soü bei Parameterbereichsschätzungen ein Bereich, also eine Teilmenge, in den reellen Zahlen für den gesuchten Parameter benannt werden, wobei hier meist an ein möglichst kleines Intervall1 gedacht ist, derart daß die -
1
Daher auch die
-
Bezeichnung Parameterintervallschätzungen.
Induktive Statistik
2
Wahrscheinlichkeit, daß der wahre Wert nicht getroffen ist, einen vorgegebenen Wert nicht überschreitet.
Bei den Testverfahren ist zwischen zwei sich gegenseitig ausschließenden Hypothesen eine Entscheidung zu treffen. Die beiden Hypothesen müssen dabei aber auch alle FäUe abdecken. Es muß sich also um echte Alternativen handeln.
FragesteUungen aus diesen drei Aufgabengebieten treten in vielen Bereichen der Wirtschaftswissenschaften auf. Vor aüem auch im Bereich der Betriebswirtschaftslehre sind die AnwendungsmögUchkeiten vielfältig. Hier nur einige Beispiele: •
•
•
Bei Einführung eines neuen Produkts werden die Absatzchancen auf einem Teilmarkt geprüft, in der Erwartung, daß man die Ergebnisse auf den gesamten Markt übertragen kann. In der Materialwirtschaft schätzt man die Bedarfsstruktur eines Produkts, um die zukünftige Bedarfsentwicklung beurteilen zu können. Dies dient dann als Grundlage für die Disposition und Lagerhaltung.
Quaütätssicherung liegt das Problem vor, auf der Grundlage von Stichprobenergebnissen zu erkennen, ob sich die Produktquaütät gegenüber bisher so verschlechtert hat, daß Maßnahmen erforderüch sind. In der
Die Zahl dieser
Beispiele
läßt sich
beliebig fortsetzen.
Gemeinsam ist bei aüen drei genannten Aufgabengebieten, daß aus Stichprobenergebnissen Schlußfolgerungen auf eine Grundgesamtheit durchgeführt werden2. Aufgrund dieser Schlußfolgerungen wird dann letztlich eine Entscheidung getroffen. Daher werden wir zunächst einige elementare entscheidungstheoretische Grundlagen behandeln.
2
Man spricht auch
von
statistischer Inferenz.
Das klassische
1
Entscheidungsmodell
entscheidungstheoretischen Betrachtung ist zum einen, eine formale Beschreibung einer Entscheidungssituation zu geben. Es geht also darum, das Wesentliche und allen Entscheidungssituationen Gemeinsame herauszufiltern. Zum anderen besteht die Aufgabe darin, allgemeine Prinzipien einer rationalen Entscheidungsfindung herauszuarbeiten. Man spricht daher auch von normaZiel einer
tiver
Entscheidungstheorie1. Einige der Grundlagen dieser Theorie werden im
folgenden behandelt, da es bei der schließenden Statistik letztlich darum geht, eine Entscheidung zu treffen2.
Betrachtet man das in der Einführung erwähnte Beispiel aus der Quaütätskonso läßt sich jede der Entscheidungssituationen im Rahmen des folgenden abstrakten Modells formulieren.
troüe,
Zunächst noch einmal die
vorgegebene Situation:
Eine Warenpartie mit einem unbekannten Ausschußanteil liegt vor. Sie kann entweder angenommen oder abgelehnt werden3. Die Entscheidung trifft eine Person oder Gruppe mit den entsprechenden Befugnissen. Je nachdem welche Entscheidung mit dem tatsächüchen nicht also dem vermuteten Ausschußanteü zusammentrifft, ist das Ergebnis oder die Konsequenz der Entscheidung unterschiedlich. -
-
Gegeben ist also: •
Menge von Zuständen Z (im Beispiel: die Menge der möglichen oder denkbaren Ausschußanteile: Z Mn | k = 0,1,..., N} bzw. Z
eine
—
[0,1]),
•
eine
-
Menge
ablehnen}), •
von
mögÜchen Aktionen
—
A
(im Beispiel:
A
=
{annehmen,
Menge von mögüchen Ergebnissen E, die bei den mögÜchen Kombinationen von Zuständen und Aktionen eintreten können (im Beispiel kann man etwa davon ausgehen, daß sich das Ergebnis in Geld messen läßt: E = R),
eine
'im Unterschied dazu versucht die beschreibende Entscheidungstheorie, den Entschei-
zu analysieren, wie er tatsachlich abläuft. Die Maxime der Rationalität wird dabei nicht immer eingehalten. 2Eine ausführliche Darstellung der Entscheidungstheorie findet man z.B. in Bamberg/Coenenburg (1992) und Pfohl/Braun (1981). Eine strukturtheoretische Darstellung gibt
dungsprozefl Egle (1975). 3bzw.
es
Entscheidung getroffen werden.
soll eine
AusschuSanteil
in Form eines Schätzwertes oder Schätzbereichs über den
4
Induktive Statistik
•
eine Funktion / : A x Z -4 E, die zu jeder Kombination aus einem Zustand z 6 Z und einer Aktion a € A das resultierende Ergebnis e £ E angibt: e
=
f(a,z).
(1)
Bezeichnungen
1.1
(A, E) heißt Zusfandsraum (Afctionenraum, Ergebnisraum), f heißt i?rgeônisfunktion. Z
Entscheidende, also die Person oder Gruppe mit den entsprechenden Befugnissen, hat nun die Aufgabe, eine „optimale" Aktion zu wählen. Die Beurteilung, ob eine Aktion optimal ist oder nicht, ist nur anhand eines Vergleichskriteriums Der
möglich, das bei zwei vorliegenden Aktionen erkennen läßt, ob eine dieser Aktionen der anderen vorzuziehen ist. Ein solches Vergleichskriterium wird abstrakt durch eine Präferenzrelation beschrieben.
1.2
Definition
Sei M eine Menge. Eine Teilmenge R C M x M heißt wenn R transitiv und reflexiv ist: •
•
(x,y)
Präferenzrelation auf M,
(x,y) £ R und (y,z) £ R=> (x,z) £ R (Transitivität), {x, x) £ R für alle x £ M (Refiexivität). g R wird dabei wie
x
folgt interpretiert:
„ist besser oder (zumindest) gleich gut wie"
y.
Die Transitivität entspricht also der Forderung nach Konsistenz, d.h. wenn x besser oder zumindest gleich gut ist wie y und y besser oder zumindest gleich gut ist wie z, dann ist auch x besser oder zumindest gleich gut wie z. Man schreibt für (x, y) € R auch x > y oder y < x. Gilt weiter {y, x) 0 R oder anders geschrieben y £ x, so sagt man -
„x wird y strikt
vorgezogen"
neben -
x y
y
Das klaasische
Entscheidungsmodell
und schreibt
y y.
Gilt neben
x
auch y y x, äquivalent und schreibt x y. y y
x
so
sagt
5
man, x und y sind
gleich gut oder
~
Bei einer Präferenzrelation R fordert man nicht, daß je zwei Elemente vergleichbar sind. Dennoch kann man Optimalität bzgl. einer Präferenzrelation in sinnvoller Weise charakterisieren. Es bieten sich zwei Möglichkeiten an: 1. Es
gibt kein besseres Element in M,
2. Das Element wird allen anderen vorgezogen.
Mit Hilfe der Präferenzrelation R läßt sich dies wie folgt formulieren:
Eigenschaft 1: gibt kein x € Eigenschaft 2:
Es
m* y
1.3
x
für alle
M mit x
x
y
einem Element m* € M
m*.
€ M.
Definition
m* G M mit Eigenschaft 1 bzgl. R (bzw. schaft 2 heißt bestes oder größtes Element.
1.4
bzgl.
X)
heißt maximal, m* mit
Eigen-
Beispiel
Es sei M die
Menge der Bundesligamannschaften der laufenden Saison, es gelte
in der laufenden Saison nicht gegen y verloren hat. (Handelt es sich hierbei um eine Präferenzrelation?) Ein Verein ist in diesem Sinn der beste, wenn er gegen jeden anderen nicht verloren hat, er ist maximal, wenn es keine Mannschaft gibt, gegen die er beide Spiele, bzw. das Spiel, falls nur ein Spiel x
y y,
wenn x
ausgetragen ist, verloren hat.
Übungsaufgabe
1.1:
Zu Ende der Saison wird zum Vergleich zweier Mannschaften die Europapokalregelung herangezogen (Zwei Mannschaften gelten als gleich gut („äquivalent"), wenn nach der Europapokalregelung eine Verlängerung notwendig geworden
6
Induktive Statistik
wäre) 4. Gibt es einen Unterschied zwischen maximaler und bester Mannschaft? Gibt es auf jeden Fall eine maximale (beste) Mannschaft?
Übungsaufgabe 1.2: Sei < Präferenzrelation auf M. Man zeige: Jedes beste Element auf M
Übungsaufgabe Man definiere
1.5
bzgl.
< ist aucù maximal
bzgl.
0.01
(3)
p < 0.01 p > 0.01
(4)
Im konkreten Einzelfall ist natürlich eine clifferenziertere Überlegung erforderlich, wobei die „Trennquaütät" (hier 0.01) einen anderen Wert haben kann und der Schaden in den vier Bereichen auch noch von p abhängen wird. Es geht hier nur um eine „grobe Betrachtung" der Entscheidungssituation.
Ausgehend von der Prämisse, daß die Aktionen nach den aus ihnen resultierenden Ergebnissen beurteilt werden sollen, erhält man nun eine unmittelbar einleuchtende Forderung an die Präferenzrelation < auf A: Eine Aktion a\, bei der der Schaden bei allen eintretenden Zuständen niedriger ist als bei einer
Aktion 02, sollte bei der Relation < vorgezogen werden. Eine Präferenzrelation, die diese Forderung nicht erfüUt, ist mit der Schadensfunktion offensichtlich nicht
verträgüch. Formal läßt sich diese Forderung durch folgende Definitionen
präzisieren. 1.8
Definition
Sei (A, Z, S) eine Entscheidungssituation. Man sagt, eine Aktion ai dominiert eine Aktion 02, falls
5(oi,z) < S(a7,z)
fürallezeZ
(5)
gilt. GUt darüber hinaus
5(oi, z°) < S(a2, z°) so
sagt man,
1.9
für ein
z° € Z,
(6)
a\ dominiert a2 strikt.
Definition
(Dominanzprinzip)
Sei (A, Z, S) eine Entscheidungssituation. Eine Präferenzrelation < auf A genügt dem
Dominanzprinzip, falls gilt:
Induktive Statistik
10
Dominiert oi € A die Aktion 02 €
A, so gilt 01 ^02.
Genügt die Präferenzrelation -< auf A dem Dominanzprinzip, so kann man für die Bestimmung einer maximalen oder einer besten Aktion die dominierten Aktionen demnach aufler acht lassen.7 Dies ist insbesondere deswegen von Vorteü, weü zur Eliminierung der dominierten Aktionen die genaue Kenntnis der Präferenzrelation nicht erforderüch ist, bzw. diese noch nicht spezifiziert sein muß, es muß nur feststehen, daß sie dem Dominanzprinzip genügt. Der folgende Satz gibt die formale Rechtfertigung: Satz
1.10
Sei (A, Z, S) eine Entscheidungssituation, < eine Präferenzrelation auf A, die dem Dorninanzprinzip genügt. Sei An C A eine Teilmenge von Aktionen mit
folgender Eigenschaft: Zu
jeder Aktion a # Aq existiert
eine Aktion o' €
An, die
o
domi-
niert. Dann
gilt:
1. Gibt
es
eine maximale Aktion in
A,
so
auch in Aq.
2. Eine Aktion a* € A ist genau dann beste in Aq vorgezogen wird:
a*
a
für alle
a
€
(7)
Aq.
Bemerkung
1.11
(a)
y
Aktion, falls sie aUen Aktionen
Bei der Behauptung 1 hat man folgenden Unterschied zu beachten: Betrachtet man die Präferenzrelation < eingeschränkt auf Aq, so bedeutet „a* ist maximal in An", daß es keine Aktion a in Aq gibt, die besser ist als a*, also mit o* -< a; a* ist also zunächst nicht notwendig maximal in A. Behauptung 1 besagt aber, daß es in Aq eine bzgl. A maximale Aktion
gibt. (b) Behauptung 1.(2.) besagt nicht, daß jede maximale (beste) Aktion in Aq hegt. Man überlege sich, welche Eigenschaft die Menge Aq haben müßte, damit dies der Fall wäre.
7 Sollen
alle maximalen oder besten Aktionen bestimmt Man mache sich dies an einem Beispiel klar.
werden,
so
ist dies nicht
zulässig.
Das klassische
Entscheidungsmodell
11
Beweis:
1. Sei oo maximal in A, d.h. es gibt kein a G A mit gibt ai € Ao mit: ai ist maximal in A.
oq. Zu
zeigen ist: Es
Angenommen an £ Ao. Dann existiert ai G Ao, das a0 dominiert. Nach Dominanzprinzip gilt damit ao zi °i Behauptung: ai ist maximal in A. Angenommen es gibt ein o 6 A mit a>~ a\. Dann ist a >- oo wegen der Transitivität von zi im Widerspruch zu „Oo maximal". • Sei o* beste Aktion in A, so gilt a* V a für aüe a G A und damit für dem
2.
a >
•
•
alle a € Aq. Gut a* ^ a für alle a G Ao. Sei o £ Ao, so gibt es ein a\ G Ao, das a dominiert. Nach dem Dominanzprinzip güt dann a\ y o. Da o* y Oi gilt, folgt o* > a. Somit gilt
a*
y a
für aüe
a
(8)
€ A.
Aus diesem Satz ergibt sich, daß die Optimierungsaufgabe gelöst ist, faüs sich die Menge Aq auf ein Element reduzieren läßt, unabhängig davon, welche Präferenzrelation zugrundeliegt, falls sie nur dem Dominanzprinzip genügt. Diese Aktion dominiert dann alle anderen Aktionen und ist damit wegen des Dominanzprinzips beste Aktion.
1.12
Folgerung
Sei Ao
=
{oo} im obigen Satz einelementig, so ist oq
beste Aktion.
Definiton
1.13
Sei (A, Z, S) eine Entscheidungssituation. Eine Aktion a* € A, welche aüe Aktionen aus A dominiert, heißt gleichmäßig beste Aktion. Damit güt dann für alle o € A S (a*, z) < S (a, z) Wie das
für alle
z
G Z.
(9)
Beispiel aus der Qualitätskontrolle zeigt, existiert nicht immer eine gleichmäßig beste Aktion. Offensichtüch dominiert die Annahme der Partie die Ablehnung der Partie nicht und umgekehrt. Dies ist in einer Vielzahl praktischer
Induktive Statistik
12
Entscheidungsprobleme analog: wenigen Fällen.
Eine
gleichmäßig beste
Aktion existiert
nur
in
Der oben bewiesene Satz legt nun für den Fall, daß keine gleichmäßig beste Aktiexistiert, nahe, alle nicht dominierten Aktionen zu betrachten und aus diesen im Einzelfall eine Aktion auszuwählen. Dies wäre insbesondere dann praktikabel, wenn es sich dabei um kleine und überschaubare Mengen von Aktionen handelt. Auch dies ist jedoch in vielen in der Praxis auftretenden Fällen nicht erfüllt. Es erscheint daher sinnvoll, einige Prinzipien zu betrachten, die Präferenzrelationen auf dem Aktionenraum üefern, die dem Dominanzprinzip genügen. Es soUen also allgemeingültige Verfahren angegeben werden, die jede Entscheidungssituation in sinnvoller Weise durch Angabe einer Präferenzrelation auf dem Aktionenraum vervollständigen. Eine Entscheidungssituation (A, Z,S) zusammen mit einer Präferenzordnung auf A, die dem Dominanzprinzip genügt, sei im folgenden Entscheidungsmodell genannt.
on
1.14
Definition
Ein Quadrupel (A, Z, S, X) bestehend aus einer Entscheidungssituation (A, Z, S) und einer Präferenzordnung < auf A, die dem Dominanzprinzip genügt, heißt
Entscheidungsmodell.
Zur Verdeutlichung, was unter einem allgemeingültigen Verfahren zur Konstruktion von Präferenzordnungen auf A verstanden wird, sei zunächst ein Beispiel
betrachtet.
1.15
Beispiel
Gegeben sei eine Entscheidungssituation mit folgender Schadensmatrix
A\Z
Z\
Z max S(a',z) v -
(11)
z£Z
ist. Im
Beispiel gilt dann
max5(oi,z)
5,
maxS(a2,z)
=
3,
max5(a3,z)
4,
max5(a4, z)
=
5.
z
Damit
gilt
02 >- 03 >- Ol
~
04.
Der Vollständigkeit halber sei die Präferenzordnung noch in Form der Teilmenge R C A x A angegeben:
R
=
{(02,02), (02,03), (o3,a3), (o3,Ol), (Ol,Oi), (01,04), (o4, Ol), (04,04), (02,00,(02,04), (03,04)}.
Optimal bei dieser vorsichtigen Verhaltensweise ist in diesem Beispiel die Aktion gilt:
02, für die
max5(o2,z) z&Z
=
min max S (a, z). a€A z£Z
Das so beschriebene Präferenzprinzip heißt daher Minimax-Regel oder nach dem Statistiker Wald8 auch Wald-Regel. Man spricht auch von einer Entscheidungsregel, da ja die Präferenzrelation mit einer optimalen Aktion falls eine solche existiert auch die Entscheidung für eine Aktion üefert. -
-
8Abraham Wald, 1902-1960, jüdischer Mathematiker und Statistiker, vgl. Wald (1945).
Induktive Statistik
14
Definition
1.16 Sei
(A, Z, S)
eine
niert durch a
^o'
Entscheidungssituation.
supS{a,z) zçz
falls
heißt Minimax- oder
>
Die
supS{a',z) zez
Präferenzordnung
; {; k
Mit der Schadensfunktion
c^n \ 5(0'p)
=
5(1,P)
~
=
(8)'
0
v
(9)
(vgl. Beispiel 1.6)
f
(
0 200
p>0.01 p (l-p)
n—
X,-
(5)
««»
1=1
und daraus folgt
P{X
=
x\
E*< *k =
=
n
«=i
(6) E x« ^ k
>=i r»
Exi
=
*
i=l
Damit sieht man, daß die bedingte Wahrscheinlichkeit für ein Stichprobenergebnis unter der Bedingung, daß die Anzahl der schlechten Teile festgelegt ist, unabhängig von p ist. Genauer bedeutet das Ergebnis, daß alle Stichprobenergebnisse mit übereinstimmender Anzahl schlechter Teile gleichwahrscheinlich sind.
Analog wie im Beispiel kann man die bedingten Wahrscheinüchkeiten heranziehen, um zu überprüfen, ob eine Stichprobenfunktion die relevante Information erhält. Bei einer parametrischen Verteilungsannahme (wie im Beispiel) bezieht sich diese Information dann auf den Parameter. Stichprobenfunktionen n
4Für
Xi P(£ «=i
=
k) # 0, d.h.
k
=
0, falls p
=
0 und k
=
n, falls
p-1.
48
Induktive Statistik
mit dieser
Eigenschaft heißen suffizient (erschöpfend)5 für den Parameter. Da t) 0 für die bedingten Wahrscheinlichkeiten benötigt wird, beschränken wir uns in der folgenden Definition auf diskrete Situationen.
P(T(X)
=
Definition
4.5
Sei T der Parameterraum zur Verteilungsannahme W {Py | 7 £ T} einer diskreten Zufallsvariable Y, X (X\,... ,Xn) eine einfache Stichprobe zu Y mit Stichprobenraum X. Eine Stichprobenfunktion T : X —> R* heißt sufficient =
—
bzgl.
7€
T,
wenn
Py(X x\T(X) t) für alle x E X und t € R* mit allein von x und t abhängt8. Der
4.6
(7)
=
=
Py(T(X)
=
t)
0
von
7
unabhängig ist,
also
folgende Satz erlaubt eine leichte Überprüfung auf Suffizienz.
Faktorisierungstheorem von Neyman7 für diskrete Zufallsvariablen
Sei Y eine diskrete Zufallsvariable mit parametrischer Verteilungsannahme W = {F7 I 7 G T}, X der Stichprobenraum einer einfachen Stichprobe X = (Xu...,Xn) zu Y. Eine Statistik T : X -> Rfc mit XT T(X) 8 ist genau dann suffizient bzgl. 7, wenn es eine Funktion =
g
:
XT
x
T
—
R
(8)
und eine Funktion h:X
->
R
=
x)=g{T{x),1)h(x)
(9)
gibt mit
Py{X
(10)
5Der Begriff der Suffizienz geht auf R.A. Fisher (1920) und (1922) zurück. Fisher, R. A., 1890-1962, englischer Statistiker. 6Also Py(X = x I T(X) = t) = Py {X = x I T{X) = t) für 7,-/ € T.
7Neyman, Jerzy, 1894-1981,
amerikanischer Mathematiker und Statistiker.
SXT ist also die Menge der Funktionswerte
von
T.
Stichprobenfuriktionen (Statistiken) für alle
49
£ X.
x
Beweis: 1. Sei T
sufficient,
also
Py(X x\T(X) t)
(11)
=
=
unabhängig von 7, also eine Funktion Dann ist für
h(x)
jedes x
{:
P7(X x\T(X)
{
:=
von x
und t.
£ X mit =
=
T{x))
Py{T(X) T(x)) / 0
für
=
fürP7(T(X)=T(x))=0
(12)
und
g(tn)=Py(T(X) t)
(13)
=
die
gesuchte Darstellung gefunden:
Py{X x) =
= =
2.
Py{X x\T{X) T(x))-Py(T{X) T(x)) (14) h(x) p(T(x),7) =
=
=
•
Umgekehrt sei
P7(X x) =
Dann
gilt für to
£
=
g(T(x), j)h{x)
A"T und
(15)
für alle x£X.
7 € T mit
P7(T(X) t0)?0
(16)
=
für jedes
x
£ X mit
T(x)
=
t0:
Py(X x,T(X) t0) P7(T(X) r0) P7(JT x) P7(T(X) *0) =
P7(X x|T(X) t0) =
=
=
=
=
=
=
Induktive Statistik
50
i£X
E :
T(i)=t0
Py{X i) =
(17) x€X
i€X
x€X
Dieser Ausdruck ist aber wie
g(T(x)n)h{x) E g{T(x)n)h{x) :
T(x)=t0
g{t0,j)h(x) 9(*o,7)h(x) E :
T(2)=f0
h(x) M*) E :
T(ä)=t0
gefordert unabhängig von 7.
Für stetige Verteilungen von Y läßt sich die benutzte Vorgehensweise nicht direkt verallgemeinern, da in der Regel Py(T(X) = t) = 0 ist. Man kann dann mit bedingten Dichten arbeiten und erhält einen analogen Satz für die Dichtefunktion von X.
4.7
Faktorisierungstheorem fallsvariablen
von
Neyman9
für
stetige
Zu-
Sei Y eine stetige Zufallsvariable mit Dichte /y,7,7 € T, T Parameterraum der Verteilungsannahme. Sei X der Stichprobenraum einer einfachen Stichprobe X T
:
X
(X\,...,Xn) zu Y mit der Dichte /xl7. Eine Stichprobenfunktion -* R* mit XT T(X) ist genau dann sufficient bzgl. 7, wenn es eine
=
=
Funktion g
:
XT
x
T
R
(18)
und eine Funktion h :X
-+
R
(19)
gibt mit
fXtJ(x) 9(T(x),j)h(x) =
9s. Neyman (1935).
(20)
Stichprobenfunktionen (Statistiken) für alle
4.8
x
51
€ X.
Beispiel A-exponentialverteilt, dann ist Jy,\{v) Xe~Xy für y > 0 und für die Dichtefunktion fx,y einer einfachen Stichprobe X (Xi,..., Xn) zu Y gilt mit Xi > 0, i 1,..., n:
1. Sei y
—
=
—
n
fx,\(xu...,xn)
=
Y[\e~Xxi
i=\
=
Ane
-*E
0,i
=
n
Xj suffizient
=
«=i
bzgl.
l,...,n und h{x)
=
0
A.
N(/i, er2 )-verteilt, also
/"*-(s)=-vibe"'^
(22)
Dann ist
i
V^ttct2)»
e
1
y/{2na2)n Mit n
der zweidimensionalen n
e
-sVE^-^E^+E"2) «-»
~âsÈ*î *±*> i=1
i=1
e
»
Stichprobenfunktion T(xi,...,x„)
xi> E xi) hängt dieser Ausdruck nur von (E t=l i=l
den Werten der beiden Komponenten der setzt
e
(23)
den Parametern
Stichprobenfunktion
u,er2
=
und
ab. Also
man
h{x)
=
1
(24)
Induktive Statistik
52
und
^>^2)=-jèwe~^e*tle~^ Daraus
a2
ergibt
sich
dann, daß T(x)
n
=
n
I«' E z?) (E «=1 i=l
(25)
suffizient für
u
und
ist.
Hat man eine suffiziente Stichprobenfunktion gefunden, so wird man nur noch solche Entscheidungsfunktionen in die engere Wahl ziehen, die von dem Auswertungsergebnis der Stichprobenfunktion ausgehen. In einem Diagramm hat dies folgende Darstellung:
x,x'-- S(x)
=
6'{T(x))
=
6'{T(x'))
Eine sinnvolle Entscheidungsfunktion muß also bei zwei Stichprobenergebnissen und x' zu Übereinstimmung in den Entscheidungen führen, wenn die Auswertungsergebnisse T(x) und T(x') bei einer suffizienten Statistik T sich nicht unterscheiden. x
Anstelle der Entscheidungsfunktionen 6 : X -¥ A betrachten wir jetzt die Funktionen 6' : XT -> A, d.h. XT ist der neue Informationenraum10 , AT = {5' I 6' : XT -> A} neue Menge der Entscheidungsfunktionen. Durch T wird die Menge A = {S \ ö : X -* A) in sinnvoller Weise auf AT reduziert. Voraussetzung dabei ist, daß T suffizient ist. Die Frage ist jetzt noch, wie man eine suffiziente Stichprobenfunktion findet. Die beiden Beispiele zeigen, daß dabei die Exponentialfunktion in der Dichtefunktion hilfreich ist. Für eine große Klasse von Verteilungen kann man mit Hilfe der Exponentialfunktion eine Gestalt der Wahrscheinlichkeitsverteilung Py(Y = y) bzw. der Dichtefunktion fy^iv) erreichen, bei der das Argument y und der Parameter 7 in Faktoren separiert sind und nur bei einer Exponentialfunktion gemeinsam als Argument erscheinen. Der Einfachheit halber bezeichnen wir auch XT als
Stichprobenraum (bzgl. T).
Stichprobenfunktionen (Statistiken) 4.9 1.
53
Beispiel Poisson-Verteilung
PX{Y y)
=
P\{Y y)
=
=
Xj -e-x
für y = 0,1,2,...
2/*
(26)
Es ist =
e*'nX--e-x
(27)
y-
und mit
a(A)=e-\ h(y)
=
V-
-
6(A)
=
In A,
r(y)=y
(28)
ist
Px(Y y) =
Für eine einfache man daraus
=
a(X)h(y)eb^yl
Stichprobe
Px(X x)
=
=
mit
(29)
Zurücklegen
X
=
(X\,...,Xn)
erhält
n(a(A)M*(*).£*•
so
folgt
und
6a(T(X))
stimmen
E^TiX)) 62(T(X))} Bx[«i(T(X))]-£?x[«a(rW)] -
=
oo =
e-"*
(49)
t
-*(*)) t=o
TT-A* r"
für aüe A > 0. Diese Reihe kann aber nur dann identisch 0 sein für alle13 A > 0, wenn die Koeffizienten Si(t) S2(t) = 0 sind für alle t. Damit ist —
«i
=
«a,
(50)
die Schätzfunktionen stimmen also überein.
4.14
Definition14
Sei X eine Stichprobe zu Y, X sei der Stichprobenraum. Y habe eine parametrische Verteilungsannahme W mit Parameterraum I\ Eine Statistik T : X -> XT
12vgl. Wahrscheinlichkeitstheorie, § 13, Übungsaufgabe 1. 13Wichtig ist, dafi Gleichung (49) für alle A > 0 (genauer
ein offenes Intervall in
erfüllt ist.
^Vollständigkeit von Statistiken wurde eingeführt von Lehmann/Scheffé (1950).
R++)
Induktive Statistik
58
vollständig bzgl. T, wenn für je zwei
heißt
Ey[6l(T(X))] Py[6[(T(X))
=
=
Funktionen
8^,6% : XT —> R aus
Ey[6l(T(X))] für alle 7 6 T Sl(T{X))] l
(51) (52)
=
folgt. Bei einer vollständigen Statistik T sind also die Variationsmöglichkeiten bzgl. einer weiteren Verwendung des ausgewerteten Stichprobenergebnisses T(x) insoweit beschränkt, als durch den Erwartungswert einer Funktion ST : XT -> R auch die Funktion 6T fast sicher festgelegt ist. Damit genügt es dann auch, bei der Beurteüung von Funktionen 6T den Erwartungswert zu betrachten.
Satz
4.15
Stichprobe zur Zufallsvariable Y, parametrige Exponentialfamilie darstellen läßt: Es sei X eine
deren
P-r(Y v) frAv) =
Verteilung
sich als
r-
(53)
Dann ist
(54) eine
vollständige Statistik bzgl. B
=
r
Quader im R
enthält.
Bemerkung
Bedeutung Gleichung (49) Die
(55)
{(M7),---A(7))l7er}cRr
einen offenen
4.16
7, falls
Forderung, daß B einen offenen Quader enthält, wird in Beispiel 4.13 deutlich. Um 5\ 62 folgern zu können, ist
der in
=
Stichprobenfunktionen (Statistiken)
59
erforderlich, daß Gleichung (49) für hinreichend viele A erfüllt
ist. Dies ist finden Parameterraum {A G R | A > 0} erfüllt. Da bei der Poisson-Verteilung 6(A) = In A ist, entspricht dies auch der Forderung an B = {In A | A > 0}.
4.17
Beispiele
1. Im Beispiel der also B
=
Poisson-Verteilung ist 6(A)
=
In A, T
=
{A € R |
{lnA| A>0}=R
A >
0}, (56)
und enthält damit ein offenes Intervall.
2. Für die
Normalverteüung haben wir in Beispiel 4.9 2. eine DarsteUung als 2-parametrige ExponentialfamUie mit
bxili^) Mit T
=
R
ß
=
=
R++
X
,62(/x,o-2)
~
=
^.
=
{(/i, 0} ist
{("2^'^{(0i,A) )l/ieR'\ßi0}
=
0: Ergebnis einer einzelnen Stichprobenziehung ist hier eine positive reelle Zahl, z.B. die Lebensdauer einer Maschine. Sei R++ die Menge der positiven reeüen Zahlen, so ist der Stichprobenraum demnach R"+, die Menge aller Vektoren (x\,..., x„) mit positiven Komponenten. Bildet man analog zur Binomialverteilung den „Stichprobenmittelwert", d.h. das arithmetische Mittel der Stichprobenwerte, so entspricht diese mittlere Lebensdauer der Maschinen dem Erwartungswert \ der Exponentialverteilung. Als Schätzfunktion ergibt sich aus dieser Betrachtung: *(*!,...,*„) (9) =
—I—
=
Erwartungstreue
Schätzfunktionen
63
Entsprechend den drei angeführten Fällen ist es häufig naheliegend, Schätzfunktionen anzugeben, die auch intuitiv sinnvoll und akzeptabel erscheinen. Die Frage, die sich ergibt, ist einmal, ob sie optimal sind im Sinne einer Präferenzrelation im Rahmen der durchgeführten entscheidungstheoretischen Betrachtungen, zum anderen, was für Eigenschaften diese Schätzfunktionen besitzen. Dazu ist dann zunächst zu untersuchen, welche Eigenschaften für Schätzfunktionen wesentüch sind. 5.2
Bemerkung
Eine etwas
aügemeinere Situation liegt in folgenden Beispielen vor:
1. Man schätze den Parameter H und er2. Dann ist
T
=
u
einer NormalVerteilung mit unbekanntem
{(H,cr2) |p.€R, Cr2 >0},
(10)
der Aktionenraum ist
{/* I u € R}. Damit ist
nur
ein Schätzwert für eine
(fi,cr2) gesucht.
(11) Komponente des Parametervektors
2. Man schätze die durchschnittliche Lebensdauer eines Produkts, dessen Lebensdauer exponentialverteüt mit Parameter A ist. Da der Erwartungswert einer Exponentialverteilung j ist, ist also der Funktionswert i?(A) = einer Funktion des Parameters zu schätzen. Dies ist auch bei 1. der Fall, wenn wir t?(u, er2) = u setzen.
^
3. Man schätze die Varianz einer Exponentialverteilung. Die Varianz der Exponentialverteilung mit Parameter A ist p-, d.h. auch hier ist ein Funktionswert /(A) = ji zu schätzen.
Zu schätzen ist in allen drei Beispielen der Funktionswert i?(7) einer Funktion t? : r Ta an der Stelle 7, wobei 7 der wahre Parameter sei. Damit ist dann
T# der Aktionenraum
(12)
und jede Schätzfunktion eine Funktion
6
:
tf-rT*.
(13)
Induktive Statistik
64
Andererseits sind die drei Beispiele auch auf die Eingangssituation zurückman bei 1. a2 als fest, aber unbekannt betrachtet (dann ist r = {u I n € R}) und bei 2. 7 = j als neuen Parameter der Exponentialverteilung einführt, ebenso bei 3. mit 7 = jp. Aus diesem Grund wollen wir uns auf die eingangs beschriebene Situation beschränken.
zuführen, indem
Zur
Beurteüung von Schätzfunktionen benötigen S
wir eine Schadensfunktion
:
A
x
Z
-¥
R,
(14)
:
r
x
T ->
R,
(15)
also hier
S wobei
(16)
5(7,7) den Schaden beim wahren Parameter 7 und der
Entscheidung 7 angibt.
Eine exakte Quantifizierung dürfte in vielen Fällen nicht möglich sein, allerdings wird man sicherüch in allen Fällen von der Abweichung des wahren Wertes 7 von dem Wert 7 ausgehen, für den man sich entschieden hat:
(17)
7-7-
Liegt keine Möglichkeit vor, dies weiter zu spezifizieren, so ist das Quadrat dieser Abweichung deswegen ein vertretbarer Ansatz, weü durch die Quadrierung kleine Abweichungen in ihrer Bedeutung reduziert, große Abweichungen entsprechend verstärkt werden. Durch das Quadrat geht ferner nur noch die absolute Abweichung ein. Dies bedeutet aüerdings auch, daß Über- und Unterschätzun-
bewertet werden. In vielen praktischen Anwendungsfallen ist dies sicherüch nicht den tatsächlichen Konsequenzen entsprechend. Für eine allgemeine Betrachtung des Schätzproblems ist die „quadratische Schadensfunktion" sicher ein sinnvoller Ansatz. gen
5.3
gleich
Bezeichnung
Für T C R wird S
5(7,7)
=
:
T
x
(7-7)3
T
-
R mit
(18)
Erwartungstreue
Schätzfunktionen
65
quadratische Schadensfunktion genannt. Für T C
R*
lautet die
entsprechende Verallgemeinerung k
5((7i,• .7»),(71,.• ,7*)) •
•
•
=
5>< "7i)2-
(19)
Im folgenden woüen wir uns der Einfachheit halber auf den Fall T c R beschränken (Sind mehrere Parameter zu schätzen, so kann man dies auch in einzelne
Schätzprobleme zerlegen).
Sei also S zu T C R die quadratische Schadensfunktion. Zur Beurteilung einer Schätzfunktion 5 : X - T ist also die Zufallsvariable
S(6(X),j) für alle 7 G T Eine
zu
=
(7-S(X))2
(20)
betrachten.
Kenngröße dieser Zufallsvariable ist der Erwartungswert1:
Ey[S(6(X),i)} Ey[(7-ô(X))*}
(21)
=
Bezeichnung
5.4
Sei A = {6 : X T}, T c R, die Menge der Schätzfunktionen2. S eine Schadensfunktion: R
:
T
x
A
:
TxT
-+
R
R mit
R(6,1)=Ey[S(6(X),y)] heißt Risikofunktion zu 5.1st S die quadratische Schadensfunktion, auch einfach Risikofunktion oder mittlerer quadratischer Fehler.
(22) so
heißt R
l7 geht dabei nicht nur in die erste Komponente der Schadensfunktion ein, sondern auch in die Wahrscheinlichkeitsverteilung von X, daher das Subskript 7 bei E. Die eckigen Klammern machen deutlich, dafl zunächst quadriert und dann der Erwartungswert gebildet wird. 'genauer: der £n-£-mefibaren Funktionen, für die der Erwartungswert (22) existiert.
66
Induktive Statistik
5.5
Lemma
Für den mittleren quadratischen Fehler
R{6,7)
=
güt
Är[(7 6(X))*} Vary(6(X)) + (7 Ey[S(X)})2 =
"
-
(23)
Beweis:
E7[(7 S(X))2] -
=
£7[(7 E7*(X) (S(X) EyS{X)))2] -
-
(24)
-
=
S7[(7-B7J(X))a- 2(7-ßT*(X))(J(X)-Ä1tf(jr))+ (*(*)-£7*(X))2]
=
£7[(7
=
-
-E7J(X))3]-2iM(7 Ey6(X))(6(X) EyS(X))]+Ey[{6(X) EyS(X))2] "
-
-
^-E,S(X))2 + Var,(S(X)),
da 7
—
Ejä(X)
eine deterministische Gröfie ist und damit
E7[(7-£7W)(J(X)-£7«5(X))]
. = =
{y-Er5(X))-EJ(5(X)-Br6(X)) (7-W)'W)-W)) 0
(25)
gilt. Das Lemma zeigt, daß sich der mittlere quadratische Fehler zerlegen läßt in zwei Summanden (beide nichtnegativ), wobei der eine das Quadrat der Abweichung des mittleren Schätzwertes vom wahren Parameter angibt, während der andere durch die Varianz mißt, wie sehr die Schätzwerte streuen, d.h. wie „stark" der Schätzwert durch die Zufälligkeit der Stichprobe variiert.
Ziel ist es damit, eine Schätzfunktion 6 zu finden, so daß beide Summanden in ihrem Gesamteffekt (hier also der Summe) mögüchst klein werden.
5.6
Beispiel
Zu schätzen sei der Mittelwert einer normalverteilten ZufaUsvariable Y mit Varianz er2 (fest, aber nicht bekannt) mit einer Stichprobe vom Umfang n. Damit ist T = R. Verwendet werden soll eine lineare Schätzfunktion «J: T»
Sa(xi,---,xn)
=
ao +
J£iaiXi,
a
=
(oo,... ,o„).
(26)
Erwartungstreue
Schätzfunktionen
Als Schadensfunktion wird die
67
quadratische zugrundegelegt.
Dann ist
Ä(M.)
=
Var^Wl + iß-E^iX)})2 n
=
n
^Var^Xil + ^-ao-^aiEMf i=l
Betrachtet
man
das
Optimierungsproblem
n
n
i=l
i=l
Problem,
„optimale" Schätzfunktion
eine
min R{p,6a), erhält man, daß die Minimalstelle u
=
ao und ai
zu
finden, als
(28)
a
so
(27)
i=l
=
...
=
on
=
von u
abhängt, nämlich3
0.
(29)
Da u unbekannt ist und gerade geschätzt werden soll, hilft diese Lösung nicht weiter. Andererseits zeigt dies aber, daß wir keine lineare Schätzfunktion finden können, die für alle u das kleinste Risiko, d.h. hier die kleinsten mittleren quadratischen Fehler, liefert. Denn setzen wir
o*(x) so
=
oo,
(30)
gilt ß(2 + (U-0-u.l)2 a2£a2, =
i=i
d.h. das Risiko ist
i=i
unbekannten Parameter u unabhängig. 3Für diese Werte gilt gerade R(Sa,ß) 0. vom
=
(31)
Induktive Statistik
68
n
Diese linearen Schätzfunktionen
(mit
an
=
0 und
VJ a< t=i
=
1)
haben also die
schöne Eigenschaft, daß das Risiko, also der durchschnittliche Schaden bei häufiger Anwendung, bei quadratischer Schadensfunktion nicht vom unbekannten Parameter abhängt, also für alle relevanten Umweltzustände übereinstimmt. Beschränken wir uns also auf die linearen Sdiätzfunktionen mit dieser Eigenschaft, so werden wir als nächstes versuchen, das Risiko unter all diesen zu minimieren, d.h. die Optimierungsaufgabe 7»
Minimiere
o-^a2
(32)
«=i
unter der
Nebenbedingung
n
J>
=
1
(33)
i=i
lösen. Lösung dieser zu
0l=...
die
Aufgabe ist =
On
=
i,
(34)
n
zugehörige Schätzfunktion lautet Stein,...,xn)
=
-Y]x,-.
(35)
Dann wird also der Stichprobenmittelwert als Schätzwert verwendet. Dies entspricht auch der Vorgehensweise beim Minimaxprinzip. Es gilt nämüch f
n
00
max
R{Sa,n)
=
{
^fX + o2, i=l
£ R durch ihren Erwartungswert fast sicher festgelegt ist, folgt, daß es „im wesentlichen"
7 G T mit T C R
eine erwartungstreue Schätzfunktion für einen Parameter gibt, die die Statistik T benutzt. nur
Erwart ungat reue Schätzfunktionen
75
Satz
5.11
eine Zufallavariable mit parametrischer Verteilungsannahme {P7 I 7 € T}, T C R, X Stichprobenraum zu einer einfachen StichX probe mit Zurücklegen zu Y, T : X -t XT eine vollständige Statistik. Dann T zu T fast stimmen zwei erwartungstreue Schätzfunktionen ôf,5j : XT d.h. aus sicher überein,
Sei 1^
Y
=
Ey[t[(T'X))]
=
7
=
Ey[6?(T(X))] für aüe 7 6 T
(63)
folgt
Py[S1(T(X)) S2(T(X))] =
=
l.
(64)
Satz, dessen Beweis sich unmittelbar aus der Definition der Voüständigkeit ergibt, wird nur die Vollständigkeit der Stichprobenfunktion vorausgesetzt. Ist diese darüberhinaus noch suffizient, so heißt dies, daß die Stichprobenfunktion für die Schätzung auch benutzt werden soüte, denn sie wertet Bei diesem
das Stichprobenergebnis so aus, daß die Information erhalten bleibt und damit das Stichprobenergebnis auf den wesentlichen Kern für den Parameter reduziert wird. Zusammen bedeutet dies, daß es bei einèr voüständigen und sumzienten Statistik im wesentlichen nur eine sinnvolle erwartungstreue Schätzfunktion gibt. Dies wird auch durch den folgenden Satz bestätigt. Bei Vorliegen von suffizienten und voüständigen Sti&probenfunktionen gibt es keine wesentlich verschiedenen erwartungstreuen Schätzfunktionen, die über die Stichprobenfunktion faktorisieren, d.h. bei der der Schätzwert aus dem Wert der Stichprobenfunktion berechnet wird. Dennoch wäre es noch denkbar, daß es eine erwartungstreue Schätzfunktion gibt mit günstigerem Risiko, die nicht über T faktorisiert8. Der Satz von Rao/Blackweü zeigt, daß dies nicht der Fall ist.
5.12
Satz
von
Rao/Blackwell 9
parametrischer Verteilungsannahme W mit Parameterraum r C R, X eine Stichprobe zu Y mit Stichprobenraum X, T : X XT eine suffiziente Statistik. Zu jeder für 7 erwartungstreuen S(hätzfunktion «5 R mit existiert eine Funktion u : XT Sei Y eine Zufallsvariable mit
8Dies wäre ein Widerspruch dazu, daß es sinnvoll ist, die Stichprobenfunktion zu benutzen. 9Rao, Calyampodi Radhakrishna, geb. 1920, indischer Statistiker, vgl. Rao (1945); Blackwell, David, geb. 1919, amerikanischer Statistiker, vgl. Blackwell (1947).
Induktive Statistik
76
ö(x) u(T(x)) ist erwartungstreu für 7, Var-,[5(X)] Vor7[u(T(X))] < Vary(S(X)) und das gilt nur, falls S und S fast sicher übereinstimmen.
1.
=
2.
Gleichheitszeichen
=
Beweis für den diskreten Fall: Sei t 6 XT mit
Py(T{X) t) / 0. =
Da T eine suffiziente Statistik ist, ist die
P(X von
7
=
x
I T(X)
bedingte Verteilung
(65)
t)
=
unabhängig.
Da T suffizient ist, sollte eine sinnvoüe Schätzfunktion bei übereinstimmendem Wert von T auch denselben Schätzwert üefern. Ist dies bei 5 nicht der FaU, so hat 6 noch unnötige Variation, es soüte also möglich sein, die Streuung von S eventuell zu verringern, wenn wir diese Variation beseitigen, indem wir die Schätzwerte in den Bereichen glätten, in denen T konstant ist. Da die Erwartungstreue erhalten bleiben soll, glätten wir in der Art, daß wir in diesen Bereichen den Erwartungswert bilden, also den Erwartungswert von S(X) unter der Bedingung T{X) = t. Sei also
E(6(X) I T{X)
=
t)
=
x:
so
hängt
t€*T:
wegen der Suffizienz
«(*) Dann 1.
=
f
\[
^ à(x)P(X T(x)=t von
=
x\T(X)
T dieser Wert
nur von
E[5(X) I T{x) t]
P-,(T(X) t)jtO
0
sonst
=
=
(66)
t),
t ab. Also sei
=
(67)
güt
6(x)
=
u(T(x))
E,[u(T(X)))
ist erwartungstreu: =
£u(t)P7[r(X) t] £ E[S(X)\T(X) P,(T(a)=t)#0 =
t
t:
für
=
t]Py(T(X) t) =
77
Erwartungstreue Schätzfunktionen
=
=
£P7(TPO
=
*)
£ S(x)P{X T(x)=t
t
x:
t
«:T(x)=t
E *(*)*r(* E x:T(x)=t £o(x)P7(X x) x£X
=
n
=
x\T{X) t) =
'
1
'
(68)
*)
t
=
=
=
Ey[S(X)]
r
=
2.
Varj[6{X)]
=
=
=
>
E7[5(X)-7]2
Ey[6(X)-u(T(X)) + u(T(X))-i]* Ey[S{X) u{T(X)]2 + Vary[S{X)] Vary[6{X)],
(69)
-
da
E7[(6(X) u(T(X)){U{T(X)) 7)] Ey[S{X){u(T(X)) 7)] Ey[u(T(X))(U(T(X)) 7)] -
-
=
-
(70)
-
-
und
Ey[u(T(X))(u(T(X))-y)] =
J2u(t)(u(t)-7)Py[T(X)
=
t]
t
=
=
£(«(*)-7)*rP-(*) *] E W.mn'Jfl £(«(*>E T(x)=t E T(x)=t E («(r(x))-7)o(x)P7(X x) =
=
t
=
=
t
=
x:
z:
e7[o(X)(u(T(a:))-7)]
gilt. Probieren wir das Verfahren
von
Rao/Blackwell an einem Beispiel aus:
(7i)
78
Induktive Statistik
5.13
Beispiel: Poisson-Verteilung n
T(ii,...,x„)
=
VJ Xi «=i
vollständig für den Parameter A. Da Zurücklegen, X\,...,Xn zu Y, Xi identisch
ist suffizient und
für eine einfache Stichprobe mit verteüt ist wie Y, ist
*(*!,...,*„)
(72)
H
=
eine erwartungstreue Schätzfunktion10:
E(Xi) E(Y) =
Wie lautet
=
X.
(73)
u(r)?
Nach Definition ist
u(t)
=
=
E(S(X)\T(X) t) =
£ 6(x)P(X x\T(X) t) T(x)=t £ XlP(X x\T(X) t) T(x)=t £*i £ P(Xi=*i,Xa=*a...X„ =
=
x: =
=
(74)
=
x: =
=
*n
|r(X) *)
x
€ X zusam> 0 für
=
za...x„:2_, Xj=t-xi .=.2
=
53 XlP{Xx X! 0
Der Erwartungswert der Gammaverteilung ist E(Y) = a^. Es sei bekannt, daß 1 ist. Sei X eine einfache Stichprobe mit Zurücklegen zum Schätzen des A Parameters a der Zufallsvariable Y. Ist =
*=
1 -
n
"
V ^—' ti i=i
gleichmäßig beste erwartungstreue Schätzfunktion für a
?
Übungsaufgabe 5.4: In einem Unternehmen soü durch eine Befragung untersucht werden, wie die Arbeitnehmer in der Regel zu ihrem Arbeitsplatz gelangen. Es werden vier verschiedene Möglichkeiten betrachtet: Zu Fuß (0), mit dem Auto (1), mit Nahverkehrsmitteln (2) und Sonstiges (3). Die Wahrscheinüchkeiten für die vier
Möglichkeiten seien ji ist für i
(a)
=
mit i
3
=
0,1,2,3 und £ 7i
=
i=0
0,1,2,3.
1. Bekannt sei, daß 7i > 0
Bestimmen Sie eine
gleichmäßig beste erwartungstreue Schätzfunktion für (7o,7i.72,73)(b) Eine Stichprobe vom Umfang n 15 brachte folgendes Ergebnis: 7=
=
3,1,2,1,1,0,3,2,1,0,2,1,1,0,2, Man berechne den Schätzwert für 7 nach der Schätzfunktion
aus
(a).
6
Maxiraum-Likelihood-Schätzfunktionen1
Einen eher intuitiv begründeten Ansatz büdet ein anderes Verfahren, einen oder mehrere Parameter einer WahrscheinÜchkeitsverteilung zu schätzen. Grundlage der Schätzung ist wieder das Ergebnis einer Stichprobe, es hegen also Meß- oder Beobachtungswerte Xi,...,x„ vor. Die Gesetzmäßigkeit des Zufaus, die dieser Beobachtung zugrunde liegt, kann durch die Wahrscheinlichkeit des Stichprobenvektors X angegeben werden, die wegen der Grundannahmen der schüeßenden Statistik in bekannter Weise vom (unbekannten) Parameter 7 abhängt. Die Maximum-Likeühood-Methode geht letztlich von dem Prinzip aus, den Parameter als Schätzwert festzulegen, bei dem das Stichprobenergebnis x die größte „PlausibiÜtät" hat.
Sei zunächst ein diskretes Problem diskrete Zufallsvariable. Dann ist:
gegeben, der Stichprobenvektor X also eine
die Wahrscheinlichkeit für das Auftreten des
P~f(X x) =
Stichprobenergebnisses Das
(1)
x.
Maximiim-Likelihood-Prinzip besagt jetzt:
Py{X x)
Maximiere
=
(2)
über 7 G V
und
wähle die Maximalstelle
6.1
7*
als Schätzwert.
(3)
Beispiel
Gesucht sei die WahrscheinÜchkeitsverteilung einer B(m,p)-verteüten Zufallsvariable, also der Parameter p einer Binomialverteilung:
p(Y Dann ist für das
=
k)
=
(^jpk(i-Pr-h.
Stichprobenergebnis x
pP(x=x)
=
n
=
(xi,..., x„)
(4) :
-p)
'Eine systematische Theorie von Punktschatzverfahren nach dem Maximum-LikelihoodPrinzip (Fisher (1922)) wurde wohl zuerst von R.A. Fisher (1925) entwickelt.
Maximum-L ikelihood- Schât z funkt ionen
nQ-
(i-p)->
=
Dieser Wert ist für p € n stelle ist der Faktor T[
87
[0,1]
(5)
maximieren. Zur
Bestimmung der Maximal(1") ohne Belang, außerdem wird die Aufgabe dadurch »=i erleichtert, daß man den Wert logarithmiert2 (0 < p < 1): zu
'
]
ln[pi-i (l-p)i-i
=
J3*i lap+ (»"»-£**) ln(l-P)-(6) i=l
i=l
Die
Ableitung davon nach p ist: "
"
1
1
53*4--(nm-53*j)—. y
i=l
Setzt
man
dies
(7)
*
«=1
gleich Null, erhält man die Gleichung: Ii
Xi
nm-
fBr53*l74 0.
£ *i Daraus
n
(8)
«
folgt n
-
p
=
~n— Ä 2-, *»
oder
p=
=
nm
——
—x. m
(9)
i=l n
£
Für
n
*«
i=l
• •
«=i
PP(X x) 0 PP(X *)>0
JWegen
nicht.
^ 0 und £ *< # nm ist dies tatsächlich eine Maximalstelle, denn =
=
=
fürp 0 oderp für0 «-1
Xi > 0
für
(34) t
=
l,...,n
Logarithmieren erhält man n
lnfXiX(x)
=
n-hi\ +
(-\y£xi).
(35)
Damit ist
^(ta/xla(*)) £-5>
(36)
^(ln/XiA(x)) -^
bzw.
die Dichte
von
X
R heißt LiJke/i/»ood-F«n*rion zuxEX.
2. Die Maximalstelle 7 der Likelihood-Funktion in
II(7)
=
3. Die Funktion
T, d.h.
maxLI(7), 7€r
heißt Maximum-Likelihood-Schätzwert
probenergebnis
x
€ X.
SMl
MÄML(i)) heißt
(40) (kurz: ML-Schätzwert)
zum
Stich-
X -*T mit =
maxLx(7) 7er
Maximum-Likelihood-Schätzfunktion für funktion). 6.5
(,_Q.;
(41) 7 € T
(kurz: ML-Schätz-
Bemerkung
Im Rahmen dieses Buches betrachten wir nur einfache Stichproben mit Zurücklegen. Das Maximum-Likelihood-Prinzip ist aber natürlich für jede Art von Stichproben anwendbar, wenngleich die Optimierungsaufgabe unter Umständen schwierig zu lösen sein wird. Vorausgesetzt werden muß zunächst nur, daß bekannt ist, wie die Wahrscheinüchkeitsverteilung der Stichprobe vom Parameter abhängt. Dies wird aber schon in der dritten Grundannahme gefordert. Bei einer
Induktive Statistik
94
einfachen Stichprobe mit ders einfach.
Zurücklegen ist
aber die Likeühood-Funktion beson-
Sei nämlich , qY"iy)
/ P7(Y y) *M
{
.
dann
=
Y diskret Y stetig,
=
.
w
güt n
Lx(l)
=
Y[qY,-y(Xi).
(43)
für aüe 7 € T güt, ist wegen der strengen Monotonie der Logarithmusfunktion 7* genau dann MaximalsteUe von Lx(j), wenn 7* Maximalstelle von ln(Lz(7)) ist. Falls
Es
ii(7)
> 0
güt aber
lni,(7)
=
ln[n«K.7(*0]=Eln«»r.'r(af aüEyfaiX)) EyftPO)] + ( v)i7(7)) + a0Fs, (x)i7(j)} =
-
=
-
~
100
Induktive Statistik
Danach wäre dann zu prüfen, ob es eine mtervailschätzfunktion (61,62) gibt, die gleichmäßig beste ist, d.h. für alle 7 G T ein minimales Risiko garantiert. Das Problem bei der Beantwortung dieser Frage besteht sicherlich darin, daß der unbekannte Parameter 7 sowohl als Parameter als auch als Argument der Verteilungsfunktion auftritt. Versucht man aber eine Risikominimierung bei festem 7 in der Hoffnung, daß die Minimalstellen bei allen 7 dieselben Funktionen 5\ und 62 liefern, so erhält man ein Minimierungsproblem, bei dem über Funktionen minimiert wird.
Wegen dieser Schwierigkeiten soü dieser Ansatz hier nicht weiter verfolgt werden. Statt dessen betrachten wir die Möglichkeit für Fehlentscheidungen. Korrekt ist die Intervallschätzung, wenn der wahre Parameterwert im geschätzten Intervall [Si(x),&2(x)] liegt. Demnach haben wir eine Fehlentscheidung, wenn einer der beiden Fäüe
/:7 W) =
7.2
=
!
(12)
Bemerkung
1. Diese Definition fordert implizit, daß P7(7 G [ 1
Beziehung -
a
für alle 7,
Lösung [6i(X),6-t(X)]
(13) =
T
auszuschließen,
(impüzit) verlangt, daß das Gleichheitszeichen für mindestens ein 7 G T güt (siehe z.B. Härtung (1993), S. 130). Die verbale Formuüerung „die Wahrscheinlichkeit, daß 7 im Intervaü liegt, betrage mindestens 1 a" könnte zu der Fehlinterpretation führen, daß 7 die Zufallsvariable ist. Zufäüig (nämüch berechnet aus dem zufälligen —
Stichprobenergebnis)
ist aber das Intervall
[öi(X),02(X)].
Es ist daher
besser, von der Einschlußwahrscheinlichkeit für den wahren Parameter zu sprechen, bzw. von der Wahrscheinüchkeit, daß das Schätzintervaü den wahren Parameterwert überdeckt3. Das Problem bei der Wahrscheinüchkeit
Bestimmung von Konfidenzintervaüen hegt darin, daß die
p7(7e[*i(X)AP0]) svgl. Bamberg/Baur (1993),
S. 161.
(14)
3Obwohl Intervallschätzungen bis auf Laplace zurückgehen, scheint dieser Sachverhalt erstvon Wilson (1927) klar dargestellt worden zu sein (vgl. Lehmann (1993), S. 126). Eine allgemeine Theorie der Konfidenzintervalle und ihre Beziehungen zur Testtheorie wurde von Neyman (1937), (1938) und (1941) entwickelt. mals
103
Intervallschätzungen ohne Kenntnis von 7 berechnet bzw.
7.3
abgeschätzt werden muß.
Beispiel
Eine Maschine stellt Bolzen mit einem vorgegebenem (Soll-) Durchmesser von 10 mm her. Durch Produktionsschwankungen variiert der Durchmesser der einzelnen Bolzen nach den Gesetzen einer Normalverteilung, deren Standardabweichung mit 0.02 bekannt sei. Mit einer Stichprobe vom Umfang 10 soll ein 95%-Konfidenzintervall für den mittleren Durchmesser bestimmt werden, die Meßwerte betragen:
10.00,10.01,10.07,10.05,10.02,9.99,9.96,10.02,10.04,10.08. Als Schätzwert für den Mittelwert verwenden wir
(15)
f) X{ N([i, £)-verteilt ist, ist
i=l
ߧtand(X)
1=1
=
standardnormalverteilt und
normalverteilung
es
(16) gilt für das (1
P(-Ul_j < firtandiX) < tii_j)
=
1
-
-
f )-Quantil ui_ 9 der Standard-
Ct.
(17)
Damit ist
P(i£x nff %=i
*
Jn
und
(19)
104
Induktive Statistik
das gesuchte also
[10.024
-
(1 a)-Konfidenzintervall. -
^=l-96,10.024 ^J1-96] +
Für 1
a
=
-
=
0.95 ist mit ui_^
1.96 —
[10.024 0.012,10.024 + 0.012] (20) [10.012,10.036] -
=
gesuchte 95%-Korifidenzintervall. Da der Sollwert nicht in diesem Intervall liegt, liegt der Schluß nahe, daß die Maschine dejustiert, also nicht korrekt eingestellt ist. das
Verteilt man die Nichtüberdeckungswahrscheinlichkeit nicht gleichmäßig auf beide Seiten des Intervalls (s. Abb.7.1), also beispielsweise auf folgende Weise:
P(p S2(X))
=
^a,
(21)
hat mit 1
n
1
er
"
a
(22)
und
(23)
(24) »=i
das Intervall 1
1
die
n t—>
er
1
1
n
V*
°~
Überdeckungswahrscheinlichkeit a.
Für a = 0.05 ist u1_3a. = «0.9925 = 1-78 und Tabelle Anhang D). Die Intervallbreite ist damit bei
(25)
symmetrischer Aufteilung.
=
u0.9875
=
2.24
(vgl.
4.02-")ai=l
Die
(63)
zugehörige Zufallsvariable dividiert durch a2
£(Xi-V)' (64) ist dann
x2(n)-verteilt (vgl. Anhang A.5.).
114
Induktive Statistik
Mit den
Quantilen x2(n)f
X2(n)i-} gilt dann
£(*-")2
X2(n)?^J^j
>
9Tschebyscheff, Pafnutij, 1821-1894, russ. Mathematiker.
l->
=
l-a
(97)
121
Intervallschätzungen
Ein Problem dabei ist, daß die Varianz er2 meist nicht bekannt sein dürfte und geschätzt werden muß. Ersetzt man in (97) a2 durch einen Schätzwert, so ist die Tschebyscheffsche Ungleichung nicht mehr anwendbar, die Abschätzung ist also in diesem Fall nicht nachgewiesen.
Übungsaufgaben zu §
7
Übungsaufgabe 7.1: Aus früheren Experimenten ist bekannt, daß bei weichung von er 2 auftritt.
Messungen eine Standardab-
—
(a)
Welchen Stichprobenumfang muß man wählen, um den unbekannten Mittelwert mit mindestens 95% Sicherheit auf 0.5 genau durch das arithmetische Mittel zu schätzen (Hinweis: Verwenden Sie die Ungleichung von
Tschebyscheff. ) (b) Welchen Stichprobenumfang muß man in (a) wählen, tungsmaterial normalverteilt ist ?
Übungsaufgabe In einer
händer.
(a)
das Beobach-
7.2:
Stichprobe
von
250 Studenten einer Universität
waren
22 Links-
In welchem Bereich liegt der Anteü p der Linkshänder unter den Studenten dieser Universität mit mindestens 95% WahrscheinÜchkeit? (Hinweis: Verwenden Sie die Ungleichung von Tschebyscheff; ersetzen Sie darin die unbekannte Varianz des Anteils der Linkshänder durch einen
geeigneten Schätzwert.)
(b)
wenn
Bestimmen Sie ein exaktes Konfidenzintervall für p.
Induktive Statistik
122
Übungsaufgabe 7.3: Herstellung eines Spezialteils werden mittels eines Schneidegeräts Rohre zugeschnitten, die eine bestimmt Länge ßo haben sollen. Auch bei fest gewählter Einstellung treten zufällige Schwankungen in der Länge der abgeschnittenen Rohre auf. Aus langjähriger Erfahrung sieht man die Länge der Rohre als normalverteilt an mit dem Erwartungswert ß und der Varianz er2. Aus einem Produktionslos werden n 10 Stücke zufällig entnommen und ihre Länge nachgemessen. Als Werte ergaben sich: Bei der
=
185.5,184.8,183.6,186.7,183.2,184.9,183.6,186.5,187.3,187.5
(a)
Nehmen Sie an, daß die Varianz der Rohrstücke bekannt sei mit er2 = 3.4. Berechnen Sie das 95%- und das 99%-Konfidenzintervall für den Erwar-
tungswert ß.
(b)
Berechnen Sie die 95%- und 99%-Konfidenzintervalle für den wert u, falls die Varianz er2 unbekannt ist.
(c) (d)
Berechnen Sie 95%- und 99%-Konfidenzintervalle für die Varianz er2.
Erwartungs-
Berechnen Sie 95%- und 99%-Konfidenzintervalle für die Varianz der Erwartungswert ß mit ß 185 bekannt ist.
ff2, falls
=
Übungsaufgabe 7.4: Für die Planung der Produktion benötigt ein Unternehmen Angaben über die mittlere Bestellmenge eines bestimmten Ersatzteils. Von 25 zufällig ausgewählten Kunden werden im Durchschnitt 27 Ersatzteile pro Vierteljahr bestellt. Die Standardabweichung der vierteljährlichen Bestellmenge eines Kunden ist aus früheren Untersuchungen mit er = 8.1 bekannt. Bestimmen Sie ein 95%-Konfindenzintervall für die mittlere Vierteljahr dieses Ersatzteils
(a) (b) (c)
ohne Annahmen über die
Bestellmenge
pro
Verteilung der Bestellmenge zu treffen,
unter Annahme normalverteilter
Bestellmengen,
wie bei (b), aber ohne Kenntnis der Standardabweichung der Bestellmenge. In der Stichprobe ergibt sich eine korrigierte Bestellmengenstandardabweichung von 8.1.
Tests
8
zum
Niveau
a
Im folgenden wollen wir uns dem dritten Hauptbereich der univariaten induktiven Statistik zuwenden, den Tests (vgl. § 3 und die Einführung). Es geht also darum, eine Entscheidung bezüglich des (unbekannten) Parameters der Verteilung einer Zufallsvariable zu treffen. Dabei bestehen nur zwei Entscheidungsalternativen, d.h. wir wollen nicht einen (ungefähren) Wert für den Parameter ermitteln, sondern nur feststellen, in welchem von zwei Teilbereichen des Parameterraums sich der „wahre" Parameter befindet. Typisches Beispiel ist die Frage, ob der Ausschußanteil einer Warenpartie einen „tolerierbaren" Ausschußanteil überschreitet oder nicht, ob eine Maschine ausgedrückt durch die Pa-
Verteilung der Meßwerte bei den gefertigten Produktionseinheiten ordentlich arbeitet oder nicht, ob eine Werbekampagne erfolgreich war oder nicht (d.h. ob der mittlere Umsatz nach der Kampagne größer ist als der alte
rameter der
-
-
bekannte
Wert), usw.
Betrachten wir nochmals die Ausgangssituation bei einem Test über den Parameter einer Zufallsvariable Y (vgl. § 3 und die Beispiele aus § 2). Der Parameterraum F ist in einer Testsituation zerlegt in zwei disjunkte Teilmengen r0 und
Tu
T
T0 U Ti
=
mit
r0 ^ 0 ^ Ti und TQ n Ti
=
0.
„wahren" Parameter 7 von Y muß also H0 : 7 € To (NuUhypothese)
Für den
° er
Hi
:
7e
Ti
(1) (2)
(Gegenhypothese)
richtig sein1. Aufgrund einer Stichprobe soll jetzt entschieden werden, welche der Hypothesen als richtig angesehen wird. Die Entscheidungsmöglichkeiten sind also do : Ho wird als richtig betrachtet und
(Ho
wird
angenommen)
^ Alternativtest
di : H0 wird als falsch angesehen,
(Hq
1
wird
abgelehnt)
Grundlegende Arbeiten zur Theorie dee Testens von Hypothesen sind die Arbeiten von J. Neyman und E.S. Pearson (1928), (1933), (1936a), (1936b). In diesen Arbeiten wird auch erstmals die Unterscheidung in Fehler 1. und 2. Art (siehe unten) gemacht.
Induktive Statistik
124
do und di können natürlich auch bzgl. der Hypothese Hi formuliert werden.
Gelegentlich wird man aufgrund der Aufgabenstellung die Entscheidungen auch
in anderer Weise
do
:
und
formulieren, etwa
Entscheidung über die Ï Gültigkeit von Ho oder Hi
keine
>
di : Ho wird abgelehnt.
Signifikanztest
J
Bei der ersten Wahl der Entscheidungsmöglichkeiten spricht man auch nem Alternativtest, bei der zweiten von einem Signifikanztest.
8.1
von
ei-
Beispiel für die Situation eines Signifikanztests:
Signifikanztests treten häufig bei medizinischen Fragestellungen auf, beispielsweise ob Produkte gesundheitsschädlich sind, Medikamente wirksam sind, etc.. Wegen der Fehlermöglichkeiten, die bei jeder Entscheidung auf der Grundlage von Stichproben nicht ausgeschlossen werden können, möchte man sich nur für eine der beiden Alternativen festlegen, wenn dazu eine ausreichende Grundlage, also hinreichender „Tatverdacht", besteht. Beispielsweise bei den Hypothesen Ho : Medikament ist unwirksam und
Hi : Medikament ist wirksam lautet dann
do: Das Medikament ist möglicherweise unwirksam, könnte aber auch wirksam sein. Eine
Entscheidung darüber wird nicht getroffen,
dx: Das Medikament ist wirksam. Vor allem bei gravierenden Nebenerscheinungen des Medikaments ist eine solche Entscheidungssituation plausibel. Je nach Krankheit und der Art der Nebenef-
Tests
zum
Niveau
125
a
fekte (oder auch dem Preis des Medikaments) kann eine Vertauschung der Hypothesen Ho und Hi sinnvoll sein. Dabei geht es dann darum, die Unwirksamkeit des Medikaments abzusichern. Auf die Unterscheidung zwischen Alternativtest und Signifikanztest werden wir noch zurückkommen. Betrachten wir im folgenden die „klarere" Situation des
Alternativtests.
Offensichtlich sind hier 1.
2.
folgende Fehler möglich:
H0 wird verworfen (Entscheidung di), obwohl Ho richtig ist, oder m.a.W. Ho wird fälschlicherweise abgelehnt. Man nennt dies den Fehler 1. Art. Ho wird angenommen (Entscheidung do), obwohl Ho falsch ist, oder m.a.W. H0 wird fälschlicherweise angenommen. Man spricht hier vom Fehler 2. AH.
Der entstehende Schaden hängt sicherlich davon ab, ob ein Fehler gemacht wird und, wenn ja, welcher Art dieser Fehler ist. Die Schadensfunktion
5:
{do,di} xT->R
wird sich dann in ihrer Gestalt in folgenden Bereichen wesentlich unterscheiden:
a) Entscheidung db bei 7 € r0, d.h. b) Entscheidung do bei 7 6 Ti, d.h. c) Entscheidung d\ bei 7 € r0, d.h. d) Entscheidung d\ bei 7 € T\, d.h.
korrekte
Entscheidung, Fehler 2. Art,
Fehler 1. Art,
korrekte
Entscheidung.
7
Entscheidung
aus
Ti
Fehler 2. Art
do
korrekt
di
Fehler 1. Art
korrekt
Obwohl die Höhe des Schadens in diesen vier Bereichen sicherlich noch von dem wahren Wert 7 abhängen wird, betrachten wir die folgende „undifferenzierte" Schadensfunktion:
(
5(d, 7)
=
I
[
ci a
0
7€ 7€
r0,d Ti, d
=
=
sonst
di do
„Fehler 1. Art"
„Fehler korrekte
2. Art"
Entscheidung
Induktive Statistik
126
Der Schaden wird hier in den vier Bereichen als konstant angesehen, wobei bei einer korrekten Entscheidung kein Schaden entsteht. Sei nun ö : X {do,di} eine Entscheidungsfunktion, d.h. nis x.
8.2 Eine
S(x) die Entscheidung beim Stichprobenergeb-
Bezeichnung: Entscheidungsfunktion S : X
-+
{dn,di} wird
Test genannt.
Man erhält dann als Risikofunktion
Ä(*,7)
=
=
Ey[S(S(X),y)} S(ch,j)Py(S(X) do) + S{duj)Py{6(X) =
OPT(o(X) do) + c1P7(o(X) d1)
für
oaBr(S(X) do) + 0PJ{6(X)=d1)
für 7 € IV
=
=
=
(3) =
76r0
Bei dieser Schadensfunktion sind damit für das Risiko bei einer funktion (eines Tests) S die Wahrscheinlichkeiten
di) für 7 € T0 : Wahrscheinlichkeit „Fehlerwahrscheinlichkeit 1. Art"):
P7(6(X)
=
P/(*,7)
Entscheidungs-
für den Fehler 1. Art
(kurz: (4)
P7(S{X) db) für 7 6 Ti : Wahrscheinüchkeit für den Fehler 2. Art (kurz: „Fehlerwahrscheinlichkeit 2. Art"): und
=
Pjj(*,7)
(5)
ausschlaggebend. Ein gleichmäßig bester Test zu dieser Schadens- bzw. Risikofunktion hätte damit für jede Wahl von 7 e T ein minimales Risiko, d.h. also eine mimmale Fehlerwahrscheinüchkeit. Bis auf pathologische Ausnahmefälle gibt es damit keine gleichmäßig besten Tests, wie folgende Überlegung zeigt. Ein Test 5 : X -¥ {do, di} ist durch die Teilbereiche, in denen die Entscheidung do bzw. di getroffen wird, eindeutig festgelegt:
Teats
zum
As
Niveau
127
a
{x € X I 5(x)
:=
=
{x G X I (J(x) nungsbereich
Ks
:=
bei ck i=l
do
l
di
(52)
n
E Xt € {0,1, ...,}= N U {0} ist, kann man sich bei cH ebenfalls auf Werte «=i aus NU{0} beschränken. Für den Fehler 1. Art erhält man Da
Pi(ök, Ao)
=
Pao E Xi > cfc),
(53)
i=l
für den Fehler 2. Art n
P//(**, Ai) Da
=
PAl
A-4
(56)
gilt. Im ersten Fall sagen wir, der fällt monoton in T(x).
Wabxscheinlichkeitsquotient steigt, im zweiten er
Ney man-Pearson Tests
Übungsaufgaben zu §
149
9
Übungsaufgabe 9.1: Sei Y eine Poisson-verteilte Zufallsvariable mit unbekanntem Parameter A. Mit einer Stichprobe vom Umfang n 6 sollen die Hypothesen Ho : A Ao 1 = 3 : A werden. Ai H\ gegen getestet =
=
=
=
(a) (b)
Wie lautet der beste Test mit einem Niveau
a
< 0.06 ?
Bestimmen Sie das Niveau a für den besten Test, wenn k den Wert 0.363 hat, wobei k als kritischer Wert für den Wahrscheinlichkeitsquotienten verwendet wird.
Übungsaufgabe 9.2: Y sei eine normalverteilte Zufallsvariable mit bekannter Varianz er2 und unbekanntem Erwartungswert u. Mit Hilfe einer Stichprobe vom Umfang n soll die Alternative H0 : u = gegen die Alternative Hi : u = Ui mit ui > uo getestet werden.
(a) (b)
Bestimmen Sie einen besten Test Nehmen Sie
Hi
:
fi
=
Ui
zum
Niveau a.
3 gegen an, Sie wollen die Hypothese H0 : u = A*o 5 bei einer Varianz von a2 3 zum Niveau a = 0.05 testen.
nun =
Wie entscheiden Sie sich bei einem
=
—
10
Stichprobenergebnis von YJ x< i=l
=
40 ?
Übungsaufgabe 9.3: Ein Unternehmen erhalt einen Anruf von einem Lieferanten, daß eine gelieferte Warenpartie mit 10000 Teilen möglicherweise nicht wie „normal" einen Ausschußanteil von 5%, sondern wegen eines Fehlers in der Produktionsanlage von 15% habe. Daraufhin wird eine Stichprobe vom Umfang n = 30 entnommen. Mit einem gleichmaßig besten Test mit einem Niveau von höchstens 0.1 soll „statistisch" gesichert werden, daß die Partie wie normal einen Ausschußanteil von 5% hat. Gewährleistet das Testergebnis dies nicht, wird die Partie zurückgeschickt.
150
Induktive Statistik
Übungsaufgabe 9.4: Y sei eine Zufallsvariable mit parametrischer Verteilung, T sei der Parameterraum. Mit einer Stichprobe vom Umfang n mit Zurücklegen soll
Ho
:
7
=
7o
gegen
Hi
:
7
=
(57)
71
getestet werden. Ô sei der Neyman-Pearson-Test zum Niveau a für dieses Testproblem, T sei eine suffiziente und vollständige Statistik. Man zeige: Gilt für zwei so
folgt cKx1)
Stichprobenergebnisse x1 =
Six2).
und x3
T(xx) T(x2), =
Gleichmäßig
10
beste Tests
Betrachten wir nun die allgemeine Situation r = rour1,ro/0^r1,ronr1
zum
=
Niveau
a
(i)
0.
Gesucht wird ein gleichmäßig bester Test ö für Ho : 7 G To gegen Hi : 7 vom Niveau a, d.h. Pi{o~,lo) < a für alle 70 G T0 und für jeden anderen Test S1
Pii(Sm)
Niveau a gilt < PidS'm) für alle 71 e IV
€
Ti
(2)
vom
(3)
(2) ergibt sich sofort, daß jeder Test 6 zum Niveau a für Ho : 7 G To gegen
Aus
7 € Ti auch einen Test zum Niveau a liefert für die einfachere Situation 7 = 70 gegen ffi 17 = 7!, wie auch immer man 70 € ji G Vi auswählt. Wählen wir aber 70 G To und 71 G Ti beliebig aus, so liefert uns der Neyman/Pearson-Test 6k zu k G R++ einen gleichmäßig besten Test zum
ffi Ho
:
r0*und
:
Niveau
P/( P und pi P
(12)
sonst
oder mit c :=
min{cP0,p1 | Po > P.Pi < p} di
:
£ Xi
P c
=
5, ist, ist
auszurechnen, sondern man prüft für c Eigenschaften von S*, nämlich: Zahlen cP0)Pl
=
1. Welches Niveau hat 5*1
2. Ist Ä*
erforderlich, die 0,1,2,3,..., nm 1 die
es
gleichmäßig bester Test zu diesem Niveau?
nicht
—
154
Induktive Statistik
Pi(r,p)
pP(ö'(x) dl)
=
=
=
pp(£xi p
(16)
ist.
S* ist also
vom
Niveau ae.
6* ist aber auch
gleichmäßig bester Test zum Niveau ac:
Sei nämlich 6' ein Test
Sc(x) ein
=
l
di
:
zum
Niveau ac und Pi < p. Zunächst ist
T,Xic i=l
p
Neyman/Pearson-Test zum Niveau n
Pd6c,p)
=
Pp(%2xi^c)
=
(18)
a°>
i=i
also gleichmäßig bester Test
zum
Niveau ac für p = p gegen p = Pi und
es
gilt:
n
Pii(Sc,Pi)
=
PPl(6c(X)=d0)=PPdYlXi>c)
(19)
i=i
=
Da aber auch 6' Test
P//(**,Pi) was zu
=
zeigen war.
PPdS'(X)=do) Pu(6\px). =
zum
Niveau ac ist für Jfu : P
P,/(d%,Pi) < P//(«î',Pi),
=
P gegen
ifi
:
p
=
pi, ist
(20)
Gleichmäßig
beste Tests
zum
Niveau
155
a
Entscheidender Punkt in diesem Beispiel ist, daß für jedes Po > P und pi < p der n Koeffizient von £ xt- in der Funktion lnQ(x) dasselbe Vorzeichen hat, so daß t=i
für jede Wahl ist. Es
von
n
po > p und Pi < p
Q(x)
monoton fallend in
liegt also ein einheitliches Monotonieverhalten vor.
10.2
T(x)
=
VJ x< •=i
Definition:
Sei X Stichprobe zu Y, Y habe eine parametrische Verteilungsannahme mit Parameterraum T = T0 U ri,r0 n Ti = 0. T : X - R sei eine Statistik [X Stichprobenraum). Wir sagen: Die
Wahrscheinlichkeitsquotienten (x\
Q
-
PTl(* =*)
b_w
fx,yi(x)
.
.
falls P70(X x) ^ 0 bzw. /x,7o(x) Ï 0 und Q70l7l(x) = oo, falls P7o(X x) 0 bzw. /x,70 (x) 0 sind einheitlich monoton steigend (fallend) in T, wenn für alle 7o € To und 71 G Ti und x,x' G X =
=
=
=
T(x)
0.
Satz:6
10.7
Gegeben sei das Testproblem Hq : 7 € T0 gegen H\ : 7 G T\. T : x R sei eine Stichprobenfunktion derart, daß der Wahrscheinlichkeitsquotient Qy0,yi ein für jede Wahl von 70 G To und 71 € Ti einheitliches (o.B.d.A. monoton wachsendes) Monotonieverhalten in T hat. Zu K {x G x \ T{x) > c} € x gebe es ein 7* G Tq mit =
a*
=
Py. (T(X) >c)
=
max
P7 [T(X)
>
c)
(53)
> 0.
Dann ist
«*>-{*
für für
T(x) < c T{x) > c
^
gleichmäßig bester Test zum Niveau a*. Sei Ô' ein weiterer gleichmäßig bester Test zum Niveau a*, ö(X) fast sicher für 7* und alle 7 G Ti überein.
so
stimmt
Ô'(X) mit
Beweis:
Offensichtlich ist 6 ein Test 71 G
zum
Niveau a*. Sei S' ein Test
zum
Niveau
a
und
Ti. Zu zeigen ist
P11(T(X) 70
Entscheidungsfunktion
T{x) c zu c
6 R ein
a
=
(57)
gleichmäßig bester Test zum Niveau
Pyo (T{X) > c),
falls
a >
(58)
0 ist.
Sei 6' ein
(weiterer) gleichmäßig bester Test zum Niveau a P70 (T(X) > c) > 0, so stimmen 6(X) und 6'{X) für alle 7 > 70 fast sicher Uberein. =
Beweis: Nach Satz 10.7 ist
nur
noch
zu
zeigen, daß 70 die MaximalsteUe von
Py(T{X) € K) Pj(T(X) > c) =
(59)
ist.
Es
güt aber, daß
Py{T{X)>c)
(60)
Induktive Statistik
164
monoton wachsend in 7 ist: > 72; 71,72 € T.
Sei nämlich 71
Voraussetzung gibt es zu c ein k mit
(«)fcP7a(X x) =
=
/x,7a (x) / 0
bzw.
*/x,72(x)-
(63)
Pm(T(X)>c)>kPya(T(X)>c)
(64)
/xl7l(aO Daraus
>
folgt, daß
ist. Ebenso
gilt
(65)
p^rw^c^fcp^nx^c). Sei
«
=
0
P^ (T(X)
c), dann ist
(l-«)((P7l(T(A')>c)-fcP7a(T(A')>C)) -«(P71 (T(X) < c) kPy, (T{X) < c)) {l-K)(Pyi{T{X)>c)-kP7,(T(X)>c)) -
=
(66)
-«(1 Py, (T(X) >c)-k + kPy, (T(X) > c)) P71 (T(X) > c) ifcP7a (T(X) >c)-K + Kk P^TiX) > c) k -
=
=
-
-
und damit
P^ (T(X) > c) Daraus
>
k
=
P7a(T(X) > c).
(67)
P7o (T( X)
(68)
folgt
max
7
c)
=
>
c)
Gleichmäßig
beste Tests
und damit die
zum
Niveau
165
a
Behauptung.
Bemerkung:
10.9
1. Betrachtet
#o so
:
man
das
umgekehrte Testproblem
7 > 7o gegen
:
(69)
7 < 70,
sind Annahmebereich und kritischer Bereich
do ist
Ht
gleichmäßig
mum
vertauschen:
T(x) > c T(x) < c
bester Test
bei, daß die Schranke
zu
70
(70)
Niveau Pyo(T(X) < c). Wichtig ist daNullhypothese gehört, da sonst das Maxi-
zum
zur
für die Fehlerwahrscheinlichkeit 1. Art nicht existiert, genauer das
Supremum nicht angenommen wird. Bei monoton fallendem Wahrscheinlichkeitsquotienten in T sind entsprechend die Entscheidungsfunktionen auszutauschen:
(70)
für das Testproblem
(56); (57)
für das
Testproblem (69)
sind dann jeweils gleichmäßig beste Tests zu dem entsprechenden Niveau. Soll das Testniveau nach Vertauschung der Hypothesen gleichbleiben, ist also die Testschranke c neu zu bestimmen. 2. Satz und
Folgerung beinhalten implizit, daß das Niveau nicht beliebig gewählt werden kann, sondern sich aus der Festlegung des kritischen Bereiches K, also aus der Testschranke c, ergibt. Ist T(X) eine stetige Zufaüsvariable, so sieht man aus (58), daß zumindest bei einseitigen Tests jedes Niveau eingesteüt werden kann. Nicht so bei diskretem T(X), wie auch Beispiel 9.1 (siehe auch Beispiel 10.1) schon gezeigt hat.7
3. Um das Niveau eines so formulierten Tests tatsächlich berechnen zu können, benötigen wir die Wahrscheinüchkeitsverteilung von T(X), also einer Funktion der mehrdimensionalen Zufallsvariable Xi,..., Xn. In den meisten praktischen Anwendungsfäüen wurde diese Arbeit schon von Statistikern früherer Generationen durchgeführt. Die wichtigsten Verteilungen sind im
Anhang aufgeführt.
7Ein Ausweg besteht darin, die Entscheidung für den Fall, dafl die Testgröfie mit der Testschranke übereinstimmt, von einem Zufallsprozeß abhängig zu machen („Randomisierte Tests", vgl. etwa Henn/Kischka(1981)
Induktive Statistik
166
Anwendungen
10.10
Nach den bisherigen Vorbereitungen macht es beste Tests zum Niveau a für einparametrige der geläufigen Verteilungen zu ermitteln:
keine Probleme,
gleichmäßig (r c R) einseitige Testprobleme
nun
a) Bernoulli-Verteilung: n
£ X, ist suffizient und vollständig mit monoton wachsendem T{x) Wahrscheinlichkeitsquotienten8. Damit ist für das einseitige Testproblem —
H0 die
:
p < Po gegen
(71)
Hl:p>po
Ents C «=1 gleichmäßig bester Test zum Niveau
Pi(6c)
=
PP0(itlXi>c).
(73)
T»
£ Xi i=l
ist
binomialvertailt,
so
daß
PP0(£xi>c)= *=c+l £ f?)po(l-Po)n-* W
(74)
i=l
gilt. Ist ein Niveau a vorgegeben, so wählt man c so, daß das Niveau von öc möglichst nahe bei a liegt und a nicht überschreitet:
Pi(Se) c2,a.
gleichmäßig bester Test
zum
Niveau
gangssituation, dann wäre S* auch gleichmäßig bester Test die beiden einseitigen Tests (24) und (25).
a
zum
für die AusNiveau a für
Die Gütefunktion von 6* müßte nun einen Verlauf nehmen, der für a2 > 0.2 mit der Gütefunktion von 0.2 für Si und alle er2 < 0.2 für 02 übereinstimmen, folgt, daß S* bei Parameterwerten a2 < 0.2 mit 61 und bei Parameterwerten 0.2 fast sicher mit 62 übereinstimmt. Für a > 0 ist aber 0 < Ci,a, C2,a < 00 und die Tests 61 und 62 sind damit offensichtlich verschieden. -
-
Abbildung
11.4: Gütefunktion
zu
Si und Si
aus
Beispiel 11.7.
die Gütefunktionen der beiden einseitigen Tests (24) und (25) wieder (der Vollständigkeit halber auch für den Parameterbereich er2 < 0.2 bei (24) und er2 > 0.2 bei (25)). Man sieht, daß 0.2 einen guten Verlauf der Gütefunktion hat (die Funktionswerte steigen rasch gegen 1 an), aber für a2 < 0.2 unbefriedigend ist, da die Wahrscheinlichkeit die Nullhypothese abzulehnen klein ist und schnell gegen Null geht. Umgekehrt ist £2 als Test für (23) gut im Bereich er2 < 0.2, aber schlecht im Bereich a2 > 0.2.
Abbildung
11.4
gibt
Induktive Statistik
182
Übungsaufgabe zu §
11
Übungsaufgabe 11.1: Der
Hauptgesellschafter der „Elektroblitz Mobile GmbH & Co. KG"
ist der An-
sicht, daß mehr als 40% der Autofahrer bereit sind, ein Elektromobil wie den von
ihm entwickelten „Elektroblitz" zu kaufen, wenn der Preis zwischen DM 20.000.und DM 30.000.- liegt. Da er diese Aussage gegenüber den etwas skeptischeren Mitgesellschaftern untermauern will, entschließt er sich zur Durchführung einer stichprobenhaften Befragung unter Autofahrern aus dem gesamten Bundesgebiet.
(a) (b)
Formulieren Sie Null- und Gegenhypothese dieses Testproblems. Geben Sie die Teilbereiche r0 und T\ des Parameterraums an. Geben Sie eine sinnvolle Entscheidungsfunktion dazu an. Wie lautet die OC- und die Gütefunktion dieser Entscheidungsfunktion.
Sie den Verlauf der OC- und der Gütefunktion und zeichnen Sie die Fehlerwahrscheinlichkeiten 1. und 2. Art ein.
(c) Skizzieren (d)
Wie ändert sich die Fehlerwahrscheinlichkeit l.Art dieses Tests, nur den Stichprobenumfang n vergrößern?
(e)
Wie können Sie eine höhere
Übungsaufgabe
wenn
Sie
„Trennschärfe" des Tests erreichen?
11.2:
Eine Abfüllanlage, die Zuckertüten mit 1 kg Sollinhalt abfüllt, soll mit statistischen Methoden überwacht werden. Dazu wird angenommen, daß die tatsächliche Füllmenge normalverteilt ist mit Mittelwert u und einer bekannten Varianz von
er2
=
9
g2.
Wie ist der Mittelwert
einzustellen, daß mit einer Wahrscheinlichkeit
von
90%
der SoUinhalt mindestens erreicht wird?
Anlage auf diesen Wert justiert ist, wird alle Stunde eine StichTüten aus der laufenden Produktion entnommen und ihr Inhalt 5 probe Mit Test wird überprüft, ob der SoUinhalt weiterhin mit 90% einem gewogen. Wahrscheinlichkeit erreicht wird. Ist dies nicht der Fall, wird die Anlage neu justiert. Dabei soll ein Fehlalarm, d.h. eine unnötige Neujustierung mit höchstens 1% Wahrscheinlichkeit eintreten. Nachdem die von
Wie lautet das Testproblem, welchen Test wird man sinnvollerweise verwenden? Geben Sie zu diesem Test die OC-Funktion und die Gütefunktion an und zeichnen Sie diese. Wie groß ist die Wahrscheinlichkeit höchstens, eine erforderliche Neujustierung aufgrund des Testergebnisses zu unterlassen?
12 In
Gleichmäßig
Beispiel H0
beste unverfälschte Tests
11.7 haben wir bei einem
:7
=
7o
zweiseitigen Test
der Form
(r
=
R)
Hx:j^ 70,
gegen
(1)
also
r0
{70},r1={7er|7^7o},
=
(2)
den Teilbereich Ti zerlegt in die Bereiche 7 < 70 und 7 > 70 und die beiden gleichmäßig besten Tests 61, 62 zum Niveau a für die einseitigen Testprobleme
Hü1):7
=
7o
gegen
H1(1):7>7o
(3)
H02)
=
7o
gegen
H[2)
(4)
und :
7
:
7 < 7o
betrachtet. Verwendet man diese Tests als Tests für das Ausgangsproblem, so ist (vgl. Abbildung 11.4) 6\ optimal im Bereich 7 > 70, aber „extrem" schlecht im Bereich 7 < 70 und umgekehrt bei oV Diese Tests kommen daher sinnvollerweise nicht in Betracht. Andererseits haben wir festgestellt, daß auch bei gleichmäßig besten Tests zum Niveau a als Supremum für die Fehlerwahrscheinlichkeit 2. Art meist 1 a akzeptiert werden muß. In Abbildung 11.4 sieht man, daß die Tests 6\ und 62 als Supremum der Fehlerwahrscheinlichkeit 2. Art sogar 1 haben. Eine sinnvolle Forderung scheint demnach zu verlangen, daß wir nur solche Tests zulassen, deren Fehlerwahrscheinlichkeit 2. Art nirgendwo größer als 1 a ist. —
—
12.1
Definition1
Ein Test S : X -r heißt unverfälscht,
{do.di}
zum
Niveau
a
für H0 : 7
€
T0 gegen Hi
:
7 6
Ti
wenn
PidS,^) < 1-a
für alle 7 e Ti
Unverfllschtbeit wurde in Neyman, J., Pearson, E.S.
(5) (1936a), (1938) eingeführt.
184
Induktive Statistik
gilt.
Py(S(X) = di) ist (5) gleichbedeutend mit R,(6(X) = für alle 7 6 Ti, d.h. die Wahrscheinlichkeit, die Nullhypothese abzulehnen, wenn sie nicht zutrifft, ist mindestens a und damit mindestens so groß, wie die Wahrscheinlichkeit, die Nullhypothese abzulehnen, obwohl sie zutrifft. Auch in dieser Form ist die Forderung sicherlich sinnvoll. Wegen P//(o\7)
di)
=
1
-
> a
Definition
12.2
Ein unverfälschter Test «Î zum Niveau a heißt gleichmäßig bester unverfälschter Test zum Niveau a, wenn für jeden unverfälschten Test 6' zum Niveau a
Pn(5,f)
Verteilung mit f
{Xi~P]* (£ *i