Induktive Statistik: Lehr- und Arbeitsbuch [bearbeitete Auflage] 9783486599596, 9783486272765

Einführung in die schließende Statistik anhand von vielen Beispielen. Mit Übungsaufgaben!

219 16 14MB

German Pages 296 [293] Year 2002

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Induktive Statistik: Lehr- und Arbeitsbuch [bearbeitete Auflage]
 9783486599596, 9783486272765

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Induktive Statistik Lehr- und Arbeitsbuch

Von Professor

Dr. Georg Bol

3., bearbeitete Auflage

R. Oldenbourg Verlag München Wien

Die Deutsche Bibliothek CIP-Einheitsaufnahme -

Bol, Georg:

Induktive Statistik : Lehr- und Arbeitsbuch / von Georg Bol. Aufl.. München ; Wien ISBN 3-486-27276-4

:

Oldenbourg, 2003

3., bearb. -

-

© 2003 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0

www.oldenbourg-verlag.de

Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Gedruckt auf säure- und chlorfreiem Papier Gesamtherstellung: Huber KG, Dießen ISBN 3-486-27276-4

Vorwort Mit der

„Induktiven Statistik" liegt jetzt auch der dritte Abschnitt einer zwei-

in schriftlicher Form vor, wie wir sie mehrfach an der Fakultät für Wirtschaftswissenschaften in Karlsruhe gehalten haben. Naturnämlich der gemäß baut damit dieser Band auf den beiden vorangegangenen, 1 Statistik" auf. und der Unter die„Deskriptiven „Wahrscheinlichkeitstheorie" sen Bezeichnungen werden sie auch im Text zitiert. Gerade bei der induktiven Statistik ist die Festlegung einer Konzeption und die Stoffauswahl besonders schwierig. Für Studenten der Wirtschaftswissenschaften ist es sicherüch durchaus sinnvoll, nicht so sehr die theoretischen Grundlagen kennenzulernen, als vielmehr einen Einbück in die wesentlichen Punkte statistischer Denkweise und einen Überbück über die diversen Anwendungsgebiete zu erhalten. Interessenten daran seien z.B. an das bewährte Lehrbuch von G. Bamberg und F. Baur verwiesen. Statistische Methoden werden unseres Erachtens in den kommenden Jahren mehr und mehr Einzug in die industrielle Praxis und dort vor allem in den Bereichen der Materialdisposition und Logistik sowie der Quaütätssicherung nehmen. Da diese Gebiete neben anderen wie beispielsweise der Banken- und Versicherungsbereich, in dem statistische Methoden ohnehin unverzichtbar sind, wichtige Einsatzgebiete Karlsruher Absolventen sind, scheint es mir wichtig, ein soüdes Fundament zu legen, von dem aus dann weitere Bereiche der Statistik erarbeitet werden können. Aus diesem Grund konzentriert sich das Buch auf die

semestrigen Vorlesung

-

-

Kerngebiete der induktiven Statistik, nämlich Parameterpunkt-, Parameterbereichsschätzung und Hypothesentests. Vorbereitet wird darauf durch zwei Paragraphen über entscheidungstheoretische Grundlagen, einen Abschnitt über die Grundannahmen der Statistik und einen Paragraphen über Stichprobenfunktionen. Daran schließen sich dann die genannten Gebiete an. Der letzte Paragraph weist auf auf die Beziehungen zwischen Tests und Konfidenzintervallen hin. Zur Überprüfung des erarbeiteten Wissens sind die einzelnen Paragraphen durch Übungsaufgaben ergänzt. Die benötigten Wahrscheinlichkeitsverteüungen, die Lösungen der Übungsaufgaben und einige Tabellen bilden den Anhang. Das Buch ist so konzipiert, daß es als begleitende Lektüre zu einer Vorlesung, aber auch zum Selbststudium geeignet ist. In hohem Maße profitiert bei dem Aufbau der Vorlesung und beim Schreiben dieses Buches hat der Autor von einem vorzüglichen, leider bislang nicht veröffentüchten Manuskript der (ehemaligen

Karlsruher) Kollegen Bernd Goldstein und Volker Steinmetz über Schätztheorie. Zur Ergänzung des Stoffes kann neben dem oben erwähnten Buch vom G. Bamberg und F. Baur als Nachschlagewerk das „Statistik-Taschenbuch" von K. Bosch und für konkrete Anwendungsmöglichkeiten der „Klassiker" von J. Härtung („Statistik") empfohlen werden. Daneben gibt es im Oldenbourg-Verlag, aber auch in anderen Verlagen eine Vielzahl von Büchern zur Statistik, so daß Beide sind in demselben

Verlag inzwischen

in

2.Auflage erschienen.

VI

es

Induktive Statistik

jedem möglich

sein

sollte, „seine" Auswahl

an

Büchern

zu

treffen.

Auch diesmal habe ich zahlreichen Helfern für das Zustandekommen des Buches zu danken: Den Hörern meiner Vorlesungen für zahlreiche Hinweise, wo Ergänzungen hilfreich und Verbesserungen möglich sind, Frau cand. Wi-Ing. Monika Kansy und Herrn Dipl. Ing. Jörn Basaczek für die mühevolle Schreibarbeit, Herrn cand. Wi-Ing. Edgar Hotz für das Erstellen der Abbildungen. Besonders danke ich aber Herrn Dr. Johannes Wallacher, der mit nie versiegender Geduld bei allen Problemen geholfen hat. Außerdem hat er den Großteil der Übungsaufgaben mit ihren Lösungen erstellt. Herrn Weigert und seinen Mitarbeitern im Oldenbourg-Verlag danke ich für die gewohnt gute und freundschaftliche

Zusammenarbeit.

Georg Bol

Vorwort

zur

2.

Auflage

Gegenüber

der 1. Auflage wurden „nur" die bekanntgewordenen Fehler beseitigt. Dies betrifft insbesondere die Achsenbeschriftungen in den Abbildungen A.3 und B.l B.6, aber auch eine Reihe von Schreibfehlern. Die Änderungen

wurden in zuverlässiger Weise von Frau cand. Wi.-Ing. Petra Weth vorgenommen, wofür ich Ihr herzlich danke. Herr Dipl. Wi.-Ing. Wolfganz Weitz danken wir für wertvolle Hinweise bei der Formatierung in I£T£jX. Herrn Weigert und dem Oldenbourg Verlag gilt wie immer mein Dank für die gute Zusammenarbeit. -

Georg Bol

Vorwort

zur

3.

Auflage

Auch die dritte Auflage unterscheidet sich bis auf eine ergänzende Bemerkung in Kapitel 4 nur durch die beseitigten Fehler von den vorangegangenen Auflagen. Hier bin ich meinem Freund und Kollegen Hartmut Kogelschatz aus Heidelberg für Hinweise sehr zu Dank verpflichtet. Auch dem Verlag und insbesondere Herrn Weigert danke ich für die Untersttzung.

Georg Bol

Inhaltsverzeichnis

Vorwort

V

Einführung

1

3

Entscheidungsmodell

1

Das klassische

2

Entscheidungen bei Information über

den

wahren Zustand

22

3

Grundannahmen der Statistik

33

4

Stichprobenfunktionen (Statistiken)

44

5

Erwartungstreue

6

Maximum-Likelihood-Schätzfunktionen

86

7

Intervallschätzungen

08

8

Tests

9

Neyman-Pearson-Tests

zum

61

Schätzfunktionen

Niveau

123

a

134

10

Gleichmäig beste

11

Operationscharakteristik

Tests

zum

Niveau

a

und Gütefunktion

151

171

VIII

Induktive Statistik

beste unverfälschte Tests

12

Gleichmäig

13

Der

14

Beziehungen

p-Wert

183

201

zwischen Tests und Konfldenzintervallen

210

A

Verteilung

B

Weitere

C

Lösungen

D

Tabellen

271

Literaturverzeichnis

274

von

Stichprobenfunktionen

Verteilungen der

Namen- und

Übungsaufgaben

Sachregister

216

226

233

277

Einführung der schließenden Statistik ist es, Schlußfolgerungen aus dem mit statistischen Erhebungen (meist Stichproben) gewonnenen Datenmaterial zu ziehen. Ein typisches Beispiel einer solchen Aufgabenstellung haben wir im Rahmen der Wahrscheinlichkeitstheorie (s. Wahrscheinlichkeitstheorie S. 1) schon erwähnt, nämlich die Beurteilung einer Warenpartie, genauer ihres Ausschußanteils, aufgrund von Stichprobenergebnissen. Dabei kann die Fragestellung sein, einen Wert für den unbekannten Ausschußanteil anzugeben. Da dieser höchstens zufällig ganz genau mit dem wahren Wert überemstirnmt, sprechen wir von einem „Schätzwert" des Ausschußanteils. Will man die Genauigkeit der Schätzung deutlich machen, wird man nicht einen „Punktwert", also eine reelle Zahl als Schätzwert, sondern einen Wert mit der möglichen Abweichung nach oben und unten angeben, also ein Schätzintervaü, in dem der wahre Wert nach dieser

Aufgabe

Schätzung liegt.

Eine andere AufgabensteUung ist es, anhand des Stichprobenergebnisses eine Entscheidung darüber zu treffen, ob die Warenpartie akzeptiert werden soü oder nicht. Man hat also zwei Möglichkeiten, zwischen denen man sich entscheiden muß. Da dies implizit von der Beurteüung des wahren Ausschußanteüs p abhängt, kann man zwei Hypothesen aufstellen:

(z.B. p < po zu vorgegebenem po),

Hypothese

1:

p ist

Hypothese

2:

p ist schlecht

gut

(p > po).

Stichprobe testet man damit, welche der Hypothesen vermutlich richwobei wir das Entscheidungskriterium so festlegen, daß mit möglichst tig ist, Wahrscheinlichkeit niedriger Fehlentscheidungen getroffen werden. Mit der

Mit den drei erwähnten Aufgabenstellungen in diesem Anwendungsbeispiel haben wir die drei wichtigsten Gebiete der schließenden Statistik angesprochen: • • •

Parameterpunktschätzungen, Parameterbereichsschätzungen, Testverfahren.

Bei den Parameterpunktschätzungen geht es wie in dem Beispiel darum, für einen unbekannten Parameter, meist eine der Kennzahlen der Verteilung wie Erwartungswert oder Varianz, eine reelle Zahl als Schätzwert anzugeben.

Entsprechend soü bei Parameterbereichsschätzungen ein Bereich, also eine Teilmenge, in den reellen Zahlen für den gesuchten Parameter benannt werden, wobei hier meist an ein möglichst kleines Intervall1 gedacht ist, derart daß die -

1

Daher auch die

-

Bezeichnung Parameterintervallschätzungen.

Induktive Statistik

2

Wahrscheinlichkeit, daß der wahre Wert nicht getroffen ist, einen vorgegebenen Wert nicht überschreitet.

Bei den Testverfahren ist zwischen zwei sich gegenseitig ausschließenden Hypothesen eine Entscheidung zu treffen. Die beiden Hypothesen müssen dabei aber auch alle FäUe abdecken. Es muß sich also um echte Alternativen handeln.

FragesteUungen aus diesen drei Aufgabengebieten treten in vielen Bereichen der Wirtschaftswissenschaften auf. Vor aüem auch im Bereich der Betriebswirtschaftslehre sind die AnwendungsmögUchkeiten vielfältig. Hier nur einige Beispiele: •





Bei Einführung eines neuen Produkts werden die Absatzchancen auf einem Teilmarkt geprüft, in der Erwartung, daß man die Ergebnisse auf den gesamten Markt übertragen kann. In der Materialwirtschaft schätzt man die Bedarfsstruktur eines Produkts, um die zukünftige Bedarfsentwicklung beurteilen zu können. Dies dient dann als Grundlage für die Disposition und Lagerhaltung.

Quaütätssicherung liegt das Problem vor, auf der Grundlage von Stichprobenergebnissen zu erkennen, ob sich die Produktquaütät gegenüber bisher so verschlechtert hat, daß Maßnahmen erforderüch sind. In der

Die Zahl dieser

Beispiele

läßt sich

beliebig fortsetzen.

Gemeinsam ist bei aüen drei genannten Aufgabengebieten, daß aus Stichprobenergebnissen Schlußfolgerungen auf eine Grundgesamtheit durchgeführt werden2. Aufgrund dieser Schlußfolgerungen wird dann letztlich eine Entscheidung getroffen. Daher werden wir zunächst einige elementare entscheidungstheoretische Grundlagen behandeln.

2

Man spricht auch

von

statistischer Inferenz.

Das klassische

1

Entscheidungsmodell

entscheidungstheoretischen Betrachtung ist zum einen, eine formale Beschreibung einer Entscheidungssituation zu geben. Es geht also darum, das Wesentliche und allen Entscheidungssituationen Gemeinsame herauszufiltern. Zum anderen besteht die Aufgabe darin, allgemeine Prinzipien einer rationalen Entscheidungsfindung herauszuarbeiten. Man spricht daher auch von normaZiel einer

tiver

Entscheidungstheorie1. Einige der Grundlagen dieser Theorie werden im

folgenden behandelt, da es bei der schließenden Statistik letztlich darum geht, eine Entscheidung zu treffen2.

Betrachtet man das in der Einführung erwähnte Beispiel aus der Quaütätskonso läßt sich jede der Entscheidungssituationen im Rahmen des folgenden abstrakten Modells formulieren.

troüe,

Zunächst noch einmal die

vorgegebene Situation:

Eine Warenpartie mit einem unbekannten Ausschußanteil liegt vor. Sie kann entweder angenommen oder abgelehnt werden3. Die Entscheidung trifft eine Person oder Gruppe mit den entsprechenden Befugnissen. Je nachdem welche Entscheidung mit dem tatsächüchen nicht also dem vermuteten Ausschußanteü zusammentrifft, ist das Ergebnis oder die Konsequenz der Entscheidung unterschiedlich. -

-

Gegeben ist also: •

Menge von Zuständen Z (im Beispiel: die Menge der möglichen oder denkbaren Ausschußanteile: Z Mn | k = 0,1,..., N} bzw. Z

eine



[0,1]),



eine

-

Menge

ablehnen}), •

von

mögÜchen Aktionen



A

(im Beispiel:

A

=

{annehmen,

Menge von mögüchen Ergebnissen E, die bei den mögÜchen Kombinationen von Zuständen und Aktionen eintreten können (im Beispiel kann man etwa davon ausgehen, daß sich das Ergebnis in Geld messen läßt: E = R),

eine

'im Unterschied dazu versucht die beschreibende Entscheidungstheorie, den Entschei-

zu analysieren, wie er tatsachlich abläuft. Die Maxime der Rationalität wird dabei nicht immer eingehalten. 2Eine ausführliche Darstellung der Entscheidungstheorie findet man z.B. in Bamberg/Coenenburg (1992) und Pfohl/Braun (1981). Eine strukturtheoretische Darstellung gibt

dungsprozefl Egle (1975). 3bzw.

es

Entscheidung getroffen werden.

soll eine

AusschuSanteil

in Form eines Schätzwertes oder Schätzbereichs über den

4

Induktive Statistik



eine Funktion / : A x Z -4 E, die zu jeder Kombination aus einem Zustand z 6 Z und einer Aktion a € A das resultierende Ergebnis e £ E angibt: e

=

f(a,z).

(1)

Bezeichnungen

1.1

(A, E) heißt Zusfandsraum (Afctionenraum, Ergebnisraum), f heißt i?rgeônisfunktion. Z

Entscheidende, also die Person oder Gruppe mit den entsprechenden Befugnissen, hat nun die Aufgabe, eine „optimale" Aktion zu wählen. Die Beurteilung, ob eine Aktion optimal ist oder nicht, ist nur anhand eines Vergleichskriteriums Der

möglich, das bei zwei vorliegenden Aktionen erkennen läßt, ob eine dieser Aktionen der anderen vorzuziehen ist. Ein solches Vergleichskriterium wird abstrakt durch eine Präferenzrelation beschrieben.

1.2

Definition

Sei M eine Menge. Eine Teilmenge R C M x M heißt wenn R transitiv und reflexiv ist: •



(x,y)

Präferenzrelation auf M,

(x,y) £ R und (y,z) £ R=> (x,z) £ R (Transitivität), {x, x) £ R für alle x £ M (Refiexivität). g R wird dabei wie

x

folgt interpretiert:

„ist besser oder (zumindest) gleich gut wie"

y.

Die Transitivität entspricht also der Forderung nach Konsistenz, d.h. wenn x besser oder zumindest gleich gut ist wie y und y besser oder zumindest gleich gut ist wie z, dann ist auch x besser oder zumindest gleich gut wie z. Man schreibt für (x, y) € R auch x > y oder y < x. Gilt weiter {y, x) 0 R oder anders geschrieben y £ x, so sagt man -

„x wird y strikt

vorgezogen"

neben -

x y

y

Das klaasische

Entscheidungsmodell

und schreibt

y y.

Gilt neben

x

auch y y x, äquivalent und schreibt x y. y y

x

so

sagt

5

man, x und y sind

gleich gut oder

~

Bei einer Präferenzrelation R fordert man nicht, daß je zwei Elemente vergleichbar sind. Dennoch kann man Optimalität bzgl. einer Präferenzrelation in sinnvoller Weise charakterisieren. Es bieten sich zwei Möglichkeiten an: 1. Es

gibt kein besseres Element in M,

2. Das Element wird allen anderen vorgezogen.

Mit Hilfe der Präferenzrelation R läßt sich dies wie folgt formulieren:

Eigenschaft 1: gibt kein x € Eigenschaft 2:

Es

m* y

1.3

x

für alle

M mit x

x

y

einem Element m* € M

m*.

€ M.

Definition

m* G M mit Eigenschaft 1 bzgl. R (bzw. schaft 2 heißt bestes oder größtes Element.

1.4

bzgl.

X)

heißt maximal, m* mit

Eigen-

Beispiel

Es sei M die

Menge der Bundesligamannschaften der laufenden Saison, es gelte

in der laufenden Saison nicht gegen y verloren hat. (Handelt es sich hierbei um eine Präferenzrelation?) Ein Verein ist in diesem Sinn der beste, wenn er gegen jeden anderen nicht verloren hat, er ist maximal, wenn es keine Mannschaft gibt, gegen die er beide Spiele, bzw. das Spiel, falls nur ein Spiel x

y y,

wenn x

ausgetragen ist, verloren hat.

Übungsaufgabe

1.1:

Zu Ende der Saison wird zum Vergleich zweier Mannschaften die Europapokalregelung herangezogen (Zwei Mannschaften gelten als gleich gut („äquivalent"), wenn nach der Europapokalregelung eine Verlängerung notwendig geworden

6

Induktive Statistik

wäre) 4. Gibt es einen Unterschied zwischen maximaler und bester Mannschaft? Gibt es auf jeden Fall eine maximale (beste) Mannschaft?

Übungsaufgabe 1.2: Sei < Präferenzrelation auf M. Man zeige: Jedes beste Element auf M

Übungsaufgabe Man definiere

1.5

bzgl.

< ist aucù maximal

bzgl.


0.01

(3)

p < 0.01 p > 0.01

(4)

Im konkreten Einzelfall ist natürlich eine clifferenziertere Überlegung erforderlich, wobei die „Trennquaütät" (hier 0.01) einen anderen Wert haben kann und der Schaden in den vier Bereichen auch noch von p abhängen wird. Es geht hier nur um eine „grobe Betrachtung" der Entscheidungssituation.

Ausgehend von der Prämisse, daß die Aktionen nach den aus ihnen resultierenden Ergebnissen beurteilt werden sollen, erhält man nun eine unmittelbar einleuchtende Forderung an die Präferenzrelation < auf A: Eine Aktion a\, bei der der Schaden bei allen eintretenden Zuständen niedriger ist als bei einer

Aktion 02, sollte bei der Relation < vorgezogen werden. Eine Präferenzrelation, die diese Forderung nicht erfüUt, ist mit der Schadensfunktion offensichtlich nicht

verträgüch. Formal läßt sich diese Forderung durch folgende Definitionen

präzisieren. 1.8

Definition

Sei (A, Z, S) eine Entscheidungssituation. Man sagt, eine Aktion ai dominiert eine Aktion 02, falls

5(oi,z) < S(a7,z)

fürallezeZ

(5)

gilt. GUt darüber hinaus

5(oi, z°) < S(a2, z°) so

sagt man,

1.9

für ein

z° € Z,

(6)

a\ dominiert a2 strikt.

Definition

(Dominanzprinzip)

Sei (A, Z, S) eine Entscheidungssituation. Eine Präferenzrelation < auf A genügt dem

Dominanzprinzip, falls gilt:

Induktive Statistik

10

Dominiert oi € A die Aktion 02 €

A, so gilt 01 ^02.

Genügt die Präferenzrelation -< auf A dem Dominanzprinzip, so kann man für die Bestimmung einer maximalen oder einer besten Aktion die dominierten Aktionen demnach aufler acht lassen.7 Dies ist insbesondere deswegen von Vorteü, weü zur Eliminierung der dominierten Aktionen die genaue Kenntnis der Präferenzrelation nicht erforderüch ist, bzw. diese noch nicht spezifiziert sein muß, es muß nur feststehen, daß sie dem Dominanzprinzip genügt. Der folgende Satz gibt die formale Rechtfertigung: Satz

1.10

Sei (A, Z, S) eine Entscheidungssituation, < eine Präferenzrelation auf A, die dem Dorninanzprinzip genügt. Sei An C A eine Teilmenge von Aktionen mit

folgender Eigenschaft: Zu

jeder Aktion a # Aq existiert

eine Aktion o' €

An, die

o

domi-

niert. Dann

gilt:

1. Gibt

es

eine maximale Aktion in

A,

so

auch in Aq.

2. Eine Aktion a* € A ist genau dann beste in Aq vorgezogen wird:

a*

a

für alle

a



(7)

Aq.

Bemerkung

1.11

(a)

y

Aktion, falls sie aUen Aktionen

Bei der Behauptung 1 hat man folgenden Unterschied zu beachten: Betrachtet man die Präferenzrelation < eingeschränkt auf Aq, so bedeutet „a* ist maximal in An", daß es keine Aktion a in Aq gibt, die besser ist als a*, also mit o* -< a; a* ist also zunächst nicht notwendig maximal in A. Behauptung 1 besagt aber, daß es in Aq eine bzgl. A maximale Aktion

gibt. (b) Behauptung 1.(2.) besagt nicht, daß jede maximale (beste) Aktion in Aq hegt. Man überlege sich, welche Eigenschaft die Menge Aq haben müßte, damit dies der Fall wäre.

7 Sollen

alle maximalen oder besten Aktionen bestimmt Man mache sich dies an einem Beispiel klar.

werden,

so

ist dies nicht

zulässig.

Das klassische

Entscheidungsmodell

11

Beweis:

1. Sei oo maximal in A, d.h. es gibt kein a G A mit gibt ai € Ao mit: ai ist maximal in A.

oq. Zu

zeigen ist: Es

Angenommen an £ Ao. Dann existiert ai G Ao, das a0 dominiert. Nach Dominanzprinzip gilt damit ao zi °i Behauptung: ai ist maximal in A. Angenommen es gibt ein o 6 A mit a>~ a\. Dann ist a >- oo wegen der Transitivität von zi im Widerspruch zu „Oo maximal". • Sei o* beste Aktion in A, so gilt a* V a für aüe a G A und damit für dem

2.

a >





alle a € Aq. Gut a* ^ a für alle a G Ao. Sei o £ Ao, so gibt es ein a\ G Ao, das a dominiert. Nach dem Dominanzprinzip güt dann a\ y o. Da o* y Oi gilt, folgt o* > a. Somit gilt

a*

y a

für aüe

a

(8)

€ A.

Aus diesem Satz ergibt sich, daß die Optimierungsaufgabe gelöst ist, faüs sich die Menge Aq auf ein Element reduzieren läßt, unabhängig davon, welche Präferenzrelation zugrundeliegt, falls sie nur dem Dominanzprinzip genügt. Diese Aktion dominiert dann alle anderen Aktionen und ist damit wegen des Dominanzprinzips beste Aktion.

1.12

Folgerung

Sei Ao

=

{oo} im obigen Satz einelementig, so ist oq

beste Aktion.

Definiton

1.13

Sei (A, Z, S) eine Entscheidungssituation. Eine Aktion a* € A, welche aüe Aktionen aus A dominiert, heißt gleichmäßig beste Aktion. Damit güt dann für alle o € A S (a*, z) < S (a, z) Wie das

für alle

z

G Z.

(9)

Beispiel aus der Qualitätskontrolle zeigt, existiert nicht immer eine gleichmäßig beste Aktion. Offensichtüch dominiert die Annahme der Partie die Ablehnung der Partie nicht und umgekehrt. Dies ist in einer Vielzahl praktischer

Induktive Statistik

12

Entscheidungsprobleme analog: wenigen Fällen.

Eine

gleichmäßig beste

Aktion existiert

nur

in

Der oben bewiesene Satz legt nun für den Fall, daß keine gleichmäßig beste Aktiexistiert, nahe, alle nicht dominierten Aktionen zu betrachten und aus diesen im Einzelfall eine Aktion auszuwählen. Dies wäre insbesondere dann praktikabel, wenn es sich dabei um kleine und überschaubare Mengen von Aktionen handelt. Auch dies ist jedoch in vielen in der Praxis auftretenden Fällen nicht erfüllt. Es erscheint daher sinnvoll, einige Prinzipien zu betrachten, die Präferenzrelationen auf dem Aktionenraum üefern, die dem Dominanzprinzip genügen. Es soUen also allgemeingültige Verfahren angegeben werden, die jede Entscheidungssituation in sinnvoller Weise durch Angabe einer Präferenzrelation auf dem Aktionenraum vervollständigen. Eine Entscheidungssituation (A, Z,S) zusammen mit einer Präferenzordnung auf A, die dem Dominanzprinzip genügt, sei im folgenden Entscheidungsmodell genannt.

on

1.14

Definition

Ein Quadrupel (A, Z, S, X) bestehend aus einer Entscheidungssituation (A, Z, S) und einer Präferenzordnung < auf A, die dem Dominanzprinzip genügt, heißt

Entscheidungsmodell.

Zur Verdeutlichung, was unter einem allgemeingültigen Verfahren zur Konstruktion von Präferenzordnungen auf A verstanden wird, sei zunächst ein Beispiel

betrachtet.

1.15

Beispiel

Gegeben sei eine Entscheidungssituation mit folgender Schadensmatrix

A\Z

Z\

Z max S(a',z) v -

(11)

z£Z

ist. Im

Beispiel gilt dann

max5(oi,z)

5,

maxS(a2,z)

=

3,

max5(a3,z)

4,

max5(a4, z)

=

5.

z

Damit

gilt

02 >- 03 >- Ol

~

04.

Der Vollständigkeit halber sei die Präferenzordnung noch in Form der Teilmenge R C A x A angegeben:

R

=

{(02,02), (02,03), (o3,a3), (o3,Ol), (Ol,Oi), (01,04), (o4, Ol), (04,04), (02,00,(02,04), (03,04)}.

Optimal bei dieser vorsichtigen Verhaltensweise ist in diesem Beispiel die Aktion gilt:

02, für die

max5(o2,z) z&Z

=

min max S (a, z). a€A z£Z

Das so beschriebene Präferenzprinzip heißt daher Minimax-Regel oder nach dem Statistiker Wald8 auch Wald-Regel. Man spricht auch von einer Entscheidungsregel, da ja die Präferenzrelation mit einer optimalen Aktion falls eine solche existiert auch die Entscheidung für eine Aktion üefert. -

-

8Abraham Wald, 1902-1960, jüdischer Mathematiker und Statistiker, vgl. Wald (1945).

Induktive Statistik

14

Definition

1.16 Sei

(A, Z, S)

eine

niert durch a

^o'

Entscheidungssituation.

supS{a,z) zçz

falls

heißt Minimax- oder

>

Die

supS{a',z) zez

Präferenzordnung


; {; k

Mit der Schadensfunktion

c^n \ 5(0'p)

=

5(1,P)

~

=

(8)'

0

v

(9)

(vgl. Beispiel 1.6)

f

(

0 200

p>0.01 p (l-p)

n—

X,-

(5)

««»

1=1

und daraus folgt

P{X

=

x\

E*< *k =

=

n

«=i

(6) E x« ^ k

>=i r»

Exi

=

*

i=l

Damit sieht man, daß die bedingte Wahrscheinlichkeit für ein Stichprobenergebnis unter der Bedingung, daß die Anzahl der schlechten Teile festgelegt ist, unabhängig von p ist. Genauer bedeutet das Ergebnis, daß alle Stichprobenergebnisse mit übereinstimmender Anzahl schlechter Teile gleichwahrscheinlich sind.

Analog wie im Beispiel kann man die bedingten Wahrscheinüchkeiten heranziehen, um zu überprüfen, ob eine Stichprobenfunktion die relevante Information erhält. Bei einer parametrischen Verteilungsannahme (wie im Beispiel) bezieht sich diese Information dann auf den Parameter. Stichprobenfunktionen n

4Für

Xi P(£ «=i

=

k) # 0, d.h.

k

=

0, falls p

=

0 und k

=

n, falls

p-1.

48

Induktive Statistik

mit dieser

Eigenschaft heißen suffizient (erschöpfend)5 für den Parameter. Da t) 0 für die bedingten Wahrscheinlichkeiten benötigt wird, beschränken wir uns in der folgenden Definition auf diskrete Situationen.

P(T(X)

=

Definition

4.5

Sei T der Parameterraum zur Verteilungsannahme W {Py | 7 £ T} einer diskreten Zufallsvariable Y, X (X\,... ,Xn) eine einfache Stichprobe zu Y mit Stichprobenraum X. Eine Stichprobenfunktion T : X —> R* heißt sufficient =



bzgl.

7€

T,

wenn

Py(X x\T(X) t) für alle x E X und t € R* mit allein von x und t abhängt8. Der

4.6

(7)

=

=

Py(T(X)

=

t)

0

von

7

unabhängig ist,

also

folgende Satz erlaubt eine leichte Überprüfung auf Suffizienz.

Faktorisierungstheorem von Neyman7 für diskrete Zufallsvariablen

Sei Y eine diskrete Zufallsvariable mit parametrischer Verteilungsannahme W = {F7 I 7 G T}, X der Stichprobenraum einer einfachen Stichprobe X = (Xu...,Xn) zu Y. Eine Statistik T : X -> Rfc mit XT T(X) 8 ist genau dann suffizient bzgl. 7, wenn es eine Funktion =

g

:

XT

x

T



R

(8)

und eine Funktion h:X

->

R

=

x)=g{T{x),1)h(x)

(9)

gibt mit

Py{X

(10)

5Der Begriff der Suffizienz geht auf R.A. Fisher (1920) und (1922) zurück. Fisher, R. A., 1890-1962, englischer Statistiker. 6Also Py(X = x I T(X) = t) = Py {X = x I T{X) = t) für 7,-/ € T.

7Neyman, Jerzy, 1894-1981,

amerikanischer Mathematiker und Statistiker.

SXT ist also die Menge der Funktionswerte

von

T.

Stichprobenfuriktionen (Statistiken) für alle

49

£ X.

x

Beweis: 1. Sei T

sufficient,

also

Py(X x\T(X) t)

(11)

=

=

unabhängig von 7, also eine Funktion Dann ist für

h(x)

jedes x

{:

P7(X x\T(X)

{

:=

von x

und t.

£ X mit =

=

T{x))

Py{T(X) T(x)) / 0

für

=

fürP7(T(X)=T(x))=0

(12)

und

g(tn)=Py(T(X) t)

(13)

=

die

gesuchte Darstellung gefunden:

Py{X x) =

= =

2.

Py{X x\T{X) T(x))-Py(T{X) T(x)) (14) h(x) p(T(x),7) =

=

=



Umgekehrt sei

P7(X x) =

Dann

gilt für to

£

=

g(T(x), j)h{x)

A"T und

(15)

für alle x£X.

7 € T mit

P7(T(X) t0)?0

(16)

=

für jedes

x

£ X mit

T(x)

=

t0:

Py(X x,T(X) t0) P7(T(X) r0) P7(JT x) P7(T(X) *0) =

P7(X x|T(X) t0) =

=

=

=

=

=

=

Induktive Statistik

50

i£X

E :

T(i)=t0

Py{X i) =

(17) x€X

i€X

x€X

Dieser Ausdruck ist aber wie

g(T(x)n)h{x) E g{T(x)n)h{x) :

T(x)=t0

g{t0,j)h(x) 9(*o,7)h(x) E :

T(2)=f0

h(x) M*) E :

T(ä)=t0

gefordert unabhängig von 7.

Für stetige Verteilungen von Y läßt sich die benutzte Vorgehensweise nicht direkt verallgemeinern, da in der Regel Py(T(X) = t) = 0 ist. Man kann dann mit bedingten Dichten arbeiten und erhält einen analogen Satz für die Dichtefunktion von X.

4.7

Faktorisierungstheorem fallsvariablen

von

Neyman9

für

stetige

Zu-

Sei Y eine stetige Zufallsvariable mit Dichte /y,7,7 € T, T Parameterraum der Verteilungsannahme. Sei X der Stichprobenraum einer einfachen Stichprobe X T

:

X

(X\,...,Xn) zu Y mit der Dichte /xl7. Eine Stichprobenfunktion -* R* mit XT T(X) ist genau dann sufficient bzgl. 7, wenn es eine

=

=

Funktion g

:

XT

x

T

R

(18)

und eine Funktion h :X

-+

R

(19)

gibt mit

fXtJ(x) 9(T(x),j)h(x) =

9s. Neyman (1935).

(20)

Stichprobenfunktionen (Statistiken) für alle

4.8

x

51

€ X.

Beispiel A-exponentialverteilt, dann ist Jy,\{v) Xe~Xy für y > 0 und für die Dichtefunktion fx,y einer einfachen Stichprobe X (Xi,..., Xn) zu Y gilt mit Xi > 0, i 1,..., n:

1. Sei y



=



n

fx,\(xu...,xn)

=

Y[\e~Xxi

i=\

=

Ane

-*E


0,i

=

n

Xj suffizient

=

«=i

bzgl.

l,...,n und h{x)

=

0

A.

N(/i, er2 )-verteilt, also

/"*-(s)=-vibe"'^

(22)

Dann ist

i

V^ttct2)»

e

1

y/{2na2)n Mit n

der zweidimensionalen n

e

-sVE^-^E^+E"2) «-»

~âsÈ*î *±*> i=1

i=1

e

»

Stichprobenfunktion T(xi,...,x„)

xi> E xi) hängt dieser Ausdruck nur von (E t=l i=l

den Werten der beiden Komponenten der setzt

e

(23)

den Parametern

Stichprobenfunktion

u,er2

=

und

ab. Also

man

h{x)

=

1

(24)

Induktive Statistik

52

und

^>^2)=-jèwe~^e*tle~^ Daraus

a2

ergibt

sich

dann, daß T(x)

n

=

n

I«' E z?) (E «=1 i=l

(25)

suffizient für

u

und

ist.

Hat man eine suffiziente Stichprobenfunktion gefunden, so wird man nur noch solche Entscheidungsfunktionen in die engere Wahl ziehen, die von dem Auswertungsergebnis der Stichprobenfunktion ausgehen. In einem Diagramm hat dies folgende Darstellung:

x,x'-- S(x)

=

6'{T(x))

=

6'{T(x'))

Eine sinnvolle Entscheidungsfunktion muß also bei zwei Stichprobenergebnissen und x' zu Übereinstimmung in den Entscheidungen führen, wenn die Auswertungsergebnisse T(x) und T(x') bei einer suffizienten Statistik T sich nicht unterscheiden. x

Anstelle der Entscheidungsfunktionen 6 : X -¥ A betrachten wir jetzt die Funktionen 6' : XT -> A, d.h. XT ist der neue Informationenraum10 , AT = {5' I 6' : XT -> A} neue Menge der Entscheidungsfunktionen. Durch T wird die Menge A = {S \ ö : X -* A) in sinnvoller Weise auf AT reduziert. Voraussetzung dabei ist, daß T suffizient ist. Die Frage ist jetzt noch, wie man eine suffiziente Stichprobenfunktion findet. Die beiden Beispiele zeigen, daß dabei die Exponentialfunktion in der Dichtefunktion hilfreich ist. Für eine große Klasse von Verteilungen kann man mit Hilfe der Exponentialfunktion eine Gestalt der Wahrscheinlichkeitsverteilung Py(Y = y) bzw. der Dichtefunktion fy^iv) erreichen, bei der das Argument y und der Parameter 7 in Faktoren separiert sind und nur bei einer Exponentialfunktion gemeinsam als Argument erscheinen. Der Einfachheit halber bezeichnen wir auch XT als

Stichprobenraum (bzgl. T).

Stichprobenfunktionen (Statistiken) 4.9 1.

53

Beispiel Poisson-Verteilung

PX{Y y)

=

P\{Y y)

=

=

Xj -e-x

für y = 0,1,2,...

2/*

(26)

Es ist =

e*'nX--e-x

(27)

y-

und mit

a(A)=e-\ h(y)

=

V-

-

6(A)

=

In A,

r(y)=y

(28)

ist

Px(Y y) =

Für eine einfache man daraus

=

a(X)h(y)eb^yl

Stichprobe

Px(X x)

=

=

mit

(29)

Zurücklegen

X

=

(X\,...,Xn)

erhält

n(a(A)M*(*).£*•

so

folgt

und

6a(T(X))

stimmen

E^TiX)) 62(T(X))} Bx[«i(T(X))]-£?x[«a(rW)] -

=

oo =

e-"*

(49)

t

-*(*)) t=o

TT-A* r"

für aüe A > 0. Diese Reihe kann aber nur dann identisch 0 sein für alle13 A > 0, wenn die Koeffizienten Si(t) S2(t) = 0 sind für alle t. Damit ist —

«i

=

«a,

(50)

die Schätzfunktionen stimmen also überein.

4.14

Definition14

Sei X eine Stichprobe zu Y, X sei der Stichprobenraum. Y habe eine parametrische Verteilungsannahme W mit Parameterraum I\ Eine Statistik T : X -> XT

12vgl. Wahrscheinlichkeitstheorie, § 13, Übungsaufgabe 1. 13Wichtig ist, dafi Gleichung (49) für alle A > 0 (genauer

ein offenes Intervall in

erfüllt ist.

^Vollständigkeit von Statistiken wurde eingeführt von Lehmann/Scheffé (1950).

R++)

Induktive Statistik

58

vollständig bzgl. T, wenn für je zwei

heißt

Ey[6l(T(X))] Py[6[(T(X))

=

=

Funktionen

8^,6% : XT —> R aus

Ey[6l(T(X))] für alle 7 6 T Sl(T{X))] l

(51) (52)

=

folgt. Bei einer vollständigen Statistik T sind also die Variationsmöglichkeiten bzgl. einer weiteren Verwendung des ausgewerteten Stichprobenergebnisses T(x) insoweit beschränkt, als durch den Erwartungswert einer Funktion ST : XT -> R auch die Funktion 6T fast sicher festgelegt ist. Damit genügt es dann auch, bei der Beurteüung von Funktionen 6T den Erwartungswert zu betrachten.

Satz

4.15

Stichprobe zur Zufallsvariable Y, parametrige Exponentialfamilie darstellen läßt: Es sei X eine

deren

P-r(Y v) frAv) =

Verteilung

sich als

r-

(53)

Dann ist

(54) eine

vollständige Statistik bzgl. B

=

r

Quader im R

enthält.

Bemerkung

Bedeutung Gleichung (49) Die

(55)

{(M7),---A(7))l7er}cRr

einen offenen

4.16

7, falls

Forderung, daß B einen offenen Quader enthält, wird in Beispiel 4.13 deutlich. Um 5\ 62 folgern zu können, ist

der in

=

Stichprobenfunktionen (Statistiken)

59

erforderlich, daß Gleichung (49) für hinreichend viele A erfüllt

ist. Dies ist finden Parameterraum {A G R | A > 0} erfüllt. Da bei der Poisson-Verteilung 6(A) = In A ist, entspricht dies auch der Forderung an B = {In A | A > 0}.

4.17

Beispiele

1. Im Beispiel der also B

=

Poisson-Verteilung ist 6(A)

=

In A, T

=

{A € R |

{lnA| A>0}=R

A >

0}, (56)

und enthält damit ein offenes Intervall.

2. Für die

Normalverteüung haben wir in Beispiel 4.9 2. eine DarsteUung als 2-parametrige ExponentialfamUie mit

bxili^) Mit T

=

R

ß

=

=

R++

X

,62(/x,o-2)

~

=

^.

=

{(/i, 0} ist

{("2^'^{(0i,A) )l/ieR'\ßi0}

=

0: Ergebnis einer einzelnen Stichprobenziehung ist hier eine positive reelle Zahl, z.B. die Lebensdauer einer Maschine. Sei R++ die Menge der positiven reeüen Zahlen, so ist der Stichprobenraum demnach R"+, die Menge aller Vektoren (x\,..., x„) mit positiven Komponenten. Bildet man analog zur Binomialverteilung den „Stichprobenmittelwert", d.h. das arithmetische Mittel der Stichprobenwerte, so entspricht diese mittlere Lebensdauer der Maschinen dem Erwartungswert \ der Exponentialverteilung. Als Schätzfunktion ergibt sich aus dieser Betrachtung: *(*!,...,*„) (9) =

—I—

=

Erwartungstreue

Schätzfunktionen

63

Entsprechend den drei angeführten Fällen ist es häufig naheliegend, Schätzfunktionen anzugeben, die auch intuitiv sinnvoll und akzeptabel erscheinen. Die Frage, die sich ergibt, ist einmal, ob sie optimal sind im Sinne einer Präferenzrelation im Rahmen der durchgeführten entscheidungstheoretischen Betrachtungen, zum anderen, was für Eigenschaften diese Schätzfunktionen besitzen. Dazu ist dann zunächst zu untersuchen, welche Eigenschaften für Schätzfunktionen wesentüch sind. 5.2

Bemerkung

Eine etwas

aügemeinere Situation liegt in folgenden Beispielen vor:

1. Man schätze den Parameter H und er2. Dann ist

T

=

u

einer NormalVerteilung mit unbekanntem

{(H,cr2) |p.€R, Cr2 >0},

(10)

der Aktionenraum ist

{/* I u € R}. Damit ist

nur

ein Schätzwert für eine

(fi,cr2) gesucht.

(11) Komponente des Parametervektors

2. Man schätze die durchschnittliche Lebensdauer eines Produkts, dessen Lebensdauer exponentialverteüt mit Parameter A ist. Da der Erwartungswert einer Exponentialverteilung j ist, ist also der Funktionswert i?(A) = einer Funktion des Parameters zu schätzen. Dies ist auch bei 1. der Fall, wenn wir t?(u, er2) = u setzen.

^

3. Man schätze die Varianz einer Exponentialverteilung. Die Varianz der Exponentialverteilung mit Parameter A ist p-, d.h. auch hier ist ein Funktionswert /(A) = ji zu schätzen.

Zu schätzen ist in allen drei Beispielen der Funktionswert i?(7) einer Funktion t? : r Ta an der Stelle 7, wobei 7 der wahre Parameter sei. Damit ist dann

T# der Aktionenraum

(12)

und jede Schätzfunktion eine Funktion

6

:

tf-rT*.

(13)

Induktive Statistik

64

Andererseits sind die drei Beispiele auch auf die Eingangssituation zurückman bei 1. a2 als fest, aber unbekannt betrachtet (dann ist r = {u I n € R}) und bei 2. 7 = j als neuen Parameter der Exponentialverteilung einführt, ebenso bei 3. mit 7 = jp. Aus diesem Grund wollen wir uns auf die eingangs beschriebene Situation beschränken.

zuführen, indem

Zur

Beurteüung von Schätzfunktionen benötigen S

wir eine Schadensfunktion

:

A

x

Z



R,

(14)

:

r

x

T ->

R,

(15)

also hier

S wobei

(16)

5(7,7) den Schaden beim wahren Parameter 7 und der

Entscheidung 7 angibt.

Eine exakte Quantifizierung dürfte in vielen Fällen nicht möglich sein, allerdings wird man sicherüch in allen Fällen von der Abweichung des wahren Wertes 7 von dem Wert 7 ausgehen, für den man sich entschieden hat:

(17)

7-7-

Liegt keine Möglichkeit vor, dies weiter zu spezifizieren, so ist das Quadrat dieser Abweichung deswegen ein vertretbarer Ansatz, weü durch die Quadrierung kleine Abweichungen in ihrer Bedeutung reduziert, große Abweichungen entsprechend verstärkt werden. Durch das Quadrat geht ferner nur noch die absolute Abweichung ein. Dies bedeutet aüerdings auch, daß Über- und Unterschätzun-

bewertet werden. In vielen praktischen Anwendungsfallen ist dies sicherüch nicht den tatsächlichen Konsequenzen entsprechend. Für eine allgemeine Betrachtung des Schätzproblems ist die „quadratische Schadensfunktion" sicher ein sinnvoller Ansatz. gen

5.3

gleich

Bezeichnung

Für T C R wird S

5(7,7)

=

:

T

x

(7-7)3

T

-

R mit

(18)

Erwartungstreue

Schätzfunktionen

65

quadratische Schadensfunktion genannt. Für T C

R*

lautet die

entsprechende Verallgemeinerung k

5((7i,• .7»),(71,.• ,7*)) •





=

5>< "7i)2-

(19)

Im folgenden woüen wir uns der Einfachheit halber auf den Fall T c R beschränken (Sind mehrere Parameter zu schätzen, so kann man dies auch in einzelne

Schätzprobleme zerlegen).

Sei also S zu T C R die quadratische Schadensfunktion. Zur Beurteilung einer Schätzfunktion 5 : X - T ist also die Zufallsvariable

S(6(X),j) für alle 7 G T Eine

zu

=

(7-S(X))2

(20)

betrachten.

Kenngröße dieser Zufallsvariable ist der Erwartungswert1:

Ey[S(6(X),i)} Ey[(7-ô(X))*}

(21)

=

Bezeichnung

5.4

Sei A = {6 : X T}, T c R, die Menge der Schätzfunktionen2. S eine Schadensfunktion: R

:

T

x

A

:

TxT

-+

R

R mit

R(6,1)=Ey[S(6(X),y)] heißt Risikofunktion zu 5.1st S die quadratische Schadensfunktion, auch einfach Risikofunktion oder mittlerer quadratischer Fehler.

(22) so

heißt R

l7 geht dabei nicht nur in die erste Komponente der Schadensfunktion ein, sondern auch in die Wahrscheinlichkeitsverteilung von X, daher das Subskript 7 bei E. Die eckigen Klammern machen deutlich, dafl zunächst quadriert und dann der Erwartungswert gebildet wird. 'genauer: der £n-£-mefibaren Funktionen, für die der Erwartungswert (22) existiert.

66

Induktive Statistik

5.5

Lemma

Für den mittleren quadratischen Fehler

R{6,7)

=

güt

Är[(7 6(X))*} Vary(6(X)) + (7 Ey[S(X)})2 =

"

-

(23)

Beweis:

E7[(7 S(X))2] -

=

£7[(7 E7*(X) (S(X) EyS{X)))2] -

-

(24)

-

=

S7[(7-B7J(X))a- 2(7-ßT*(X))(J(X)-Ä1tf(jr))+ (*(*)-£7*(X))2]

=

£7[(7

=

-

-E7J(X))3]-2iM(7 Ey6(X))(6(X) EyS(X))]+Ey[{6(X) EyS(X))2] "

-

-

^-E,S(X))2 + Var,(S(X)),

da 7



Ejä(X)

eine deterministische Gröfie ist und damit

E7[(7-£7W)(J(X)-£7«5(X))]

. = =

{y-Er5(X))-EJ(5(X)-Br6(X)) (7-W)'W)-W)) 0

(25)

gilt. Das Lemma zeigt, daß sich der mittlere quadratische Fehler zerlegen läßt in zwei Summanden (beide nichtnegativ), wobei der eine das Quadrat der Abweichung des mittleren Schätzwertes vom wahren Parameter angibt, während der andere durch die Varianz mißt, wie sehr die Schätzwerte streuen, d.h. wie „stark" der Schätzwert durch die Zufälligkeit der Stichprobe variiert.

Ziel ist es damit, eine Schätzfunktion 6 zu finden, so daß beide Summanden in ihrem Gesamteffekt (hier also der Summe) mögüchst klein werden.

5.6

Beispiel

Zu schätzen sei der Mittelwert einer normalverteilten ZufaUsvariable Y mit Varianz er2 (fest, aber nicht bekannt) mit einer Stichprobe vom Umfang n. Damit ist T = R. Verwendet werden soll eine lineare Schätzfunktion «J: T»

Sa(xi,---,xn)

=

ao +

J£iaiXi,

a

=

(oo,... ,o„).

(26)

Erwartungstreue

Schätzfunktionen

Als Schadensfunktion wird die

67

quadratische zugrundegelegt.

Dann ist

Ä(M.)

=

Var^Wl + iß-E^iX)})2 n

=

n

^Var^Xil + ^-ao-^aiEMf i=l

Betrachtet

man

das

Optimierungsproblem

n

n

i=l

i=l

Problem,

„optimale" Schätzfunktion

eine

min R{p,6a), erhält man, daß die Minimalstelle u

=

ao und ai

zu

finden, als

(28)

a

so

(27)

i=l

=

...

=

on

=

von u

abhängt, nämlich3

0.

(29)

Da u unbekannt ist und gerade geschätzt werden soll, hilft diese Lösung nicht weiter. Andererseits zeigt dies aber, daß wir keine lineare Schätzfunktion finden können, die für alle u das kleinste Risiko, d.h. hier die kleinsten mittleren quadratischen Fehler, liefert. Denn setzen wir

o*(x) so

=

oo,

(30)

gilt ß(2 + (U-0-u.l)2 a2£a2, =

i=i

d.h. das Risiko ist

i=i

unbekannten Parameter u unabhängig. 3Für diese Werte gilt gerade R(Sa,ß) 0. vom

=

(31)

Induktive Statistik

68

n

Diese linearen Schätzfunktionen

(mit

an

=

0 und

VJ a< t=i

=

1)

haben also die

schöne Eigenschaft, daß das Risiko, also der durchschnittliche Schaden bei häufiger Anwendung, bei quadratischer Schadensfunktion nicht vom unbekannten Parameter abhängt, also für alle relevanten Umweltzustände übereinstimmt. Beschränken wir uns also auf die linearen Sdiätzfunktionen mit dieser Eigenschaft, so werden wir als nächstes versuchen, das Risiko unter all diesen zu minimieren, d.h. die Optimierungsaufgabe 7»

Minimiere

o-^a2

(32)

«=i

unter der

Nebenbedingung

n

J>

=

1

(33)

i=i

lösen. Lösung dieser zu

0l=...

die

Aufgabe ist =

On

=

i,

(34)

n

zugehörige Schätzfunktion lautet Stein,...,xn)

=

-Y]x,-.

(35)

Dann wird also der Stichprobenmittelwert als Schätzwert verwendet. Dies entspricht auch der Vorgehensweise beim Minimaxprinzip. Es gilt nämüch f

n

00

max

R{Sa,n)

=

{

^fX + o2, i=l

£ R durch ihren Erwartungswert fast sicher festgelegt ist, folgt, daß es „im wesentlichen"

7 G T mit T C R

eine erwartungstreue Schätzfunktion für einen Parameter gibt, die die Statistik T benutzt. nur

Erwart ungat reue Schätzfunktionen

75

Satz

5.11

eine Zufallavariable mit parametrischer Verteilungsannahme {P7 I 7 € T}, T C R, X Stichprobenraum zu einer einfachen StichX probe mit Zurücklegen zu Y, T : X -t XT eine vollständige Statistik. Dann T zu T fast stimmen zwei erwartungstreue Schätzfunktionen ôf,5j : XT d.h. aus sicher überein,

Sei 1^

Y

=

Ey[t[(T'X))]

=

7

=

Ey[6?(T(X))] für aüe 7 6 T

(63)

folgt

Py[S1(T(X)) S2(T(X))] =

=

l.

(64)

Satz, dessen Beweis sich unmittelbar aus der Definition der Voüständigkeit ergibt, wird nur die Vollständigkeit der Stichprobenfunktion vorausgesetzt. Ist diese darüberhinaus noch suffizient, so heißt dies, daß die Stichprobenfunktion für die Schätzung auch benutzt werden soüte, denn sie wertet Bei diesem

das Stichprobenergebnis so aus, daß die Information erhalten bleibt und damit das Stichprobenergebnis auf den wesentlichen Kern für den Parameter reduziert wird. Zusammen bedeutet dies, daß es bei einèr voüständigen und sumzienten Statistik im wesentlichen nur eine sinnvolle erwartungstreue Schätzfunktion gibt. Dies wird auch durch den folgenden Satz bestätigt. Bei Vorliegen von suffizienten und voüständigen Sti&probenfunktionen gibt es keine wesentlich verschiedenen erwartungstreuen Schätzfunktionen, die über die Stichprobenfunktion faktorisieren, d.h. bei der der Schätzwert aus dem Wert der Stichprobenfunktion berechnet wird. Dennoch wäre es noch denkbar, daß es eine erwartungstreue Schätzfunktion gibt mit günstigerem Risiko, die nicht über T faktorisiert8. Der Satz von Rao/Blackweü zeigt, daß dies nicht der Fall ist.

5.12

Satz

von

Rao/Blackwell 9

parametrischer Verteilungsannahme W mit Parameterraum r C R, X eine Stichprobe zu Y mit Stichprobenraum X, T : X XT eine suffiziente Statistik. Zu jeder für 7 erwartungstreuen S(hätzfunktion «5 R mit existiert eine Funktion u : XT Sei Y eine Zufallsvariable mit

8Dies wäre ein Widerspruch dazu, daß es sinnvoll ist, die Stichprobenfunktion zu benutzen. 9Rao, Calyampodi Radhakrishna, geb. 1920, indischer Statistiker, vgl. Rao (1945); Blackwell, David, geb. 1919, amerikanischer Statistiker, vgl. Blackwell (1947).

Induktive Statistik

76

ö(x) u(T(x)) ist erwartungstreu für 7, Var-,[5(X)] Vor7[u(T(X))] < Vary(S(X)) und das gilt nur, falls S und S fast sicher übereinstimmen.

1.

=

2.

Gleichheitszeichen

=

Beweis für den diskreten Fall: Sei t 6 XT mit

Py(T{X) t) / 0. =

Da T eine suffiziente Statistik ist, ist die

P(X von

7

=

x

I T(X)

bedingte Verteilung

(65)

t)

=

unabhängig.

Da T suffizient ist, sollte eine sinnvoüe Schätzfunktion bei übereinstimmendem Wert von T auch denselben Schätzwert üefern. Ist dies bei 5 nicht der FaU, so hat 6 noch unnötige Variation, es soüte also möglich sein, die Streuung von S eventuell zu verringern, wenn wir diese Variation beseitigen, indem wir die Schätzwerte in den Bereichen glätten, in denen T konstant ist. Da die Erwartungstreue erhalten bleiben soll, glätten wir in der Art, daß wir in diesen Bereichen den Erwartungswert bilden, also den Erwartungswert von S(X) unter der Bedingung T{X) = t. Sei also

E(6(X) I T{X)

=

t)

=

x:

so

hängt

t€*T:

wegen der Suffizienz

«(*) Dann 1.

=

f

\[

^ à(x)P(X T(x)=t von

=

x\T(X)

T dieser Wert

nur von

E[5(X) I T{x) t]

P-,(T(X) t)jtO

0

sonst

=

=

(66)

t),

t ab. Also sei

=

(67)

güt

6(x)

=

u(T(x))

E,[u(T(X)))

ist erwartungstreu: =

£u(t)P7[r(X) t] £ E[S(X)\T(X) P,(T(a)=t)#0 =

t

t:

für

=

t]Py(T(X) t) =

77

Erwartungstreue Schätzfunktionen

=

=

£P7(TPO

=

*)

£ S(x)P{X T(x)=t

t

x:

t

«:T(x)=t

E *(*)*r(* E x:T(x)=t £o(x)P7(X x) x£X

=

n

=

x\T{X) t) =

'

1

'

(68)

*)

t

=

=

=

Ey[S(X)]

r

=

2.

Varj[6{X)]

=

=

=

>

E7[5(X)-7]2

Ey[6(X)-u(T(X)) + u(T(X))-i]* Ey[S{X) u{T(X)]2 + Vary[S{X)] Vary[6{X)],

(69)

-

da

E7[(6(X) u(T(X)){U{T(X)) 7)] Ey[S{X){u(T(X)) 7)] Ey[u(T(X))(U(T(X)) 7)] -

-

=

-

(70)

-

-

und

Ey[u(T(X))(u(T(X))-y)] =

J2u(t)(u(t)-7)Py[T(X)

=

t]

t

=

=

£(«(*)-7)*rP-(*) *] E W.mn'Jfl £(«(*>E T(x)=t E T(x)=t E («(r(x))-7)o(x)P7(X x) =

=

t

=

=

t

=

x:

z:

e7[o(X)(u(T(a:))-7)]

gilt. Probieren wir das Verfahren

von

Rao/Blackwell an einem Beispiel aus:

(7i)

78

Induktive Statistik

5.13

Beispiel: Poisson-Verteilung n

T(ii,...,x„)

=

VJ Xi «=i

vollständig für den Parameter A. Da Zurücklegen, X\,...,Xn zu Y, Xi identisch

ist suffizient und

für eine einfache Stichprobe mit verteüt ist wie Y, ist

*(*!,...,*„)

(72)

H

=

eine erwartungstreue Schätzfunktion10:

E(Xi) E(Y) =

Wie lautet

=

X.

(73)

u(r)?

Nach Definition ist

u(t)

=

=

E(S(X)\T(X) t) =

£ 6(x)P(X x\T(X) t) T(x)=t £ XlP(X x\T(X) t) T(x)=t £*i £ P(Xi=*i,Xa=*a...X„ =

=

x: =

=

(74)

=

x: =

=

*n

|r(X) *)

x

€ X zusam> 0 für

=

za...x„:2_, Xj=t-xi .=.2

=

53 XlP{Xx X! 0

Der Erwartungswert der Gammaverteilung ist E(Y) = a^. Es sei bekannt, daß 1 ist. Sei X eine einfache Stichprobe mit Zurücklegen zum Schätzen des A Parameters a der Zufallsvariable Y. Ist =

*=

1 -

n

"

V ^—' ti i=i

gleichmäßig beste erwartungstreue Schätzfunktion für a

?

Übungsaufgabe 5.4: In einem Unternehmen soü durch eine Befragung untersucht werden, wie die Arbeitnehmer in der Regel zu ihrem Arbeitsplatz gelangen. Es werden vier verschiedene Möglichkeiten betrachtet: Zu Fuß (0), mit dem Auto (1), mit Nahverkehrsmitteln (2) und Sonstiges (3). Die Wahrscheinüchkeiten für die vier

Möglichkeiten seien ji ist für i

(a)

=

mit i

3

=

0,1,2,3 und £ 7i

=

i=0

0,1,2,3.

1. Bekannt sei, daß 7i > 0

Bestimmen Sie eine

gleichmäßig beste erwartungstreue Schätzfunktion für (7o,7i.72,73)(b) Eine Stichprobe vom Umfang n 15 brachte folgendes Ergebnis: 7=

=

3,1,2,1,1,0,3,2,1,0,2,1,1,0,2, Man berechne den Schätzwert für 7 nach der Schätzfunktion

aus

(a).

6

Maxiraum-Likelihood-Schätzfunktionen1

Einen eher intuitiv begründeten Ansatz büdet ein anderes Verfahren, einen oder mehrere Parameter einer WahrscheinÜchkeitsverteilung zu schätzen. Grundlage der Schätzung ist wieder das Ergebnis einer Stichprobe, es hegen also Meß- oder Beobachtungswerte Xi,...,x„ vor. Die Gesetzmäßigkeit des Zufaus, die dieser Beobachtung zugrunde liegt, kann durch die Wahrscheinlichkeit des Stichprobenvektors X angegeben werden, die wegen der Grundannahmen der schüeßenden Statistik in bekannter Weise vom (unbekannten) Parameter 7 abhängt. Die Maximum-Likeühood-Methode geht letztlich von dem Prinzip aus, den Parameter als Schätzwert festzulegen, bei dem das Stichprobenergebnis x die größte „PlausibiÜtät" hat.

Sei zunächst ein diskretes Problem diskrete Zufallsvariable. Dann ist:

gegeben, der Stichprobenvektor X also eine

die Wahrscheinlichkeit für das Auftreten des

P~f(X x) =

Stichprobenergebnisses Das

(1)

x.

Maximiim-Likelihood-Prinzip besagt jetzt:

Py{X x)

Maximiere

=

(2)

über 7 G V

und

wähle die Maximalstelle

6.1

7*

als Schätzwert.

(3)

Beispiel

Gesucht sei die WahrscheinÜchkeitsverteilung einer B(m,p)-verteüten Zufallsvariable, also der Parameter p einer Binomialverteilung:

p(Y Dann ist für das

=

k)

=

(^jpk(i-Pr-h.

Stichprobenergebnis x

pP(x=x)

=

n

=

(xi,..., x„)

(4) :

-p)

'Eine systematische Theorie von Punktschatzverfahren nach dem Maximum-LikelihoodPrinzip (Fisher (1922)) wurde wohl zuerst von R.A. Fisher (1925) entwickelt.

Maximum-L ikelihood- Schât z funkt ionen

nQ-

(i-p)->

=

Dieser Wert ist für p € n stelle ist der Faktor T[

87

[0,1]

(5)

maximieren. Zur

Bestimmung der Maximal(1") ohne Belang, außerdem wird die Aufgabe dadurch »=i erleichtert, daß man den Wert logarithmiert2 (0 < p < 1): zu

'

]

ln[pi-i (l-p)i-i

=

J3*i lap+ (»"»-£**) ln(l-P)-(6) i=l

i=l

Die

Ableitung davon nach p ist: "

"

1

1

53*4--(nm-53*j)—. y

i=l

Setzt

man

dies

(7)

*

«=1

gleich Null, erhält man die Gleichung: Ii

Xi

nm-

fBr53*l74 0.

£ *i Daraus

n

(8)

«

folgt n

-

p

=

~n— Ä 2-, *»

oder

p=

=

nm

——

—x. m

(9)

i=l n

£

Für

n



i=l

• •

«=i

PP(X x) 0 PP(X *)>0

JWegen

nicht.

^ 0 und £ *< # nm ist dies tatsächlich eine Maximalstelle, denn =

=

=

fürp 0 oderp für0 «-1

Xi > 0

für

(34) t

=

l,...,n

Logarithmieren erhält man n

lnfXiX(x)

=

n-hi\ +

(-\y£xi).

(35)

Damit ist

^(ta/xla(*)) £-5>

(36)

^(ln/XiA(x)) -^

bzw.

die Dichte

von

X

R heißt LiJke/i/»ood-F«n*rion zuxEX.

2. Die Maximalstelle 7 der Likelihood-Funktion in

II(7)

=

3. Die Funktion

T, d.h.

maxLI(7), 7€r

heißt Maximum-Likelihood-Schätzwert

probenergebnis

x

€ X.

SMl

MÄML(i)) heißt

(40) (kurz: ML-Schätzwert)

zum

Stich-

X -*T mit =

maxLx(7) 7er

Maximum-Likelihood-Schätzfunktion für funktion). 6.5

(,_Q.;

(41) 7 € T

(kurz: ML-Schätz-

Bemerkung

Im Rahmen dieses Buches betrachten wir nur einfache Stichproben mit Zurücklegen. Das Maximum-Likelihood-Prinzip ist aber natürlich für jede Art von Stichproben anwendbar, wenngleich die Optimierungsaufgabe unter Umständen schwierig zu lösen sein wird. Vorausgesetzt werden muß zunächst nur, daß bekannt ist, wie die Wahrscheinüchkeitsverteilung der Stichprobe vom Parameter abhängt. Dies wird aber schon in der dritten Grundannahme gefordert. Bei einer

Induktive Statistik

94

einfachen Stichprobe mit ders einfach.

Zurücklegen ist

aber die Likeühood-Funktion beson-

Sei nämlich , qY"iy)

/ P7(Y y) *M

{

.

dann

=

Y diskret Y stetig,

=

.

w

güt n

Lx(l)

=

Y[qY,-y(Xi).

(43)

für aüe 7 € T güt, ist wegen der strengen Monotonie der Logarithmusfunktion 7* genau dann MaximalsteUe von Lx(j), wenn 7* Maximalstelle von ln(Lz(7)) ist. Falls

Es

ii(7)

> 0

güt aber

lni,(7)

=

ln[n«K.7(*0]=Eln«»r.'r(af aüEyfaiX)) EyftPO)] + ( v)i7(7)) + a0Fs, (x)i7(j)} =

-

=

-

~

100

Induktive Statistik

Danach wäre dann zu prüfen, ob es eine mtervailschätzfunktion (61,62) gibt, die gleichmäßig beste ist, d.h. für alle 7 G T ein minimales Risiko garantiert. Das Problem bei der Beantwortung dieser Frage besteht sicherlich darin, daß der unbekannte Parameter 7 sowohl als Parameter als auch als Argument der Verteilungsfunktion auftritt. Versucht man aber eine Risikominimierung bei festem 7 in der Hoffnung, daß die Minimalstellen bei allen 7 dieselben Funktionen 5\ und 62 liefern, so erhält man ein Minimierungsproblem, bei dem über Funktionen minimiert wird.

Wegen dieser Schwierigkeiten soü dieser Ansatz hier nicht weiter verfolgt werden. Statt dessen betrachten wir die Möglichkeit für Fehlentscheidungen. Korrekt ist die Intervallschätzung, wenn der wahre Parameterwert im geschätzten Intervall [Si(x),&2(x)] liegt. Demnach haben wir eine Fehlentscheidung, wenn einer der beiden Fäüe

/:7 W) =

7.2

=

!

(12)

Bemerkung

1. Diese Definition fordert implizit, daß P7(7 G [ 1

Beziehung -

a

für alle 7,

Lösung [6i(X),6-t(X)]

(13) =

T

auszuschließen,

(impüzit) verlangt, daß das Gleichheitszeichen für mindestens ein 7 G T güt (siehe z.B. Härtung (1993), S. 130). Die verbale Formuüerung „die Wahrscheinlichkeit, daß 7 im Intervaü liegt, betrage mindestens 1 a" könnte zu der Fehlinterpretation führen, daß 7 die Zufallsvariable ist. Zufäüig (nämüch berechnet aus dem zufälligen —

Stichprobenergebnis)

ist aber das Intervall

[öi(X),02(X)].

Es ist daher

besser, von der Einschlußwahrscheinlichkeit für den wahren Parameter zu sprechen, bzw. von der Wahrscheinüchkeit, daß das Schätzintervaü den wahren Parameterwert überdeckt3. Das Problem bei der Wahrscheinüchkeit

Bestimmung von Konfidenzintervaüen hegt darin, daß die

p7(7e[*i(X)AP0]) svgl. Bamberg/Baur (1993),

S. 161.

(14)

3Obwohl Intervallschätzungen bis auf Laplace zurückgehen, scheint dieser Sachverhalt erstvon Wilson (1927) klar dargestellt worden zu sein (vgl. Lehmann (1993), S. 126). Eine allgemeine Theorie der Konfidenzintervalle und ihre Beziehungen zur Testtheorie wurde von Neyman (1937), (1938) und (1941) entwickelt. mals

103

Intervallschätzungen ohne Kenntnis von 7 berechnet bzw.

7.3

abgeschätzt werden muß.

Beispiel

Eine Maschine stellt Bolzen mit einem vorgegebenem (Soll-) Durchmesser von 10 mm her. Durch Produktionsschwankungen variiert der Durchmesser der einzelnen Bolzen nach den Gesetzen einer Normalverteilung, deren Standardabweichung mit 0.02 bekannt sei. Mit einer Stichprobe vom Umfang 10 soll ein 95%-Konfidenzintervall für den mittleren Durchmesser bestimmt werden, die Meßwerte betragen:

10.00,10.01,10.07,10.05,10.02,9.99,9.96,10.02,10.04,10.08. Als Schätzwert für den Mittelwert verwenden wir

(15)

f) X{ N([i, £)-verteilt ist, ist

i=l

ߧtand(X)

1=1

=

standardnormalverteilt und

normalverteilung

es

(16) gilt für das (1

P(-Ul_j < firtandiX) < tii_j)

=

1

-

-

f )-Quantil ui_ 9 der Standard-

Ct.

(17)

Damit ist

P(i£x nff %=i

*

Jn

und

(19)

104

Induktive Statistik

das gesuchte also

[10.024

-

(1 a)-Konfidenzintervall. -

^=l-96,10.024 ^J1-96] +

Für 1

a

=

-

=

0.95 ist mit ui_^

1.96 —

[10.024 0.012,10.024 + 0.012] (20) [10.012,10.036] -

=

gesuchte 95%-Korifidenzintervall. Da der Sollwert nicht in diesem Intervall liegt, liegt der Schluß nahe, daß die Maschine dejustiert, also nicht korrekt eingestellt ist. das

Verteilt man die Nichtüberdeckungswahrscheinlichkeit nicht gleichmäßig auf beide Seiten des Intervalls (s. Abb.7.1), also beispielsweise auf folgende Weise:

P(p S2(X))

=

^a,

(21)

hat mit 1

n

1

er

"

a

(22)

und

(23)

(24) »=i

das Intervall 1

1

die

n t—>

er

1

1

n

V*

°~

Überdeckungswahrscheinlichkeit a.

Für a = 0.05 ist u1_3a. = «0.9925 = 1-78 und Tabelle Anhang D). Die Intervallbreite ist damit bei

(25)

symmetrischer Aufteilung.

=

u0.9875

=

2.24

(vgl.

4.02-")ai=l

Die

(63)

zugehörige Zufallsvariable dividiert durch a2

£(Xi-V)' (64) ist dann

x2(n)-verteilt (vgl. Anhang A.5.).

114

Induktive Statistik

Mit den

Quantilen x2(n)f

X2(n)i-} gilt dann

£(*-")2

X2(n)?^J^j

>

9Tschebyscheff, Pafnutij, 1821-1894, russ. Mathematiker.

l->

=

l-a

(97)

121

Intervallschätzungen

Ein Problem dabei ist, daß die Varianz er2 meist nicht bekannt sein dürfte und geschätzt werden muß. Ersetzt man in (97) a2 durch einen Schätzwert, so ist die Tschebyscheffsche Ungleichung nicht mehr anwendbar, die Abschätzung ist also in diesem Fall nicht nachgewiesen.

Übungsaufgaben zu §

7

Übungsaufgabe 7.1: Aus früheren Experimenten ist bekannt, daß bei weichung von er 2 auftritt.

Messungen eine Standardab-



(a)

Welchen Stichprobenumfang muß man wählen, um den unbekannten Mittelwert mit mindestens 95% Sicherheit auf 0.5 genau durch das arithmetische Mittel zu schätzen (Hinweis: Verwenden Sie die Ungleichung von

Tschebyscheff. ) (b) Welchen Stichprobenumfang muß man in (a) wählen, tungsmaterial normalverteilt ist ?

Übungsaufgabe In einer

händer.

(a)

das Beobach-

7.2:

Stichprobe

von

250 Studenten einer Universität

waren

22 Links-

In welchem Bereich liegt der Anteü p der Linkshänder unter den Studenten dieser Universität mit mindestens 95% WahrscheinÜchkeit? (Hinweis: Verwenden Sie die Ungleichung von Tschebyscheff; ersetzen Sie darin die unbekannte Varianz des Anteils der Linkshänder durch einen

geeigneten Schätzwert.)

(b)

wenn

Bestimmen Sie ein exaktes Konfidenzintervall für p.

Induktive Statistik

122

Übungsaufgabe 7.3: Herstellung eines Spezialteils werden mittels eines Schneidegeräts Rohre zugeschnitten, die eine bestimmt Länge ßo haben sollen. Auch bei fest gewählter Einstellung treten zufällige Schwankungen in der Länge der abgeschnittenen Rohre auf. Aus langjähriger Erfahrung sieht man die Länge der Rohre als normalverteilt an mit dem Erwartungswert ß und der Varianz er2. Aus einem Produktionslos werden n 10 Stücke zufällig entnommen und ihre Länge nachgemessen. Als Werte ergaben sich: Bei der

=

185.5,184.8,183.6,186.7,183.2,184.9,183.6,186.5,187.3,187.5

(a)

Nehmen Sie an, daß die Varianz der Rohrstücke bekannt sei mit er2 = 3.4. Berechnen Sie das 95%- und das 99%-Konfidenzintervall für den Erwar-

tungswert ß.

(b)

Berechnen Sie die 95%- und 99%-Konfidenzintervalle für den wert u, falls die Varianz er2 unbekannt ist.

(c) (d)

Berechnen Sie 95%- und 99%-Konfidenzintervalle für die Varianz er2.

Erwartungs-

Berechnen Sie 95%- und 99%-Konfidenzintervalle für die Varianz der Erwartungswert ß mit ß 185 bekannt ist.

ff2, falls

=

Übungsaufgabe 7.4: Für die Planung der Produktion benötigt ein Unternehmen Angaben über die mittlere Bestellmenge eines bestimmten Ersatzteils. Von 25 zufällig ausgewählten Kunden werden im Durchschnitt 27 Ersatzteile pro Vierteljahr bestellt. Die Standardabweichung der vierteljährlichen Bestellmenge eines Kunden ist aus früheren Untersuchungen mit er = 8.1 bekannt. Bestimmen Sie ein 95%-Konfindenzintervall für die mittlere Vierteljahr dieses Ersatzteils

(a) (b) (c)

ohne Annahmen über die

Bestellmenge

pro

Verteilung der Bestellmenge zu treffen,

unter Annahme normalverteilter

Bestellmengen,

wie bei (b), aber ohne Kenntnis der Standardabweichung der Bestellmenge. In der Stichprobe ergibt sich eine korrigierte Bestellmengenstandardabweichung von 8.1.

Tests

8

zum

Niveau

a

Im folgenden wollen wir uns dem dritten Hauptbereich der univariaten induktiven Statistik zuwenden, den Tests (vgl. § 3 und die Einführung). Es geht also darum, eine Entscheidung bezüglich des (unbekannten) Parameters der Verteilung einer Zufallsvariable zu treffen. Dabei bestehen nur zwei Entscheidungsalternativen, d.h. wir wollen nicht einen (ungefähren) Wert für den Parameter ermitteln, sondern nur feststellen, in welchem von zwei Teilbereichen des Parameterraums sich der „wahre" Parameter befindet. Typisches Beispiel ist die Frage, ob der Ausschußanteil einer Warenpartie einen „tolerierbaren" Ausschußanteil überschreitet oder nicht, ob eine Maschine ausgedrückt durch die Pa-

Verteilung der Meßwerte bei den gefertigten Produktionseinheiten ordentlich arbeitet oder nicht, ob eine Werbekampagne erfolgreich war oder nicht (d.h. ob der mittlere Umsatz nach der Kampagne größer ist als der alte

rameter der

-

-

bekannte

Wert), usw.

Betrachten wir nochmals die Ausgangssituation bei einem Test über den Parameter einer Zufallsvariable Y (vgl. § 3 und die Beispiele aus § 2). Der Parameterraum F ist in einer Testsituation zerlegt in zwei disjunkte Teilmengen r0 und

Tu

T

T0 U Ti

=

mit

r0 ^ 0 ^ Ti und TQ n Ti

=

0.

„wahren" Parameter 7 von Y muß also H0 : 7 € To (NuUhypothese)

Für den

° er

Hi

:

7e

Ti

(1) (2)

(Gegenhypothese)

richtig sein1. Aufgrund einer Stichprobe soll jetzt entschieden werden, welche der Hypothesen als richtig angesehen wird. Die Entscheidungsmöglichkeiten sind also do : Ho wird als richtig betrachtet und

(Ho

wird

angenommen)

^ Alternativtest

di : H0 wird als falsch angesehen,

(Hq

1

wird

abgelehnt)

Grundlegende Arbeiten zur Theorie dee Testens von Hypothesen sind die Arbeiten von J. Neyman und E.S. Pearson (1928), (1933), (1936a), (1936b). In diesen Arbeiten wird auch erstmals die Unterscheidung in Fehler 1. und 2. Art (siehe unten) gemacht.

Induktive Statistik

124

do und di können natürlich auch bzgl. der Hypothese Hi formuliert werden.

Gelegentlich wird man aufgrund der Aufgabenstellung die Entscheidungen auch

in anderer Weise

do

:

und

formulieren, etwa

Entscheidung über die Ï Gültigkeit von Ho oder Hi

keine

>

di : Ho wird abgelehnt.

Signifikanztest

J

Bei der ersten Wahl der Entscheidungsmöglichkeiten spricht man auch nem Alternativtest, bei der zweiten von einem Signifikanztest.

8.1

von

ei-

Beispiel für die Situation eines Signifikanztests:

Signifikanztests treten häufig bei medizinischen Fragestellungen auf, beispielsweise ob Produkte gesundheitsschädlich sind, Medikamente wirksam sind, etc.. Wegen der Fehlermöglichkeiten, die bei jeder Entscheidung auf der Grundlage von Stichproben nicht ausgeschlossen werden können, möchte man sich nur für eine der beiden Alternativen festlegen, wenn dazu eine ausreichende Grundlage, also hinreichender „Tatverdacht", besteht. Beispielsweise bei den Hypothesen Ho : Medikament ist unwirksam und

Hi : Medikament ist wirksam lautet dann

do: Das Medikament ist möglicherweise unwirksam, könnte aber auch wirksam sein. Eine

Entscheidung darüber wird nicht getroffen,

dx: Das Medikament ist wirksam. Vor allem bei gravierenden Nebenerscheinungen des Medikaments ist eine solche Entscheidungssituation plausibel. Je nach Krankheit und der Art der Nebenef-

Tests

zum

Niveau

125

a

fekte (oder auch dem Preis des Medikaments) kann eine Vertauschung der Hypothesen Ho und Hi sinnvoll sein. Dabei geht es dann darum, die Unwirksamkeit des Medikaments abzusichern. Auf die Unterscheidung zwischen Alternativtest und Signifikanztest werden wir noch zurückkommen. Betrachten wir im folgenden die „klarere" Situation des

Alternativtests.

Offensichtlich sind hier 1.

2.

folgende Fehler möglich:

H0 wird verworfen (Entscheidung di), obwohl Ho richtig ist, oder m.a.W. Ho wird fälschlicherweise abgelehnt. Man nennt dies den Fehler 1. Art. Ho wird angenommen (Entscheidung do), obwohl Ho falsch ist, oder m.a.W. H0 wird fälschlicherweise angenommen. Man spricht hier vom Fehler 2. AH.

Der entstehende Schaden hängt sicherlich davon ab, ob ein Fehler gemacht wird und, wenn ja, welcher Art dieser Fehler ist. Die Schadensfunktion

5:

{do,di} xT->R

wird sich dann in ihrer Gestalt in folgenden Bereichen wesentlich unterscheiden:

a) Entscheidung db bei 7 € r0, d.h. b) Entscheidung do bei 7 6 Ti, d.h. c) Entscheidung d\ bei 7 € r0, d.h. d) Entscheidung d\ bei 7 € T\, d.h.

korrekte

Entscheidung, Fehler 2. Art,

Fehler 1. Art,

korrekte

Entscheidung.

7

Entscheidung

aus

Ti

Fehler 2. Art

do

korrekt

di

Fehler 1. Art

korrekt

Obwohl die Höhe des Schadens in diesen vier Bereichen sicherlich noch von dem wahren Wert 7 abhängen wird, betrachten wir die folgende „undifferenzierte" Schadensfunktion:

(

5(d, 7)

=

I

[

ci a

0

7€ 7€

r0,d Ti, d

=

=

sonst

di do

„Fehler 1. Art"

„Fehler korrekte

2. Art"

Entscheidung

Induktive Statistik

126

Der Schaden wird hier in den vier Bereichen als konstant angesehen, wobei bei einer korrekten Entscheidung kein Schaden entsteht. Sei nun ö : X {do,di} eine Entscheidungsfunktion, d.h. nis x.

8.2 Eine

S(x) die Entscheidung beim Stichprobenergeb-

Bezeichnung: Entscheidungsfunktion S : X

-+

{dn,di} wird

Test genannt.

Man erhält dann als Risikofunktion

Ä(*,7)

=

=

Ey[S(S(X),y)} S(ch,j)Py(S(X) do) + S{duj)Py{6(X) =

OPT(o(X) do) + c1P7(o(X) d1)

für

oaBr(S(X) do) + 0PJ{6(X)=d1)

für 7 € IV

=

=

=

(3) =

76r0

Bei dieser Schadensfunktion sind damit für das Risiko bei einer funktion (eines Tests) S die Wahrscheinlichkeiten

di) für 7 € T0 : Wahrscheinlichkeit „Fehlerwahrscheinlichkeit 1. Art"):

P7(6(X)

=

P/(*,7)

Entscheidungs-

für den Fehler 1. Art

(kurz: (4)

P7(S{X) db) für 7 6 Ti : Wahrscheinüchkeit für den Fehler 2. Art (kurz: „Fehlerwahrscheinlichkeit 2. Art"): und

=

Pjj(*,7)

(5)

ausschlaggebend. Ein gleichmäßig bester Test zu dieser Schadens- bzw. Risikofunktion hätte damit für jede Wahl von 7 e T ein minimales Risiko, d.h. also eine mimmale Fehlerwahrscheinüchkeit. Bis auf pathologische Ausnahmefälle gibt es damit keine gleichmäßig besten Tests, wie folgende Überlegung zeigt. Ein Test 5 : X -¥ {do, di} ist durch die Teilbereiche, in denen die Entscheidung do bzw. di getroffen wird, eindeutig festgelegt:

Teats

zum

As

Niveau

127

a

{x € X I 5(x)

:=

=

{x G X I (J(x) nungsbereich

Ks

:=

bei ck i=l

do

l

di

(52)

n

E Xt € {0,1, ...,}= N U {0} ist, kann man sich bei cH ebenfalls auf Werte «=i aus NU{0} beschränken. Für den Fehler 1. Art erhält man Da

Pi(ök, Ao)

=

Pao E Xi > cfc),

(53)

i=l

für den Fehler 2. Art n

P//(**, Ai) Da

=

PAl

A-4




(56)

gilt. Im ersten Fall sagen wir, der fällt monoton in T(x).

Wabxscheinlichkeitsquotient steigt, im zweiten er

Ney man-Pearson Tests

Übungsaufgaben zu §

149

9

Übungsaufgabe 9.1: Sei Y eine Poisson-verteilte Zufallsvariable mit unbekanntem Parameter A. Mit einer Stichprobe vom Umfang n 6 sollen die Hypothesen Ho : A Ao 1 = 3 : A werden. Ai H\ gegen getestet =

=

=

=

(a) (b)

Wie lautet der beste Test mit einem Niveau

a

< 0.06 ?

Bestimmen Sie das Niveau a für den besten Test, wenn k den Wert 0.363 hat, wobei k als kritischer Wert für den Wahrscheinlichkeitsquotienten verwendet wird.

Übungsaufgabe 9.2: Y sei eine normalverteilte Zufallsvariable mit bekannter Varianz er2 und unbekanntem Erwartungswert u. Mit Hilfe einer Stichprobe vom Umfang n soll die Alternative H0 : u = gegen die Alternative Hi : u = Ui mit ui > uo getestet werden.

(a) (b)

Bestimmen Sie einen besten Test Nehmen Sie

Hi

:

fi

=

Ui

zum

Niveau a.

3 gegen an, Sie wollen die Hypothese H0 : u = A*o 5 bei einer Varianz von a2 3 zum Niveau a = 0.05 testen.

nun =

Wie entscheiden Sie sich bei einem

=



10

Stichprobenergebnis von YJ x< i=l

=

40 ?

Übungsaufgabe 9.3: Ein Unternehmen erhalt einen Anruf von einem Lieferanten, daß eine gelieferte Warenpartie mit 10000 Teilen möglicherweise nicht wie „normal" einen Ausschußanteil von 5%, sondern wegen eines Fehlers in der Produktionsanlage von 15% habe. Daraufhin wird eine Stichprobe vom Umfang n = 30 entnommen. Mit einem gleichmaßig besten Test mit einem Niveau von höchstens 0.1 soll „statistisch" gesichert werden, daß die Partie wie normal einen Ausschußanteil von 5% hat. Gewährleistet das Testergebnis dies nicht, wird die Partie zurückgeschickt.

150

Induktive Statistik

Übungsaufgabe 9.4: Y sei eine Zufallsvariable mit parametrischer Verteilung, T sei der Parameterraum. Mit einer Stichprobe vom Umfang n mit Zurücklegen soll

Ho

:

7

=

7o

gegen

Hi

:

7

=

(57)

71

getestet werden. Ô sei der Neyman-Pearson-Test zum Niveau a für dieses Testproblem, T sei eine suffiziente und vollständige Statistik. Man zeige: Gilt für zwei so

folgt cKx1)

Stichprobenergebnisse x1 =

Six2).

und x3

T(xx) T(x2), =

Gleichmäßig

10

beste Tests

Betrachten wir nun die allgemeine Situation r = rour1,ro/0^r1,ronr1

zum

=

Niveau

a

(i)

0.

Gesucht wird ein gleichmäßig bester Test ö für Ho : 7 G To gegen Hi : 7 vom Niveau a, d.h. Pi{o~,lo) < a für alle 70 G T0 und für jeden anderen Test S1

Pii(Sm)

Niveau a gilt < PidS'm) für alle 71 e IV



Ti

(2)

vom

(3)

(2) ergibt sich sofort, daß jeder Test 6 zum Niveau a für Ho : 7 G To gegen

Aus

7 € Ti auch einen Test zum Niveau a liefert für die einfachere Situation 7 = 70 gegen ffi 17 = 7!, wie auch immer man 70 € ji G Vi auswählt. Wählen wir aber 70 G To und 71 G Ti beliebig aus, so liefert uns der Neyman/Pearson-Test 6k zu k G R++ einen gleichmäßig besten Test zum

ffi Ho

:

r0*und

:

Niveau

P/( P und pi P

(12)

sonst

oder mit c :=

min{cP0,p1 | Po > P.Pi < p} di

:

£ Xi

P c

=

5, ist, ist

auszurechnen, sondern man prüft für c Eigenschaften von S*, nämlich: Zahlen cP0)Pl

=

1. Welches Niveau hat 5*1

2. Ist Ä*

erforderlich, die 0,1,2,3,..., nm 1 die

es

gleichmäßig bester Test zu diesem Niveau?

nicht



154

Induktive Statistik

Pi(r,p)

pP(ö'(x) dl)

=

=

=

pp(£xi p

(16)

ist.

S* ist also

vom

Niveau ae.

6* ist aber auch

gleichmäßig bester Test zum Niveau ac:

Sei nämlich 6' ein Test

Sc(x) ein

=

l

di

:

zum

Niveau ac und Pi < p. Zunächst ist

T,Xic i=l

p

Neyman/Pearson-Test zum Niveau n

Pd6c,p)

=

Pp(%2xi^c)

=

(18)

a°>

i=i

also gleichmäßig bester Test

zum

Niveau ac für p = p gegen p = Pi und

es

gilt:

n

Pii(Sc,Pi)

=

PPl(6c(X)=d0)=PPdYlXi>c)

(19)

i=i

=

Da aber auch 6' Test

P//(**,Pi) was zu

=

zeigen war.

PPdS'(X)=do) Pu(6\px). =

zum

Niveau ac ist für Jfu : P

P,/(d%,Pi) < P//(«î',Pi),

=

P gegen

ifi

:

p

=

pi, ist

(20)

Gleichmäßig

beste Tests

zum

Niveau

155

a

Entscheidender Punkt in diesem Beispiel ist, daß für jedes Po > P und pi < p der n Koeffizient von £ xt- in der Funktion lnQ(x) dasselbe Vorzeichen hat, so daß t=i

für jede Wahl ist. Es

von

n

po > p und Pi < p

Q(x)

monoton fallend in

liegt also ein einheitliches Monotonieverhalten vor.

10.2

T(x)

=

VJ x< •=i

Definition:

Sei X Stichprobe zu Y, Y habe eine parametrische Verteilungsannahme mit Parameterraum T = T0 U ri,r0 n Ti = 0. T : X - R sei eine Statistik [X Stichprobenraum). Wir sagen: Die

Wahrscheinlichkeitsquotienten (x\

Q

-

PTl(* =*)

b_w

fx,yi(x)

.

.

falls P70(X x) ^ 0 bzw. /x,7o(x) Ï 0 und Q70l7l(x) = oo, falls P7o(X x) 0 bzw. /x,70 (x) 0 sind einheitlich monoton steigend (fallend) in T, wenn für alle 7o € To und 71 G Ti und x,x' G X =

=

=

=

T(x)


0.

Satz:6

10.7

Gegeben sei das Testproblem Hq : 7 € T0 gegen H\ : 7 G T\. T : x R sei eine Stichprobenfunktion derart, daß der Wahrscheinlichkeitsquotient Qy0,yi ein für jede Wahl von 70 G To und 71 € Ti einheitliches (o.B.d.A. monoton wachsendes) Monotonieverhalten in T hat. Zu K {x G x \ T{x) > c} € x gebe es ein 7* G Tq mit =

a*

=

Py. (T(X) >c)

=

max

P7 [T(X)

>

c)

(53)

> 0.

Dann ist

«*>-{*

für für

T(x) < c T{x) > c

^

gleichmäßig bester Test zum Niveau a*. Sei Ô' ein weiterer gleichmäßig bester Test zum Niveau a*, ö(X) fast sicher für 7* und alle 7 G Ti überein.

so

stimmt

Ô'(X) mit

Beweis:

Offensichtlich ist 6 ein Test 71 G

zum

Niveau a*. Sei S' ein Test

zum

Niveau

a

und

Ti. Zu zeigen ist

P11(T(X) 70

Entscheidungsfunktion

T{x) c zu c

6 R ein

a

=

(57)

gleichmäßig bester Test zum Niveau

Pyo (T{X) > c),

falls

a >

(58)

0 ist.

Sei 6' ein

(weiterer) gleichmäßig bester Test zum Niveau a P70 (T(X) > c) > 0, so stimmen 6(X) und 6'{X) für alle 7 > 70 fast sicher Uberein. =

Beweis: Nach Satz 10.7 ist

nur

noch

zu

zeigen, daß 70 die MaximalsteUe von

Py(T{X) € K) Pj(T(X) > c) =

(59)

ist.

Es

güt aber, daß

Py{T{X)>c)

(60)

Induktive Statistik

164

monoton wachsend in 7 ist: > 72; 71,72 € T.

Sei nämlich 71

Voraussetzung gibt es zu c ein k mit

(«)fcP7a(X x) =

=

/x,7a (x) / 0

bzw.

*/x,72(x)-

(63)

Pm(T(X)>c)>kPya(T(X)>c)

(64)

/xl7l(aO Daraus

>

folgt, daß

ist. Ebenso

gilt

(65)

p^rw^c^fcp^nx^c). Sei

«

=

0

P^ (T(X)


c), dann ist

(l-«)((P7l(T(A')>c)-fcP7a(T(A')>C)) -«(P71 (T(X) < c) kPy, (T{X) < c)) {l-K)(Pyi{T{X)>c)-kP7,(T(X)>c)) -

=

(66)

-«(1 Py, (T(X) >c)-k + kPy, (T(X) > c)) P71 (T(X) > c) ifcP7a (T(X) >c)-K + Kk P^TiX) > c) k -

=

=

-

-

und damit

P^ (T(X) > c) Daraus

>

k

=

P7a(T(X) > c).

(67)

P7o (T( X)

(68)

folgt

max

7

c)

=

>

c)

Gleichmäßig

beste Tests

und damit die

zum

Niveau

165

a

Behauptung.

Bemerkung:

10.9

1. Betrachtet

#o so

:

man

das

umgekehrte Testproblem

7 > 7o gegen

:

(69)

7 < 70,

sind Annahmebereich und kritischer Bereich

do ist

Ht

gleichmäßig

mum

vertauschen:

T(x) > c T(x) < c

bester Test

bei, daß die Schranke

zu

70

(70)

Niveau Pyo(T(X) < c). Wichtig ist daNullhypothese gehört, da sonst das Maxi-

zum

zur

für die Fehlerwahrscheinlichkeit 1. Art nicht existiert, genauer das

Supremum nicht angenommen wird. Bei monoton fallendem Wahrscheinlichkeitsquotienten in T sind entsprechend die Entscheidungsfunktionen auszutauschen:

(70)

für das Testproblem

(56); (57)

für das

Testproblem (69)

sind dann jeweils gleichmäßig beste Tests zu dem entsprechenden Niveau. Soll das Testniveau nach Vertauschung der Hypothesen gleichbleiben, ist also die Testschranke c neu zu bestimmen. 2. Satz und

Folgerung beinhalten implizit, daß das Niveau nicht beliebig gewählt werden kann, sondern sich aus der Festlegung des kritischen Bereiches K, also aus der Testschranke c, ergibt. Ist T(X) eine stetige Zufaüsvariable, so sieht man aus (58), daß zumindest bei einseitigen Tests jedes Niveau eingesteüt werden kann. Nicht so bei diskretem T(X), wie auch Beispiel 9.1 (siehe auch Beispiel 10.1) schon gezeigt hat.7

3. Um das Niveau eines so formulierten Tests tatsächlich berechnen zu können, benötigen wir die Wahrscheinüchkeitsverteilung von T(X), also einer Funktion der mehrdimensionalen Zufallsvariable Xi,..., Xn. In den meisten praktischen Anwendungsfäüen wurde diese Arbeit schon von Statistikern früherer Generationen durchgeführt. Die wichtigsten Verteilungen sind im

Anhang aufgeführt.

7Ein Ausweg besteht darin, die Entscheidung für den Fall, dafl die Testgröfie mit der Testschranke übereinstimmt, von einem Zufallsprozeß abhängig zu machen („Randomisierte Tests", vgl. etwa Henn/Kischka(1981)

Induktive Statistik

166

Anwendungen

10.10

Nach den bisherigen Vorbereitungen macht es beste Tests zum Niveau a für einparametrige der geläufigen Verteilungen zu ermitteln:

keine Probleme,

gleichmäßig (r c R) einseitige Testprobleme

nun

a) Bernoulli-Verteilung: n

£ X, ist suffizient und vollständig mit monoton wachsendem T{x) Wahrscheinlichkeitsquotienten8. Damit ist für das einseitige Testproblem —

H0 die

:

p < Po gegen

(71)

Hl:p>po

Ents C «=1 gleichmäßig bester Test zum Niveau

Pi(6c)

=

PP0(itlXi>c).

(73)



£ Xi i=l

ist

binomialvertailt,

so

daß

PP0(£xi>c)= *=c+l £ f?)po(l-Po)n-* W

(74)

i=l

gilt. Ist ein Niveau a vorgegeben, so wählt man c so, daß das Niveau von öc möglichst nahe bei a liegt und a nicht überschreitet:

Pi(Se) c2,a.

gleichmäßig bester Test

zum

Niveau

gangssituation, dann wäre S* auch gleichmäßig bester Test die beiden einseitigen Tests (24) und (25).

a

zum

für die AusNiveau a für

Die Gütefunktion von 6* müßte nun einen Verlauf nehmen, der für a2 > 0.2 mit der Gütefunktion von 0.2 für Si und alle er2 < 0.2 für 02 übereinstimmen, folgt, daß S* bei Parameterwerten a2 < 0.2 mit 61 und bei Parameterwerten 0.2 fast sicher mit 62 übereinstimmt. Für a > 0 ist aber 0 < Ci,a, C2,a < 00 und die Tests 61 und 62 sind damit offensichtlich verschieden. -

-

Abbildung

11.4: Gütefunktion

zu

Si und Si

aus

Beispiel 11.7.

die Gütefunktionen der beiden einseitigen Tests (24) und (25) wieder (der Vollständigkeit halber auch für den Parameterbereich er2 < 0.2 bei (24) und er2 > 0.2 bei (25)). Man sieht, daß 0.2 einen guten Verlauf der Gütefunktion hat (die Funktionswerte steigen rasch gegen 1 an), aber für a2 < 0.2 unbefriedigend ist, da die Wahrscheinlichkeit die Nullhypothese abzulehnen klein ist und schnell gegen Null geht. Umgekehrt ist £2 als Test für (23) gut im Bereich er2 < 0.2, aber schlecht im Bereich a2 > 0.2.

Abbildung

11.4

gibt

Induktive Statistik

182

Übungsaufgabe zu §

11

Übungsaufgabe 11.1: Der

Hauptgesellschafter der „Elektroblitz Mobile GmbH & Co. KG"

ist der An-

sicht, daß mehr als 40% der Autofahrer bereit sind, ein Elektromobil wie den von

ihm entwickelten „Elektroblitz" zu kaufen, wenn der Preis zwischen DM 20.000.und DM 30.000.- liegt. Da er diese Aussage gegenüber den etwas skeptischeren Mitgesellschaftern untermauern will, entschließt er sich zur Durchführung einer stichprobenhaften Befragung unter Autofahrern aus dem gesamten Bundesgebiet.

(a) (b)

Formulieren Sie Null- und Gegenhypothese dieses Testproblems. Geben Sie die Teilbereiche r0 und T\ des Parameterraums an. Geben Sie eine sinnvolle Entscheidungsfunktion dazu an. Wie lautet die OC- und die Gütefunktion dieser Entscheidungsfunktion.

Sie den Verlauf der OC- und der Gütefunktion und zeichnen Sie die Fehlerwahrscheinlichkeiten 1. und 2. Art ein.

(c) Skizzieren (d)

Wie ändert sich die Fehlerwahrscheinlichkeit l.Art dieses Tests, nur den Stichprobenumfang n vergrößern?

(e)

Wie können Sie eine höhere

Übungsaufgabe

wenn

Sie

„Trennschärfe" des Tests erreichen?

11.2:

Eine Abfüllanlage, die Zuckertüten mit 1 kg Sollinhalt abfüllt, soll mit statistischen Methoden überwacht werden. Dazu wird angenommen, daß die tatsächliche Füllmenge normalverteilt ist mit Mittelwert u und einer bekannten Varianz von

er2

=

9

g2.

Wie ist der Mittelwert

einzustellen, daß mit einer Wahrscheinlichkeit

von

90%

der SoUinhalt mindestens erreicht wird?

Anlage auf diesen Wert justiert ist, wird alle Stunde eine StichTüten aus der laufenden Produktion entnommen und ihr Inhalt 5 probe Mit Test wird überprüft, ob der SoUinhalt weiterhin mit 90% einem gewogen. Wahrscheinlichkeit erreicht wird. Ist dies nicht der Fall, wird die Anlage neu justiert. Dabei soll ein Fehlalarm, d.h. eine unnötige Neujustierung mit höchstens 1% Wahrscheinlichkeit eintreten. Nachdem die von

Wie lautet das Testproblem, welchen Test wird man sinnvollerweise verwenden? Geben Sie zu diesem Test die OC-Funktion und die Gütefunktion an und zeichnen Sie diese. Wie groß ist die Wahrscheinlichkeit höchstens, eine erforderliche Neujustierung aufgrund des Testergebnisses zu unterlassen?

12 In

Gleichmäßig

Beispiel H0

beste unverfälschte Tests

11.7 haben wir bei einem

:7

=

7o

zweiseitigen Test

der Form

(r

=

R)

Hx:j^ 70,

gegen

(1)

also

r0

{70},r1={7er|7^7o},

=

(2)

den Teilbereich Ti zerlegt in die Bereiche 7 < 70 und 7 > 70 und die beiden gleichmäßig besten Tests 61, 62 zum Niveau a für die einseitigen Testprobleme

Hü1):7

=

7o

gegen

H1(1):7>7o

(3)

H02)

=

7o

gegen

H[2)

(4)

und :

7

:

7 < 7o

betrachtet. Verwendet man diese Tests als Tests für das Ausgangsproblem, so ist (vgl. Abbildung 11.4) 6\ optimal im Bereich 7 > 70, aber „extrem" schlecht im Bereich 7 < 70 und umgekehrt bei oV Diese Tests kommen daher sinnvollerweise nicht in Betracht. Andererseits haben wir festgestellt, daß auch bei gleichmäßig besten Tests zum Niveau a als Supremum für die Fehlerwahrscheinlichkeit 2. Art meist 1 a akzeptiert werden muß. In Abbildung 11.4 sieht man, daß die Tests 6\ und 62 als Supremum der Fehlerwahrscheinlichkeit 2. Art sogar 1 haben. Eine sinnvolle Forderung scheint demnach zu verlangen, daß wir nur solche Tests zulassen, deren Fehlerwahrscheinlichkeit 2. Art nirgendwo größer als 1 a ist. —



12.1

Definition1

Ein Test S : X -r heißt unverfälscht,

{do.di}

zum

Niveau

a

für H0 : 7



T0 gegen Hi

:

7 6

Ti

wenn

PidS,^) < 1-a

für alle 7 e Ti

Unverfllschtbeit wurde in Neyman, J., Pearson, E.S.

(5) (1936a), (1938) eingeführt.

184

Induktive Statistik

gilt.

Py(S(X) = di) ist (5) gleichbedeutend mit R,(6(X) = für alle 7 6 Ti, d.h. die Wahrscheinlichkeit, die Nullhypothese abzulehnen, wenn sie nicht zutrifft, ist mindestens a und damit mindestens so groß, wie die Wahrscheinlichkeit, die Nullhypothese abzulehnen, obwohl sie zutrifft. Auch in dieser Form ist die Forderung sicherlich sinnvoll. Wegen P//(o\7)

di)

=

1

-

> a

Definition

12.2

Ein unverfälschter Test «Î zum Niveau a heißt gleichmäßig bester unverfälschter Test zum Niveau a, wenn für jeden unverfälschten Test 6' zum Niveau a

Pn(5,f)


Verteilung mit f

{Xi~P]* (£ *i