208 72 37MB
German Pages 581 [584] Year 1981
Gernot D. Kleiter Bayes-Statistik
Gernot D. Kleiter
Bayes-Statistik Grundlagen und Anwendungen
W DE
G Walterde Gruyter • Berlin • NewYork1981
Dr. Gernot D. Kleiter D o z e n t a m I n s t i t u t für P s y c h o l o g i e , Universität S a l z b u r g
CIP-Kurztitelaufnahme
der Deutschen
Bibliothek
Kleiter, Gernot D.: Bayes-Statistik: Grundlagen u. Anwendungen / Gernot D. Kleiter. - Berlin, New York: de Gruyter, 1980. ISBN 3-11-008273-X
© Copyright 1980 by Walter de Gruyter & Co., vormals G.J. Göschen'sche Verlagshandlung, J. Guttentag, Verlagsbuchhandlung, Georg Reimer, Karl J. Triibner, Veit & Comp., Berlin 30. Alle Rechte, insbesondere das Recht der Vervielfältigung und Verbreitung sowie der Übersetzung, vorbehalten. Kein Teil des Werkes darf in irgendeiner Form (durch Photokopie, Mikrofilm oder ein anderes Verfahren) ohne schriftliche Genehmigung des Verlages reproduziert oder unter Verwendung elektronischer Systeme verarbeitet, vervielfältigt oder verbreitet werden. - Printed in Germany Satz: Satzstudio Frohberg, Freigericht. Druck: Karl Gerike, Berlin. Bindearbeiten: Dieter Mikolai, Berlin.
Vorwort
Die Statistik ist heute ein vielverzweigter Forschungsbereich. Wie jede lebendige Disziplin der Wissenschaften befindet sie sich in ständiger Entwicklung, und es gibt zahlreiche Meinungen, Richtungen und Schulen. In der vorliegenden Arbeit wird eine spezielle Richtung dargestellt: der Bayes-Ansatz. Diese Richtung unterscheidet sich in ihrer Philosophie grundsätzlich von dem Standard-Ansatz, der durch die gängigen Lehrbücher der Statistik vermittelt wird. Die Bezeichnung „Bayes-Statistik" leitet sich von dem englischen Geistlichen Thomas Bayes (1702—1761) ab; er entwickelte als erster das „Bayes-Theorem", ein elementares Theorem der Wahrscheinlichkeitstheorie. Seine Arbeit „An Essay towards Solving a Problem in the Doctrine of Chances" wurde nach seinem Tode von Richard Price in den Philosophical Transactions der Royal Society herausgegeben; 1958 wurde sie in der Zeitschrift Biometrika wieder abgedruckt. Bayes war selbst ein Mitglied der Royal Society. Die Bayes-Statistik ist historisch gesehen der klassische Ansatz. Sie wurde in den Jahren vor und nach 1930 durch Fisher, Neyman und Pearson und die durch sie eingeführten Prinzipien der Signifikanztests, der Vertrauens- und Konfidenzintervalle und durch die Testtheorie abgelöst. Diese Theorien stellen den gegenwärtig verbreiteten Standardansatz dar. In den letzten Jahren fand unter dem Einfluß neuerer Ergebnisse der Wahrscheinlichkeitstheorie und der mathematischen Statistik eine Wiederbelebung des klassischen Ansatzes in neuem, modernem Gewände statt. Die in diesen neuen Arbeiten dargestellten Theorien und Methoden faßt man unter der Bezeichnung „Bayes-Statistik" zusammen. Das Buch bietet eine Einführung in die Grundlagen der Bayes-Statistik und behandelt ausfuhrlich praktische Anwendungstechniken. Es wendet sich in erster Linie an den Benutzer statistischer Techniken. Die Beispiele stammen aus dem Bereich der Psychologie; sie werden jedoch allgemeinverständlich dargestellt, so daß sie auch für den Leser mit anderen Fachinteressen ihren Zweck erfüllen. Mehr als der Standard-Ansatz verlangt die Bayes-Statistik nach echten Beispielen. Der Schwierigkeitsgrad des Textes ist absichtlich unterschiedlich. Der Anfänger wird bei gründlicher Lektüre die meisten Abschnitte verstehen und nach dem Überspringen der Ableitungen den roten Faden sofort wieder aufnehmen; auch der versierte Leser wird sich hoffentlich nicht langweilen. Die mathematischen Voraussetzungen beschränken sich mit ganz wenigen Ausnahmen auf die moderne Schulmathematik. Worin bestehen die Unterschiede zwischen der Bayes-Statistik und dem StandardAnsatz? Ganz äußerliche Kennzeichen des Standard-Ansatzes sind (a) das Annehmen oder Verwerfen von Null- bzw. Alternativhypothesen auf Grund von Irrtumswahrscheinlichkeiten,
VI
Vorwort
(b) Aussagen über unbekannte Größen durch die Berechnung von Konfidenzintervallen und (c) die Bestimmung von Punktschätzungen nach verschiedenen Kriterien, wie die Methode der kleinsten Quadrate, der Unverfälschtheit usw. Wichtig sind folgende innere Kennzeichen des Standard-Ansatzes: (a) Die Bewertung von Hypothesen erfolgt durch statistische Tests; die Theorie der statistischen Tests behandelt die Kriterien, die einen Test zu einem „guten" Test machen und die Auswahl solcher Tests; ähnliches gilt für die Auswahl von Schätzfunktionen. (b) Die Tests, die Konfidenzintervalle und die Punktschätzungen hängen vom Stichprobenraum ab; aus diesem Grund wird der Standard-Ansatz auch als „sampling theory approach" bezeichnet (Box und Tiao, 1973). (c) Es ist unzulässig, Hypothesen oder unbekannten Größen Wahrscheinlichkeiten zuzuordnen; für den Parameterraum werden keine Wahrscheinlichkeiten zugelassen. Zu den Kennzeichen des Bayes-Ansatzes gehören (a) die direkte Bewertung von Hypothesen durch Wahrscheinlichkeiten, (b) Aussagen über unbekannte Größen durch die Bestimmung von Intervallen mit der höchsten Wahrscheinlichkeit und (c) die Bestimmung von Punktschätzungen durch die Angabe des wahrscheinlichsten Wertes, des Erwartungswertes usw. Die grundlegenden inneren Kennzeichen des Bayes-Ansatzes sind: (a) Die Einfuhrung von Wahrscheinlichkeiten für Hypothesen und unbekannte Größen in der Form von priori- und posteriori-Verteilungen und (b) die einheitliche Verwendung des Kohärenzkriteriums, wenn die Frage auftaucht, welchem von zwei Verfahren der Vorzug zu geben ist. Ein weiterer fundamentaler Unterschied zwischen Standard-Ansatz und Bayes-Ansatz liegt in der Interpretation von Wahrscheinlichkeiten. Stark vereinfacht unterscheidet man Objektivisten und Subjektivisten. Für den Objektivisten werden Wahrscheinlichkeiten im Sinne von relativen Häufigkeiten „frequentistisch" interpretiert. Subjektive Wahrscheinlichkeiten werden hingegen als ein kohärentes Maß für unvollständiges Wissen aufgefaßt. Eine ausgezeichnete Gegenüberstellung der beiden Ansätze findet man bei Lindley (1972). Der Standard-Ansatz wurde so überzeugend und hinreichend kritisiert, daß es gegenwärtig fast müßig erscheint, der Kontroverse zwischen den Schulen einen weiteren Beitrag hinzuzufügen. Es ist auch gar nicht sicher, ob ein Paradigmen-Streit dieser Art letztlich durch rationales Argumentieren entschieden werden kann. Das Buch entsprang daher dem Wunsch nach einer Darstellung der Bayes-Statistik, die von sich aus überzeugend ist; Kritik und Polemik im Hinblick auf andere Richtungen sollten weitgehend vermieden werden. Die Arbeit wurde Ende 1975 bei einem Aufenthalt bei Lawrence D. Phillips an der Brunel-University in London begonnen; Phillips hatte gerade ein Buch über
Vorwort
VII
Bayes-Statistik für Psychologen publiziert (Phillips, 1973), und ich verdanke vieles der anregenden Atmosphäre in seiner Abteilung. Ein zweites Motiv war mein bereits mehrere Jahre zurückreichendes Unbehagen mit den verbreiteten statistischen Techniken (Kleiter, 1969). Dazu kam weiter die Nähe der Bayes-Statistik zu meinem Interesse an der Entscheidungstheorie. Als die Arbeit begonnen wurde, gab es kein Buch zur Bayes-Statistik in deutscher Sprache. Eine Ausnahme ist nun das posthum herausgegebene Werk von Stange (1977). Überraschend ist, daß z.B. die Zeitreihenanalyse von Box und Jenkins (1971) in der deutschen psychologischen Fachliteratur aufgegriffen wird, daß aber der große Beitrag von Box und seinen Mitarbeitern zur Bayes-Statistik keinen merklichen Niederschlag findet. Ähnliches muß in bezug auf die Grundlagen der subjektiven Wahrscheinlichkeitstheorie gesagt werden. Die Beiträge von de Finetti und Savage werden zwar in der Entscheidungstheorie und in der Wissenschaftstheorie (z.B. Stegmüller 1973 oder Kutschera, 1972) behandelt, unseres Wissens jedoch nicht in deutschsprachigen Texten zur angewandten Statistik. Es ist eines meiner Anliegen, die Statistik in einem größeren wissenschaftstheoretischen und erkenntnistheoretischen Zusammenhang zu sehen. Diesem Bestreben ist das erste Kapitel gewidmet. Eine These ist, daß die Aufgabe der Statistik die probabilistische Evaluation von Hypothesen und Vorhersagen ist. Die wahrscheinlichkeitstheoretische Bewertung von Vorhersagen ist bei der Anwendung der Statistik auf Einzelfälle von großer Bedeutung. Das zweite Kapitel gibt eine ausführliche Darstellung der Grundlagen der subjektiven Wahrscheinlichkeitstheorie. Die Ausführungen halten sich ganz eng an de Finettis Werk (1964, 1970, 1974, 1975, 1972). Daß solche Darstellungen auch in englischer Sprache kaum zu finden sind, mag die Ausführlichkeit rechtfertigen. Das dritte Kapitel stellt die elementaren Prinzipien der Bayes-Statistik am Einstichprobenfall dar. Es wird der einfachste Gauß-Prozeß mit bekannter Varianz behandelt; ausfuhrlich wird auf die Untersuchung einer Prozentzahl eingegangen. Wichtige Begriffe wie die priori-Verteilung, das Prinzip der stabilen Schätzung, die Vertauschbarkeit, das Mischungstheorem von de Finetti usw. werden entwickelt. Das vierte Kapitel behandelt den Einstichprobenfall mit einem wesentlich stärkeren Bezug zur Praxis. Ausfuhrlich wird die bivariate Untersuchung von Mittelwert und Varianz eines Gauß-Prozesses behandelt. Besondere Beachtung wird der probabilistischen Bewertung von Vorhersagen mit Hilfe von Prädiktivverteilungen geschenkt. Die einheitliche Behandlung von Hypothesen und Vorhersagen ist einer der praktischen Vorzüge der Bayes-Statistik. Der Zweistichprobenfall wird im fünften Kapitel dargestellt. Die Verteilungen für die Mittelwerte, die Varianzen, die Mittelwertsdifferenz und das Varianzverhältnis werden aus den gemeinsamen Verteilungen der Parameter gewonnen. Das BehrensFisher-Problem der ungleichen Varianzen bereitet im Bayes-Ansatz keinerlei
Vili
Vorwort
Schwierigkeiten und die entsprechenden Auswertungsverfahren werden für die Praxis generell empfohlen. Das sechste Kapitel behandelt die einfaktorielle Varianzanalyse. Zur Untersuchung der Mittelwerte wird das Box-Tiao-Tan-Modell dargestellt; das Lindley-Modell wird zur Gewinnung von Prädiktiwerteilungen verwendet. Besondere Beachtung wird Wahrscheinlichkeitsverteilungen für die Effektstärke geschenkt. Im Zusammenhang mit der Schrumpfung der Mittelwertsunterschiede wird auf das Stein-Paradox eingegangen. Auf die Darstellung von verteilungsfreien Verfahren und auf Korrelations- und Regressionsanalysen wurde verzichtet. Beides hätte Rahmen und Umfang der vorliegenden Arbeit gesprengt. Eine Reihe verteilungsfreier Verfahren findet der Leser bei Lindley (1964), McLaren (1967), Altham (1969, 1970) und Leonard (1972, 1973, 1975). Regressionsanalysen werden in ausgezeichneter Weise bei Zellner (1971) dargestellt. Mein Dank gilt insbesondere Prof. Dr. Revers. Ohne die „erkenntnistheoretisch inspirierte" Atmosphäre, die er zu verbreiten vermag und ohne seine Toleranz und Geduld wäre diese Arbeit nicht zustandegekommen. Ebenso gilt mein Dank auch allen Institutsmitgliedern, die in Diskussionen direkt oder indirekt zur Gestaltung der Arbeit beitrugen, besonders Dr. Gachowetz und Dr. Klimesch. Doz. Dipl. Ing. Dr. Österreicher und Prof. Dr. Morscher danke ich für die zahlreichen inhaltlichen Korrekturen und Verbesserungsvorschläge. Weiter danke ich Frau Dr. HofstätterBarnert für ihr so vorzügliches Korrekturlesen. Ebenso gilt mein Dank Lawrence D. Phillips an der Brunei University; seine Gastfreundschaft und Unterstützung waren ein wesentlicher Grundstein für die Entstehung des Manuskrips. Sein Buch über Bayes-Statistik war eine fortwährende Anregung. Besonders danke ich auch Gerald Choo für seine Gastfreundschaft und seine Hilfe in praktischen Fragen und Diskussionen. Mein besonderer Dank sei schließlich dem Verlag de Gruyter und seinem unkomplizierten und kooperativem Arbeitsstil ausgesprochen. Salzburg, Sommer 1980
Gernot D. Kleiter
Inhalt Verzeichnis der behandelten Wahrscheinlichkeitsverteilungen 1. Vorhersagen, Hypothesen und Induktion: Einige wissenschaftstheoretische Grundlagen der angewandten Statistik 1.1 Warum Statistik? — Zur Wahrscheinlichkeitsbewertung von Hypothesen und Vorhersagen 1.2 Deduktive und induktive Argumente 1.3 Kriterien rationaler Wissensstrukturen 1.4 Tatsachebezug, Unsicherheit und Revidierbarkeit von Hypothesen 1.5 Allgemeine Hypothesen und singuläre Vorhersagen 1.6 Quantitative Hypothesen 1.7 Sachhypothesen und statistische Hypothesen
XII
1 1 3 9 12 14 22 26
2. Grundlagen der Wahrscheinlichkeitstheorie 2.1 Wetten, Sicherheitsäquivalente und Kohärenz 2.1.1 Der Begriff der Wette 2.1.2 Sicherheitsäquivalent und Kohärenz 2.2 Trägerstrukturen 2.2.1 Ereignisstrukturen 2.2.2 Zufallsvariablen und quantitative Trägerstrukturen 2 3 Absolute Wahrscheinlichkeiten 2.4 Bedingte Wahrscheinlichkeiten 2.5 Wahrscheinlichkeitsverteilungen 2.6 Stochastische Konvergenz
29 29 29 35 45 45 55 66 101 130 157
3. Elementare Methoden der Bayes-Statistik 3.1 Die Untersuchung eines Mittelwertes, a bekannt 3.1.1 Bedeutung und Beispiele 3.1.2 Strukturmodell 3 . 1 3 Likelihood-Funktion 3.1.4 Posteriori-Verteilungen 3.1.4.1 Nicht-informative priori-Verteilung 3.1.4.2 Natürlich-konjugierte priori-Verteilung 3.1.5 Beispiel 3.1.6 Durchführungsprogramm 3.2 Die Untersuchung einer Prozentzahl 3.2.1 Prädiktiv-Wahrscheinlichkeiten 3.2.2 Bernoulli-Prozeß 3 . 2 3 Mischungstheorem
167 167 167 168 170 172 172 174 176 180 183 184 188 189
X
Inhalt 3.2.3.1 „Gemischte Wahrscheinlichkeiten" 189 3.23.2 Grenzverteilungen 193 3.2.33 Mischungstheorem 195 3.2.4 Bayes-Analyse 199 3.2.4.1 Beispiel: Weißpräferenzen bei schwarzen Kindern . . . 199 3.2.4.2 Likelihood-Funktion 201 3.2.4.3 Priori-Verteilungen 203 3.2.4.3.1 Drei Vorschläge für feste priori-Verteilungen 204 3.2.4.3.2 Zur Verwendung informativer prioriVerteilungen 207 3.3 Die Erstellung von priori-Verteilungen 210 3.3.1 Ungebundene Verfahren 211 3.3.1.1 Methoden mit Relations-Urteilen 211 3.3.1.2 Methoden mit numerischen Urteilen 212 3.3.1.3 Graphische Verfahren 213 3.3.2 Die Anpassung bekannter Verteilungstypen 213 3.3.2.1 Die Anpassung einer Betaverteilung an zwei Fraktile . . 213 3.3.2.2 Die Anpassung einer Betaverteilung an Quartile 216 3.3.2.3 Die Angleichung einer Betaverteilung an ein Histogramm 218 3.3.3 Verteilungsgebundene Verfahren 219 3.3.3.1 Angleichung über den Mittelwert 219 3.3.3.2 Angleichung über den Modus 220 3.4 Einige grundlegende Prinzipien und Begriffe 220 3.4.1 Zur Kritik von priori-Verteilungen 220 3.4.2 Zur Metrik der Parameter: Datengetreue Likelihood 222 3.4.3 Das Prinzip der stabilen Schätzung 225 3.4.4 Das Likelihood-Prinzip 226
4. Der Einstichprobenfall 4.1 Die Untersuchung einer Streuung, ju bekannt 4.1.1 Bedeutung 4.1.2 Strukturmodell 4.1.3 Likelihood-Funktion 4.1.4 Priori- und posteriori-Verteilungen 4.1.4.1 Nicht-informative priori-Verteilung 4.1.4.2 Der Umgang mit der Gruppe der x 2 -Verteilungen . . . . 4.1.4.3 Natürlich-konjugierte priori-Verteilung 4.2 Einstichprobenfall,// und a unbekannt 4.2.1 Bedeutung 4.2.2 Strukturmodell 4.2.3 Priori- und posteriori-Verteilungen 4.2.3.1 Nicht-informative priori-Verteilung
235 235 235 235 235 236 236 238 250 251 251 252 253 253
Inhalt
XI
4 . 2 . 3 . 2 Natürlich-konjugierte priori-Verteilung 4.3
265
Elementare Prädiktiwerteilungen
278
4 . 3 . 1 Grundbegriffe
278
4 . 3 . 2 Verteilungen
287
4 . 3 . 2 . 1 Bernoulli-Prozeß
287
4 . 3 . 2 . 2 Gauß-Prozeß, a bekannt
289
4 . 3 . 2 . 3 Gauß-Prozeß
290
5 . Der Zweistichproben-Fall 5.1
295
Bedeutung
295
5 . 2 E l e m e n t a r e V e r t e i l u n g e n für den Z w e i s t i c h p r o b e n - F a l l
296
5.2.1 Strukturmodell
296
5.2.2 Likelihood-Funktion
296
5 . 2 . 3 N i c h t - i n f o r m a t i v e priori-Verteilungen
298
5 . 2 . 4 G e m e i n s a m e posteriori-Verteilung
298
5 . 3 A n n a h m e der V a r i a n z h o m o g e n i t ä t
298
5 . 3 . 1 Die bivariate posteriori-Verteilung für ß i und ß 2
299
5 . 3 . 2 Die R a n d v e r t e i l u n g e n für ß i , ß 2 und a
306
5 . 3 . 3 Die R a n d v e r t e i l u n g für die M i t t e l w e r t s d i f f e r e n z
8
=
¡JL2 ~
ß I
• •
5 . 3 . 4 N a t ü r l i c h - k o n j u g i e r t e priori-Verteilungen
309 316
5 . 4 K e i n e I n f o r m a t i o n über die G l e i c h h e i t der V a r i a n z e n ( B e h r e n s Fisher-Problem)
322
5 . 5 D e r V e r g l e i c h von zwei V a r i a n z e n
331
6 . Einfaktorielle Varianzanalyse 6.1
343
Einführung in die G r u n d b e g r i f f e
343
6 . 1 . 1 P r o b l e m s t e l l u n g : Mehr als zwei S t i c h p r o b e n
343
6 . 1 . 2 Die B e g r i f f e F a k t o r und S t u f e
344
6 . 1 . 3 K e n n w e r t e der D a t e n
347
6.2 Strukturmodell
352
6 . 3 Die Likelihood-Funktion
355
6 . 4 N i c h t - i n f o r m a t i v e priori-Verteilung und ihre R a n d v e r t e i l u n g e n 6.5
Die p o s t e r i o r i - V e r t e i l u n g e n z u m B o x - T i a o - T a n - M o d e l l
. . . .
357 360
6 . 5 . 1 D i e g e m e i n s a m e p o s t e r i o r i - V e r t e i l u n g für die V a r i a n z komponenten 6 . 5 . 2 D i e p o s t e r i o r i - V e r t e i l u n g für die S t ä r k e der E f f e k t e
360 365
6 . 5 . 3 D i e p o s t e r i o r i - V e r t e i l u n g für M i t t e l w e r t e und M i t t e l w e r t s differenzen 6 . 5 . 4 D i e S c h r u m p f u n g der M i t t e l w e r t s u n t e r s c h i e d e
370 378
6 . 5 . 5 Die p o s t e r i o r i - V e r t e i l u n g e n für paarweise M i t t e l w e r t s differenzen 6 . 5 . 6 D i e p o s t e r i o r i - V e r t e i l u n g für lineare K o n t r a s t e
384 387
XII
Inhalt
6.6 Informative priori-Verteilungen: der Lindley-Ansatz 6.6.1 Die posteriori-Verteilung der Varianzen 6.6.2 Die posteriori-Verteilung für die Fehlervarianz 6.6.3 Die posteriori-Verteilung für die E f f e k t s t ä r k e 6.6.4 Die posteriori-Verteilung der Stufenmittelwerte bei gegebenen Varianzen 6.6.5 Prädiktiwerteilungen
391 396 398 401 403 408
Tabellen Literaturverzeichnis Autorenverzeichnis Sachverzeichnis
417 553 561 563
Verzeichnis der systematischen Behandlung der wichtigsten Wahrscheinlichkeitsverteilungen
Gleichverteilung
145
Binomialverteilung
146
Normalverteilung
147
Betaverteilung
148 u n d 213
2
239
1
X" -Verteilung
241
log x " 1 -Verteilung
242
X 2 -Verteilung
243
t-Verteilung
260
F-Verteilung
335
Gamma-Normalverteilung
258
X" -Verteilung
1. Vorhersagen, Hypothesen und Induktion: Einige wissenschaftstheoretische Grundlagen der angewandten Statistik
1.1 Warum Statistik? Zur Wahrscheinlichkeitsbewertung von Hypothesen und Vorhersagen Die Forschung führt ständig zu Veränderungen unseres Wissens in einem Fachgebiet. Neue Ergebnisse sind der Anlaß dazu, daß der jeweilige Erkenntnisstand auf einem Gebiet erweitert wird, daß Hypothesen oder Theorien verworfen oder modifiziert werden. Veränderungen des Erkenntnisstandes können von zwei Gesichtspunkten aus betrachtet werden, dem genetischen und dem methodischen Aspekt. Der genetische Aspekt befaßt sich mit der Beschreibung und der Erklärung von Prozessen in der Wissenschaftsentwicklung; hier wird versucht Gesetzmäßigkeiten in der Geschichte der Wissenschaften nachzuweisen. Der methodologische Aspekt befaßt sich hingegen mit den Regeln, die bei der Revision des Wissensstandes befolgt werden sollen. Er hat normativen Charakter. Die Statistik ist heute eine wichtige Teildisziplin in der Methodologie der Sozialwissenschaften. Sie spielt eine wesentliche Rolle bei der Beurteilung, ob eine Veränderung des Wissensstandes in einem Gebiet auf Grund neu einlangender Ergebnisse gerechtfertigt ist oder nicht. Betrachten wir folgendes Beispiel: Wimmer (1974) ging der Frage nach, ob die Schichtzugehörigkeit der Eltern einen Effekt auf kognitive Merkmale bei Vorschulkindern hat. Es wird zwischen sprachgebundener und nicht-sprachgebundener Intelligenz unterschieden. In der Arbeit werden u.a. folgende Hypothesen aufgestellt: (a) Die Leistungen von Unterschicht-Kindern im Bereich der nicht-sprachgebundenen Intelligenz sind etwas niedriger als diejenigen der Mittelschichtkinder; (b) Unterschichtkinder verfügen über einen kleineren passiven Wortschatz als Mittelschichtkinder. Auf einen Nenner gebracht heißt das kurz: im nicht-sprachlichen Bereich sind die Unterschichtkinder eigentlich genauso gut wie die Mittelschichtkinder, im sprachlichen Bereich sind sie jedoch deutlich schlechter. Wimmer untersuchte insgesamt 138 Kinder aus sechs verschiedenen Kindergärten. Die Kindergärten waren so ausgewählt worden, „daß sie teilweise in typischen Mittelschichtwohngebieten und teilweise in Arbeiterwohnvierteln lagen. Die Kinder waren durchschnittlich 6 Jahre . . . " (S. 126).
1. Vorhersagen, Hypothesen und Induktion
2
Mit den Kindern wurden folgende Tests durchgeführt: 1. ein Test zur Erfassung von Reflektivität bzw. Impulsivität (ca. 12 Minuten), 2. ein Test zur Erfassung der nicht-sprachgebundenen Intelligenz (Coloured Progressive Matrices Test, ca. 20. Min.), 3. ein Test zur Erfassung der komplexen Merkfähigkeit I (ca. 8 Min.), 4. ein weiterer Test zur Erfassung der komplexen Merkfähigkeit II (10-Min.), 5. ein Test zur intellektuellen Lernfähigkeit (ca. 20 Min.), 6. ein Test zur einfachen Merkfähigkeit (ca. 4 Min.) und 7. ein Wortschatztest (ca. 15 Min.). Nach der Untersuchung der Kinder wurden an die Kindergärtnerinnen Fragebögen für die Eltern verteilt. Auf Grund dieser Fragebögen wurde die Schichtzugehörigkeit bestimmt. Nur 12 Fragebögen kamen nicht zurück. Nach dem Beruf des Vaters wurden 74 Kinder der Unterschicht und 64 Kinder der Mittelschicht zugeordnet. Hier einige Ergebnisse dieser Untersuchung: Beim Test zur nonverbalen Intelligenz — Nummer zwei in obiger Liste — ergaben sich folgende Mittelwerte 16.1 Punkte bei den Unterschichtkindern bei einer Streuung von 3.2 15.4 Punkte bei den Mittelschichtkindern bei einer Streuung von 3.6. Bei dem Wortschatztest betragen die Mittelwerte 48.4 Punkte bei den Unterschichtkindern bei einer Streung von 5.0 50.8 Punkte bei den Mittelschichtkindern bei einer Streuung von 5.8. Wimmer führte mit diesen Kennwerten statistische Prüfverfahren durch und gelangt zu dem Schluß: „Damit wurde - obwohl der Schichtunterschied hier recht klein ist - der Tendenz nach das für Schichtuntersuchungen typische Ergebnis reproduziert: keine bzw. kleine Schichtunterschiede in nonverbaler Intelligenz, bemerkenswerte Unterschiede in sprachlichen Intelligenzbereichen und in der Sprachverfugung." (S. 77) Wir werden weiter unten zeigen, daß eine Analyse auf der Grundlage der Bayes-Statistik zu dem Ergebnis gelangt: Die Wahrscheinlichkeit, daß Mittelschichtkinder besser abschneiden als Unterschichtkinder, beträgt im nicht-sprachlichen Bereich nur etwa 10%, im sprachlichen Bereich jedoch 99.5%. Typisch an diesem Beispiel ist der Einsatz der Statistik zur Beurteilung schaftlicher Hypothesen.
wissen-
Hier ein zweites Beispiel: Die folgenden Daten sind Überlebenszeiten (in Wochen) von 20 Patienten, die an einer bestimmten Krebsart leiden und mit einer präoperativen Bestrahlungstherapie mit anschließender Operation behandelt wurden (Aitchison und Dunsmore, 1975, S. 2 und S. 35). Was kann auf Grund dieser Daten zur Überlebenszeit des nächsten Patienten gesagt werden, der mit der gleichen Therapie behandelt wird? Wie groß ist die Wahrscheinlichkeit, daß er länger als 100 Wochen lebt? Es läßt
3
1.2 Deduktive und induktive Argumente
sich z.B. zeigen, daß die Wahrscheinlichkeit dafür, daß der nächste Patient, der m i t den gleichen Methoden behandelt wird, mindestens noch 150 Wochen lebt, 16% beträgt. Tabelle 1.1. Überlebenszeiten (in Wochen) bei 20 Krebspatienten (Aitchison und Dunsmore, 1975, S. 2) 25 51
45 412
238 45
194 162
16 14
23 72
30 5
16 35
22 30
123 91
Hier wird die Statistik zur Beurteilung von Vorhersagen eingesetzt. Wir halten fest: Die Statistik dient der probabilistischen Evaluation von Hypothesen u n d Vorhersagen. Häufig unterscheidet m a n zwischen beschreibender (deskriptiver) und schließender Statistik (Inferenzstatistikj. Die beschreibende Statistik hat die Aufgabe, eine Menge von Daten angemessen zu beschreiben. Meist liegen alle Daten vor, die von Interesse sein k ö n n e n , u n d es brauchen keine „ H o c h r e c h n u n g e n " vorgenommen zu werden und keine „ S p e k u l a t i o n e n " angestellt zu werden, die über das vorliegende Datenmaterial hinausgehen. Beispiele findet m a n in den Bereichen der Bevölkerungsstatistik u n d Demographie, bereits die R ö m e r führten bekanntlich Volkszählungen d u r c h ; in der Neuzeit gibt es regelmäßige Volkszählungen seit 1750 in Schweden (Schmid, 1976, S. 110). Heute findet man viele Ergebnisse der deskriptiven Statistik in diversen statistischen Jahrbüchern, Almanachen usw. In der beschreibenden Statistik geht es d a r u m , die Daten in geeigneter F o r m aufzubereiten, zusammenzufassen u n d darzustellen. Die deskriptive Statistik k o m m t ohne Wahrscheinlichkeitstheorie aus, es ist eine „Statistik ohne Unsicherheit". Die Inferenzstatistik wird angewandt, wenn nur ein kleiner Teil der tatsächlich interessierenden Daten vorliegt und wenn Aussagen getroffen werden sollen, deren Allgemeinheitsgrad über den Ausschnitt der zur Verfügung stehenden Beobachtungen u n d Erfahrungen hinausgehen. Die schließende Statistik dient der rationalen Quantifizierung von Unsicherheit und unvollständigem Wissen bei der Beurteilung wissenschaftlicher Hypothesen und Vorhersagen. Die Inferenzstatistik bedarf der Wahrscheinlichkeitstheorie als einer notwendigen Grundlage. Sie hängt sehr eng mit den Prinzipien der Planung von Experimenten und Erhebungen zusammen.
1.2 Deduktive und induktive Argumente In den Abhandlungen über ein Wissensgebiet gibt es Stellen, an denen zunächst mehrere Aussagen angeführt werden, aus denen dann ein Schluß gezogen wird. Die zunächst angeführten Aussagen werden Prämissen genannt; die durch den Schluß gewonnene Aussage wird als Konklusion bezeichnet. Die Stelle, an der der
1. Vorhersagen, Hypothesen u n d I n d u k t i o n
4
Übergang von den Prämissen zu der Konklusion vorgenommen wird, ist durch sprachliche Wendungen wie „ d a h e r " , „also", „daraus f o l g t " usw. gekennzeichnet. Ein Argument besteht aus den Prämissen einem Hinweis dafür, daß ein Schluß vorgenommen wird — wir notieren ihn mit .: — u n d einer Konklusion K
P,,...,P„.:K
Beispiel: „Ich glaube zwei A n n a h m e n machen zu k ö n n e n : Erstens, daß Nahrungsmittel für die menschliche Existenz unerläßlich sind, u n d zweitens, daß die Anziehung zwischen den Geschlechtern notwendig ist u n d in ihrem jetzigen Umfang f o r t d a u e r n wird. Wenn das stimmt, so folgt daraus, daß die Fortpflanzungsfähigkeit der menschlichen Bevölkerung viel größer ist als die Möglichkeiten des Bodens, genügend Nahrungsmittel für die Menschen zu produzieren. Denn . . . w e n n die Bevölkerung nicht g e h e m m t wird, so vermehrt sie sich in geometrischer Progression, während sich die Unterhaltsmittel nur in arithmetischer Progression vermehren. Wer auch nur das geringste von Zahlen versteht, wird sofort die ungeheure Potenz der geometrischen gegenüber der arithmetischen Progression e r k e n n e n . " (Malthus, 1798, zit. aus: Schmid, 1976, S. 3 4 ) In diesem b e r ü h m t e n Argument von Malthus sind die beiden Prämissen klar als A n n a h m e n gekennzeichnet, ebenso die Stelle, an der der Schluß vorgenommen wird ( „ . . . so folgt d a r a u s . . .") u n d die Konklusion — die z u n e h m e n d e Schere zwischen Bevölkerungswachstum u n d Wachstumsraten der Nahrungsmittelversorgung. Teilweise werden n u n deduktive u n d induktive Argumente einander direkt gegenübergestellt. Es ist j e d o c h besser, Argumente wie folgt einzuteilen:
Argumente deduktiv
nicht-deduktiv induktiv
nicht-induktiv
Hierbei werden die induktiven Argumente als eine Untergruppe der nicht-deduktiven Argumente b e t r a c h t e t . Ein deduktives Argument wird hinreichend kritisiert, wenn nachgewiesen wird, daß es „unlogisch" ist u n d w e n n damit gemeint ist, es verletze eine in der Logik anerkannte Regel. Die Logik untersucht u.a., was aus was gültig folgt. Sie liefert Schlußregeln als Muster mit „ o f f e n e n Stellen". Eine solche Schlußregel ist logisch
1.2 Deduktive und induktive Argumente
5
gültig, w e n n aus wahren Prämissen immer eine wahre Konklusion folgt — ganz gleich was an k o n k r e t e n Inhalten an den o f f e n e n Stellen eingesetzt wird. Ein Argument ist ein deduktives Argument, w e n n es ein Beispiel für einen logisch gültigen Schluß ist. Lassen sich alle Inhalte der Prämissen u n d der Konklusion korrekt in die o f f e n e n Stellen einer gültigen Schlußform einfügen, so ist das Argument eine Einsetzungsinstanz für diese Schlußform. Ein Argument ist deduktiv, wenn es eine Einsetzungsinstanz für einen logisch gültigen Schluß ist. Neben der logischen F o r m kann bei einem Argument auch kritisiert werden, d a ß mindestens eine seiner Prämissen falsch ist. Da aus Falschem auch Wahres folgt, kann auch in diesem Fall die Konklusion wahr sein. Ein Argument mit falschen Prämissen garantiert j e d o c h nicht die Wahrheit der Konklusion. Es ist inadäquat, da es nicht die Bedingungen erfüllt, die von einem deduktiven Argument verlangt werden. O f t m a l s sind in einem Wissenschaftsbereich j e d o c h auch Argumente interessant, für deren Prämissen nicht feststeht, ob sie wahr sind oder nicht. Die Prämissen werden dann als A n n a h m e n oder hypothetische Prämissen eigens gekennzeichnet. Ein deduktives Argument, das sie verwendet, wird hypothetisch-deduktiv genannt. Es ist nur a d ä q u a t , w e n n die A n n a h m e n auch tatsächlich z u t r e f f e n . Deduktive Argumente enthalten nicht immer allgemeine Prämissen u n d spezielle Konklusionen. Definitionsversuche wie „ein Argument ist deduktiv, wenn vom Allgemeinen aufs Besondere geschlossen w i r d " sind nicht befriedigend. Der Allgemeinheitsgrad der Prämissen oder der Konklusion ist kein Kriterium dafür, ob ein Argument deduktiv oder nicht-deduktiv ist.
Hierfür einige sehr einfache Beispiele (Skyrms, 1966, S. 13 ff.): Es gibt deduktive und induktive Argumente mit allgemeinen Prämissen u n d einer allgemeinen Konklusion deduktiv:
induktiv:
Alle Gorillas sind A f f e n .
Alle Studenten sehr intelligent.
Alle A f f e n sind Säugetiere. . : Alle Gorillas sind Säugetiere.
dieser
Veranstaltung
Alle Studenten dieser sind hoch motiviert.
Veranstaltung
Alle Studenten dieser Veranstaltung sind nicht arbeitsüberlastet oder neurotisch. .: Alle Studenten werden diese Veranstaltung erfolgreich abschließen.
6
1. Vorhersagen, Hypothesen und Induktion
mit besonderen Prämissen und besonderen Konklusionen deduktiv:
induktiv:
Halifax gehört zu Kanada.
Auto A ist ein Hotmobil und Auto B
Kanada ist ein großes Land.
ist ein
.: Halifax gehört zu einem großen Land.
A u t 0 A h a t die
Hotmobil.
Eigenschaften x , , . . . , x n und Auto B hat die Eigenschaften x , , . . . , x n Auto A hat die Eigenschaften x n + 1 .: Auto B hat die Eigenschaft x n + 1
mit besonderen Prämissen und einer allgemeinen Konklusion deduktiv:
induktiv:
1 ist eine Glückszahl.
Bei
3 ist eine Glückszahl.
2000
5 ist eine Glückszahl. 7 ist eine Glückszahl.
einer
Repräsentativumfrage
an
Österreichern bevorzugten 70% das Waschmittel A gegenüber dem Waschmittel B. .
?0%
^
österreicher
9 ist eine Glückszahl.
das Waschmittel
.: Alle ungeraden Zahlen zwischen
Waschmittel B.
bevorzugen
A gegenüber
dem
0 und 10 sind Glückszahlen. Ebenso gibt es induktive Argumente mit allgemeinen Prämissen und speziellen Konklusionen, z.B. Alle bisher beobachteten Kinder mit Hydrocephalus waren stark intelligenzgeschädigt. .: Das nächste Kind mit Hydrocephalus, das beobachtet wird, wird stark intelligenzgeschädigt sein. In der Praxis ist die Entscheidung schwer, ob in einer wissenschaftlichen Abhandlung an einer bestimmten Stelle ein deduktives Argument vorliegt oder nicht. Aus sprachlichen Gründen ist ein direkter Vergleich eines Argumentes mit einer logischen Schlußform meist nicht möglich. Das Argument ist in der Fachsprache des betreffenden Wissenschaftsgebietes formuliert, häufig enthält es umgangssprachliche Wendungen und es bedarf erst einer genauen Formalisierung, bevor erkennbar ist, ob es eine Einsetzungsinstanz für eine Schlußregel ist oder nicht. Eine zusätzliche Schwierigkeit entsteht, wenn ein Argument nicht vollständig ausformuliert ist. Zum Verständnis eines fortlaufenden Textes eignen sich unvollständige Argumente oft besser als vollständige. Argumente mit intendierten aber nicht ge-
1.2 Deduktive und induktive Argumente
7
n a n n t e n Prämissen werden E n t h y m e m e genannt. Zur Beurteilung von E n t h y m e m e n ist es notwendig, den Hintergrund des b e t r e f f e n d e n Fachgebietes zu k e n n e n . Keine empirische Wissenschaft k o m m t allein mit deduktiven Argumenten aus; das Wissen in einem Fachgebiet enthält immer auch Konklusionen, die sich nur mit nicht-deduktiven Argumenten begründen lassen. Obschon nicht-deduktive Argum e n t e von wahren auch zu falschen Konklusionen führen k ö n n e n , gibt es ganz offensichtlich Unterschiede: während manche nicht-deduktiven Argumente vernünftig u n d plausibel erscheinen, wird man andere sofort als unsinnig bezeichnen. Die induktive Logik sucht dafür klare Unterscheidungsmerkmale zu finden u n d Kriterien zur Rechtfertigung dieser Unterscheidung anzugeben. Sicher sind Argumente unsinnig, in denen die Wahrheit einer Konklusion K beh a u p t e t wird, die j e d o c h eine Schlußregel verwenden, bei der aus wahren Prämissen immer falsche Konklusionen folgen. Das Ausscheiden solcher „anti-deduktiv e n " Argumente führt jedoch nicht zu neuen Gesichtspunkten, da bei ihnen das Argument mit der Behauptung non-K deduktiv ist. Es wurde versucht, für Argumente ein Maß der partiellen Gültigkeit einzuführen. Für deduktive Argumente hat das Maß den Wert 1, für anti-deduktive den Wert 0 u n d für induktive Argumente liegt es zwischen 0 u n d 1. Zu seiner Bestimmung wird das Maß für den logischen Spielraum der Prämissen u n d der Konklusion m ( e & h ) durch das Maß für den logischen Spielraum der Prämissen m ( e ) dividiert: c ( h , e ) = m ( e & h ) / m ( e ) . Man stelle sich dazu die Menge der möglichen Welten (genau: Zustandsbeschreibungen) vor, in denen die Prämissen (z.B. Daten, evidence) wahr sind; die Menge heißt der logische Spielraum von e, kurz R e . Die Menge der Zustandsbeschreibungen, in denen die Konklusion (z.B. eine H y p o t h e s e ) wahr ist, ist der logische Spielraum von h , kurz R h . Wenn R e C R h , dann implizieren die Daten e die Hypothese h ; die partielle Gültigkeit c ( h , e ) ist 1. Wenn hingegen Re n R h = 0, dann ist c ( h , e ) = 0. Dazwischen liegen die für die induktive Logik relevanten Fälle. Die partielle Gültigkeit ist ein Maß für den logischen Spielraum der K o n j u n k t i o n e & h relativ zu e. Dies ist Carnaps Vorschlag ( 1 9 5 0 , Carnap u n d Stegmüller, 1959, S. 1 4 8 f f . ) . Carnaps Maß wird logische oder induktive Wahrscheinlichkeit oder Bestätigungsgrad (degree of c o n f i r m a t i o n , c) genannt. Carnap modifizierte seinen Ansatz später entscheidend. Im ursprünglichen Ansatz Carnaps blieb o f f e n , wie die Prämissen und die Konklusion inhaltlich gedeutet werden. Die partielle Gültigkeit läßt sich ebenso gut auf Sätze der Geometrie anwenden wie auf Sätze in empirischen Wissenschaften (praktisch ist keines von beidem geschehen). Es handelt sich nur u m ein Maß für die Beziehung zwischen Sätzen. Der Ansatz ist sowohl in bezug auf faktische Fragen als auch in bezug auf epistemische Fragen neutral (Stegmüller u n d Carnap, 1959, S. 79). Es ist zweckmäßig, die Untersuchung induktiver Argumente so einzuengen, daß nur solche betrachtet werden, die in empirischen Wissenschaften auch tatsächlich
8
1. Vorhersagen, Hypothesen und Induktion
benötigt werden. Dies sind primär Argumente, deren Prämissen Daten und deren Konklusionen Hypothesen oder singuläre Vorhersagen sind. Wir knüpfen damit an die eingangs getroffene Feststellung an, Statistik diene der Beurteilung wissenschaftlicher Hypothesen und Vorhersagen. Zur Vermeidung von Mißverständnissen sollte auch klar gesagt werden, was hier nicht unter Induktion verstanden wird. Manche Autoren verstehen unter Induktion die Gewinnung von Hypothesen und Theorien aus Erfahrungen und Beobachtungen. Sie stellen die ,,induktive Methode" der ,Jogisch-deduktiven" gegenüber. Danach hätte die induktive Methode die Aufgabe, im Sinne einer Forschungsstrategie Hypothesen zu generieren, die deduktive, diese zu testen. Ein gutes Beispiel für die explizite Verfechtung dieser Auffassung ist ein Buch von Glaser und Strauss (1967). Die Autoren empfehlen darin ernsthaft, man solle zu Generierung von Kategorien und Begriffen zunächst nicht die einschlägige Literatur studieren, um nicht voreingenommen an sein Untersuchungsgebiet heranzutreten; aus Vergleichen im Hinblick auf Unterschiede und Ähnlichkeiten solle man Hypothesen gewinnen und schließlich solle man die Hypothesen um einen Kern strukturieren und integrieren. Dieser Kern würde sich als eine ständig in der Entwicklung begriffene Theorie darstellen. Diese Auffassung von Induktion ist eine andere als die, die hier vertreten wird. Vielleicht sollte man einfach zwei verschiedene Namen dafür einführen. Wir glauben allerdings auch, daß die „Induktion als Forschungsmethode" ein wenig sinnvolles Konzept darstellt und zu einer ganzen Reihe falscher methodischer Vorstellungen fuhren kann. Hempel (1974) kritisiert an dieser Auffassung insbesondere, daß es keine festen Regeln geben kann, um aus Daten Hypothesen zu gewinnen; er nennt u.a. zwei Gründe, warum dies nicht möglich ist: (a) Eine unvoreingenommene Beschreibung von Beobachtungsphänomenen ohne implizite oder explizite Hypothesen ist nicht möglich; es gibt unendlich viele Möglichkeiten, Daten zu beschreiben; man wählt die aus, die einem relevant für eine Hypothese erscheint. Eine nicht-selektive Beschreibung ist undurchführbar. Die Unvoreingenommenheit ist eine Fiktion, die dazu führen kann, implizite und Hypothesen, die man für gar zu selbstverständlich hält, unter den Teppich zu kehren. (b) Hypothesen und Theorien enthalten neue Terme, die in einer theoretischen Sprache formuliert sind und in der Beobachtungssprache nicht vorkommen. Wie aber soll eine Regel aussehen, diese neuen Terme aus der Beobachtung zu gewinnen? Das Problem, sich gute Forschungsstrategien zu eigen zu machen, ist hochinteressant, zugleich aber überaus schwierig. Die Frage guter Forschungsstrategien ist teilweise selbst wieder ein empirisches Problem: wie bekommt man gute Einfälle? Wie ist man kreativ? Welche Strategien haben sich in der Vergangenheit bewährt? etc. Selbstverständlich kann ein scheinbar unvoreingenommenes Herumsuchen zu guten Einfällen führen, genauso gut können aber auch Analogien hilfreich sein
1.3 Kriterien einer rationalen Wissensstruktur
9
oder bisherige Hypothesen Denkanstöße geben. Fragen der wissenschaftlichen Kreativität, der Psychologie effizienten Problemlösens etc. sollten klar unterschieden werden von Fragen der Haltbarkeit oder Bewährung von Hypothesen. Das eine nennt man Entstehungszusammenhang, das andere Begründungszusammenhang. Wir werden hier nur auf Induktion im Begründungszusammenhang eingehen.
1.3 Kriterien rationaler Wissensstrukturen Angenommen, ein Wissenschaftler schreibt ein Sammelreferat über einen bestimmten Bereich seines Faches. Nach der Durchsicht der einschlägigen Publikationen trägt er die theoretischen und empirischen Befunde zusammen. Im Verlauf dieser Arbeit baut er eine Struktur von Überzeugungen und Wissensinhalten auf, die er im abschließenden Manuskript kommunikabel darzustellen versucht. Ebenso wie man zwischen einem Sammelreferat und einer weltanschaulichen Abhandlung unterscheiden kann, ebenso kann man einen wissenschaftlichen Überzeugungskorpus von anderen Überzeugungsstrukturen unterscheiden. Die dafür ausschlaggebenden Kriterien werden oft unter dem Stichwort der Rationalität zusammengefaßt. Es ist zweckmäßig, auch innerhalb der Wissenschaften Bereiche abzustecken, für die man diese Kriterien untersuchen will. In Anlehnung an Levi ( 1 9 6 7 , 1 9 7 6 ) lassen sich prinzipiell zwei Möglichkeiten unterscheiden: a) Der globale Ansatz: Danach sind (alle) Rationalitätskriterien in allen (empirischen) Wissenschaften und ihren Teildisziplinen gleichartig. Es gibt nur e i n Problem, das nach einer allgemeinen Lösung verlangt. So sind z.B. induktive Schritte in einer Forschungsarbeit im Hinblick auf ihre Begründung in die globale Begründung einzubetten. Im Extremfall lassen sich die spezifischen Rechtfertigungskriterien aus den globalen ableiten. b) Der lokale Ansatz: Die Abgrenzung einer wissenschaftlichen Wissensstruktur geschieht in einem speziellen Kontext der Forschung und wird relativ zu einem bereits vorhandenem Wissensschatz vorgenommen. So richten sich lokale Kriterien nach den wesentlichen Merkmalen des jeweiligen Forschungsgebietes, nach dessen spezieller Sprache und Begriffsrepertoire, dem Hintergrundswissen, rivalisierenden Hypothesen usw. usw.. Schlafende Hunde - sprich: die Gesamtproblematik brauchen in der lokalen Struktur eines Forschungskontextes nicht geweckt zu werden. So unterscheidet sich die Rechtfertigung einer speziellen induktiven Folgerung in einem speziellen wissenschaftlichen Kontext wesentlich von der Rechtfertigung induktiver Prinzipien als ganzes (Kyburg, 1976). Beispiel (Kyburg, 1976, S. 194): Ein Chemiker untersucht eine neue organische Zusammensetzung. Bei normaler Temperatur und normalem Druck ist sie kristallin. Der Chemiker führt ein Experiment zur Bestimmung des Schmelzpunktes durch.
1. Vorhersagen, Hypothesen und Induktion
10
Nach nur einem Experiment schließt er, daß alle Proben dieser Zusammensetzung bei T Grad schmelzen. Niemand wird ihm vorwerfen, daß er eine zu kleine Stichprobe hatte — ein Vorwurf, der in einem anderen Bereich bei entsprechendem Vorgehen sicherlich berechtigt wäre. Oft neigt die Wissenschaftstheorie eher dazu, globale Kriterien hervorzuheben. Die Methodenlehre einzelner Wissenschaftsdisziplinen behandeln eher die lokalen Kriterien. Man kann weiter statische und dynamische Rationalitätskriterien unterscheiden. Statische Kriterien halten Bedingungen, Relationen etc. fest, die die Elemente einer Wissensstruktur zu erfüllen haben, damit ihre Mutterstruktur als rational bezeichnet werden kann. Dynamische Kriterien geben an, unter welchen Bedingungen die Revision eines Überzeugungsinhaltes oder einer Gruppe von Inhalten rational ist. Von den Wissenschaften wird erwartet, daß sie zu einem Wachstum unseres Wissens fuhren, zu Änderungen des Wissenskorpus, die eine Verbesserung darstellen. Man wird daher nur solche dynamischen Kriterien zulassen, die eine Struktur zum Zeitpunkt t in eine „bessere" zum Zeitpunkt t + 1 transformieren — was immer man unter „eine Struktur S] ist besser als eine Struktur S 2 " versteht. Die Frage, ob dynamische Kriterien auf statische reduziert werden können (oder vice versa), kann hier nicht behandelt werden. Als dritte Unterscheidung lassen sich deduktive und nicht-deduktive Rationalitätsbedingungen betrachten. Unter dem Prinzip der deduktiv zwingenden Struktur (principle of deductive cogency) faßt Levi (1967, S. 26) fünf notwendige Bedingungen zusammen, die eine rationale Wissensstruktur zu erfüllen hat. Es werden zunächst zwei Definitionen vorausgeschickt: L sei eine standardisierte Sprache, deren Kennzeichnung hier von untergeordneter Bedeutung ist. Die Aussage „X glaubt, daß P " wird interpretiert „X akzeptiert den Satz p in L als wahr", wobei p eine adäquate Übersetzung (Formalisierung) von P ist. S sei eine Menge von Sätzen in L. a) S ist konsistent gdw 1 es keine endliche Teilmenge in S gibt, aus der ein Satz der Form q & non-q in L ableitbar ist ; b) S ist deduktiv geschlossen in L gdw p und q in S sind impliziert, daß auch ihre Konjunktion p & q und (alle) deduktiven Konsequenzen aus p & q in S sind. eine Wissensstruktur sollte deduktiv zwingend sein, das heißt, es sollten 1) alle Sätze in L als wahr akzeptiert werden, die logisch wahr sind, 2) keine Sätze in L als wahr akzeptiert werden, die logisch falsch sind, die Struktur sollte weiter 1
gdw = genau dann w e n n
1.3 Kriterien einer rationalen Wissensstruktur
11
3) unter sonst gleichen Bedingungen (ceteris paribus Einschränkungen) 4) konsistent und 5) deduktiv geschlossen sein. Die ceteris paribus Bedingung besagt u.a., daß von zwei Strukturen S! und S 2 bei gleicher gegebener Datenbasis S! der Vorzug zu geben ist, wenn S] konstistent und deduktiv geschlossen ist, S 2 jedoch nicht. Die Bedingung verhindert, daß konsistente und deduktiv geschlossene Strukturen um jeden Preis anderen vorgezogen werden müssen. Das Kriterium der deduktiven Geschlossenheit ist in der eben gegebenen Formulierung zu streng. „Non one, not even Kurt Gödel,could come close to satisfying this requirement." (Levi, 1976, S. 22) Vorschläge, das Kriterium brauchbarer zu machen gehen in zwei Richtungen: (a) Der „commitment approach" (Rescher, 1968, S. 41) verlangt nur mehr, daß man verpflichtet sei, eine deduktive Konsequenz als wahr zu akzeptieren, wenn man sie als solche erkennt (Levi, 1967, S. 27). Wenn man explizit auf eine Verletzung der deduktiven Geschlossenheit aufmerksam gemacht wird, so sollte man sich korrigieren, ebenso wie man einen Rechenfehler korrigieren sollte, wenn man ihn bemerkt; ,,x is committed to the acceptance of p by propositions to which he subscribes, even though he may himself fail to recognize — and may even disavow - these implicit commitments." (Rescher, 1968, S. 41) (b) Durch die Einführung des Begriffes der deduktiven Tiefe kann das Kriterium abgeschwächt werden: p ist eine „offensichtliche Konseq u e n z " von q und r, wenn p aus den Prämissen p und r in n Schritten abgeleitet werden kann und n z.B. 1, 2, 3 oder eine andere kleine Zahl ist. Mit Hilfe dieses Begriffes können verschiedene Tiefen der deduktiven Geschlossenheit unterschieden werden (Rescher, 1968, S. 46). Induktive Rationalitätsbedingungen beziehen sich auf die unterschiedliche Bewährung, Stützung, Absicherung etc. von Inhalten einer Wissensstruktur auf Grund von Daten. Die Forderung, alle vorliegenden Daten zu berücksichtigen (requirement of total evidence), ist ein induktives Kriterium. Die wesentlichen induktiven Rationalitätskriterien betreffen die Wahrscheinlichkeitstheorie. Wenn man davon ausgeht, daß Wahrscheinlichkeiten die Grundlage bilden, aus der Maße für den Grad der Absicherung von Inhalten des Überzeugungskorpus gebildet werden, so benötigt man Regeln für den Umgang mit diesen Wahrscheinlichkeiten. Wir werden diesen Problemkreis ausführlich behandeln und insbesondere auf das Kohärenzkriterium, das Bayes-Theorem und das Konditionalisierungsprinzip eingehen. Mit der Betrachtung globaler versus lokaler, statischer versus dynamischer und deduktiver versus nicht-deduktiver Rationalitätskriterien wurde nur ein bescheidener Anteil möglicher Aspekte dieses Fragenkreises behandelt.
12
1. Vorhersagen, Hypothesen und Induktion
1.4 Tatsachenbezug, Unsicherheit und Revidierbarkeit von Hypothesen In den empirischen Wissenschaften wird von einer Hypothese verlangt, daß sie einen Bezug zu Tatsachen aufweist. Hypothesen müssen beobachtbare Konsequenzen haben, bestimmte Daten vorhersagen oder erklären, andere ausschließen oder verbieten. Es muß Daten geben, die eine Hypothese stützen oder schwächen, eher für oder gegen sie sprechen. Eine Hypothese muß Implikationen auf der Beobachtungsebene haben. Der Tatsachenbezug einer Hypothese kann mehr oder weniger direkt sein. Hypothesen mit direktem Tatsachenbezug sind beobachtungsnah; sie lassen sich leicht und fast unmittelbar mit Daten vergleichen. Hypothesen mit einem indirekten Tatsachenbezug sind theoretisch formuliert, und es werden Zwischenschritte benötigt, um sie mit Daten vergleichbar zu machen. Hypothesen und Daten werden in zwei verschiedenen Sprachen formuliert: Hypothesen in einer theoretischen Sprache, Daten in einer Beobachtungssprache. „In Erörterungen der Methode der Wissenschaft ist es üblich und nützlich, die Sprache der Wissenschaft in zwei Gebiete zu teilen: die Beobachtungssprache und die theoretische Sprache. Die Beobachtungssprache verwendet Terme, die beobachtbare Eigenschaften und Beziehungen bezeichnen, zur Beschreibung beobachtbarer Dinge oder Ereignisse. Die theoretische Sprache andererseits enthält Terme, die sich auf unbeobachtbare Ereignisse, unbeobachtbare Aspekte oder Züge von Ereignissen beziehen können (Carnap, 1960, S. 209) Für die Beobachtungssprache wird nicht verlangt, daß die Objekte, die in ihr beschrieben werden, direkt wahrnehmbar sind; es sind alle Arten von technischen Hilfsmitteln zugelassen, das Mikroskop ebenso wie die Wilson'sehe Nebelkammer, in der man die Bahn von Partikeln nur mehr über ihre Spur registrieren kann (Carnap, 1971, S. 50). Ebenso enthält die Beobachtungssprache quantitative Eigenschaften wie Alter, Größe, Länge etc., solange nicht eine beliebig hohe Meßgenauigkeit behauptet wird. Nach der Auffassung Carnaps ist die Beobachtungssprache diskret, die theoretische Sprache kann kontinuierlich sein. Dies ist ein Unterschied in der logischen Struktur der beiden Sprachen. Es sei vermerkt, daß Popper (z.B. 1976, Anhang X,S. 379) die Unterscheidung von theoretischen und empirischen Fragen für verfehlt hält; andere Autoren schlagen mehr als zwei Sprachebenen vor, Madsen (1970) z.B. drei. Da die theoretische Sprache Begriffe enthält, die nicht mit Hilfe der Beobachtungssprache definierbar sind, lassen sich theoretische Sätze nicht vollständig in die Beobachtungssprache übersetzen. Dies gilt auch für Hypothesen, sie können nicht vollständig auf die Beobachtungssprache reduziert werden. Beobachtungsferne Hypothesen sind oft wesentlich interessanter als beobachtungsnahe. Die meisten „großen" Hypothesen der Naturwissenschaften sind beobachtungsfern. Bunge (1967, S. 222) und mit ihm Weingarten (1971, S. 57) vertreten die Auffassung, daß die Tatsachen, auf die sich eine Hypothese bezieht, sogar prinzipiell unbeobachtbar sein können. Bunge nennt als Beispiel die Hypothese vom Urknall
1.4 Tatsachenbezug, Unsicherheit und Revidierbarkeit von Hypothesen
13
oder die These, daß sich das Universum bis in unendliche Zeiten weiter ausdehnen wird. Hier handelt es sich jedoch um Hypothesen, die durchaus beobachtungsrelevante Konsequenzen haben. Wir werden Hypothesen, die sich auf prinzipiell unbeobachtbare Fakten beziehen, nicht zulassen. Der Tatsachenbezug ist ein „weiches" Kriterium für Hypothesen. Dies ist wünschenswert, da es davor bewahrt, Hypothesen - insbesondere neue - dogmatisch als unzulässig und nicht-wissenschaftlich abzustempeln. Die Toleranz wird jedoch dort enden, wo versucht wird, Hypothesen dadurch zu immunisieren, daß man sie aus jeglichem Tatsachenbezug heraushält. Von einer Hypothese wird zunächst nur verlangt, daß es mögliche Beobachtungen gibt, für die sie relevant ist; es ist nicht notwendig, daß ein praktischer Weg bekannt ist, auf dem solche Beobachtungen eingeholt werden können. Die Frage nach dem prinzipiell möglichen Tatsachenbezug ist von der Frage nach der technischen Realisierbarkeit des Tatsachenbezuges zu unterscheiden. Für Fragen der technischen Realisierbarkeit ist z.B. der Zeitpunkt wichtig, zu dem eine Hypothese vorgeschlagen wird. Noch vor wenigen Jahrzehnten hätte man sagen müssen, daß die Hypothese „auf dem Mars gibt es L e b e n " keinen technisch realisierbaren Tatsachenbezug besitzt. Auf Grund des gegebenen Wissenskorpus zu dieser Zeit war es undenkbar, an relevante Daten zu gelangen. Heute hat die Hypothese einen klaren technisch realisierbaren Tatsachenbezug. Von einer Hypothese spricht man, wenn die in ihr behaupteten Sachverhalte bisher gar nicht oder nur ungenügend untersucht wurden (Weingartner, 1971, S. 57). Zu Hypothesen liegen noch wenige oder unzuverlässige Daten vor, so daß mit den Hypothesen eine erhebliche Unsicherheit verbunden ist. Unser Wissen über den Wahrheitsgehalt von Hypothesen ist unvollständig. Der Grad der Unsicherheit unterscheidet Hypothesen von Gesetzen. Gesetze sind durch Daten weitgehend geklärt und vorläufig akzeptiert. Freilich ist auch dieses Kriterium „weich": der Grad der Sicherheit, der ein Gesetz von einer Hypothese unterscheidet, schwankt von Wissensbereich zu Wissensbereich. Es wurde bereits darauf hingewiesen, daß Hypothesen für Daten sensitiv sein müssen. Die Unsicherheit, die sich zunächst mit einer Hypothese verbindet, muß sich auf Grund relevanter Daten ändern können. Bunge spricht in diesem Zusammenhang von der Korrigierbarkeit bzw. der Testbarkeit von Hypothesen. Er unterscheidet Hypothesen, die (a) nur bestätigt werden können, (b) nur verworfen werden können und (c) sowohl bestätigt als auch verworfen werden können. Wir werden uns in erster Linie mit der graduellen Stützung oder Schwächung von Hypothesen auf Grund von Wahrscheinlichkeiten befassen. Die beiden kategorialen Entscheidungsmöglichkeiten „ f ü r " oder „gegen" eine Hypothese, „Akzeptietierung" oder „Verwerfung" einer Hypothese, die bei einem Test im Vordergrund stehen, spielen im Bayes-Ansatz eher eine sekundäre Rolle. Im Bayes-Ansatz wird
1. Vorhersagen, Hypothesen und Induktion
14
vom „Lernen aus Erfahrung" (learning by experience) oder von der Revision subjektiver Wahrscheinlichkeiten im Lichte von Evidenz (in the light of evidence) gesprochen. Das Bayes-Theorem, das diesem Ansatz seinen Namen gibt, ist eine Regel, wie die Unsicherheit über eine statistische Hypothese auf Grund einlangender Daten rational revidiert wird. Von einer Hypothese wird daher verlangt, daß die mit ihr verbundene Unsicherheit auf Grund von Daten revidierbar ist. Beispiel: Die Aussage „Die Chance, daß diese Münze mit dem Ergebnis ,Wappen' landet, ist 0.5, und die Ergebnisse verschiedener Würfe sind statistisch unabhängig voneinander" ist nach dem Kriterium der Revidierbarkeit keine Hypothese. Die Annahme der Unabhängigkeit macht jede Unsicherheit, die sich mit dem Wert 0.5 verbindet, gegenüber tatsächlichen Wurfergebnissen unempfindlich und immun (vgl. ausführlich dazu Abschnitt 3.2). Es wurden beobachtungsnahe und beobachtungsferne Hypothesen unterschieden. Beobachtungsnahe Hypothesen weisen einen direkten Datenbezug auf; die mit ihnen verbundene Unsicherheit kann relativ direkt revidiert werden. Für beobachtungsferne Hypothesen sind Zwischenschritte erforderlich, die selbst wieder mit Unsicherheit verbunden sind. Bunge (1967, I, S. 269) verlangt nicht, daß jede Hypothese direkt testbar ist. Er ist der Ansicht, daß Theorien Hypothesen auf verschiedenen hierarchischen Niveaus enthalten; einige sind direkt testbar, andere müssen erst in Unterhypothesen zerlegt werden, die empirisch testbar sind. Hierbei mag es durchaus vorkommen, daß gewisse theoretische Thesen nur „von o b e n " gestützt werden.
beobachtungsnahe Hypothesen Abb. 1.4 Direkt und indirekt prüfbare Hypothesen; der freie rechte Arm ist nur von oben her stützbar (nach Bunge, 1967, I, S. 270)
1.5 Allgemeine Hypothesen und singuläre Voraussagen Hypothesen sind immer Aussagen, die sich auf Individuen, Objekte, Gruppen, Institutionen, Organisationen, Prozesse, Zustände etc. beziehen. Die Menge der „Einzeldinge", auf die sich eine Hypothese bezieht, wird der Bereich der Hypo-
1.5 Allgemeine Hypothesen und singuläre Vorhersagen
15
these genannt. In der Statistik heißt dieser Bereich Population oder Grundgesamtheit. Für die Stützung oder Schwächung einer Hypothese sind nur Beobachtungen relevant, die von Individuen des Hypothesenbereiches stammen. Nicht alle beliebigen Beobachtungen können zur Untersuchung einer Hypothese beitragen (Prinzip der begrenzten Relevanz). Aus der Formulierung einer Hypothese geht nicht immer klar hervor, welchen Bereich sie hat. So kann mit der Hypothese „Starke Raucher sind coronargeschädigt" gemeint sein: „Für alle Menschen, die starke Raucher sind, g i l t . . ." oder „Für alle Raucher - und eben nur die Raucher - gilt . . ." Die Frage ist, ob die Nichtraucher und womöglich noch beliebige andere Individuen (lebende Organismen, physikalische Körper, mathematische Elemente, logisch mögliche Einzel dinge) zum Bereich der Hypothese gehören. Hypothesen wie das eben erwähnte Beispiel lassen sich in die Form (x) (Fx -> Gx) bringen; in Worten: „Für alle x gilt, wenn x die Eigenschaft F hat, dann hat x auch die Eigenschaft G." Hierbei lassen sich nun präziser drei Bereiche oder Mengen unterscheiden: 1. Der Bereich der Hypothese; dies ist die Menge aller Individuen, über die die Variable x läuft, HB = {x!, x 2 , . . .}. 2. Der Antezedensbereich; dies ist die Menge aller x, die die Eigenschaft F haben, AB = {x:Fx}, oder die Extension des Prädikates F. 3. Der Konsequenzbereich, dies ist die Menge aller x, die die Eigenschaft G haben, KB = {x :Gx}, oder die Extension von G. Es ist günstig, noch einen vierten Bereich zu berücksichtigen, der in einer Hypothese selten explizit genannt wird: 4. Der Gegenstandsbereich der Theorie, zu der die Hypothese gehört, GB. Hypothesen sind Teile einer Theorie. Die Menge aller Einzeldinge, über die in der Theorie Aussagen gemacht werden können, ist ihr Gegenstandsbereich. Nun kann die Hypothese auch in der Form (x) (xEAB -> xGKB) geschrieben werden.
1. Vorhersagen, Hypothesen und Induktion
16
Will man eine Hypothese so anschreiben, daß die Variable x auch über alle möglichen denkbaren Dinge läuft, so kann man sie immer in die ausführliche Form (x) [xGHB
(xGAB
xSKB)]
bringen; hier wird der Hypothesenbereich ausdrücklich hervorgehoben. Der Hypothesenbereich soll , / n a x i m a l " mit dem Gegenstandsbereich der Theorie zusammenfallen, HB = GB; der Hypothesenbereich darf kein Individuum enthalten, das nicht auch im Gegenstandsbereich der Theorie liegt. Die ausführliche Form der Hypothese lautet dann: (x) [xGGB
( x € A B -> x G K B ) ] .
Der Bereich einer Hypothese kann ,.minimal" mit dem Antezedensbereich der Hypothese identisch sein, HB = AB. Dies ist meist dann gemeint, wenn in der Hypothese nur der Antezedensbereich angesprochen wird. Von Wright nennt AB den natürlichen Relevanzbereich einer Hypothese (von Wright, 1966). Für diesen Fall lautet die ausführliche Schreibweise: (x) [xGAB
( x G A B -> x G K B ) ] .
Die dritte Möglichkeit ist, daß der Hypothesenbereich eine echte Teilmenge des Gegenstandsbereiches ist, HB C GB. Diese Überlegungen sind aus zwei Gründen interessant: 1. In der induktiven Logik verhindert die Einordnung des Hypothesenbereiches in den Gegenstandsbereich einer zugehörigen Theorie die Paradoxien der Implikation. Für die Hypothese „Alle Raben sind schwarz", (x) (Rx -*• Sx), soll wohl ein schwarzer Rabe, Ra & Sa, eine positive Instanz sein, nicht jedoch ein grüner Schuh, - R a & —Sa, oder überhaupt ein Schuh, —Ra, oder ein beliebiges schwarzes Ding, Sa (vgl. hierzu die Beiträge von Black, Suppes und von Wright in Hintikka und Suppes, 1966). 2. Bei der Planung eines Experimentes kann die Frage auftauchen, ob eine Kontrollgruppe verwendet werden soll oder nicht. Die Experimentalgruppe ist eine Stichprobe von Individuen aus dem Antezedensbereich AB; diese Individuen werden einer bestimmten Versuchsbedingung unterworfen. Eine Kontrollgruppe besteht aus einer Stichprobe von Individuen, die der experimentellen Bedingung nicht unterworfen wurden; sie ist eine Stichprobe aus dem Komplementärbereich AB = HB — AB. Ob die Untersuchung einer Kontrollgruppe notwendig ist, hängt somit vom Bereich der Hypothese ab. Ist HB = AB, so k o m m t man ohne Kontrollgruppe aus, da die Differenzmenge HB — AB leer ist. In diesem Fall kann man sich auf die Untersuchung einer Stichprobe beschränken. Häufiger sind Hypothesen, deren Bereich größer ist als der Antezedensbereich. Dann arbeitet man mit einer oder auch mit mehreren Vergleichsbedingungen. Auf Grund des Hypothesenbereiches können verschiedene Arten von Hypothesen unterschieden werden (Tab. 1.5).
1.5 Allgemeine Hypothesen und singulare Vorhersagen
17
Singulare Voraussagen Eine „Hypothese" ist singulär, wenn ihr Bereich nur ein Element enthält; es wird eine Aussage über nur ein Ereignis oder einen Einzelfall gemacht. Beispiele sind: diese Person hat einen Intelligenzquotient über 100, die nächste Wahl in X gewinnt Y, das nächste Erdbeben in der Region F wird nicht vor zwei Jahren eintreten, das Ergebnis des nächsten Wurfes mit dieser Münze wird Kopf sein, Napoleon wurde während der Schlacht von Waterloo von Hämorroiden geplagt (letztes Beispiel nach Bunge, I, 1967). Aussagen, die sich nur auf einen Einzelfall beziehen, werden meist nicht als Hypothesen bezeichnet. Von Hypothesen wird verlangt, daß sie einen gewissen Allgemeinheitsgrad aufweisen (Weingartner, 1971, S. 57). Vermutungen über Einzeltatsachen spielen in der Anwendung einer Wissenschaft eine große Rolle, z.B. wenn die Wahrscheinlichkeit für das Eintreten eines Ereignisses mit besonders schwerwiegenden Konsequenzen beurteilt wird. In der Wahrscheinlichkeitstheorie ist die Frage nach der Wahrscheinlichkeit für den nächsten Einzelfall angesichts einer bisher beobachteten Sequenz von ähnlichen Fällen ein altes Problem. In der BayesStatistik wird in diesem Zusammenhang von prädiktiven Wahrscheinlichkeiten gesprochen. Carnap nennt Argumente, in denen die Konklusion eine Aussage über einen Einzelfall ist, singuläre Voraussageschlüsse. Weite Teile seiner induktiven Logik behandeln singuläre Voraussagen. Carnap notiert übrigens auch singuläre Voraussagen explizit als Hypothesen. 1 Allgemeine
Hypothesen
Die drei Bereiche, die zu einer Hypothese gehören — der Hypothesenbereich selbst, der Antezedensbereich und der Konsequenzbereich — können auf zwei Arten definiert werden: einmal durch die Aufzählung der Elemente und zum anderen durch die Angabe einer oder mehrerer charakteristischer Eigenschaften. Für die Aufzählung der Elemente ist es notwendig, die Namen der Elemente zu kennen. Nun werden Begriffe, deren Extension nur durch Eigennamen oder äquivalente Zeichen wie Hinweise etc. definierbar sind, Individuale genannt, „. . . sind hingegen (etwa zunächst verwendete) Eigennamen eliminierbar, so ist der Begriff ein Universale". (Popper, 1976, S. 37). Diese Unterscheidung läßt sich auf Hypothesen wie folgt übertragen: Eine Hypothese ist universell, wenn ihre Bereiche — der Hypothesenbereich, der Antezedensbereich und der Konsequenzbereich - ohne die Verwendung von Eigennamen definiert werden können. Eine Hypothese ist nicht-universell, wenn zur Definition dieser Bereiche nicht alle Eigennamen eliminierbar sind. 1
„In den meisten Anwendungen . . . enthält die Hypothese h eine Annahme über unbekannte oder nicht hinreichend bekannte Tatsachen, etwa die Voraussage eines bestimmten Ereignisses, eine Existenzannahme, ein Naturgesetz oder schließlich eine ganze komplexe Theorie." (Stegmüller und Carnap, 1959, S. 149)
1. Vorhersagen, Hypothesen und Induktion
18
Für Popper können nur universelle Sätze wissenschaftliche Hypothesen sein — und Sätze sind universell, wenn in ihnen ausschließlich Universale auftreten (ebd., S. 39). Alle Hypothesen, in denen räum-zeitliche Restriktionen vorkommen, sind nicht-universell. Die „eigentlichen Naturgesetze" der Physik sind universell; ihr Geltungsbereich und ihre Inhalte werden nicht durch Orts- oder Zeitangaben oder eine Referenz auf Eigennamen eingeschränkt. Ihr Bereich enthält nicht nur physikalische Systeme der Erde, unseres Sonnensystems usw., sondern physikalische Systeme in allen möglichen Welten. Kategorische
Hypothesen
Auf Grund der Unterscheidung des Hypothesenbereiches, des Antezedensbereiches und des Konsequenzbereiches gehört jedes Individuum immer genau zu einer der folgenden vier Mengen: AB n KB = {x : xGAB & xSKB}
AB n KB = {x :
AB n KB = {x : xG AB & x£KB}
ÄB n KB = {x : x ^ A B & x£KB}
AB-
- AB O KB
AB OKB
AB & x € K B }
-HB ABO KB
KB
Abb. 1.5 Die zu einer einfachen kategorischen Hypothese gehörenden vier Mengen; HB = Hypothesenbereich, AB = Antezedensbereich, KB = Konsequenzbereich
Jede dieser vier Mengen kann leer oder nicht leer sein. Geht man alle Kombinationen leerer (0) und nicht leerer (X) Teilmengen durch, so erhält man insgesamt 2 4 = 16 mögliche Muster von (0,0,0,0), (0,0,0,X), . . . bis (X,X,X,0), (X,X,X,X) (Tab. 1.5). Wir wollen nun sagen: Eine Hypothese ist eine kategorische Hypothese, wenn sie als Muster leerer bzw. nicht leerer Teilmengen des Hypothesenbereiches ausgedrückt werden kann. Alle Muster, bei denen an der Stelle AB n KB eine „0" steht (Fall 1 bis 4 und 9 bis 12 in Tab. 1.5) lassen sich in die bereits behandelte Form eines implikativen Allsatzes bringen: „Für alle x gilt: wenn x aus dem Antezedensbereich ist, dann ist x auch aus dem Konsequenzbereich." Ein Teil dieser Strukturen (die Fälle 9 bis 12) läßt sich auch in die „schwächere"existentielleForm (3x)(xGAB & xGKB)
19
1.5 Allgemeine H y p o t h e s e n und singuläre Vorhersagen Allgemeine H y p o t h e s e n
Kategorisch
Nicht-Kategorisch
Kategorisch
Nicht-Kategorisch
All-Satz Es-Gibt-Satz
Statistisch
All-Satz Es-Gibt-Satz
Statistisch
Schema 1.5. Einteilung von Hypothesen
überfuhren: „Es gibt mindestens ein x, für das gilt: x ist ein Element des Antezedensbereiches und des Konsequenzbereiches." Beispiele für Hypothesen in der Form von Es-Gibt-Aussagen sind: Es gibt Leben auf dem Mars; es gibt Menschen mit dem zweiten Gesicht; es gibt Signale, die schneller als Licht sind; es gibt Neutrinos; es gibt Transurane; es gibt das „missing link" usw. (Bunge, 1967,1., S. 267). Die praktische Untersuchung einer scheinbar einfach aussehenden existentiellen Hypothese kann recht komplex sein; man vergleiche das Übersichtsreferat zur Hypothese „es gibt Lernen im Schlaf" von Aarons (1976). Teilweise werden existentielle Aussagen nicht als Hypothesen zugelassen (z.B. Popper, 1976 oder Weingartner, 1971, S. 57ff.). Die Fälle 9 und 10 in Tab. 1.5 entsprechen Hypothesen in der Form einer Äquivalenz; für sie gilt sowohl (x) (xGAB xGKB) als auch (x) (x£KB -»• xGAB). Verbal formuliert man: „Wenn, und nur wenn . . . dann . . . " Man beachte, daß man natürlich immer die logische Form einer Hypothese verändern kann, ohne im Grunde die Hypothese selbst zu verändern, ohne ihren Wahrheitsgehalt zu verändern. So ist z.B. (x) (xGAB
xGKB) = ~ (3x) (x€AB & X0KB) ;
1. Vorhersagen, Hypothesen und Induktion
20
Tabelle 1.5. Die 16 möglichen Strukturen einfacher kategorischer Hypothesen; es bedeuten: AB = Antezedensbereich, KB = Konsequenzbereich, 0 = leer, X = nicht leer. In den letzten vier Spalten sind Strukturen, die sich in die jeweils am Spaltenkopf angegebene logische Form bringen lassen, mit „*" markiert.
09
«
UJ X
t
M 14
c
0Q
= b 2
b! o bc b o b 2 .
Daraus folgt zum Beispiel folgendes Theorem: b 2 und b 4 +-»• bi o b 3 fc b 2 o b 4 . Ohne Schwierigkeit läßt sich auch folgendes wichtige Theorem ableiten: Theorem: Additivität der Utility von Wetten u ( b A ° b B ) = u(bA) + u(bB)
Und weiter: u(nb A ) = n u ( b A ) . 3) Kohärenzaxiom: Wenn C A die Menge der Konsequenzen der Wette b A ist und c* ein maximales und c* ein minimales Element dieser Menge sind, für alle C;GC a gilt
c^q^c*,
dann ist
ein maximales Element wird der Wette und die Wette einem minimalen Element vorgezogen. Damit erhalten wir natürlich sofort die oben angeschriebene Kohärenzbedingung minig!, • • • , g m ) = s ^ m a x ( g , , . . . , g m ) ,
2.2 Trägerstrukturen
45
wobei g i , . . . , g m die Nutzwerte der Konsequenzen sind und s der Wert des Sicherheitsäquivalentes einer Wette um diese Konsequenzen.
2.2 Trägerstrukturen Bevor die Regeln zum Umgang mit Wahrscheinlichkeiten behandelt werden, folgt eine eingehende Darstellung derjenigen Entitäten, denen Wahrscheinlichkeiten zugeordnet werden. Zu diesen „Trägerstrukturen" zählen insbesondere Möglichkeitsräume, Ereignisstrukturen und Zufallsvariablen. Sie können als ein Fundament aufgefaßt werden, in dem selbst noch keine Wahrscheinlichkeiten vorkommen; sie sind die „Vehikel" der Wahrscheinlichkeiten.
2.2.1 Ereignisstrukturen Zu den wichtigsten Trägerstrukturen der Wahrscheinlichkeitstheorie gehören die Ereignisstrukturen. Der Begriff „Ereignis" wird in der abstrakten Wahrscheinlichkeitstheorie als ein Grundbegriff behandelt. Es bedarf dort daher keiner weiteren Definition mit Hilfe anderer, noch elementarerer Begriffe. Trotzdem wird kurz auf die wichtigsten intuitiven Deutungen des Begriffes „Ereignis" eingegangen. Ein Ereignis wird häufig als eine diskontinuierliche, sprunghafte Zustandsänderung eines Systems aufgefaßt: das System befindet sich zunächst in dem Anfangszustand x , j und geht auf Grund der Transformationsregel S „ruckartig" in den Endzustand y t j über. Ein solches Ereignis kann durch ein geordnetes Paar von zwei Zuständen beschrieben werden. Der sprunghafte Übergang kann übrigens dadurch entstehen, daß durch die Wahl von nur zwei Beobachtungszeitpunkten t, und t 2 eine eigentlich kontinuierliche Bewegung nicht erfaßt wird. Von einem sicheren Ereignis spricht man, wenn bei gegebenem Ausgangszustand bekannt ist, in welchen Endzustand das System übergeht, während man von einem Zufallsereignis spricht, wenn dies nicht bekannt ist. Teilweise werden zwei Arten von Zufallsereignissen unterschieden: (a) Ereignisse mit deterministischen Transformationsregeln; bei vollständiger Information über Ausgangszustand und Transformationsregel gehört das Ereignis zu den sicheren Ereignissen. Die Unsicherheit liegt nur in unserer eigenen Unkenntnis. (b) Ereignisse mit stochastischen Transformationsregeln; selbst bei vollständiger Kenntnis von Ausgangszustand und Transformationsregel gehört das Ereignis nicht zu den sicheren Ereignissen. Die Unsicherheit liegt (nur?) im betrachteten System. Die meisten Autoren sprechen nur dann von einem Zufallsereignis, wenn es sich um den Ausgang eines Zufallsexperimentes, eines besonderen Vesuches oder eines datengenierenden Prozesses handelt. „Ein Ereignis ist ein Ausgang eines Versuches.
46
2. Grundlagen der Wahrscheinlichkeitstheorie
Von Interesse sind nur solche Ereignisse, die die Bedingungen der statistischen Wahrscheinlichkeit erfüllen. Sie heißen stochastische Ereignisse." (Meschkowski, 1976, S. 75). „Um von einem Zufallsexperiment sprechen zu können, muß folgendes vorliegen: eine experimentelle Anordnung, die in allen relevanten Einzelheiten beschreibbar ist, mit deren Hilfe man ferner Versuche eines bestimmten Typs vornehmen kann, die beliebig oft wiederholbar sind und die zu präzise beschreibbaren Resultaten führen." (Stegmüller, 1973, 1. Hlbbd., S. 136) Diese enge Fassung des Begriffes „Ereignis" und „Zufallsereignis" wird hier abgelehnt. Alle Einschränkungen von Zufallsereignissen auf Ereignisse eines speziellen Typs, auf Ereignisse, die spezielle Bedingungen erfüllen müssen, die wiederholbar sein müssen usw., sind unnötig. Selbstverständlich können auch solche Ereignisse Zufallsereignisse sein. Prinzipiell kann jedoch jedes Ereignis ein Zufallsereignis sein. Es gibt zahlreiche Aspekte, unter denen sich Ereignisse betrachten lassen: Eingangs wurde der prozeßhafte Aspekt der Zustandsänderung hervorgehoben. Daneben gibt es einen statischen Aspekt, wenn eine querschnittshafte Beschreibung von Zuständen und Beschaffenheiten von primärem Interesse ist. Weiter kann man den informativen Aspekt von Ereignissen, den energetischen Aspekt, den materielldinghaften Aspekt der Entitäten, mit denen die Ereignisse verbunden sind, usw. unterscheiden. Einem Ereignis entspricht eine Frage, die im einfachsten Falle nur zwei Antworten zuläßt: entweder wahr oder falsch, entweder ja oder nein, entweder „ 0 " oder „1". De Finetti verlangt von einem Ereignis lediglich, daß es wohlbestimmt ist (well determined in itself); er versteht darunter, daß eine mögliche Wette auf ein Ereignis klar entscheidbar sein muß: „ . . . that a possible bet . . . based upon it can be decised without question." (1974, S. 28) Es ist günstig, die prinzipielle (logisch mögliche) Entscheidbarkeit von der technischen (praktisch durchführbaren) Entscheidbarkeit zu trennen; Ereignisse sollten prinzipiell entscheidbar sein. Dies setzt voraus, daß Beobachtungen über Ereignisse selbst nicht wieder unsicher sind; die Reliabilität der Beobachtung darüber, ob ein Ereignis wahr oder falsch ist, wird als perfekt angenommen (vgl. dazu das Problem der „casceded inference", z.B. Schum, 1978).
Beispiele für Ereignisse und Ereignisfolgen sind: 1. Sequenzen von Würfen mit einer Münze, einem Würfel, einem Reißnagel, einem Knopf. 2. Die Entnahme von Losen aus einer Urne. 3. Eine Folge von Zügen in einer Schachpartie. 4. Die Folge von Tag und Nacht, die Folge der Jahreszeiten. 5. Eine Folge von Pseudozufallszahlen, erzeugt mit dem (streng deterministischen) Algorithmus XY.
2.2 Trägerstrukturen
47
6. Eine Serie von Zufallszahlen, erzeugt durch die Emission von Mikropartikeln eines physikalischen Prozesses. 7. Eine Folge von Aufgaben, die in einem Konzentrationstest von einer Versuchsperson bearbeitet werden. 8. Das Funktionieren oder Nichtfunktionieren einer Maschine, die alle 15 Minuten auf ihre Funktionstüchtigkeit kontrolliert wird. Je nach der Zahl der möglichen Zustände, Zustandsänderungen, Ausgänge eines Versuchs, Ergebnisse eines datengenerierenden Prozesses etc. unterscheidet man Ereignisse mit 2, 3, . . . möglichen Alternativen. Ein Ereignis mit nur zwei möglichen Alternativen heißt ein binäres Ereignis. Wir beschränken uns weitgehend auf die Besprechung binärer Ereignisstrukturen. Für ein binäres Ereignis nimmt die Indikatorfunktion |E| den Wert 1 an, wenn E wahr ist, und den Wert 0 an, wenn E falsch ist: wenn E wahr ist |E| = wenn E falsch ist In vielen Fällen ist es praktisch, für |E| = 1 bzw. |E| = 0 einfach E = 1 bzw. E = 0 zu schreiben. Formal lassen sich Ereignisse als Aussagen oder als Mengen anschreiben. 1 Es gelten dabei die bekannten Analogien zwischen den Konnektiven der Aussagenlogik und der Mengenlehre. Mehrere Ereignisse werden entsprechend durch Konnektive der Aussagenlogik bzw. durch Operationen der Mengenlehre miteinander verknüpft. A, B, A i , . . . , A k sei eine Menge von Ereignissen, die zu einer Grundmenge £ gehören: A, B, A i , . . . , A^ C . 1. Das Komplementärereignis A ist das Ereignis, das genau dann wahr ist, wenn nicht A wahr ist; mengentheoretisch ist A die Komplementärmenge von A in Bezug auf Grundmenge £ . der Indikatorwert des Komplementärereignisses ist gleich dem numerischen Komplement zu 1: |A| = 1 — |A|. 2. Die Konjunktion zweier Ereignisse A & B ist das Ereignis, das wahr ist, wenn sowohl A als auch B wahr sind; für A & B wird auch kurz AB geschrieben. Der Konjunktion entspricht in der Mengenlehre der Durchschnitt A H B . Der Indikatorwert der Konjunktion AB ist das Produkt der Indikatorwerte von A und B, |AB| = |A| • |B| oder auch |AB| = min(|A|, |B|). 3. Die Disjunktion zweier Ereignisse AvB ist das Ereignis, das wahr ist, wenn a) A oder b) B oder c) AB wahr sind. Die Disjunktion trifft zu, wenn wenigstens eines der beiden Ereignisse eintritt. Die Disjunktion entspricht in der Mengenlehre die Vereinigung A U B. Der Indikatorwert der Disjunktion ist |AvB| = max(|A|, |B|).
1
Solche Aufstellungen findet man bereits bei Kolmogoroff (1933, S. 5)
48
2. Grundlagen der Wahrscheinlichkeitstheorie
4. Die Differenz zweier Ereignisse A — B ist das Ergebnis, das wahr ist, wenn A, nicht aber B wahr ist, A — B = A & B. Dem entspricht die Differenzmenge A - B = A n B. Der Wert der Indikatorfunktion ist | A - B | = |AB| = |A| • |B| = |A| • (1 — |B|) = |A| — |A| • |B|. 5. A impliziert B (wenn A eintritt, dann tritt auch stets B ein, A ist Teilereignis von B, A zieht B nach sich), wenn dann, wenn A eintritt auch B eintritt bzw. AB falsch ist. Bei Aussagen schreiben wir A -*• B; der Implikation entspricht in der Mengenlehre die Teilmengenrelation A C B . Für die Indikatorwerte gilt |A| = |B|. 6. A und B sind ä q u i v a l e n t , wenn A B und B A bzw. A C B und B C A; wir schreiben A = B. Für die Indikatorwerte gilt |A| = |B|.' 7. Zwei Ereignisse A, B sind unverträglich (inkompatibel), bzw. wenn A H B = 0 .
wenn AB falsch ist,
7'. k Ereignisse A t , A 2 , . . . , A k sind paarweise inkompatibel, zwei Ereignisse gilt, daß sie inkompatibel sind: AjnAj=0
für i # j
und
wenn für jeweils
1 ^ i,j ^ k .
8. Zwei Ereignisse A und B sind erschöpfend, wenn die Konjunktion ihrer Komplemente A & B falsch ist bzw. wenn ihre Disjunktion AvB wahr ist. 8'.k Ereignisse A j , A 2 , . . . , A k sind e r s c h ö p f e n d , wenn die Konjunktion ihrer Komplemente A] & A 2 & . . . & A k falsch ist bzw. ihre Disjunktion A i v A 2 v . . . v A k wahr ist. 9. A ist ein sicheres Ereignis, wenn (a) A aus einer Verknüpfung von zwei oder mehr Ereignissen A ! , . . . , A k zusammengesetzt ist und (b) A wahr ist ganz gleich, ob A j , . . . , A k wahr sind. AvA ist ein sicheres Ereignis; A & A ist ein sicheres Ereignis. Wenn A = A!vA 2 v . . . vA k eine Disjunktion von erschöpfenden Ereignissen ist, so ist A ein sicheres Ereignis. Die Definition entspricht der Definition von Tautologien. 10. A ist ein unmögliches Ereignis, wenn A ein sicheres Ereignis ist. A & A ist ein unmögliches Ereignis. Die Definition entspricht der einer logisch falschen Aussage. 11. {Ai, A 2 , . . . , A k } ist eine Zerlegung von Ereignissen, wenn genau eines der Ereignisse wahr ist. Dies ist genau dann der Fall, wenn A l t A 2 , . . . , A k paarweise inkompatibel und erschöpfend sind. {A, A} ist eine Zerlegung. Wir betrachten wieder eine beliebige endliche Menge von Ereignissen S = { E i , E 2 , . . . , E n }. £ braucht keine Zerlegung zu sein, die Ereignisse brauchen sich nicht wechselweise auszuschließen, sie können logisch abhängig voneinander sein. 1
Man beachte, daß in der Aussagenlogik „->" und „ = " Konnektive sind, in der Mengenlehre „ c " und „ = " jedoch Relationen.
2.2 Trägerstrukturen
49
Konjunktionen der Art Q, = E[ & E 2 & . . . & E n Q 2 = Ex & E 2 & . . , & E n Qs = E , & E 2 & . . . & E n Qi
=
Qj
=
Qs = E j & E 2 & . . . & E n heißen Konstituenten zur Grundmenge &. Ein Konstituent ist eine Konjunktion, in der jedes Ereignis der Grundmenge genau einmal — und zwar entweder in negierter oder nicht negierter Form — vorkommt. Alle möglichen Konstituenten zu einer gegebenen Grundmenge erhält man, wenn man alle möglichen Muster aus negierten und nicht negierten Ereignissen bildet. Beispiel: 8 = {A, B, C}. Es gibt die 8 logisch möglichen Konstituenten Q, = A & B & C , Q 2 = A & B & C , Q 3 = A & B & C , Q 4 = A & B & C , Qs = A & B & C , Q 6 = A & B & C , Q 7 = A & B & C und Q 8 = Ä & B & C . Jeder Konstituent ist selbst wieder ein Ereignis. Besteht die Grundmenge aus n Ereignissen, so lassen sich daraus 2" Muster aus negierten und nicht negierten Ereignissen bilden. Da jedoch von einer beliebigen Grundmenge ausgegangen wird, ist nicht gewiß, ob auch allen diesen Mustern mögliche Ereignisse entsprechen. Die nach der Elimination der unmöglichen Ereignisse verbleibenden Konstituenten heißen die Menge der möglichen Konstituenten oder der Möglichkeitsraum,
So lange n = 3 ist, kann man sich die Konstituenten als Punkte in einem n-dimensionalen Raum vorstellen. Die Abb. 2.1 zeigt alle 2 3 = 8 Konstituenten für eine Grundmenge mit drei Ereignissen. Dabei wurden für die x-, y- und z-Koordinaten orthogonale Einheitskoordinaten verwendet (Einheitswürfel). Die Wahl kartesischer Koordinaten ist dabei unwichtig; für die weiteren Überlegungen sind nur die Eigenschaften des affinen Raumes von Bedeutung, in dem metrische Begriffe wie Längenmaßzahlen, Winkelmaße usw. nicht vorkommen. Die Koordinaten in der Abbildung entsprechen den Indikatorwerten, aus denen sich ein Konstituent zusammensetzt, also (1,1,1) entspricht {A, B, C}, (0,1,0) entspricht {Ä, B , C } usw. Die Menge aller Punkte, die sich innerhalb des durch die Konstituenten aufgespannten räumlichen Gebildes befinden, heißt „linearer Ambit" (de Finetti, 1974, S. 48). Die Konstituenten werden als Ecken dieses Gebildes aufgefaßt. Im drei-
2. Grundlagen der Wahrscheinlichkeitstheorie
50 Z
I 001 011
101
010
000
100 X
/
Y
110
Abb. 2.1 Dreidimensionale Darstellung aller kombinatorisch möglichen Konstituenten für eine Grundmenge mit drei Ereignissen (Einheitswürfel)
dimensionalen Fall handelt es sich um die Punkte innerhalb eines Würfels, allgemein um ein (konvexes) Polyeder. Es wird sich zeigen, daß die Menge der kohärenten Wahrscheinlichkeiten innerhalb dieses Ambits liegt. Die Elemente des Möglichkeitsraumes, die Konstituenten, bilden immer eine Zerlegung, d.h. einer und nur einer der Konstituenten ist wahr. Die Gewinnung der Konstituenten wurde bisher nur an dem einfachen Beispiel einer Grundmenge mit drei logisch unabhängigen Ereignissen dargestellt. Es werden nun einige Beispiele besprochen, in denen logische Abhängigkeiten vorliegen. An den Beispielen werden auch verschiedene Darstellungsweisen für Konstituenten und Möglichkeitsräume eingeführt. Wenn nicht alle Ereignisse logisch unabhängig voneinander sind, so gibt es weniger als 2" Konstituenten. Diese erhält man wie folgt: 1. Es werden zunächst aus den k < n unabhängigen Ereignissen 2 k Subkonstituenten gebildet, 2. Es wird das (k+l)-te Ereignis betrachtet und je nach logischer Abhängigkeit und nach Maßgabe der bisher vergebenen Wahrheitswerte (Indikatorwerte) mit „wahr" oder „falsch" bewertet. 3. erhält E k + [ nur einen der Werte ,,1" bzw. „0", so wird die Subkonstituente einfach um diesen Wert verlängert; k wird um eins erhöht und man geht wieder zu Schritt 2. Sonst 4. sind für E k + 1 beide Indikatorwerte möglich (die bisher vergebenen Werte legen den Wahrheitswert von E^+i nicht eindeutig fest), so wird die bisherige Sub-
2.2 Trägerstruk turen
51
konstituente zweimal angeschrieben und einmal mit „ 1 " und einmal mit „ 0 " verlängert. Ist k noch nicht gleich n, so geht man wieder zu Punkt 2. Eine andere Methode besteht darin, zunächst die 2 n möglichen Muster zu bilden und alle Konstituenten mit inkompatiblen Konstituenten zu streichen. Beispiele: 1. Disjunktion: In der Grundmenge £ = {A, B, C} seien A und B logisch unabhängig und C die Disjunktion: C = AvB. Zur Gewinnung der Konstituenten werden zunächst mit den zwei unabhängigen Ereignissen A und B die vier Subkonstituenten gebildet. Im Schema 1 stehen die Indikatorwerte der Subkonstituenten unter den Spalten A und B, (1,1), (1,0), (0,1), (0,0).
QI Q2 Q3 Q4
A
B
c
= AvB
1 1 0 0
1 0 1 0
1 1 1 0
1 1 1 0
Schema 1 Die Bildung der Konstituenten für die Grundmenge 8 = {A, B, C = AvB} mit Hilfe der Subkonstituenten für A und B In den ersten drei Zeilen des Schemas ist die Disjunktion AvB wahr. Da C äquivalent mit dieser Disjunktion ist, stehen unter C die gleichen Werte wie unter AvB.
1
ABC
AB (AvB)
AB
2
ABC
AB(ÄvB)
AB(ÄB) unmögliches Ereignis AB
3
ABC
AB (AvB)
4 5
ABC ABC
, AB (AvB) ÄB(ÄvB)
AB (AB) = AB(ÄB) unmögliches Ereignis ÄB
6
ÄBC
ÄB(ÄvB)
ÄB(ÄB) = ÄB(AB) unmögliches Ereignis
7
ÄBC
ÄB(ÄvB)
ÄB(AB) unmögliches Ereignis
8
ÄBC
ÄB(ÄvB)
ÄB(ÄB) = ÄB
Schema 2 Die Bildung der Konstituenten für die Grundmenge S = {A, B, C = AvB} mit Hilfe der Ausscheidung unmöglicher Ereignisse. In der ersten Spalte befinden sich die kombinatorisch möglichen Konstituenten, in der zweiten Spalte wurde auf Grund der logischen Abhängigkeit C = AvB jeweils C durch die Disjunktion AvB ersetzt, in der dritten Spalte werden diese Ausdrücke vereinfacht, unmögliche Ereignisse, in denen das gleiche Ereignis unnegiert und negiert vorkommt, sind in der letzten Spalte markiert.
2. Grundlagen der Wahrscheinlichkeitstheorie
52
Der Möglichkeitsraum besteht aus den vier Konstituenten ABC, ABC, ABC, A B C bzw. deren Indikatorwertkombinationen (1,1,1), (1,0,1), (0,1,1), (0,0,0); diese Indikatorwerte stammen aus den Spalten unter A, B und AvB. Schreibt man zunächst alle kombinatorisch möglichen Konstituenten für die drei Ereignisse A, B und C an und scheidet man danach die unmöglichen Ereignisse aus, so entspricht das Vorgehen dem Schema 2. Zunächst werden alle 8 kombinatorisch möglichen Konstituenten angeschrieben; dann wird C jeweils durch AvB ersetzt, der entstehende Ausdruck wird vereinfacht, und unmögliche Ereignisse werden ausgeschieden. Natürlich zeigt sich auch hier, daß nur die Konstituenten Q, = ABC, Q 2 = ABC, Q 3 = ÄBC und Q 4 = Ä B C verbleiben. Die Abbildungen 2.2., 2.4 und 2.6 zeigen verschiedene Darstellungsweisen für die Konstituenten dieses Beispiels: (a) die Darstellung im 3-dimensionalen Anschauungsraum, (b) die Darstellung mit Hilfe eines Venn-Diagramms und (c) die Darstellung mit Hilfe eines Strukturbäumchens. 2. Implikation einer Äquivalenz: In der Grundmenge SB logisch unabhängig, und es sei weiter
{A, B, C} seien A und
C -> (A=B). Mit A und B werden die vier Subkonstituenten mit den Indikatorwerten Qi = (1,1), Q ' 2 = ( 1 , 0 ) , Q ' 3 = ( 0 , 1 ) und Q 4 = ( 0 , 0 ) gebildet. Für Qi und Qi, ist die Äquivalenz A = B wahr, für Q'2 und Q3 ist sie falsch.
Abb. 2.2 Darstellung der möglichen Konstituenten zur Grundmenge $ = { A , B , A v B } ; der Möglichkeitsraum bildet ein Tetraeder
2.2 Trägerstrukturen
53
001
010
Abb. 2.3 Darstellung der möglichen Konstituenten zur Grundmenge $ = {A,B.C}, wobei C - » ( A s B ) ; e s handelt sich um ein Polyeder mit 6 Ecken
Abb. 2.4 Venn-Diagramm für die Ereignisstruktur 1 (Wahres impliziert Wahres) als auch 0 -*• 1 (Falsches impliziert Wahres), so daß im Falle ( A = B ) = 1 und C ( A = B ) das Ereignis C die Werte 1 und 0 annehmen kann. Im Schema 3 beginnt man mit den Spalten A und B und schreibt in diese zunächst die vier Subkonstituenten; dann bestimmt man die Wahrheitswerte von A = B und bearbeitet erst zuletzt die Implikation von C aus. Die verschiedenen Darstellungsweisen des Möglichkeitsraumes für diese Ereignisstruktur findet man in den Abbildungen 2.3., 2.5 und 2.7. 3. Zerlegung: Zu den Standardbeispielen gehört die Betrachtung einer Grundmenge mit drei inkompatiblen Ereignissen von denen eines sicher eintreten muß, S = { A , B,C}, wobei |AB| = 0, |AC| = 0 und |BC| = 0. Die Grundmenge bildet eine Zerlegung. Als Beispiel denke man an den Ausgang eines Fußballspieles mit A = Sieg, B = Unentschieden und C = Verlust. Der Möglichkeitsraum besteht aus den Konstituenten Q , = (1,0,0), Q 2 = (0,1,0) und Q 3 = (0,0,1); den Konstituenten entsprechen die Ecken eines Dreiecks im Raum. Weitere Beispiele findet man bei de Finetti (1974, S. 106 und an zahlreichen anderen Stellen).
Abb. 2.5 Venn-Diagramm für die Ereignisstruktur $ = { A , B , C } wobei C - > ( A = B )
55
2 . 2 Trägerstrukturen A
B
C
- . . . ± p ( E , & E 2 & . . , E n ) i=2 i = 2 j=i+ I Die Wahrscheinlichkeit dafür, daß von n Ereignissen das erste eintritt und die restlichen n - 1 Ereignisse nicht eintreten, ist gleich der Wahrscheinlichkeit, daß das erste Ereignis eintritt minus der Wahrscheinlichkeit aller 2fachen Konjunktionen dieses Ereignisses mit den restlichen, plus alle Dreierkombinationen . . . plus (minus) der Wahrscheinlichkeit, daß alle Ereignisse zusammen auftreten.
81
2.3 Absolute Wahrscheinlichkeiten
Mit dem Differenztheorem läßt sich auch sofort die Wahrscheinlichkeit dafür bestimmen, daß von n Ereignissen die ersten h Ereignisse eintreten und die restlichen n - h Ereignisse nicht eintreten. Wir fassen dazu E[ & E 2 & . . . & E n als ein erstes „großes" Ereignis auf und beginnen mit der Summenbildung erst bei h + 1. Im folgenden Beispiel wird E , & E 2 als erstes „großes" Ereignis aufgefaßt: p ( E 1 & E 2 & E 3 & E 4 & E 5 ) = p ( E , & E 2 ) - 2 p ( E , & E 2 & Ej) i=3 4 5 + 2 2 p(E1&E2&Ei&Ei)-p(E1&E2&E3&E4&E5) . i = 3 j=i+ 1 Es ist wichtig, darauf hinzuweisen, daß die Reihenfolge der Ereignisse in einer Konjunktion natürlich keine Rolle spielt. Das Differenztheorem kann daher zur Bestimmung der Wahrscheinlichkeit einer beliebigen Konstellation von nichtnegierten und negierten Ereignissen verwendet werden. So ist z.B. p(E,&E2&E3)
Grenzkorollar
zur
= p(E2&E!&E3) = p(E2) - p(E,&E2) - p(E2&E3) + p ( E , & E 2 & E 3 ) .
Differenz:
E], E 2 seien zwei logisch unabhängige Ereignisse; wenn p ( E , ) = p , und p ( E 2 ) = p 2 , dann ist p ( E , & E 2 ) in den Grenzen m a x ( 0 , P i — p 2 ) = p ( E , & E 2 ) = m i n ( p j , 1 — p 2 ). Die Argumentation entspricht der bei der Darstellung des Grenzkorollars zur Disjunktion. Zu den Konstituenten (0,0,0), (0,1,0), (1,0,1) und (1,1,0) gehört wieder ein Tetraeder, nun mit der „Spitze" in (1,0,1) und dem Boden (0,0,0), (0,1,0) und (1,1,0). Die vier Seiten des Tetraeders liegen auf den Ebenen die drei Punkte liegen auf der Ebene
(0,0,0) (0,1,0) (1,1,0)
(0,0,0) (1,0,1) (0,1,0)
(0,0,0) (1,1,0) (1,0,1)
(0,1,0) (1,1,0) (1,0,1)
z = 0
z =X
z =x —y
z = 1 -
Es gilt daher 0 g z ^ 1 z < x x - y ^ z z g max(0,x—y)
1 -y
S z = min(x, 1—y)
p ( E [ ) , p ( E 2 ) und p ( E , & E 2 ) sind nur dann kohärent, wenn sie zum Tetraeder der Konstituenten gehören, wenn sie als baryzentrische Koordinaten eines entspre-
82
2. Grundlagen der Wahrscheinlichkeitstheorie
chenden Schwerpunktes aufgefaßt werden k ö n n e n u n d wenn dieser S c h w e r p u n k t natürlich zur konvexen Hülle der K o n s t i t u e n t e n gehört. Grenzkorollar
zur
Konjunktion:
E , , E 2 seien zwei logisch unabhängige Ereignisse; wenn p ( E , ) = p[ p ( E 2 ) = p 2 , dann ist p ( E , & E 2 ) in den Grenzen max(0,p, + p 2 - l ) ^ p(E,&E2) ^
und
minip^pj).
Dies ist die Menge aller P u n k t e , die zur konvexen Hülle des Tetraeders (0,0,0), (1,0,0), (0,1,0) u n d (1,1,1) gehören. Es wurden nun die Fälle der Disjunktion, der Differenz und der K o n j u n k t i o n behandelt. Für die Implikation, die Äquivalenz oder andere Verknüpfungen k ö n n e n analoge Überlegungen angestellt werden. Das Schema 2.3.2 zeigt alle 16 möglichen Beziehungen zwischen den Indikatorwerten von zwei logisch unabhängigen Ereignissen E , , E 2 u n d dem Indikatorwert eines dritten Ereignisses. Faßt man die Indikatorwerte als Wahrheitswerte auf, so erhält man Wahrheitstafeln für die logischen Konnektive; die gängigen Bezeichnungen sind im Schema vermerkt. Die 16 Fälle k ö n n e n in zwei G r u p p e n unterteilt w e r d e n , in solche, in denen a) E 1 ; E 2 , E 3 linear unabhängig sind: das sind die 10 Fälle Disjunktion, Implik a t i o n , „ u m g e k e h r t e " Implikation, Äquivalenz u n d K o n j u n k t i o n sowie die negierte Disjunktion (weder n o c h ) , Differenz, umgekehrte Differenz, negierte Äquivalenz (entweder o d e r ) u n d Scheffer-stroke (nicht sowohl als a u c h ) ; die konvexe Hülle der kompatiblen Konstituenten ist in all diesen Fällen ein Tetraeder; diese Wahrheitsfunktionen sind auch in der Aussagenlogik die „interessanten" Fälle; 1 b ) E , , E 2 , E 3 linear abhängig sind: dies sind die restlichen 6 Fälle, bei denen die kompatiblen Fälle im Einheitswürfel alle auf einer einzigen Fläche liegen, u n d zwar: 1. auf dem „ B o d e n " z = 0 , wenn E 3 das unmögliche Ereignis ist, der Wahrheitswert ist eine Konstante mit dem Wert 0 ; oder 2. auf dem „ D a c h " z = 1, wenn E 3 das sichere Ereignis ist, der Wahrheitswert ist eine Konstante mit dem Wert 1; oder 3. auf einer der Schrägen z = x , z = 1 — x, z = y , z = 1 — y. Die konvexe Hülle der kompatiblen Konstituenten ist in all diesen Fällen ein Viereck, also ein zweidimensionales Gebilde.
1
Es ist jedoch bekannt, daß die Aussagenlogik mit einer einzigen zweistelligen Verknüpfung - z.B. dem Scheffer-stroke oder der Konjunktion - allein auskommen kann und alle anderen Verknüpfungen mit dieser ausdrücken kann.
o O C V —
73 C o «
s c ,3 JS
V—i
G O
Ä c o
JS c ÖO 3 E §
£
C
S
•2
5 ,3 " 6 S t-M -Cü ^ 5 WC
i• _3 — 'vp •»C-» Q a> c ob 0 T3 S n .2 l > 3 3 "8 60 c CT* o E s — Q : 5 iw < ii r.|W O IW W W ^ Iii =8 M
"H, E
e o
c 0 4•—> M e
5
M «s s
o> •o °uh .22 -ö ¥ S :c« < CU
c o w C 3
r
trs1 w II —
tü C N h+l + 5>h+2 g
90
2. Grundlagen der Wahrscheinlichkeitstheorie
Jede Wahrscheinlichkeit für p ( Y = h ) ist eine Summe von Konjunktionswahrscheinlichkeiten h-ter Ordnung, ( h + l ) - t e r Ordnung, (h+2)-ter Ordnung . . . n-ter Ordnung; es ist S0 = 1
S, = 2 p ( E 0 i=l
S2 = V £ p(E;Ej) i = l j = i+l
...
Sn = p ( E ! E 2 . . ,En) . Die Summe läuft daher von i = 0 bis n—h und die Summanden haben den zugehörigen Index h + i. Jeder Summand Sh+ \ setzt sich aus
Konjunktionen (h+i)-ter Ordnung zu-
sammen. Dieser Faktor steht daher vor Sh+ ¡. Die Vorzeichen für die Summanden alternieren offensichtlich und werden durch den „Vorzeichenfaktor" (—l) 1 erzeugt. Ein wichtiger Spezialfall entsteht, wenn jede Anordnung von h günstigen und n—h ungünstigen Ereignissen gleich wahrscheinlich ist. In diesem Falle liegt Vertauschbarkeit vor und dies ist eine Eigenschaft, der wir noch o f t begegnen werden. Wenn zwei Ereignisse vertauschbar sind, so ist p(E,E2) = p(E,E2) = w,. Alle Konjunktionswahrscheinlichkeiten i-ter Ordnung sind gleich. Dies führt zu einer wesentlichen Vereinfachung der obigen Ausdrücke: alle Summanden in einem S-Ausdruck werden konstant. Werden die Wahrscheinlichkeiten für eine Ereigniskonjunktion 0-ter, 1-ter . . . n-ter Ordnung mit bezeichnet, so ist 50 = 1 =
S, = 2 w , i=l = nw,
Wo
51 =
...
S2 = " l Z w i — 1 j = i+l 2 = QW2
Sn = wn .
Die Summen für Si laufen jeweils von i = 1 bis Q .
Da in jeder Summe jedoch
nur die nun konstanten Wj vorkommen, erhält man für Sj nun p(Y=h)=
n 2h(-l)fr)( i =0
( r)(j,)«
1
" W - ,
Das Produkt ( "h . * ) | , " .) läßt sich umordnen zu
:
in . ^
und
(*) wird dann
2.3 Absolute Wahrscheinlichkeiten
91
als Konstante vor das Summenzeichen gezogen; man erhält schließlich:
^ ( ¡ r i : '(" TVOder weitgehend ausgeschrieben: p(Y=h) = ( ¡ ) p ( E 1 . . . E h E h + 1 . . . E n ) = Q
[ p ( E ] . . .Eh) — ( n - h ) p ( E ^ E h E h ^ ) wh+i
Wh
+
• EhEh+1Eh+2) • • • i p i E i . . . En)] . Wh+2
Der wichtige Ausdruck (*) kann mit Hilfe des Differenzoperators A wesentlich einfacher und einprägsamer geschrieben werden. Wenn w , . Wj, . . . , w n eine Zahlenfolge ist, so ist der Differenzopevatov Ordnung wie folgt definiert: Awj n
= A 1 Wj = w i + i n
1
n-ter
w;
A Wj = A ( A " w i ) und
A°w i = w i , i = l , 2 , . . . , n .
So ist z.B. A2W;
= A(A'wj) = A(wj+1-wj) = = Wj + 2 — Wj+ 1 — Wj+ i + Wj
Aw
i + 1
-Awj
= W j + 2 + Wj — 2 w i + 1 + Wj
oder A 3 Wj = A(w i + 2 - 2 w i + i +Wj) = w i + 3 - w i + 2 - 2 w i + 2 + 2 w i + , + w i + , - Wj = Wj + 3 — 3 W j +
2
+ 3Wj+ j — Wjl •
Damit ist
z. B. ist für n = 3 und h = 0 p ( Y = 0 ) = 1 A 3 w 0 = w 3 - 3 w 2 + 3w, - 1 . Wir werden im Abschnitt 3.2 ausführlich auf diese Beziehung zurückkommen. Mein herzlicher Dank gilt Prof. de Finetti für eine klärende Mitteilung. Irritierend sind hartnäckige Druckfehler in der englischen Übersetzung des ursprünglich 1937 publizierten Aufsatzes von de F i n e t t i (1964). Der Leser wird auf die Berichtigungen in de Finetti, 1972, S.XVii hingewiesen. Die hier gegebene Formel hält sich an de Finetti, 1975, S. 211 bzw. im italienischen Original, 1970, S. 5 7 7 .
2. Grundlagen der Wahrscheinlichkeitstheorie
92 Beispiel:
In einem parapsychologischen Experiment soll eine Versuchsperson die genaue Reihenfolge vorhersagen, in der n = 10 von 1 bis 10 durchnumerierte und gut gemischte Lose aus einer Urne gezogen werden. Wie groß ist die Wahrscheinlichkeit, daß Y = 0, 1, . . . , 10 Treffer erzielt werden, wenn die Versuchsperson nur rein zufallige Treffer produziert. In diesem Beispiel dürfte es problemlos sein, Wahrscheinlichkeiten mit dem Verhältnis „Zahl der günstigen Fälle / Zahl der möglichen Fälle" gleichzusetzen. Dann gibt es 10 = n Möglichkeiten, genau einen Treffer zu laden, p(E;) = Wj = 1/10 1 0 x 9 = n(n—1) Möglichkeiten für ein Trefferpaar, p(EjEj) = w 2 = 1/90
n ( n - l ) . . . (n-i+1) (n-i) Möglichkeiten für i Treffer, Wi= l/[n(n—1) . . . (n-i+1) (n-i)] Da n ( n - l ) . . . (n-i+1) (n-i) = n!/(n—i)! ist allgemein Wi
= p ( E i E 2 . . . Ej) = (n—i)!/n! .
Die Wi sind Wahrscheinlichkeiten für ein ganz bestimmtes Treffermuster an einer vorgegebenen Position. Die Formulierung des Beispiels legt jedoch nahe, jedes Treffermuster als gleichwahrscheinlich zu behandeln. Dann liegt Vertauschbarkeit vor und wir verwenden die Formel (*). In die Formel setzen wir w h +i = (n—h—i)!/n! ein und erhalten
Wenn wir I I in das Summenzeichen hereinnehmen, erhalten wir für die drei Faktoren /n\ /n—h\ ( n - h - i ) ! \h/\ i ) n!
=
n! (n-h)! ( n - h - i ) ! h! (n-h)! i! ( n - h - i ) ! n!
=
_J_ h! i!
und damit 1 "~h 1 1 p(Y=h) = ^ . 2 ( - 1 ) ' ^ = ¿ ( l - l + l / 2 ! - l / 3 ! + . . . ± l / ( n - h ) ! ) .
2.3 Absolute Wahrscheinlichkeiten
93
Für kleine n können bereits mit einem Taschenrechner die Wahrscheinlichkeiten für verschiedene h berechnet werden. Für größere n wird der ausgeschriebene Klammerausdruck gut mit 1/e = .36788 approximiert, so daß /w
p ( Y = h )
=
1 _ .36788 e"h! " " ü r -
Für das Beispiel mit n = 10 ist p ( Y = 0 ) = .36788, p(Y = 1) = .36788, p ( Y = 2 ) = .184 usw. (Abb. 2.3.3). Die Wahrscheinlichkeit für 9 Treffer ist übrigens genau null; wenn jemand 9 Treffer gelandet hat, dann muß auch die einzig verbleibende Möglichkeit ein Treffer sein. Der Mittelwert dieser Wahrscheinlichkeitsverteilung ist immer 1. Die Verteilung 1/eh! ist eine sog. Poisson-Verteilung mit dem Erwartungswert 1.
.3 .2
.1
0.0 0
2
T 4
*
. 6
.
, 8
, 10
Abb. 2.3.3 Wahrscheinlichkeit für h Treffer bei 10 Ereignissen
Anhang zu den Abschnitten 2.1, 2.2 und 2.3 Barvzentrische Koordinaten auf der Geraden Ein Möglichkeitsraum bestehe aus den Konstituenten E, E 2 und E , E 2 mit den Indikatorwerten Q, = (1,0) und Q 2 = (0,1); die Konstituenten (0,0) und (1,1) sind inkompatibel. Als Beispiel denke man an den Wurf einer Münze mit den möglichen Ausgängen E , = Kopf und E 2 = Wappen. Qi und Q 2 werden geometrisch durch zwei Punkte repräsentiert, die auf einer Gerade liegen. Es wird ein dritter Punkt O gewählt, der nicht auf dieser Gerade liegt. Die gerichteten Strecken von O nach Q) und Q 2 sind die Ortsvektoren OQi und OQ 2 . Sie werden als Basisvektoren verwendet und mit i und j notiert. Jeder Punkt
94
2. Grundlagen der Wahrscheinlichkeitstheorie
P, der auf der durch Qi und Q 2 erzeugten Gerade liegt, kann durch eine Gerade beschrieben werden, die durch 0 läuft und Q I Q 2 eben genau in P schneidet; zu jedem Punkt P auf Q I Q 2 gehört eindeutig eine Gerade durch den Ursprung 0 . Nun läßt sich der Vektor OP, der genau bis zum Punkt P läuft, als Linearkombination der Basisvektoren ausdrücken: ÖP = Pi"i + p 2 t • Die Länge dieses Vektors ist jedoch unwesentlich, lediglich seine Richtung bestimmt den Ort des Schnittpunktes P. Es genügt daher, den Vektor nur bis auf die Multiplikation mit einem beliebigen Wert a 0 festzulegen. Der Punkt P wird nun mit Hilfe der Basisvektoren allgemein beschrieben durch p = a p a +ap2j . Die Komponenten des Vektors, d.h. a p , , a p 2 , werden als baryzentrische Koordinaten des Punktes P bezüglich der Strecke Q, Q 2 bezeichnet. Die Bezugspunkte Q, und Q 2 haben die baryzentrischen Koordinaten (1,0) und (0,1); die Koordinaten sind identisch mit den Indikatorwerten der Konstituenten. Die durch Q , und Q 2 bestimmte Gerade ist durch die Gleichung p, + p 2 = 1 gekennzeichnet; alle Punkte, die auf der Strecke zwischen Q , und Q 2 liegen, haben beide positive Koordinaten, so daß für sie pi + p 2 = l
und p , , p 2
>0.
Der Wert für die Koordinate p[ wird von Q 2 aus in Richtung Q! gemessen und ebenso ergibt sich p 2 aus dem Abstand von dem gegenüberliegenden Punkt Qi her.
Abb. 2.A.1 Baryzentrische Koordinaten p , und p 2 eines Punktes P; man mißt Pj von Q 2 aus in Richtung Q , und p 2 von Q , aus in Richtung Q 2
2.3 Absolute Wahrscheinlichkeiten
95
Teilverhältnis der Strecke Q\Q2 Der P u n k t P ( p ] , p 2 ) teilt die Strecke Q i Q 2 im Verhältnis X = p 2 : p i ; P darf nicht mit Q 2 zusammenfallen, d.h. p ^ O . X wächst m o n o t o n , wenn P von Q j nach Q 2 wandert. Für den Mittelpunkt der Strecke ist X = 1. Außerhalb von Q I Q 2 ist das Teilverhältnis negativ, da auch stets eine der baryzentrischen Koordinaten negativ ist (Abb. 2.A.2).
Abb. 2.A.2 Teilverhältnis, wenn ein Punkt P die durch Q, und Q 2 bestimmte Gerade durchläuft; es ist 7 = p , / p 2
Baryzentrische Koordinaten in der Ebene Die Betrachtung des unsicheren Ausgangs eines Fußballspieles mit den drei Möglichkeiten E i = Sieg, E 2 = Verlust, E 3 = Unentschieden führt zu den drei Konstituenten Q , = (1,0,0), Q 2 = (0,1,0) und Q 3 = (0,0,1). Die Konstituenten Q , , Q 2 und Q 3 werden geometrisch durch drei verschiedene Punkte in einer Ebene dargestellt; zur Veranschaulichung wird meist der Sonderfall herausgegriffen, in dem Q i , Q 2 und Q 3 ein gleichseitiges Dreieck bilden. Ein vierter Punkt O, der außerhalb der Ebene liegt, wird als Ursprung gewählt. Die drei Ortsvektoren O Q i , OQ 2 und O Q 3 werden als Basisvektoren verwendet und mit i, j und k notiert. Jeder Punkt P, der in der durch Q , , Q 2 und Q 3 erzeugten Ebene liegt, läßt sich wieder durch einen Vektor beschreiben, der von O ausgeht und die Ebene in P schneidet. Dieser Vektor ist eine Linearkombination der Basisvektoren; von Interesse ist wieder nur seine Richtung, nicht jedoch seine Länge, so daß der Vektor nur bis auf die Multiplikation mit einem F a k t o r a 0 eindeutig von P bestimmt ist. Wir haben p = apii + ap2j + a p 3 k .
2. Grundlagen der Wahrscheinlichkeitstheorie
96
(Pi» P2 > P3) sind die baryzentrischen Koordinaten von P bezüglich des Dreiecks Q.,Q2,Q3. Die von Q i , Q 2 und Q 3 gebildete Ebene ist durch die Gleichung Pl + P 2 + P 3 =
1
gekennzeichnet. Für alle Punkte, die zum Dreieck selbst gehören, gilt zusätzlich, daß ihre Koordinaten positiv sind: p ! , p 2 , p 3 = 0 . A und B seien zwei Punkte der durch Q , , Q 2 und Q 3 gebildeten Ebene. Die Gleichung, die eine Gerade durch A und B bestimmt, erhält man wie folgt: Wenn die beiden Punkte die Koordinaten A
B
3i a2
b, b2 b3
a
3
haben, so ist die Gerade AB durch die Gleichung a2 a
3
b2 b3
Pi
a3 ai
b3 b,
p2 +
ai a2
b, b2
P3
=
0
bzw. (a 2 b 3 —b 2 a 3 )Pi + (a 3 b, - b 3 a , ) p 2 + (a,b 2 - b , a 2 ) p 3 = 0 bestimmt.
Abb. 2.A.3 Q, und 02 werden als zwei verschiedene Punkte in der Ebene aufgefaßt; jedem Punkt P auf der durch Q, und Q 2 erzeugten Gerade läßt sich eindeutig ein Vektor _vgm Ursprung 0 aus zuordnen; dieser Vektor läßt sich als Linearkombination der Vektoren 0Q, und 0Q 2 darstellen
2.3 Absolute Wahrscheinlichkeiten Beispiele: da mit
97
Die Gerade durch die Dreiecksseite Q 2 Q 3 ist durch p , = 0 bestimmt,
Q,
Q
0 1 0
0 0 1
die Gleichung 1
0 1
0
Pl +
1 0
0 0
P2 +
0 1
0 0
Pi = 0 resultiert. Auf die gleiche Weise erhält man für QTQI : p 2 = 0 Q1Q2 : p 3 =
0.
Die Geraden von den Ecken Q , , Q 2 und Q 3 durch den Zentralpunkt P ( l / 3 , 1/3, 1/3) sind zunächst für Q ! mit Qi
p
1 0 0
1/3 1/3 1/3
0 0
1/3
1/3
P„ , ++
0
1
— 1/3 p 2 + 1/3 p 3 = 0
1/3 1/3 bzw.
P 2 +
1 0
1/3 1/3
- p 2 + p3 = 0 .
Auf analoge Weise erhält man für Q2P
:
P,"P3=0
Q3P : - P i + Pz = 0 . Der Wert für die Koordinate p , wird als Höhe von der gegenüberliegenden Seite Q2Q3 aus gemessen, und ebenso wird p 2 als Abstand von der Q 2 gegenüberliegenden Kante Q1Q3 bestimmt, und schließlich erhält man p 3 als Höhe über der Bodenkante Q I Q 2 . Die drei Geraden verlaufen auch durch die Halbierungspunkte der drei Seiten, also durch (0, .5, .5), der Q 2 Q 3 halbiert, durch (.5, 0, .5), der Q , Q 3 halbiert und durch (.5, .5, 0), der Q , Q 2 halbiert. Der Punkt ( 1 / 3 , 1/3, 1/3) teilt jede Seitenhalbierende im Verhältnis 2:1.
98
2. Grundlagen der Wahrscheinlichkeitstheorie Qa
Abb. 2.A.4 Bestimmung der Koordinaten p , , p 2 und p 3 eines Punktes P durch die Höhen von den gegenüberliegenden Seiten weg
Eine Gesamtmasse G = 1 wird in drei Teile zerlegt und auf die drei Bezugspunkte Q i , Q 2 und Q 3 verteilt. Es soll der Schwerpunkt eines solchen Massensystems untersucht werden. Wenn Pi = P2 = P3 = 1/3, dann hat der Schwerpunkt S offensichtlich die baryzentrischen Koordinaten S ( l / 3 , 1 / 3 , 1/3). Aber auch allgemein gilt: Ist die Massenverteilung auf die Bezugspunkte P1.P2.P3, so hat der Schwerpunkt des Systems die baryzentrischen Koordinaten S(Pl,P2,P3) und umgekehrt: Jeder Punkt mit den baryzentrischen Koordinaten P1.P2.P3 ist der Schwerpunkt einer Massenbelegung mit den Teilmassen P 1 . P 2 . P 3 in den Bezugspunkten Q1.Q2.Q3Diese Beziehungen gelten selbstverständlich auch für Punkte außerhalb des Dreiecks Q1Q2Q3, d.h. für den Fall, daß negative Massen auftreten (zu den Begriffen des statischen Moments und von Gleichgewichtssystemen siehe z.B. Pestel, 1969). In der Wahrscheinlichkeitstheorie kommen jedoch nur positive p-Werte vor. Die Normierung auf die Gesamtmasse 1 ist unbedeutend. Die Beziehungen sind invariant gegenüber der Multiplikation mit einem Proportionalitätsfaktor. Bei der Verallgemeinerung der Überlegungen auf n Dimensionen wird von n Bezugspunkten Q i , Q 2 , . . . , Q n ausgegangen. Außerhalb des durch diese Bezugspunkte bestimmten n-dimensionalen Körpers wählt man in der (n+l)-ten Dimension den Ursprung 0. Die baryzentrischen Koordinaten p l 5 p 2 , . . . , p„ werden durch die Höhen von jeweils gegenüberliegenden Hyperebenen gemessen. Für alle Punkte innerhalb des Körpers gilt, daß die Summe ihrer baryzentrischen Koordinaten p i + p 2 + . . . + p„ = 1 ist.
2.3 Absolute Wahrscheinlichkeiten
99
Konvexe Mengen S = { x i , x 2 , . . . } sei eine Menge von Punkten (Vektoren) in einem n-dimensionalen Raum braucht hier nicht näher gekennzeichnet zu werden, man kann im allgemeinen davon ausgehen, daß es sich um den n-dimensionalen euklidschen Raum handelt. S ist konvex, wenn für alle x und alle y gilt:
x e s & y e s -»• x y G S , wobei xy die x und y verbindende Strecke ist. Eine Punktmenge ist konvex, wenn sie mit zwei Punkten stets deren ganze Verbindungsstrecke enthält (Bonnesen & Fenchel, 1934, 1971, S. 2; Hartwig, 1955, S. 7, Valentine, 1968, S. 14; usw.) Die Strecke xy £ i f i s t die Menge aller Punkte, für die ax + ßy, a>0,
ß>0,
a +ß= 1.
Eine abgeschlossene, beschränkte und konvexe Menge K in Jif heißt auch konvexer Körper. K ist abgeschlossen, wenn K alle seine Berührungspunkte enthält; K enthält daher nicht nur innere Punkte, sondern auch alle seine Randpunkte. K ist beschränkt, wenn der größte Abstand zwischen zwei beliebigen Punkten sup d(x, y) endlich ist; zu K gibt es immer eine Kugel, so daß K Teilmenge dieser
100
2. Grundlagen der Wahrscheinlichkeitstheorie
Kugel ist. Die konvexe Hülle einer Menge S 6 5 " ist der Durchschnitt aller konvexen Mengen i n i f , die S enthalten. (Valentine, 1968, S. 23) Insbesondere ist die konvexe Hülle eines konvexen Körpers der Körper selbst. Die konvexe Hülle eines Körpers besteht aus allen inneren Punkten und aus allen Randpunkten des Körpers. Ist der Körper selbst nicht konvex, so kommen noch Punkte hinzu, die nicht zu dem Körper gehören. Statt „konvexer Körper" wird auch „Eikörper" gesagt. Beispiele für konvexe Mengen sind: Ein Punkt, eine Strecke, eine Dreiecksfläche, ein Tetraeder, ein Würfel, ein Kreis, eine Kugel usw. Beispiele für nichtkonvexe Mengen sind: Die Seiten eines Würfels ohne seine Punkte im Innern, hufeisenförmige Körper usw. Man kann sich vorstellen, daß die konvexe Hülle eines beliebigen Körpers durch das „Einspinnen" dieses Körpers mit einem Faden entsteht. Alle Einbuchtungen zum Innern des Körpers hin werden überspannt, wenn der Körper dabei in alle Richtungen gedreht wird. Schwerpunktdarstellung
der konvexen Hülle
Im vorliegenden Zusammenhang sind folgende Aussagen über konvexe Hüllen von Bedeutung (Bonnesen & Fenchel, 1934, 1971, S. 8ff.): „Der Schwerpunkt einer beliebigen nichtnegativen Massenbelegung m einer beschränkten abgeschlossenen Menge ^ gehört der konvexen Hülle von. # a n . " „Umgekehrt läßt sich auch jeder Punkt der konvexen Hülle von Jt auffassen als Schwerpunkt einer nichtnegativen Massenbelegung von J(„Jeder Punkt der konvexen Hülle einer abgeschlossenen beschränkten Menge liegt im Innern oder auf dem Rand eines Simplex, dessen Ecken zur Menge gehören." Simplex und der Satz von Caratheodory „Die konvexe Hülle A von n + 1 Punkten X!, x 2 , . . . , x n + 1 in i f heißt ein n-dimensionales Simplex, wenn die Ebene kleinster Dimension, die A enthält, die Dimension n hat. Die Punkte x¡ heißen Ecken." (Valentine, 1968, S. 24) Ein Punkt oder eine Ecke x ist ein O-dimensionaler Simplex mit 1 Punkt, eine Strecke oder Kante xy ist ein 1-dimensionales Simplex mit 2 Punkten, eine Dreiecksfläche xyz ist ein 2-dimensionales Simplex mit 3 Punkten, ein Tetraeder X1X2X3X4 ist ein 3-dimensionales Simplex mit 4 voneinander verschiedenen Punkten usw. Ein n-dimensionales Simplex besteht aus n + 1 Punkten. Wir haben bereits gesehen, daß die Menge aller Punkte, die zur ganzen Verbindungsstrecke zweier Punkte x und y gehören, durch folgende Beziehung bestimmt ist:
2.4 Bedingte Wahrscheinlichkeiten ax + ßy,
a = 0,
ß
^ 0, a + ß
101 =
1.
Der Satz von Caratheodory ist eine Verallgemeinerung auf n-dimensionale Simplices: „Ist A ein n-dimensionales Simplex in i f m i t den Ecken x ¡(i= 1,. . . , n+1), dann besteht A aus allen Punkten x von i£, für die mit = 0 X =
n+ 1 2 OijXi
i= 1
n+ 1
2
xj=ny =
P(Xj=
iiyp(Xj=
u u
130
2. Grundlagen der Wahrscheinlichkeitstheorie
bzw. allgemeiner für die Antwortwahrscheinlichkeiten, wenn
p(xj,xj|$,,) =p(x i |£ [) )p(xj|£„), wobei
XJG{0,l}
und
XjG{0,1}.
Dies gelte für alle möglichen Werte des Personenparameters man denke an eine Partition des Wertebereiches von % und an eine entsprechende Indizierung k = 1,2,. .. Die eben angeschriebene Gleichung soll dann für alle k = \ ,2,. .. gelten:
p(XJ,Xjlt) = p(Xi||)p(Xj||). Weiter soll die lokale stochastische Unabhängigkeit nicht nur paarweise gelten, sondern insgesamt für alle möglichen Teilmengen der m Testaufgaben, so daß p ( x a , x ß , . . . , x p |£) = p i x J S M x p l S ) . . . p(x„|£) für jede beliebige Indexkombination
{a,ß, . . . ,p}
aus der Indexmenge { 1 , 2 , . . . , m } . Die lokale stochastische Unabhängigkeit ist z.B. verletzt, wenn eine Vp — für eine Vp ist der Personenparameter konstant — die ersten fünf Aufgaben eines Tests richtig gelöst zu haben glaubt und dadurch einen solchen Aufschwung erhält, daß sie die nachfolgenden Aufgaben eher löst als unter anderen Umständen. Die Bedingung ist ebenfalls verletzt, wenn eine andere Vp drei Aufgaben hintereinander nicht lösen kann und dadurch so frustriert ist, daß sie bei den nachfolgenden Aufgaben eher stecken bleibt als unter anderen Umständen. Die Bedingung der lokalen stochastischen Unabhängigkeit ist klar verletzt, wenn zwei oder mehr Aufgaben logisch voneinander abhängig sind. Das ist z.B. der Fall, wenn Zusatzaufgaben nur dann richtig beantwortet werden können, wenn die vorangehenden Hauptaufgaben richtig gelöst werden. Man beachte, daß die absoluten Lösungswahrscheinlichkeiten für die Aufgaben eines Tests in der Regel sehr wohl stochastisch abhängig sind, d.h.
p ( x i , x j ) ^ p ( x i ) p ( x j ) usw. Wenn die Lösungswahrscheinlichkeiten mit Hilfe der relativen Lösungshäufigkeiten in einer Stichprobe von Vpn geschätzt werden, so gibt es meist mehr (1,1)Kombinationen und (0,0)-Kombinationen als man auf Grund der relativen Häufigkeiten der gelösten und ungelösten Aufgaben erwarten könnte (die Aufgaben korrelieren positiv). Die Unabhängigkeit wird erst nach dem „Herauspartialisieren" des Personenparameters £ angenommen.
2.5 Wahrscheinlichkeitsverteilungen Im Abschnitt 2 . 4 , S. 125 wurden die Wahrscheinlichkeiten untersucht, daß eine Münze bei n Würfeln X = 0-, 1 - , . . . , n-mal auf „Adler" fällt.
2.5 Wahrscheinlichkeitsverteilungen
131
Unter der Annahme, daß (a) die Wahrscheinlichkeiten für „Adler" bei allen Würfeln gleich sind und w betragen und (b) die Wahrscheinlichkeiten insgesamt stochastisch unabhängig sind, so ist
Diese Funktion ist eine diskrete Wahrscheinlichkeitsverteilung, sie heißt Binomialverteilung. Sie ordnet jedem möglichen Wert der ZV X eine Wahrscheinlichkeit zu. Eine Funktion, die jedem X-Wert die Wahrscheinlichkeit zuordnet, daß die ZV höchstens diesen Wert annimmt, heißt kumulative Verteilungsfunktion. Für die Münze ist
Im Abschnitt 2.3, S. 93 wurde die Wahrscheinlichkeit bestimmt, Y = 0, 1, . . . 10 Treffer bei einem Urnenversuch zu erzielen. Es ist p ( Y = h ) = ,36788/h! und dies ist ebenfalls eine diskrete Wahrscheinlichkeitsverteilung-, verteilung. Die zugehörige kumulative höchstens k Treffer p(Y^k) =
Verteilungsfunktion
sie heißt Poisson-
gibt die Wahrscheinlichkeiten für
k S ,36788/hj! . i=1
Wahrscheinlichkeitsverteilungen und kumulative Verteilungsfunktionen sind wichtige Begriffe in der Wahrscheinlichkeitstheorie und Statistik. Wir behandeln in diesem Abschnitt ihre Definition, Erwartungswerte und Varianzen etc., einige wichtige Beispiele sowie die wichtigsten Regeln zum Umgang mit bedingten Verteilungen. Es werden keine für die Theorie der subjektiven Wahrscheinlichkeit spezifischen Begriffe behandelt. Der an subjektiven Akzenten interessierte Leser wird auf de Finetti (1974, Kapitel 6) verwiesen. Wir beginnen mit dem in vieler Hinsicht elementareren Begriff der Verteilungsfunktion. X sei eine ZV und x ein Punkt, der auf der Zahlengerade stetig von —00 nach läuft. Eine Funktion F(x), die angibt, wie groß die Wahrscheinlichkeit ist, daß der wahre Wert der unsicheren Größe kleiner oder gleich x ist F(x)
=
P ( X = x),
132
2. Grundlagen der Wahrscheinlichkeitstheorie
heißt Verteilungsfunktion
der ZV X.
Ist aus dem K o n t e x t nicht klar ersichtlich, daß es sich u m die ZV X h a n d e l t , so schreibt man F x ( x ) . In anderer Schreibweise ist F : x ^ F ( x ) : = P ( X = x),
x £ IR .
Der Vorbereich der Verteilungsfunktion ist die Menge der reellen Zahlen einschließlich — 00 und der Bildbereich ist die Menge der reellen Zahlen zwischen 0 u n d 1. Geht m a n bis auf den Möglichkeitsraum der ZV X zurück, so ist F ( x ) = P ( { c o : c o S i Z x und X ( w ) = x } ) die Wahrscheinlichkeit der Menge aller Möglichkeiten, deren Wert auf der ZV höchstens x ist. Wir halten fest: Definition:
Verteilungsfunktion
Eine F u n k t i o n F ( x ) mit gdw.
F : IR
IR[o,i ] ist eine Wahrscheinlichkeitsfunktion,
(1) IR die Menge der reellen Zahlen einschließlich — 00 und ist, ( 2 ) IR[ 0 ,i ] die Menge der reellen Zahlen im Intervall [0,1] ist, ( 3 ) F ( x ) eine steigende F u n k t i o n ist, d.h. x ! < x 2 für alle X!, x 2 S IR,
F(x!) = F(x2)
( 4 ) F ( — = 0 und F(+°°) = 1 u n d ( 5 ) F ( x ) mindestens rechtsseitig stetig ist, d . h . lim F(x+h) = F(x) 0 < h oder kurz F ( x + 0 ) = F ( x ) . "° Statt „ V e r t e i l u n g s f u n k t i o n " (distribution f u n c t i o n ) ist auch die eigentlich redundante Bezeichnung „kumulative V e r t e i l u n g s f u n k t i o n " (cumulative distribution f u n c t i o n , c.d.f.) gebräuchlich. Unter einer „steigenden F u n k t i o n " wird das gleiche verstanden wie unter einer „schwach steigenden", einer „nicht-fallenden" ( n o n decreasing) oder auch „ i s o t o n e n " F u n k t i o n — alle diese Bezeichnungen sind gebräuchlich.
Beispiel: Eine ausgewogene Münze wird zehnmal geworfen. X sei die ZV „Anzahl der K ö p f e " . Eine F u n k t i o n F x ( x ) , die angibt, wie groß die Wahrscheinlichkeit ist, d a ß die Münze höchstens x-mal auf die Seite „ K o p f " fällt, ist die Verteilungsf u n k t i o n von X. Es ist z.B. F ( 0 ) = P ( X ^ 0 ) = ( 1 o ° j . 5 l o = 1 .5 1 0 = . 0 0 0 9 8
2.5 Wahrscheinlichkeitsverteilungen
133
F ( l ) = P(X = 1) = ( 1 0 ° ) + ( 1 1 ° ) . 5 ' ° = (1 + 10) . 5 1 0 = .01074
.5 1 0 = ( 1 + 10+45) .5 1 0 = .05469 usw. In den Intervallen zwischen 0 und 1 , 1 und 2 usw. sind die Werte der Verteilungsfunktion konstant. Genauer handelt es sich um die Intervalle (0,1], (1,2],
usw.,
die links offen und rechts geschlossen sind. An den Stellen 1,2,... ,9 springt der Funktionswert. Eine Funktion diesen Typs nennt man eine Treppenfunktion. Man beachte: F ( x ) ist nicht nur über solchen x-Werten definiert, die zum Wertebereich der ZV X : £2X -*• R x gehören. Dies ist beim vorliegenden Beispiel einer diskreten ZV ganz offensichtlich: Alle reellen Zahlen in den Intervallen [—,0),
(0,1),
(1,2),...,(10,+-]
gehören nicht zu R x = { 1 , 2 , . . . , 10}. Eine Treppenfunktion ist an den Sprungstellen nicht stetig. Grob gesprochen ist eine Funktion, je nachdem, ob die Sprünge an das jeweils obere Ende eines Intervalles oder an den Beginn der nächstfolgenden Intervalle gesetzt werden, linksseitig oder rechtsseitig stetig. Da in unserem Fall F ( x ) = P(X = x) sein soll, reißt die Funktion an der Stelle x „hart" ab; wäre gewünscht worden, daß F ( x ) = P ( X < x ) , so würden wir in der Definition entsprechend verlangen, daß F ( x ) linksseitig stetig ist (vgl. z.B. Rutsch, 1974, S. 177). Es wird verlangt, daß die Zahl der Sprungstellen endlich oder höchstens abzählbar unendlich ist. Die von uns gegebene Definition der Verteilungsfunktion folgt z.B. Abramowitz und Stegun, 1970, S. 9 2 7 , Rao, 1973, S. 84, Schmetterer, 1966, S. 36, Rutsch, 1974, S. 177, Mood et al., 1974, S. 56. Verteilungsfunktionen kommen nicht nur in der Wahrscheinlichkeitstheorie vor. Man findet sie z.B. auch in der Mechanik. Man stelle sich einen physikalischen Körper und eine durch diesen von links nach rechts gelegte Achse vor. Ein Punkt x durchläuft diese Achse. F ( x ) sei ein Maß dafür, wieviel Prozent der Gesamtmasse des Körpers links von x liegen. F ( x ) erfüllt alle Kriterien einer Verteilungsfunktion. F ( x ) ist eine Verteilungsfunktion der Masse (vgl. de Finetti, 1974, S. 222). Man stelle sich nun vor, daß der gleiche Körper längs der genannten Achse in einen teilweise mit Wasser angefüllten Meßzylinder getaucht wird. Am Rande des Meßgefäßes befindet sich eine Skala. Sie wurde normiert, und zwar so, daß der Wasser-
2. Grundlagen der Wahrscheinlichkeitstheorie
134
stand null ist, wenn sich der Körper vollständig außerhalb des Wassers befindet und eins ist, wenn der Körper vollständig in das Wasser eingetaucht wird. Die Skala mißt offensichtlich den Volumensanteil des Körpers bis zum Punkt x. G(x) sei der Skalenwert für die Eintauchposition x. Auch G(x) erfüllt die in der obigen Definition genannten Bedingungen einer Verteilungsfunktion. Es folgt ein Beispiel für eine kontinuierliche Verteilungsfunktion. Beispiel: Die kumulative
Gleichverteilung
Es wird eine Zufallscheibe (spinner) gedreht. Y sei die ZV „Position der Scheibe am Ende der Bewegung". Y kann in Grad zwischen 0 und 360 gemessen werden. Die Verteilungsfunktion F(y) gibt für jeden y-Wert 0 = y = 360 an, wie groß die Wahrscheinlichkeit ist, daß die Scheibe in einer Position zwischen 0 und y zur Ruhe k o m m t , F(y) = P ( Y ^ y ) . Wieder kann man sich vorstellen, daß ein Punkt y stetig auf der Zahlengerade von —°° bis läuft und mit ihm der zugeschaltete Funktionswert F ( x ) , der die Wahrscheinlichkeit der ZV bis zu diesem Punkt festhält. Es wird davon ausgegangen, daß die Zufallsscheibe ausgewogen ist, gleichmäßig läuft und daß kein Grund zur Annahme vorliegt, daß die Scheibe bestimmte Positionsbereiche für den Stillstand ihrer Bewegung bevorzugt. In dieser Situation ist es sicherlich nicht kontrovers, folgende Wahrscheinlichkeiten zu verwenden: F(180) = P ( Y = 180) = 0.5 F(360) = P ( Y = 360) = 1.0 F(90)
= P(Y = 90) = 0 . 2 5
usw.
Allgemein F(y) = P ( Y ^ y ) =
4 .
Man beachte wieder, daß F(y) nicht nur über solchen Werten definiert ist, die zum Wertebereich der ZV gehören. Etwas vereinfacht läßt sich zusammenfassen: Verteilungsfunktionen können nur steigen oder höchstens gleich bleiben, aber nie fallen, sie haben auf der linken Seite des kleinsten möglichen x-Wertes den Wert null und auf der rechten Seite des größten möglichen x-Wertes den Wert eins und sie sind schließlich mit Ausnahme von Sprungstellen kontinuierlich. Verteilungsfunktionen steigen stetig von null bis eins. Wir wenden uns nun den Wahrscheinlichkeitsverteilungen zu. Hier werden zwei Typen unterschieden: (a) diskrete und (b) kontinuierliche Wahrscheinlichkeitsverteilungen.
2.5 Wahrscheinlichkeitsverteilungen Definition:
Diskrete
135
Wahrscheinlichkeitsverteilung
Eine Funktion f : R x gdw.
IR
[o,i) ist eine diskrete Wahrscheinlichkeitsverteilung,
(1) R x der Wertebereich einer diskreten ZV ist, der aus den Werten x , , x 2 , . . . bestehe, (2) IR[o,i ] die Menge der reellen Zahlen im Intervall [0,1] ist und
i
p(X=Xj)
wenn
x = x ^ i = ] ) 2, . . .
0
wenn
x
Xj
Als Vorbereich wird von manchen Autoren (z.B. Mood et al., 1974, S. 58, an deren Definition wir uns sonst anlehnen) auch das ganze Kontinuum verwendet. Beispiele: Die eingangs genannte Binomialverteilung und Poissonverteilung sind Beispiele für diskrete Wahrscheinlichkeitsverteilungen (Abb. 2.5.2). Geht man bis auf den Möglichkeitsraum der ZV zurück, so ist f ( x ) = p({w : c o £ i 2 x und X(w)=x}) die Wahrscheinlichkeit der Menge aller Möglichkeiten, deren Wert auf der ZV x ist. Die Beziehungen zwischen F(x) und f(x) sind offensichtlich: Wenn die Werte der ZV aufsteigend geordnet werden Xi,X2,..., so ist einmal (a)
f(xj) = F(xj) — F(xj—0)
(= Sprunghöhe der Treppenfunktion an der Stelle Xj)
oder F(xi) — F ( x j _ i ) für i = 2, 3 , . . . und f(Xi) = F(x,)füri=l und umgekehrt (b) F(x) = 2 f(xj), wobei die Summe über alle i läuft, für die Xj = x. {i:xi = x} Da die Werte einer diskreten ZV eine Zerlegung bilden, ist mit dem Zerlegungstheorem die Summe der Wahrscheinlichkeiten für alle X-Werte gleich eins: 2 f(xO = 1 I = {1, 2 , . ..}. iei
136
2. Grundlagen der Wahrscheinlichkeitstheorie
Daher ist auch jede Funktion f ( x ) mit folgenden Eigenschaften eine diskrete Wahrscheinlichkeitsverteilung: (1)
f(Xi)>0
( 2 ) f ( x ) = 0 wenn x (3)
Xj, i = 1, 2, . . . und
2 f ( X j ) = 1 I = {1, 2 , . . . } .
(Absolut) kontinuierliche Wahrscheinlichkeitsverteilungen unterscheiden sich wesentlich von diskreten Verteilungen:
Definition:
Kontinuierliche
Wahrscheinlichkeitsverteilung
Eine Funktion f : R x verteilung, gdw.
IR[o,°°] ist eine kontinuierliche Wahrscheinlichkeits-
( 1 ) R x der Wertebereich einer kontinuierlichen Z V ist, (2)
IR[o,oo] die Menge der nicht negativen reellen Zahlen ist und
(3) F(x) =
/ f(t)dt
— oo
Die Wahrscheinlichkeit, daß X im Intervall ( x = X = x + d x ) liegt, ist P ( x = X = x+dx)
= P(—°° ^ X ^ x + d x )
-
P(-°°^X0
F(x)
dx
= F (x) .
Per definitionem ist die erste Ableitung der Verteilungsfunktion gleich der Wahrscheinlichkeitsdichte C'f
\
(x)_r, ^ dx ~~
d F =
Damit ist P(x^Xgx+dx) dx
= f ( x ) + e, wobei dx
0 impliziert, daß e
0,
2.5 W ahrscheinlichkeitsverteilungen
137
und P ( x = X = x+dx) = f(x)dx + edx, wobei dx -»• 0 impliziert, daß e -* 0 (vgl. Härtter, 1974, S. 92/93). Es ist weiter b P ( a = X = b) = P ( a = X < b ) = P ( a < X = b ) = P ( a < X < b ) = J f ( x ) d x , a ^ b . a
In Entsprechung zum diskreten Fall ist die Wahrscheinlichkeit über allen möglichen x-Werten zusammen eins und es ist auch jede Funktion f(x) eine kontinuierliche Wahrscheinlichkeitsverteilung, für die (1) f ( x ) > 0 (2)
und
/°°f(x)dx = 1 .
— oo
Man beachte, daß die Wahrscheinlichkeit für jede endliche Menge von X-Werten gleich null ist, insbesondere natürlich die Wahrscheinlichkeit für einen einzelnen Wert. Weiter ist — wie bereits in der Definition angegeben — der Funktionswert f(x) zwar nie negativ, er ist jedoch häufig größer als eins. Nicht nur für kumulative Verteilungsfunktionen, sondern auch für Wahrscheinlichkeitsverteilungen gibt es in der Mechanik lehrreiche analoge Beispiele. „Viele Definitionen und Sätze der Wahrscheinlichkeitstheorie gewinnen an Anschaulichkeit, wenn man eine Wahrscheinlichkeitsverteilung . . . als Massenbelegung interpretiert." (Schmetterer, 1966, S. 57) So unterscheidet man auch in der Mechanik zwischen diskreten Kräften, die punktförmig an Körpern angreifen und kontinuierlich verteilten Kräften, die als Kraftdichten bezeichnet werden (vgl. z.B. Pestel, 1969, S. 78ff). Beispiele für diskrete Kräfte sind der Druck der Räder eines Zuges auf die Schiene oder das Gewicht von Massen, die an einem Träger aufgehängt sind. Man spricht von diskreten Kräfteverteilungen, wenn die Kräfte idealerweise punktförmig an Körpern angreifen (Pestel, 1969, S. 78). Beispiele für kontinuierliche Kraftdichten sind der Winddruck auf einen hohen Fabrikschornstein, das Gewicht eines Kabels, der Wasserdruck auf eine Staumauer usw. Wegen dieser Analogien spricht man auch in der Wahrscheinlichkeitstheorie von „Massenverteilung", „Wahrscheinlichkeitsmasse" etc. Es bleibt die Definition für den allgemeinen Begriff der Wahrscheinlichkeitsverteilung nachzutragen: Definition:
Wahrscheinlichkeitsverteilung
Eine Funktion f(x) ist eine Wahrscheinlichkeitsverteilung, wenn f(x) entweder eine diskrete oder eine kontinuierliche Wahrscheinlichkeitsverteilung ist.
2. Grundlagen der Wahrscheinlichkeitstheorie
138
Wenn die kumulative Verteilungsfunktion einer ZV b e k a n n t ist, so k ö n n e n mit ihr die Wahrscheinlichkeiten für alle möglichen Intervalle auf der Zahlengerade bes t i m m t w e r d e n . Mehr als dies: es lassen sich die Wahrscheinlichkeiten für alle Teilmengensysteme von Intervallen auf der Zahlengerade ermitteln. I sei die Menge aller endlichen Vereinigungen h a l b o f f e n e r Intervalle auf der Zahlengerade. Die durch I erzeugte a-Algebra heißt Boreische a-Algebra. Ihre Elemente heißen Borelsche Mengen. Eine Verteilungsfunktion erlaubt die Z u o r d n u n g von Wahrscheinlichkeiten zu allen Boreischen Mengen. Überlegungen dieser Art spielen in der Maß- u n d Integrationstheorie (Bauer, 1974, R u t s c h , 1974 usw.) eine wesentliche Rolle; sie führen j e d o c h über den vorliegenden R a h m e n hinaus. T r o t z d e m sollte ein kurzer Eindruck von der ungeheuren Mannigfaltigkeit möglicher Trägerstrukturen für Wahrscheinlichkeiten vermittelt werden. Zur Kennzeichnung von Wahrscheinlichkeitsverteilungen werden Mittelwerte, Varianzen u n d andere sog. Momente verwendet. Diese Kennwerte werden auch in der einen oder anderen F o r m in der beschreibenden Statistik zur Charakterisierung empirischer Häufigkeitsverteilungen herangezogen. Für Wahrscheinlichkeitsverteilungen - auf die wir uns hier beschränken — sind die Begriffe wie folgt definiert: Definition:
Mittelwert,
Erwartungswert
Wenn f ( x ) die Wahrscheinlichkeitsverteilung der ZV X ist, so heißt E Xif(xj), i = 1, 2 , . . . , n , . . . , wenn f ( x ) diskret ist E(X) = /
x f ( x ) d x , wenn f ( x ) kontinuierlich ist
der Mittelwert oder Erwartungswert dieser Verteilung. Es wird vorausgesetzt, d a ß die S u m m e bzw. das Integral konvergieren. Ist dies nicht der Fall, so sagt m a n , d a ß der Erwartungswert nicht existiert. Wenn hervorgehoben wird, daß es sich u m einen Mittelwert h a n d e l t , so schreibt man ß = E(X). Definition:
Varianz
Wenn f ( x ) die Wahrscheinlichkeitsverteilung der ZV X ist, so heißt •
E[(X
£ (xj-ju)2
f(Xj),
i=l,2,...,n,...,
wenn f ( x ) diskret ist
2
ß) ] = f
( x - j u ) 2 f ( x ) d x , wenn f ( x ) kontinuierlich ist
2.5 Wahrscheinlichkeitsverteilungen
139
die Varianz dieser Verteilung. Die Varianz wird mit a 2 notiert: a 2 = E[(X-M) 2 ] . Die Wurzel aus der Varianz heißt Streuung und wird mit a notiert:
Wenn die Summe bzw. das Integral nicht konvergieren, so sagt man, daß die Varianz der Verteilung f ( x ) nicht existiert. Der Mittelwert und die Varianz sind spezielle Erwartungswerte. Allgemein definiert man: Definition:
Erwartungswert
Wenn X eine ZV ist und h ( x ) eine Funktion dieser ZV, so ist der Operator 2j h(xj)f(xj), i = 1 , 2 , . . . , n , . . . , wenn f ( x ) diskret ist E[h(x)]
+
/ h ( x ) f ( x ) d x , wenn f ( x ) kontinuierlich. Aus dieser allgemeinen Form erhält man den Mittelwert
mit der Funktion
h(x) = x und die Varianz mit h(x)
Definition:
=
(X-M)
Moment
2
.
um eine
M'r(b) = E [ ( X — b ) r ] ,
Konstante r = 1, 2 , . . .
heißt r-tes Moment um die Konstante b. Definition: ß'r
Moment
um den
Ursprung
= E[Xr]
heißt das r-te Moment um den Ursprung ( b = 0 ) . Definition: ßt
Zentrales =
Moment r
E[(X-M) ]
heißt das r-te Moment um den Mittelwert oder zentrales Moment.
140
2. Grundlagen der Wahrscheinlichkeitstheorie
Mit Hilfe der Momente werden folgende „Gestaltfaktoren" (Johnson und Kotz, 1969, S. 18) definiert: Definition:
Schiefe E[(X-Al) 3 ]
= 71
"
2
{E[(X-M) ]}
Wölbung (Kurtosis,
"
_ßl_
=
2 3/2
~ (ct )
ß±_
" a3
Exzeß)
4
E[X-M) ]
= 72
" ßl'
=
2
linksschief, wenn 7 , > 0 symmetrisch, wenn 7 , = 0 rechtsschief, wenn 7 , < 0.
Eine Verteilung heißt
Definition:
ßl_ 3/2
2
{E[(X-M) ]}
M4 2
~ ßl
spitz, hochgipfelig (leptokurtic), wenn 72 > 0 Eine Verteilung heißt { normal gewölbt (mesokurtic), wenn 72=0 gewölbt,breitschultrig(platykurtic), wenn 72 < 0 . Das erste zentrale Moment ist immer null, Mi
=
0.
Das erste Moment u m den Ursprung ist der Mittelwert, ß'i
=
ß•
Das zweite zentrale Moment ist die Varianz, ß2
= o2
.
Dieses kann immer wie folgt ausgedrückt werden: ßz
= ß'2 ~ ß?
Der Beweis dafür ist einfach: Per definitionem ist ß2
=
E{[X-E(X)]2}
=
E[(XV.)2]-
Durch Ausquadrieren und durch die Anwendung der Regeln zum Umgang mit Erwartungswerten erhält man = E ( X 2 ) - 2 m ' , E ( X ) + m'i2 = ß\ -7ß\ß\ o2=ß2
+ ß?,
und schließlich ist
= ß\ - ß? = E ( X 2 ) - ß2 .
Mit Hilfe moderner Taschenrechner stellt die Berechnung höherer Momente vielfach kein Problem mehr da.
2.5 Wahrscheinlichkeitsverteilungen
141
Die Abbildungen 2.5.1 a und 2.5.1 b zeigen eine Reihe diskreter Verteilungen mit verschiedenen Kennwerten. Das geometrische Mittel ist g und das harmonische Mittel ist
Beispiel: Einige Momente bei binären Ereignissen Wir betrachten eine Sequenz von binären Ereignissen E i , E 2 , . . . , E n — z.B. eine Reihe von Würfen mit einem Reißnagel — und die zugehörigen ZV X i , X 2 , . . . , X n (Indikatorfunktionen). Wir betrachten folgende Annahmen: I.
Die Wahrscheinlichkeit für einen günstigen Fall sei in allen Durchgängen gleich und betrage w j , p(Xi = l ) = w , ,
II.
i = 1, 2 , . . . , n .
( a ) D i e Wahrscheinlichkeit für zwei günstige Fälle sei für alle Durchgänge gleich und betrage w 2 , p ( X j = l und X j = l ) = w 2 ,
für alle i , j und i=£j .
(b) Die Wahrscheinlichkeit für zwei günstige Fälle sei nicht nur für alle Durchgangspaare gleich, sondern darüber hinaus gleich dem Produkt der Einzelwahrscheinlichkeiten; es liege paarweise stochastische Unabhängigkeit vor, p(Xj = 1 und Xj = 1) = w 2 = Wi • w , = w ? ,
für alle i, j und i
j .
(c) Die Wahrscheinlichkeiten für alle Ereignisse seien insgesamt stochastisch unabhängig. In diesem Falle liegt ein sog. Bernoulli-Prozeß vor. Der Erwartungswert eines einzigen
binären Ereignisses mit den möglichen Ausgän-
gen 1 und 0 ist E(Xj) = 1 • w, + 0 - ( l - w , ) = w, . Dies ist das 1. Moment um den Ursprung, ß\ = w , , oder der Mittelwert. Da 1 2 = 1 und 0 2 = 0 , ist auch das zweite Moment um den Ursprung
ß'2 = E ( X f ) = w , . Für das zusammengesetzte Ereignis E,Ej mit den möglichen Ausgängen l x 1 = 1, 1 x 0 = 0 , 0 x 1 = 0 und 0 x 0 = 0 ist unter der Annahme II. (a) allgemein E(XjXj) = 1 • w 2 + 0 - ( l - w 2 ) = w 2
142
2. Grandlagen der Wahrscheinlichkeitstheorie V u O
5
CT\ 00
O M O -< O Tf O Os vn
SO in r«"> r-4
so 00 o f-H os »n OS o 00 •t" o o c! O
00 o 00 Tf Os'
fS vo
l
und
b>l.
Zwischen den Parametern a und b und der Form der Betaverteilung bestehen folgende Beziehungen: Für a = 1 und b = 1 resultiert eine Rechtecksverteilung. Für a = b sind alle Betaverteilungen symmetrisch um x = 0.5. Je größer a und b sind, um so schmaler sind die Verteilungen, um so kleiner ist ihre Varianz. Ist einer der Parameter gleich 1, so erhält man J-förmige Verteilungen. Sind beide Werte von a und b zwischen 0 und 1, so ist die Verteilung U-förmig. Die r-ten Momente um den Ursprung ergeben sich durch r-tes Moment um den Ursprung = i
=
=
1
a+r— 1 a+b +r— 1
, Und
'
a =
a ( a + l ) (a+2) . . . ( a + r - 1 ) (a+b) ( a + b + 1 ) . . . (a+b+r—1)
'
Je größer a und b und je kleiner der Betrag der Differenz |a—b| um so besser läßt sich die Beta-Verteilung durch eine Normalverteilung approximieren:
2.5 Wahrscheinlichkeitsverteilungen
Abb. 2.5.4 a Beta-Verteilungen (aus: Johnson & Kotz, 1970,42,43)
151
152
2. Grundlagen der Wahrscheinlichkeitstheorie
h =9 'b=2
3.0
P(y) =
r
T(ci+b) } (ahh T(bj
i
/
y—j
2.0
' 0: I
— 7r | > e
0 .
Das Theorem wird häufig durch graphische Darstellungen wie Abb. 2.5.9 veranschaulicht. Darin kommt zum Ausdruck, daß mit zunehmender Zahl der Ereignisse die relative Häufigkeit immer näher und näher an den Wert der physikalischen Disposition 7r herankommt. Die Abb. 2.5.10 zeigt auf der Abszisse die ZV
und darüber die Wahrscheinlichkeitsverteilung f ( Y n ) . Wie bei der entsprechenden Darstellung zur stochastischen Konvergenz zweier relativer Häufigkeiten können auf der Abszisse symmetrisch um den Mittelwert null zwei Punkte im Abstand e gewählt werden: mit steigendem n wird die Wahrscheinlichkeit der zugehörigen Ränder links und rechts null und die Wahrscheinlichkeit im Zentrum eins. Die Verteilung geht in die degenerierte Verteilung D e ( 0 ) m i t der Wahrscheinlichkeitsmasse eins auf dem Punkt 0 über:
2.6 Stochastische Konvergenz
163
e e
1 2
3
4
5
6
7
n
n+2
n+k
n+1 Abb. 2.5.9 Trajektorie für die relative Häufigkeit eines binären Ereignisses: eingezeichnet ist der Beginn für 0 , 1 , 0 , 1 , 1 , 1 , 0 , . . . um die Wahrscheinlichkeit n ist der Streifen ( w - a , 7r+a) markiert; er ist für die Gesetze der großen Zahl von wesentlicher Bedeutung. (In Anlehnung an Rutsch & Schriever, 1 9 7 6 , S. 1 3 1 )
f(Yn) -
De(0) .
Für Wetten bedeutet das schwache Gesetz der großen Zahl: Wenn eine einzelne Wette mit der Gewinnwahrscheinlichkeit n n-mal wiederholt wird, dann kann man die Wahrscheinlichkeit dafür, daß der durchschnittliche Gewinn beliebig nahe bei TT liegt, beliebig nahe an 1 heranbringen, wenn man nur n groß genug wählt (vgl. Samuelson, 1963, S. 109). Zum Beweis des Theorems ersetzen wir in der Tschebyscheff'schen Ungleichung p(|x-Ml>e) 0 und für n -* 0 0 | r ". + , k — u | > e für alle k = 1 oder k = 2 oder . . . ad infinitum n+k (vgl. z.B. Loeve, 1950, S. 333). In Worten: Die Wahrscheinlichkeit dafür, daß eine Abweichung größer als an der Position n oder an der Position n + 1 oder an der Position n + 2 o d e r . . . ad infinitum auftritt, geht mit wachsendem n gegen null. Das starke Gesetz der großen Zahl impliziert das schwache Gesetz; umgekehrt gilt dies nicht. Auch dieses Theorem gilt unter wesentlich allgemeineren Bedingungen. Wenn X i , X 2 , . . . eine Folge von stochastisch unabhängigen ZV ist und diese ZV alle
166
2. Grundlagen der Wahrscheinlichkeitstheorie
eine gemeinsame Verteilung haben, für die ein Mittelwert p existiert, dann konvergiert x nach dem starken Gesetz der großen Zahl gegen ß. Rutsch und Schriever (1976, S. 132) weisen d a r a u f h i n , daß das starke Gesetz der großen Zahl keine Aussage über die Geschwindigkeit der stochastischen Konvergenz macht: „Nach der starken Fassung können wir mit Wahrscheinlichkeit 1 sicher sein, daß uns eine einmalige Durchfuhrung der Versuchsfolge (= Durchfuhrung des Makroexperimentes) keine Ausnahmefolge bescheren wird, daß die Folge der relativen Häufigkeiten vielmehr gegen p konvergiert. Wir wissen jedoch nicht, wie schnell die Folge, die wir erwischen werden, gegen p konvergiert . . . auch wenn wir p sehr nahe gekommen sind, können wir das nicht feststellen." (Die Autoren verwenden p fur unser ti.) Wir halten fest: Wahrscheinlich fallen am Ende relative Häufigkeiten und Wahrscheinlichkeiten zusammen. Es handelt sich hierbei nicht um eine Konvergenz im üblichen mathematischen Sinne, wie man etwa sagt, daß die Reihe 1 + 1/1! + 1/2! + 1/3! . . . gegen die Euler'sche Zahl e konvergiert. An dieser Stelle sollte es auch klar werden, daß es Unsinn ist, Wahrscheinlichkeiten durch relative Häufigkeiten oder deren Grenzwerte zu definieren, da die Grenzen ja wiederum nur mit Wahrscheinlichkeit gelten. „Logically speaking, however, one cannot escape from the dilemma posed by the fact that the same thing cannot both be assumed first as a definition and then proved as a theorem; nor can one avoid the contradiction that arises from a definition which would assume as certain something that the theorem only states to be very probable." (De Finetti, 1975, S. 38/39) Auf diesen Punkt weist auch Stegmüller nachdrücklich hin (1973, 2, S. 34): „Mit einem Blick auf dieses Gesetz könnte man daher einwenden, daß im Denken der Limestheoretiker die eingangs angeführten empiristischen Motive fur die Definition des Wahrscheinlichkeitsbegriffs mit einer fehlerhaften Interpretation des Gesetzes der großen Zahl verschmelzen: Wo immer diese Theoretiker den gewöhnlichen Konvergenzbegriff verwenden, ist er durch den maßtheoretischen Konvergenzbegriff zu ersetzen. Anders ausgedrückt: die Wendung .konvergiert' m u ß durch .konvergiert mit Wahrscheinlichkeit 1' ersetzt werden." Stegmüller bezieht sich hier auf das starke Gesetz der großen Zahl. Und Jeffreys schreibt zur stochastischen Konvergenz: „This, however, is still a probability theorem and not a mathematically proved one; the mathematical theorem, that the limit must exist in any case, is false because exceptions that are possible in the conditions of random sampling can be stated." (Jeffreys, 1961, S. 65) Jeffreys macht diesen Punkt weiter deutlich, indem er hervorhebt, daß Unmöglichkeit die Wahrscheinlichkeit null impliziert, aber nicht umgekehrt. Aussagen mit dem Wahrheitswert „falsch" müssen die Wahrscheinlichkeit null haben, Aussagen aber, die die Wahrscheinlichkeit 0 haben, müssen nicht den Wahrheitswert „falsch" haben.
3. Elementare Methoden der Bayes-Statistik
3.1 Die Untersuchung eines Mittelwertes, a bekannt
3.1.1 Bedeutung und Beispiele Wir beginnen mit der Untersuchung einer Grundsituation, die in der Praxis zwar nur selten vorkommt, an der jedoch die elementaren Prinzipien der Bayes-Statistik recht gut eingeführt werden können. Die Überlegungen sind einfach und grundlegend für das Verständnis der späteren Abschnitte. Wir geben zunächst drei Beispiele, in denen es um die Untersuchungeines Mittelwertes geht und in denen die Streuung zumindest näherungsweise als bekannt angenommen werden kann. (1) Bei einer Ortseinfahrt soll die durchschnittliche Geschwindigkeit von Autos untersucht werden. Es interessiert insbesondere der Vergleich mit der Norm von 50 km/h. Es wird eine Stichprobe von insgesamt 75 Autos beobachtet. Aus wesentlich umfangreicheren Daten, die von früheren Untersuchungen stammen, ist die Streuung von Geschwindigkeiten bei vergleichbaren Ortseinfahrten bekannt. Die Frage ist z.B.: Wie groß ist die Wahrscheinlichkeit, daß die durchschnittliche Geschwindigkeit aller Autos an dieser Stelle über 50 km/h liegt? Oder: Wie groß ist die Wahrscheinlichkeit, daß die durchschnittliche Geschwindigkeit um mehr als 10% über dem Normalwert liegt? Usw. (2) Eine Stichprobe von 40 epileptischen Kindern wird mit einem Wahrnehmungstest untersucht. Es interessiert insbesondere die Abweichung von dem vorhandenen Normwert für „normale" gleichaltrige Kinder. Es besteht guter Grund für die Annahme, daß sich die Streuung nicht von der normaler Kinder unterscheidet. Eine sehr große Zahl von normalen Kindern wurde in einer sog. Eichstichprobe bereits mit dem Test untersucht. Auf Grund dieser Daten wurden die Testnormen erstellt und die Eichstreuung wird auch der jetzigen Untersuchung zugrundegelegt. (Ähnlich mögen auch Probleme zu behandeln sein, in denen mit ersten Übersetzungen diagnostischer Tests gearbeitet wird; hier kann ein Mittelwert in einem anderen Kulturkreis leicht unterschiedlich sein, die Streuung dürfte jedoch gleich wie im primären und viel umfangreicheren Datenmaterial sein.) Gefragt ist z.B. nach der Wahrscheinlichkeit, daß der mittlere Punktwert aller vergleichbaren epileptischen Kinder unter dem Normwert für normale Kinder liegt oder nach der Wahrscheinlichkeit, daß der Mittelwert um mehr als 20% unter dem Vergleichswert liegt usw. (3) Eine kleine mit Ansaugprinzip arbeitende Pumpe zur Gewinnung sehr kleiner Mengen einer chemischen Substanz wird überprüft. Es interessiert insbesondere,
168
3. Elementare Methoden der Bayes-Statistik
ob sie im Durchschnitt eine bestimmte Normmenge der Substanz isoliert. Zur Messung der Volumina läßt man eine radioaktive Substanz ansaugen, deren Strahlungsintensität ein sehr genaues Maß für die Menge der Substanz ist. Aus früheren Untersuchungen — mit etwas anderen Volumina — ist die Variabilität des Pumpenprinzips bekannt. Die Variabilität hängt u.a. von der Oberflächenspannung und von anderen physikalischen Bedingungen ab, die beim jetzigen Vorgehen gleich sind. Frage: Wie groß ist die Sicherheit, daß der Mittelwert in einem Intervall von ±20% der Normmenge liegt? Den ersten beiden Fällen ist gemeinsam, daß eine Spezialgruppe mit einem bekannten Instrument untersucht wird. Auch im dritten Beispiel ist der Prozeß bereits teilweise bekannt. Schmitt (1969, S. 182) kennzeichnet Situationen, in denen ein Mittelwert bei bekannter Streuung untersucht wird, wie folgt: „I guess I could characterize it as the situation in which we have a measuring instrument whose precision is known and constant. This is not unusual in a laboratory, and there the measurement errors may be the main source of error. In biological experimentation, however, the error of measurement is often so much less than the variation due to natural causes that we usually have to consider sigma as unknown also." In den Beispielen wurde hervorgehoben, daß ein Vergleich mit einem Normwert von Interesse ist. Davon kann die Form von Hypothesen abhängen, deren Wahrscheinlichkeit ermittelt werden soll.
3.1.2 Strukturmodell Die Ausgangssituation der drei einleitenden Beispiele wird näherungsweise in folgendes statistische Modell übersetzt: Der Wert jeder Messung an einer Beobachtungseinheit ist eine unsichere Größe, eine ZV. Beim i-ten Individuum aus der zur Frage stehenden Population notieren wir die ZV mit Xj. Die Wahrscheinlichkeitsverteilung aller ZV ist gleich; es ist eine Normalverteilung mit dem Mittelwert ß und der Varianz o 2 ; wir schreiben dafür kurz X; ~ N(ju, a 2 )
für alle Individuen i = 1, 2 , . . . der Population.
Die Wahrscheinlichkeitsverteilungen aller ZV sind insgesamt1 stochastisch unabhängig. Ein solches statistisches Modell heißt ein Gauß-Prozeß: 1
Wir verwenden die Phrase „insgesamt stochastisch unabhängig", um den Unterschied zu ,paarweise stochastisch unabhängig" hervorzuheben; die Hinzufügung „insgesamt" ist nicht allgemein verbreitet.
3.1 Die Untersuchung eines Mittelwertes, a bekannt
169
Definition: Ein Prozeß ist ein Gauß-Prozeß, wenn er eine Folge von ZV X , , X 2 , . . . erzeugt, die (a) alle normalverteilt sind (b) gleichen Mittelwert ß und gleiche Varianz a2 haben und (c) insgesamt 1 stochastisch unabhängig voneinander sind. Zur Ausgangssituation gehört weiter, daß die Varianz a 2 als bekannt vorausgesetzt wird und daß der Mittelwert des Gauß-Prozesses als unsichere Größe aufgefaßt wird; o2 ist eine numerische Konstante, ß eine ZV 1 . Das dritte Beispiel ist auch für folgendes Fehlermodell typisch: Man faßt einen Beobachtungswert als Summe von zwei Komponenten auf, (a) dem wahren Wert ß, der allen Beobachtungseinheiten gemeinsam ist, und (b) einem Fehleranteil e i ; der bei jeder Messung anders ausfällt. Die für alle charakteristische Komponente ß bringt das gemeinsame Niveau der Meßwerte zum Ausdruck. Die Fehlerkomponente erfaßt jeweils die individuelle Abweichung vom Gesamtniveau. Man erhält folgende lineare Strukturgleichung: Xj = ß +
für alle Individuen i = 1, 2 , . . . , der Population
ß ist die mehr oder weniger unbekannte Größe, die untersucht werden soll und im Mittelpunkt des Interesses steht; 6j ist eine ZV und ihre Wahrscheinlichkeitsverteilung ist eine Normalverteilung mit dem Mittelwert 0 und der Varianz a 2 : €j ~ N(0, a 2 )
für alle Individuen i = 1 , 2 , . . . der Population
Die Wahrscheinlichkeitsverteilung für alle Fehlerkomponenten sind insgesamt stochastisch unabhängig. Dieses Gauß'sche Fehlermodell („Fehlergesetz") fand oder findet in der Astronomie, der Geodäsie, der Phonometrie und in zahlreichen anderen Disziplinen Anwendung. In der Psychologie ist die klassische Testtheorie der bekannteste Vertreter, der auf diesem Modell aufbaut. Einen kurzen historischen Überblick zur Fehlertheorie findet man bei Hardtwig, 1968, S. 245 ff. Im Mittelpunkt des Interesses steht p. Vor der Durchführung einer empirischen Untersuchung ist unser Wissen über den wahren Wert dieses Parameters unvollständig; wir kennen den wahren Wert nicht genau oder nicht genau genug. Wir wissen jedoch, welcher Bereich für ihn in Frage kommt. So muß z.B. die mittlere Geschwindigkeit per definitionem positiv und wohl auch kleiner als 150 km/h sein. Aber auch innerhalb dieses Bereiches werden wir nicht alle Werte für gleichwahrscheinlich halten. 1
Die Behandlung von ß als ZV ist eine wesentliche Eigenart des Bayesansatzes; im Standardansatz ist ß eine Konstante.
170
3. Elementare Methoden der Bayes-Statistik
In jedem Falle wollen wir davon ausgehen, daß der Untersucher eine subjektive Wahrscheinlichkeitsverteilung über den möglichen Werten von ß erstellen kann. Dies ist die priori-Verteilung und wir schreiben p ( / j ) dafür. Die Ausgangssituation Modell dargestellt:
wird zusammenfassend durch folgendes
hierarchische
priori-Verteilung: ß ~ p(ß) bekannt N(/u,i2) In Worten: Die ZV stammen von einem Gauß-Prozeß, dessen Mittelwert nicht genau bekannt ist; das Vorwissen über ihn wird in einer priori-Verteilung ausgedrückt. Die Varianz wird als bekannt angenommen.
3.1.3 Likelihood-Funktion Mit dem zuletzt gegebenen statistischen Modell liegen im Grunde alle notwendigen Voraussetzungen vor, die zur Durchführung einer Bayes-Analyse notwendig sind. Sie haben jedoch noch nicht die Form, in der sie direkt in das Bayes-Theorem eingesetzt werden können. Dazu benötigt man die Likelihood-Funktion. Wir zeigen, daß die Likelihood-Funktion eine Normalverteilung ist; sie hat den Mittelwert x und die Varianz a 2 / n . Für einen Beobachtungswert Xj ist nach den Voraussetzungen 1 O\/2it
p ( X i | / i , a 2 ) ~ N(/i, a 2 )
exp
"^(Xi-M)2 2 CT
Wir benötigen jedoch die Likelihood für alle Daten der Stichprobe, also p ( x j , . . . , x n |/i, CT2). Laut Voraussetzung sind die Wahrscheinlichkeitsverteilungen der n ZV stochastisch unabhängig; die Gesamtwahrscheinlichkeit ergibt sich daher aus dem Produkt aller Einzelwahrscheinlichkeiten: (2)
p ( x , , . . . ,x n |/x, a 2 ) = p(x,|/x, a 2 )p(x 2 |/i, a 2 ) . . . p(x n |,u, a 2 )
n p(xil/i, CT2), i=1
Setzen wir (1) auf der rechten Seiten von (2) ein, so ist (3)
p ( x , , . . . , xn\ß, CT2)
n
1 o\/2n
exp
Alle weiteren Schritte sind Vereinfachungen dieses Ausdruckes. Wir vernachlässigen alle konstanten Faktoren und kümmern uns nur um Proportionalität. Da CT als bekannt vorausgesetzt wurde, ist es zusammen mit dem w-Teil eine
171
3.1 Die Untersuchung eines Mittelwertes, o bekannt
Konstante, die vor das Produktzeichen gezogen werden k a n n . Wir lassen den konstanten F a k t o r j e d o c h gleich weg: (4)
p ( x 1 ( . . . ,x n |At, CT2) a
. n exp
Als nächstes wird das Produkt in eine S u m m e im E x p o n e n t e n umgewandelt. Die fortlaufende Multiplikation der exp-Ausdrücke läuft nämlich auf eine fortlaufende Addition der E x p o n e n t e n hinaus ( a n a l o g z u 2 1 x 2 2 x 2 3 = 2 1 + 2 + 3 = 2 6 ) . Wir erhalten: (5)
p ( x 1 ; . . . , x n | / i , a 2 ) cc exp
1 2 (Xj-p)2 2 a 2 i=i
Die wichtigste Größe in diesem Ausdruck ist der Parameter ß \ s i e steht zusammen mit den einzelnen Xj im E x p o n e n t e n . Wir wollen Aussagen über ß auf Grund von x, dem Mittelwert der Xj machen, nach Möglichkeit nicht auf Grund der einzelnen Beobachtungswerte; x wird in der Summe einmal positiv und einmal negativ eingeführt. Man erhält den Summenausdruck 2 ( X j ß)2 i—1
= 2 [(Xi-X)-(M-X)]2. i—1
Wir quadrieren auf der rechten Seite aus und gehen mit dem Summenzeichen in die Klammer: S(xi-x)2
+ 2(A/-X)
2
-
22(xi-x)(JU-x).
Der letzte Teil dieses Ausdrucks ist null. Der zweite Teil wird zu n(/Li —x) 2 , so daß schließlich 2
i= 1
(XJ-JU)2
2
(Xi-x)2+n(M-x)2.
Wir setzen nun diesen umgeformten Exponenten in (4) ein: (6)
p ( x , , . . . , x n l M , o 2 ) oc exp { - ^ [ Z C x i - x ) 2 + n ( M - x ) 2 ] ) .
Ein Teil dieses Ausdrucks ist wieder bekannt und eine Konstante, und zwar exp
1 2a
2
2(xj-x)2
Läßt man diesen Ausdruck weg, so erhält man (7)
p ( x , , . . . , x n | / i , a ) oc exp
i-n(M-x)2 2a2
= exp
i z ^ V
Dieser ,4Cern" der Likelihood-Funktion ist eine n o c h nicht normierte Normalverteilung. Eine (auf die Fläche eins) standardisierte Likelihood-Verteilung er-
172
3. Elementare Methoden der Bayes-Statistik
halten wir, wenn wir (7) durch das Integral über (7) zwischen minus und plus unendlich dividieren. Tatsächlich ist
(dies wird hier nicht abgeleitet, vgl. Mood et al., 1974, S. 108f.). Die standardisierte Likelihood-Funktion ist somit
(8) Wir halten fest: Die Likelihood-Funktion für den Mittelwert eines Gauß-Prozesses mit bekannter Streuung ist eine Normalverteilung mit dem Mittelwert x und der Streuung a j \ f n .
3.1.4 Posteriori-Verteilungen Die Likelihood-Funktion wird nun in das Bayes-Theorem p(ju|x, o 2 ) a p(ß)9.(ß\x,
a2)
eingesetzt. Wenn die priori-Verteilung festliegt, kann die posteriori-Verteilung bestimmt werden. In der Regel wird die priori-Verteilung so gewählt, daß sie in Kombination mit der Likelihood-Funktion zu einer mathematisch einfachen Form der posteriori-Verteilung führt. Wir werden zwei einfache Möglichkeiten behandeln: (a) nicht-informative priori-Verteilung und (b) natürlich-konjugierte priori-Verteilung. Daneben kann man für beliebige „freie" priori-Verteilungen rein numerisch die posteriori-Verteilung bestimmen; mit einem geeigneten Computerprogramm bereitet die Auswertung keine technischen Schwierigkeiten.
3.1.4.1 Nicht-informative priori-Verteilung Die einfachste Lösung für die posteriori-Verteilung erhält man, wenn p(ß) eine Konstante ist. Dann ist die posteriori-Verteilung direkt proportional zur Likelihood-Funktion; im vorliegenden Fall also eine Normalverteilung mit dem Mittelwert x und der Standardabweichung o/yjn. Wir halten fest: Wenn
3.1 Die Untersuchung eines Mittelwertes, a bekannt
173
(a) eine Stichprobe mit n Daten und dem Mittelwert x vorliegt, (b) die Annahme eines Gauß-Prozesses (näherungsweise) erfüllt ist und (c) von einer nicht-informativen priori-Verteilung ausgegangen wird, dann ist die posteriori-Verteilung eine Normalverteilung mit dem Mittelwert x und der Varianz a 2 / n p(Mlx, CT2) ~ N ( x , CT2/n). Zur Beantwortung von sachlichen Fragestellungen werden auf Grund der posterioriVerteilung besonders folgende Werte bestimmt: (1) die Wahrscheinlichkeit, daß ß größer/kleiner als ein Vergleichswert ist, (2) die Wahrscheinlichkeit, daß n in einem bestimmten Intervall liegt, (3) HPD-Intervalle (höchste priori-Dichte, highest posterior density); das sind „Vertrauensintervalle" zentral um den wahrscheinlichsten ¿u-Wert herum, so daß im Intervall z.B. 99%, 95%, 90% der posteriori-Verteilung liegen. Dabei müssen die Ordinaten an den Intervallgrenzen gleich sein. Alle drei Dinge lassen sich leicht mit z-Werten und einer Normalverteilungstabelle bestimmen. Beispiel Es wird untersucht, ob bei epileptischen Kindern eine verminderte Wahrnehmungsgeschwindigkeit vorliegt. 49 Kinder erreichen in einem Test für Wahrnehmungsgeschwindigkeit einen Mittelwert von 45 Punkten. Der Test ist auf einen Mittelwert von 50 Punkten und eine Streuung von 13.5 Punkten geeicht. Es wird davon ausgegangen, daß diese Streuung auch für die Population der epileptischen Kinder zutrifft. Wird der Datenanalyse eine nicht-informative priori-Verteilung legt, so ist die posteriori-Verteilung p(Mlx, m)
zugrundege-
~ N(45,13.5 2 /49) = N(45,3.7194),
eine Normalverteilung mit dem Mittelwert 45 und der Varianz von 3.7194 (Streuung = 1.9286). Die Wahrscheinlichkeit, daß der Mittelwert der epileptischen Kinder unter dem Normalwert 50 liegt, erhält man durch den z-Wert
z
= T^f = 25926
Mit Hilfe von Tab. 1 erhält man die Wahrscheinlichkeit .99; genauer ist der Wert .9952. Zur Bestimmung eines 90%-HPD-Intervalles führen die z-Werte z und z. 9 5 = 1.6448 zu den Intervallgrenzen
os
= -1.6448
174
3. E l e m e n t a r e M e t h o d e n der Bayes-Statistik
Mi = 45 - 1.6448 1.9286 = 41.8278 und ß 2 = 45 + 1.6448 1.9286 = 48.1722. Man kann 90 % sicher sein, daß der Mittelwert epileptischer Kinder zwischen 41.8 und 48.2 liegt. Die Abb. 3.1.1 zeigt die posteriori-Verteilung für dieses Beispiel.
35
40
50
45
55
Abb. 3.1.1 Posteriori-Verteilung N ( 4 5 , 3 . 7 1 9 4 ) für den Mittelwert M der Wahrnehmungsgeschwindigkeit; eingezeichnet wurde ein 9 0 %-HPD-Intervall mit den Grenzen 4 1 . 8 und 4 8 . 2
3.1.4.2 Natürlich-konjugierte priori-Verteilung Eine zweite Möglichkeit, die ebenfalls zu einer rechnerisch einfachen Lösung für die posteriori-Verteilung führt, besteht darin, für die priori-Verteilungeine Normalverteilung zu wählen; wir bezeichnen den Mittelwert dieser priori-Verteilung mit Mo und die Varianz mit a l . Die posteriori-Verteilung folgt dann ebenfalls einer Normalverteilung; den zu ihr gehörenden Mittelwert notieren wir Mi und die Varianz entsprechend mit a\. Bei dieser Möglichkeit fällt die Beschränkung auf eine einzige Form der prioriVerteilung weg. Es findet lediglich eine Festlegung auf die allgemeine Form der Normalverteilung statt; ihre Lage und ihre Dispersion können jedoch frei durch die Wahl von Mo und a l bestimmt werden. Man spricht in diesem Falle von einer natürlich-konjugierten priori-Verteilung. Eine solche liegt immer dann vor, wenn die priori-Verteilung und die posterioriVerteilung zum gleichen Verteilungstyp gehören — im vorliegenden Fall sind es jeweils Normalverteilungen. Wenn die priori-Verteilung eine Normalverteilung mit dem Mittelwert Mo und der Varianz a l ist und wenn die Stichprobe n Beobachtungen mit dem Mittelwert x hat, dann ist die posteriori-Verteilung eine Normalverteilung mit dem Mittelwert a2Mo + nxüo 2 7 T a0 + n a 0
und der Varianz
af = —;——•^ . a + na0
3.1 Die Untersuchung eines Mittelwertes,CTbekannt
175
Einprägsamer und für die praktische Rechenarbeit günstiger sind folgende Umformungen dieser beiden F o r m e l n : ßi ="
n 0 Mo + nx
wobei
n0
CT
2
01
—2 und oo
n! = n0 + n .
n 0 ist eine hypothetische priori-Stichprobengröße. Es ist ein Maß für die Präzision unseres Vorwissens. Bei sehr kleinem n 0 ist unser Vorwissen vage, für n 0 gegen null nähert sich die priori-Normalverteilung einer Gleichverteilung. Ein großes n 0 wird man dann wählen, wenn man aus ähnlichen Untersuchungen ein erhebliches Wissen mitbringt und auf dieses nicht verzichten will; n 0 gibt an, wie viele Beobachtungen das priori-Wissen wert ist; n j ist die S u m m e aus der hypothetischen Stichprobengröße und der tatsächlichen Stichprobengröße. Das posteriori-Mittel ist ein gewogener Durchschnitt aus priori-Mittel und DatenMittel; die Gewichte sind die hypothetische und die tatsächliche Stichprobengröße. Die posteriori-Verteilung wird wie folgt abgeleitet: In das Bayes-Theorem
p ( ^ | x , CT2)
kannte Likelihood
P(M)
A
a2)
1 ß-ßo\ 2\ I
exp
p(ju|x, CT2) « e x p
1 21m
«
p(ju)ß(pi|x, CT2) werden die bereits be-
a
I/i-i-HV o/y/n)
exp
und die priori-Verteilung
eingesetzt; man erhält
exp
'
.
n/x-M21 2 U
)
= exp
1
(
-
1 (ß~ßo) T
2
, n(x-ß)2
°0
Durch Ausquadrieren erhält man für den Exponenten Mö 2 Oq
2ßß0 2 Oq
ßl o»
nx^ _ 2 CT
2nx/i 2 CT
[V 2 CT
Hierin sind ß0/ol und n x 2 / ( J 2 konstante Werte; wir können beide mit exp(/io/CTo + n x 2 / a 2 )
herausziehen und weglassen. Bei den vier verbleibenden
Brüchen klammern wir einmal ß2 und einmal 2ß aus:
\a0
ct
/
\cr
ct0
= ß2
ct2 + n o o \
Wir sehen, daß o 2 + nc^ 2
CT CT
2=
und schreiben
— Ol
und
nxCTo + ßQCT2 2
o1
2ß
nxCTo + ß0CT2 a2CT2
3 . E l e m e n t a r e M e t h o d e n der B a y e s - S t a t i s t i k
176 p ( M l x , a 2 ) (da
n+I rr
n + 1
n! (n + l - r ) ! r! ( n - r ) ! (n+1)!
-
r = s + 1
)
(s+l)
Damit setzen wir in den Nenner von (*) ein und erhalten p(En + 1|D?) =
(r+1) w " t '
_
r +
i
r + s+(s + l) r+1 /wn+1 r + 1 +Cs+1) ( - H T 1 - 1 J + S+ 1 \ Wr+ ! p(En+,|D") =
— n + 2+(s+l)
/w
¡-¡n
v
W'r+i
(de Finetti, 1 9 6 4 , S . 144).
\wr+1
Dies ist ein bemerkenswertes Ergebnis. Es zeigt, daß für eine vertauschbare Ereignisfolge immer dann wenn
3.2 Die Untersuchung einer Prozentzahl 1) w " + 1 ungefähr gleich ( r + l ) / ( n + 2 ) ist,
w"+{
ist, die Prädiktiv-Wahrscheinlichkeit
187 gleich
2) weiter n u n d r groß sind, die relative Häufigkeit r/n eine gute Schätzung für die Prädiktiv-Wahrscheinlichkeit ist. Der Ausdruck zeigt j e d o c h auch klar, d a ß die relative Häufigkeit nicht u n t e r allen Umständen eine gute A p p r o x i m a t i o n für die Prädiktiv-Wahrscheinlichkeit ist. Beispiel:
D'Albert-Wahrscheinlichkeiten
Die folgende Argumentation ist uns bereits m e h r f a c h begegnet; sie geht in gewisser Weise auf d'Albert zurück. Ich weiß über das Werfen von Reißnägeln so gut wie gar nichts, meine bisherige Erfahrung ist gleich null. Wenn mir j e m a n d sagt, er hat einen Reißnagel 1 x geworfen, sage ich „ d a h e r " die Wahrscheinlichkeit für einen günstigen Fall ist 1/2 w j = w{ = 1/2; 2 x geworfen, so sind r = 0, 1 , 2 günstige Fälle möglich; ich gebe jeder Möglichkeit die gleiche Chance, also = w? = w22 = 1/3; n x geworfen, so sind r gleiche Chance, also
r = 0 , 1 , 2 , . . . , n günstige Fälle möglich, ich gebe j e d e m
Die „völlige Unwissenheit" wird d a d u r c h expliziert, daß jeder Zahl von möglichen günstigen Fällen gleiches Gewicht gegeben wird. Die Prädiktiv-Wahrscheinlichkeit ist dann p(En+1|D?) = Für das Beispiel mit n = 12 u n d r = 9 ist dann die Wahrscheinlichkeit dafür, daß der 13. Fall ein günstiges Ereignis wird, 10/14 = 0 . 7 1 4 3 . Z u m Vergleich: die relative Häufigkeit ist 9 / 1 2 oder 0 . 7 5 . Die Verwendung von relativen Häufigkeiten zur Schätzung von Prädiktiv-Wahrscheinlichkeiten ist besonders bei kurzen Ereignisfolgen dubios. Im Extremfall bei n = 1 und r = 1 ist die Schätzung durch die relative Häufigkeit 1/1 = 1 unsinnig; wenn ein Reißnagel erst einmal geworfen w u r d e , so schätzen wir die Wahrscheinlichkeit dafür, daß der nächste Wurf zum gleichen Ergebnis führen wird, nicht mit eins. Weitere Extremfälle ergeben sich, wenn bei kurzen Ereig-
3. Elementare Methoden der Bayes-Statistik
188
nisfolgen nur Ereignisse eines Typs beobachtet wurden, also r = n oder r = 0. Hier sind die relativen Häufigkeiten immer eins. Auch wenn die ersten fünf Würfe mit einem Reißnagel alle das Ergebnis „1" brachten, werden wir nicht bereit sein, die Wahrscheinlichkeit, daß im sechsten Wurf auch eine „1" kommt, mit eins anzusetzen. Es gibt auch keine klare Grenze, für die wir sagen können: haben wir weniger als n Beobachtungen, so verwenden wir nicht die relativen Häufigkeiten als Prädiktiv-Wahrscheinlichkeiten, und haben wir mehr als n Beobachtungen, so arbeiten wir direkt mit den relativen Häufigkeiten. Zutreffend ist nur, daß mit zunehmender Erfahrung die relativen Häufigkeiten und damit die Daten ein immer stärkeres Gewicht bekommen. Die „Logik" zur Bestimmung der Prädiktiv-Wahrscheinkeiten bleibt dabei immer die gleiche. Wir können uns nicht zurückhalten, im Zusammenhang mit der Verwendung von relativen Häufigkeiten kurz auf folgende Grundsatzfrage hinzuweisen. Mit aller Entschiedenheit muß man sich gegen die Verwendung von zwei Regeln zur Bestimmung von Wahrscheinlichkeiten — eine für kleine n und eine für große n — aussprechen. Es gibt nur eine Regel und diese gilt für kleine und fiir große n. Noch heftiger muß der Auffassung widersprochen werden, daß für kleine n die Wahrscheinlichkeitstheorie und Statistik gar nicht zuständig seien, sondern nur für große n, für Massenerscheinungen, für beliebig oft wiederholbare Versuche der gleichen Art usw. Diese Auffassung hat der angewandten Wahrscheinlichkeitstheorie und Statistik großen Schaden zugeführt. In Bereichen, in denen Beobachtungen sehr teuer sind oder nur mühsam zu gewinnen sind, führt sie zu dem Scheinargument: „Weil so wenig Beobachtungen vorliegen, kann leider keine Statistik angewandt werden." Richtig ist, daß gerade bei kleinen Stichproben die Wahrscheinlichkeitstheorie wichtig ist; hier benötigt man rationale Methoden zum Umgang mit der vorhandenen Unsicherheit. Bei großen Stichproben ist sowieso schon alles gelaufen, im Grunde kann nicht mehr viel falsch gemacht werden. Das eben angeführte Scheinargument findet man in der Psychologie z.B. im klinischen Bereich. Symptomatisch ist auch, wie lange es dauert, bis sich dort die Einzelfallstatistik durchsetzt. Wir können diese Abschweifung hier jedoch nicht weiter verfolgen.
3.2.2 Bernoulli-Prozeß Wir betrachten wieder eine binäre Ereignisfolge, ersetzen nun aber die Eigenschaft der Vertauschbarkeit durch die Annahme der stochastischen Unabhängigkeit. Man spricht dann von einem Bernoulli-Prozeß: Definition:
Eine Folge von ZV X ! , X 2 . . . ist ein Bernoulli-Prozeß, wenn
(a) die ZV nur die Werte 0 oder 1 annehmen,
3.2 Die Untersuchung einer Prozentzahl
189
(b) die Wahrscheinlichkeiten für den Wert 1 bzw. 0 bei allen ZV gleich sind (c) die Wahrscheinlichkeiten für die Werte der ZV insgesamt stochastisch unabhängig sind. Faßt man die Wahrscheinlichkeiten für die günstigen Fälle als eine physikalische Disposition auf, so schreiben wir meist ir anstelle von w. Wegen der stochastischen Unabhängigkeit ist die Prädiktiv-Wahrscheinlichkeit nun p(E n + 1 |D?) = p ( E n + I ) = i r . Dies ist ein Extremfall: die beobachteten Häufigkeiten haben keinen Einfluß auf die Prädiktiv-Wahrscheinlichkeit. Die stochastische Unabhängigkeit schließt jedes Lernen aus Erfahrung aus. Die mit dem nächsten Ereignis verbundene Unsicherheit ist invariant gegenüber allen denkbaren Daten. Dies scheint nur dann vernünftig, wenn für w überhaupt nur ein einziger Wert in Frage kommt. Dies kann eigentlich nur dann der Fall sein, wenn ich bereits unendlich viele Beobachtungen gemacht habe. Unter der Annahme der stochastischen Unabhängigkeit gibt es kein Induktionsproblem (vgl. de Finetti, 1975, II, S. 208). 3.2.3 Mischungstheorem Nun gibt es aber eine mathematische Beziehung zwischen der Vertauschbarkeit auf der einen Seite und der stochastischen Unabhängigkeit auf der anderen. Diese Beziehung schafft das Mischungstheorem von de Finetti. Es ist eine der wesentlichen Leistungen de Finetti's, diese Beziehung erstmals bewiesen (1931) und ihre Bedeutung erkannt zu haben. Wir schicken eine vereinfachte Formulierung voraus: Wahrscheinlichkeiten für vertauschbare Ereignisse können immer als ein gewogener Durchschnitt, als Mischung, von stochastisch unabhängigen Ereignissen ausgedrückt werden und umgekehrt; weiter: die Gewichte der Mischung können als subjektive priori-Verteilungen für einen unbekannten Parameter oder, formal äquivalent, als Grenzwerte relativer Häufigkeiten unendlich langer und vertauschbarer Ereignisketten interpretiert werden. Wir gehen zunächst auf Wahrscheinlichkeitsmischungen ein, wenden uns danach den Grenzverteilungen zu und können nach diesen Vorbereitungen das Mischungstheorem detailliert formulieren. 3.2.3.1 „Gemischte Wahrscheinlichkeit"
Wenn E ein Ereignis ist und H i , . . . , H n eine Zerlegung — z.B. die Zerlegung eines Hypothesenbereiches —, so ist mit dem Theorem für totale Wahrscheinlichkeiten
190
3. Elementare Methoden der Bayes-Statistik p(E) = .£ p(Hi)p(E|Hi).
Dies ist formal eine lineare Kombination der bedingten Wahrscheinlichkeiten p(E|Hj); die Hypothesenwahrscheinlichkeiten p(Hj) werden als Gewichte aufgefaßt; p(E) ist also der gewogene Durchschnitt der bedingten Wahrscheinlichkeiten. Auf ähnliche Weise werden Wahrscheinlichkeitsverteilungen gewichtet: Wenn f(x|ö i , . . . , 0 m ) e ' n e Wahrscheinlichkeitsverteilung ist, die von den Parametern 0 i , . . . ,0m abhängt, und wenn einem oder mehreren dieser Parameter eine Wahrscheinlichkeitsverteilung zugeordnet wird, so ist die durch diese Verknüpfung entstehende neue Funktion wiederum eine Wahrscheinlichkeitsverteilung und heißt eine gemischte Verteilung. Für gemischte Verteilungen verwenden Johnson und Kotz (1969, Kapitel 8) im Prinzip folgende einprägsame Schreibweise: f 3 = f i £ fs • f 3 ist eine Mischung, die daraus resultiert, daß der Parameter 0 der Verteilung fi mit der Verteilung f 2 gewichtet wird. Ein einfacher Fall ist die Mischung von zwei Binomen: P(x=r) t = a ^ T r i d - T T ) " - ' + < 1 , ( ^ ( 1 mit den Gewichten a i , a 2 = 0
und ai + a 2 = l .
Zur Veranschaulichung stelle man sich zwei Urnen vor, aus denen farbige Kugeln mit Zurücklegen gezogen werden. Die Wahrscheinlichkeit dafür, aus welcher der beiden Urnen jeweils eine Kugel gezogen wird, beträgt at bzw. a 2 ; al und a 2 können subjektive Wahrscheinlichkeiten sein: es werden nur aus einer Urne Kugeln entnommen, ich bin aber nicht sicher, aus welcher; meine subjektive Wahrscheinlichkeit, daß es sich um die erste Urne handelt, ist a , und daß es sich um die zweite Urne handelt, ist a 2 . Ein „objektives" Gepräge erhält die Veranschaulichung (scheinbar), wenn man sich 100 Urnen vorstellt, a x davon sind vom Typ I, a2 davon vom Typ II; oder: vor jedem Zug bestimmt ein a r a 2 -Reißnagel, ob aus der Urne I oder II gezogen wird usw. Die Abb. 3.2.1 zeigt ein numerisches Beispiel. Mischungen dieser Art werden ohne Schwierigkeiten auf eine beliebige endliche Anzahl von Gewichten verallgemeinert, z.B. für Mischungen von Bernoulli-Prozessen p(x=r)=Q j U ^ O - T r O " - '
3.2 Die Untersuchung einer Prozentzahl
0
0 1
0 1
1 2 3 4
5
191
a)
Abb. 3.2.1 a) Binomialverteilung B i ( 1 0 , .2) und
b)
b) Binomialverteilung Bi( 10, .06),
c)
c) mit den Gewichten 0.7 0.3 gemischte Verteilung
6 7 8 9 1 0
2 3 4 5 6 7 8 9
2 3 4 5 6 7 8 9
10
und
10
Wichtiger ist jedoch der Fall einer kontinuierlichen Gewichte-Verteilung, und hier wiederum interessieren wir uns besonders für die Verwendung einer Beta-Verteilung als Gewichtefunktion. In der oben eingeführten Schreibweise für Mischungen haben wir dann kurz Bi(n, 70 /\ Be(a, b ) . Ausführlich erhält man
Mit B(z, y) = / t 2 ~ 1 (1 - t ) y - 1 dt = r ( r ! , ) r ( y ? führt dies zu
o
P(x
T)
=
r(z+y)
/n\ r(a+b) Ur(a)r(b)
r(a+r)r(n-r+b) r(r+a+n—r+b)
192
3. Elementare Methoden der Bayes-Statistik
und für ausschließlich ganzzahlige Werte ist unter Beachtung von T ( x ) = ( x — 1 ) ! p(x=r)
/ri\ ( a + b — l ) ! ( r + a — l ) ! ( n — r + b — 1 ) ! = L \TJ (a+n+b-1)!
(fehlerhaft bei Johnson u. K o t z , 1969, S. 79, ( 7 9 ) ) oder auch äquivalent /n\ a ( a + 1 ) ( a + 2 ) . . . ( a + r - 1 ) b ( b + l ) ( b + 2 ) . .
.(b+n-r-1)
(a+b) ( a + b + 1 ) . .. (a+b + n - 1 ) (in dieser F o r m z.B. Johnson u. K o t z , 1969, S. 230, ( 3 1 ) mit s = 1). Diese Verteilung wurde erstmals von Eggenberger und Pölya ( 1 9 2 3 ) untersucht. Verteilungen dieser A r t ergeben sich bei Pölya-Urnen (vgl. Abschnitt 2.4, S. 123). Die A b b . 3.2.2 zeigt die Gewichte-Funktionen B e ( 2 , 2 ) und B e ( 4 , 8 ) sowie die durch diese Verteilungen gemischten Binome. Die einzelnen Werte können ohne Schwierigkeiten mit einem guten Taschenrechner bestimmt werden. Die Wahrscheinlichkeiten, die durch einen Bernoulli-Prozeß bestimmt
werden,
sind stochastisch unabhängig. Die durch die Mischung zustandegekommene Wahrscheinlichkeiten sind nicht stochastisch unabhängig; sie sind vertauschbar. Daß die gemischten Wahrscheinlichkeiten nicht unabhängig sind, soll kurz an einem Beispiel gezeigt werden. Wir untersuchen die Konjunktionswahrscheinlichkeiten einer Bernoulli-Beta-Mischung. Für r = n = 1 ist , p p c
_
n
_
,
l )
(a+b—1)!
a!(b-l)!
(a-l)!(b—1)!
(a+b)!
_a_ a+b
'
für r = n = 2 p(x = 2) = 1
(a+b—l)!(2+a—l)!(b—1)! (a—l)!(b—l)!(a+b + 2 - l ) !
Be(2,2)
0.0
.2
.4
.6
Abb. 3.2.2 Die Beta-Verteilungen Be(4,8) und Be(2,2), die zur Mischung von BernoulliProzessen verwendet werden
3.2 Die U n t e r s u c h u n g einer Prozentzahl
193
a)
b) Abb. 3.2.3 Mit Beta-Verteilungen gemischte Wahrscheinlichkeitsverteilungen a) mit B e ( 2 , 2 ) und b) mit B e ( 4 , 8 ) gewichtet
O l
2
3
4
5
6
7
8
9
10
(a+b) (a+b+1)
=
p ( x = 1 )
a(a+l) P(X = 2)
=
(a+1)
,
(I^TTT
usw. Die Wahrscheinlichkeit für zwei günstige Fälle u n t e r zwei Versuchen ist nicht gleich der Wahrscheinlichkeit für einen günstigen Fall bei einem Versuch z u m Quad r a t . Die Produktregel gilt nicht u n d damit sind die Ereignisse nicht stochastisch unabhängig. Selbstverständlich liegt Vertauschbarkeit vor. Die Wahrscheinlichkeit für einen günstigen Fall ist an allen Positionen gleich, e b e n s o die für zwei, drei . . . 3.2.3.2 Grenzverteilungen
Wir k n ü p f e n mit unserer A r g u m e n t a t i o n beim schwachen Gesetz der großen Zahl — speziell bei der Bernoulli-Version — an: Wenn X , , . . . , X n eine Bernoullische Ereignisfolge ist, dann nähert sich die Wahrscheinlichkeitsverteilung der relativen Häufigkeit r n / n bei wachsender Folgenlänge n m e h r u n d m e h r der degenerierten Verteilung De(7r); Die Verteilung k o n z e n t r i e r t sich immer stärker u m den Wert der Grundwahrscheinlichkeit n (vgl. Abschnitt 2.6, S. 162). Wenn X , , . . . , X n j e d o c h „ n u r " eine vertauschbare Ereignisfolge ist, so k o n z e n triert sich mit w a c h s e n d e m n die Verteilung nicht m e h r n u r um einen einzigen P u n k t , sondern u m 2,3, . . . o d e r — im kontinuierlichen Fall — u m eine u n e n d l i c h e Zahl von P u n k t e n .
3. Elementare Methoden der Bayes-Statistik
194
Beispiel: Wir erzeugen eine vertauschbare Ereignisfolge durch die Mischung zweier Bernoulli-Prozesse mit den Grundwahrscheinlichkeiten und n2. Die Wahrscheinlichkeitsverteilung für die relative Häufigkeit r n / n ergibt sich aus der gewichteten S u m m e der beiden einzelnen Binomial-Verteilungen p ( r n I n = x ) = ( " ) [ « * [ ( 1 - J r . ) " " : ' + (1
1-1T2T " ' ] , r = 0, 1 , . . . , n .
Man erhält zunächst eine zweigipflige diskrete Verteilung; mit wachsendem n läßt sich die Verteilung durch die „ S u m m e " zweier Normalverteilungen approximieren. Die Varianz u m die beiden Zentren wird immer kleiner u n d mit n -*• 0 0 strebt die Grenzverteilung gegen zwei „ S p i k e s " über den Punkten 77, und n 2 . Bei einer Mischung aus m Bernoulli-Prozessen erhält man eine Verteilung mit m Konzentrationspunkten. Grenzverteilungen sind eine wesentliche K o m p o n e n t e im Mischungstheorem. Es ist j e d o c h günstiger, nicht die Wahrscheinlichkeitsverteilung, sondern die k u m u lative Verteilungsfunktion zu betrachten, also Fn(x) = p(rn/n^x)
und nicht
fn(x) = p(rn/n = x).
Für eine endliche Zahl von m Bernoulli-Prozessen mit den Grundwahrscheinlichkeiten 7T,,. . . , 7Tm , die zu einer vertauschbaren Sequenz gemischt w e r d e n , entsteht nun als Grenzverteilung eine T r e p p e n f u n k t i o n mit m Absätzen. Es spielt nun aber keine Rolle, ob über bestimmte Intervalle von 77 nur eine endliche Zahl von Werten verstreut ist und über andere unendlich viele Werte vorhanden sind etc. Alle Fälle lassen sich mit der kumulativen Verteilungsfunktion einheitlich behandeln. Bisher wurde mehr oder weniger intuitiv vorausgesetzt, daß für jede vertauschbare Ereignisfolge eine Grenzverteilung F ( x ) = lim
n—>00
F„(x)
existiert. Dies ist keine Selbstverständlichkeit, kann aber leicht gezeigt w e r d e n . Da eine kumulative Verteilungsfunktion m o n o t o n wachsend ist (vgl. Abschnitt 2.5, S. 132), ist per definitionem F n ( 7 r - e ) ^ F n (7T)^ F n ( 7 r + e )
0— 2)
Median etwa Beispiel:
2/3)
für v = 2, sonst nicht definiert für
sonst komplizierter .
Die Stichprobenverteilung für die Varianz s 2 = -pp E(xi~/j)2
ist für fixes
(unter der Nullhypothese H 0 spezifiziertes) a l
Für eine große Zahl der Freiheitsgrade läßt sich die Standard-Chi-Quadrat-Verteilung durch eine Standard-Normalverteilung approximieren: V2w
-
y/2v-\
60
Abb. 4.1.4
~ N(0,1) .
100
140
180
220
260
300
4.1 Die Untersuchung einer Streuung, ß bekannt
245
Jackson-Formeln zur Bestimmung von HPD-Intervallen: X. Xunten = X o - d
und
Xoben = Xo + d •
Das HPD-Intervall hat die Länge 2d, und Xo ¡ s t s e i n Mittelpunkt. Angenommen, wir wissen vor einer Untersuchung über die Streuung a sehr wenig und wählen eine nicht-informative priori-Verteilung für log a. Nun erheben wir Meßwerte und berechnen in einer Stichprobe eine Streuung von ungefähr s = 10. Die Abb. 4.1b zeigt dazu vier posteriori-Verteilungen, und zwar für die vier Stichprobengrößen von n = 5, 10, 50 und 100. Je größer die Stichprobe, um so informativer die posteriori-Verteilung und um so enger die Grenzen für den Bereich der wahren Streuung. Wir überlegen uns dies genauer. Wir beobachten eine Stichprobe mit n = 5 und einer Streuung von s = 10.95; als posteriori-Verteilung erhalten wir für a eine inverse x~ '-Verteilung mit v = 5 und dem Skalierungsfaktor y / \ = s y/n = 24.48; der Modus dieser Verteilung ist: Modus Angenommen, wir vergrößern den Stichprobenumfang auf 10 Beobachtungen und finden nun eine Streuung von s = 10.48. Es resultiert für o eine posteriori-Verteilung mit v = 10 und dem Skalierungsfaktor sfk = 10.48 \ / T Ö = 33.2. Wieder ist der Modus: Modus Vergrößern wir die Stichprobe nochmals auf n = 50 und erhalten wir hier eine Streuung von s = 10.1, so ist der Skalierungsfaktor 71.4; bei n = 100 schließlich und einer Streuung von 10.05 erhalten wir den Skalierungsfaktor 100.5. Für die beiden letzten Stichprobengrößen liegt der Modus wieder bei 10. Die Streuungen s = 10.95,10.48, 10.1 und 10.05 wurden in der Tat so ausgewählt, daß der Modus der zugehörigen posteriori-Verteilungen 10 ist und so zum besseren Vergleich konstant gehalten wird. Dazu wurde die Formel für den Skalierungsfaktor nach s aufgelöst: Modus =
ns ; s = Modus n +1
Die '-Verteilungen sind rechtsschief, besonders für kleine v. Mit wachsendem v werden sie mehr und mehr symmetrisch. Daher liegt auch der Modus nicht genau über dem Wert a = s. Ebenso ist der Mittelwert der posteriori-Verteilung nicht mit s identisch. Der Modus der posteriori-Verteilung ist immer um den Faktor
4. Der Einstichprobenfall
246
kleiner als die tatsächlich beobachtete Streuung. Bei großen Stichproben ist der Faktor praktisch gleich 1. Die Abb. 4.1.1 zeigt „fast" korrespondierende Verteilungen für die Varianz. Die Verteilungen korrespondieren nur fast, da wieder der Modus konstant gehalten wurde; er ist nun 100. Der Modus der inversen Chi-Quadrat-Verteilung ist ^ ^
;
nun haben wir v + 2 im Nenner und nicht v + 1 wie bei der inversen Chi-Verteilung. Soll eine x~ 2 -Verteilung mit v = 5 den Modus 100 haben, so muß s 2 den Wert Modus =
n+2
s 2 = Modus
11
140= 11.83 2
haben. Der Skalierungsfaktor ist ns 2 = 100(^+2) = 700. Entsprechend erhält man für v = 10, 50 bzw. 100 die Werte 1200, 5200 bzw. 10 200 und s 2 = 120, 104 bzw. 101 und s = 10.95, 10.2 bzw. 10.05. Die Abb. 4.1.3 zeigt schließlich die Beziehungen für den Logarithmus der Streuung CT und die Verteilung log x _ 1 {y, log\/X)- Die x-Achse ist daher im logarithmischen Maßstab abgetragen. Darunter stehen zum Vergleich die d-Werte in originaler Metrik. Die vier Verteilungen entsprechen genau den inversen x - 'Verteilungen der Abb. 4.1.2; es handelt sich um die direkten Transformationen; die Modi unterscheiden sich daher geringfügig, bei einer graphischen Darstellung sind diese Unterschiede jedoch nicht erkennbar. Die Werte für die Skalierungsfaktoren sind log \ f k = log s\/n^, also log 24.5, log 33.2, log 71.4 und log 100.5; dies sind die Werte 3.2, 3.5, 4.3 und 4.6. Die Abb. 4.1.4 zeigt Chi-Quadrat-Verteilungen mit dem Modus 100. Zwischen den Verteilungstypen der Chi-Quadrat-Gruppe bestehen enge Beziehungen. Wichtig sind die Beziehungen zwischen den Flächenstücken unter den Verteilungen. Sie erlauben es, Flächenanteile und Prozentpunkte der verschiedenen Verteilungen hin- und herzurechnen. Die Tab. 4.1 zeigt einige wichtige Gleichheitsbeziehungen. Für die Tabellierung der Flächen- oder Prozentpunkte bedeutet dies, daß man nur einen Verteilungstyp zu tabellieren braucht. Tab. 4 gibt die Prozentpunkte für v = 1(1)100 Freiheitsgrade für die Prozente 1(1)100 zur standardisierten inversen Chi-Verteilung. Für eine größere Zahl von Freiheitsgraden können die Prozentpunkte mit Hilfe der Normalverteilung approximiert werden. Auf einigen statistisch ausgerichteten Taschenrechnern ist eine Routine zur Berechnung von Flächenstücken unter der Chi-Quadrat-Verteilung verfügbar. Mit
4.1 Die Untersuchung einer Streuung, ß bekannt
247
Tabelle 4.1 Beziehungen zwischen den Flächenanteilen unter der inversen Chi-Quadrat-Verteilung, der inversen Chi-Verteilung, der logarithmischen inversen Chi-Verteilung und der ChiQuadrat-Verteilung x/X
X
/
0
x " V , X )
=
x~2(",
/
0
i)
\/x~
= / o
>J x / X
X"1(^\/X)=
/ o
X~V, D
log\/x =
/
logv/x/X log X "
0
(", log>A^) = /
1/x =
i - /
X/x x
0
logx~>,0)
0
2
c .
i/X)
=
i -
/
0
x V ,
i) •
Beispiel: 177.96
/
0
.1483
X"2(10,
1200) = /
X"2(I0,1)
0 13.34
=
/
.3451
X"1 (10,34.64)
0
= /
X
0
2.591
=
/
- 1
( 10,3.545)
= /
log x " ' ( 1 0 , 0 )
0
.0056
=
1 - /
=
.75
0
O0,l)
-.954
log x
0
- 1
6.743
x2C 1 0 , 1 / 1 2 0 0 )
=
1 -
/
0
X2d0,l)
Hilfe der Umrechnungsformel läßt sich diese Routine auch für die anderen Verteilungstypen einsetzen. Grundsätzlich anders ist die Situation bei den HPD-Intervallen. Alle Verteilungstypen der Chi-Quadrat-Gruppe sind nicht symmetrisch; die Bestimmung der HPDIntervalle wird am besten mit Hilfe der Jackson-Formeln vorgenommen (vgl. Abschnitt 3.2, 203). Die Formeln sind bei der zusammenfassenden Beschreibung der Verteilungen zu finden. HPD-Intervalle hängen per definitionem von der Verteilungsdichte ab. Dies hat zur Folge, daß die Grenzen eines HPD-Intervalles nicht einfach umgerechnet werden können wie die Prozentpunkte. Für die Grenzen der HPD-Intervalle dürfen die Regeln der Tab. 4.1 nicht verwendet werden. Im Anhang befinden sich Tabellen für folgende Intervalle: (a) x _ 1 -Werte;
dies sind die Grenzen von HPD-Intervallen auf standardisierten inversen Chi-Verteilungen.
248
4. Der Einstichprobenfall
(b) x" 1 -Werte; diese Werte waren ursprünglich die Grenzen von HPD-Intervallen von logarithmischen inversen Chi-Verteilungen; sie wurden dann exponiert, damit dem Benutzer die Umrechenarbeit erspart bleibt. (c) x 2 -Werte;
diese Werte waren ursprünglich die Grenzen von HPD-Intervallen von logarithmischen inversen Chi-Verteilungen; sie wurden exponiert, quadriert und invertiert. Diese Werte sollten im StandardAnsatz für unverzerrte zweiseitige Tests verwendet werden!
(d) x - W e r t e ;
dies sind die Grenzen von HPD-Intervallen auf standardisierten inversen Chi-Quadrat-Verteilungen.
Standardisierte
HPD-Intervalle
Die HPD-Intervalle hängen von der gewählten Metrik ab; sie sind nicht invariant gegenüber Übergängen von a zu a2 oder log a. Von Box und Tiao stammt der Vorschlag, standardisierte HPD-Intervalle zu verwenden. Ein HPD-Intervall ist standardisiert, wenn es auf der Metrik der datengetreuen Likelihoodfunktion beruht. Im vorliegenden Fall also, wenn es auf der log a-Metrik beruht. Daher werden zur Bestimmung standardisierter HPD-Intervalle am besten die Werte der Spalte (b) der Tab. 5 verwendet. Selbstverständlich sind auch im Standard-Ansatz Konfidenzintervalle gegenüber der Metrik nicht invariant. Uns ist allerdings keine Stelle bekannt, an der diese Frage diskutiert wird. Anmerkung
zum
Standard-Ansatz
Im Standard-Ansatz werden die üblichen Chi-Quadrat-Tabellen verwendet. Bei zweiseitigen Signifikanztest ist dies jedoch nicht richtig. Die so durchgeführten Signifikanztests sind verzerrt (biased) und das verletzt ein wichtiges Kriterium des Standard-Ansatzes. Richtig sind Tabellen, die auf der logarithmischen inversen Chi-Verteilung beruhen und dort HPD-Intervalle definieren. Die richtigen Werte sind in der Tab. 5 in der Spalte (c) angegeben. Daß die üblicherweise verwendeten Werte falsch sind ist seit Ramachandran (1958) bekannt. Der Anhänger des Standard-Ansatzes sollte — wenigstens — die Tabellen der Bayesianer verwenden (vgl. ausführlicher Kleiter 1979). Beispiel In einer Untersuchung zur Genauigkeit eines Meßinstrumentes wird von einer nicht-informativen priori-Verteilung ausgegangen. Es wird angenommen, daß der Mittelwert bekannt ist. Es werden n = 20 Beobachtungen angestellt, die Streuung beträgt s = 10. Die posteriori-Verteilung für die Streuung a ist eine inverse Chi-Verteilung mit 20 Freiheitsgraden und dem Skalierungsfaktor s\ZiT= 1 0 \ / 2 0 = 44.7213, a|s,ju ~ x " ' (20,44.7213) .
4.1 Die Untersuchung einer Streuung, ß bekannt
249
Man kann 90% sicher sein, daß der wahre Wert der Streuung im Intervall (7.8575, 13.3270) liegt. Zur Bestimmung des Intervalls gehen wir von den Werten in der Tab. 5 Spalte (b) aus, also von den Grenzen für standardisierte HPD-Intervalle, die auf der logarithmischen Metrik beruhen. Dort finden wir unter 90% und v = 20 die Werte .1757 und .2980. Werden diese Werte mit dem Skalierungsfaktor multipliziert, erhält man das gesuchte Ergebnis, also 44.7213 .1757 = 7.8575 und 44.7213 .2980 = 13.3270 . Entsprechend erhält man für die Grenzen des 95%-HPD-Intervalles 4 4 . 7 2 1 4 . 1 6 8 5 = 7 . 5 3 5 5 und 4 4 . 7 2 1 4 . 3 1 6 9 = 14.1722 und für die Grenzen des 99%-Intervalles 44.7214 .1558 = 6.9676 und 44.7214 .3597 = 16.0863 . Die Wahrscheinlichkeit, daß die Streuung kleiner als 12 ist, beträgt .83. Zur Bestimmung dieser Wahrscheinlichkeit transformieren wir a = 12 =
7x
=
44/72T4 =
2683
und suchen in der Tab. 4 für die Prozentpunkte der standardisierten inversen Chi-Verteilung den Wert, der bei 20 Freiheitsgraden möglichst nahe bei .2683 liegt. Wir finden unter 20 df und p = 0.83 den Wert .2672, der für die Genauigkeit genügen soll.
Abb. 4.1.5 Die posteriori-Verteilungx"' ( 2 0 , 4 4 . 7 2 1 3 ) mit den HPD-Intervallen 90%: ( 7 . 8 5 7 5 , 1 3 . 3 2 7 0 7 ) , 95%: ( 7 . 5 3 5 5 , 1 4 . 1 7 2 2 ) und 99%: ( 6 . 9 6 7 6 , 1 6 . 0 8 6 3 ) ; die Intervallgrenzen haben auf einer logarithmischen inversen Chi-Verteilung gleiche Ordinaten.
250
4. Der Einstichprobenfall
Mit Hilfe eines statistischen Taschenrechners kann man auf Chi-Quadrat umrechnen, und zwar ist X2 = .2683
= 13.8889.
Auf einer Chi-Quadrat-Verteilung mit 20 df liegen auf der linken Seite von 13.8889 16.39% der Verteilung; für das endgültige Ergebnis muß dieser Wert von 1 abgezogen werden, so daß wir den genaueren Wert 1 — .1639 = .8361 erhalten. 4.1.4.3 Natürlich-konjugierte priori-Verteilung Wir haben nun ausführlich den Fall besprochen, in dem wir über die unbekannte Varianz nur wenig wissen und daher für die priori-Verteilung eine nicht-informative Ausgangsverteilung wählen. Wir wenden uns nun der Situation zu, in der wir zu Beginn einer Untersuchung über a 2 mehr wissen und dieses Wissen in einer informativen priori-Verteilung zum Ausdruck bringen wollen. Wir schränken uns wieder auf einen Verteilungstyp für die priori-Verteilung ein; er soll leicht zu handhaben und trotzdem flexibel genug sein, eine Vielzahl von Möglichkeiten zum Ausdruck bringen zu können. Wie sich leicht zeigen läßt, führt eine inverse Chi-Verteilung über o in Kombination mit der Likelihood-Funktion zu einer posteriori-Verteilung, die ebenfalls eine inverse Chi-Verteilung ist. Priori- und posteriori-Verteilung gehören dem gleichen Verteilungstyp an; es handelt sich um eine natürlich-konjugierte prioriVerteilung. Für die priori-Verteilung schreiben wir o ~ x '^o.NAO) , d.h. p ( a ) oc
(v
ct-
°
+ i)
e x p - ^ .
Oben wurde gezeigt, daß die Likelihood-Funktion durch ß(a|M,s) cc /iv-i = 3.2037 8.544 = 3.7117. Diesen Wert verbessern wir nun so lange, bis eine gewünschte Genauigkeit erreicht ist. Wir verwenden dazu das Newton'sche Verfahren. Wenn die letzte Schätzung für den gesuchten Wert x. j war, so ergibt sich die laufende Schätzung durch
Xi
"'
f(x.) f'(Xi) •
Hierbei ist f(x.) der Funktionswert an der Stelle x. und f'(x.) die erste Ableitung der Funktion an der Stelle x.. f ( x 0 = - ( n + l)log ffi -
[ns 2 +n(/i—x) 2 ] - D
und die erste Ableitung f ' O ^ - n J T
+ ^
[ns2+n(M-x)2]
4.2 Einstichprobenfall, ¡j. und a unbekannt
257
Die nächsten Punkte wollen wir so bestimmen, daß sie auf einer Gerade liegen, die durch den Modus A geht und eine bestimmte Steigung hat. Wir gehen von dem Winkel y aus, den die Linien AD und AF bilden (vgl. Abb. 4.2.2). Der Schnittpunkt der Gerade AF mit der Kontur ergibt sich, wenn = y CT - cr Modus • Daraus erhalten wir ß-x=
tg7(a-(JModus) .
Die rechte Seite setzten wir in f(cr) und f'(CTj) ein; wir erhalten _ (tg7) 2 (^i-OModus) n!r f(a 1 ) = - ( n + l ) l o g a i - - ^ 2o?
~
-D
und (nach einer kurzen Umformung) N
(n+1)
n
(tgr)2
ff
Modus
ns 2 +n(tg7) 2 CT^, o d u s
Die Koordinaten für /¿ 12 erhalten wir schließlich aus Ml,2 = X ± tgTi^a-OModus) , wobei , 0,
v)
mit der Dichtefunktion ~ -n/2 P(tw =
k
mit k =
V
1
»ifi
Die Abb. 4.2.4 zeigt standardisierte t-Verteilungen für verschiedene Freiheitsgrade. t-Verteilungen sind wie Normalverteilungen eingipfelig und symmetrisch, Mittelwert, Median und Modus fallen zusammen. Für v -* °° geht die t-Verteilung in eine Normalverteilung über. Standardisierte t-Verteilungen mit wenigen Freiheitsgraden sind deutlich flacher als die Standardnormalverteilung; sie liegen an den linken und rechten Ausläufern höher und in der Mitte tiefer. Die Varianz der t-Verteilung ist Var(y) = f ^
bzw.
Var(t)=^
für die nicht-standardisierte und die standardisierte Form.
Abb. 4 . 2 . 4 Standardisierte t-Verteilungen für 3, 5, 10 und 20 Freiheitsgrade sowie die standardisierte Normalverteilung; in der Mitte liegt die Normalverteilung über den t-Verteilungen, an den Rändern sind die t-Verteilungen flacher und liegen über der Normalverteilung.
262
4. Der Einstichprobenfall
Die Tab. 3 enthält Prozentpunkte für v = 1, 2 , . . . , 100 und für p = .01, .02, .99. Bei mehr als 100 Freiheitsgraden kann die t-Verteilung schon sehr gut durch eine Normalverteilung approximiert werden. Die Prozentpunkte der Tab. 3 wurden mit folgender Comish-Fisher-Formel VP
z +
z3 + z 4„
5z 2 + 16z 3 + 3z + 96„2
3z 7 + 19z 5 + 1 7 z 3 - 15z 384i,3
79z 9 + 776z 7 + 1482z 5 - 1920z 3 - 945z 92 160f 4 2 7 z " + 339z 9 + 9 3 0 z 7 - 1782z 5 - 765z 3 + 17 955z 368 6 4 0 f s errechnet. In diesem Ausdruck ist t^p der Prozentpunkt, auf dessen linker Seite 100 x p % der Verteilung liegen, und z der Prozentpunkt auf der Standardnormalverteilung. In den meisten Fällen genügt die Approximation mit Hilfe der ersten vier Summen. Die Cornish-Fisher-Approximation kann dann ohne Schwierigkeiten auf einem statistischen Taschenrechner bestimmt werden. Die Genauigkeit der Approximation wurde von Sahai und Thompson (1974) untersucht. Wir halten fest: Wenn (1) ein Gauß-Prozeß mit den unbekannten Parametern ß und a 2 vorliegt, (2) die (2-dimensionale) priori-Verteilung für (ju, a) nicht-informativ ist, und (3) eine Stichprobe mit n Beobachtungen Xi, x 2 , . . . , x„ mit dem Mittelwert x = ^ - 2 x j und der Varianz s 2 =
(xj-x)2
erhoben wurde, dann ist die posteriori-Verteilung für /¿eine t-Verteilungmit dem Mittelwert x , dem Skalierungsfaktor s 2 und (n—1) Freiheitsgraden: p(ju|x,s 2 ) ~ t ( n — l , x , s 2 ) . Beispiel: Die Kennwerte für die Unterschichtkinder der Wimmer-Untersuchung waren n = 74, x = 16.081, s 2 = 10.2639 (s = 3.2037). Die posteriori-Verteilung für den Mittelwert ist daher t(73, 16.081, 10.2639). Es soll ein 95 %-HPD-Intervall bestimmt werden. Wir benötigen die beiden t-Werte t! und t 2 , die auf einer standardisierten t-Verteilung mit 73 Freiheitsgraden jeweils 5% an den beiden Ausläufern abschneiden. Mit der Tab. 3 finden wir bei v = 11 und p = .95 einen t-Wert von 1.6660; dies ist der Wert für t 2 . Wegen der Symmetrie der t-Verteilung ist 11 = - 1 . 6 6 6 0 .
263
4.2 Einstichprobenfall, ß und a unbekannt
Nun rechnen wir von der standardisierten t-Verteilung auf die allgemeine Form um. Dazu verwenden wir die Formel yi,2 = x +1 1>2 y^T und erhalten xi=x + ta / ^ = 16.081 - 1.666 yn-1
1 Q
^3 73
9
x2 = x + t
1 0
^3 73
9
Vn-1
= 16-081 + 1-666
Das 95%-HPD-Intervall ist (15.334, (15.089, 17.073).
und .
16.828) und das 99%-HPD-Intervall ist
Beim gleichen Beispiel erhielten wir folgende Intervalle (a wird als bekannt angenommen und mit a = 4 festgelegt): 95%-HPD-Intervall = (15.17, 16.99) und 99%-HPD-Intervall = (14.88, 17.28). Hier tritt der Fall ein, daß die posterioriVerteilung bei unbekannter Varianz enger ist als die posteriori-Verteilung bei bekannter Varianz. Dies liegt jedoch einfach daran, daß wir mit a2 = 16 eine größere Varianz als bekannt voraussetzten als dies — vielleicht — tatsächlich der Fall ist; die Stichprobenvarianz ist mit 10.2639 deutlich kleiner als dieser Wert. Diese Frage werden wir klarer beantworten können, wenn wir die Randverteilung für die Streuung bestimmt haben. Die Randverteilung für die Streuung a Wir kennen bereits die Verteilungen p(ju|a, x) und p(fu, a | x ) und suchen nun p ( o | x ) . Aufgrund der Definition für bedingte Wahrscheinlichkeiten gilt p(ß\a, X) =
p(alx)
bzw. durch Umformung
P(CT|X)
p(ß, p | x ) p(ju|a, x)
Durch Einsetzen der oben abgeleiteten Ausdrücke in diese Gleichung erhält man (Abschnitt 4.2.3.1 und 3.1) k ! o~ p(o|x) =
(n+,)
k2a
expj-^[ns2+n(M-x)2]} 1
exp
Kürzt man die beiden Ausdrücke, so erhält man die inverse Chi-Verteilung p(ff|x) ) •
Es wird eine Stichprobe mit n D a t e n , d e m Mittelwert x und der Streuung s b e o b achtet. Die posteriori-Verteilung ist eine Gamma-Normalverteilung: p(ju, a | x , s ) = N x - 1 ( f j , VX7, T 7 i , i i ) • Wir behandeln den Sonderfall, d a ß nur die nächste Beobachtung vorhergesagt werden soll, m = 1. Die Modell-Wahrscheinlichkeit ist dann p ( y | M , a 2 ) = N(/x, o 2 ) , und die gemeinsame Verteilung für Daten u n d Parameter ist p(y,/u,(7|x,s) = N x - ' O ^ V ^ T h . j Q O N ^ C T 2 ) = kffi|xi,si)
a
ß ( P 2 , a 2 | x 2 , s 2 ) oc
Oi""1 e x p i - ^ 5 t n i + n i ( M i — x i ) 2 ] 1 n
CT-
2expj__i_
[n 2 s 2 +n 2 (/i2—x 2 ) 2 ]J .
Da die beiden datengenerierenden Prozesse unabhängig sind, ist die gemeinsame Likelihood-Funktion das Produkt dieser beiden Likelihood-Funktionen:
5.2 Elementare Verteilungen für den Zweistichproben-Fall a 1 , C T 2 | x 1 , x 2 , s 1 , s 2 ) oc or-n. a~n2 e x p
297
j_-J^
[n! s?+n! ( / i , - x , ) 2 ]
[n2S2+n2(/i2-x2)2]} . Wenn wir annehmen, daß die beiden Streuungen gleich sind, vereinfacht sich dieser Ausdruck: Gleiche Streuungen
ox = cr2 = a :
ß ( M 1 , M 2 , a | x 1 , x 2 , s ) oc o - ^ ^ ' e x p ^
[(n1+n2)s2+nl0il-xx)2 +n2(;u2-x2)2]) .
n,s2 + n2s2 Hier ist s das gewogene Mittel der beiden Stichprobenvarianzen: s = — n ] + n 2 — 2
und (n! +n 2 )s 2 ist einfach die Summe der Abweichungsquadrate aus beiden Stichproben zusammen: ¿(Xj-X,)2 + "¿(Xj-x2)2 • i=l j=l Wir wissen, daß bei gegebenem o die Likelihood-Funktion für jeweils einen Mittelwert eine Normalverteilung ist: £ ( j u k | o k , x k ) ~ N ( x k , a k / n k ) ,k = 1, 2 . Wegen der Unabhängigkeit der beiden Gauß-Prozesse ist daher ihre gemeinsame Likelihood-Funktion das Produkt der beiden Normalverteilungen: 2)
~ N(X], a 2 / n ! ) N ( x 2 , a 2 / n 2 ) .
Wenn die beiden Streuungen gleich sind, erhalten wir ß ( M i , M 2 k , x 1 , x 2 ) oc a " 2 e x p | - ^ - 2 [ n 1 ( M 1 - x 1 ) 2 + n 2 ( M 2 - x 2 ) 2 ] j . Dieser Ausdruck ist der Kern einer bivariaten Normalverteilung. Es läßt sich zeigen, daß die Likelihood-Funktion für die Mittelwertsdifferenz ß 2 — ßi ebenfalls eine Normal Verteilung ist; sie hat den Mittelwert x 2 - Xi und die Varianz a 2 ( l / n , + l/n2) X2-X1) ~ N [ x 2 - x , , a 2 ( l / n 1 + l/n 2 )] . Dieses Ergebnis folgt aus der Tatsache, daß die Summe (und damit auch die Differenz) unabhängig normalverteilter ZV wiederum normalverteilt ist; die Varianz der resultierenden Normalverteilung ist die Summe der Einzel Varianzen. Damit haben wir die wesentlichen Likelihood-Funktionen kennengelernt, die beim Zweistichproben-Fall vorkommen, und wir wenden uns den priori-Verteilungen zu.
298
5. Der Zweistichproben-Fall
5.2.3 Nicht-informative priori-Verteilungen Wir gehen zunächst von folgenden vier nicht-informativen priori-Verteilungen P(Mi) a c , p(M 2 ) 1 •
b) Alles-oder-nichtsHypothese
Beide Bedingungen unterscheiden sich durchschnittlich höchstens um einen Durchgang: - 1 = Mex-MKO = 1 •
c) ?
Die Kontrollbedingung ist um mehr als einen Durchgang schlechter als die Experimentalbedingung: MEx — Mko < — 1 •
Für den statistischen Parameterbereich c) ist uns keine ernsthafte Sachhypothese bekannt. Bei der Erstellung einer informativen priori-Verteilung könnte dieser Umstand entsprechend berücksichtigt werden. Wie man anhand der Abb. 5.3 erkennt, favorisieren die Daten den Parameterbereich, der zur Alles-oder-nichtsHypothese gehört.
5.3.2 Die Randverteilungen für
, p2
ur
>d o
Wir betrachten nun drei einfache Randverteilungen zu der gemeinsamen posterioriVerteilung p(Mi, ß i , o\Daten); dies sind die Randverteilungen für die beiden Mittelwerte und für die Streuung. Analog zu 4.2, S. 263 ist p ( a | Daten)
_p(ßi,ß2,
o\Daten) Daten)
eine Umformung des Theorems für bedingte Wahrscheinlichkeiten. Der Nenner ist das Produkt zweier Normalverteilungen , ju 2 |a, Daten) = p O i l » , Daten) p(ß2\°,
Daten) = N ( x j , a 2 / n 0 N ( x 2 , a 2 / n 2 )
Ausgeschrieben erhalten wir damit i ) e x p { _ . _ L [ ( n 1 + n 2 ) s 2 + n 1 ( / i 1 —X!) 2 +n 2 (M2—X2) 2 ]} 2o ° 1 ^ [ - ^ . - x i ) 2 ] ^ [ " ^ ( ^ - X j ) 2 ]
a-(n1+n2 +
p O I D a t e n ) oc —
exp
(n!+n2)s 2a 2
= X"1 [ n ! + n 2 — 2 , ( n ! + n 2 ) s 2 ] .
5.3 Annahme der Varianzhomogenität
307
Damit ist die Randverteilung für die Streuung p(a|s) = x _ 1 [ n i + n 2 - 2 , sVnT+n^]. Die Freiheitsgrade n! + n 2 — 2 (und nicht z.B. n(+n 2 —1) resultieren daraus, daß jetzt nicht nur wie beim Einstichprobenfall ein Mittelwert unbekannt ist, sondern zwei; daher stehen nun zwei Normalverteilungen mit den Faktoren a" 1 im Nenner. Die Zahl der Freiheitsgrade ergibt sich also allgemein aus der Zahl der Beobachtungen minus der Zahl der unbekannten Mittelwerte. Wegen der stochastischen Unabhängigkeit kann die gemeinsame posteriori-Verteilung als Produkt von drei Verteilungen dargestellt werden: p(Ai,,Ai 2 ,ff 2 |Daten) = p(a 2 |s 2 ) p O i k 2 , x,) p ( > 2 | a 2 , x 2 ) = X"2[n1+n2-2,(n1+n2)s2]N(x1,a2/n1)N(x2>a2/n2) . Wird nun z.B. ß 2 herausintegriert, so ist + oo
p O i V l D a t e n ) = J^ p O , , ß2, a 2 |Daten) d/u2 = p(a 2 |s 2 ) p O J a 2 , Xi) • 1 = x ~ 2 [ n , + n 2 - 2 , (n!+n 2 )s 2 ] N(X], a 2 / n j ) . Für ( ß [ , e xp |
. 1 0 1 0 . 2_ wobei Ii] = n m l + n , , n 2 = n m 2 + n 2 , s 0
X1 = X ° + ( n , + n 2 ) s 2
Mi
0 , _nmiMi +niXi I > n,
+
-
\2
i
n
lsl n,
1
2 .
+ 0
+ n { (/i,-£i)2 + n2(n2-Ü\? 2
n2s2 n
,—
//sO
-
\2
n2nm2(^2-x2)
i
n2
ni
0 A0 , _nm2M2 + n2x2 i n2
ß i
Wie man sieht, haben
/ S-.0
ninmiiMi-X!)
- ¿[X
~
die priori-Verteilung und die posteriori-Verteilung
die
gleiche Struktur, lediglich die sie kennzeichnenden Konstanten sind verschieden. Wir bewegen uns innerhalb natürlich-konjugierter Verteilungen. Nun braucht es nicht unbedingt der Fall zu sein, daß bei der Erstellung der priori Verteilungen die Streuung und die beiden Mittelwerte zusammen gleich gewichtet werden. Wenden wir uns nun diesem allgemeinen Fall zu. Zur Ableitung der posteriori-Verteilungen nehmen wir folgende Situation an: Zunächst haben wir eine Analyse durchgeführt, bei der Gleichgewichtung vorhanden war, so daß die posteriori-Verteilung genau in der gleichen Form wie eben vorliegt. Nun erfahren wir zusätzlich von einer Untersuchung, die an z°s Untersuchungseinheiten vorgenommen wurde und bei der genau die Varianz s 2 gefunden wurde, die dem Modus unserer priori-Verteilung gleich ist, s 2 = 6 ° . Wie berücksichtigen wir diese Zusatzinformation?
Wir revidieren unsere bisherige
posteriori-Verteilung
nochmals. Dazu multiplizieren wir mit dem Bayes-Theorem unser bisheriges Ergebnis (das nun zur priori-Verteilung w i r d ) mit der Likelihood der zusätzlichen Stichprobe. Die Likelihood ist bei z ° Beobachtungen und der Varianz a 0 '
ß(a|s 2 = a ° 2 ) oc
- 1 (j s
e x p 1 0
Die revidierte posteriori-Verteilung nimmt nun eine F o r m an, die sich nur an zwei Stellen von der gleichgewichteten posteriori-Verteilung unterscheidet: a ) der Exponent von a ändert sich von - ( n j + n ^ + l ) zu - ( n j + n j +Zs + 1); wenn wir die Notation n ° = n m i + nSu +
bzw. n° = n° + m + n2
einführen, so ist der a-Teil einfach a - K
+
»
b ) in der eckigen Klammer k o m m t der Summand z ° a °
hinzu; dieser Teil läßt
sich sofort in X 1 einarbeiten bzw. in das in X 1 enthaltene X°; bisher war
319
Damit hat die posteriori-Verteilung wieder die gleiche Form wie schon die prioriVerteilung und die gleichgewichtete posteriori-Verteilung: p(Mi,M2,2, 2-2)
Modus
(y2-2)v2l[vl(y2+2)]
Varianz
füri>2^3
für 2
2v\(yl + v2-2) / M f j - 4 ) {v2-2) ]
v^2
für v2 ^ 5
R eziproksymme trie: F) = F ^ . f j , 1) i// . Die standardisierte logarithmische F-Verteilung hat die Form p(lnF|i^, ,v2, 1) = kF"./ 2
+
+
, k wie oben.
Diese Verteilung hat ihren Modus über dem Wert In F = 0. Jackson-Formel: Die Bestimmung der HPD-Intervalle für die logarithmische FVerteilung erfolgt durch r
oben
_ v J ^ v j W T X \ u2 l> 5
iv-i !
F
unten
_
r
oben/u
_ 1
d wird iteriert. (Kleiter, 1979) Zur Umformung der Standard-F-Verteilung in die allgemeine Form mit einem von eins verschiedenen Skalierungsfaktor beachte man die Transformationsregel für die Reziproktransformation (2.5, S. 155). Bei der posteriori-Verteilung für das Varianzverhältnis ist zu beachten, daß die Reihenfolge der Freiheitsgrade vx und v2 umgekehrt ist als die Reihenfolge von 2 2 CT2 und CTi im Varianzverhältnis. (Bei der Stichprobenverteilung im Standardansatz ist dies nicht der Fall; im Bayes-Ansatz wird die F-Verteilung aus zwei inversen Chi- oder inversen Chi-Quadrat-Verteilungen abgleitet, im Standardansatz aus zwei Chi-Quadrat-Verteilungen.) Beispiel:
Wir kehren zum Beispiel von Hunt et al. zurück (vgl. S. 311). Die Autoren unterschieden u.a. Vpn mit niedrigen verbalen Fähigkeiten und Vpn mit hohen verbalen Fähigkeiten. Eine der abhängigen Variablen war die Vergessensrate im Langzeitgedächtnis. Faßt man die von Hunt et al. gegebenen Varianzen entsprechend zusammen, so erhält man folgende Werte: Vpn mit niedriger verbaler Intelligenz
n, = 20
Vpn mit hoher verbaler Intelligenz
n2 = 2 0
sl = 0.239 = 0.635 .
338
5. Der Zweistichproben-Fall Jeweils von links nach rechts: F ( 3 , 3, 1) F ( 6 , 3, 1) F ( 1 5 , 3, 1)
F ( 3 , 10, 1)
Abb. 5.11 Standard-F-Verteilungen
339
5.5 Der Vergleich von zwei Varianzen
( H u n t et al. errechneten die Varianzen mit n - 1 im Nenner; sie wurden hier auf den Nenner n umgerechnet und zusammengefaßt.) Geht man von nicht-informativen priori-Verteilungen posteriori-Verteilungen ct, ~ x - ' i n . - l . s , ^ )
aus, so erhält man die
= X"1 ( 1 9 , V ^ 7 8 ) ,
02 ~ X - 1 ( n 2 - l , s 2 v / ^ ) = X"1 ( 1 9 a / 1 2 ? 7 ) und daraus o l l o ] ~ F^ti! _ l , n 2 - l ,
= F.(19, 1 9 , 2 . 6 5 7 ) .
Wir bestimmen die 1-, 5-, 95- u n d 9 9 % - P r o z e n t p u n k t e auf dieser Verteilung wie folgt: 1) Suche die P r o z e n t p u n k t e F . 9 S ( 1 9 , 19, 1) u n d F . 9 9 ( 1 9 , 19, 1) der StandardF-Verteilung; wir erhalten die Werte 2.17 und 3.03. 2) Bestimme auf Grund dieser Werte weiter F . o s ( 1 9 , 19, 1) = 1 / F 9 s ( 1 9 , 1 9 , 1) und F . 0 1 ( 1 9 , 19, 1) = 1 / F . 9 9 ( 1 9 , 19, 1) . = 1/2.17 = .461
= 1/3.03 = .33 .
3) Multipliziere die vier P r o z e n t p u n k t e mit \p: 1%: 0 . 8 7 7 , 5%: 1.225, 9 5 % : 5 . 7 6 6 , 9 9 % : 8.051 . Die A b b . 5.12 zeigt die posteriori-Verteilung u n d die P r o z e n t p u n k t e . Mit einer Wahrscheinlichkeit von 0.95 ist die Varianz von Vpn mit h o h e r verbaler Intelligeng mindestens 1.2mal größer als die von Vpn mit niedriger verbaler Intelligenz. Die Wahrscheinlichkeit, daß V p n mit hoher verbaler Intelligenz eine größere Varianz in ver Vergessensrate h a b e n als Vpn mit niedriger verbaler Intelligenz, ist damit schon recht h o c h ; mit 9 5 % Sicherheit k ö n n e n wir sagen, daß die Varianz mindenstens u m etwa 2 0 % größer ist. Eine Konsequenz aus dieser Aussage ist, d a ß bei einem beabsichtigten Mittelwertsvergleich der beiden Untersuchungsgruppen nicht angenommen werden sollte, daß die beiden Varianzen gleich sind; die posteriori-Verteilung für die Mittelwertsdifferenz sollte daher über eine Behrens-Fisher-Verteilung b e s t i m m t werden! Als zweite Konsequenz wäre die sachliche Bedeutung des Ergebnisses zu diskutieren: Welche Gründe k o m m e n dafür in Frage, d a ß V p n mit eher hoher verbaler Intelligenz eine größere Variabilität in der Vergessensrate aufweisen? HPD-Intervalle Bei d e m letzten Beispiel w u r d e n absichtlich keine HPD-Intervalle b e s t i m m t . Z u r Ermittlung von HPD-Intervallen ist die Metrik der zugrundeliegenden Verteilung
340
5. D e r Z w e i s t i c h p r o b e n - F a l l
Abb. 5 . 1 2 Posteriori-Verteilung für das Varianzverhältnis o]/a] der Vergessensrate im Langzeitgedächtnis bei Individuen mit hoher und niedriger verbaler Intelligenz (Hunt-Beispiel); es sind 1%, 5%, 95% und 99% Punkte eingezeichnet.
wesentlich. HPD-Intervalle für a\lo\ und HPD-Intervalle für log a\ —log o\ führen nicht zu gleichwertigen und unmittelbar ineinander transformierbaren Ergebnissen. Bei der Definition der Variabilitätsunterschiede legten wir uns auf die logarithmische Metrik fest; HPD-Intervalle werden auf Grund der logarithmischen Metrik bestimmt. Die standardisierte logarithmische F-Verteilung erhält man aus der Standard-F-Verteihing mit Hilfe des Transformationstheorems, insbesondere mit der Regel für die Logarithmus-Transformation; es ist dann p(ln F) = p(F) F . Durch den zusätzlichen Faktor F fällt beim bisherigen Faktor F im Exponenten weg. In der Tab. 7 sind HPD-Intervallgrenzen für Freiheitsgrade von 2 bis 50 angegeben. Die Intervallgrenzen wurden auf Grund der logarithmischen Metrik bestimmt, danach allerdings durch „exp-Bildung" in die gängige F-Metrik der Varianzen umgerechnet. Für das Hunt-Beispiel erhalten wir bei der zuletzt behandelten verbalen Intelligenz folgende posteriori-Intervalle: 90%: F , = .46 • 2.657= 1.22, F 2 = 2.17 • 2.657 = 5.77; 95%: Fi = .40 • 2.657= 1.06, F 2 = 2.53 • 2.657 = 6.72; 99%: F , = .29 • 2.657 = 0.77, F 3 = 3.43 • 2.657 = 9.11. HPD-Intervalle, die für die logarithmische Metrik bestimmt wurden, sind standardisierte Intervalle; wir sind der Problematik bereits im Abschnitt 4.1, S. 248 begegnet. Wie bereits dort ausgeführt, ist auch der Standardansatz gegenüber solchen
5.5 Der Vergleich von zwei Varianzen
341
metrischen Problemen sensitiv. Die üblichen F-Tabellen, in denen lediglich Prozentpunkte angeführt sind, eignen sich nicht für zweiseitige Tests. Alle Test, die auf diesen Tabellen aufbauen und zweiseitig durchgeführt werden, sind verzerrt (biased). Auch hier gilt: Die Verfechter des Standardansatzes sollten wenigstens die Tabellen der Bayesianer verwenden . . . (vgl. Kleiter, 1979).
6. Einfaktorielle Varianzanalyse
6.1 Einführung in die Grundbegriffe 6.1.1 Problemstellung: Mehr als zwei Stichproben Während bisher nur Verfahren behandelt wurden, die die Untersuchung von ein oder zwei Stichproben bzw. Populationen erlauben, wenden wir uns nun der Analyse von mehr als zwei Stichproben zu. Da solche Situationen häufig auftreten, k o m m t diesen Verfahren eine große praktische Bedeutung zu. Statistische Techniken zur gemeinsamen Untersuchung von mehr als zwei Mittelwerten werden mit dem Sammelbegriff „Varianzanalyse" bezeichnet. Die Varianzanalyse selbst gehört zu den noch allgemeineren linearen Modellen, unter die z.B. auch das Regressionsmodell einzuordnen ist. Warum werden zur Analyse von mehr als zwei Stichproben bzw. Populationen überhaupt neue Verfahren benötigt? Warum kann man nicht jeweils paarweise nur zwei Stichproben herausgreifen und diese mit den bekannten Techniken bearbeiten? Die folgenden Gründe sprechen gegen ein solches Vorgehen: (a) Bei mehr als zwei Stichproben eröffnen sich prinzipiell neue Fragestellungen, die nicht durch einfache paarweise Vergleiche beantwortet werden können. Ein Beispiel ist die Interaktion bei mehrfaktoriellen Versuchsplänen. (b) Wenn man mehr als zwei Stichproben untersucht, so gibt es in der Regel einen sachlichen Grund dafür; er ist in der Fragestellung zu suchen, und diese ist eng mit der einer Untersuchung zu Grunde liegenden Hypothesenstruktur verbunden. Jede Datengruppe liefert daher Information zur Problemstellung; daher sollte man bei der Datenanalyse auch die gesamte Information ausnutzen. Die Berücksichtigung aller Daten führt zu engeren posteriori-Verteilungen und damit zu höherer Sicherheit in den Aussagen als nur paarweise Vergleiche. Im Standardansatz kommt ein weiterer Grund hinzu: Mehrere am gleichen Datenmaterial durchgeführte Einzeltests sind nicht unabhängig voneinander. Wenn die erste Stichprobe zunächst mit der zweiten und dann mit der dritten verglichen wird, so gehen die Daten der ersten zweimal in die Berechnungen ein; die Tests beruhen zu 50% auf den gleichen Daten. Angenommen, es sollen die Mittelwerte von 10 Stichproben verglichen werden; es müßten dann insgesamt 45 paarweise Einzeltests durchgeführt werden. Auf Grund einfacher Wahrscheinlichkeitsüberlegungen ist anzunehmen, daß irgendwo ein Unterschied „signifikant" wird selbst dann, wenn alle 10 Stichproben aus der gleichen Population stammen. Beachtenswert ist, daß sich umgekehrt die Zweistichprobenprobleme teilweise als Sonderfälle von Mehrstichprobenfällen behandeln lassen.
344
6. Einfaktorielle Varianzanalyse
6.1.2 Die Begriffe Faktor und Stufe In der Methodik des Experimentierens werden unabhängige und abhängige Variablen unterschieden. Die unabhängigen Variablen werden vom Experimentator kontrolliert und unterstehen seiner Planung. Die abhängigen Variablen sind die Beobachtungsergebnisse eines Experimentes oder einer empirischen Untersuchung; die Meßwerte gehören zu den abhängigen Variablen. Die Begriffe werden ausführlich in den Einführungstexten der experimentellen Methodik behandelt. In der Statistik wird eine unabhängige Variable als Faktor bezeichnet. Wenn ein Statistiker von einer einfaktoriellen Untersuchung spricht, so meint er damit eine Untersuchung mit nur einer unabhängigen Variablen. Diese eine unabhängige Variable kann zwei oder drei, fünf oder zehn Versuchsbedingungen im einzelnen umfassen. Beispiel: In einer Untersuchung soll festgestellt werden, welches von drei Düngemitteln eine bestimmte Weizensorte am schnellsten zur Reifung bringt. Die unabhängige Variable ,Düngemittel" hat hier drei sog. Stufen. — In einer Arbeit aus dem Bereich der pädagogischen Psychologie soll festgestellt werden, welche von fünf Unterrichtsmethoden den größten Lernerfolg beim Erwerb des Zahlbegriffes bei Schulanfängern herbeiführt. Hier liegen fünf Versuchsbedingungen im einzelnen vor. In der Statistik werden diese einzelnen Versuchsbedingungen die Stufen des Faktors genannt. Ein Faktor hat mindestens zwei Stufen, er kann jedoch viel mehr haben. Ein einfaches Experiment mit Experimental-und Kontroll gruppe hat einen Faktor mit zwei Stufen. Je nach der Zahl der Faktoren unterscheidet man einfaktorielle, zweifaktorielle usw. Varianzanalysen. In der Regel gehört eine genau treffende Varianzanalyse zu einem Untersuchungsplan. In diesem Text werden nur die einfachsten Varianzanalysen, die einfaktoriellen, behandelt. Es gibt verschiedene Arten von Faktoren. Ein Faktor kann in direkter Beziehung zu einer Sachhypothese stehen. Häufig gibt es in einem Untersuchungsplan Faktoren, die nur der Ausschaltung unerwünschter Nebeneffekte dienen. Wir unterscheiden daher Sachfaktoren und Kontrollfaktoren. Ein Sachfaktor sollte in bezug auf mindestens eine Sachhypothese relevant sein. Cohen (1970, S. 37) nennt drei Kriterien für die induktive Relevanz eines Variablen-HypothesenPaares : ( 1 ) D i e betreffende Faktor-Hypothesen-Kombination wurde bereits erfolgreich untersucht; dies kann z.B. der Fall sein, wenn eine Kontrolluntersuchung zum Zweck der Replikation angestellt wird oder wenn in einer Untersuchung zusätzliche, strengere Kontroll variablen eingeführt werden. (2) Wenn die betreffende Faktor-Hypothesen-Kombination noch nicht direkt untersucht wurde, so wird verlangt, daß sachlich hinreichend ähnliche VariablenHypothesen-Paare erfolgreich getestet wurden. Eine Abgrenzung dafür, wann
6.1 Einführung in die Grundbegriffe
345
hinreichende Ähnlichkeit vorliegt und wann nicht, kann nur auf einer profunden Sachkenntnis des betreffenden Forschungsgebietes vorgenommen werden. Starre und übermäßig restriktive Kriterien sollten vermieden werden. So wird man in einer Voruntersuchung auch einen geringeren Grad an Ähnlichkeit zulassen. (3) Die Variablen-Hypothesen-Paare gehören zu den Vorhersagen einer Theorie, für die auf anderem Wege ein Minimum an Bewährung gewonnen wurde. Alle drei Kriterien begründen die Relevanz eines Faktors in bezug auf eine Hypothese durch die Anknüpfung an ähnliche empirische oder theoretische Befunde. Die induktive Relevanz verlangt ein Vorwissen über die unabhängige und die abhängige Variable einer Untersuchung! Häufig findet man die Unterscheidung von Versuchsbedingungen im engeren Sinne (treatments) und klassifikatorischen Faktoren. Es gibt Untersuchungsbedingungen, die „vollständig" vom Experimentator kontrolliert werden; er bestimmt z.B., welche Vp welcher Bedingung zugeteilt wird. Es handelt sich um eine unabhängige Variable im engeren Sinne. Auf der anderen Seite gibt es Untersuchungsbedingungen, die gleichsam von der Natur hergestellt wurden. Manche Autoren argumentieren, es sei gleichgültig, ob die Untersuchungsbedingungen vom Versuchsleiter oder vom lieben Gott geschaffen worden seien (Cattell, 1966). Von Versuchsbedingungen im engeren Sinne wird häufig verlangt, daß die Versuchspersonen nach einem „Zufallsverfahren" auf die einzelnen Versuchsbedingungen aufteilbar sind. Die Zuordnung kann z.B. mit Hilfe einer Zufallszahlentabelle vorgenommen werden. Die Verteilung der Untersuchungseinheiten auf die Versuchsbedingungen nach einem Zufallsprinzip heißt Randomisierung. Geht man von m Versuchsbedingungen und den präfixierten Gruppengrößen n t , . . . , n m , N = £,nj aus, so soll durch die Randomisierung erreicht werden, daß jede d e r N ! / ^ ! . . , n m ! möglichen Aufteilungen der N Untersuchungseinheiten auf die m Versuchsbedingungen gleichwahrscheinlich ist. Der Begriff der Randomisierung spielt im Standardansatz eine wesentliche Rolle. Mit gewissen Einschränkungen ist die Randomisierung im Bayes-Ansatz irrelevant; „. . . it is never necessary to randomize in experimental design, though randomization . . . would not do any harm (nor any good)." (Lindley, 1972, S. 21) Diese Auffassung läßt sich wieder durch das LikelihoodPrinzip begründen. Das Gegenteil von Randomisieren wäre, daß die Versuchspersonen anhand eines Merkmals, dessen Relevanz bekannt ist, systematisch sortiert und einseitig — z.B. nach einer Rangreihe — den Versuchsbedingungen zugeteilt würden. Selbstverständlich ist dies auch im Bayes-Ansatz unzulässig. Wenn ein Merkmal vorliegt, dessen Relevanz bekannt ist, so ist zunächst zu verlangen, daß dieses Merkmal im Untersuchungsplan explizit berücksichtigt wird. Nur wenn solche Störfaktoren oder konkomitante Variablen nicht explizit berücksichtigt werden können, ist Randomisierung in Betracht zu ziehen. ,J[f some factor is present which is thought likely to influence the data, then this should be allowed for in the design,
346
6. Einfaktorielle Varianzanalyse
for example, by using blocking devices. Randomization, therefore, even to an orthodox statistician, is only used to guard against the unforeseen." (Lindley, 1972, S. 21) Wenn wir zwei Gruppen von unabhängigen Variablen unterscheiden, einmal die explizit als Faktoren im Untersuchungsplan berücksichtigten Bedingungen und andererseits die nicht explizit berücksichtigten Hintergrundsvariablen, so trägt die Randomisierung dazu bei, daß unser Vorwissen über die Hintergrundsvariablen symmetrisch ist; Randomisierung fördert die Vertauschbarkeit bezüglich der Hintergrundsvariablen. Man möchte im Grunde erreichen, daß die Wahrscheinlichkeit für kleine Unterschiede in der Ausgangslage möglichst groß wird. Die Verwendung von Zufallszahlen, die ja ein Beispiel par excellence für vertauschbare unsichere Größen sind, soll zu einer Symmetrie unseres Vorwissens über die Ausgangslage führen. Es ist aufschlußreich, ein Lehrbuch zur experimentellen Methodik zur Hand zu nehmen und dort die Ausführungen zu den Begriffen Randomisierung, Parallelisierung, Konstanthaltung der Versuchsbedingungen, experimentelle Kontrolle etc. unter dem Gesichtspunkt der Vertauschbarkeit zu diskutieren. Ein weiterer Einteilungsgesichtspunkt ergibt sich aus dem Skalenniveau der Faktoren (vgl. Cox, 1966, S. 96). Man kann qualitative (Nominalskalenniveau), Faktoren mit Rangskalenniveau, Intervallskalenniveau und Absolutskalenniveau unterscheiden. Beispiele für qualitative Faktoren sind: Droge versus Placebo, visuelle versus auditive Reize, die meisten klassifikatorischen Faktoren wie Geschlecht, Krankheitsgruppen, Therapiearten usw. Beispiele für Faktoren auf Rangskalenniveau sind: Krankheitsausprägungen (schwer, mittel, leicht), Bildungsniveau, sehr grobe Altersgruppierungen. Die meisten mit Hilfe eines Vortests gebildeten Gruppen sollten als Rangskalen-Faktoren angesehen werden (Leistungsmotivation hoch, mittel, niedrig; Neurotizismus eher hoch, eher niedrig). Beispiele für Faktoren auf höherem Skalenniveau sind: verschiedene Dosierungen von Pharmaka, verschiedene Reizstärken, zeitliche Bedingungen bei Lern- oder Ermüdungsversuchen. Wenn mehr als zwei Stufen des Faktors vorliegen, so können die Abstände zwischen den Stufen gleich (equally spaced) oder verschieden sein. Im Zusammenhang mit der Varianzanalyse lassen sich hier Trendanalysen durchführen, die die Art der funktionalen Abhängigkeit zwischen der unabhängigen und der abhängigen Variablen genauer untersuchen. Ein Beispiel sind DosisWirkungs-Kurven. Lassen sich der unabhängigen Variablen klare Zahlenwerte zuordnen, so sollte man sorgfältig prüfen, ob eine Varianzanalyse wirklich die geeignete statistische Auswertungstechnik ist oder ob nicht besser eine Regressionsanalyse durchgeführt werden sollte. Für alle Faktoren der bisher besprochenen Art gilt, daß sie verschiedene Reliabilität aufweisen können. So wird die Diagnose von Krankheiten und damit die Einteilung in Krankheitsgruppen o f t unterschiedlich sein, je nachdem von wem sie vorgenommen wird.
6.1 Einführung in die Grundbegriffe
347
6.1.3 Kennwerte der Daten Wir wollen nun relativ ausführlich ein konstruiertes Beispiel besprechen. Dabei werden in drei Versionen die Daten so variiert, daß das Verständnis für die wesentlichen Begriffe einfacher Varianzanalysen vermittelt wird. Es soll der Erfolg von drei therapeutischen Methoden untersucht werden. Jede Methode wird von einer therapeutischen Richtung oder Schule vertreten. Alle drei behaupten, bei übermäßig starker Prüfungsangst innerhalb eines 8wöchigen Trainingsprogrammes eine deutliche Besserung herbeiführen zu können. Weiter behaupten die Vertreter der Schulen, jeweils bessere Erfolge mit ihrer Methode zu erzielen als die Konkurrenten. In bereits vorliegenden Arbeiten wurde gezeigt, daß die 8wöchigen Trainingsprogramme einen deutlich besseren Erfolg zeitigen als ein gleich langes unspezifisches Training. Die Experimentalgruppen zeigten in diesen Untersuchungen eine größere Angstreduktion als die jeweiligen Kontrollgruppen. Die Frage ist somit nicht mehr, ob die Methoden überhaupt zu Erfolgen führen, sondern ob sie unter sich verschieden gut sind. Das Kriterium der induktiven Relevanz ist erfüllt. Für eine Untersuchung haben sich drei Trainer — jeweils einer zu jeder Methode — zur Verfügung gestellt. An einer großen höheren Schule wurden in den 7. und 8. Klassen Tests zur Messung der Prüfungsangst durchgeführt. Die 30 extremsten Schüler wurden ausgewählt. Auf Grund einer Zufallszahlentabelle wurden jedem Therapeuten 10 Schüler zugeordnet. Von einer auf Grund des Vortests kontrollierten Aufteilung der Schüler auf die Therapeuten (Parallelisierung) wurde Abstand genommen, da innerhalb der Extremgruppe die Testergebnisse nur mehr eine geringe Streuung aufwiesen. Nach arbeit bogen wurde
Abschluß der Trainingsprogramme wurde die nächste größere Prüfungsabgewartet. Unmittelbar danach erhielten die Vpn einen speziellen Frageüber Angstgefühle bei dieser Prüfung. Eine Kontrolle des Langzeiteffektes nicht vorgenommen.
Nehmen wir zunächst an, wir hätten die in Tab. 6.1 wiedergegebenen Daten erhalten (Daten-Version I). Hier sehen wir, daß die Ergebnisse völlig gleichförmig sind. Im Nachtest hat die Trainingsform A einheitlich die niedrigsten Angstwerte, die höchsten treten bei der Methode C auf, und B liegt in der Mitte. In der Praxis findet man so gleichförmige Daten natürlich nicht. Am unteren Rand der Tabelle sind Mittelwerte und Streuungen angegeben. Die Gleichförmigkeit der Daten drückt sich in den Streuungen pro Spalte aus; sie sind alle drei null. Die Daten-Version II ist wesentlich realistischer. Die Meßwerte sind hier nicht mehr so klar und eindeutig wie eben. Die Testergebnisse schwanken von Vp zu Vp innerhalb jeder Methode. Einen Gesamtüberblick bekommen wir erst, wenn wir uns die Mittelwerte am Fuß der Tabelle anschauen. Diese liegen sehr nahe bei 15, 20 und 25 und entsprechen somit etwa den Mittelwerten der DatenVersion I. Sehen wir uns schließlich die dritte Daten-Version an. Ohne Zweifel schwanken die Werte hier noch viel stärker als eben. Gesetzmäßigkeiten oder
6. Einfaktorielle Varianzanalyse
348 Trainings-Methode Daten-Version I A 15 15 15 15 15 15 15 15 15 15 x, =
15
S] =
0
B
C 20 20 20 20 20 20 20 20 20 20
25 25 25 25 25 25 25 25 25 25
x 2 = 20
x 3 = 25
s2 =
s3 =
0
x . = 20
0
Daten Version II
xi = s, =
A 15.79 17.44 14.93 13.14 17.05 12.81 16.68 13.09 19.20 17.01
B 21.73 19.58 22.98 21.42 18.32 21.71 21.41 20.40 18.00 16.69
26.07 25.53 23.02 24.71 23.96 23.37 26.31 26.77 24.81 24.69
15.71
x2 = 20.22
x3 = 24.93
s2 =
s3 =
2.052
C
1.908
x . . = 20.29
1.185
Daten-Version III A 22.18 31.99 7.74 18.17 12.23 13.96 15.85 0.82 9.77 34.62
B
C 22.83 16.40 14.28 31.21 19.81 30.16 21.52 3.48 20.17 17.82
xi =
16.73
x2 =
19.77
s, =
9.98
s2 =
7.50
24.43 27.59 23.38 20.45 4.01 25.96 30.93 56.30 15.16 15.16 x 3 = 24.34 s3 =
x . . = 20.28
12.93
Tab. 6.1 Drei Daten-Versionen mit ähnlichen Mittelwerten und verschiedenen Fehlervarianzen
6.1 Einführung in die Grundbegriffe
349
systematische Unterschiede können wir kaum noch erkennen. Betrachten wir jedoch die Spaltenmittelwerte, so sind sie wieder relativ ähnlich wie bei den beiden vorhergehenden Daten-Versionen. Dies sind künstliche Daten; es ist lehrreich, die Prinzipien zu verstehen, nach denen sie konstruiert wurden. Zur Daten-Version I braucht nichts gesagt zu werden. Die Versionen II und III wurden mit einem Computerprogramm erzeugt. Jede Zahl wurde aus drei Teilen zusammengesetzt: (a) einer konstanten Komponente, (b) einer systematischen Komponente, die von Spalte zu Spalte verschieden ist und (c) einer zufälligen Fehlerkomponente, die für jede einzelne Zahl variiert. Die drei Komponenten betrugen für die Version II: (a) Konstante Komponente = 20. (b) Systematische Komponente: für A = —5, für B = 0 und für C = 5. (c) Die Fehlerkomponente ist normalverteilt mit dem Mittelwert null und der Streuung 2.0; die Fehlerkomponente wurde mit Pseudozufallszahlen erzeugt. Die Zahlenwerte der Version III wurden nach den gleichen Regeln generiert; der einzige Unterschied lag darin, daß nun die Streuung der Zufallskomponente erheblich größer war und 10 betrug. Nun sieht man folgendes: Die Prägnanz der Stichprobenunterschiede nimmt von der Daten-Version I zur Version III hin ab. Wir präzisieren diesen intuitiven Eindruck und betrachten dazu drei Varianzen: a) Die Fehlervarianz innerhalb der drei Spalten, b) die Varianz zwischen den drei Stufenmittelwerten am Fuß der Spalten und c) die Gesamtvarianz. Je größer die Relation Systematische Varianz zwischen den Faktorstufenmittelwerten: Fehlervarianz innerhalb der Stufen, desto sicherer können wir sein, daß auch entsprechende Unterschiede für die Parameter existieren. Es hat sich eingebürgert, die wichtigsten Zahlenwerte, die bei der Berechnung von Varianzen in den Daten benötigt werden, in einer einheitlichen Tabellenform festzuhalten;eine solche Tabelle heißt Tafel der Varianzanalyse. Man beginnt mit den Summen der Abweichungsquadrate; wir verwenden die Abkürzungen S S ß e d , SS Kehler und SS t o t a l (SS = Sum of Squares) oder auch SS B , SS F und SS t . Es ist m S S fehler
n
= . 2 . 2 (x¡j—Xj) . J = 1 1= 1
Die Varianzen selbst werden alle mit der Zahl der Freiheitsgrade im Nenner bestimmt; wir schreiben
350
6. Einfaktorielle Varianzanalyse
_ SS Fehler _ SSpehler M ö h l e r - „Fehler - m _ j • Ein MS-Wert (MS = Mean Square) entspricht einer s' 2 -Varianz, bei der durch n — 1 und nicht n dividiert wird. Die Summe der Abweichungsquadrate für die Bedingungsvarianz ist m SSßed = n 2 (x x)2 j=i J > Der Grund für die Multiplikation mit dem Faktor n ist, daß im Standardansatz, aus dem dieses Schema stammt, der Bruch ns'ßed/s'Fehler die Prüfgröße zur Bestimmung der Signifikanz von Mittelwertsunterschieden ist. Für den Augenblick genügt es, wenn man sich vor Augen führt, daß SSpehier auf der Basis aller nm Daten bestimmt wird, daß aber nur m Mittelwerte für die Summe der Abweichungsquadrate zu den Faktorstufen vorhanden sind; zur besseren Vergleichbarkeit wird die Summe auf die Gesamtzahl der Beobachtungen „hochgerechet" — daher der Faktor n. Eine andere Möglichkeit ist, in der Definition von SSBec) auch wie bei SSpehier Doppelsummen zu führen. Dann wird die Summe für den Index i sogleich durch n ersetzt. Die Summe der Abweichungsquadrate für alle Beobachtungen ist SS t o t = 2j2j(xjj—x) 2 . Wie sich leicht zeigen läßt, ist SS total
=
SSßed + SSpehier •
Da Xjj
X
X + Xij ,
ist auch SjZiCxjj-x) 2 = S j Z i K x j - x ) +
(x^)]
2
= SjSi(xj—x) 2 + ^ ¡ ( x i j - X j ) 2 + 2 S j S i ( x j - x X x ü - X j ) • Der letzte „2ab-Ausdruck" auf der rechten Seite ist null, da 2 j 2 i ( x j - x ) ( x i j - x j ) = 2j(xj-x) Zj(xjj-x) , = 0 für alle j und die beiden verbleibenden Summen sind mit SS B e d und SS F e h ] e r identisch. Die Aufteilung einer Gesamtvarianz in mehrere additive Komponenten wird allgemein als Streuungszerlegung bezeichnet.
6.1 Einführung in die Grundbegriffe
351
Für das praktische Rechnen verwendet man rechentechnisch günstigere Formeln (Winer, 1971, S. 159). Wir bestimmen zunächst (1) = G 2 / N , wobei G = SjSjXjj = Summe aller Xjj und N = Xjnj , (2) = 2j2jXy = Summe aller quadrierten x-Werte , (3) = ( S j T ^ / n j wobei Tj = SjXy = Summe der j-ten Spalte und daraus: SSßed =
(3)-(l),
SS fehler = (2) — (3) , SStotal = ( 2 ) - ( l ) . In der Regel berechnet man pro Spalte die Summe aller x-Werte und die Summe aller x 2 -Werte und daraus alle anderen Bestimmungsstücke. Statistische Taschenrechner enthalten fertige Programme zur Berechnung der Tafel der Varianzanalyse. Liegen die Mittelwerte und Varianzen bereits ausgerechnet vor, so sind SSpehler
=
n (S1+S2 + . . , + s m )
SSßed = n m s |
bzw.
(n-l)(s'i+s', + . . . < )
wobei s | = j ^ 2 j ( x j - x ) 2
bzw. n ( m — l ) s ' | mit s ' | =
^ ^Sj(xj—x) 2 .
Damit erhalten wir für die Daten-Version II: SSfehier = 10(2.052 2 +1.908 2 +1.185 2 ) = 9 2 . 5 5 , SSßed
= 10 • 3 • 14.17 = 425.11 .
Quelle
SS
df
Bedingung
nEjCxj-x)2
m — 1
Fehler Total
m(n-l) SjSiixij-x)
Tafel der Varianzanalyse
2
mn — 1
MS
F
SSßed
MSßed
dfßed
MS Fehler
SS Fehler ^^ Fehler
6. Einfaktorielle Varianzanalyse
352
Für die numerischen Beispiele erhalten wir folgende Tafeln der Varianzanalyse: Quelle
SS
df
MS
F
Bedingung Fehler Total
32.82 0 32.82
2 27 29
16.41 0
OO
Tafel der Varianzanalyse für die Daten Version I Quelle
SS
df
MS
F
Bedingung Fehler Total
424.27 92.56 516.83
2 27 29
212.14 3.43
61.9
Tafel der Varianzanalyse für die Daten-Version II Quelle
SS
df
MS
F
Bedingung Fehler Total
293.00 3233.67 3526.67
2 27 29
146.5 119.77
1.22
Tafel der Varianzanalyse für die Daten-Version III
Wir sehen nun, daß die Relation Systematische Varianz zwischen den Faktorstufenmittelwerten [ = Fehlervarianz innerhalb der Stufen für die Daten-Versionen I, II und III die Werte 61.9 und 1.22 annimmt. Dies deckt sich zunächst auf rein deskriptiver Ebene mit unserem intuitiven Eindruck, den wir von den Daten haben. Wir verlassen nun die deskriptive Ebene, auf die wir uns bisher beschränkten; wir führen eine geeignete Parametrisierung ein, mit der wir die mit der einfaktoriellen Varianzanalyse verknüpften Fragestellungen wahrscheinlichkeitstheoretisch behandeln können. 6.2 Strukturmodell Wir betrachten m Gauß-Prozesse (Versuchsbedingungen, einen Faktor mit m Stufen); aus jedem wird eine Stichprobe mit n i , . . . , n m Beobachtungen gewonnen. Für die i-te Beobachtung der j-ten Stichprobe schreiben wir xy. Die Daten werden in der Form
353
6.2 Strukturmodell
Xu X12
x12 X22
... •••
Xi m X 2m
x
x
•••
Xn
n,l
n22
mm
angeschrieben; in jeder Spalte stehen die Werte einer Stichprobe. Aus Gründen der einfacheren Notation wird angenommen, daß die Stichproben alle gleich sind ni = n 2 = . . . = n m . so daß die Gesamtzahl der Beobachtungen N = nm beträgt. Wir gehen von folgendem linearen Modell aus: Strukturgleichung Xjj = ß + « j + ey . In diesem Ausdruck wird jeder Beobachtungswert in drei Komponenten zerlegt: ß : Gesamtmittelwert; er kennzeichnet das Gesamtniveau der Gauß-Prozesse, ftj : der spezielle Effekt der j-ten Versuchsbedingung und 6jj : die Fehlerkomponente der i-ten Untersuchungseinheit in der j-ten Faktorstufe. Wenn wir für den Mittelwert einer Stufe /Uj schreiben, so ist «j = Mj - ß • Wir führen die vereinfachende Annahme ein, daß die Varianzen der m Gauß-Prozesse gleich sind: Annahme der Varianzhomogenität : a] = a\ = .. . = o^ =
ffpehler.
Das Vorwissen über die Parameter wird in einer priori-Verteilung ausgedrückt: P O l , • • • > Mm > "Fehler) • Es ist plausibel, davon auszugehen, daß das Vorwissen über die Mittelwerte und die Fehlervarianz unabhängig sind, so daß pißl
, Mm , "Fehler) = P0*1 . • • • > Mm)PFehIer) •
Wir gehen weiter davon aus, daß das Vorwissen so beschaffen ist, daß Vertauschbarkeit vorliegt (vgl. speziell Lindley, 1971, Lindley und Smith, 1972), d.h., daß die m-dimensionale priori-Verteilung für die Stufenmittelwerte invariant gegenüber der Permutation der Indizes ist: P(Ml ,ßl,-
• • ,ßm)
= p(ß2,ßl
, • • • >Mrn) = • • • = P O m , M m - l , • • • , ßl) •
354
6. Einfaktorielle Varianzanalyse
Die Vertauschbarkeit ist eine wichtige Einschränkung, die durchaus nicht immer erfüllt ist. Es darf apriori keinen Grund geben, bei einer Untersuchungsbedingung einen höheren Durchschnitt zu vermuten als bei einer anderen. Dies impliziert, daß alle Rand Verteilungen für einen, für zwei usw. Mittelwerte im Argument der Verteilung gleich sind: p(Mi) = p(ßi) = ... = p(Mm) P(Ml . M2) = . . . = p(Mm-l>Mm) USW.
Eine vertauschbare Verteilung für p(jui, . . . , Mm) kann über das Mischungstheorem von de Finetti (vgl. Abschnitt 3.2) gewonnen werden. Jede vertauschbare Verteilung läßt sich so darstellen, als handle es sich um das gewogene Mittel einer Folge von Verteilungen, von denen jede durch einen (oder mehrere) „Hyperparameter" 1 gekennzeichnet ist; die Gewichte werden diesem (diesen) Hyperparameter(n) zugeordnet und lassen sich als priori-Verteilungen auffassen. Für den vorliegenden Fall können wir schreiben: + 00+00
p(Mi, - • • ,Mm) = f f —0
m
n p(AtjlM.ÖBed)p(i i ' a Bed) d Mda^ ed . i=1
Das Produktzeichen resultiert aus der Unabhängigkeit der m Gauß-Prozesse; wie in ähnlichen Situationen bisher, ist es plausibel, von unabhängigen priori-Verteilungen für ß und 0g e d auszugehen, so daß PO*. a B e d ) = P ( M ) p K e d ) •
Nun gibt es verschiedene Möglichkeiten, p(Mjlju> CTßed) z u fixieren.Eine technisch günstige und oft auch sachlich näherungsweise zutreffende Möglichkeit besteht in der Wahl einer Normalverteilung mit dem Mittelwert /n und der Varianz Og e( j: Mj ~ N(M, 4 e d ) . Wir halten fest: Unser Vorwissen über die Stufenmittelwerte ist so beschaffen, daß die ß j um ihr Gesamtniveau p herum normalverteilt sind mit der Varianz Og e d . Eine ganz ähnliche Annahme gibt es auch im Standard-Ansatz der Varianzanalyse, und zwar beim sog. Modell mit Zufallseffekten. Wenn Vorinformation existiert, daß die Stufenmittelwerte sehr verschieden sind, so ist die Varianz ihrer Verteilung ffged groß; weiß man, daß wahrscheinlich nur kleine Unterschiede vorhanden sind, so ist "
a
2
( a
2
i n a
(ol
)2 + na
2
) >
2
) W
F
a
2
wirdCTp-herausintegriert
P(a2ß) * f
2Fal
Der Integrand hat die Form l/(x2+bx+b2/4-b2/4) stanten
b 2 /4-Teiles
P(
A
a
ß)
f
o
"
^
l / ( x 2 + b x ) mit der quadratischen Ergänzung
= l/((x+b/2) 2 —b 2 /4), so daß unter „ A b s o r p t i o n " des kon-
in das Proportionalitätszeichen
/ 2. n 2\2 K-
+
dgF-
2°B)
Mit der Substitution z = a \ + y d g
mit dz/dx = 1 und dx = dz erhält man
t i \ ~ r+°° 1 , 2 „ a P(ctb) a f / 2 i n 2 \2~ 0 i°F+2ffB)
f
0
dz „ p- a
—11+~ „ oc z L
1 2 , n
2
L
aF+J°Bl0
.
so daß wir zu folgender Randverteilung für die Varianz der Stufenmittelwerte gelangen: p vy( 4 ß J)
a
-4- • nag
Dies ist eine umgekehrt J-förmige Funktion, die auffallenderweise von n abhängt. Die Randverteilung für die Fehlervarianz erhält man aus
P ( i 4 ) C X
o/+
K ^ n a
2
^ -
Das Integral hat die Form /dx/(a+bx) °c ^ - l n ( a + b x ) , so daß
P K )
« i { l n [ ( 4 )
a
+ n a * a | ] } r .
6 . 4 Nicht-informative priori-Verteilung und ihre Rand Verteilungen
359
In dieser F o r m ist die L ö s u n g u n b e s t i m m t ; wir e r s e t z e n die o b e r e G r e n z e + °° d u r c h e i n e n sehr g r o ß e n Wert Q u n d s t u t z e n d a m i t die p r i o r i - V e r t e i l u n g für die F e h l e r v a r i a n z an d e r Stelle Q . D a n n ist 1 p ( a F )
" " r ^
nQ + a \ 1
"
ä f
•
A u c h dies ist eine u m g e k e h r t J - f ö r m i g e V e r t e i l u n g . Wir u n t e r s u c h e n n u n die R a n d v e r t e i l u n g f ü r das V a r i a n z v e r h ä l t n i s Dieser B r u c h w i r d als die S t ä r k e d e r E f f e k t e b e z e i c h n e t ; wir k o m m e n w e i t e r u n t e n noch ausführlich darauf zurück. Wir t r a n s f o r m i e r e n z u n ä c h s t a 2 in die Hilfsvariable W
=
11 + i
n 2 Z2 CTB • Up
Dies ist eine lineare T r a n s f o r m a t i o n d e r A r t y = a + b x ; m i t d e m T r a n s f o r m a t i o n s t h e o r e m e r h a l t e n w i r für die n e u e M e t r i k p ( y ) = f ( ( x - a ) / b ) / b : ,, P(w> ° f )
ai
a
7 ,, ,
1
^ n(w-l)
\ ,\
=
na|w
Die G r ö ß e a \ w i r d d u r c h I n t e g r a t i o n z u e l i m i n i e r e n v e r s u c h t : P(w)
a
1 nw /
1 1 TT da?-
1
1
1
r
.3
.4
.5
.6
.7
r=r.8
.9
1 T] 1.0
Abb. 6.3 Posteriori-Verteilung für die Stärke der Effekte tj2 zur Daten-Version IV; es handelt sich um eine gestutzte und in der Metrik transformierte F-Verteilung; der Modus liegt über dem Wert 0.14.
b) Die Skalierung der posteriori-Verteilung wird durch die Daten bestimmt, und zwar nur durch F = MSb/MSf- Sowohl für p(w| Daten) als auch für p(i? 2 |Daten) hängt das Ausmaß der Stutzung vom Skalierungsfaktor F # ab; ebenso ist die Lage der posteriori-Verteilung nur auf diesem Wege durch die Daten bestimmt. Die Beziehung zwischen der Gestalt der posteriori-Verteilung und ihrer Lage tritt besonders klar zutage, wenn man die standardisierte Form der Verteilung für w anschreibt, p(w|Daten) °c
F ( > f , vb, 1 ) .
Ihre Gestalt hängt nur. von v ¥ und v B ab; sie ist an der Stelle 1/F^ gestutzt, und ihr Maßstab ist von F„. bestimmt. Der Nullpunkt rj 2 = 0 der Effektskala korrespondiert der Stelle w = 1/F^. Hier kann allein auf Grund des Versuchsplanes eine Schablone angefertigt werden, die der Verteilungsform entspricht; die Lage der Schablone wird durch die Daten bestimmt. Wieder merken wir an, daß Konfidenzintervalle im Standardansatz negative Effektstärken zulassen.
V
Abb. 6.4 Posteriori-Verteilung für die Stärke der Effekte 172 zur Daten-Version V; es handelt sich um eine gestutzte und in der Metrik transformierte F-Verteilung; der Modus liegt über dem Wert 0 (gleicher Maßstab wie Abb. 6.3).
—1—1—1—1—r
0
.1
.2
.3
.4
.5
1
.6
1
.7
1
.8
1—1 v
.9
1.0
6.5 Die posteriori-Verteilungen zum Box-Tiao-Tan-Modell
367
Es wird n u n nicht immer möglich sein, in einem Untersuchungsbericht die gesamte Verteilung für die Effektstärke darzustellen, u n d m a n wird statt dessen einige charakteristische Werte herausgreifen. Ein typischer Wert ist der Modus der posteriori-Verteilungen. u n d v2 Freiheitsgraden liegt
Der Modus einer standardisierten F-Verteilung mit für i>!= 2 an der Stelle ^ Modus
_ (Vj-2)i> 2 UI(u2+2) '
für den Modus einer nicht-standardisierten Verteilung mit d e m Skalierungsfaktor ip wird der Wert mit multipliziert. Der Modus der posteriori-Verteilung für w ist somit ¿
^
L
i [
l
^ W "f("B+2)
1 . *J
Für die Datenversion IV u n d V erhält man die Werte Version IV: w = t t ^ 3 . 4 1 3 = 2 . 1 7 4 2 , 45-6 Version V :
w = m a x (l ^ ( ' 4 5 •(
1.4115 = .8992^
= 1.
Rechnet man auf Grund dieser Metrik den Modus von w einfach in die Effektstärke r)2 u m , so ist ~2 _ rj
w - 1 w +n - 1
Für die beiden Beispiele erhält man die Werte Version IV: w = Version V:
1
=
1051
'
w = 0.
Nun ist aber der direkt umgerechnete Wert für den Modus der Effektstärke nicht tatsächlich der Modus der posteriori-Verteilung p(i? 2 | Daten); zur Bestimmung des tatsächlichen Modus m u ß die geänderte Metrik berücksichtigt werden. Bildet man die erste Ableitung von p(rj 2 | D a t e n ) «
p [ F y p , „B,
/" ^
Ff
=w]
,N2/w\"F/2_1 L
"F
W \ - ( " F + ^ßVi
6. Einfaktorielle Varianzanalyse
368
setzt diese null und löst nach t?2 auf, so erhält man eine quadratische Gleichung mit den Koeffizienten a = M"B-2)F1|1,
b = i;F(n-l)(i'B+2)-i'B(i'F+2)F,,
c = - p B ( n - l ) (v t —2);
mit den Zwischenwerten p = b/a,
q = c/a
erhält man den Wert w ' = - ( p / 2 ) + \/(p/2)2 - q und daraus den Modus F^w' + n -
1'
Für den Modus der Datenversion IV erhalten wir a = 4 5 ( 4 - 2 ) 3 . 4 1 3 = 3 0 7 . 1 7 , b = 45 • 9 • 6 - 4 • 47 - 3.413 = 1788.356, c = — 4 -9 -43 = -1548, p = 5.8220, q = - 5 . 0 3 9 5 5 , w' = - 2 . 9 1 1 0 + \ / ( 5 . 8 2 2 0 / 2 ) 2 +5.03955 = .7651 , 3.413 • .7651 - 1 _ n ,,fifi V " 3.413 - .7651 + 1 0 - 1 ~ ° ' 1 3 8 8 ' Die höchste Wahrscheinlichkeitsdichte auf der posteriori-Verteilung hat die Effektstärke 0.1388. Für die Datenversion V ist der Modus natürlich gleich null. Im Standardansatz verwendet man in der Regel nicht den Modus, sondern einen Wert, der dem Mittelwert der Verteilung entspricht. In die Definition der Stärke der Effekte setzt man einfach die unverzerrten (unbiased) Schätzwerte für die einzelnen Ausdrücke ein. Die unverzerrten Schätzwerte für diese sind Ob
_ MSb-MSf n
.
_
ct
F
MSf .
Man erhält dann = Pl
MS b - M S f MS B + ( n - l ) M S F
'
Es läßt sich jedoch zeigen, daß der daraus resultierende Schätzwert p \ wiederum verzerrt ist. Um einen tatsächlich unverzerrten Schätzwert zu erhalten, sollte man im Standardansatz mit der folgenden Formel arbeiten: ,2
p2 =
ß_
T,
1 - ß '
, , L . n _ MS B — k MSp wobei Kß = ttt; und k = n m MS F
fF - 2
(Winer, 1971, S. 248/9). An dem Aufbau dieser Schätzformeln sieht man nochmals klar, daß die Schätzwerte negativ sein können.
6.5 Die posteriori-Verteilungen zum Box-Tiao-Tan-Modell
369
Für die Beispiele IV und V erhält man die (unverzerrten) Schätzungen .18 und .03; die Werte liegen höher als die vorher ermittelten Werte für die Modi der posterioriVerteilungen. Eine komfortable Bestimmung von Wahrscheinlichkeiten unter der posteriori-Verteilung oder von Prozentpunkten für die Effektstärke ist ohne ein Programm nicht möglich. Da es Taschenrechner gibt, auf denen die F-Verteilung bereits fix vorprogrammiert ist, soll die Ermittlung von Wahrscheinlichkeiten links oder rechts von einer Effektstärke behandelt werden. Die Frage lautet also: wie groß ist die Wahrscheinlichkeit, daß die Effektstärke kleiner (größer) als ein bestimmter Wert — z.B. 0.1 — ist? Es werden folgende Schritte durchgeführt: (1) Rechne t ? 2 = 0 . 1 i n w u m : w = 1 + nr? 2 /(l-7? 2 ) = 2.1111. (2) Standardisiere den erhaltenen Wert: z = w / F ^ = 2.1111/3.413 = 0 . 6 1 8 5 . (3) Bestimme auf der Standard-F-Verteilung mit den entsprechenden Freiheitsgraden den Flächenanteil in der gewünschten Richtung: /
.6185
F ( 4 5 , 4 , 1) = .1866 bzw. /
0
F ( 4 5 , 4 , 1) = . 8 2 6 7 .
.6185
(4) Bestimme auf der Standard-F-Verteilung den gestutzten Anteil bis zum Kehrwert des errechneten F-Wertes: Der Kehrwert ist für unser Beispiel 1/3.413 = .293, und es ist 1 - P = / o
.293
F ( 4 5 , 4 , 1) = .0161
bzw. P = .9839 .
(5) Die Flächenanteile von Schritt (3) werden nun renomiert; dazu wird der gestutzte Flächenanteil subtrahiert und durch den verbleibenden Anteil dividiert: p(r?2 = 0.1|Daten) = • 8 1 3 ^ 8 3 9 ° 1 6 1 = .8358 und
p(r? 2 >0.1 IDaten) = .1733 .
Zur Bestimmung von Vertrauensintervallen ist es am einfachsten, nicht unmittelbar von tj 2 auszugehen, sondern von w und dann umzurechnen. Freilich ergeben sich auch dabei Probleme mit der Metrik. Es läßt sich auf diesem Wege aber doch recht bequem untersuchen, ob z.B. Effektstärken von null oder sehr nahe bei null in ein bestimmtes Intervall fallen oder nicht. Für die Beispiele IV und V ergeben sich folgende Intervalle für vi1:
370
6. Einfaktorielle Varianzanalyse
Intervall 50% 75% 90% 95% 99%
IV 2.2 0.0 0.0 0.0 0.0
- 24.5 -38.2 -54.8 -65.1 -82.3
V 0.0 0.0 0.0 0.0 0.0
- 10.2 -20.5 - 34.8 -45.7 — 68.4
Wir sehen, daß bei beiden Beispielen die Intervalle sehr breit sind. Mit Ausnahme des 50%-Intervalles bei dem Beispiel IV beginnen alle Intervalle auf der linken Seite bei der Effektstärke null. Extrem kleine Effektstärken k ö n n e n nicht angeschlossen werden. Ein Vergleich der Intervallgrenzen für die Beispiele IV und V zeigt weiter, daß die oberen rechten Intervallgrenzen bei IV durchweg höher sind als bei V. Bei V k ö n n e n hohe Effektstärken eher ausgeschlossen werden als bei IV. Zu IV gehören breitere Intervalle als z u m Beispiel V. Die Unsicherheit von Aussagen über die Effektstärke ist bei IV größer als bei V. So betrachtet sind die Daten von IV weniger informativ als die von V. Die D a t e n von V sind aufschlußreicher insofern sie sehr kleine Effektstärken wahrscheinlich machen. Wollen wir 9 0 % sicher sein, so k ö n n e n wir allerdings erst Effektstärken über 35 ausschließen. Die Daten von IV lassen größere Effektstärken zu. Die Intervalle sind j e d o c h so groß, daß praktisch keine interessanten Bereiche ausgeschlossen werden.
6.5.3 Die posteriori-Verteilungen für Mittelwerte und Mittelwertsdifferenzen Die posteriori-Verteilungen für die Mittelwerte leiten wir nicht Schritt für Schritt ab; es wird j e d o c h versucht, die wesentlichen prinzipiellen Überlegungen, die damit verbunden sind, dem Leser vor Augen zu führen. Die Details findet m a n bei Box und Tiao ( 1 9 7 3 , S. 3 7 2 f f . ) . Die gemeinsame priori-Verteilung für alle Parameter erhält m a n mit dem BayesTheorem aus dem Produkt von priori-Verteilung und Likelihood-Funktion. Die posteriori-Verteilung ist auf Grund der gewählten priori-Verteilung für (/i, ctb, » f ) und auf Grund der Spezifizierungen im hierarchischen Modell p(M,Mi, • • • , M m , ob, I ) F
„f(„b
+
2)
t o t a l ,
(^totai-2)var] .
(***)
Beispiel Wir betrachten die Datenversion I V . a ) Zunächst nehmen wir an, daß p, CTb und a F
gegeben seien, und zwar mit
folgenden Werten: ß = 99.18,
(Die
403.92 -
Parameter wurden
118.35
=
^
^
ff2
=
1 1 8 J 5 -
einfach durch ihre unverzerrten Schätzwerte
ersetzt:
99.18 ist der Mittelwert aller Daten, 28.557 die Schätzung für die Bedingungsvarianz und 118.35 die Schätzung für die Fehlervarianz.) Für die Formel ( * ) erhalten wir gF
=
ffF + naß
118-35
=
118.35 + 10 - 28.557
1 - z =
.707 ,
pj
.707 x j + .293 x ,
=
=
'
und für die Varianz erhalten wir einheitlich für alle Mittelwertsverteilungen
1
s. Fußnote S. 373
6.5 Die posteriori-Verteilungen zum Box-Tiao-Tan-Modell
375
2
var = ^ f ( l - z ) =
11 8 35 1 q
.707 = 8.3673 .
Es ergeben sich folgende Punktschätzungen für die Mittelwerte: p ! = .707 • 93.9 + .293 • 99.18 = 95.447 , ju2 = .707 • 92.5 + .293 • 99.18 = 94.4572 , usw. (vgl. Tab. 6.3) Die posteriori-Verteilungen lauten also p!!Daten ~ (95.447,8.3673) , p 2 lDaten - ( 9 4 . 4 5 7 2 , 8 . 3 6 7 3 ) , usw. b) Für die Formel (**) erhalten wir mit F^ = 3 . 4 1 3 i j ( F J = ( l - l / F . ) Xj + ( 1 / F , ) x = .707 Xj + .2930 x usw. usw. Es ergeben sich die gleichen Zahlenwerte wie unter a); der Grund dafür liegt in der besonderen Wahl der Zahlenwerte für die Parameter in a). c) Für die Formel (***) benötigen wir zuerst die Momente der gestutzten modifizierten F-Verteilung. Für den Zähler ist J ^ L i vfivB+2)
=
l i l ^ l M L 45(4+2)
3
= 2.1742
(Dies ist nota bene der Modus der noch nicht gestutzten posteriori-Verteilung von w, vgl. S. 367). Weiter ist p [ F „ B + 2 ) „ f _ 2 < 2.1742] = p[F 6 > 4 3 < 2 . 1 7 4 2 ] = .9358 , und wir kennen bereits den verbleibenden Teil der gestutzten posteriori-Verteilung von w p [ F „ B , „ F < 3 . 4 1 3 ] = p[F 4 > 4 5 < 3.413] = .9839 . Damit ist J
=
i L F^p-2)
^358
=
.9839
und i j = .7084 Xj + .2916 x .
45 3.413-43
9 5 U
=
29
.6
376
6. Einfaktorielle Varianzanalyse
Wir sehen, daß die Schätzungen für die Mittelwerte fast völlig mit den Werten aus der Approximation b) identisch sind. Wir untersuchen nun die Varianzen der posteriori-Verteilungen. Dazu berechnen wir das zweite Moment um den Ursprung: = 4
"fOB+4)
. 4 i .3 r 413 45-8
=
p[F 8i41 < 1.5548]/p[F 4 , 4 5 b ( ^ B 2 H ^ F - 4 ) " 8 4 4 9 = 3.413*5.24 6 43 . 41 = " 1 4 7 9 ' " 8 4 4 9 = " 1 2 5 '
ßi = M2 - (M'i)2 = -125 - .29162 = .0399 . Nun errechnen wir die Varianz der posteriori-Verteilung Vafj
_ 5(5325.6875+ .2916-1615.6875) - 4 (.2916-5325.6875 + . 125 -1615.6875) " 10 • 5 • (49-2) + (xj-x) 2 .0399 = 9.3465 + (xj—99.18) 2 .0399 .
Für die posteriori-Verteilung der ersten Stufe j = 1 ist var, = 9.3465 +(93.9-99.18) 2 .0399 = 10.4589 (=3.234 2 ) und für j = 2 var2 = 9.3465 + (92.5-99.18) 2 = 11.1269 (=3.336 2 ) usw. (vgl. Tab. 6.3) . Die posteriori-Verteilungen sind MiIDaten ~ t(49,95.4399,47 • 10.4589) = t(49,95.4399,491.5683) usw. Die Abb. 6.5a zeigt die posteriori-Verteilungen für alle fünf Stufenmittelwerte zur Datenversion IV; für die Daten Version V sind die posteriori-Verteilungen in der Abb. 6.6 a gezeichnet. Die Abb. 6.5b zeigt zum Vergleich posteriori-Verteilungen für eine Varianzanalyse mit „fixen Effekten". Ein Modell mit fixen Effekten liegt vor, wenn die Stufenmittelwerte /ij „fix" sind und nicht wie bisher einer Wahrscheinlichkeitsverteilung (Normalverteilung) folgen. Eine Konsequenz dieses Modells ist, daß dort, wo bishei gestutzte F-Verteilungen und entsprechende Modifikationen auftraten, nun ungestutzte Verteilungen vorkommen. Damit sind negative Varianzen nicht ausgeschlossen. Die folgenden posteriori-Verteilungen für die Stufenmittelwerte führen zu Ergebnissen, die denen des Standardansatzes - mit anderer Interpretation - entsprechen.
6.5 Die posteriori-Verteilungen zum Box-Tiao-Tan-Modell
377
Für fixe Effekte ist die posteriori-Verteilung für einen Stufenmittelwert l - SSF\ p(ju j |Daten) = t ^ , X j , - i r - / / . So ist z.B. für die Datenversion V im Modell mit fixen Effekten pO.IDaten) = t(45,93.9,
532
5 q 6 8 7 5 j = t(45,93.9,532.5688) ;
im Vergleich zu der vorher ermittelten Verteilung t(49,95.4399,491.5683). Die Verteilungen unterscheiden sich sowohl im Mittelwert als auch in der Varianz. Die Varianz bei fixen Effekten ist durchweg größer, und die Mittelwerte liegen weiter auseinander. Im Modell mit „Zufallseffekten" sind die Varianzen kleiner als im Modell mit fixen Effekten, die Varianz ist weiter bei Mittelwerten, die nahe beim Gesamtmittel liegen, kleiner als bei solchen, die am Rande sind; weiter rücken die Mittelwerte näher zusammen, die Unterschiede zwischen ihnen „schrumpfen". Auf diesen Effekt wollen wir nun ausführlich eingehen.
378
6. Einfaktorielle Varianzanalyse
115 Abb. 6.6 Posteriori-Verteilungen für die Mittelwerte der Datenversion V (a) Modell mit Zufallseffekten, (b) Modell mit fixen Effekten.
6.5.4 Die Schrumpfung der Mittelwertsunterschiede Wir stoßen an dieser Stelle auf einen prinzipiellen Unterschied in der statistischen Analyse von zwei Stichproben und von mehr als zwei Stichproben. Wir legen in beiden Fällen nicht-informative priori-Verteilungen zugrunde. Die posteriori-Verteilung für die Mittelwerte p(MjlDaten) von zwei Stichproben ist um den Wert Xj zentriert. Das gilt offensichtlich bei dem eben behandelten Modell für mehr als zwei Stichproben nicht mehr. Wenn wir den Mittelwert (oder Median oder Modus) der posteriori-Verteilung als Schätzung für den entsprechenden Parameter verwenden, so ist für zwei Stichproben fij für mehr als zwei Stichproben
= Xj , ßj = (1 —w)xj + wx .
6.5 Die posteriori-Verteilungen z u m Box-Tiao-Tan-Modell
379
Die Gewichtung bei mehr als zwei Stichproben hat zur Folge, daß die posterioriVerteilungen in ihrer Lage alle etwas enger zum Gesamtmittelwert x hin zusammenrücken. Diese Verminderung der Unterschiede im Vergleich zu den Kennwerten der Daten heißt „Schrumpfung" (shrinkage, smoothing). Das Gewicht w bezeichnen wir als Schrumpfungsfaktor. Wenn in jeder Stufe isoliert geschätzt wird, so erhalten wir für die Datenversionen I, II, III bzw. für die Beispiele IV und V jeweils ganz ähnliche Werte. Das würde bedeuten, daß auch die geschätzten Unterschiede etwa gleich groß sind. Auf der anderen Seite hatten wir festgestellt, daß bei der Datenversion III bzw. V kaum mehr Unterschiede erkennbar sind. Für die Datenversion III sollten die Unterschiede zwischen den frei geschätzten Mittelwerten viel kleiner sein, dJi. die Schätzungen sollten näher zusammenrücken. Im Extremfall müßten sogar alle Schätzungen gleich dem Gesamtmittelwert sein, und zwar dann, wenn wir sagen, daß überhaupt keine Unterschiede vorliegen. Dann ist der Schrumpfungsfaktor 1. Es ist unlogisch, auf der einen Seite zu sagen, daß keine wesentlichen Unterschiede zwischen den Mittelwerten vorliegen, bei der Schätzung dieser Werte die eben getroffene Feststellung jedoch zu ignorieren. Die Schätzungen für die Mittelwerte sind nicht invariant gegenüber dem Verhältnis von Fehlervarianz und Bedingungsvarianz. — Nota bene: Genau mit dieser Invarianz wird im Standardansatz fortwährend gearbeitet; gleichgültig, ob ein errechneter F-Wert signifiaktn ist oder nicht, die Schätzung der Mittelwerte wird davon nicht betroffen; auch wenn die „Nullhypothese" Mi = M2 = • • • = Mm angenommen wird, hat das keinen Einfluß auf die Schätzungen Die Schrumpfung ergibt sich in drei theoretischen Ansätzen: (1) im Standardansatz, (2) im Ansatz der Kreuzvalidierung und (3) in der Bayes-Statistik. Wir gehen kurz auf die Kreuzvalidierung und den Standardansatz ein. Kreuzvalidierung Die folgenden Überlegungen gehen auf Geisser (1974) zurück und wurden unabhängig zur gleichen Zeit von Stone (1973, 1974) angestellt. Versetzen wir uns in folgende Situation: Ein Wert aus unseren fünf Stichproben der Datenversion IV wird zugehalten und soll auf Grund der restlichen 49 Daten möglichst gut geschätzt werden. Wir können das der Reihe nach für alle Daten durchmachen; wir brauchen uns nur vorzustellen, daß unsere Daten auf Kärtchen stehen, jedes Kärtchen einmal unter den Tisch gehalten wird und der auf ihm stehende Wert geschätzt werden soll. Als Kriterium für die Güte der Schätzung verwenden wir den mittleren quadratischen Fehler.
1
Einen gewissen, letztlich jedoch unbefriedigenden Ausweg versucht die „Vortest-Schätzmethode": es wird zunächst geprüft, ob ß 1 = , . . . , = Mm und je nachdem, ob der Test positiv oder negativ ausfällt, werden die Mittelwerte alle durch x geschätzt oder durch x , , x 2 , . . . , x m . Schrumpfungsfaktoren führen zu einem „weichen" Übergang zwischen beiden Möglichkeiten.
6. Einfaktorielle Varianzanalyse
380
Halten wir zunächst die i-te Beobachtung der j-ten Stichprobe unter den Tisch. Für die verbleibenden restlichen Daten der j-ten Gruppe erhalten wir dann folgenden Mittelwert: - t u \ _ x;(ohne x y ) = 1 '
xn-xn — L n —1
_ =
n*i — xij —1—H-
n — 1
Für den Gesamtdurchschnitt ist der Mittelwert ohne x y x (ohne x y ) = '
~ Xij nm — 1
= ^
£ j 2 i X i j
^ N — 1
, N = nm
Wir sagen das ausgelassene x y mit der Regel vorhergesagtes xy = (1— z ) Xj(ohne Xjj) + z x ( o h n e x y ) vorher; wenn wir das für alle N Beobachtungen wiederholen und den mittleren quadratischen Fehler bestimmen, so erhalten wir
N =
M
i j
N ( n
U
Z)
n—1
N—1
Z
M
_1)21(N_1)aSJS,{(l-z)(N-l)nxi-n[N-l-z(m-l)]xiltz(n-l)Nx}a
Wir führen in der Klammer die Ausdrücke —zN und + z N zusätzlich ein und erhalten nach wenigen Umformungen =
N ( n
_1)12(N_1)2SjSi{n[N-l-z(m-l)](xj-xij)-z(n-l)N[xj-x)}2
.
Beim Ausquadrieren wird der „2ab-Ausdruck" gleich null und das Ergebnis ist 2
_
i in2m[N—1—z(m—l)]2
"
N l
(n—1)(N—l)2
n[N—1—z(m—l)]2 (n-l)(N-l)
(N
2
z2N(m-l) M S f
+
(N-l)2
M S e
z2N(m—1) M S p
+
(N-l)2
M S ß
f[N—1—z(m—l)]2 1 n 2 —j-^2 | — j - — - — M S f + z m ( m - l ) MSB j
Wir interessieren uns für die Schätzung, die den mittleren quadratischen Fehler minimiert. Wir bilden daher die erste Ableitung, setzen diese gleich null und lösen nach z auf: _ (N—l)(m—1) 2|J ds 2 /dz A ^ , -MSF "
¡^1
M
S
f
(m—l)2z + ^ — f — MSF +
+ M(M—1)ZMSB
=
0;
6.5 Die posteriori-Verteilungen zum Box-Tiao-Tan-Modell
381
und schließlich ist (N—1) MSP
(m—1) MS f + m(n—1) MS B ' Zi = min(z, 1 ) . Ein ganz ähnliches Vorgehen führt bei etwas anderen Modellannahmen zu dem Schrumpfungsfaktor n MSF (n—1) MS B + MSp ' z 2 = min(z', 1) . Für die Datenversion IV erhalten wir folgende Zahlenwerte: 7,1 = 7 =
49 • 118.3468 _ = 4 • 118.3486 + 5 • 9 • 403.9219
„lriQ 3109
und 22
=
Z
>=
10 • 118.3486 9 - 4 0 3 . 9 2 1 9 + 118.3486
=
Die auf Grund dieser Faktoren geschätzten Mittelwerte sind in der Tab. 6.3 angegeben. Standardansatz Wir wenden uns nur der Schrumpfung der Mittelwertsunterschiede im Standardansatz zu. Solche Schätzungen wurden bereits 1927 von Kelley im Zusammenhang mit Regressionsgleichungen bei psychologischen Tests vorgeschlagen. Novick und Jackson weisen auf diesen Umstand hin und heben Kelleys Überlegungen als „link between classical test theory and Bayesian methods" hervor (1974, S. 94). Vor mehr als 20 Jahren stellte Stein (1956) in einer wichtigen Arbeit Schwierigkeiten im Standardansatz fest: Bei mehr als zwei Stichproben sind die Mittelwerte der Daten unzulässige Schätzungen für die Mittelwerte der Population. Das Kriterium der Zulässigkeit (admissibility) einer Schätzung besagt, daß es keine andere Schätzung gibt, die zu einem mittleren quadratischen Fehler führt, die nirgends schlechter, aber mindestens einmal besser ist. Der mittlere quadratische Fehler ist in der vorliegenden Situation MSE(/2J, ßJ) = E[(MJ-MJ)2] ;
/2j ist der geschätzte Mittelwert, /ij der tatsächliche. Wir formulieren genauer: S* S y ist eine zulässige Schätzung für den Parameter 6 £ 0 , wenn es
6. Einfaktorielle Varianzanalyse
382
1) keine andere Schätzung S G y gibt, die an irgendeiner Stelle des Parameters einen kleineren MSE-Wert hat: MSE(S*, 0) < MSE(S, 0) , für alle S S
und alle 0 6 0 ,
und wenn 2) S* an mindestens einer Stelle besser ist als die Konkurrenten: MSE(S*, 0) < MSE(S, 0) für mindestens ein 6 . Kurz: Der quadratische Fehler ist nirgends größer, aber manchmal kleiner als bei allen Konkurrenten. Für Gauß-Prozesse läßt sich beim Ein- und Zweistichprobenfall zeigen, daß x bzw. ( x , , X2) zulässige Schätzungen für ß bzw. ( j i t , (i 2 ) sind. Geht man auf drei und mehr Stichproben über, so ändert sich dies jedoch grundsätzlich. Stein (1956) behandelte folgende Situation: X!, . . . , x m seien die beobachteten Mittelwerte von Stichproben aus m Gauß-Prozessen. Die Prozesse sind durch die Mittelwerte ß i t . . . , ß m und durch eine gemeinsame Fehlervarianz gekennzeichnet; die Varianz wird als bekannt vorausgesetzt. Stein zeigte, daß die übliche Schätzfunktion Mj = Xj nicht zulässig ist, da eine Schätzfunktion der Form fij = c x j + ( l - c ) x mit c
= 1—
+
'
, a , b > 0 , a genügend groß und b genügend klein
zu einem kleineren mittleren quadratischen Fehler führt. Dieses Ergebnis wurde weiter untersucht und verallgemeinert (Stein, 1962; James und Stein, 1961); so zeigte z.B. Brown (1966), daß die Trennlinie zwischen zwei und drei Stichproben auch unter anderen Fehlerfunktionen weitgehend erhalten bleibt und daß sie nicht nur für Stichprobenpläne mit präfixierten Stichprobengrößen gilt, sondern auch für sequentielle Pläne. Wegen den variablen Größen a und b ist der Schrumpfungsfaktor von Stein nicht konkret bestimmt. Die Vorschläge zur Fixierung des Faktors beruhen z.T. auf heuristischen Überlegungen, sind aber oft auch stark von Überlegungen aus dem Bayes-Ansatz beeinflußt. Unter der Voraussetzung, daß a\r bekannt ist, führt der Schrumpfungsfaktor c
= 1
( m - 2 ) gp
6.5 Die posteriori-Verteilungen zum Box-Tiao-Tan-Modell
383
zu sog. James-Stein-Schätzungen. Lindley (1962) schlug den Faktor c
(m—3)gp
=
m
=
4
vor; diese Schätzung ist besser als eine Maximum-Likelihood-Schätzung. Die Faktoren c' und c" lassen sich bei der Untersuchung von m Prozentsätzen gut verwenden. Einen leicht verständlichen Überblick geben Efron und Morris (1977); anspruchsvoller ist ihr Beitrag aus dem Jahr 1973. Für unsere Zwecke müssen wir jedoch davon ausgehen, daß die Fehlervarianz nicht bekannt ist. Wenn wir durch MSp schätzen, so sehen wir, daß für hinreichend große m
Diesem Schrumpfungsfaktor sind wir bereits im Bayes-Ansatz begegnet, und zwar als Approximation im Box-Tiao-Tan-Modell. Den gleichen Faktor erhält man auch als Grenzwert im Ansatz der Kreuzvalidierung: Für fixes m geht mit n -»• 00 der F a k t o r z , in 1 - 1 / F , über(Geisser, 1974, S. 103). Für den Fall, daß die Fehlervarianz nicht bekannt ist, verwendet man auf dem Hintergrund von Stein den Faktor j
L F,
m(m—3)(n—1) [m(n—l)+2](m—1)
Unverständlicherweise werden im Standardansatz die Ergebnisse von Stein und die sich daran anschließenden Überlegungen ignoriert. In der Praxis arbeitet man weiter mit Varianzanalysen, als ob nichts gewesen wäre. Nochmals: Alle Mittelwertsschätzungen der verbreiteten Varianzanalysen sind unzulässig. Auch gibt es Schätzungen, die den Maximum-Likelihood-Schätzungen überlegen sind, „the result of Stein's undermines the most important practical technique in statistics. Though as Bartlett, Kemthorne and Novick have elsewhere pointed out, some statisticians, notably in genetics and education, have recognized this for almost 50 years. But next time you do an analysis of variance or fit a regression surface (a line is all right!) remember you are, for sure, using an unsound procedure. Unsound, that is, by the criteria you have presumably been using to justify the procedure." (Lindley, in der Diskussion zu Efron und Morris, 1973). Die Tab. 6.3 gibt einen Überblick zu den Ergebnissen auf Grund der Box-TiaoTan-Formel, der Approximation über den reziproken F-Wert, der Kreuzvalidierung Z] und z 2 nach Geisser und der Schätzung nach Stein. Für das Beispiel IV sind alle Schrumpfungsfaktoren mit Ausnahme der Stein-Schätzung sehr ähnlich. Die asymptotische Schätzung über den reziproken F-Wert ist eine voll befriedigende Annäherung. Leider trifft dies für das Beispiel V nicht zu. Hier ist der Faktor für
384
6. Einfaktorielle Varianzanalyse
die Box-Tiao-Tan-Schätzung mit .487 wesentlich kleiner als die Approximation und als die beiden Geisser-Schätzungen. In beiden Fällen führt die Stein-Schätzung zur geringsten Modifikation der Stichprobenmittelwerte. Ähnliche Beispiele findet man bei Novick et al. 1971, S. 283) und Geisser ( 1 9 7 4 , S. 105). Box-Tiao
Approx
Kreuzv 1
Kreuzv 2
Stein
93.9 92.5 98.1 106.9 104.5
95.4399 94.4482 98.4150 104.6485 102.9485
95.4470 94.4572 98.4164 104.6381 102.9412
95.5418 94.5771 98.4358 104.4995 102.8458
95.5647 94.6061 98.4405 104.4660 102.8227
94.6406 93.4370 98.2515 105.8172 103.7538
s
Box-Tiao
.3109
.3153
.1403
Stufe j 1 2 3 4 5
i
1 2 3 4 5
7.8 8.9 10.8 9.2 13.8
3.2340 3.3360 3.0648 3.4242 3.2367
Schrumpfungsfaktor
.2916
Stufe j
x
2.8926 2.8926 2.8926 2.8926 2.8926 .293
Box-Tiao
Approx
Kreuzv 1
Kreuzv 2
Stein
96.7648 97.5854 100.9192 101.2782 100.2524
97.8850 98.3514 100.2462 100.4502 99.8672
97.9724 98.4111 100.1937 100.3857 99.8372
97.9926 98.5250 100.1815 100.3707 99.8302
96.0162 97.0735 101.3689 101.8315 100.5098
.7258
.7298
.3392
1 2 3 4 5
j 94.3 95.9 102.4 103.1 101.1
1 2 (d) 3 4 5
10.2 14.4 6.7 8.4 9.0
2.9296 2.7763 2.7446 2.7995 2.6710
1.8153 1.8153 1.8153 1.8153 1.8153
Schrumpfungsfaktor
.4871
.7085
Box-Tiao
Tab. 6.3 (a) Mittelwerte und verschiedene Schätzungen für die Parameter zur Datenversion IV, (b) Streuungen in der Stichprobe und Streuungen der posteriori-Verteilungen für die Mittelwerte zur Datenversion IV, (c) und (d) entsprechend für die Datenversion V
6.5.5 Die posteriori-Verteilungen für paarweise MitteIwertsdifferenzen Auch bei Varianzanalysen besteht häufig ein Interesse an einzelnen paarweisen Mittelwertsvergleichen: Wie groß ist die Wahrscheinlichkeit, daß der Mittelwert der Versuchsbedingung j größer ist als der Mittelwert der Versuchsbedingung k?
6.5 Die posteriori-Verteilungen zum Box-Tiao-Tan-Modell
385
Wie groß ist die Wahrscheinlichkeit, daß der Unterschied mehr als 5 Punkte beträgt? Welche Grenzen hat ein 95-%-HPD-Intervall? Usw. Wenn wir zunächst wieder annehmen, daß a \ und a2F und damit auch z = OpKop+na 2 ) bekannt sind, so wissen wir, daß die posteriori-Verteilung für die Mittelwerte eine multivariate t-Verteilung ist. Die Randverteilungen für Mittelwertsdifferenzen sind dann ebenfalls t-Verteilungen, und zwar P(Mj Mklz, Daten) = t[n t o t a l , Mj-ju k , (f t otai-2)var 6 ] , wobei Mj-Mk = ( l - z ) ( x j - X k ) , 2s 2 (z) var6=—n
SSp + zSSß , . ^ " (1-z) .
und s 2 (z) =
Die Größe (Mj-Mk) ~ ( l - z ) ( x j - x k ) ^(ftotai-2)var6 ^total
folgt also einer Standard-t-Verteilung mit N — 1 Freiheitsgraden. Als Approximation kann wieder 1
*
verwendet werden. Eine wesentlich bessere Annäherung erhält man natürlich, wenn z wieder mit Hilfe von bestimmt wird. Die Varianz der posteriori-Verteilungen für die Mittelwertsdifferenzen ist für alle paarweisen Vergleiche gleich. Beispiel:
Bei der Datenversion IV beträgt die Varianz der posteriori-Verteilungen für alle paarweisen Mittelwertsunterschiede mit der Approximation z = 1/F^
s
2
var 6
oc + aap ZJJB =— ¡ ^
it (1
x _ " > "
= 2-83.6727/10 = (ftotai-2)var 6
Z
5325.6875 +
3.413 49
1615.6875 , /i l1
= 83.6727 = 16.7345, (s 6 = 4.0908) = 786.5238 ;
es ist also Mj-MklDaten ^ t [ 4 9 , , 7 0 7 ( x j - x k ) , 786.5238] .
, x 1 \ 3.413 ) '
6. Einfaktorielle Varianzanalyse
386 Die Wahrscheinlichkeit, daß t =
> p 3 , ist mit H i l f e der Standard-t-Verteilung,
0 - .707(106.9-98.1) / 786.5238
V
_
t 1.5529 ,
49
0.9366. Die Abbildung 6.7a zeigt einige posteriori-Verteilungen für Mittelwertsdifferenzen. Die Schrumpfung wirkt sich selbstverständlich nicht nur auf die Parameterschätzungen aus, sondern ebenso auf die Mittelwertsunterschiede. A l l e wesentlichen Fragen zu den Mittelwertsdifferenzen lassen sich mit H i l f e der t-Verteilungen beantworten.
Daten
Daten
' t(49, -t(49, ' t(49, ' t(49, ' t(49,
9.209, 821.256) 8.5 ,821.256) 7.509, 821.256) 6.234, 821.256) 3.967, 821.256)
~t(45, ~t(45, ~t(45, ~t(45, ~t(45,
Abb. 6.7 Posteriori-Verteilungen für ausgewählte Mittelwertsdifferenzen (a) Zufallseffekte (b) Modell mit fixen Effekten (Datenveision I V )
13.0, 12.0, 10.6, 8.8 , 5.6 ,
1065.137) 1065.137) 1065.137) 1065.137) 1065.137)
387
6.5 Die posteriori-Verteilungen zum Box-Tiao-Tan-Modell
Daten
-t(49, -t(49, ' t (49, 't(49, -t(49,
Daten
4.513, 3.488, 3.334, 2.667, 0.359,
-t(45, ' t(45, ' t(45, 't(45, ' t(45,
8.8, 6.8, 6.5, 5.2, 0.7,
553.728) 553.728) 553.728) 553.728) 553.728)
1017.438) 1017.438) 1017.438) 1017.438) 1017.438)
Abb. 6.8 Posteriori Verteilungen zur Datenversion V für ausgewählte Mittelwertsdifferenzen (a) Zufallseffekte (b) Modell mit fixen Effekten
Zum Vergleich sind in der Abb. 6.7b posteriori-Verteilungen für fixe Effekte abgebildet. Die posteriori-Verteilungen für dieses Modell sind / SS \ p(Mj-MklDaten) = t ( ^ F , Xj-X k , —¡r 1 j •
6.5.6 Die posteriori-Verteilung für lineare Kontraste
Zu den für sachliche Fragestellungen besonders interessanten und ergiebigen Möglichkeiten der einfaktoriellen Varianzanalyse gehört die Untersuchung von linearen Kontrasten. Hierbei werden nicht die absoluten Werte der Mittelwerte betrachtet, sondern die relativen Werte — relativ in bezug auf den Gesamtmittel-
6. Einfaktorielle Varianzanalyse
388
wert. Ein linearer Kontrast kann als ein Profil von Mittelwertsunterschieden aufgefaßt werden: Wenn ß i , . . . , p m die Stufenmittelwerte sind und ß ihr Gesamtmittel ist,
fi = m
'
so ist ein Einzelkontrast die Differenz °b
+ 2 )
n , 7
— i s t nale stehen.
der Durchschnitt der m — 1 Werte, die bei festem j neben der Diago-
406
6. Einfaktorielle Varianzanalyse
Damit ist Restsummei + Ergänzung
=
2 B
^
Sj^Jjn]1 [ngB+(m-l)gp]-2mjUjnaBXj
^jitj
K
2 mx—x,
naB — — f
m—1 nog+op
2
-
+CTFX
-2/x j (m-l)ii j nCTBXjCTK]J mnaj ma\a\ ma
Dä
|Mj
mnaß + ( m — l ) a p _ n a ^ + ap 0 5 ~~ 2 7 . mffjffp °BaF
Mj
j m a
na 2 B +a£
J
7 , B
führt die Subtraktion der Ergänzung genau zur gewünschten Diagonalsumme. Wird bei einer multivariaten Normalverteilung mit dem Exponenten (ßt-Jl)' V ( S - J t ) = SSixj-Mj) cjk ( x k - ß k ) die Matrix invertiert, so ist das Ergebnis die Varianz-Kovarianz-Matrix. In der Diagonale von ^ ~ 1 stehen die Varianzen der einzelnen Randverteilungen. Im vorliegenden Fall ist /a+b b ... b a+b... b
b
b \ b ]
/ = ( a + b )
[
a+b /
1 b/(a+b) . . . b/(a+b)' b/(a+b) 1 . . . b/(a+b)
\b/(a+b)b/(a+b)
...
1
Die Inversion läßt sich leicht mit Hilfe der Determinanten und Adjunkten vornehmen. Ein ganz analoges Beispiel findet man bei Kendall ( 1 9 6 5 , S. 13, S. 126 u. 127). Wir gehen von der Matrix aus, in deren Hauptdiagonale nur die Werte 1 stehen. Die Determinante einer m x m-Matrix dieser Form ist O-rr-'il+On-Or], wobei r = b / ( a + b ) der konstante Wert der Nichtdiagonalelemente ist. Dies ergibt sich sofort aus der Definition der Determinante. Nun ist das erste Diagonalelement der invertierten Matrix C
»
=
D^
D e t [ A d
j
( C l
]'
407
6.6 Informative priori-Verteilungen: der Lindley-Ansatz wobei A d j ( c n ) die adjungierte Matrix zum Element c n Matrix
ist: Das ist die ganze
„rechts unterhalb" von c n , die Matrix, die nach Streichung der ersten
Zeile und der ersten Spalte verbleibt. Die Adjunkte ist eine ( m
1) x ( m — 1 )
-Matrix, hat aber genau die gleiche Struktur wie H. Daher ist D e t [ A d j ( c n ) ] = (1—r)m c 11 =
_2
[ 1 +(m—2)r] ,
(1—r)m ~ 2 [ 1 +(m—2)r] ( 1 -r)
m
'2
"
1 + (m-2)r
[ l + ( m - 2 ) r]
( 1 - r ) [ 1 + ( m - 1 ) r]
und dies gilt natürlich für alle cjj in der Diagonale. Für die Nichtdiagonalelemente cjk,j¥=k
ist - r (l-my-'n+im-Or]
Cjk
'
Setzt man r = b / ( a + b ) ein, so ist
var j k
:
C,i
a + b + (m—2)
a + mb - b
(a+b—b) [ a + b + ( m — l ) b ]
a(a+mb)
1 + (m-2)b/(a+b)
= (1-
1 +(m—1) a+b
a+b
Nun sind 2
a + mb
=
.
2
nag + CTp 2
2
2
naB 2
,
2
ala\.
rB CTF
°BaF
a(a+mb):
ngß
m
2
2
+ gF
n_
2
(nCTß+ap)n
2
und weiter (m—l)b
= mb — b = — y
+
mai
so daß 2 . 2 n a g + ffj.ab + mb — b
2
2
mai
PbpF
a(a+mb)
2
m a B_ _
(naB+ffF)n
2
4
aBaK na
B
+ aF
Oy
mn(nag + a£)
aB na F Weiter unten benötigen wir eine F o r m für die Varianz, in der sie als ein Produkt von tfp und einem zweiten Faktor dargestellt wird, in dem nur mehr das Varianzverhältnis % v o r k o m m t : var.
_L n£+l
1 mn(n£+l)
n£ + 1
5+
mn
für gleiche rij
408
6. Einfaktorielle Varianzanalyse
0l
2 " [£+
jp
), für ungleiche rij, i = 1 , . . . , m .
n¡|+l
6.6.5 Prädiktiwerteilungen Ebenso wie bei den Ein- und Zweistichprobenplänen wenden wir uns nun der Vorhersage einer vertauschbaren (nj + l)-ten Beobachtung zu. Wir interessieren uns für Wahrscheinlichkeitsaussagen über die nächste Beobachtung aus einer der m Stichproben. Angenommen, in einer Klinik wurde bei N Patienten mit der Diagnose A die Aufenthaltsdauer in der Station X festgehalten. Nun steht der (N+l)-te Fall vor der Tür; was für Wahrscheinlichkeitsaussagen kann man über seine voraussichtliche Aufenthaltsdauer treffen? Nehmen wir weiter an, daß für die Diagnose A Unterformen a [ , . . . , a m existieren und daß die bisher untersuchten Patienten genau einer dieser Unterformen zugeordnet wurden. Nun steht der nächste Patient vor der Türe - von ihm weiß man aber zusätzlich, daß er zur Untergruppe a¡ gehört. Welche Wahrscheinlichkeitsaussagen lassen sich über seine Aufenthaltsdauer machen? Die erste Frage behandelt man mit der Prädiktivverteilung des Einstichprobenfalles; man hat nur eine große undifferenzierte Gruppe mit N Beobachtungen. Auch bei der zweiten Frage kann man daran denken, auf den Einstichprobenfall zurückzugreifen und diesmal die statistische Analyse nur auf den nj Fällen aufzubauen, die schon bisher in diese Unterform aj fielen. Dabei würde man allerdings all die anderen Fälle mit der Diagnose A ignorieren. Bereits bei der Mittelwertsschätzung sahen wir, daß es einen Zwischenweg gibt und daß dieser besser ist als die beiden extremen Möglichkeiten. Auch bei den Prädiktiwerteilungen erhalten wir eine gewichtete Kombination, die einmal auf allen bisher untersuchten Fällen mit der Diagnose A beruht, in die aber auch insbesondere die Fälle mit der Unterform a¡ eingehen. Die Prädiktiwerteilungen können mit Hilfe der bisher bereits hergeleiteten Ergebnisse leicht gewonnen werden. Wir suchen die Wahrscheinlichkeitsverteilung für die nächste Beobachtung aus der j-ten Stufe: P(x n j + i,jl Daten) oder auch kurz p ( x | Daten)
6 . 6 I n f o r m a t i v e priori-Verteilungen: der L i n d l e y - A n s a t z
409
Wir wissen, daß sich die Prädiktivverteilung aus dem Produkt von Modelldichte und posteriori-Dichte ergibt. Die Modelldichte ist p(x|jUj, CTp) und die zugehörige posteriori-Verteilung p(Mj, CTb> OpIDaten). Die Prädiktivverteilung erhalten wir über das Integral oder die „gewichtete S u m m e " über dem Produkt beider Verteilungen: p(x|Daten)
IDaten) d/ijdagdap .
Alle drei Verteilungen sind uns bekannt. Wir integrieren zunächst /ij hinaus; jUj kommt nur in den beiden ersten Verteilungen vor. Dies sind beides Normalverteilungen, und zwar p(x|/Ij, CTp) = N(jUj,CTp), P(MjlOb.
Daten) = N ( t j , v a r j ) .
Das Produkt aus den Kernen beider Normalverteilungen ist ^
exp { - ^
( x - * )
2
} ^ exp { - ^
}
— ^ — e x p - —r [varj(x 2 —2xßj+Hj ) + Oy(ßf —2/ijtj+1 2 ) ] varj a F l zapvarj J varj + gp 172
varj
Oy
ex
P 1~
|
2
zapvarj
2. 2.2.2 var; + aptj vanx + a F t j 2 Mj ~2ßj — ' 2^ + — 1 . 2—^ varj + ffp varj + Op
Wir führen in der Klammer den Ausdruck varjCT2(x—tj) 2 (varj + ö 2 ) 2 einmal positiv und einmal negativ ein und erhalten nach wenigen Umformungen
i72
varj
ap
exp ( - — ( x - t j ) [
2(varj + a F )
2
1 exp I J
i
2varjOp \
U~
varj + ap '
410
6. Einfaktorielle Varianzanalyse
Wenn
man
diesen
Ausdruck
zunächst
mit
(varj+02)"2
und
weiter
mit
varJ1 / 2
Of —Y~iri multipliziert (vor dem exp-Teil einer Normalverteilung steht der (varj+ffF) reziproke Wert ihrer Varianz), so sieht man, daß als Ergebnis wieder das Produkt von zwei Normalverteilungen dasteht. Das Integral darüber ist proportional zur ersten Normalverteilung, aus der zweiten wird der Wert 1 bzw. ein Vielfaches davon, was uns aber wegen der Proportionalität nicht zu kümmern b r a u c h t . Es ist also 2 2 2 2 2 p(x|Daten) / / N ( t j , varj + o f ) p ( a B , a F | D a t e n ) d a B d a F . 2
2
Im nächsten Schritt wird a F herausintegriert. Es ist jedoch günstig, nicht mit a F selbst, sondern mit dem Varianzverhältnis if = o \ l o \ zu arbeiten. Wir haben dann p ( x | D a t e n ) oc / / N ( t j ; varj + a F ) p ( a F , £|Daten) d a F d | . Wir schreiben varj = v a r j + a F und drücken diesen Wert wie schon oben bei varj als P r o d u k t von CTf und einem zweiten F a k t o r aus, in dem nur mehr das Varianzverhältnis % v o r k o m m t : var- = a F [ l + £ / ( n £ + l ) + l / ( n m ( n £ + l ) ] . Wir erhalten nun p ( x | Daten) F(z)
j . 05 51 99 5596 5937 6 368 6736 7 088 74 £ £ 7734 8 0 £3 8£8 9 85 31 8749 8944 9115 9£65 9394 9 5 05 9599 96 78 9 744 9798 984£ 9878 9 9 06 99£9 9946 996 0 997 0 9978 9934 9 9,9 9 9992 9994 9996 999 7 9998 9999 9999 9999
j . 06 0 0 ij 0 ij ij ij ij ij 0 Ij 0 0 Ij 0 0 Ij 0 0 0 0 fl fl Ij Ij Ij Ij Ij 0 0 0 Ij Ij Ij Ij Ij Ij Ij Ij
5£3 9 56 36 6 0£ 6 6 4 06 6 77£ 71 £ 3 7454 7 764 8 051 831 5 8554 877 0 896£ 9 1 31 9 ,p ¡7 9 9406 9515 9 6 08 9686 975 0 98 0 3 9846 9881 9909 9931 9948 9961 9971 997 9 9985 9989 999£ 9994 9996 9997 999:3 9999 9999 9999
j . 1j 7 0 ij ij ij ij ij ij ij ij ij ij 11 ij ij 0 Ij Ij fl Ij Ij 0 0 0 Ij Ij Ij Ij Ij Ij 0 0 Ij fl Ij Ij Ij 0 0 0
5£79 5675 6 0A4 644:-; 6 8 08 7157 7486 7794 8 0 78 834 0 8577 ¡3 7 9 0 898 0 9147 9£9 £ 94 1 8 95£5 96 1 6 9693 9756 9 8 08 985 0 9884 9911 99 3 £ 9949 996£ 99 7£ 99 7 9 9985 99:39 999£ 9995 9996 9997 9998 9999 9999 9999
0 . Oy fi . 5 3 1 9 fi . 5 7 1 4 fi . 6 1 0 3 ij . 6 4 8 0 ij . 6 8 4 4 0 . 7 1 9 i.'i fi . 7 5 1 7 ij . 7 8 £ 3 i.i . 8 1 06 ij . 8 3 6 5 ij 3 5 9 9 ij . 8 8 1 0 ij # 3 9 9 ¡7 0 . 9 1 6£ Ij . 9 3 06 Ij . 9 4 £ 9 fl . 9 5 3 5 Ij . 9 6 £ 5 Ij . 9 6 9 9 Ij . 9 7 6 1 Ij . 9 8 1 £ Ij . 9 8 5 4 0. 9887 ü. 9913 Ij . 9 9 3 4 Ij . 9 9 5 1 fl . 9 9 6 3 Ij . 9 9 7 3 Ij 9 9 8 0 Ij 9 9 8 6 0 999 0 Ij 9 9 9 3 0 9995 0 999 £ Ij 9 9 9 7 Ij 9 9 9 3 0 9999 0 9999 0 9999
j . 09 ij 0 ij ij ij ij ij ij ij ij ij ij ij ij ij 0 Ij Ij Ij 0 Ij Ij Ij 0 fl Ij Ij 0 0 0 Ij Ij 0 Ij 0 Ij Ij 0 0
5359 5 75 3 6141 6517 6879 7 ££4 7549 735 £ 3 1 33 8389 86£ 1 883 0 9 015 9177 9319 9441 9545 9633 9 7 06 9767 9817 9857 989 0 9916 9936 995 £ 9964 9974 9981 9986 999 0 999 3 9995 9997 9998 9 998 9999 9999 9999
Anhang - Tabellen F(z) 50 •51 52 53 54 5 «5 5-f. 57 58 59 60 61 6c 65 64 65 66 67 63 69 70 71 72 73 74 75 76 77 78 79 80 31 Sc' S3 34 S5 86 87 SS 89 90 91 92 93 94 95 96 97 93 99
0. 1
0. 2
0. 3
00 £5 0£76 05£7 0778 1 0 30 1£8£ 1 5 35 l 789 ¿045 £301 £559 £819 3 081 3345 361 1 388 0 415£ 44¿7 47 05 4987 7'.-: 5563 5858 6158 6464 6776 7 095 74£ 1 7756 8 099 8452 8816 919? 9581 9986 04 07 0848 1311 18 0 0 2319 2873 3469 4118 4833 563? 6546 7624 8957 £ 0749 3656
0. 0 05 0 0. 03 01 0. 0552 0 08 0 3 0 1 055 0. 1307 0. 156 0 0. 1815 0 2 07 0 0 £327 0. 2585 IJ £845 0. 31 07 0 3372 0 3638 0 39 0 7 0 4179 0 4454 0 4733 M 5 015 n 53 0£ 0. 5592" 0 5888 0 6189 0 6495 0 68 08 IJ 71 £8 0 7454 0 779 0 0 8134 0 8488 0 8853 0 923 0 0 96 £ 1 1 0 0£7 1 045 0 1 0893 1 1359 1 185 0 1 2372 1 293 0 1 3532 1 4187 1 49 09 1 5718 1 6646 1 7744 1 91 1 0 £ 0969 o 4 089
0. 0075 0. 0 326 0. 0577 0 08£8 0. 1 08 0 0. 1332 0. 1586 0. 184 0 0. ¿096. 0 2353 IJ 261 1 0 2871 0 3134 0 3398 0 3665 0 39 34 0 420 7 0 443¿ 0 4761 0 5 044 0 533 0 0 56££ 0 5918 0 621 9 0 6526 0 684 0 0 716 0 0 7488 n 7824 IJ 8169 0 8524 0 889 0 0 9£69 0 966 1 1 0 069 1 0494 1 0939 1 14 07 1 19 01 1 £426 1 2988 1 3595 1 4255 1 4985 1 58 05 1 6747 1 7866 1 9268 2 1201 4573
0. ü 0. 0 0 ü 0 "Ii. 0251 0. 05 02 0. 0753 0. 1 0 04 0. 1257 0. 1 51 0 0. 1764 fl. 2 01 9 n. ¿'¿75 0. ¿533 Ü.£ 793 0. 3 055 0. 3319 0. 35-35 0. 3853 0 41 £5 0 4399 0. 4677 Ij 4959 0 5244 0 5534 0 5828 0 61 £8 0 6433 0 6745 0 7 063 0 7388 0 77££ 0 8 064 0 8416 fl 8779 0 9154 0 954£ 0 9945 1 0364 1 08 03 1 1 £64 1 1750 1 2265 1 £816 1 34 08 1 4 051 1 4758 1 5548 1 6449 1 75 07 1 8808 iE' 0537 £ •3263
419
0. 0 ü 0 0. 0. 0. 0. 0 0 0 0 0 0 0 0 0 0 n 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1
0.4
Tab. 2 Standard-Normalverteilung, Prozentpunkte: Am linken Rand und über den Spalten befinden sich die Prozente, im Körper der Tabelle die zWerte; Prozentpunkte unter 50% erhält man auf Grund der Symmetrie. Beispiele: Gesucht wird der z-Wert, der zum Prozentpunkt 75.0% gehört; in der Zeile „75" steht unter der Spalte „0.0" der Wert .6745. Zu dem Prozentsatz 2.5% gehört der z-Wert - 1 . 9 6 . F(z)
>z
0. 5
0. 01 0 0 0 0125 0. 035 1 0. 0 376 0. 06 02 0. 0627 IJ 0853 0. 08 78 IJ. 1 1 05 Ij. 11 3 0 0. 1358 0 1383 0. 1611 0 1637 0. 1866 0 1891 0 2121 0 £147 0 £378 0 £4 04 0 2637 0 2663 0 £898 0 2924 0 316 0 0 3186 0 3425 0 3451 0 3692 0 3719 0 3961 0 3989 0 42 34 0 4261 LI 451 0 0 4538 0 4789 0 4817 0 5 072 0 5101 0 5359 0 5388 IJ 5651 0 5681 0 5948 0 5978 0 625 0 0 628 0 0 6557 0 6588 0 6871 0 69 03 in 7192 0 7225 0 7521 0 7554 0 785:-: 0 7892 0 82 04 0 8239 0 856 0 0 8596 0 8927 0 8965 0 93 07 0 9346 IJ 9701 0 9741 1 0110 1 0152 1 0537 1 058 1 1 0985 1 1 0 31 1 1455 1 15 03 1 1952 1 2 0 04 1 2481 1 2536 1 3 047 1 3106 1 3658 1 3722 1 4325 1 4395 1 5063 1 5141 1 5893 1 5982 1 6849 1 6954 1 7991 1 81 19 1 9431 1 y 6 0 0 2 1444 2 1701 s 5758 2 5121
0. 6 0. 015 0 0. 04 01 0 0652 0. 0904 0. 1 156 0. 1408 0. 1662 0. 1917 0 2173 0 243 0 0 2689 0 295 0 0 3 213 0 3478 0 3 745 0 4 016 0 4289 0 4565 0 4845 0 5129 0 5417 0 571 0 0 6 008 0 631 1 0 662 0 0 69 :¡5 0 7257 0 7588 0 79¿6 0 8274 0 8633 0 9 0 02 0 9385 0 9782 1 0194 1 06£5 1 1 077 1 1552 1 2 055 1 2591 1 3165 1 3787 1 4466 1 522 0 1 6 072 1 7 06 0 1 825 0 1 9774 2 1973 2 6521
0. 0. 0. 0. 0. 0. 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2
0. 7
0. 8
0175 0. 0426 0 0677 0 0929 Li 1181 U 1434 0 168 7 0 1942 0 2198 0 2456 IJ 2715 0 29 76- 0 3239 0 35 05 0 3772 0 4 04 3 0 4316 0 4593 0 4874 0 5158 0 5446 Ij 574 0 0 6 038 Ij 6341 Ij 6651 0 6.96.7 0 729 0 0 7621 0 7961 0 83 1 0 0 8669 0 9 04 0 0 9424 0 9822 0 0£37 1 0669 1 1 123 1 1601 1 £1 07 1 2646 1 3225 1 3852 1 4538 1 53 01 1 6164 1 7169 1 8384 1 9954 £ 2262 c" 7478 2
0201 0451 07 02 0954 12 06 1459 1713 1 968 ££24 2482 2741 3 0 0£ 3266 3531 3799 4070 4344 4621 49 02 5187 5476 5 769 6 068 6372 6682 6-999 732*3
0. 9 0 fi o 0 0 fi o 0 0 0 0 0 0 fl fl IJ fl ft fl 0 fl fl 0 fl fl 0 fl fl 0 fl fl fl fl fl
0226 0476 0723 0979 1 ¿'31 1434 17 33 1993 225 0 25 08 £767 3 0 £9 3£9£ 3553 33£6 4 097 4372 4649 493 0 5215 5505 5799 6 093 64 0 5 6713 7 031 7356 7638 7995 3 03 0 3331 8 345 87 05 874£ 9 078 9116 946 3 95 02 99 04 9863 0279 0 322 0714 0753 1217 1 170 165 0 17 0 0 2160 £212 2702 2759 3285 3346 3917 3934 4611 4634 5382 5464 6258 6352 7 c' 7 y 7392 35£2 S 663 0 Í 41 £ 0335 £571 2 29 04 378c; 3 09 02
420
A n h a n g — Tabellen
Tab. 3 Standard-t-Verteilung, Prozentpunkte: Vor den Zeilen steht die Zahl der Freiheitsgrade von 1 bis 100 und Uber den Spalten sind die Wahrscheinlichkeiten von .50 bis .99 eingetragen. Prozentpunkte unter 5 0 % erhält man auf Grund der Symmetrie der t-Verteilung. Beispiele: Gesucht wird der t-Wert, auf dessen linker Seite in einer t-Verteilung mit 20 Freiheitsgraden 75% der Gesamtfläche liegen; in der Zeile „ 2 0 " steht unter der Spalte 75" der Wert „ . 6 8 7 0 " . Zu dem Prozentsatz 5 % gehört der t-Wert bei 9 5 % mit negativem Vorzeichen: bei 20 Freiheitsgraden z.B. der Wert - 1 . 7 2 4 7 . F(U
V
1 £ 3 4 5 6 7 3 9 10 11 12 13 14 15 16 0 17 o 13 0 19 0 £0 0 £1 0 0 o £4 0 £5 0 £6 0 ¿7 0 ¿'3 o ¿9 o : •: l'i o 3 1 l'I 3c 0 33 o 34 n 35 0 3 t. o 37 o 3 8 lì 39 0 40 o 41 o 4£ o 4 5 fi 44 0 45 o 46 0 47 0 43 0 49 o 50 0
5 00 0 0 0 0 Ci 0000 0 0 0 l'I 0 0 0 l'i 0 0 fi lì O000 li 0 lì 0 0 lì 0 0 0 0 0 lì lì 0 0 0 lì 0 0 0 0000 0 0 lì 0 0 0 lì 0 0 0 0 lì 0000 0 0 lì 0 0000 oooo 0 lì 0 lì lì lì lì lì 0 000 0 0 0 lì 0000 fi 0 0 0 0000 0 lì 0 0 lì lì lì Ij lì 0 0 fi 0000 0 fi 0 0 0 0 IJ 0 fi 0 lì 0 0000 lì lì lì lì 0 lì 0 0 lì 0 0 lì lì 0 lì 0 0000 0 000 0 0 lì 0 0000 0 0 lì lì 0 000 l'I 0 0 lì 0000 0 0 lì 0 0000 0 0 0 lì 0 00 0
0 0
o lì 0 lì 0 l'I lì lì o lì o 0 0 0 0 lì 0 0 o lì lì lì 0 lì fi lì o lì lì
51 0 0 03£ 1 0283 0£7£ Oc! 6 7 0e 6 3 026 1 lì £'& 0 Oc'5 9 Oc'5 3 0 ¿57 Oc'5 b 0256 0256 Oc 5 5 Or'5 5 0255 Oc'5 4 0£ 5 4 0£54 Oc 5 4 fi£54 0£54 0253 0£53 0£53 0£53 0£53 0£53 0£53 0£53 0353 0£53 lì £ 5 3 0£53 0£5£ 0£5£ 0£5£ 0£5£ 0£5£ 0£5£ 0252 Oc'52 0£5£ 0£5£ 0252 0£5£ 0£5£ 0£5£ 0£5£ 0£5£
lì fi IJ fi 0 lì 0 lì lì lì 0 lì lì lì 0 0 lì ti lì lì lì lì 0 0 IJ lì lì 0 lì lì lì 0 o lì lì lì o lì fi lì lì lì lì lì fi 0 o fi lì
5£ 0 0 0643 0566 0545 0534 05£7 05£3 05£ 0 0517 0516 0514 0513 051£ 0511 051 1 051 0 0509 05 0 9 05 09 OS o * 05 08 05 03 05 0 7 0507 05 0 7 05 0 7 05 06 05 06 05 06 05 06 05 06 05 06 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 05 0 4 05 0 4 05 0 4 05 0 4 05 0 4 05 0 4 05 04 05 04
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. n. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. lì. 0. 0. 0. 0. 0. 0 lì lì lì 0 lì lì lì 0 lì lì lì lì o 0 lì lì o lì o 0
530 0 0966 035 0 081 7 08 0 1 0791 0785 078 0 0777 0774 0 77 £ 077 0 0769 0 767 0766 0765 0765 0 764 076 3 0763 0 76£ lì 7 6 £ 076 1 0761 0761 076 0 0 76 0 076 0 0759 0759 0759 0 759 0 759 0753 0758 0758 0758 0758 0 753 0 758 0757 0757 0757 0757 0757 0757 0 ^57 lì 7 5 7 0757 0757 0 756
0. 0. 0. lì. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. lì. 0. l'I. 0. 0. lì. 0. 0. 0. 0. 0 lì. lì. 0. 0. 0. 0. lì 0 0 0 0 0 o lì o o o 0 0 lì 0 lì lì lì 0 0
54 0 0 1£91 1135 1 09 1 1 069 1 056 1 047 1 041 1 036 1 033 1 fi 3 0 1 0£3 1 0£6 1 0£4 10 £3 1 0£ 1 1 0£ 0 1 019 1 019 1 018 1017 1 016 1 016 1015 1015 1 fi 1 5 1 014 1014 1 01 3 1 013 1 013 1 013 1 01 £ 1 01 £ 1 01 £ 1 01 £ 1011 1 01 1 1 01 1 1011 1011 1011 1 01 0 1 01 0 1 01 0 1 01 0 1 01 0 1 01 0 1 01 0 1 01 0 1 0 09
>t„
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. lì. 0. lì lì 0 0 lì o o lì 0 lì 0 lì lì lì 0 l'I 0 lì lì lì 0
55 0 0 1618 14££ 1366 1338 13££ 1311 1 3 03 1 £97 1 £93 1 £89 1£86 1 £83 1 £81 1£8 0 1 £78 1 £77 1 £76 1 £74 1 £74 1 £73 1 £7£ 1 £ 71 1 £71 1 £7 0 1 £69 1 £69 1 £68 1 £68 1 £68 1 £67 1 £67 1 £67 1266 1 £66 1 £66 1 £66 1 £65 1 £65 1 £65 1 £65 1 £64 1 £64 1 £64 1 £64 1 £64 1 £64 1 £63 1 £63 1 £63 1 £63
0. Ci. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. lì. 0. 0. 0. 0, 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. lì lì o lì lì lì 0 lì lì 0 0 lì 0 lì lì lì 0
560 0 1949 171 0 ) 64 £ 1 6 09 1589 1575 1566 1559 1553 1549 1545 1 54£ 154 0 1 538 1536 1534 1533 1531 153 0 15£9 15£8 15£7 1527 15£6 15£5 15£5 15£4 15£4 15 £3 15£3 15££ 15££ 1 5£ 1 15£ 1 15£ 1 15£0 152 0 152 0 152 0 1519 1519 1519 1519 1518 1518 1518 1518 1518 15H=: 1517
0. o. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. Ij. 0. 0. 0. 0. 0. 0. 0. Ii IJ o Ii o Ii Ii 0 0 0 0 0 IJ IJ 0 o Ii 0 0 0 0 Ii
57 0 0 ££83 £ 000 19£ 0 188 0 1857 1841 133 0 1821 1815 181 0 1 8 06 1 8 02 1799 1797 1794 1792 1791 1789 1788 1787 1786 1785 1784 1783 178£ 1781 1781 178 0 1779 1779 1778 1778 1778 1 777 1777 1776 1776 1776 1775 1775 1775 17 75 1774 1774 1774 1774 1773 1773 1773 1773
0. 5 8 0 0 0. £ 6 £ £ 0. £ 2 9 3 0 . £ £ Ci ii 0. 2 1 5 4 0. £ 1 £6 0 . £ 1 08 0. £ 095 0. £ 086 0. £ 078 0. £ 0 7 2 0. 2 067 0. 2 063 0 £ 06 0 o £057 0 2 054 0 £052 Ii 2 0 5 0 o 2 048 0 2 047 Ii 2 0 4 5 0 £044 0 £ 043 0 £ 04£ Ii £ 0 4 1 o 2 040 0 £ 039 0 2 038 Ij £ 0 3 8 o 2 037 Ii £ 0 3 7 Ii £ 0 3 6 o £035 Ii £ 0 3 5 Ii £ 0 3 4 0 £ 034 0 2 034 0 £ 033 0 £ 033 0 £ 03£ o 2 032 0 2 032 Ii £ 0 3 1 Ii 2 0:31 0 £031 Ii . £ 0 3 1 o . £ ii 3 0 Ii . £ 03 0 0 . £ Ii 3 0 Ii . £ 0'3 0 0 . £ 0£9
0. 5 y ü 0 0. £ 9 6 6 0. £589 0. £ 4 8 £ 0. £ 4 £ 9 0. £398 0. £ 3 7 7 0. £ 3 6 3 0. £ 3 5 1 0. £ 3 4 3 0. £ 3 3 6 0. £ 3 3 1 0. £ 3 £ 6 0 . c" 3 c! £ 0. £ 3 1 9 0. £ 3 1 6 0. £ 3 1 3 0. £ 3 1 1 0 . £ 3 09 0. £3 07 0. £306 0. £ 3 0 4 0 £ 3 03 Ii £ 3 0 £ Ij £ 3 0 1 o £300 0 2299 0 2298 0 o 2296 0 2295 o 2295 0 2294 Ii 2 2 9 4 0 2293 0 2293 0 2292 0 2292 Ii £ £ 9 1 0 ££91 0 ££9 0 IJ £ £ 9 0 Ij £ £ 9 0 Ii £ £ 8 9 0 ££89 o ££89 Ii £ £ 8 9 0 ££88 Ii £ £ 8 8 Ij c' c! 8 y Ii . £ £ 8 7
421
Anhang — Tabellen
t-Verteilung, Prozentpunkte
Forts. Tab. 3 V 51 52 53 54 55 56 57 58 59 61j 61 6c 63 64 6-5 66 67 SS 6'? 70 71
0. 5 0 0 0 0.51 0 0. oono 0. 0252 0. 0 0 0 0 0.0252 0. 0 Ü 0 I"I I i.0252 0. 0 0 0 0 0.Oc'52 0. i J 0 0 0 0.0252 0. oooo 0. 0252 0 . 0 0 0 0 0. 0252 0 . 0 00 0 0. 0252 0. 0 0 0 o 0. 0252 o. 0 0 0 0 0. 0252 0. 0 0 0 0 0.0252 0. 0 0 il' 0 0.0252 0. 0 Ii ÜIJ 0. 0252 0. 0 0 Ii Ii Ii.0252 0. 0 0 iJ 0 0.0252 0 . 0 0 0 0 0. 0252 0 . 0 00 0 0. 0252 i). 0 0 0 0 0. 0252 0 . 0 0 0 0 0. 0252 Ii. oooo 0. 0252 0. 0 0 Ii 0 0.0252 0. 0 01 j 0 0.0252 73 0. 0 0 0 0 Ii.0252 74 o, 0 0 0 0 0 0252 0. 0 0 0 0 0. 0252 76 0. 0 0 0 Ii Ii 0252 77 0 . o o o o o 0252 0. 0 0 0 0 0 0251 79 o . o o o o 0 0251 8 0 0.OOOO 0 0251 81 0. 0 0 0 0 0 0251 0. 0 0 0 0 0 0251 8:3 0. 0 ij 0 0 o 0251 84 0 . Ii 0 0 0 lj 0251 0. 0 0 0 IJ 0 0251 y K 0. OUUU Ij Uc!51 0251 88 0. 0 Ii 0 Ii 0 0251 S 9 0. 0 0 0 0 0 0251 90 0 . 0 0 Ii 0 0. 0251 91 0.OOOO 0 . 0251 0. 0 0 0 0 0. 0251 9:2 0. Ii 0 0 0 0. 0251 94 0.OOOO 0 . 0251 95 0. 0 O 0 0 Ii. 0251 96 0. 0 0 0 o 0. 0251 97 0. 0 Ii 0 0 Ii 9 S 0. 0 0 o 0 0 99 0. 0 0 0 0 0. 0251 1 0 C ü. 0 0 0 0 0. 0251
00 04 .04 ¡04 ili 4 S 04 •=¡04 "-04 S 04 •=¡04 S 04 •=¡04 5 04 5 04 5 04 S IJ 3 503 5 03 503 50 3 5 03 503 5 03 5 03 5 03 5 03 5 03 5 03 5 03 5 li 3 503 e-- 0 5 5 03 503 5 03 5 03 03 5 03 03 503 5 03 5 03 5 03 03 03: 03 03 5 03 03 5 03 5 03
0. 55 0 0 0. 5 6IJ 0 Ci. 57 0 0 0. 5800 0. 59 0 0 0. 1 ¿'63 0. 1517 0. 1 773 0. 8 089 0. '¿co? 0. 126 3 0. 1517 0. 1 773 0. 8 089 0. 2287 0. 1 £63 ù. 1517 CI. 1778 Ci. 8 089 0. c!c!o ( 0. 1863 0. 1517 Û. 1778 0. 8 089 0. 2287 1517 CI. 1778 0. 8 089 0. 2286 0. 1 868 0. 1 868 I J . 1517 0. 1778 0. 8 088 0. 2286 0. 1 868 CI. 1516 0. 1778 0. 8 088 0. 2c'86 0. 1868 0. 1516 IJ . 1778 0. 8 088 0. 2286 n. 1868 Ci. 1516 Ci. 1771 0. 8 088 0. 2286 0. 1868 0. 1516 CI. 1771 0. 8 U88 0. 2285 1771 0. 8 088 0. 2285 0. 1868 0. 1516 0. 1 868 0. 1516 0. 1771 0. 8 087 0. 2285 0. 1 868 I J . 1516 0. 1771 0. 8 087 0. 2285 1516 0. 1771 0 £ 087 0. 2285 i. OOS 0. 1868 i. fui s 0. 1 868 Ci. 1516 Ci. 1771 0 8 087 0. 8885 . ii ii ¡3 0. 1 86 1 0. 1516 Ci 1771 0. 8 087 0. 8885 0 0 8 0. 1861 0. 1515 0. 1771 0 8 087 Ij 8884 0. 1861 Ci. 1515 Ij. 177 0 0 8 087 0. 8884 0 08 0. 1861 CI. 1515 0. 177 0 0. 8 087 0. 8884 0. 1861 CI. 1515 0. 1 77 Ci 0 8 086 0. 8884 0 1 86 1 CI 1515 0 1 77 0 0 8 086 0 8884 i. 0 08 0 1861 0. 1515 Ci 1 77 0 0 £ 086 0. 8884 008 0 1861 I J . 1515 CI. 177 0 û 8 086 0 8 £8 4 0 08 0 1861 0 1515 CI 177 0 Ci 8 086 0 £884 0 08 0 1861 Ci 1515 ij 177 0 0 8 086 Ij 8883 0 08 0 1861 CI 1515 fi 177 0 0 8 086 0 8883 li ti 8 0 1861 CI 1515 0 177 0 0 8 086 0 ££83 0 08 0 1861 0 1515 0 177 0 0 8 086 0 8883 0 08 0 1861 Ci 1515 0 177 0 Ci 8 086 0 8 £8 3 0 08 0 1861 0 1515 0 1 769 0 8 086 0 8883 01 j 7 0 1861 0 1514 0 1769 0 8 085 0 8883 li i J 7 0 1861 0 1514 Ci 1769 0 8 085 Ij 8883 0 0 7 0 186 Ci 1514 0 1 769 0 £ 085 0 8883 li 0 7 0 186 0 1514 0 1 769 0 £085 0 ££83 i7 0 186 n 1514 0 1769 0 £085 0 8883 0 07 0 186 0 1514 0 1 769 0 8 085 0 8888 0 0 7 0 186 0 1514 Ij 1769 0 8 085 Ij 8888 0 07 0 1 86 0 . 1 5 1 4 0 1769 0 8 085 0 ££8£ 0 0 ? 0 186 0 . 1 5 1 4 0 1 769 0 . 8 085 0 ££88 |J 0 7 0 186 Ci 1514 Ij 1 769 0 . 8 085 0 . £888 0 0 7 0 186 CI 1514 Ci 1769 0 . 8 085 0 . £888 0 0 7 0 186 0 . 1 5 1 4 CI 1769 0 . 8 085 0 . £888 7 0 . 186 0 . 1 5 1 4 ij . 1769 0 . £ 0£5 0 . £888 0 0 7 0 . 186 n . 1514 0 . 1 769 0 . £0£5 0 . 8888 0 0 7 0 . 186 0 . 1514 Ij . 1769 0 .8084 0 . 888£ 0 0 7 M . 186 CI . 1514 0 . 1768 0 . 8 084 0 . £888 0 07 0 . 186 0 . 1514 ij . 1768 C. 8 084 0 . £888 0 07 0 . 186 0 . 1514 Ci. 1768 C . 8 084 c . 8888 i7 0 . 1 86 IJ . 1514 0 . 1 768 c . 8 084 c . £888 r . 1 86 C . 1 5 1 4 . 1768 c . 8 084 c .8881
422
A n h a n g — Tabellen
Forts. Tab. 3 0 6 Ci 0 û H. 61 0 0 3317 J. 3674 £883 1.3191 £' £767 1.3 054 4 £7 07 1.£988 5 0 £67£ "i. £948 6 0 £648 :i. £9££ 7 fi £63£ . £9 03 8 LI £619 . £889 Ci £61 Ci "i. £378 1 0 Ci £60£ . £87 0 1 1 0 £596 . £363 £590 i. £357 1£ £586 . £85£ 13 14 0 2582 "i. £848 £579 "i. £844 15 16 £576 . £84 1 17 0 £573 . £838 18 0 £571 i.£835 1'? Ci £569 1. £833 £0 0 £567 i. £831 £1 £566 22 0 £564 i.2828 £3 0 £563 £4 0 256.2 i. £8£5 £5 £561 i. £8£3 £6 £56 0 i. £8££ £7 0 £559 l. £8£1 £8 0 £558 i. £8£0 0 £557 i.£819 3 0 Ci l. £818 31 £555 i. £818 ri 32 £555 i.£817 33 0 £554 i. £816 34 £553 1.2815 35 0 £553 i.£815 3 t. 0 £55£ 1.2814 37 Ci £55£ i. £81 4 38 0 £551- i. £813 3'? Cl £551 i.£813 4 Cl 0 £55 0 l.£81 £ 41 0 £55 Cl i.£81 £ 4£ £550 P. 2811 43 £549 l. 281 1 44 0 £549 . 281 0 45 0 £549 i. 281 0 46 0 £548 i. 281 Cl 47 0 £548 1. £8 09 48 IJ £548 l. £3 09 49 Cl £547 i. £3 09 50 Cl £547 . £8 08 V
1
t-Verteilung, Prozentpunkte . 6£ 0 Cl .404 0 . 3498 . 3:345 .3271 . 3227 . 3197 . 3177 . 31 61 . 3149 .314 0 . 3132 . 31 £5 . 31 £ 0 .3115 .3111 . 31 08 . 3 1 04 . 3 1 02 . 3 099 . 3 097 . 3 095 . 3 093 . 3 091 . 3 09 0 . 3 088 . 3 037 . 3 086 . 3 085 . 3 084 . 3 083 . 3 082 . 3 Cl SI . 3 08 0 . 3 079 . 3 079 . 3 078 . 3 077 . 3 077 . 3 076 . 3 076 . 3 075 . 3 075 . 3 074 . 3 074 . 3 07 3 . 3 073 . 3 073 . 3 072 . 3 072 . 3 072
. 63 0 0 . 4415 . 38 09 . 364 0 . 3557 . 3508 . 3476 . 3453 . 3436 . 3423 . 3412 . 34 04 . 3396 . 339 0 . 3385 . 3381 . 3377 . 337 3 . 337 0 . 3367 . 3365 . 336 3 . 3361 . 3359 . 3357 . 3356 . 3354 . 3353 . 3352 . 335 0 . 3349 . 3348 . 3347 . 3 347 . 3346 . 3345 . 3344 . 3344 . 3343 . 3342 . 3342 . 3341 . 3341 . 334 0 . 334 0 . 3339 . 3339 . 3338 . 3 338 . 33 37 . 33 37
. 64 0 0 0.6500 . 4799 0.5193 .4126 0.4449 . 3939 0.4242 . 3848 0.4142 . 3794 0.4 082 . 3758 Cl. 4 043 . 3733 0.4015 . 3714 Cl. 3995 . 3699 0.3979 . 3688 0. 396.6 . 3673 0.3956 . 367 Cl 0. 3947 . 3663 0. 394 0 . 3658 0.3933 . 36.53 0.3928 . 3649 0. 3923 . 3645 Ci. 3919 . 364 1 0.3915 . 3638 0.3912 . 3636 0. 39 09 . 3633 Cl. 39 06 . 3631 0. 39 04 . 3629 0.39 02 . 3627 0.39 0 0 . 3625 Cl. 3893 . 3624 0. 3396 . 3622 Cl. 3894 . 362 1 0. 3893 . 36£ 0 0. 3892 . 36 1 9 Cl. 3890 . 36 1 7 0.3889 . 36 1 6 0.3883 . 36 1 5 0.3887 . 3614 0.3886 . 3614 0.3385 . 3613 0.3884 . 3612 0. 388 3 . 361 1 0.3882 . 361 1 0.3882 . 361 Cl Cl. 3 8 8-1 . 3609 0. 338 0 . 36 09 0.388 0 . 36 08 0.3879 . 36 08 0.3878 . 36 Ci 7 . 36 07 0.3377 . 36 06 0. 3877 . :36 06. 0.3876 . 36 05 0.3876 . 36 05 0.3875
0.660 Cl 0. 5603 0. 4773 Cl. 455 0 0. 444 0 Cl. 4375 Cl. 4 332 Cl. 43 02 Cl. 4279 0.4£6£ 0. 4£48 0. 4236 0. 4££7 0.4219 0.4212 0. 4 2 0 6 0. 4201 0.4196 0.4192 0. 4189 0.4186 0.4183 0.41 8 0 0.4178 Cl. 4175 0.4173 0.4171 0.417 0 0.4168 0.4167 Cl. 4165 0. 4164 0.4163 0.4161 0.416 0 Cl. 4159 0.4158 0.4157 0.4157 0.4156 0. 4155 0.4154 0.4154 0.415 3 0.4152 Cl. 4152 0.4151 0.415 0 0.4150 Cl. 4149 0.4149
J. 6.700 j. 6 026 3.5115 3. 4864 "i. 4743 "i. 467£ i. 4625 i. 4592 "i. 4567 i. 4548 i. 4533 i. 4521 1.4510 i. 45 02 "l. 4494 "i. 4488 i. 4482 i. 4477 i. 4473 l. 4469 i. 4465 i. 4462 i. 4459 1.4457 i. 4454 i. 4452 l. 445 0 l. 4448 l. 4446 l. 4445 l. 4443 i. 4442 l. 444 0 i. 4439 1.4438 1.4437 l. 4436 i. 4435 i. 4434 i. 4433 i. 4432 i. 4431 i. 4431 i. 443 0 i. 4429 i. 4428 l. 4428 i. 44£7 i. 4427 l. 4426 l. 4425
Cl. 68 0 0 0.6464 0. 5459 0.5184 0. 5 052 0.4974 0.4923 0.488 7 0.486 0 0.4839 0.4823 IJ. 48 09 Cl. 4798 0.4788 0. 478 0 0. 4 773 0. 476.7 Cl. 476.2 0.4757 0.4753 Cl. 4749 0.4746 Cl. 4742 0.4 74 0 Cl. 4737 0.4735 0.4732 0.4730 0.4728 0.4727 0.4725 0.4723 0.4722 0.472 0 0.4719 0.4718 0.4717 0.4716 0.4715 0.4714 0.4713 0.4712 0. 471 1 0.4710 0. 471 0 0.47 09 0.4708 0.47 07 0. 47 07 Cl. 47 06 0. 47 06
. 690 0 . 6919 .5812 .5510 . 5366. . 5281 . 5£26 .5186 . 5157 .5135 .5117 . 51 02 . 5 090 . 5 079 . 5 071 . 5 063 . 5 056 . 5 051 . 5 045 . 5041 .5037 . 5 033 . 5 029 . 5 0 £6 . 5 Cl £3 . 5 0£ 1 .5018 .5016 . 5 Cl 14 .501 £ .501 Cl . 5 Cl 09 . 5 0 07 . 5 0 06 . 5004 . 5 003 . 5 00£ . 5 0 01 , 4999 . 4993 . 4997 . 4996 . 4995 . 4995 . 4994 . 4993 . 4992 . 4992 . 4991 . 499 0 . 4990
Anhang — Tabellen
423
Forts. Tab. 3 o 6 0 01j 51 o £547 5 c! o iE" 546 0 £546 54 0 £546 55 fl £546 56 0 £546 57 fl £545 58 0 £545 5'? fl £545 60 Ij £545 61 (.1 £545 62 0 £544 63 Ij £544 64 Ij £544 65 0 £544 66 0 £544 6? Ij £544 68 Ij £543 69 Ij £543 7 0 Ij £543 71 Ij £543 72 Ij £543 73 Ij £543 74 0 £543 Ij £54£ 76 0 £54£ 77 Ij £54£ 78 Ij £54£ 7Q Ij £54£ 8 0 Ij £54£ 31 0 £54 £ 8 iE! Ij £54£ 83 o £54£ 84 fl £54£ 85 0 £541 86 0 £541 87 Ij £541 88 Ij £541 89 0 £54] 9 0 Ij £541 91 o £541 9 c' Ij £541 Q 0 £541 94 Ij £541 95 fl £541 96 Ij £541 97 Ij £54 0 98 Ij £54 0 QQ o £54 0 1 00 Ij £54 0 V
t-Verteilung, Prozentpunkte 1.61 j|j i. £8 i. £8 i. £8 j7 i. £8 J7 i. £8 j7 i. £8 j7 i. £8 j 6 i. £8 16 i. c 8 16 j6 i. £8 j A i. £8 J5 i. £8 J5 i. £8 J5 i. £8 "15 i. £8 j5 i. £8 J4 i. £8 "i4 i. £8 j4 1 . ¿'Hj4 i. £8 j4 I. £8 "14 i. £8 :i4 i. £8 i. ¿'3 •. £8 i. £8 i. £8 1 . £« i. ££: 1. £ £ 1. £ ¡5j£ i. £8 j£ |. £;f; 'l£ l. £ g j£ j£ l. £8 i. £8 je i, ££: j£ i. £y j£ "i. £8 :n j. £y :n I. £8 '11 1. ££ "11 1. £y j 1 1. £ P;;n j . £ ¡3:n j. £ y :n j . £ x j.i j. £8 :u
1.6 £00 1 . 63 0 0 1,3071 1 . 3337 1.3 071 1 . 3 336 1. 3071 1 . 3336 1 . 3 0 7 0 1. 3 3 36 1. 31 j 7 fi 1. 3 335 1. 3 ij 7 0 f . 3 335 1. 3 ij 7fi1. 3 335 1. 3 069 ' . 3334 1. 3 ij k 9 1. 3 3 3 4 1. 3 l i t f 1 . 3 3 34 1.3 069 . 3 334 ; . 3 068 i i. 31 j 6 8 1. '31 j f , 1. 31 j 6 8 1. 31 j 6 7 1. 31 j 6 7 . 33 3£ 1. 3 0 6 7 . 333£ i. 3 067 . 33 3£ 1. 3 067 . 33 3£ 1. 3 067 . 333£ 1.3 066 . 3331 1. 31 j 6 6 . 333 1 1. 31 j 6 6 . 3331 1. 3 0 6 6 . 333 1 1. 31 j 6 6 . 3 331 i. 3 0 6 6 . 3331 i. 3 0 6 6 . 3 3 3 ij 1. 3 065 1.3 065 . 333 0 1. 3 0 6 5 . 333 0 1. 3 065 . 3 33 0 1. 3 0^.5 . .3:33 0 1. 3 065 . 3 '3 3 0 1. 3 065 . 3:3 £9 1.3 065 . 33£9 1. 3 064 . 3 3£9 1.3 064 . 3 3 £9 1.3 064 . 33£91 ; "l 3 £ jj 1. 3 064 1. 3 064 >;3£Q 1. 3 064 1.3 064 . 33£8 1.3 064 . 3 3£8 1. 3 064 . 3 3 £8 1. 3 064 . 33£8 . 33£8 1.3 063 . 33£8 1. '3 0 6 3 . 33£8 1. 3 0 6 3 . 33£8
. 64 0 0 0. 6 5 0 0 . 36 04 . 36 04 . 36 04 0.3874 . 36 ij 3 0. 3874 . 36 03 ij. 3873 . 36 03 0 . 3 8 7 3 . 36 0£ ij. 33 7 . 36 0£ 0.387£ . 36 0£ 0. 387£ . 36 01 0.387£ . .36 ij 1 0.3871 . 36 01 0.3371 . 36 01 0.3871 . 36 0 0 0.3871 . 3 61 j 1 j0. 3 8 7 0 . 3 6 01 j 0. 3 8 7 0 . 3 6 ij ij 1 j. 3 8 7 0 . 3 6 01 j 1 j. 3 8 7 0 3599 0.3869 . 3599 Ü. -3 3 6 9 3599 0. 3 8 6 9 . 3599 0 . 3 8 6 9 . 3598 0. 3 868 35'HI-I 1 j. .3 8 6 8 . 3598 1 j. 3 3 6 8 . 3598 1 j. .3 8 6 8 . 3598 0 . 3 8 6 8 3598 M.3367 . 3597 0 . 3 8 6 7 3 5 7 0. '3 8 6 7 . 3597 0. 3867 0.3367 ^ 9 7 0. 3 8 6 7 . 3597 0 . '3 ¡Fi 6 6 . 3597 1 j. 3 8 6 6 . 3596 1 j. 3 8- 6 6 1.3596 0. .3 8 6 6 1. 3596 0. 3866 1. 3 5 3 K, 1 j. .3 8 6 6 1.3596 0. 3 ¡3 6 6 1.3596 0 . 3 8 6 5 1. 3596 0. 3 ¡Ei 6 5 1. 3595 0 . 3 8 6 5 1. 3595 0 . 3 8 6 5 1. 3595 0 . 3 8 6 5 1 _ 3595 0. 3 8 6 5 1.3595 0. 3 3 6 5 1.3595 0 . 3 8 6 5 1. 3595 0.3864 1. '3595 0.3864
. 66 0 0 .4148 .4148 .4147 .4147 .4147 .4146 .4146 .4146 .4145 . 4 145 .4144 . 4144 .4144 . 4144 . 4143 .4143 .4143 . 4 14£ . 414£ . 414£ . 4 14£ .4141 .4141 .4141 .4141 .4141 .4140 .4140 .4140 .4140 . 4 14 1 j .4139 .4139 . 4 139 .4139 .4139 .4139 .4138 .4138 . 4 138 .4138 . 4 138 .4133 .4137 .4137 .4137 .4137 .4137 . 4 1.3 7 . 4 137
. 67 0 0 0 68 0 0 . 44£5 0. 47 05 . 44£4 0 47 05 . 44£4 ij 47 04 . 44£4 ij 4 7 03 . 44£ 3 ij 4 ? 0 3 . 44£3 0 47 0 3 . 44££ ij 47 0£ . 44££ ij 4 7 0£ . 4 41"! 1 0 4 i7 0 1 . 44£ 1 ij 47 01 . 44£ 1 0 47 0 0 . 4 4£ 0 0 47 0 0 . 44£0 Ij 4 7 0 0 . 44£ 0 Ij 4699 .4419 0 4699 .4419 Ij 4699 . 44 19 Ij 4698 . 4418 Ij 4698 . 44 1 8 Ij 4698 . 44 1 8 0 4697 . 44 1 8 Ij 4697 . 4 4 1 7 0 4697 . 441 7 Ij 4*97 . 441 ? Ij 46 96 . 4 4 1 7 0 46 96 .4416 0 46 96 .4416 Ij 4696 . 4 4 1 6 Ij 4695 .4416 4695 .4416 0 4695 0 . 441 5 4695 . 4 4 1 5 Ij 4694 . 4415 Ij 4694 . 4415 Ij 4694 . 4 4 1 5 Ij 4694 .4414 Ij 4694 . 4414 ij 4693 . 4414 Ij 4693 . 4 4 1 4 Ij 4693 . 4414 IJ 4693 . 4414 Ij 4693 . 44 1 3 0 4693 . 4413 Ij 469£ . 44 1 3 Ij 469£ . 44 1 3 Ij 469c' . 44 1 3 Ij 469c' . 4413 Ij 469c . 4413 Ij 4 6 9 £ . 44 1 £ Ij 4691 . 44 1£ Ij 4691
0. 6 y 0 0 0. 4989 ij. 4988 0. 4988 Ij. 4987 0. 4987 0. 4986 0. 4986 Ij. 4985 0. 4985 0. 4984 0. 4984 0. 4984 0 4983 Ij 4983 0 498£ Ij 498£ Ij 498£ Ij 4981 Ij 4981 Ij 4981 Ij 498 0 Ij 498 0 Ij 498 0 0 4979 0 4979 Ij 4979 Ij 4979 Ij 4978 Ij 4978 Ij 4978 Ij 4978 0 4977 Ij 4977 Ij 4977 0 4977 Ij 4977 Ij 4976 0 4976 Ij 4976 0 497* 0 4976 Ij 4975 fl 4975 Ij 4975 0 4975 Ij 4975 0 4974 Ij 4974 Ij 4974 0 4974
424
A n h a n g — Tabellen t-Verteilung, Prozentpunkte
Forts. Tab. 3 V
0. 7 0 0 1
2
0
0 . 7 3 9 4 0 . 6 1 7 4
0
71 0 0
. 7c'0 0
0
7 3 0 0
0
74 0 0
0
75 0 0
. 7 6 0 0
0
7 7 0
0
0
7 y
0
7 8 9 1
.
8 4 1 £
0
8 9 6
0
9 5 3 9
1
0 1 5 2
.
1
15 01
1
2 2 4 8
0
0 8 0 4
0
6 5 4 7
.
6 9 3 1
0
7 3 £ 9
0
7 7 4
0
8 1 6 7
. 861 1
0
9
3
0 . 5 8 4 4
0
6 1 8 6
.
6 5 3 6
0
6 8 9 6
0
7 2 6 7
0
7 6 4 9
. 8
044
0
8 4 5 4
4
0 . 5 6 8 7
0
6
5
0.
5 5 9 4
0
5 9 1 4
. 6 2 4
6
0.
5 5 3 4
n
5 8 4 8
.
7
0 . 5 4 9 1
0
58
8
0 . 5 4 5 9
0
y
0 . 5 4 3 5
1 0
014
0
075
oo
1}
7 9 0 3
0
053
0
9 5 6 1
0
8 8 7 9
0
9 3 2 2
0 071
0
6 6 9 2
0
7 0 4 5
0
7 4 0 7
. 7 7 8 0
0
8 1 6 6
0
8 5 6 5
0
8 9 7 9
0
Cl
6 5 7 4
0
6 9 1 6
0
7 2 6 7
.
7 6 2 8
0
8 00 0
0
8 3 8 5
o
8 7 8 3
6 1 6 8
Cl
6 4 9 6
0
t> S 3 £
Cl
7 1 7 6
.
7 5 2 9
0
7 8 9 3
0
8 2 6 8
0
8 6 5 5
. 6 1 1 8
0
6 4 4 2
Cl
677c"
0
7 1 1 1
.
7 4 5 9
0
7 8 1 7
0
8
0
8 5 6 6
5 7 6 7
. 6
081
0
6 4 0 1
Cl
6 7 2 9
0
7
064
.
7 4 0 8
0
7 7 6 1
0
8 1 2 5
0
8 5
0
5 7 4
. 6
0 5 2
0
6 3 7
0
6 6 9 5
0
7
027
.
7 3 6 8
0
7 7 1 8
Cl
8
0 7 9
0
8 4 5
0
0 . 5 4 1 5
0
5 7 1 9
. 6
029
0
6 3 4 5
0
6 6 6 8
0
6 9 9 8
.
7 3 3 7
0
7 6 8 4
Cl
8
04£
o
8 4 1
0
02
0
.
6 3 4 9
0
186
01
1 1
0 . 5 3 9 9
0
5 7
. 6 01 0
0
6 3 2 5
IJ
6 6 4 6
0
6 9 7 4
. 731 1
0
7 6 5 6
0
8 0 1 2
0
8 3 7 8
12
0 . 5 3 8 6
0
5 6-y 8
.
5 9 9 5
0
6 3 0 8
0
6 6 2 8
0
6 9 5 5
. 7 2 9 0
0
763i3l
0
7 9 8 7
0
8 3 5 1
13
0 . 5 3 7 5
0
5 6 7 6
.
5 9 8 2
0
6 2 9 4
0
661
0
6 9 3 8
.
7 2 7 £
Cl
7 6 1 4
0
7 9 6 6
Ci
8 3 2 8
14
0 . 5 3 6 6
0
5 6 6 5
.
5 9 7 1
0
6 2 8 2
0
8 3
15
0 . 5 3 5 7
0
5 6 5 6
.
5 9 6 1
0
6 2 7 1
0
16
0. 5 3 5
0
5 6 4 9
.
5 9 5 3
0
6 2 6 2
IJ
0
02
2
6 5 9 9
0
6 9 £ 4
.
7 £ 5 7
0
7 5 9 8
0
7 9 4 8
0
6 5 8 8
IJ
6 9 1 £
.
7 2 4 3
0
7 5 8 3
0
7 9 3 3
Cl
8 2 9 2
6 5 7 S
0
6 9
.
7 £ 3 £
0
7 5 7 1
0
7 9 1 9
0
8 8 7 7
7 2 2 2
01
09
17
0.
0
5 6 4 2
.
5 9 4 5
0
6 2 5 4
0
6 5 7
0
6 8 9 £
.
0
7 5 6 0
Cl
7 9 0 7
0
8 2 6 4
18
0 . 5 3 3 8
0
5 6 3 6
.
5 9 3 9
0
6 2 4 7
0
6 5 6 2
0
6 8 8 4
. 7 2 1 3
0
7 5 5
Cl
7 8 9 7
0
8 2 5 3
19
0 . 5 3 3 3
0
5 6 3 0
.
5 9 3 3
0
6 2 4 1
IJ
6 5 5 5
0
6 8 7 6
. 7 2
05
0
7 5 4 2
0
7 8 8 7
0
8 2 4 3
2 0
0.
0
5 6 2 5
.
5 9 2 7
0
6 2 3 5
0
6 5 4 9
0
6 8 7
. 71
9 8
0
7 5 3 4
Cl
7 8 7 9
0
8 2 3 4
£1
0 . 5 3 £ 5
0
56 £ 1
.
5 9 2 3
0
6 2 3 0
Cl
6 5 4 3
0
6 8 6 4
. 7 1 9 1
0
•''
0
8 2 2 6
££
0 . 5 3 2 1
0
5 6 1 7
. 5 9 1 8
0
6 2 £ 5
0
6 5 3 8
0
6 8 5 8
. 7 1 8 5
Cl
7 5 2
6 5 3 4
Cl
Cl
5 3 4 4
5 3 2 9
0
0
0
7 8 7 1
0
Cl
7 8 6 4
0
7 5 1 5
Cl
7 y 5 8
0
8 2 1 1
75
09
0
7 8 5 c
n
8 2 0 5
04
c! r' 0
8 2 1 8
£ 3
0 . 5 3 1 7
0
56 1 3
. 5 9 1 4
0
6 £ £ 1
0
6 8 5 3
. 7 1 8 0
£ 4
0.
5 3 1 4
0
561
. 591 1
0
6£1
0
6 5 2 9
0
6 8 4 8
. 7 1 7 5
£ 5
0.
5 3 1 2
0
5 6
07
. 5 9
07
Cl
6 2 1 3
Cl
6 5 2 6
0
6 8 4 4
. 7 1 7 0
Cl
75
0
7 8 4 7
m
8 1 9 9
£ 6
0 . 5 3
09
0
56
04
. 5 9
04
0
6 2 1 0
0
6 5 c! iz'
0
6 8 4
.
Cl
75 0 0
Cl
7 8 4 2
0
8 1 9 4
£ 7
0. 5 3
06
0
5 6 Cl 1
. 5 9
01
0
6 2
07
0
6 5 1 9
0
6 8 3 7
. 7 1 6 2
0
7 4 9 6
0
7 8 3 8
0
8 1 8 9
£ 8
0.
5 3 0 4
0
5 5 9 9
.
5 8 9 9
0
6 2
04
IJ
651
0
6 8 3 4
.
IJ
7 4 9 2
0
7 8 3 3
0
8 1 8 5
£ 9
0 . 5 3 0£
0
5 5 9 7
.
5 8 9 6
0
6 2
0£
0
6 5 1 3
0
6 8 3 0
. 7 1 5 5
Cl
7 4 8 8
Cl
7 8 3
M
8 1 8
3 0
0 . 5 3 0 Cl
Cl
5 5 9 5
.
5 8 9 4
0
6 1 9 9
IJ
651
0
0
6 8 2 8
. 7 1 5 2
0
7 4 8 5
0
7 8 2 6
0
8 1 7 7
0
8 1 7 3
0
7
6
0
7 1 6 6
7 1 5 9
0
0
31
0 . 5 2 9 3
0
5 5 9 3
.
0
6 1 9 7
0
6 5
08
0
6 8 £ 5
.
7 4 8 2
0
7 8 2 3
Ci
•3 c.'
0.
0
5 5 9 1
. 5 8 9
0
0
6 1 9 5
0
6 5
05
0
6 8 £ £
. 7 1 4 7
IJ
7 4 7 9
0
7 8 1 9
0
8 1 6 9
5 5 8 9
.
5 8 8 8
0
6 1 9 3
0
6 5
03
0
6 8 £ 0
.
0
7 4 7 6
0
7 8 1 6
M
8 1 6 6
01
0
6 8 1 8
. 7 1 4 2
0
7 4 7 3
0
7 8 1 4
0
8 1 6 3
5 2 9 7
5 8 9 2
7 1 4 9
7 1 4 4
3 3
0 . 5 2 9 5
0
3 4
0 . 5 2 9 4
0
5 5 8 7
.
5 8 8 6
0
6 19 1
0
6 5
35
0 . 5 2 9 2
0
5 5 8 6
.
5 8 8 5
0
6 1 8 9
0
6 4 9 9
0
6 8 1 6
. 7 1 3 9
0
7 4 7 1
0
7 8 1 1
0
8 1 6
36i
0 . 5 £ 9 1
0
5 5 8 4
.
5 8 8 3
0
6 1 8 7
0
6 4 9 7
0
6 8 1 4
.
0
7 4 6 9
0
7 8 0 8
0
8 1 5 8
3 7
0 . 5 2 8 9
0
5 5 8 3
.
5 8 8 2
0
6 1 8 6
0
6 4 9 5
0
6 8 1 2
. 7 1 3 5
0
7 4 6 6
0
7 8 0 6
0
y
38
0 . 5 2 8 8
0
5 5 8 £
. 5 8 8
0
6 1 8 4
0
6 4 9 4
0
6 8 1
. 7 1 3
0
7 4 6 4
0
7 8
04
0
8 1 5 3 8 1 5
39
0.
5 2 8 7
4 0
0.
5 2 8 6
0
Cl
5 5 8 0
.
5 8 7 9
0
5 5 7 9
.
5 8 7 8
0
7 1 3 7
7 4 6 2
0
7 8
02
0
7 4 6 0
0
7 8 0 0
0
8 1 4 8
128
0
7 4 5 9
0
7 7 9 8
Ci
8 1 4 6
6 1 8 3
0
6 8
08
. 7 1 3 1
6 1 8 1
0
6 4 9 1
0
6 8
07
. 7 1 3
6 1 8 0
0
6 4 8 9
Cl
6 8
05
6 4 9 2
7 1
155
0
0
IJ
3
0
IJ 0
0
41
0 . 5 2 8 5
0
5 5 7 8
.
5876.
0
4£
0 . 5 2 8 4
0
5 5 7 7
.
5 8 7 5
0
6 1 7 9
0
6 4 8 8
Ü
6 8
04
. 7 1 2 7
0
7 4 5 7
0
7 7 9 6
Cl
8 1 4 4
4 3
0 . 5 2 8 3
0
5 5 7 6
.
5 8 7 4
0
6 1 7 7
0
6 4 8 7
0
6 8
02
. 7 1 2 5
Cl
7 4 5 5
0
7 7 9 4
0
8 1 4 2
44
0 . 5 2 8 2
0
5 5 7 5
.
5 8 7 3
0
6 1 76
0
6 4 8 5
0
6 8
01
.
7 1 2 4
0
7 4 5 4
0
7 7 9 3
0
8 1 4 1
4 5
0 . 5 £ 8 1
0
5 5 7 4
.
5 8 7 2
0
6 1 7 5
Ci
6 4 8 4
0
6 8 0 0
.
7 1 £ £
IJ
7 4 5 2
0
7 7 9 1
M
8 1 3 9 8 1 3 7
46 4 7 4 8
Cl
0 . 5 2 8 1 0. 5 2 8
0
0 . 5 2 7 9
0 Cl
5 5 7 3 5 S"7:-: 5 5 7 £
0
. 5 8 7 1 . 5 8 7 .
0
5 8 6 9
0 0
6 1 7 4 6 1 73
0 0
6 4 8 2
0 0
6 7 9 9
. 7 1 2 1
0
7 4 5 1
0
7 7 8 9
0
8 1 3 6
6 7 9 7
. 7 1 2 0
IJ
7 4 5
7 7 8 8
0
0
7 4 4 8
0
7 7 8 7
Ci
8 1 3 4
0
6 1 7 2
0
6 4 8 1
0
6 7 9 6
. 7 1 1 9
6 4 8
0
6 7 9 5
. 7 1 1 7
Cl
7 4 4 7
0
7 7 8 5
Ci
8 1 3 3
6 4 7 9
0
6 7 9 4
. 7 1 1 6
0
7 4 4 6
0
7 7 3 4
0
8 1 3 1
4 9
0 . 5 2 7 8
0
5 5 7 1
.
5 8 6 8
0
6 1 7 1
0
5 0
0 . 5 2 7 8
0
5 5 7
.
5 8 6 8
0
6 1 7 1
0
0
6 4 8 3
0
0
425
A n h a n g — Tabellen Forts. Tab. 3
t-Verteilung, Prozentpunkte
V
Ü. 7 00 0
0
7 1 0 0
5 1
0 . 5 2 7 7
0
556-9
0 . 5 2 7 6
0
5 5 6 9
•jo
0 . 5 3 7 6
0
556-8
54
0 . 5 3 7 5
0
556-7
5 5
0.
0
5 6
0 . 5 3 7 4
5 7
0 . 5 3 7 3
5 S
5 2 7 5
i . 7 2 0 0
.
7
0 0
. 74 0 0
0
7 5 0 0
i. 7 6 0 0
i. 7 7 0 0
1 . 5 8 6 7
.
6
7 0
.
6 4 7 8
0
6- 7 9 3
1 . 7 1 1 5
i.
7 4 4 5
" 8 3
. 8 1 3 0
i.
5 8 6 6
.
6
6-9
.
6 4 7 7
0
6 7 9 3
1 . 7 1 1 4
i.
7 4 4 4
" 8 2
.
1.
5 8 6 5
. 6
68
.
6 4 7 7
0
6. 7 9 1
1 . 7 1 1 3
i.
7 4 4 3
" 8 0
.
3 1 3 7
i.
5 8 6 5
. 6
6 7
.
6 4 7 6
0
6- 7 9 1
1 . 7 1 1 2
i.
7 4 4 2
" 7 9
.
8 1 2 6
556- 7
i.
5 8 6 4
.
6 7
.
6 4 7 5
0
6- 7 9 0
1 . 7 1 1 1
i.
7 4 4 1
" 7 8
. 8 1 2 5
0
5566-
i . 5 8 6 3
. 6
6-6-
.
6 4 7 4
0
6- 7 8 9
i. 7 1 1
1
i. 7 4 4 0
" 7 7
.
0
5566-
i.
. 6
6-5
. 6 4 7 4
0
6. 7 8 8
1 . 7 1 1
0
i.
7 4 3 9
"76-
. 8 1 2 3
i.
5 8 6 3
6
. 7 3 ti 0
0 - 53*73
0
. 6
6 5
.
0
6. 7 8 7
i. 7 1
09
7 4 3 8
.
5 9
0 . 5 3 7 3
0
556-5
1.
5 8 6 2
. 6
64
. 64
0
08
i.
7 4 3 7
.
0 . 5 2 7 3
0
5 5 6 4
i.
5 8 6 1
• 6- 6 3
. 6 4 7 3
0
6. 7 8 7 ê, 7 8 6 -
i. 7 1
60
i. 7 1 0 7
i.
7 4 3 6
6 1
0 . 5 2 7 3
0
5 5 6 4
1.
5 8 6 1
. 6
6 3
. 6 4 7 1
0
6. 7 8 5
i.
i.
7 4 3 6
. .
6 2
0 . 5 3 7 1
0
556-3
1 . 5 8 6 0
. 6
6 2
. 6 4 7 0
Ij
6. 7 8 5
' . 7 1
i.
7 4 3 5
.
5 5 6 5
1 . 5 8 6 3
6 4 7 3 7 2
7 1 0 7 06
63
0 . 5 2 7 1
0
5 5 6 3
. 6
6-2
.6-47 0
0
6. 7 8 4
i.
i . 7 4 3 4
.
64
0.
0
556-2
i.
5 8 5 9
. 6
6 1
.
6. 7 8 3
1 . 7 1
05
1 . 7 4 3 3
.
1. 5 8 5 9 1 . 5 8 5 8
. 6
6 1
.
6 4 6 9
0 l'l
6. 7 8 3
i. 7 1
04
i.
. 6
6 0
.
6 4 6 8
0
6. 7 8 3
i.
5 2 7 0
. 5 8 6 0
6 4 6 9
7 1 0 5
6 5
0. 5 2 7 0
0
5 5 6 3
66
0 . 5 2 6 9
5 5 6 1
5 2 6 9
0 n
5 5 6 1
I.
5 8 5 8
.
6 0
.
6 4 6 8
0
t. 7 8 3
l.
5 2 6 9
0
5 5 6 1
1.
5 3 5 7
. 6
5 9
.
6 4 6 7
0
6 781
i.
0 . 5 2 6 8
0
5 5 6 O
i.
5 8 5 7
. 6
5 9
.
6 4 6 7
0
6 7 8 1
i. 7 1
6 7
0.
68
0.
69
6
7 4 3 3
.
7 1 0 3
i . 7 4 3 1
.
7 1 0 2
1.
.
02
. 8 1 1 1
. 7" 6 5 _ 7" 6 4 . 7" 6 4 . 7" 6 3
. 8 1 1 1
0
6. 7 8 0
i.
0.
0
5 5 5 9
i.
5 8 5 6
. 6
5 8
.
0
6 7 8 0
1 . 7 1 0 0
7 d.
0 . 5 3 6 7
0
5 5 5 9
i . 5 8 5 6
. 6
5 8
.
6 4 6 5
0
6 7 7 9
1 . 7 1 0 0
i.
7 4 2 8
7 3
0 . 5 3 6 7
0
5 5 5 9
I.
5 8 5 5
. 6
5 7
.
6 4 6 5
IJ
6 7 7 9
i. 7
099
i.
7 4 2 8
74
0 . 5 2 6 7
0
5 5 5 8
i.
5 8 5 5
. 6-
5 7
.
6 4 6 4
0
099
i.
7 4 2 7
0 . 5 2 6 6
0
5 5 5 3
i.
5 8 5 5
. 6
56-
.
6 4 6 4
ü
6. 7 7 y 6. 7 7 8
i. 7
7 5
i. 7
098
i.
7 4 2 7
7 6 7 7
0 . 5 2 6 6
0
5 5 5 3
1.
5 8 5 4
. 6
56-
.
6 4 6 3
ü
6 7 7 7
i. 7
098
i.
7 4 2 6
0 . 5 3 6 6
0
5 5 5 7
1.
5 8 5 4
. 6-
56-
. 646.3
0
6 7 7 7
i. 7
098
i.
7 4 3 6
78
0 . 5 3 6 6
0
5 5 5 7
1 . 5 8 5 4
. 6
5 5
.
6 4 6 3
0
6- 7 7 6 -
i. 7
097
i.
7 4 2 5
7'?
0.
0
5 5 5 7
1.
5 8 5 3
. 6
5 5
. t-463
0
6- 7 7 6
i. 7 0 9 7
i.
7 4 2 5
8 0
0 . 5 3 6 5
0
5 5 5 7
1.
5 3 5 3
. 6-
5 5
.
IJ
6- 7 7 6
i . 7
i.
7 4 2 4
0
.
6 4 6 3
0
6 7 7 5
8 iE'
0 . 5 3 6 4
0
5556-
1.
5 3 5 3
. 6
5 4
.
6 4 6 1
i.
i.
7 4 2 3
0 . 5 3 6 4
0
5556-
1.
5 8 5 3
. 6
5 4
. 6 4 6
1
IJ 0
6. 7 7 5
83
6- 7 7 5
i. 7
095
i.
7 4 2 3
84
0.
0
5 5 5 5
i.
5 3 5 3
. 6
5 3
. 6 4 6 1
0
6 7 7 4
i. 7
095
i.
7 4 2 3
8 5
0 . 5 3 6 4
0
5 5 5 5
i.
5 8 5 1
.
6
5 3
6. 7 7 4
i. 7
094
i.
7 4 3 3
0 . 5 3 6 3
0
5 5 5 5
i.
5 8 5 1
. 6-
5 3
. 6 4 6 0 . 6 4 6 0
0
86
0
6 7 7 4
i. 7
094
i.
7 4 3 3
0 . 5 3 6 3
0
5 5 5 5
i . 5 8 5 1
. 6
5 3
. 6 4 6
0
6- 7 7 3
i. 7
094
i.
7 4 3 1
5 3 6 4
5 5 5 6
i.
5 8 5 3
. 6
5 4
i. 7
096
7 Ü 9 5
. 8 1 1 6
7" 6 6 -
. 646-6-
5 3 6 5
8 1 1 7
.
5 8
0.
.
7 4 3 9
. 6
81
. 8 1 1 7
0
. 8 1 1 8
i.
0
5 8 5 6
096
7" 7 1 7" 7 0 7" 7 0
. 8 1 3
1 . 7 4 3 9
i. 7 4 3
i.
6 4 6 3
8 1 3 1
. 8 1 1 9
. 8 1 1 5
5 5 6 0
5 3 6 5
. 3 1 3 2 .
7" 7 4 7" 7 3 7" 7 3
. 8 1 1 3
0
6 4 6 6
8 1 2 4
7" 6 7 , 7" 6 7 . 7" 6 - 6
7 4 3 1
0 . 5 2 6 8
7 1 0 1
8 1 2 9
7" 6 9 7" 6 - 8
7r 1°
5 3 6 8
.
i . 7 4 3 3
7 1 0 3
7" 7 5 7" 7 4
. 79 0 0
i.
7 4 2 4
. 8 1 1 4 . 8 1 1 3 . 8 1 1 2
. 8 1 1
0
. 8 1 09 . 3 1 0 9
. 7" 6 - 3 . 7" 6 2
. 8 1 08
. 7" 6 2 . 7" 6 1 . 7" 6 1
. 81
. 8 1 08 07
. 8 1
07
. 8 1
06
. 7" 6 0 . 7" 6 Ü . 7" 5 9
. 8 1 0 5
. 7" 5 9 . 7" 5 8 . 7" 5 8
. 8 1 04
. 8 1
05
. 8 1 0 4 . 8 1
04
. 8 1
03
.
. 8 1
03
.
. 8 1 03
89 9 0
0 . 5 3 6 3
0
5 5 5 4
I. 5 3 5
0
.
6
5 3
.
6 4 5 9
0
6 7 7 3
l. 7
7 4 3 1
7" 5 8 7" 5 7 „ 7" 5 7
0 . 5 2 6 3
0
5 5 5 4
c. 5 8 5
0
. 6-
5 3
.
6 4 5 9
0
6- 7 7 3
i. 7
093
i. 7 4 3 0
. 7" 5 6 -
. 8 1 01
9 1
0 . 5 3 6 3
0
5 5 5 4
!. 5 8 5 0
. 6
5 1
. 6 4 5 9
0
6- 7 7 2
i. 7
093
i. 7 4 3 0
9 2
0 . 5 3 6 2
0
5 5 5 4
1 . 5 3 5 0
. 6
5 1
.
6 4 5 8
II
i. 7
092
J. 7 4 2 0
. 8 1 0 1
9 3
0 . 5 2 6 2
0
5 5 5 3
.
6
5 1
.
6 4 5 8
0
6 7 7 2 6- 7 7 1
. 7" 5 6 . 7" 5 6 -
i. 7
092
94
0 . 5 2 6 2
n
5 5 5 3
-1.5849
.
6
5 1
.
6 4 5 8
0
6 7 7 1
i. 7
091
i.
7 4 1 9
9 5
0.
0
5 5 5 3
1 . 5 8 4 9
. 6
5 0
.
6 4 5 7
0
6 7 7 1
i. 7
091
3.
7 4 1 9
88
96
0 . 5 3 6 3
5 3 6 3
0 . 5 3 6 1
0
0
5 5 5 3
1 . 5 8 5 1
.
. 6
5 3 4 9
i . 5 3 4 9
.
6
5 0
.
6 4 5 9
0
6 7 7 3
i. 7 0 9 3
"i.
7 4 2 1
"i.
093
. 6 4 5 7
0
6- 7 7 1
.
Ij
6 7 7 0
. 7 09 0
i . 7 4 1 8
0.
5 2 6 1
5 5 5 3
"1.
5 8 4 9
"i.
7 4 1 8
98
0.
5 2 6 1
0
5 5 5 3
3.
5 8 4 8
. 6
5 0
.
6 4 5 7
LI
6 77 0
i. 7 0 9 0
'i.
7 4 1 8
0 . 5 2 6 1
0
5 5 5 3
1. 5 8 4 8
. 6-
49
.
6 4 5 6
M
6 77 0
i. 7 0 9 0
"i.
7 4 1 7
0 . 5 2 6 1
0
5 5 5 3
. 6-
49
.
6 4 5 6
0
6 7 7 0
i. 7 0 9 0
"i.
7 4 1 7
5 0
6 4 5 7
1 . 7 0 9 1
. 74 1 9
97
•1.5848
. 6
5 3
99 1 0 0
0
5 5 5 4
0
. 8 1 03 . 8 1 0 1
. 7" 5 5 . 7" 5 5 . 7" 5 4
. 8 1 0 0
. 7^ 5 4 . 7" 5 4
. 8 0 9 9
" 5 3 . 7" 5 3 . 7" 5 3
. 8 1 0 0 . 8 . 8
099 099
. 8
098
. 8
098
. 8
098
426
Anhang — Tabellen
Forts. Tab. 3 V
t-Verteilung, Prozentpunkte tj
ij
8 1 01 j
y 8 0 0
0
8 3 0 0
. 3 4 0 0
1
1 . 3 9 8 6
1
4 8 7 6
5 9 1 6
1
7
.
8
1.060:-:
1
1
1 7 7
1 7 8
t
1
£ 4 £ 5
3
0 . 9 7 3 5
1
0 8 7 ij
ij 7 8
0
1
1 31
4
0 . 9 4 1 0
M
9 8
0 3 3 9
1
0 8 £ 3
0
0 7 3
1
0 5 4
09
1
0 3 * 3
. 0 3 4
7 9 4
1
0£
33
1
ij
146
0. 8 00 n
5 9
0 . 9 1 9 5
0
'=•685
6
0 . 9 0 5 7
0
94
74
0
9 9
7
0. 8 9 6 0
0
936'-'
ij
9
8
0 . 8 3 8 9
0
9 8 9 1
ij
971
0
0 6 4
S
3
0
3 5 0 0
0
8 6 0 0
. 3 7 0 0
0
8 8 0 0
0
1
9 7 6 5
£
1 3 7 7
. 3 £ 1 6
£
5 3 3 9
£
. 3 1 1 7
1
3 3 6 3
1
4 6 7 3
. 5 5 5 9
1
6 5 3 6
1
7 6 £ 6
.
1 3 3 9
1
£ 4 9 3
1
3 15 0
. 3 8 5 3
1
4 6 1 6
1
5 4 5 £
.
1 3 4 4
1
1 S 9 6
1
£ 4 3 3
. 3 1 1 £
1
3 7 8 9
1
4 5 £ 5
3 3 3 3
. 1
0 3 7
8 9 0 0 7 8 £ 3
1
1 5 5 3
1
£ 11
0
. £ 6 9 9
1
3 331
1
4 0 1 4
0
1
134i?
1
1 8 7 £
. £ 4 3 7
1
3 04 1
1
3 6 9 1
. 07
03
1 19£
1
17
. £ £ 5 5
1
£ 8 4 0
1
3 4 6 9
. 06
0£
1 i
1081
1
1 5 8 7
. £ 1 £ 3
1
£ 6 9 3
1
3 3
1 4 9 4
. £ 0£ 1
1
£ 5 8 1
1
3
18£
1
0 8 4
08
06.
9
0 . 8 3 3 4
0
9 8 3 8
ij
9 6 4 5
1
0 0 75
.
0 5 £ 5
1
0 9 9 7
1
1 0
0 . 8 791
0
9 1 8 5
ij
9 5 9 4
1
ij ij 1 9
.
0 4 6 4
1
0931
1
1 4 £ £
. 1 9 4 1
£ 4 9 3
1
3
11
0 . 8 7 5 5
0
9 1 4 6
ij
9 5 5 8
0
9 9 7 4
. 041
5
1
03 77
1
. 1 8 7 6
1
£4c'£
1
3 0 05
18
0 . 8 7 8 6
0
9 1 1 5
ij
9 5 1 3
0
9 9
37
.
0 3 7 4
1
08 3£
1
1 3 1 4
. 1 3 £ 3
1
£ 3 6 3
1
£ 9 4
13
0 . 8 7 0 8
0
9 0 8 8
0
9 4 8 9
0
9 9
05
.
0
1
0 7 9 5
1
1 £ 7 3
. 1 7 78
1
£ 3 1 4
1
£ 8 8 6
14
0 . 8 6 8 1
ü
9
9 4 6 4
0
9 3 7 ¡3
. 031 1
1
0 76 3
1
1 £ 3 8
. 1 7 3 9
1
£ £ 7 £
1
£ 8 4
15
0 . 8 6 6 8
0
9 0 4 6
0
9 4 4
0
9 3 5 5
.
0 £ 8 5
1
0 7 35
1
1 £ 0 8
. 1 7 07
1
£ £ 3 5
1
£ 8 0 0
16
0 . 8 6 4 7
0
908'-:
0
9 4 8 4
n
1
0 7 1 1
1
1
18£
. 1 6 78
1
£ £ 0 4
1
£ 7 6 5
17
0. 8 6 3 3
iJ
9 0 1
0
9 4
Ij
9 3 1 7
.
0 £ 4 4
1
0 6 9 0
1
1
1 5 9
. 1 6 5 3
1
£ 1 7 6
1
£ 7 3 4
9 0 0 0 £ ¡ 9 C; ¡1;
o
-:9
0
9 3
.
138
Ij
9 3 3
0
(1
9
9
Ij
9 7 7 5
18
0 . 8 6 c 0
0
0 6 5
3
08
19
0. 8 61 0
0
£ 0
0. 8 6 0 0
0
8
7 7
Ij
9 3 6
8 9 6 8 9 5 9
Ij
9
Ij
9 3 4 9
-:58
1
06 7£
1
1
. 1 6 3 0
1
£ 15£
1
£ 7
1
0 6 5 5
1
1 1£ 0
. 1 6 1 1
1
£ 1 3 0
1
£68:3
.
1
06.40
t
1 1 04
. 1 5 9 3
1
£ 1 1 0
1
£ 6 6 £
0 1 9 3
07
9
.
0 1 3 6
1
06 £ 7
1
1
0 8 9
. 1 5 7 7
1
£ 0 9 3
1
£ 6 4 £
.
0 1 7 4
1
06.14
1
1
0 7 6
. 1 5 6 2
1
£ 0 7 7
1
£ 6 £ 5
0
9 7 4 4
. 0 1 6 4
1
06 0 3
1
1
0 6 4
. 1 5 4 9
1
£ 0 6 £
1
£ 6 0 9
0
9 7 3 5
.
0 1 5 5
1
0 5 9 3
1
1
0 5 3
. 1 5 3 7
1
£ 0 4 9
1
£ 5 9 4
97£7'
.
0 1 4 6
1
0 5 3 4
1
1
0 4 3
. 1 5 £ 5
1
¿•036
1
£ 5 8
9 7 £
0
.
0 1 3 3
1
0 5 7 5
1
1 03 3
. 1 5 1 5
1
£ 0 £ 5
1
£56.8
3
.
0 1 3 1
1
0 5 6 7
1
1 Oc'4
. 1 5 06
1
£ 0 1 5
1
£ 5 5 7
8 3
0 . 8 5 7 5
0
8 9 5 1
Ij
9
2 4
0 . 8 5 6 9
0
8 9 4 4
Ij
3 9 3 7
o
9 '3 3 8 Q ¿ -
0
0
0 £ £ 7
. 0£ 1 £
9 7 5 3
0 0
0 . 8 5 6 8
0
fl
0 . 8 5 9 1 0 . 8 5 8 3
8 5
0
o
iE' 1 8 8
3 4 0
ij£ 7 8 8
0 3 4
7 6 4
0
8 6
0 . 8 5 5 7
0
8 9 3 1
Ij
•SS
I S
0
8 7
0 . 8 5 5 1
0
8 9 8 5
o
9 3
1£
0
971
8 8
0 . 8 5 4 6
0
8 9 8
0
Ij
9 3
06
n
9 7 0 7
. 01
£ 4
1
056.0
1
1 01
6
. 1 4 9 7
1
£ 0 i ) 5
1
£ 5 4 6
¿ 9
0 . 8 5 4 8
0
391
5
(1
9 3
ü l
o
9 7
. 0 1 1
8
1
0 5 5 3
1
1 0 09
. 1 4 8 9
1
1 9 9 6
1
£ 5 3 6
3 0
0. 8 5 38
0
8 9 1
0
f!
9c
9 6
0
9 6 9 6
. 0 11
£
1
0 5 4 7
1
1 00 £
. 1 4 8 1
1
31
0 . 8 5 3 4
0
8 9
06
0
9 £ 9 1
ü
9 6 9 1
. 01 0 7
1
0 5 4 1
1
0 9 9 5
. 1 4 7 4
1
1 9 8 0
1
£ 5 1 8
3 8
0 . 8 5 3 0
0
8 9
08
Ij
0£
1
0 5 3 5
1
0 9 8 9
. 1 4 6 7
1
1 9 7 3
1
£ 5 1
3.-!
0 . 8 5 8 6
0
3 4
0 . 8 5 8 3
0
01
£ 5 £ 7
9 £ 8 7
0
9 6 3 6
. 01
8 8 9 8
Ij
9 £ 8 3
0
9 6 8 £
. 0
0 9 7
1
0 5 3 0
1
0 9 8 4
. 1 4 6 1
1
1 9 6 6
1
£ 5 0 3
3 8 9 5
Ij
9 £ 7 9
0
96:70
. 0 0 9 £
1
0 5 3 5
1
0 9 7 8
. 1 4 5 5
1
1 9 5 9
1
£ 4 9 5
0
3 5
0 . 8 5 8 0
0
8 8 9 1
0
9 £ 7 5
0
9 6
74
. 0
0 3 3
1
0 5 £ 0
1
0 9 7 3
. 1 4 4 9
1
1 9 5 3
1
£ 4 8 9
3 6
0 . 8 5 1 7
0
8 8 8 3
Ij
9 ir 7"
0
96.7 0
. 0
0 3 4
1
0 5 1 6
1
0 9 6 8
. 1 4 4 4
1
1 9 4 7
1
£ 4 8 £
3 7
0 . 8 5 1 4
0
8 8 8 5
n
9 £ 6
ij
9 t . 6 6.
. 0 08 0
1
0 5 1 £
1
0 9 6 4
. 1 4 3 9
1
1 9 4 £
1
£ 4 7 6
3 3
0 . 8 5 1 8
0
8 8 8 8
ij
9 3 6 6
n
9 6 6 3
. 0
0 7 6
1
05 08
1
0 9 5 9
. 1 4 3 5
1
1 9 3 7
1
£ 4 7 1
3 9
0. 8 5 09
0
8 8 8
0
9 £ 6
3
n
9 6 6
. 0
0 7 3
1
05 04
1
0 9 5 5
. 1 4 3 0
1
1 9 3 £
1
£ 4 6 5
4 0
0. 8 5 07
ij
8 8 7 7
n
9 £ 6 0
n
9 6 5 7
0 07 0
1
05 0 0
1
0 9 5 £
. 1 4 2 6
1
1 9 £ 7
1
£ 4 6
3 8 7 5
ij
9 £ 5 7
ü
9 6 5 4
. 0
0 6 7
1
0 4 9 7
1
0 9 4 8
. 1 4 £ £
1
1 9 £ 3
1
£ 4 5 6
9 £ 5 5
ij
9 6 5 1
. 0
0 6 4
1
0 4 9 4
1
0 9 4 4
. 1 4 1 8
1
1 9 1 9
1
£ 4 5 1 £ 4 4 7
41
ij. 8 5 0 5
0
ij
9
0
.
0
4 8
0. 8 5 0 3
0
8 8 7 8
0
4 3
0 . 8 5 1j 1
0
8 8 7
Ij
9 £ 5 £
0
96.49
. 0 061
1
0 4 9 1
1
094 1
. 1 4 1 4
1
1 9 1 5
1
4 4
0 . 8 4 9 9
0
8 8 6 8
Ij
9 £ 5
n
96.46.
. 0
0 5 3
1
0 4 8 8
1
093:8
. 1 4 1 1
1
1 9 1 1
1
£ 4 4 £
4 5
0.
0
8 8 6 6
Ij
9 £ 4 8
0
9 6 4 4
.
0 05 6
1
0 4 8 5
1
0 9 3 5
. 1 4 08
1
19 07
1
£ 4 3 8
4 6
0 . 3 4 9 5
0
8 8 6 4
Ij
9 £ 4 6
n
9 6 4
£
. 0
0 5 3
1
0 4 8 3
1
0 9 3 £
. 1 4 05
1 . 1 9 0 4
1
£ 4 3 5
4 7
0 . 8 4 9 3
0
8 3 6 8
Ij
9 £ 4 4
ij
9 6 4
0
. 0 05 1
1
0 4 8 0
1
0 9 £ 9
. 1 4 0£
1
1
£ 4 3 1
1
£ 4 £ 7
4 9 7
0
Ü
4 8
0 . 8 4 9 8
0
3 8 6 1
II
9 £ 4 £
ij
4 9
0 . 8 4 9 0
0
8 3 5 9
Ij
9 £ 4
ij
9 6 3 6
5 0
0 . 8 4 8 9
0
3 8 5 7
0
9£:39
0
9 6 3 4
0
9 6 3 3
1 9 0 1
0 4 9
1
04 7 8
1
0 9 £ 7
. 1 3 9 9
1 . 1 8 9 7
. 0
0 4 7
1
0 4 7 5
1
0 9 £ 4
. 1 3 9 6
1 . 1 8 9 4
1
£ 4 £ 4
. 0
0 4 4
1
0 4 7 3
1
0 9 £ £
. 1 3 9 3
1 . 1 8 9 1
1
£ 4 £ 1
. 0
427
Anhang - Tabellen
t-Verteilung, Prozentpunkte
Forts. Tab. 3 ::
64
1 Olì
3476, 34,-5 3474 34 73 347c 3471 347 0 3463 3469 3463 3467 3466 3466 3465 3464 3464 3463 3463 346c 3461 346 1 346 Ù 346 0 3459 3459 3458 3458 345? 345 7 :456 :456 ¡455 :455 ¡455 ¡454 :454 :453 :453 :458 :45£
1 i;ni
}: 0 i j '-1 ft O 1 'Hh, j l'I 1 Q fl, 1 Q I' j? 1 T- c' 1 96,34 1 M£ 1 96£ 1 1 '-'6 c' 0 1 96 1:3 '-"f. 1 7 1 9616 1 9615 1 9*13 961 2 1 '-'6 1 1 ! 961 0 1 9 t, 09 1 96 03 i 96 0 7 1 961: »r 1 96 05 1 96 04 1 96 04 i 9 6, " 1 96 0c 1 96 01 1 96,0 0 1 96 0 0 1 1 9593 1 9598 1 9597 1 9596 1 9596 1 9595 1 9594 1 9594 1 9593 1 959 3 1
349 348 346 345 344 343 34i3 341 34 n
:' 1 6 :' 1 5 :'14 L' 13 ìli'
0
81 £0 £0 £0 19 I9 18 18
0. 9 0. 9 0. 9 0. 9 0. 9 0. 9 0. 9
QQ 99 98: 9:3 97 97
0 lì lì 0 lì 0
96, n
9591 0 959 1 n 959 0 0 959 0 0 9589 n 9 5 8 9 ri c'44 1 0 0 06 1.0431 . 0 8 7 6 1 1343 1 0 0 05 1 . 0 4 3 0 . 0 8 7 5 1 1348 1 0 0 05 1 . 0 4 8 9 . 0 8 74 1 1 34 1 1 0 0 04 1 . 0 4 8 9 . 0 3 7 3 1 134 0 1 lì 00:3 1. 04 £ 8 . 0878 1 1 34 0 1 lì 0 0 8 1 . 0 4 8 7 . 0:378 1 1339 1 0 0 0 £ 1 . 04ce. . 0 8 7 1 1 1 3 38 1 f>0 0 1 1 . 0 4 8 6 . 087 lì 1 1 3 3 7 1 . 086,9 1 13 36 1 O 0 0 01 . 0 4 ¿ 5 0 o o o 1 . 0 4 £ 4 . 0 8 6 1 1335 1 9 999 1. 0 484 1 3.35 1 Ci 999 1 . 0 4 8 3 13-:4 1 i ?98 1 . 0 4 £ £ . 0 8 6 7 1 138.3 1 9Q? 1 . 0 4 £ £ . 08:66 1 1 338 1 •j99 7 1.04£1 . 086,5 1 1338 1 996 1 . 0 4 8 1 . 0 8 6 5 1 1 331 1 9996 1 . 0 4 8 0 . 0 8 6 4 1 133 0 1 9 995 1 . 04 1 9 . 0 3 6 3 1 1 389 1 •a91=15 1 . 0419 . 0 3 6- 3 1 1389 1 Q9*4 1 . 0418 . 0 8 6 8 1 1388 1
88 0 0 i. 89 0 0 1889 . £418 1 886 . £415 1 883 - 2 4 i e 1 88 1 . £4 09 1 37:3 . £4 07 1 876 . £4 04 1874 . £4 Oc £399 187£ 1870 . £397 1 '36,8: . £395 1 866 . £39£ 1 864 . £39 0 1 86£ . £388 1 858 185 7 1 855 1 854 1 85£ 1851 1 849 1848 1 846 1845 1 844 1843 1 84 1 1 84 0 1839 1 838 1 83 7 1836 1 835 1 834 1 833 1 8 38 1 83 1 1 83 0 1888 1 8c 7 1 8£6 1 8£6 1 8£5 1 8£4 1 8£3 1 8£c 1 S8£ 1 8£ 1 1 88 0
. £386
. . . . . . .
£385 £383 £38 1 £379 £378 £376 £374
. £373
. £37 1 . £37 0 . £369 . £367 . £36,6 . £36,5 . £36,3 . £36£ . £361 . £36 0 . £359 .£35 7 . £356 . £355
. £354
. £353 . ¿352
. . . . . . . . . .
£ 35 0 8349 £348 £348 £347 8346 £345 £344 £343 £343
428
Anhang — Tabellen
Forts. Tab. 3 V
1 £ 3 4 5 6 7 8 10 11 12 13 14 15 16 17 18 19 £0 £1 ££
£3 £4 £5 £6 £7 £8 £9 30 31 3£ 33 34 35 36 37 38 39 40 41 4£ 43 44 45 46 47 48 49 50
0.91011 3.4343 £. 0£56. 1.741 £ 1.6226 1.5579 1.5172 1.4894 1.4691 1.4537 1 . 4416 1.4318 1.4237 1.4170 1.4113 1 . 4 063 1.4021 1.3983 1.395 0 1.392 0 1.3894 1.387 0 1 . 3 £ 1 £ 1.3848 1.3195 1.3828 1 . 3 1 7 8 1. 3810 1.3163 1.3794 1.315 0 1.3778 1.3137 1.3764 1 . 3 1 2 5 1.3751 1.3114 1.3739 1.3104 1 . 3 7 2 8 1 . 3 095 1 . 3 7 1 7 1 . 3 086 1 . 3 7 07 1 . 3 077 1 . 3 6 9 8 1 . 3 07 0 1 . 3 6 8 9 1. 3 06£ 1.3681 1. 3 055 1 . 3 6 7 3 1. 3 049 1.3666 1. 3 042 1 . 3 6 5 9 1 . 3 036 1.3652 1 . 3 031 1.3646 1 . 3 025 1 . 3 6 4 0 1 . 3 02 0 1 . 3 6 3 5 1. 3 016 1 . 3 6 2 9 1. 3 011 1.3624 1 . 3 006 1 . 3 6 1 9 1. 3 002 1. 3615 1.£998 1.3610 1 . £ 9 9 4 1. 36 06 1.£991 1. 36 02 1.£987 1.3598
3.0773 1.8853 1.6377 1 . 5 332 1.4759 1.4398 1.4149 1.3968 1.383 0 1.37££ 1.3634 1.356£ 1.3502 1.345 0 1 . 3 4 06 1.3368 1 . 3 3 34 1.3304 1.3£77 1. 3£53
t-Verteilung, Prozentpunkte 0 92' 0 0 3 876 0 2 1887 1 8588 1 7££9 1 6493 1 6 032 1 5718 1 5489 1 531 5 1 5179 1 5 06.9 1 4979 1 49 03 1 4839 1 4 784 1 4736 1 4694 1 4656 1 4623 1 4593 1 4567 1 4542 1 452' 0 1 45 0 0 1 4482 1 4464 1 4449 1 4434 1 4421 1 44 08 1 4396 1 4385 1 4375 1 4365 1 4356 1 4347 1 4339 1 4331 1 4324 1 4317 1 431 0 1 . 4 3 04 1 4£98 1 4292 1 4287 1 4282 1 4277 1 .4272 1 4267 1 4263
0 4 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
93 0 0 0 4378 5 3824 £ 9949 2 8 375 1 7529 1 7 0 02 1 6643 1 6383 1 6185 1 6031 1 59 06 1 58 04 1 5718 1 5646 1 5583 1 5529 1 5482 1 5439 1 54 02 1 5369 1 5338 1 531 1 1 52Ö 6 1 5263 1 5242 1 5 ¿2'3 1 52 05 1 5 1 89 1 5174 1 5159 1 5146 1 5 1 34 1 5122 1 5111 1 5101 1 5 091 1 5 082 1 5 073 1 5 065 1 5 057 1 5 05 0 1 5 043 1 5 036 1 5 0£9 1 5 023 1 5017 1 5012 1 5 0 06 1 5 0 01 1 4996 1
940 0 1779 6188 1561 9712 8727 8116 77 02 74 02 7176 6998 6856 6739 664 1 6558 6487 6425 637 0 6322 628 0 6242 6207 6176 6148 61 £ £ 6 098 6 076 6 056 6 037 6 02 0 6 0 04 5988 5974 5961 5949 593 7 5926 5915 59 05 5896 5887 5879 5871 5863 5856 5849 5842 5836 583 0 5824 5818
0 6 £ 2 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
95 0 0 1991 9178 3531 13 18 015 0 9432 8946 8595 8331 8125 7959 7823 77 09 7613 7531 7459 7396' 7341 7291 7247 72 07 7171 7139 7 1 09 7 081 7 056. 7 033 7 011 6991 697-3 6955 6939 6924 69 09 6.896 6.883 6871 6860 6849 6839 6829 68£ü 6811 68 02 6794 6787 6779 6772 6766 6759
0 7 3 2 £ 2 2 2 £ 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
960 0 0 7 0£ 0 • • 3162 3 6 05 1 2 3328 2 19 09 2 1 043 2 046 0 2 0 042 2 9 727 2 9481 2 9284 c 9123 2 8989 2 8875 2 8 777 £ 8693 £ 8619 £ 8553 £ 8495 £ 8443 1 8397 1 8354 1 831 6 1 8281 1 8248 1 8219 1 8191 1 8166 1 8142 1 812 0 1 81 00 1 8 081 1 8 063 1 8 046 1 8 03 0 1 8 01 5 1 8 001 1 7 9 ¡38 1 7975 1 7963 1 7952 1 7941 1 7931 1 7921 1 791 1 1 79 02: 1 7894 1 7885 1 7878 1 787 0 1
97 0 0 0 980 0 0. 99 0 0 • • • •
• • • • • •
89 0 0 4 3 60 07 2 4216 2 3133 2 24 09 £ 1892 2 15 04 2 12 02 £ 096 1 2 0764 2' 06 0 0 2 0462 £ 0343 2 0£4 0 2 015 0 2 007 12 0 0 0 0£ 9937 2 988 0 2' 9829 £ 978£ 2 974 0 £ 97 01 2 9665 2 9632 2 96 01 2 9573 2 9546 2 9522 2 •51499 2 9477 2 9457 2 9438 2 9419 2 94 02 2 9386 2 9371 2 9357 2 9343 2 933 0 2 9317 2 93 05 2 9294 2 9283 2 9273 2 9263 2 9253 2 9244 2
• • • • • •
8346 6 9158 480 7 4. 5368 9983 7463 7565 3648 6122 1426 5167 2. 9979 449 0 2 . 8964 3984 2 8214 f' 2. 7638 3281 2. 7181 3 027 2. 6810 2816 2. 65 03 2638: 2. 6£45 £485 £ 6 0£5 £354 £ 5835 ££38 £ 5669 £137 2. 5524 £047 2 5395 1967 2 528 0 1 894 2 5176 1 8 29 2 5 083 1 77 0 2 4999 1715 2 4922 1 666 2 4851 1 6£ 0 £ 4786 1578 2 4727 1539 2 4671 15 03 £ 462 0 1470 £ 4573 1438 £ 4528 14 09 2 4487 1382 2 4448 1 356 2 441 1 1332 £ 4377 13 09 £ 4345 1 £87 £ 4314 1 £67 £ 4286 1247 2 4258 1 229 2 4233 1£1£ £ 4£08 1 195 £ 4185 1 179 £ 4162 1 164 2 4141 1150 2 41£ 1 1 1 36 £ 41 02 1 123 £ 4 083 1 1 11 £ 4 066 1 099 2 4 049 1 087 2 4 033
Anhang — Tabellen
429
Forts. Tab. 3 V 51 5c 53 54 55 56 57 58 59 60 61 6 iE' 63 64 65 66 68 6-9 70 71 72 73 74 75 76 77 78 7"? 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 1 Ü0
0. 9 Ü0 0 1.£984 1.£98 0 1.£977 1.£974 1 . £9 7! 1.£969 1.£966 1.£963 1.£961 1.£958 1.£956 1.£954 1.£951 1.£949 1.£947 1.£945 1.£943 1.£941 1.£939 1.£938 1.£936 1.£934 1.£933 1.£931 1.£9£9 1.£9£8 1.£9£6 1.2925 1.£9£4 1.£9££ 1.£9£1 1.£9£0 1. £ 91 8 1.£917 1.£916 1. £ 91 5 1.2914 1.£912 1.2911 1.2910 1.2909 1.2908 1.2907 1 . 2 9 06 1 . 2 9 05 1.2904 1.2903 1.2902 1.2902 1 . £ 9 01
t-Verteilung, Prozentpunkte 1. 91 0 o . 3594 . 359 0 . 3587 . 3584 . 358 ü . 357 7 . 3574 . 3571 . 3568 . 3566 . 3563 . 3561 . 3558 . 3556 . 355 3 . 3551 . 3549 . 3547 . 3545 . 3543 . 3541 . :3539 . 3537 . 3536. . 3534 . 353£ . 353 0 . 35£9 . 3587 . 3526 . 35£4 . 3523 . 3522 . 352 0 . 351 9 . 35 1 7 . 3516 . 3515 . 3514 . 3513 . 351 1 . 351 0 . 35 09 . 35 08 . 35 07 . 35 06 . 35 05 . 35 04 . 35 03 . 35 02
0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
9£ 0 0 4c 59 42 55 42 51 42 47 42 43 42 4 0 42 36' 42 3 3 42 3 n 42 2 7 42 24 42 21 42 1 9 42 16 42 1 3 42 1 1 42 08 42 06' 42 04 42 02 41 99 41 9 7 41 95 41 41 91 41 9 0 41 38 41 36 4 1 84 41 8 3 41 31 41 79 41 78 41 7641 75 41 73 41 72 417 0 41 69 41 68 41 66 4165 41 64 41 6 3 4162 41 6 0 41 59 41 58 41 57 41 56
ü 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
93 0 0 1.94 Cl Ù 0.95 0 0 499 i . 5813 1 . 6 7 5 3 4987 . 58 07 1 . 6 747 4983 . 58 02 1.6741 49 78 . 5798 1 . 6 7 3 6 4974 . 5 7 9 3 1 . 6 7 3 0 497 0 . 5789 1 . 6 7 2 5 4967 . 5784 1 . 6 7 2 0 496? . 5 7 8 0 1 . 6 7 1 6 495'a . 5776 1 . 6 7 1 1 4956 . 5 7 7 2 1.6-7 06 4953 . 5769 1 . 6 7 0 8 495 0 . 5765 1.6696 4946 . 5761 l .6*94 4943 . 5758 1.6690 4941 . 5755 1.6686 4938 . 5752 1.6683 4935 . 5749 1 . b * 7 9 49 32 . 5 746 1 . 6 6 7 6 49 3 0 . 5 743 1. 6678 4927 . 574 0 1.6669 49£5 . 5 7 3 7 1.6666 4983 . 5734 1 . 6 6 6 3 49£ 0 . 5732 1.666 Ü 491 8 . 5729 1 . 6 6 5 7 49 1 6 . 5727 1.6654 4914 . 5725 1.6658 491 £ . 5722 1.6649 491 0 . 572 Û 1.6646 49 08 . 5718 1.. t-644 49 06 . 5 7 1 6 1 .6641 49 04 . 5 7 1 3 1 . 6 6 3 9 49 02 . 571 1 1.6636 49 01 . 5709 1 . 6 6 3 4 4899 . 5708 1. 663c' 4897 . 57 06 1 .663 0 4896 . 5 7 04 1. 6 6 ¿'8 4894 . 5702 1. 6686 4892 . 5 7 0 0 1. 6684 489 1 . 5698 1 . 6 6 c'.=: 4889 . 5697 1 .663 0 4888 . 5695 1 .6618 4886 . 5693 1.6616 4885 . 56.92' 1 . 6 6 1 4 4884 . 569 0 1 . 6 6 1 8 4882 . 5689 1.6611 488 1 . 5687 1 . 6 6 09 488 0 . 5686 1.66 07 4879 . 5684 1.66 06 4877 . 5683 1 . 6 6 04 4876 . 568£ 1 . 6 6 08
i.96 0 0 . 7863 . 7856 . 7.349 . 784 . 7836 . 783 0 . 7885 . 7819 . 7814 . 78 08 . 78 03 . 7799 . 77 ? 4 . 7 789 . 7785 . 7 78 1 . 7776 . 7 778 . 7769 . 7765 . 7761 . 7757 . 7754 . 7751 . 774 7 . 7744 . 7741 . 7738 . 7735 . 7738 . 7789 . 7 787 . 7 784 .7781 . 7719 . 7716 . 7714 . 771 1 . 7709 . 77 07 . 7 7 05 . 77 08 . 77 0 0 . 7698 . 7696 . 7694 . 769c: . 769 0 . 7688 . 7687
. H 7 0 0 0. 98 0 0 ü. 9 "HO 0 . 9836 8 • 1 0 76 £ 4 017 . 9887 £ 1 066 £ 4 0 08 . 9819 £ 1 055 £ Ci C; fl .981 1 £ 1 046 £ 3974 . 1=1 98 04 £ 1 036 £ 3961 . 19 7 £ 1 087 £ 3948 . 9 1 9 0 £ 1 013 £ 3936 . 9183 CL1 01 0 £ 3984 . 9 1 7 7 £ 1 0 08 £ 3918 . 9 1 7 0 £ 0 994 £ 39 01 . 9164 £ 0 Q 8 6 £ 389 0 . 9158 £ 0979 £ 388 0 . 9153 £ 0971 8 387 0 . 9 1 4 7 £ 0965 £ 386 0 .9148 £ 0953 £ 3351 . 9 1 3 7 £ 0951 £ 3848 . 9138 £ 0945 £ 3 8 3 3 . 9 1 8 7 £ . 0939 £ 3884 . 9188 £ 0 93 3 £ 3816 . 9 1 1 S £ 0987 £ 38 08 . 9 1 1 3 £ 0 988 £ 38 0 0 . 91 09 £ 0 916 £ 3 7 9 3 . 91 05 iE 091 1 d. 3 7 8 5 . 9 01 £ 0 9 0 6 £ 3 778 . 9 0 9 7 £ 0 9 01 £ 3 7 7 1 Q |"| Q. £ 0896 £ 3764 . 9 0 3 9 £ 0891 £ 3758 . 9 085 £ 0887 £ 3751 . 9 088 £ 0888 £ 3 7 4 5 £ 3 739 . 9 0 78 £ . 9 0 75 £ 0873 £ 37-33 . 9 078 £ 0869 £ 3 7 8 7 . 9 068 £ 0865 £ 3781 . 9 065 £ 0861 c" 3 7 1 6 . 9 068 £ 0857 £ 371 0 . 9 059 £ 0 854 £ 3 7 05 . 9 056 £ 085 0 £ 370 0 . 9 053 £ 0846 £ 3695 . 9 051 £ 0843 £ 369 0 £ 3685 . 9 048 £ . 9 045 £ 0836 £ 368 0 . 9 043 £ 083 3 £ 3 67 6 . 9 04 0 8 0 83 0 £ 3671 . 9 0 38 8 0 886 £ 36-67 £ 36-62 . 9 035 £ . 9 033 £ 088 0 £ 3658 . 9 0 3 0 £ 0817 £ 3654 . 9 088 £ 0814 £ 365 0 . 9086 £ 0818 £ 3646 . 9 084 £ 0 8 0 9 £ 3642
430
Anhang — Tabellen
Tab. 4 Inverse Standard-Chi-Verteilung, Prozentpunkte Umrechnung in x~ 2 : Quadriere den Prozentpunkt! Umrechnung in x 2 : Bilde den Kehrwert des Prozentpunktes und quadriere! Umrechnung in log x" 1 : Logarithmiere den Prozentpunkt! Umrechnung in die nicht-standardisierte Form x~' ("> Multipliziere den Prozentpunkt mit dem Skalierungafaktor %/ÄT! Tabelliert sind Werte für v = 1 (1)100 und für die Wahrscheinlichkeiten .01 (.01).99.
X '-Verteilung, Prozentpunkte 0 1 U £ ij 3 0 4 0 5 o 6 0 7 o S 0 9 0 10 o 11 o 12 o 13 o 14 0 15 0 16 0 17 0 IS 0 19 0 2 Ü Ij £1 0 22 0 £3 0 £4 0 £5 0 £6 0 £7 Ij £8 Ij £9 0 3 0 0 31 Ij 3£ Ij 33 Ij 34 Ij 35 Ij 36 o 37 0 38 Ij 39 Ij 4 0 Ij 41 Ij 4£ Ij 43 0 44 Ij 45 Ij 46 Ij 47 0 43 Ij 49 Ij 50 Ij V
01 i j 0 3382 3 £9 5 £969 £744 £575 £439 2327 ££31 £148 £076 £ 01 1 1953 19 0 0 13 03 1 763 173 0 1695 166 £ 163£ 16 0 3 1575 1 55 0 15£5 15 0£ 143 0 1459 1439 14£ 0 14 OS 1334 1367 1351 1336 1321 13 06 1 £9£ 1 £79 1 £66 1 £53 1 £41 1££9 1 £ 18 1 £ 06 1 196 1 135 1 175 1 165 1 155 1 146
0. 0£ ij I'I ij ij 4£99 ij ij 3575 0 0 3188 ij ij ij ij £733 ij ij £5 79 0 0 £453 o ij £346 Ij 0 ££54 Ij 0 £174 0 Ij £1 03 0 0 £039 0 Ij 1981 Ij Ij 19£9 Ij M 1881 Ij Ij 18 3 7 0 Ij 1796 Ij Ij 1758 Ij Ij 17£3 o Ij 169 0 0 LI 1659 IJ Ij 163 0 Ij |j 16 02 Ij ij 1576 Ij ij 1551 0 ij 15 £3 o ij 15 05 0 0 1484 Ij ij 1463 Ij ij 1 444 Ij IJ 14£5 Ij 0 14 07 Ij Ij 139 0 Ij Ij 1374 Ij 0 1358 Ij Ij 1 34 £ o Ij 1 3£8 Ij Ij 1313 Ij Ij 13 0 0 Ij 0 1 £86 Ij Ij 1 £ 7 3 Ij Ij 1£61 Ij Ij 1£49 Ij Ij 1£37 Ij Ij 1££6 Ij Ij 1 £ 15 0 M 1 £ 04 n Ij 11 94 Ij 0 1 183 Ij Ij 1 1 74 Ij
ij ij 0 46 08 3 776 3 343 3 055 £843 £676 £539 £4£5 2326 ££4 0 £165 £ 097 £036 1981 193 0 1883 184 0 18 01 1763 17£9 1696 1666 16 37 16 09 1584 1559 1536 1513 149£ 147£ 145£ 1434 1416 1399 1 38£ 1366 135 3 1336 13 08 1 £95 1 £8£ 1 £69 1 £57 1 £46 1 £34 1 ££3 1£12 1 £ 0£ 1 19£
ij 04 0 0 ij 4869 0 3941 0 3469 0 3158 Ij £93 0 0. £753 0. £6 08 0. £487 0. £383 0. £ £ 9 3 0. ££ 13 0. S142 Ij. £ 0 7 9 0. 2 021 0. 1968 0. 192 0 0. 1875 0. 1834 0. 1 795 0. 1759 u. 1 7£5 0. 1694 0. 1664 0. 1635 0. 16 09 0. 1583 0. 1559 Ij. 1 536 0. 1514 0. 1493 0. 14 73 Ij. 1454 0. 1436 0. 1418 0. 14 0 1 0. 1385 0. 1369 0. 1354 0. 1339 0. 1325 0. 131 1 0. 1 £98 Ij 1 £85 Ij. 1 £ 7 3 0. 1261 o 1 £49 Ij 1 £38 0 1 £27 Ij 1 £ 16 Ij 12 06
0. 0 o Ij Ij Ij Ij Ij 0 Ij 0 IJ Ij Ij 0 Ij Ij o Ij Ij Ij Ij Ij Ij 0 Ij Ij 0 o Ij Ij IJ o Ij 0 Ij Ij Ij 0 Ij o IJ Ij Ij 0 Ij Ij o Ij Ij Ij
050 0 5102 4 085 3577 3247 3 ij 0 5 £818 £666 £539 £43 1 £337 £254 £ 181 £115 £055 £000 195 0 19 04 1861 1821 1784 1 75 Li 1717 1686 1657 163 0 16 04 1579 1555 1533 1511 1491 1471 1452 1434 1417 14 0 0 1334 1369 1 354 1 339 1325 1312 1299 1286 1274 1262 125 0 1239 1 ££8 1217
ij 0 0 ij ij ij ij o Ij Ij Ij IJ Ij Ij Ij Ij Ij Ij Ij Ij Ij IJ 0 0 Ij Ij 0 0 Ij Ij 0 IJ
Ij 0 0 0 Ij Ij o Ij Ij IJ Ij Ij 0 Ij 0 Ij Ij Ij Ij
06 00 5317 4216 3674 3325 3 072 2876 £718 £586 £473 £3 76 ¿ir'9 0 ££14 £146 £084 £ 0£8 1977 19£9 1885 1844 18 06 1771 1737 17 06 1676 1 648 1621 1596 157£ 1549 15£7 1 5 06 1486 1467 1448 1431 1414 1 397 1381 1 366 1351 1 337 1 323 1310 1 £97 1284 1£7£ 1£61 1 £49 1 £38
0 0 0 0 U Ci 0 0 0 0 0 IJ 0 0 Ü 0 0 0 0 0 0 u III 0 0 0 III 0 0 0 0 IJ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
070 0 0 5519 0 4336 0 3763 0 3397 0 3 13£ 0 £9£9 0 £764 0 2628 0 £51 £ 0 £41 1 0 £ 323 0 ££45 0 £174 0 £111 0 £053 0 e 0 U IJ 0 1 95 £ 0 1907 0 1 365 0 1 8£6 0 1 79 0 IJ 1755 0 1723 0 1693 0 1 664 0 1637 0 161 1 0 1587 0 1563 0 1541 0 1 5£ 0 0 1499 0 148 0 0 1461 IJ 1443 0 14£5 0 1409 IJ 1393 0 1377 0 136 £ 0 1348 IJ 1334 0 1 3£ 0 0 1307 0 1 £94 0 1282 0 1 £7 0 IJ 1 £58 0 1 £47 0 1 £36 0
08 0 0 57 1£ 4449 3847 3463 3188 £977 £8 07 £666 £546 £443 £353 ££7£ 22 0 0 £135 £076 £0££ 197£ 19£6 1884 1844 18 07 1 77£ 1739 17 08 1679 1651 1625 16 0 0 1576 1554 iS5£ 1511 1491 147£ 1454 1436 1419 14 03 1387 1372 1357 1 343 1 329 1316 13 03 1291 1 £78 1267 1255 1244
0 0 0 0 0 0 0 0 0 0 0 0 0 0 IJ 0 0 0 IJ 0 0 0 0 0 0 0 0 0 0 0 0 Ö 0 0 0 0 0 11 0 0 0 0 0 0 0 0 0 0 0 0 0
09 0 0 5898 4557 3925 3 5 £6' 3 £41 3 022 2847 27 02 2579 2473 ¿00 LI 2298 2££4 2158 £097 2 042 1 99 1 1 945 1901 1 36 1 1823 178 7 1754 1722 1693 1665 1 638 1 61 £ 1588 1565 1543 15£2 15 02 1 483 1464 1446 1 429 141 £ 1396 1381 1366 1 352 1338 1324 1 311 1 £98 1 £86 1274 1 263 1251
0 0 0 0 0 IJ 0 0 0 0 0 IJ 0 IJ 0 0 0 0 0 IJ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IJ 0 0 0 IJ IJ 0 0 0 0
1 000 6 08 0 466 0 4000 3585 329 0 3 065 £885 £736 £61 0 £5 01 24 06 2322 ££47 2179 2117 2 061 £0 09 1962 1917 1876 1 838 1 8 01 1 768 1736 17 05 1677 165 0 16£4 1 599 1576 1554 1532 1512 1492 1473 1455 1438 1421 14 05 1389 1374 1 36 0 1 346 1332 1319 13 06 1293 1281 127 0 1258
A n h a n g — Tabellen Forts. Tab. 4 V
1 2 3 4 5 6 7 8 •l
0.110 0 0.6257 0. 4 759 0. 4 07 1 0.3642 0.3338 0. 3106 0. 292 0 0. £768 0.£639 0. 2528 0. 243 0 0.2345 0.££68 0.£199 0.£136 0. £079 0. 2 026
10 11 12 13 14 15 16 1? 18 19 0. 1933 £0 0. 1891 £1 0.1852 ££ 0. 1815 £3 0. 1 78 0 £4 0. 1748 £5 0.1717 £6 0.1688 £ ? 0.1661 £8 0.1635 £9 0. 161 0 30 0. 1586 31 0. 1564 32 0.154£ 33 0.15£1 34 0.1501 35 0.1482 36 0.1464 37 0.1446 38 0.1429 39 0.1413 4 0 0. 1397 41 0.1382 4£ 0.1367 4 3 0.1353 44 0.1339 45 0.13£6 46 0. 1313 47 0. 130 0 48 0. 1288 49 0. 1276 5 0 0. 1265
431 x '-Verteilung, Prozentpunkte
0. 1 £ o o 0. 1 3 0 0 0. 14 0 0 0. 1500 0. 643£ 0. 66 05 0. 6776 0.6947 0. 4856 Ü. 495 0 0. 5 043 0.5134 0.414 0 Ü. 42 07 0. 4£73 0.4 337 0.3697 0.3 749 0.38 01 0.385 0 0.3383 0. 3427 0.3469 0.3510 0.3145 0.3182 0.3218 0.3254 0.£955 0.2988 0. 3 01 9 0. 3 05 0 0. 2798 0. 2828 0. £856 0.£883 0. £666 0.269 3 0. £718 0. £743 0.£553 0.2577 0. £60 0 0.2623 0.£454 0. 2476 0. £498 0.2518 0.£366 Ü.£387 0. 24 0 7 0.2426 0.££88 0. 23 07 0.2344 0.2218 0.2236 0. 2£5 3 0.227 0 0.2154 0.2171 0.2187 0.2203 0. £096 0.2112 0. 2127 0.2142 0.2 04£ 0. 2 057 0. £072 0.£ 086 0. 1993 0. 2 0 07 0. 2 021 0.£ 035 0. 1947 0.1961 0. 1974 0.1987 0. 1905 0.1918 0. 193 0 0.1943 0.1865 0.1877 0. 189 0 0.1901 0.1828 |J. 184 0 0. 1851 0.1863 0. 1793 0. 18 04 0.1816 0.1826 0. 1 76 0 0.1771 0. 1 782 0. 1792 0.1729 0.174 0 0. 175 0 0. 176 0 0.1699 0.1710 0. 1 7£ 0 0. 173 0 0. 1672 0.1682 0. 1691 0. 1701 0. 1645 0.1655 0. 1664 0. 1673 0. 162 0 0.1629 0. 1639 0.1647 0. 1596 0. 16 05 0. 1614 0.16££ 0. 1573 0.1582 0. 1591 0.1599 0.1551 0. 156 0 0. 1568 0.1576 0. 1530 0.1539 0. 1547 0. 1554 0.1510 0.1518 0. 1 5£6 0. 1534 0.1491 0.1499 0. 15 06 0.1514 0. 1472 0. 148 0 0. 148 7 0.1495 0.1454 0.146£ 0. 1469 0.1476 0. 1437 0.1445 0. 1 45£ 0. 1459 0. 1421 0. 1428 0. 1435 0. 1441 0. 14 05 0. 1412 0. 1419 0. 1425 0.1389 0.1396 0. 14 03 0.1409 0. 13 74 0.1381 0. 1388 0. 1394 0. 136 0 0. 1367 0. 1373 0. 1379 0.1346 0. 1359 0. 1365 0. 1332 0.1339 0. 1 345 0.1351 0. 1319 0.1326 0. 1332 0.1337 0.13 07 0. 1 313 0. 1 3 1 9 0.1324 0.1294 0. 1 3 0 0 0. 13 06 0.1312 0.1£82 0.1£88 0. 1294 0. 1299 0.1271 0.1276 0. 1282 0. 1287
0. 16 0 0 0. 17 0 0 0. 1 ö 0 0 0. 1 9 0 0 0.2000 0. 7117 0 7288 0.7458 0.7630 0. 7803 0. 5¿23 0 5312 0. 54 0 0 0.5487 0.5574 0. 4399 0 4461 0.4522 0.4582 0. 4642 0. 3899 0 3947 0.3994 0. 4 04 1 0. 4 086 0.3551 0 359 0 0.3629 0.3666 0. 3704 0. 3288 0 3322 0.3354 0.3387 0. 3418 0. 3 08 0 0 311 0 0. 3138 0.3166 0. 3194 0. 29 1 0 0 £936 0. £962 0. 2987 0. 3 011 0.2767 0 £791 0.2814 0.2836 0. £858 0. £645 0 2666 0.2687 0. 27 08 0.2728 0. £539 0 2558 0.257 7 0.2596 0. £614 0. £445 0 2463 0.2481 0.2498 0.2515 0. 2361 0 2378 0.2395 0.2411 0. 2426 0. 2286 0 £30£ 0.2317 0.£333 0. 2347 0.2218 0 ££33 0.£248 0. £262 0. 2276 0. 2157 0 2171 0. 2184 0.2197 0.2211 0. £ 1 0 0 0 2113 0.2126 0.2139 0.2151 0. £048 0 2 06 0 0.2 072 0. £ 084 0. 2 096. 0. 1999 0 2 01 1 0. 2 023 0.£ 034 0. £045 0. 1954 0 1966 0. 1977 0.1988 0. 1999 0. 1913 0 1 924 0. 1934 0.1945 0. 1955 0.1873 0 1884 0. 1894 0. 19 04 0. 1914 0. 18 3 7 0 1 84 7 0.1857 0.1866 0. 1876 0. 18 02 n 1812 0. 1821 0.1831 0.1839 0. 177 0 0 1779 0.1788 0.1797 0. 18 06 0. 1739 0 1748 0.1757 0.1765 0. 1773 0. 1710 0 1718 0.1727 0.1735 0. 1743 0. 1682 0 1 69 0 0.1699 0.17 07 0. 1714 0. 1656 0 1 664 0. 167£ 0.1679 0. 1 687 0. 1631 0 1638 0.1646 0.1654 0. 1661 0.16 07 0 1614 0.16££ 0.1629 0. 1636 0. 1584 0 1591 0.1598 0. 16 05 0.1612 0. 1562 0 1569 0.1576 0.1583 0. 159 0 0. 1541 0 1548 0.1555 0.1561 0. 1568 0. 1521 0 1528 0. 1534 0.1541 0. 1547 0. 15 02 0 1508 0.1515 0. 1521 0.15£7 0. 1483 0 1489 0.1496 0. 15 02 0.1508 0. 1465 0 1471 0.1478 0.1484 0.1489 0. 1448 0 1454 0. 146 0 0.1466 0.147£ 0. 1431 0 1437 0.1443 0.1449 0. 1455 0. 1415 0 1 421 0.1427 0.1433 0. 1438 0. 1400 0 1406 0.1411 0.1417 0. 14££ 0. 1385 0 1 39 0 0.1396 0.14 01 0. 1407 0. 137 0 0 1376 0.1381 0.1387 0.1392 0. 1356 0 1362 0.1367 0. 1372 0.1377 0. 1343 0 1 348 0. 1353 0.1358 0. 1363 0. 133 0 0 1 335 0. 134 0 0.1345 0. 135 0 0. 1317 0 1322 0. 1327 0.1332 0.1336 0. 13 04 0 1 3 0 9 0.1314 0.1319 0.13£4 0. 1292 0 1297 0. 13 02 0. 13 07 0.1311
432
Anhang — Tabellen
Forts. Tab. 4 f 1 2 3 4 5 6 7 8 10 11 12 13 14 15 16 17 18 19 £0 £1 22 S3 £4 c'5 £6 £7 28 £9 ?0 31 32 33 34 35 36 37 38 39 40 41 4£ 43 44 45 46 47 48 49 50
0. £ 1 0 0 0.7977 0. 566 0 0. 4701 0. 413£ 0. 3741 0.345 0 0.3221 0. 3 035 0.£88 0 0.£747 0.£63£ 0.£531 0.£44£ 0.2362 0. 2289 0. 2 £ £ 3 0.£163 0. £ 108 0. £ 056 0. £ 0 09 0.1965 0.19£3 0.1885 0. 1848 0.1814 0. 178£ 0. 1751 0. 1 7££ 0.1694 0.1668 0.1643 0.1619 0.1596 0.1574 0.1553 0.1533 0. 1514 0. 1495 0. 1477 0.146 0 0.1443 0.1427 0. 141 £ 0.1397 0. 138 £ 0. 1 368 0. 1354 0. 1341 0. 1328 0. 1316
x~'-Verteilung, Prozentpunkte 0. ££ 0 0 0. 8153 0.5747 0. 4759 0. 4176 0. 3777 0. 348 0 0.3248 0.3059 0. £9 01 0. £766 0. 265 0 0. £548 0. 2457 0. 2376 0 . 2 3 02 0. 2236 0.2175 0.2119 0.2067 0. £019 0. 1974 0.1933 0.1894 0.1857 0.18££ 0.179 0 0. 1759 0.17£9 0. 1701 0.1675 0. 165 0 0. 1626 0. 16 03 0. 158 0 0.1559 0. 1539 0. 152 0 0. 1501 0.1483 0. 1465 0.1448 0.1432 0.1417 0.1401 0.1387 0. 1373 0.1359 0.1345 0.1332 0. 13£ 0
0. £3 0 0 0.8331 0.5y33 0.4818 0.4££1 0.3813 0.3511 0.3274 0 . 3 082 0. 29££ 0. £786 0. 2667 0. 2564 0. 2472 0. 2390 0.£316 0.££48 0.2186 0.213 0 0 . 2 078 0 . £ 0£9 0.1984 0. 1 94£ 0. 19 02 0. 1865 0. 183 0 0.1797 0. 1766 0.1737 0. 17 09 0. 1682 0. 1656 0. 1632 0. 16 09 0. 1587 0.1565 0.1545 0.1525 0 . 1 5 06 0.1488 0. 1470 0.1454 0. 1437 0.1421 0. 14 06 0.1391 0.1377 0.1363 0. 135 0 0.1337 0.13£4
0. £40 0 0. 3511 0. 5919 0. 4876 0. 4265 0. 3849 0.3541 0. 3 301 0. 3105 0. £943 0.£804 0. £685 0.258 0 0.2487 0. 24 03 0. 2328 0.£26 0 0. 2198 0.2141 0. 2 088 0. 2 039 0. 199 3 0. 1951 0.1911 0. 1874 0.1838 0. 18 05 0. 1774 0. 1744 0.1715 0.1689 0.1663 0.1638 0.1615 0. 1593 0. 1571 0. 155 0 0. 1531 0. 1512 0. 1493 0. 1476 0. 1459 0. 144£ 0. 14£6 0. 141 1 0. 1396 0. 1 38 £ 0. 1368 0. 1354 0.1341 0. 1328
0. c'50 0 0.8693 0. 6006 0.4934 0.4309 0.3885 0. 3571 0.3386 0.3128 0.2963 0.2823 0.£70£ 0. £595 0.£501 0.2417 0.2341 0.2272 0.£209 0.2151 0. £098 0. £049 0.£003 0.196 0 0. 1919 0. 1882 0. 1846 0.1813 0. 1781 0.1751 0. 1722 0. 1695 0. 1669 0. 1645 0. 1621 0.1598 0.1577 0.1556 0.1536 0.1517 0.1498 0. 1481 0.1463 0. 1447 0.1431 0.1415 0.14 0 0 0.1386 0.1372 0.1358 0.1345 0.1332
0.¿60 0 0.270 0 0. 9 066 0. 6 09£ 0. 6180 0 . 4 9 9 2 0 . 5 049 0. 4353 0. 4397 0. 39£0 0. 3956 0. 36 01 0. 3631 0.3352 0.3378 0 . 3 1 5 1 0. 3173 0 . 2 9 8 4 0 . 3 004 0 . 2 8 4 1 0. 286 0 0 . £ 7 1 8 0. 2735 0.£611 0.2626 0.£516 0.253 0 0 . 2 4 30 0 . 2 4 4 4 0.2354 0.2366 0 . £ £ 8 4 0. 2296 0.£££ 0 0.2231 0 . 2 1 6 2 0. 2172 0.2108 0.2118 0. 2 058 0. 2 068 0. £ 01 £ 0. 2 021 0. 1968 0 . 1 9 7 7 0. 1928 0. 1936 0. 1890 0 . 1 8 9 8 0. 1854 0 . 1 8 6 2 0. 182 0 0 . 1 8 2 7 0. 1788 0. 1795 0 . 1 7 5 8 0. 1 765 0.17£9 0.1736 0 . 1 7 02 0 . 1 7 0 8 0. 1676 0. 1682 0. 1651 0. 1657 0. 1627 0 . 1 6 3 3 0. 16 04 0 . 1 6 1 0 0 . 1 5 8 2 0. 1588 0 . 1 5 6 1 0. 1567 0. 1541 0 . 1 5 4 7 0.1522 0.1527 0. 15 03 0. 1508 0. 1486 0. 1 490 0. 1468 0. 1473 0 . 1 4 5 2 0. 1456 0.1436 0.144 0 0.142 0 0.1424 0. 14 05 0 . 1 4 0 9 0. 139 0 0. 1395 0.1376 0.138 0 0 . 1 3 6 3 0. 1367 0. 1349 0. 1353 0. 1336 0 . 1 3 4 0
0.28 0 0 0. 9257 0.6267 0.5107 0. 444 0 0.3991 0.366 0 0 . 3 4 03 0.3196 0. 3 024 0.£878 0.£75£ 0.£641 0.£544 0.2457 0.2378 0.2307 0.2242 0.2183 0.2128 0 . 2 077 0. 2 03 0 0.1986 0. 1944 0. 1906 0. 1869 0.1835 0. 1802 0.1771 0. 1742 0. 1 714 0. 1688 0.1663 0.1639 0.1616 0. 1593 0.1572 0. 1552 0. 1532 0.1513 0. 1495 0.1478 0.1461 0.1445 0.1429 0. 1414 0.1399 0.1385 0.1371 0. 135 7 0.1344
0. 2900 0.9451 0. 6 3 5 5 0. 5165 0.4484 0. 4 026 0.3689 0.3429 0.3218 0. 3 044 0.2896 0.2768 0.2657 0.2558 0.2470 0.2391 0.2319 0.2253 0.2193 0.2138 0 . 2 086 0 . 2 039 0.1994 0.1952 0.1913 0. 1877 0.1842 0. 1809 0.1778 0.1749 0. 1721 0.1694 0.1669 0.1644 0.1621 0.1599 0.1577 0. 1557 0. 1537 0.1518 0. 1 500 0.1482 0.1465 0. 1449 0.1433 0. 1418 0. 1403 0.1389 0.1375 0.1361 0.1348
0. 3 0 0 0 0. 9648 0.6444 0. 5££4 0.45£8 0 . 4 061 0. 3719 0. 3454 0. 324 0 0. 3 063 0.2913 0.2784 0.2672 0. £57£ 0. 2483 0 . 2 4 03 0. 233 0 0.£264 0. £20 3 0.2147 0 . 2 095 0. 2 047 0. 2 0 02 0. 196 0 0.1921 0.1884 0. 1849 0. 1816 0.1785 0.1755 0. 1727 0.1700 0.1674 0. 165 0 0.1627 0. 16 04 0.1583 0.1562 0. 154£ 0.1523 0. 1505 0.1487 0. 147 0 0. 1453 0. 1437 0.1422 0.1407 0.1393 0.1379 0.1365 0.1352
Anhang — Tabellen
433
Forts. Tab. 4 0. 3 1 0 1.1 l'i 1 0. 985 0 1 0.6534 0 0. 5£8£ 0 4 0.4571 0 5 0. 4 096 Ij 6. 0. 3748 Ci 7 0.3479 0 8 0. 3£6£ 0 0. 3 083 0 1 0 0 . £ 9 3 1 Ci 11 0. £ 8 0 1 0 12 0. £686 0 13 0 . £ 5 8 6 0 14 0 . £ 4 9 6 0 15 0. £415 0 16 0. £341 0 17 0 . £ £ 7 5 0 18 0. e e 1 3 0 19 0. £ 15 7 0 ¿'LÌ 0 . £ 1 0 5 Ci £1 0. £ 056 0 £ £ IJ . £ 0 1 1 0 £3 0. 1968 0 £4 0. 1929 0 £5 0 . 1 8 9 1 0 £6 0 . 1 8 5 6 0 £7 0. 1823 0 £8 0. 1791 Ci £9 0. 176£ 0 3 0 fi. 1733 0 31 0. 17 06 0 3 c.' 0. 168 0 0 33 0 . 1 6 5 6 0 34 0. 1632 0 35 0. 1609 0 36 0. 1588 0 37 0 . 1 5 6 7 0 38 0 . 1 5 4 7 0 •39 n. 1 528 0 4D 0.1509 0 41 0 . 1 4 9 2 0 4£ n . 1 4 7 4 Ci 43 0. 1458 CI 44 0. 1 442 0 45 0 . 1 4 2 6 0 46 0 . 1 4 1 1 0 47 0. 139 7 0 48 0 . 1 3 8 3 0 49 0 . 1 3 6 9 0 5 0 0. 1356 0 V
£
X"'-Verteilung, Prozentpunkte 32 0 0 0056 66.24 5341 4615 4131 3777 35 04 3284 31 03 £949 £8 1 7 £701 2599 25 08 2427 2353 2285 £££3 £166 2114 £065 2019 1976 1936 1899 1863 183 0 1798 1 768 1739 1712 1686 1661 1637 1615 1593 1572 1552 1533 1514 1496 1479 1 462 1446 143 0 1415 14 01 1386 13 7 3
0. 3 3 0 0 1.0266 0.6716 0.54 0 0 0. 4659 0.4166 0. 38 06 0.3529 0. 3 3 06 0.3122 0.£967 0.£833 0.2716 0.2613 0.2521 0.2439 0.2364 0. 2296 0.2233 0.2176 0.£123 0. £073 0. 2 027 0.1984 0.1944 0. 19 06 0.187 0 0. 1836 0. 18 04 0.1774 0.1745 0.1718 0.1692 0.1667 0.1643 0. 162 0 0.1598 0.1577 0.1557 0.1537 0.1519 0. 1 5 01 0.1483 0.1466 0. 145 0 Ci. 1434 0.1419 0. 14 04 0. 139 0 0. 1376 0.1363
0. 34 0 0 1.048 0 IJ. 68 08 0. 5459 0. 47 03 0. 42 01 Ci. 3836 0. 3554 0. 33£8 0. 3142 0. 2984 0. 2849 Ci. £731 Ci. 2627 0.2534 0. £45 0 0. £3 75 0. £ 3 06 0. ££43 0. £185 0. £13£ Ci. 2 08£ 0. £ 035 0. 199£ 0. 1951 0. 1913 0. 1877 0. 1843 Ci. 181 1 0. 178 0 0. 1751 0. 1 7£4 0. 1697 0. 1672 0. 1648 0. 1625 0. 16 03 0. 1582 0. 1562 Ci. 1542 0. 1523 0. 15 05 0. 1487 0. 1471 0. 1454 0. 1438 0. 1423 0. 14 08 Ü. 1394 0. 138 Ci 0. 1 36 7
0. 350 IJ 0 . 3 6 0 0 1. 07 Ci CI 1. Ci 9 £5 0 . 6 9 01 0 . 6 9 9 6 0. 5519 0. 5579 0 . 4 7 4 7 0. 4791 0 . 4 2 3 6 IJ. 42-71 0.3865 0.3894 0 . 3 5 7 9 0 . 3 6 04 0. 3 35 Ci 0 . 3 3 7 2 0. 3161 0 . 3 1 8 1 0 . 3 0 02 0. 3 019 0.£865 0.£881 0.£746 0.£76 0 0.£64 0 0.£654 0.2547 0.2559 0 . 2 4 6 2 0. 2474 0 . 2 3 8 6 0. 2397 0. 2317 0. 2327 0 . 2 2 5 3 0. 2263 0. 22 04 0 . 2 1 4 0 0. 2149 0. 2 09 Ci 0 . £ 099 0. 2 043 0. 2 0 5 2 0 . 2 0 0 0 0. 2 0 08 0 . 1 9 5 9 Ci. 1966 0. 19£ 0 0. 1927 0 . 1 8 8 4 0. 1891 0. 185 0 Ci. 1856 0.1817 0.1824 0 . 1 7 8 7 Ci. 1 793 0. 1757 Ci. 1763 0. 173 0 0. 1735 0 . 1 7 0 3 0. 17 09 0 . 1 6 7 8 0. 1683 0 . 1 6 5 3 IJ. 1659 Ci. 163 0 Ci. 1635 0 . 1 6 08 0 . 1 6 1 3 0 . 1 5 8 7 0. 1592 0 . 1 5 6 6 0. 1571 0 . 1 5 4 7 0. 1551 0 . 1 5 £ 8 0. 1532 0 . 1 5 0 9 0. 1514 0 . 1 4 9 2 Ci. 1496 0 . 1 4 7 5 0. 14 79 0 . 1 4 5 8 0. 1462 0 . 1 4 4 £ 0. 144 7 0. 14£7 0. 1431 0. 1 41 £ 0 . 1 4 1 6 0 . 1 3 9 8 0. 14 02 0 . 1 3 8 4 0. 1388 0. 137 0 Ci. 1374
0. 37 0 Ci 1.1155 0. 7 091 0. 564 0 0.4836 0.4307 0.3924 0.3629 Ci. 3394 Ci. 32 0 0 0. 3 037 Ci. 2897 0. 2775 0. 26.67 0.2572 0.£486 0.2408 0.£337 0.££73 0.2213 Ci. 2158 Ci. 21 07 0. 2 06 0 0.2015 0. 1974 0. 1935 0.1898 0. 1863 l'J. 183 0 0. 1799 0.1769 0. 1741 0.1714 0.1689 0.1664 0.1641 0.1618 0.1597 0.1576 0.1556 0.1537 0.1518 0.15 0 0 0. 1483 0. 1467 0. 145 0 0. 1435 0. 142 0 0. 14 05 0.1391 0.1377
0 . 3 3 00 1 1 39 1 0 7189 0 57 01 0 4881 Ci 434£ CI 3953 0 3655 IJ 3416 0 322 0 0 3 055 0 2913 IJ 279 0 0 268 1 0 £584 0 £498 0 £419 £348 ££83 2223 0 2167 0 21 16 2068 0 2 023 0 1981 0 1942 0 19 05 0 187 0 0 1836 0 18 Ci 5 0 1775 0 1747 172 0 1694 0 1669 l'I 1646 0 1623 0 16 01 158 0 156 0 0 1541 0 1523 0 15 05 0 1487 1471 1454 0 1439 0 1424 0 14 09 0 1395 0 1381
0. 390 0 1.1633 0.7287 0.5763 0.4927 Ci. 4378 0.398 3 0. 368 0 0.3438 0. 3 24 0 0 . 3 072 0.2929 0. 2804 0.2695 0.£597 0.2509 0.24 3 0 IJ • £358 Ci. 2292 0. 2232 0.2176 0.2124 0. £ 076. 0.2031 0.1988 0.1949 Ci. 1911 0. 1876 0.1843 0.1811 0.1781 0.1753 0.1725 0.1699 0.1674 0.1651 Ci. 1628 0 . 1 6 06 0.1585 0. 1565 0.1546 0.15£7 0. 15 09 0.1491 0.1475 0.1458 0.1443 0.1428 0.1413 0.1398 0.1385
Ci. 4 0 0 0 1 1882 0 7387 IJ 5826 0 497£ 0 4414 0 4 01 3 0 37 05 0 3461 IJ 3259 IJ 3 09 0 0 £945 0 £819 0 £7 08 0 £610 0 2521 IJ 2441 0 £369 0 £302 0 2241 0 2185 Ci £132 0 £ 084 IJ £ 038 0 1 996 0 1956 0 1918 IJ 1 883 0 1849 0 1817 0 1787 IJ 1758 0 1731 0 17 05 IJ 168 0 0 1656 0 1633 0 161 1 0 159 0 0 157 0 0 155 0 0 1531 0 1513 0 1 496 0 1479 0 146 £ 0 1447 0 1431 0 1416 0 14 0£ 0 1 388
434
Anhang — Tabellen x"'-Verteilung, Prozentpunkte
Forts. Tab. 4 V
0 . 4 1 0 0
0. 4 £ 0
0
0 . 4 3
00
0. 4 4 0 0
1
1 . 2 1 3 7
1 . £ 4 0 0
1 . £ 6 7 1
1 . £ 9 5
£
0 . 7 4 8 9
0.
7 5 9 £
0 . 7 6 9 7
0. 78
3
0.
0.
5 9 5 4
0. 6 0 18
0.
4
0 . 5 0 1
0 . 5 1 1 2
0 . 5 1 6
5 8 8 9
5
0.
6
0 . 4
7
0.
8
0. 5
065
0 04
6 0 8 4 0
0 . 4 5 0 0
0 . 4 6
00
0. 4 7 0
0
0 . 4 8 0 0
0. 4 9 0 0
1 . 3 2 3 8
1 . 3 5 3 5
1 . 3 8 4 1
1 . 4 1 5 8
1
0.
0 . 8
0.
8 1 3 8
0.
0 . 8 3 7 2
0.
0. 6 5
7 9 1 3
024
8 2 5 4
. 4 4 0 6
0 . 6 1 5 1
0 . 6 2 1 9
IJ.
6 2 8 8
0 . 6 3 5 8
0.
0. 5 2
0 . 5 2 5 7
0.
5 3 0 6
0 . 5 3 5 6
0. 5 4
0.
4 6 7 6
08
6 4 2 9 07
0. 5 0 0 0 1 . 4 8 2 6 8 4 9 3 01
0.
5 4 5 8
4 4 5 1
0 . 4 4 8 7
0 . 4 5 £ 4
0.
4 5 6 1
0.
4 5 9 9
0.
0 . 4 7 1 5
0 . 4 7 5 4
0.
4 7 9 4
043
0 . 4 0 7 3
0 . 4 1 0 3
0.
4 1 3 4
0.
4 1 6 5
0 . 4 1 9 6
0 . 4 2 2 8
0.
IJ.
0.
4 3 2 4
0.
0 . 3 7 8 3
0. 38
0 . 3 8 3 5
0 . 3 8 6 1
0 . 3 8 8 8
0 . 3 9 1 5
0 . 3 9 4 2
0. 3 9 7
0
3 6 4 3
0.
0 . 3 6 9
0
3 7 3 1
3 7 5 7
09
4 6 3 7
8
0 . 3 4 3 3
IJ. 3 5
0 . 3 5 £ 8
0. 3 5 5 0
IJ.
U . 3 5 9 6
0 . 3 6 1 9
0.
9
0 . 3 2 7 9
0 . 3 £ 9 9
0.
3 3 1 9
0.
3 3 3 9
0 . 3 3 5 9
0. 31
0.
3 1 4 3
0.
3 1 6 1
05
3 5 7 3
4 2 5 9
4 2 9 2
3 6 6 6
0 . 3 3 7 9
0. 3 4 0 0
0.
3 4 2 0
0 . 3 4 4 1
0.
0 . 3 1 7 9
0.
0.
0.
3 2 3 4
0 . 3 2 5 3
0 . 3 2 7 2
0.
£ 9 7 7
|J. ¿ . ' 9 9 3
0 . 3 01 0
0.
3 0 2 6
0. 3
0 . 3
0 . 3 1 1 0
0 . £ 8 3 4
0.
£ 8 4 9
0.
£ 8 6 3
0.
£ 8 7 8
IJ.
£ 8 9 3
0 . £ 7 £ £
0 . £ 7 3 5
0.
£ 7 4 9
0.
£ 7 6 3
0 . 2 7 7 7
0. £ 7 9
14
0.
£ 6 £ £
0 . £ 6 3 5
|J.
£ 6 4 7
0 . 2 6 7 3
0.
15
0.
£ 5 3 3
0 . £ 5 4 5
0 . £ 5 5 7
0.
2 5 6 0
0 . 2 5 8
0 . 2 5 9 2
0. £ 6
16
0 . £ 4 5 £
0 . £ 4 6 3
0 . £ 4 7 4
n.
2 4 8 6
0 . 2 4 9 7
0.
0.
£ 5 1 9
0 . 2 5 3
17
0 . £ 3 7 9
0 . £ 3 8 9
0 . £ 4 0 0
l). 2 4 1
0
0.
2 4 2 1
0 . 2 4 3 1
0.
£ 4 4 £
I S
0 . 2 3 1 2
0 . 2 3 2 2
0 . 2 3 3 2
0.
2 3 4 2
0.
£ 3 5 1
0.
£ 3 6 1
0.
£ 3 7 1
19
0. £ £ 5
0 . £ £ 6
0.
0.
£ £ 7 8
0 . £ £ 8 8
0.
£ £ 9 7
0 . £ 3 0 7
0 . 2 3 1 6
¿ 0
0. £
0 . £ £ 0 £
0. £ £ 1 1
0 . £ £ £ 9
0.
£ £ 3 8
0 . £ £ 4
0.
0 . 2 2 6 5
0 . 2 2 7 4
£1
0. £ 14 1
0 . £
0.
0. £ 1 7 5
0 . 2 1 8 3
0 . 2 1 9 2
0 . 2 2 0 0
0 . 2 2
££
0 . 2 2 1 7
0. £
09£
0. £ 1 0 0
0. £1
0.
0 . 2 1 3 2
0 . 2 1 4 0
0 . 2 1 4 8
0 . 2 1 5 7
0 . 2 1 6 5
£ 3
0. £
046
0.
0.
0 . 2 0 7 7
0 . 2
085
0. 2
092
0 . 2 1 0 0
0 . 2 1
0 . 2 1 1 6
£4
0.
£ 0 0 3
0. £ 01 0
0. £
0. 2
0 . 2 04 0
0. 2
048
0. 2
0. 2
£ 5
0.
1 9 6 3
0 . 1 9 7
0 . 1 9 7 7
0 . 1 9 8 4
0 . 1 9 9 1
0 . 1 9 9 8
IJ. 2
005
0 . 2 0 1 3
0. 2 02 0
0 . 2 0 2 7
£6
0.
1 9 2 5
0 . 1 9 3 £
0 . 1 9 3 9
0 . 1 9 4 5
0 . 1 9 5 2
0 . 1 9 5 9
0.
1966
0 . 1 9 7 3
0 . 1 9 8
0
0.
0.
0 . 1 9 1 5
0.
0.
1 9 2 9
0.
1 9 3 5
0.
1 9 4 2
0.
1 9 4 9
1 8 9 3
0.
1 9 0 0
0.
1 9 0 6
0.
1 9 1 3
1 0
0. 31
11
0 . £ 9 6 1
08
l c 13
0
194
£ 6
0
149
£ 0 5 4 0
£ 1 5 0 08
£ 0 6 1 018
0
0. £ £ £ 0.
0. £ 0.
0
£ 1 6 6
0. 21
16 069
£ 0 2 5
0
? 1 £ 4 0 3 3
043
0 . £ 9
08 0
£ 6 8 6
£ 5 0 8
3 2 1 6
0 . 3 0.
059 £ 9 2 3
0. £ 8 0.
04
£6.99 04
£7
0 . 1 3 8 9
0.
£ 8
0 . 1 8 5 5
0.
1 8 6 £
0 . 1 8 6 8
0 . 1 8 7 4
0 . 1 8 8 1
0 . 1 8 8 7
0.
£ 9
0 . 1 8 £ 3
0.
1 8 £ 9
0 . 1 8 3 5
0.
0 . 1 8 4 8
0 . 1 0 5 4
Ii. 1 8 6
3 0
0 . 1 7 9 3
0.
1 7 9 9
0.
0 . 1 8 1 1
0 . 1 8 1 6
0.
0.
31
0 . 1 7 6 4
0.
177 0
0 . 1 7 7 5
0.
0.
0 . 1 7 9 2
3 2
0.
0 . 1 7 4 2
0 . 1 7 4 7
0 . 1 7 5 3
0 . 1 7 6 4
1 7 3 6 1 7 1 0
1S96
£ £ 6 9
0 . £ 6 6
3 1 9 8
33
H.
34
0 . 1 6 8 5
0 . 1 6 9
35
0 . 1 6 6 1
36
0 . 1 6 3 8
37 38
0.
19
18
0£
05
19
09
1 8 4 2 1781
0.
2 8 4 7
0.
£ 7 1 2
0 . 2 7 2 5
0.
2 7 3 8
0.
2 6 1 6
0.
0 . 2 6 4 1
0
2 6 2 9
0
0 . 2 5 4 2
0.
2 5 5 3
0 . 2 4 5 3
0 . 2 4 6 3
0.
2 4 7 4
0.
0 . £ 3 9 1
0. 2 4
0.
0 . 2 3 3 5
2 3 8 1
2 2 5 6
055
2 3 2 6
09
08 06.2
02
0. 2 07 0 1 9 8 7
1 8 7 9
0 . 1 8 3 4
IJ. 1 8 4
0.
1 8 4 6
0.
1 7 9 8
0.
0.
177 0
0 . 1 7 3 7
0.
1 7 4 2
0 . 1 7 1 1
0 . 1 7 1 6
0 . 1 6 8 1
0 . 1 6 8 6
0.
1691
0 . 1 6 6 £
0.
1 7 8 7
0 . 1 7 5 3
0 . 1 7 2 6
0.
0.
17 01
0.
0.
1 6 6 6
0.
1671
0.
1 6 7 6
0.
1 6 4 3
0 . 1 6 4 8
0 . 1 6 5 3
0.
0 . 1 6 1 6
0.
1 6 £ 0
0.
0.
163 0
0 . 1 5 9 4
0.
1 5 9 9
0.
0.
16
1731 17
06
1 6 5 7
1 0 2 2
0 . 1 8 1 0
0 . 1 8 1 6
0 . 1 7 7 5
04
0.
1 7 8 1
0 . 1 7 8 6
0.
1 7 4 8
0.
1 7 5 3
0 . 1 7 5 9
0.
1721
0 . 1 7 2 7
0 . 1 7 3 2
0 . 1 6 9 6
0 . 1 7 0 1
0.
1 6 6 7
0.
1 6 7 2
0.
0 . 1 6 8 2
1 6 4 9
1 6 7 7
1 7 0 7
0 . 1 6 3 5
0. 164 0
1644
0.
0 . 1 6 5 4
0.
1 6 5 9
08
0 . 1 6 1 3
0 . 1 6 1 8
0.
16££
0 . 1 6 2 7
0.
0.
1 6 3 7
1 5 0 8
0 . 1 5 9 £
0.
0.
1 6 01
0.
0 . 1 6 1 0
0 . 1 6 1 5
39
0 . 1 5 7 4
0 . 1 5 7 9
0 . 1 5 5 4
0.
1 5 5 9
0 . 1 5 6 3
0.
1 5 6 8
0 . 1 5 7 £
0 . 1 5 7 7
0 . 1 5 8 1
0.
0. 1 5 9 0
0 . 1 5 9 4
41
0 . 1 5 3 6
0.
154 0
0 . 1 5 4 4
0.
1 5 4 8
0 . 1 5 5 3
0.
0 . 1 5 6 1
0 . 1 5 6 6
0. 1 5 7
0.
4 2
0 . 1 5 1 7
0 . 1 5 £ £
0.
0.
153 0
0 . 1 5 3 4
0 . 1 5 3 0
0.
1 5 4 3
0.
0.
43
ü. 1 5 0 0
0.
0.
0 . 1 5 1 2
0 . 1 5 1 6
0. 1 5 2 0
0.
1 5 £ 4
0 . 1 5 2 9
0 . 1 5 3 3
0.
44
0.
0.
0 . 1 4 9 5
0.
0. 15
03
0.
1 5 0 7
0 . 1 5 1 1
0 . 1 5 1 5
0.
0.
0 . 1 4 8 £
0.
1 4 8 6
0.
149 0
0 . 1 4 9 4
0.
0.
0.
1 4 6 6
0.
147 0
0.
1 4 7 4
0 . 1 4 7 7
0 . 1 4 8 1
0.
1 4 8 5
145 0
1 4 6 9
15
04
1 4 8 7
15
08
0 . 1 4 9 1
1 5 5 1
1 4 9 8
1 5 7 5
0 . 1 5 5 5 1 5 3 7 1 5 1 9 15
02
0.
147 0
0 . 1 4 5
0.
1 4 5 4
0 . 1 4 5 8
0 . 1 4 6 £
4 7
0 . 1 4 3 5
0.
1 4 3 9
0 . 1 4 4 3
0 . 1 4 4 6
0.
0 . 1 4 5 4
0.
1 4 5 8
0 . 1 4 6 1
0 . 1 4 6 5
0.
4 8
0 . 1 4 £
0 . 1 4 £ 4
0 . 1 4 2 8
0.
0 . 1 4 3 5
0 . 1 4 3 9
0.
144£
0.
1 4 4 6
0.
0.
4 9
0.
0 . 1 4
0 . 1 4 1
0 . 1 4 1 7
0.
0.
0.
1 4 2 7
0.
1431
0 . 1 4 3 5
0.
1 4 3 8
0.
1 4 1 3
0 . 1 4 1 7
Ü. 1 4 2 0
0.
1 4 2 4
5 0
06
0 . 1 3 9 2
0.
09
1 3 9 5
3
0 . 1 3 9 9
0.
78
1 5 4 7
0
0 . 1 4 6 6
14
14
1 5 8 5
46
0
1 4 7 4
06
45
0
0.
1 4 9 9
1 5 5 7
16
1 6 3 2
4 0
1 4 8 3
1 5 9 7
0.
18
0
0 . 1 5 8 3
1 5 2 6
0.
0. 2 9 7
0 . 2 8 3 2
1 8 2 8
1 6 9 5
04
0 . 2 9 5 4
0 . 2 8 1 8
0.
17?1
1 6 8 5
3 4 6 2
0 . 1 8 7 2
0.
16
2 9 3 9
093
0 . 1 8 6 6
0.
1 7 1 5
0.
076
0
0
0.
1 9 £ £
7
0. 3
1431 14
02
0.
142 0 14
06
0.
1 4 2 4 14
09
1 4 5 0
1 4 5 3
Anhang — Tabellen
435
Forts. Tab. 4 f
0.510 0 1 1.5178 2 0. 861 7 3 Ü.6575 4 IJ. 551 0 5 0. 4:334 6 0. 4357 7 0. 3998 8 0. 3714 Q 0. 3483 1 U 0.3291 11 0 . 3 1 £ 7 1£ 0 . £ 9 8 5 1 0.£861 14 0 . £ 7 5 1 15 0 . £ 6 5 3 16 0 . £ 5 6 5 17 0 . £ 4 8 5 18 0 . 2 4 1 2 19 0 . £ 3 4 5 £0 0 . £ £ 8 3 £1 0 . £ £ £ 6 ££ 0 .£17 3 0. £1£4 £4 0. £ 078 £5 0. £034 £6 0 . 1 9 9 4 £7 0. 1955 £8 0 . 1 9 1 9 ¿Q 0. 1885 3 0 0. 185£ 31 0 . 18£1 3£ 0. 1 79 £ 33 0. 1764 34 0. 1 737 35 0. 1 71 £ 36 0 . 1 6 8 7 37 0. 1664 38 0. 1641 3'? 0. 16£ 0 4 0 0. 1 599 41 0. 1579 4£ 0. 156 0 43 0. 1541 44 0 . 1 5 £ 3 45 0. 15 06 46 0 . 1 4 8 9 47 0 . 1 4 7 3 48 0. 1457 49 0 . 1 4 4 2 5 0 0.14£7
X '-Verteilung, Prozentpunkte 0. 5£0 0 1.5544 0. 8744 0. 665 0 0. 5564 0.4875 0. 4391 0 . 4 0£6 0.3738 0. 35 05 |J. 33! IJ 0.3144 0. 30 01 0.£876 0.£765 0. £6 6'6' 0.£577 0.£496 0.2422 0.£355 0.££9£ 0.££35 0.£ 18£ 0. £ 13£ 0 . £ 085 0.£ 04£ 0. £ 0 01 0. 196£ 0.19£6 0.1891 0. 1858 0. 18£7 0. 1 798 0. 177 0 0. 1743 0. 1717 0. 169£ 0. 1669 0. 1646 0. 1624 n . 1 6 03 0.1583 0. 1564 n. 1545 0. 15£7 0.1510 0.1493 0.1477 0. 1461 0.1446 0.1431
0. 53 0 0 1.59£3 0.8874 0.67£7 IJ . 5 6 1 8 0.4917 0.4424 0. 4 054 0. 3763 0.3526 II.:_-::.-:t'H 0.3162 0. 3 01 7 0.289 0 0.£778 0.£678 0.£588 0 . £ 5 07 0.£433 0.£364 0 . 2 3 0£ 0.2244 0.21 9 0 0. £ 14 0 0 . £ 093 Ü. £049 0 . £ 0 08 0.1969 0. 1932 0. 1897 0. 1 865 0 . 1 8 03 0. 1775 0. 1748 0. 17££ 0.1697 0. 1674 0.1651 0. 16. £9 0. 16 08 0.1588 0. 1568 0. 155 0 0.1531 0.1514 0.1497 0.1481 0. 1465 0. 1449 0.1435
0 54 00 1 6318 0 9 008 0 6805 0 5673 0 4959 0 4459 0 4 083 0 3 788 III 3548 IJ 3349 IJ 3 1 79 0 303 3 0 £9 05 IJ £ 79£ IJ £691 0 £6 0 0 0 £518 0 £443 0 £374 0 £31 1 0 ££53 0 £198 0 £148 0 £101 0 £ 05 7 IJ £ 01 5 0 1976 M 1939 0 19 04 0 1871 0 1839 fl 18 09 0 1 781 0 1753 0 1 7£7 0 17 03 0 1679 0 1656 fj 1634 0 161 3 0 1 59£ 0 1573 M 1554 0 1536 0 1518 0 1501 0 1485 0 1469 0 1453 0 1438
0 . 5 5 0 0 0. 56 00 0. 5700 1 . 6 7 £ 9 1.7157 1.7604 0 . 9 1 4 5 0. 9£86 0. 9431 0 . 6 8 8 5 0. 6967 0. 7 051 0. 5 7£9 0. 5786 0. 5844 0. 5 0 0 3 0. 5 046 0. 5 091 0 . 4 4 9 4 0. 4 5 £9 0. 4565 0 . 4 1 1 3 0. 414£ 0. 4173 0 . 3 8 1 3 0. 3839 IJ. 3865 0. 3571 0. 3593 0. 3616 U . 3 3 t. 9 IJ. 33K9 0. >;4U9 0. 3197 0 . 3 2 1 5 0. 3234 0. 3049 0. 3 066 0. 3 082 0. £9£0 0 . £ 9 3 5 0. £95 0 0. £8 06. 0 . 2 8 2 0 0. £834 0. £704 0.2717 0. £73 0 0.£61 £ 0.2624 0 . £ 6 3 7 IJ. £529 0.2541 0. 2552 0. £454 0. £464 0. £475 0. £384 0.£394 0. £405 0. 2321 0. £33 0 0.£34 0 0.££71 0 . £ £ 8 0 0.££16 0. 2225 0 . 2 1 5 6 0. £164 0. 2173 0. 2109 0. £ 1 1 7 0. 2125 0. £064 0. £07£ 0. 2 079 0 . £ 0££ 0.£ 0£9 0. 2 037 0 . 1 9 8 3 Ü. 199 0 0.1997 0 . 1 9 4 6 0. 1 95£ 0. 1959 0.1910 0.1917 0. 1923 0. 1S 7 7 0. 1883 0.189 0 0 . 1 8 4 5 0.1851 0. 1857 0 . 1 8 1 5 0. 1821 0. 1827 0.1786 0. 1792 0. 1 798 0. 1759 0.1764 0. 1 77 IJ 0. 17 3 3 0 . 1 7 3 8 0. 1 743 0. 17 08 0. 1713 0 . 1 7 1 8 0.1684 0. 1689 0. 1694 0. 1661 0. 1666 0. 1671 0.1639 0 . 1 6 4 3 0 . 1 6 4 8 0. 1617 0.1622 0. 1627 0 . 1 5 9 7 0. 16 0 1 0. 1606 0. 1577 0. 1582 0. 1586 0 . 1 5 5 8 0.1562 0. 1567 0. 154 0 0.1544 0 . 1 5 4 8 0 . 1 5 2 2 0.1526 0. 153 0 0 . 1 5 05 0. 15 09 0 . 1 5 1 3 0 . 1 4 8 8 0.1492 0. 1496 0. 147£ 0. 14 76 0. 148 0 0 . 1 4 5 7 0. 1461 0. 1465 0 . 1 4 4 £ 0.1446 0. 1449
0. 5ö 0 0 0. 59 0 0 0. 6 0 0 0 1 . 8 071 1 . 8 5 5 9 1 . 9 069 0. 9581 0 . 9 7 3 5 0 . 9 8 9 3 0. 7136 0 . 7 2 2 4 0. 7314 0. 59 04 0 . 5 9 6 5 0 . 6 027 0.5137 0 . 5 1 8 3 0. 523 0 0 . 4 6 02 0. 464 0 0 . 4 6 7 8 0. 42 03 0. 4235 0.4267 0. 3892 0 . 3 9 1 8 0.3946 0.3639 0 . 3 6 6 3 0 . 3 6 8 7 0.34 3 0 0.3451 0.3472 0 . 3 2 5 2 0 . 3 2 7 1 |J. 3 £9 0 IJ. 3099 0 . 3 1 1 6 0. 3134 0. £966. 0 . £ 9 8 £ 0 . 2 9 9 8 0 . £ 8 4 8 0 . £ 8 6 3 0. £877 0 . £ 7 4 3 0.£757 0. £770 0. £649 0 . £ 6 6 £ 0. £674 0.£564 0 . £ 5 7 5 0. £587 0.£486 ü.2497 0.£508 0 . £ 4 1 5 0. 2425 0. £436 0.£35 0 0.236 0 0.£37 0 0.£289 0 . 2 2 9 9 0 . £ 3 08 0 . £ £ 3 3 0 . 2 2 4 £ 0.2251 0.2181 0. £ 19 0 0 . 2 1 9 8 0. 2133 0. £ 14 1 0. 2149 0. 2 087 0.£ 095 0.E1 03 0 . 2 044 0 . 2 052 0 . 2 059 0. £0 04 0 . 2 01 1 0 . 2 0 1 8 0.1966 0 . 1 9 7 3 0. 198 0 0 . 1 9 3 0 0. 1937 0. 1943 0. 1896 0. 19 02 0. 1909 0. 1864 0. 187 0 0. 1876 0. 183 3 0 . 1 8 3 9 0 . 1 8 4 5 0. 1804 0 . 1 8 09 0 . 1 8 1 5 0.1776 0.1781 0.1787 0. 1749 0 . 1 7 5 4 0. 176 0 0 . 1 7 £ 3 0 . 1 7 2 9 0. 1734 0 . 1 6 9 9 0. 17 04 0. 1 709 0. 16 76 0.1681 0.1686 0. 16.53 0 . 1 6 5 8 0. 1663 0. 1631 IJ. 1636 0.1641 0.1611 0 . 1 6 1 5 0. 162 0 0.1591 0. 1595 0. 1600 0. 1571 0 . 1 5 7 6 0. 158 0 0. 1553 0 . 1 5 5 7 0. 1561 0 . 1 5 3 5 0 . 1 5 3 9 0. 1543 0.1517 0 . 1 5 2 1 0. 1526 0. 1 5 0 0 0. 15 04 0. 1509 0. 1484 0 . 1 4 8 8 0. 1492 0 . 1 4 6 8 0 . 1 4 7 2 0. 1476 0 . 1 4 5 3 0.1457 0. 1461
436
Anhang - Tabellen
Forts. Tab. 4 V 0 6 1 0 0 0. 6£ 0 0 0 6 3 f10 0 64 0 0 1 1 9605 £ 0167 £ 0759 £ 1381 £ 1 0 058 1 0££7 04 0I-: 1 0585 3 7407 0. 75 0£ 76 00 o 77 01 4 6 09 1 0 6156 6££3 Iii 6£9£ 5 5379 0 5431 5279 0. 53 £8 6 4717 0. 4756 4797 0 4839 7 4 £9 9 0 433£ 4366 0 44 01 3974 0. 4 0 0£ 4 031 ij 4 061 8 9 371 1 0. 3736. 3761 0 3 787 10 3494 0. 3516 3538 0 3561 11 331 0 0. 333 0 335 0 Ij 3 3 7 0 12 3158 0. :-: 17 M 3188 0 3£07 3047 0 3064 13 3 01 4 0 303 0 14 £9£3 0 £939 2392 0 £9 07 15 £784 0 £798 £813 0 £8£ 7 £714 0 £7£7 lt. £687 0 £700 £6 £4 0 £637 17 £6 0 0 0 £61 £ 18 £5£0 0 £531 £543 0 £555 19 £447 0 £ 458 £469 Ij £48 0 £4 01 Ij £41 1 £0 £38 0 0 £39 0 ¿•1 £318 0 £3 £8 £338 0 £348 ££ ££79 n ££89 ££61 0 ££ 7 0 £3 ££07 0 ££16 £££5 Ij ££34 £4 £157 0 £1 66 £175 Ij £183 £1 £7 0 £136 £5 £111 0 £ 1 19 £083 0 £091 £6 £ 06 7 0 £075 £041 0 £049 £7 £0£6 0 £ 0 3 ? ¿8 1987 0 1994 £ 0 fl£ Ij £0i"i9 1964 0 197£ ¿9 195 0 0 1957 3 0 0. 1916 0 1 9££ 0 . 1 9 £ 9 0. 1936 1896 0 19 OS 31 1 883 0 1889 32 1364 0 187 0 1851 0 1857 1834 IJ 1 84 0 33 1821 0 18£7 34 18 05 0 1811 1793 0 1799 1777 0 1783 35 1766 0 1771 1751 0 1757 36 1 74 0 0 1745 37 17£6 ij 1731 1715 0 175 0 17 01 0 170 7 38 1691 0 1696 39 1678 0 1683 1668 0 1673 1656 ij 1661 40 1 646 0 1651 41 1634 ij 1639 1 6£5 0 163 0 1614 o 1619 4£ 1604 0 16 09 1594 0 1599 43 1 585 0 1589 1575 Ij 1579 44 1566 0 157 0 1556 0 1561 45 1547 0 155£ 0 1534 1538 Cl 1543 46 153 0 47 15£ 1 0 15£5 1513 0 1517 ] 496 0 15 0 O 15fi4 fl 15 09 48 1488 Ij 149 £ 49 1 48 0 0 1 484 147 3 0 1477 50 1465 0 1469
x"'-Verteilung, Prozentpunkte ij 65 0 0 £038 0773 0 7805 0 6363 0 5484 0 488 1 Ij 4436 Ij 4 091 tj 3813 ij 3584 Ij 339 1 fl 3££6 0 3081 Ij £955 0 £84£ 0 £741 Ij £65 0 Ij £567 0 £49 £ 0 £4££ 0 £358 Ij ££99 Ij ££44 Ij £ 1 9£ Ij £144 Ij £099 Ij £057 Ij £01 7 0 1979 0.1943 o 19 09 Ij 1877 0 1 846 Ij 1817 0 1789 Ij 176 £ Ij 1737 Ij 1 71 £ 0 1689 0 1666 Ij 1644 0 16£4 Ij 16 0 3 Ij 1584 0 1565 Ij 1547 Ij 1530 fl 1513 Ij 1497 0 1481
66 0 0 £732 097 0 791£ 6435 5539 49£5 0 447£ 0 41 ££ 0 384 0 0 36 08 0 3413 0 3£45 0 3099 £971 £857 £755 £663 0 £58 0 0 £5 0 3 0 £433 0 £3i>9 0 £309 0 ££53 0 ££01 0 £153 0 £1 07 £065 £0£4 0 1 986 0. 195 0 0 1916 1883
0 £ 1 0 0
0 18 £3 0 1795 1 768 1 74£ 0 1718 1 694 1671 Ij 165 0 0 16£9 0 16 08 0 1589 0 157 0 0 155£ 0 1534 0 1517 0 15 01 0 1485
0 £ 1 0 0
6 7 0 0 0 68 0 0 0 690 0 3466 £ 4£45 £ 5 07£ 1386 1 1608 1 174 8 0£3 Ij 8138 0 8257 651 0 Ij 6*538 0 6668 5595 0 565 3 0 571£ 4969 o 5015 0 5 063 0 4509 0 4547 0 4587 4153 Ij 4186 0 4£ 19 3868 0 3896 0 39£5 0 3633 0 3658 0 3683 3435 Ij 3457 0 348 0 0 3 £65 Ij 3£85 0 33 06 0 3117 0 3136 0 3155 0 £988 0 30 05 0 3Ü££ £873 0 £888 0 2904 0 £769 Ij £784 0 £799 0 £677 0 £69 0 0 £7 04 0 £59£ 0 £6 05 0 £618 0 £515 Ij £5£7 0 £54 0 0 £444 Ij £456 0 £468 c'>;79 IJ £39 0 IJ £401 £319 0 2329 0 £34 0 0 ££63 0 ££73 0 £283 0 ££1 0 0 £££ 0 0 2229 0 £16£ 0 £171 0 2180 0 £116 0 £1£4 0 2133 £07 3 Ij £081 0 £ 089 £03£ Ij £ 04 0 0 £ 048 0 1994 Ij £ 0 0 1 0 2 009 0. 1957 0 . 1 9 6 5 0. 1972 0 19£3 ij 193 0 0 1 937 0 1 89 0 ij 1897 IJ 1904 0 1 859 0 1866 0 1873 0 1 8£9 0 1836 0 1 843 0 1801 0 1807 0 1814 0 1774 fi 178 0 0 1 786 0 1 748 0 1754 0 176 0 0 1 7£3 0 1 7£9 0 1 735 0 1 7 0 0 0 17 05 0 1711 0 1677 Ij 168£ 0 1688 0 1655 IJ 166 0 IJ 1 666 0 1634 0 1639 0 1644 0 1613 0 1618 0 1623 0 1594 Ij 1599 0 16 04 0 1575 Ij 158 0 0 1584 0 1 556 0 1561 0 1 566 0 1539 0 1543 0 1548 0 1 5££ 0 15£6 0 1531 0 1505 0 1510 0 1514 0 1489 0 1493 0 1498
0 7000
£ 595£
1 1 84 0 0 8381 0 675 0 5774 51 1 1 0 462? 0 4253 0 3955 0 371 0 0 35 03 0 332? 0 3174 0 3 04 0 0 2921 0 £814 £719 0 £632 2552 0 £479 241c' £35 0 0 ££93 0 ££39 0 £189 0 £142 0 2 098 0 2 056 £017 0 198 0 1945 0 191 1 1 88 0 1 849 1 82 0 1793 1766 1741 1717 1693 1671 1649 1629 0 1609 1 589 1571 0 1553 0 1 535 IJ 1519 0 15 0£
Anhang — Tabellen
437
Forts. Tab. 4 V
'-Verteilung, Prozentpunkte
0
7 1 0 0
0. 7 8 0 0
0
7 3 0 0
0.
1
8
6 8 9 8
8 . 7 8 9 7
?
8 9 7 5
3 . 0 1 3 4
£
1
1 . 8 3 3 7
1
8 6
1 . 8 8 8 6
1
0.
0
3
8 08
3
8 5 1
0
0 . 8 6 4 3
ü
05
8 7 8 3
7 4 0 0
8 9 8 9
0. 7 6 0 0 8
3 1 8 3
1. 3 4 9 8
1
0
7 8 0 0
4 8 0 3
0
3
5 8
3 8 3 1
1
4 1 8 6
0. 9 8 4 8
0. 9 4 1
7 8 1 8
0. 7 3 1 6
0. 7 4 8 6
0
7 5 4
0
6 8 7 1
0
6 3 5 4
5 9 7 1
5 1 6 8
0 . 5 8 1 3
0
5 8 6 7
0.
7
4 6 6 8
0.
4 7 1 1
0
4
0. 4 8
0.
4 3 8 5
5 3 8 3 01
0
5 3 8
0
4 8 4 8
0
6 1 9 1
0
3
9 4 7 £
1
4 9 6 9
4 5 6 4 9 7 7 5
0
9 9 7 4
0
7 6 6 1
0
7 7 8 8
6 4 4 £
6 5 3 4
0
5 5 0 3
0
5 5 6 8
0
5636.
0
4 9 4 8
0
5 0 0 1
0
5
0
s o n n
0
5 4 4
5 7
0 5 7
ij
07
5 1 1 5
4 5 8 5
0
4 1 9
0
4 8 8 9
0
486.9
0
4 3 1 1
0
3 9 5 1
0
3 9 8 6
0
4
IJ
3 7 1 9
IJ
3 7 5 0
LI
3 7 8 3
0
4 3 6 8
01
0
4 4 4 1
0
4 4 8 8
0
3 9 8 5
0.
4 0 1 7
0
4
0 8 3
Ij
4 1 1 7
0
4 1 5 3
0
3 7 3 6
0.
3 7 6 4
0
3 7 9 3
0.
3 8 8 8
0
3 8 5 3
Ij
3 8 8 4
3 9 1 7
11
3 5 8
0.
3 5 5 8
IJ
3 5 7 8
0.
3 6 0 4
IJ
3 6 3 1
IJ
3 6 5 9
3 6 8 8
7
ij
0
4 8 9 7
4 8 8 9
0. 4 4
0
0
7 5 5
0
3 9
0. 4
0
9 5 8 8
7 9 0
0
1 0
0 4 9
0
1
6 1 1 5
7
0
0
01
0
0
0 . 5 9
9 0 8 1
0. 7 7 0
7 3 5
0
0 . 6 9 8 4
5 8 3 7
7 5 5
0
1 3 8 3
0 . 7 1 1 8
6-836>
5
0 1 6
7 5 0
0. 6 04 1
4
03
0
0
4 5 7
0
Ij
4 6 1 7
0
4 6 6 6
0 8 3
1 £
3 3 4 9
0 . 3 3 7 1
0
3 3 9 4
0.
3 4 1 8
0
3 4 4 8
0
3 4 6 8
0
3 4 9 4
0
3 5 8 1
0
3 5 4 9
Ij
3 5 7 9
1 •"!
3 1 9 4
0.
0
3 8 3 5
0.
3 8 5 7
0
3 8 7 9
0
3 3
0
3 3 £ 6
0
3 3 5 1
0
3 3 7 7
0
3 4
14
3
0. 3 0
0
3
0.
3 1 1 6
0
3 1 3 6
0
3 1 5 8
0
3 1 7 9
0
3 8
08
0
3 8 8 6
0
3 £ 5
15
8 9 3 8
0 . 8 9 5 5
0
8 9 7 3
0.
8 9 9 1
0 7 1
0
3
Ij
8 9 7 4
0 5 8
3 8 1 4 77
096.
0
3 01 0
0
3 03
0
0
8 8 9 7
0
£ 9 1 5
8 7 8 0
Ij
£ 7 9 6
0
£ 8 1 3
0
£ 7 0 4
0
8 7 8
06
0
£ 6 £
0
8 6 3 5
0
0
£ 5 4 4
0
8 5 5 8
16
8 8 3
0 . 8 8 4 6
0
1?
8 7 8 3
ij.
0
8 7 6 4
0.
18
8 6 4 5
0 . 8 6 5 9
0
8 6 7 4
0 . 8 6 8 9
19
8 5 6 5
0 . 8 5 7 8
0
8 5 9 8
0 . 8 6
c'O
8 4 9 8
0. 8 5
0
8 5 1 7
0. 8 5 3
0
8 7 4 8
04
886:3
08
0. 8 8 8
1
0
0
£ 1
8 4 8 4
0.
8 4 3 6
0.
8 4 6 1
0
£ 4 7 4
LI
8 3 6 1
0.
8 3 7 3
0
8 3 8 4
0.
£ 3 9 6
0
£ 4 0 8
0
£ 4 8 1
8 3
8 3 0 3
0.
8 3 1 4
0
8 3 8 5
0.
8 3 3 6
0
£ 3 4 8
0
8 3 6
0
£ 4 4 8
0
0
8 £ 7
0 9
0
8 8 1 9
0 . 8 1 6 1
0
8 1 7
0 . 8 1 1 6
0
8 1 8 5
8 4
8 8 4 9
0. 8 8 6
8 5
8 1 9 9
0. 8 8
8 6
8 1 5 1
8 7
8 1 0 7
0
0
0.
8 8 8 1
0
£ £ 9 8
0
8 3
8 8 8 9
0
£ £ 3 9
0
8 8 5
0
0
0
3
0
8 9 5 4
0
0
£ 8 4 8
0
8 8 6 7
736.
0
8 7 5 3
0
0
8 7 7 1
0
8 7 8 9
£ 8 3
0
£ 6 5 1
0
8 6 6 7
rj
8 6 8 3
0
£ 7 0
£ 5 7 8
0
8 5 8 7
0
£ 6 0 3
0
8 6 1 9
8 5 0 0
IJ
0
£ 5 £ 9
Ij
8 4 3 4
0
£ 4 4 7
0
£ 4 6 1
0
8 3 7 8
0
8 3 8 5
0
£ 3 9 8
8 5 1 5
8 8 8 6 0
8 5 4 5 £ 4 7 6 0
£ 4 1 8
03
0
8 3 1 5
0
8 3 8 7
0
£ 3 4
0
0
£ £ 6 8
0
8 8 7 3
0
8 8 8 5
0
8 8 9 8
0
£ £ 1 £
£ 1 4 4
0
8 1 5 4
0
£ 1 6 5
0
£ 11 0
0
8 1 8
8 8
3 1 1 5 ¿ 9 9 4
8
£ 1 01
0
0
0 0
IJ
0
8 1 9 0
0 9 8
0
8 1 3 5
0 . 8 1 8 IJ 0.
3 05 8 9 3 4
Ij
8 4 8 7
0.
Ij 0
03
01
0
8 3 5 3
8 8 8 3
0
8 8 3 4
0
£ 8 4 6
0
8 1 7 5
0
8 1 8 6
0
8 1 9 8
0
0
£ 1 3 1
0
8 1 4 1 0
8 1
0
8 1 5 8
8 8
8
0 6 5
0 . 8
0 7 4
0
8
0 8 8
0 . 8
0 9 8
0
8 9
8
0 8 5
0. 8
0 3 4
0
£
0 4 8
0. 8
0 5 1
0
8 06
0
Ij
£
0 6 9
0
8
0 7 9
0
£ 0 8 9
0
8
3
1 9 8 8
0 . 1 9 9 6
0
8 0 04
0 . 8 0 1 3
Ij
£ 0£ 1
0
8
0 3 0
0
8
0 3 9
0
8
0
£ 0 5 9
Ij
8
3 1
1 9 5 8
ij.
0
0
1 9 6 8
0.
1 9 7 6
0
1 9 8 5
0
1 9 9 3
0
8
0 0 8
0
8 0 1 1
0
£ 0£ 1
IJ
£ 0 3
3 8
1 9 1 9
0.
1 9 8 6
0
1
0.
1 9 4 8
0
1 9 5
0
1 9 5 8
0
1 9 6
0
1 9 7 6
0
1 9 8 5
0
1 9 9 4
0
0
1 9 6
0 . 1 8 9 4
3 3
1 8 8 7
3 4
1 8 5 6
0 . 1 8 6 3
0
1 8 7
3 5
1 8 8 7
0 . 1 8 3 4
0
1 8 4 1
18
0
9 3 4
06
1 9 0 1 0
09
Ij
0
1 9 4 8
1 9 5 0
ü
1 9 6
1 8 7 8
0
1 8 8 5
0
1
0
1 9 0 1
0
1 9 0 9
0
1 9 1 8
0
1 9 £ 7
0
1 8 5 5
0
1 8 6 3
0
1 8 7 1
0
1 8 7 9
0
1
0
1
0
19
1 7 3 5
0 5
0
1 7 1 1
0 . 1 7 1 7
i é S S
0
1 6 8 8
ij.
0
1 6 6 6
0.
0
1
6 4 5
0.
1 6 5 1
6 8 5
0.
05
0.
4 3
1 6 3 4
0 . 1 6 4
4 4
. 1 6 1 4
4 5
1
5 9 4
4 6
1
5 7 6
4 7
1 5 5 8
17
0
1
17ÖÖ
IJ
1 7 i i "
0
1 6 7 8
0
1 6 8 4
Ij
1 6 5 7
0
1 6 6 3
1 9 3 3
0
7 3 0
0
1 8 4 9
0
1 8 5 7
1 8 6 5
0
1 8 8 1
0
1 8 8 9
1 8 3 7
0
1 7 8 7
0
1 7 9 4
0
1 8 0 8
0
1 8 1
0
1
0
1
0
1 7 7 6
0
1 7 3 7
0
1 7 4 4
0
1 7 5 1
0
1 7 5 8
IJ
1 7 1 3
IJ
1 7 c ! LI
IJ
1
7 8 7
IJ
1
1 6 9 1
0
1 6 9 7
0
17
04
0
1 7 1
1 6 6 9
0
1 6 7 5
Ij
1 6 8 8
1 6 4 8
0
1 6 5 4
0
1 6 6 1
1
6 8 8
0
1 6 3 4
0
1 6 4
0
08
0
1 6 1 4
0
1 6 8
0
5 8 9
0
1 5 9 5
0
16
0
1 6 3 6
0
1 6 4 8
0
1 6 1 6
0
1
0
1 5 9 7
0
16
0 . 1 5 7 3
0
15
78
0
1 5 8 4
0
0
1 16
0 . 1 5 8 1
0
1 5 8 6
0 . 1 5 9 1
1 6 3
0 . 1 5 6 3
0
1
0
8 9 5
1 8 4 1
0
0 0
8 8 7
1 8 1 4
06
1 6 1 0
0 . 1 6 1 9 0 . 1 6 0 0
5 6 8
ö
1 6 9 4
1 7 6
0
0 . 1 6 6 1
1
1 6 7 8
0
1 7 8 9
0.
1 7 5 4
0
0
1 7 5 3
0. 0.
1 7 8
0
1 7 8 4
0
0.
1 7 8 3 6 9 9
0
1 7 4 8
0
1 7 4 1
1 7 4 7
3 9
1 6 5 5
1 7 7 3
1 7 6 6
0.
3 8
1 6 7 7
1 8 3 4 1 8
0.
0.
1
0 0
1
0.
1
8 9 3
8 7
18
0
1 8 1 3
0
1 9 8 5
7 9 9
0
795
0
0 . 1 7 7 9
4 8
1 9 1 7
1 8 1 9
0.
1 7 7 3
4 1
0
1 8 4 8
0.
1 7 9 9
0
7
0.
3 6
4 0
Ij
09 0 6 9
0.
3 7
7 8 6
0
0 4 9
0 9 9
0
6 8 8 08
16 1
7 6 1
7 6 8
1
0
7 8 3 7 3 4 1
1 6 8 9 0
01
1 6 6 7 1 6 4 7 1 6 £ 7
0
1 6 0 7 1 5 8 9
4 8
1 5 4
IJ
1 5 5
0
0.
1 5 5 5
0
1 5 6
0
1
0
1 5 7 1
0
1 5 7 7
0
1 5 8 3
0
4 9
1 5 8 3
0 . 1 5 8 8
0
1 5 3 3
0.
1 5 3 8
0
1 5 4 3
0
1 5 4 8
0
1 5 5 3
0
1 5 5 9
0
1 5 6 5
IJ . 1 5 7 1
5 0
1 5 0 7
0 . 1 5 1 1
0
1 5 1 6
0 . 1 5 8 1
0
1 5 8 6
0
1 5 3 1
0
1 5 3 6
0
1 5 4 8
0
1 5 4 7
0
0
0.
1 5 4 5
5 6 6
1 5 5 3
438
Anhang - Tabellen
Forts. Tab. 4 V
1 £ 3 4 6 7
0 4
8 9
0 0 1 Ü 0 11 0 1£ o 13 o 14 o 15 o 16 o 17 o 18 0 19 o £0 0 81 0 22 o 53 £4 £5 £6
d. f as
£9 30 31 3 c" 33 34 35 36 3? 38 39 4 0 41 45 43 44 45 46 47 48 49 50
y 1 ij 0 u 1593 4 5404
0 0 o 0
o 0 0 o 0 o 0 0 0 o o 0 0 0 o o 0 0 0 0 o 0 o o o 0
x~ '-Verteilung, Prozentpunkte
0156 79££ 663 1 578£ 5176 4717 4355 4 061 3817 361 0 3431 3£76
1 1 0 0
3947 4 5873 04 1 £
8 065 6733 0 586£ 0 5£4 0 11 4 7 7 1 0 44 0£ 0 4 1 OS
0 0 0 0 3138 0 3 016 0 £ 9 07 0 £ 8 08 0 £718 0 £636 0 £56 0 0 £491 0 £4£6 0 £367 0 £31 1 0 ££59 0 ££1 0 0 £164 0 £ 1£ 0 0 £079 0 £041 £ 004 0 1 969 0 1 936 0 1904 0 1874 0 1 845 0 1818 0 0 1791 1766 0 1742 0 1718 0 1696 1674 1653 1633 1614 1595 1577 1559
Xc U U u
0 0 0 0 0 0 0
3853 364£ 346 0 3 3 0£ 3163 3 039 £9£8 £8 £8 £ 737 £653 £577 £ 5 07 £441 £38 1 2324 ££7£
££££ £176 £132 £090 £051 £014 1979 1945 1914 1883 1854 18£6 18 0 0 1774 1749 1 7£6 17 03 1681 166 0 164 0 16£ 0 16 0£ 1583 1566
0 0 0 0 0 o o o o 0 0 o 0 o o 0 o fl o 0 0 o o o o o 0 0 0 Ij o 0 0 0 o o 0 0 o o o o o o o
y 3 M il 6576 6331 0654 8£17 6842 5946 5 3 08 48 ? 8 445 0 4144 3891 3676 3491 333 0 3189 306 3 £95 0 2848 £756 5 6 7 c' £594 £5£3 £457 £396 £339 ££85 ££35 £ 188 £144 £1 0£ £ 06£ £ 0£5 1989 1955 19£3 189£ 1863 1835 18 08 178£ 1 758 1734 1711 1689 1668 1647 16£7 16 0 8 1590 157£
fi y 4 0 ij 9531 6934
4
0914 833 0 6958 0 6 035 Ij 5 3 8 0 o 4888 o 45 0£ o 4189 o 393 0 o 371 1 0 35£3 o 336 0 o 3 £ 16 0 3088 0 £973 Ij £ 8 7 0 0 £776 o £691 Ij £ 6 1 £ Ij £ 5 4 0 o £473 Ij £ 4 1 1 0 £353 Ij £ £ 9 9 Ij £ £ 4 9 0 ££01 o £156 0 £114 o £074 o £036 o £ 000 0 1966 0 1933 0 1902 o 1873 0 1844 Ij 1 8 1 7 Ij 1 7 9 1 Ij 1 7 6 6 Ij 1 7 4 £ o 1719 Ij 1 6 9 7 Ij 1 6 7 5 Ij 1 6 5 5 Ij 1 6 3 5 Ij 1 6 1 5 o 1597 Ij 1 5 7 9 0 ij
tj 8 5 0 0 ij 8 6 0 0 0 £877 5 6698 6 754 0 8 £ 08i 1 1196 15 0 ? 1 ij 8 5 5 5 0 8 7 4 3 0 0 7 08 £ 0 7 £ 16 0 0 613 0 0 6£3£ 0
5
0 0 Ij 0 Ij Ij 0 0 o 0 0 o Ij o Ij o Ij 0 Ij Ij Ij o Ij ö fl Ij Ij o Ij tj o o o o Ij Ij Ij o Ij o 0
5457 495£ 4556 4£37 3973 3749 3558 3391 3£45
0 0
5539
5 0£0 ij 4 6 1 5 0 4888 ij 4 01-8 ij 3 7 8 9 0 3594 0 34£4 0 3£75 3115 0 3143 £998 0 3 0£4 £893 0 £918 £ 7 9 8 tj £ S £ 1 £71 1 o £ 7 3 3 £63 £ 0 £65£ £558 0 £578 £ 4 9 1 0 £ 5 09 £ 4 £ 8 Ij £ 4 4 5 £369 o £386 £314 o £33 0 ££63 0 ££78 £ £ 1 5 Ij £ £ £ 9 £ 1 6 9 Ij £ 1 8 3 £1£7 £ 14 0 £ 0 8 6 Ij £ 0 9 9 £ 0 4 8 Ij £ 0 6 0 £ 01 £ S 084 19 77 1989 1 9 4 4 Ij 1 9 5 5 1 9 1 3 Ij 1 9 £ 4 1883 o 1893 t854 o 1864 1 8 £ 7 Ij 1 8 3 6 18 0 0 0 1 8 1 0 1775 o 1784 1 7 5 1 Ij 1 7 6 0 17£7 o 1736 1705 0 1714 1 683 o 169£ 1663 o 1671 1 6 4 £ Ij 1 6 5 0 1 6 £ 3 0 1631 1 6 0 4 Ij 1 6 1 £ 1 5 8 6 Ij 1 5 9 4
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
«7 0 0 1 1 03 8948 1838 8949 736 0 634£ 56£7 5 093 4677 434£ 4 066 383£ 3633 346 0 3307 3173 3 05£ £944 £845 £756 £674 £598 £5£8 £463 £403 £347 ££94 ££45 £198 £154 £113 £074 £ 036 £ 0 01 1967 1935 1904 1875 1847 18£0 1794 177 0 1746 17£3 1701 168 0 1659 1639 16£ 0 1 6 OS
o. yy o o 6 6£39 1 9777 1 ££08 0 9173 0 7517 0 6461 0 57£3 ij 5 1 7 3 0 4745 0 4 4 01 0 4117 0 3879 0 3674 0 3497 0 3342 0 3£05 0 3 08£ 0 £971 0 £871 0 £78 0 0 £697 0 £6£0 0 £549 0 £483 0 £4££ 0 £365 0 £311 0 ££61 0 ££14 0 £169 0 £1£7 0 £088 0 £ 05 0 0 £014 0 l9y o 0 1947 0 1916 0 1887 0 1858 0 1831 0 18 05 0 178 0 0 1756 0 1 733 0 171 0 0 16yy 0 1668 0 1648 0 1629 0 1610
0 7 2 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
890 0 8 3 04 0714 2619 9421 7689 6592 58£7 5259 4818 4464 4173 39£8 3719 3538 338 0 3239 3114 3 0 01 c'899 2806 £7£ 1 £64:3 £571 £ 5 04 £448 8:384 £330 £279 8831 8186 2143 2 1 03 2 064 8 088 1993 1961 1989 1899 1870 1843 1816 1791 1 767 1 743 1721 1699 1678 1658 1 638 1619
0. 9 0 0 0 7. 9579 £ 1784 1 3 081 0. 9696. 0. 7 8 8 0 0. 6 7 3 6 0. 5941 0. 5 3 5 3 0 0. 0. 0. 0. 0 0. 0 0. 0. 0 0 0 0 0 0 0 Ij 0 Ij 0 0 Ij 0 0 0 0 0 0 0
4898 4534 4234 3983 3768 3583 34£ 1 3277 3149 3 034 293 0 2835 £748 £6-69 £595 2527 2464 £ 4 05 £35 0 ££98 ££49 £ 2 03 £160
£119 £ 08 0 £043 £ 0 08 1975 1943 1912 0 1883 0 1855 0 1889 0 18 03 0 1778 0 1754 0 1738 0 1710 0 1688 0 1668 0 1648 0 1689
Anhang — Tabellen
439 x~'-Verteilung, Prozentpunkte
Forts. Tab. 4 V
0
y 1 0 0
0
9 e' 0 0
0
0. 9 4 0 0
0
1
8
8 4 6 5
Q
9 5 6 8
• • • • • •
• • • • • •
• • • • • •
2
£
3 0 2 5
£
4 4 8 8
2 . 6 2 4 8
2
3 .
122£
4 9 9 8
4 .
3
1
3 6 U 7
1
4 2 1 4
1
4 9 £ 8
1. 5 7 8 8
1
6 8 5 9
1
8 2 5 3
£
4
1
0
007
1
0361
1.
0 7 7 3
1
1
186£
1
£ 6 2 8
1. 3 6 7 1
1
5 2 6 1
5
0
8
094
0
3 3 3 6
0. 8 6 1 6
0. 8 9 4 5
0. 9 3 4 4
0. 9 8 4 7
1
0 5 £ 3
6
0
6 8 9 6
0
7
0. 7 £ 8 4
0. 7 5 £ 7
0. 7 8 £ 0
0. 8 1 8 6
7
0
6
0
6£
0
0. 6 5 6 5
0. 6 7 9 3
0
7
0. 5 8 6 4
6 2 7 9
8
068
077 11
y 3 0 0
6 3 7 4
8 4 £ 7
1
£ 6 3
y 5 0
0
0 . •-IK 0 0
0. 9 7 0
• • • • • •
• • • • • •
076
0 . 'H S LI LI
0
• • • • • •
• • • • • •
0 5 1 6
4 . 9 7 4 9
7
053:3
0£0 0
2 . 3 2 6
c.'
9 5 1
1
8 3 4 6
1. 1 5 3 3
1
3 4 3 2
0. 8 6 7 £
0. 9 3 8 9
1
07
0. 7 4 5 0
0. 7 9 9 6
0
8 9 8 4
0
0
9 9
00
0
09
0
5 4 5 8
0
5 5 7 5
0. 5 7
0. 6 0 4 9
0
0. 6 5 7 9
0. 7
0
7 7 9 3
0
4 9 8 7
0
5
0
5 1 9 8
0. 5 3 2 9
0. 5 4 8 4
0. 5 6 7 5
l'I.
5 9 2 5
0. 6 2 8 4
0
6 9 2 1
» 0
0
461
0
4 6 9 6
0
4 7 9 3
0
4 9 0 5
0. 5
0. 5 2
0. 5 4 1 4
0. 5 7 1 8
0
6 2 5 2
11
0
4 3 0 1
0
4 3 7 6
0
4 4 6 1
0
4 5 5 9
0. 4 6 7 5
0
4 8 1 8
0. 5
0
5 £ 6 4
0
5 7 2 3
12
0
4
0
4 1 1 0
0
4 1 8 5
0
4 2 7 2
0
4 3 7 4
0
4 5 0 0
0
4 6 6 2
0
4 8 9 £
0
5 £ 9 £
13
0
3 8 £ £
0
3 8 8 £
0
3 9 5 0
0
4
0
4 1 £ 0
0
4 £ 3 £
0
4 3 7 6
0
4 5 8 1
0
4 9 3 5
14
0
3 6 3 £
0
3 6 8 6
0
3 7 4 8
0
3 8 1 8
0
3 9
0
4 0 0£
0. 4 1 3 £
0
4 3 1 6
0
4 6 3 £
15
0
3 4 6 5
0
3 5 1 5
0
3 5 7 1
Ili
3 6 3 5
0
3 7 1 1
0
3 8
0. 3 9 £ 1
0
4
0
4 3 7 3
16
0
3 3 1 8
0
3 3 6 4
0
3 4 1 6
0
3 4 7 5
0
3 5 4 4
0
3 6 2 8
0
3 7 3 7
0
3 8 8 8
0
4 1 4 8
17
0
3 1 8 7
0
3 2 3 0
0
3 £ 7 7
Ci
3 3 3 £
0
3 3 9 6
0
3 4 7 4
0
3 5 7 3
0
3 7 1 3
1]
3 9 5 0
18
U
3
0
31
09
0
3 1 5 3
0
3 2
04
0
3 2 6 3
0
3 3 3 5
0
3 4 £ 8
0
3 5 5 6
0
3 7 7 6
19
0
£ 9 6 3
0
3 0 0 0
0
3
0
3
089
0
3 1 4 4
0
3 2 1 1
0
3 £ 9 7
0
3 4 1 7
LI
3 6 2
£ 0
0
£ 8 6 6
0
£ 9 0 1
0
£ 9 4
0
0
£ 9 8 4
0
3
0
3
0
3 1 7 9
0
3 £ 9
0
3 4 7 9
7
0
£ 8 8 8
0
2 9 3 7
0
£ 9 9 6
0
3
0
3 1 7 6
IJ
3 3 5 3
0
043
069
086
09
041
028
038
01
036
01
03
0 9 9
00£
088
0
0
£1
0
£ 7 7 8
0
£ 8 1
0
£ 8 4
££
0
£ 6 9 6
0
£ 7 £ 7
0
£ 7 6 £
0
2 8 0 1
0
2 8 4 7
0
£ 9
0
£ 9 7 3
0
3 0 7 1
0
3 £ 3 7
£ 3
0
£ 6 £ £
0
£ 6 5 1
0
£ 6 8 3
0
2 7 2 0
13
2 7 6 4
0
£ 8 1 6
0
£ 8 8 3
0
£ 9 7 6
0
3 1 3 2
£ 4
a
2 5 5 2
0
£ 5 8
0
£ 6 1 1
0
2 6 4 6
0
2 6 8 7
0
£ 7 3 7
0
£ 8 0
0
£ 8 8 8
0
3
e" 5
0
£ 4 8 8
0
£ 5 1 4
0
2 5 4 3
0
2 5 7 7
0
£ 6 1 6
0
£ 6 6 3
0
£ 7 2 3
0
28
06
0
2 9 4 6
£ 6
0
£ 4 £ 8
0
£ 4 5 3
0
2 4 8 1
0
2 5 1 3
0
2 5 5
0
2 5 9 5
0
2 6 5 2
0
2 7 3 1
0
2 8 6 3
£ 7
0
£ 3 7 1
0
£ 3 9 5
0
£ 4 £ £
0
£ 4 5 3
0
2 4 8 8
0
2 5 3 1
0
2 5 8 6
0
£ 6 6 1
0
2 7 8 7
£ 8
0
£ 3 1 9
0
£ 3 4 £
0
£ 3 6 7
0
£ 3 9 6
0
2 4 3 1
0
2 4 7 2
0
2 5 2 3
0
£ 5 9 5
0
2 7 1 5
£ 9
0
£ £ 6 9
0
£ 2 9 1
0
£ 3 1 6
0
£ 3 4 4
0
2 3 7 6
0
2 4 1 6
0
2 4 6 5
0
£ 5 3 4
0
2 6 4 8
3 0
0
££££
0
£ 2 4 4
0
£ £ 6 7
0
£ £ 9 4
0
2 3 2 5
0
2 3 6 3
0
2 4 1 1
0
£ 4 7 6
0
2 5 S 6
31
0
£ 1 7 8
0
£ 1 9 9
0
££££
0
£ 2 4 7
0
2 2 7 7
0
2 3 1 4
0
2 3 5 9
0
£ 4 2 2
0
£ 5 £ 7
3£
0
£ 1 3 7
0
£ 1 5 6
0
£ 1 7 8
0
2 2 0 3
0
£ £ 3 £
0
2 2 6 7
0
2 3 1 1
0
2 3 7 1
0
2 4 7 2
0
2 2 6 5
l'I
2 3 2 3
0
2 4 2 0
0
0
0
0£
071
014
0
035
3 3
0
£ 0 9 7
0
£ 1 1 6
l'I
£ 1 3 7
0
£ 1 6 1
0
£ 1 8 9
0
£ £ £ 3
34
0
£ 0 6
0
0
2 0 7 8
0
£ 0 9 8
0
£ 1 £ £
0
£ 1 4 8
0
£ 1 8 1
0
££££
0
£ £ 7 8
0
2 3 7 1
35
0
2
024
0
£ 0 4 £
0
£ 0 6 2
0
£ 0 8 4
0
£ 11 0
0
2 1 4 1
0
£ 1 8 0
0
£ 2 3 5
0
£ 3 £ 4
36
0
1 9 9 0
0
£ 0 0 7
0
2
0
£ 0 4 8
0
£ 0 7 3
0
£ 1 0 3
0
2 1 4 1
0
2 1 9 4
0
£ £ 8 0
3 7
0
1 9 5 8
0
1 9 7 4
0
1 9 9 3
0
£
014
0
£ 0 3 8
0
£ 0 6 7
0
2 1 0 4
0
2 1 5 5
0
£ £ 3 8
33
0
1 9 £ 7
0
1 9 4 3
0
1961
0
198 1
0
£ 0 0 5
0
£ 0 3 3
0
2
069
0
2 1 1 7
0
£ 1 9 8
195 0
0
1 9 7 3
0
£ 0 0 0
0
2
035
0
2
0
£ 1 6 0
0 0 2
0
2 0 4 8
0
£ 1 £ 4
026
3 9
0
1 8 9 7
0
1 9 1 3
0
1 9 3 0
0
4 0
0
1 8 6 9
0
1 8 8 4
0
1901
0
1 9 2 0
0
1 9 4 2
0
1 9 6 9
0
2
41
0
1 8 4 £
0
1 8 5 7
0
1 8 7 3
0
1891
0
1 9 1 3
0
1 9 3 9
0
1971
0
2 0 1 6
0
2
4£
U
1 8 1 6
0
183 0
0
1 8 4 6
0
1 8 6 4
0
1 8 8 5
0
1 9 1 0
0
1 9 4 2
0
1 9 8 5
0
2 0 5 6
4 3
0
1791
0
18
0
1 8 2 0
0
1 8 3 8
0
1 8 5 8
0
1 8 8 2
0
1 9 1 3
0
1 9 5 5
0
2
4 4
0
1 7 6 7
0
1 7 8 0
0
1 7 9 5
0
1 8 1 2
0
1 8 3 2
0
1 8 5 6
0
1 8 8 6
0
1 9 2 7
0
1 9 9 4
4 5
0
1 7 4 4
0
1 7 5 7
0
1771
0
1 7 8 8
0
18
0
1 8 3 0
0
186 0
0
1 8 9 9
0
1 9 6 5
4 6
0
1 7£1
0
1 7 3 4
0
1 7 4 8
0
1 7 6 5
0
1 7 8 3
0
18
06
0
1 8 3 4
0
1 8 7 3
0
1 9 3 7
4 7
0
1 7 0 0
0
171 £
0
1 7 £ 6
0
1 7 4 2
0
176 0
0
1
7 8 £
0
1 8 1 0
0
1 8 4 8
0
1 9 1 0
4 8
0
1 6 7 9
0
1691
0
17
0
172 0
0
1 7 3 8
0
176 0
0
1 7 8 7
0
1 8 2 3
0
1:384
4 9
0
1 6 5 9
0
1671
0
1 6 8 4
0
1 6 9 9
0
1 7 1 7
0
1 7 3 8
0
1 7 6 4
0
18 0 0
0
1 8 5 9
1 6 6 4
0
0
1 6 y 6
0
1 7 1 6
0
1 7 4 2
0
1 7 7 7
0
1 8 3 5
5 0
0
1 64 0
0
05
1651
0
05
1 6 7 9
07
0 8 2
089
025
440
Anhang — Tabellen X"'-Verteilung, Prozentpunkte
Forts. Tab. 4 V 0. 01 0 0 51 0. 1137 0. 1128 53 0. 1119 54 0. I U I 55 0. 11 02 56 0. 1 094 57 0. 1 086 53 0. i 079 59 0. 1 071 6 0 0. 1 064 61 0. 1 056 6£ 0. 1 049 6.3 0. 1 043 64 0. 1 036 6-5 0. 1 029 66 0. 1 023 67 0. 1 016 68 0. 1010 69 0. 1 004 70 0. 0998 71 0. 0992 72 0, 0986 73 0. 0981 74 0. 0975 75 0. 0969 76 0. 0964 77 0. 0959 78 0. 0954 79 0. 0949 80 0. 0944 81 0. 0939 y 2 0. 0934 83 0. 0929 84 0 0924 85 0. 0920 86 0. 0915 87 0. 0911 88 0 0906 89 0. 09 02 90 0. 0898 91 0. 0893 92 0. 0889 93 0 0885 94 0 0881 95 0 0877 96 0 0873 97 0. 0869 98 0. 0866 99 0. 0862
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0 0 0. 0. 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
02 0 0 0. 03 0 0 1164 0, 1182 1155 0. 1172 1145 0. 1163 11 36 0. 1153 1128 0. 1144 1119 0. 1136 1111 0. 1127 11 03 0. 1119 1 095 0. I U I 1 087 0. 11 03 1 080 LI. 1 095 1 072 0. 1 087 1 065 0. 1 08 0 1 058 0 1 073 1051 0. 1 066 1044 0. 1 059 1 038 0. 1052 1031 0 1 045 1 025 0 1 039 1019 0. 1 032 1012 0 1 026 1 0 06 0. 1 020 1 0 0 0 0. 1013 0995 0. 1 0 08 0989 0 1 002 0983 0. 0996. 0978 0 099 0 0972 0 0985 0967 0 0979 0962 0 0974 0957 0. 0969 0952 0. 0964 0947 0 0958 0942 0 0953 0937 0 0948 0932 0 0944 0928 0 0939 0923 0 0934 09 19 0 093 0 0914 0 0925 0910 0 0921 09 06 0 0916 09 01 0 0912 0897 0 09 07 0893 0 09 03 0889 0 0899 0885 0 0895 0881 0 0891 0877 0 0887
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0. 0. 0 0 0 0 0 0. 0. 0 0
04 0 0 0. 1195 0. 1186 0. 1 176 0. 1 166 0. 1 157 0. 1 148 0. 114 0 0. 1131 0. 1123 0. 1115 0 1107 0. 1 099 0. 1 091 0. 1 084 0. 1 077 0. 1 07 0 0. 1 063 0. 1 056 0 1 049 0. 1 042 0. 1 036 0. 1 03 0 0 1 023 0. 1017 0. 1011 0. 1 0 06. 0. 1 0 0 0 0. 0994 0. 0989 0. 0983 0. 0978 0. 0973 0. 0967 0. 0962 0. 0957 0. 0952 0. 0947 0. 0943 0 0938 0. 0933 0. 0929 0. 0924 0. 092 0 0 0915 0 0911 0 0907 0. 0903 0. 0899 0. 0895 0.
050 0 12 07 1197 1 187 1177 1168 1159 1150 1141 1133 1125 1116 11 09 1101 1 093 1 086 1 079 1071 1 064 1 058 1051 1 044 1 038 1 032 1 026 1019 1 014 1 0 08 1 002 0996 099 1 0985 098 0 0975 0969 0964 0959 0954 095 0 0945 094 0 0935 0931 0926 0922 0918 0913 09 09 09 05 09 01
0 0. 0. 0. 0 0 0 0 0. 0. 0. 0. 0. 0. 0 0. 0. 0. 0 0 0 0. 0 0. 0. 0. 0. 0. 0. 0 0 0. 0. 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
06 0 0 0 1217 0 12 06 0. 1 196 0. 1187 0 1 177 0 1168 0 1159 0. 1150 0. 1141 0. 1133 0. 1125 0. 1117 0. 1109 0 11 01 0 1 094 0. 1 086 0. 1 079 0. 1 072 0. 1065 0. 1 058 0. 1 052 0. 1 045 0. 1 039 0. 1 033 0. 1 026 0. 1 02 0 0. 1014 0. 1 0 09 0 1 0 03 0 0997 0 0992 0. 0986 0. 0981 0. 0976 0. 0971 0. 0966 0. 0961 0 0956 0 0951 0. 0946 0. 0941 0. 0937 0. 0932 0 0928 0 0923 0 0919 0 0915 0. 091 0 0 09 06 0
070 0 1225 1215 1205 1195 1185 1176 1167 1158 1149 1141 1132 1124 1116 11 08 1101 1 093 1 086 1 079 1 072 1 065 1 058 1 052 1 045 1 039 1 033 1 026 102 0 1 015 1 009 1 003 ijyy? 0992 0987 0981 0976 0971 0966 0961 0956 095 1 0946 0942 0937 0933 0928 0924 0919 0915 0.91 1
0.Oy 0 0 0.1233 0.1223 0. 1212 0. 12 02 0.1193 0.1183 0. 1174 0. 1165 0. 1156 0.1147 0. 1139 0.1131 0.1123 0.1115 0. 11 07 0.1099 0.1092 0.1085 0. 1 078 0.1071 0. 1064 0. 1057 0. 1051 0.1044 0.1038 0. 1032 0.1026 0. 102 0 0. 1014 0.10 08 U. 1003 0. 0997 0. 0992 0.0986 0.0981 0.0976 0.0971 0.0966 0.0961 0.0956 0.0951 0.0946 0.0942 0.0937 0.0933 0.0928 0. 0924 0. 092 0 0.0915
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0. 0. 0. 0 0 0 0 0 0 0 0 0 0 0 0 0 ñ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
090 0 124 0 123 0 1219 12 09 1199 1190 1180 1 171 1 162 1 154 1145 1137 1129 1121 1113 1105 1 098 1 09 0 1 083 1 076 1 069 1 063 1 056 1 05 0 1 043 1 037 1 031 1 025 1019 1013 1ÖÖ7 1 002 0996 0991 0986 098 0 0975 097 0 0965 096 0 0955 0951 0946 0941 0937 0932 0928 0924 0919
0. 1000 0. 1247 0. 1236 0. 1226 0. 1216 0. 12 06 0. 1196 0. 1186 0. 1177 0. 1168 0. 1159 0. 1151 0. 1142 0. 1134 0. 1126 0. 1118 0. 1111 0. 11 03 0. 1 096 0. 1 088 0. 1 081 0. 1074 0. 1 068 0. 1061 0. 1 054 0. 1 048 0. 1 042 0. 1 035 0. 1029 0. 1 023 0. 1 018 IJ. 1 Olí 0. 1 006 0. 1 001 0. 0995 0. 0990 0. 0984 0. 0979 0. 0974 0. 0969 0. 0964 0. 0959 0. 0955 0. 095 0 0. 0945 0. 0941 0. 0936 0. 0932 0. 0927 0. 0923
Anhang — Tabellen
441 X"'-Verteilung, Prozentpunkte
Forts. Tab. 4 V
0. 1 1 0 0 0 51 0. 1353 0 53 0. 1 343 0 e; o 0. 1 3 3 3 0 54 0. 1333 0 55 0. 1313 0 56- 0. 1303 0 57" 0. 1193 0 5 y 0. 1133 0 59 0. 1 174 0 60 0. 1 165 III 61 0. 1 156 0 63 0. 1143 0 63 0. 1139 0 64 0. 1131 0 65 0. 1133 0 66 0 1116 0 67 0. 11 03 IJ 63 0. 11 0 0 0 69 0. 1 093 0 7 0 0. 1 086 0 71 Cl. 1 079 0 72 Ij 1 073 0 73 0. 1 065 0 74 0. 1 059 0 75 0. 1 053 0 76 0. 1 046 IJ 77 0. 1 04 0 0 73 0. 1 034 0 79 0. 1 033 0 30 0. 1033 0 81 0. 1 016 0 33 0. 1 01 Ù 0 33 0 1 005 0 34 0 0999 0 85 0 0994 0 86 0 0988 0 37 0 0933 0 33 0 0978 0 89 0 0973 0 9 0 0 0968 Ij 91 0 0963 0 93 0 0953 M 93 0 0953 0 94 0 0949 0 95 0 0944 0 96 0 094 0 0 97 0 0935 0 98 0 0931 0 99 0 0936 0
13 00 1359 1348 1 CO & 1337 1317 13 07 1198 1188 1179 117 0 1161 11 53 1144 1136 1138 1130 1113 11 05 1 093 1 09 0 1 083 1077 1 070 1 063 1 057 1 05 0 1 044 1 038 1 033 1 036 1 030 1014 1 0 08 1 0 03 0997 0993 0987 0983 0976 0971 0967 0963 0957 0953 0947 0943 0938 0934 093 0
0 0 0 0 0 0 0 0 0 0 Ij 0 0 Ij Ij 0 0 0 Ij 0 0 0 0 Ij Ij 0 Ij Ij 0 0 0 0 Ij 0 0 0 0 0 IJ 0 0 0 IJ 0 0 0 0 0 0 Ij
13 0 0 1365 1354 1343 1333 1333 1313 1303 1193 1184 1175 1 166 1 157 1 149 1141 1133 1135 1117 1 1 09 1 1 03 1 095 1 088 1 081 1 074 1 067 1 061 1 054 1 048 1041 1 035 1 039 1 034 1 018 1 013 1 0 06 1 001 0996 099 0 0935 0930 0975 097 0 0965 096 0 0955 0951 0946 0941 0937 0933
0 ij 0 0 0 Ij Ij 0 0 0 0 Ij Ij Ij 0 Ij 0 M 0 0 Ij 0 0 0 0 Ij. 0 0 Ij 0 Ij 0 0 0 0 0. Ij Ij 0 0 0 0 0 0 0 0 0 0 0 Ij
14 0 0 137 0 1359 1343 1333 1337 1317 1308 1198 1189 1179 1171 1163 1153 1145 1137 1139 1131 1114 11 06 1 099 1 093 1 085 1 078 1071 1 064 1 058 1 051 1 045 1 039 1 033 1 037 1 031 1015 1 01 0 1 004 0999 0994 0988 0983 0973 0973 0963 0963 0958 0954 0949 0944 0940 0936
0.15 0 0 0 1376 0 1364 0 1353 0 1343 0 1333 0 1333 0 1313 0 1303 0 1193 0 1 134 Ij 1175 Ij 1166 0 1158 0 1149 0 1141 0 1133 Ij 1 135 Ij 1117 0 1110 0 11 03 0 1 095 0 1 033 0 1081 0 1 075 Ij 1 068 0 1 06 1 Ij 1 055 Ij 1 049 Ij 1 043 0 1 036 0 1 03 0 Ij 1 035 0 1 01 9 0 1 013 0 1008 0 1 0 03 Ij 0997 0 0991 0 0986 0 093 1 Ij 0976 0971 0 0966 0 0961 0 0957 0 0953 0947 0 0943 Ij 0933
ij 16 0 0 0 1381 0 1369 0 1358 0 1347 Ij 1337 0 1337 0 1317 0 13 07 0 1198 0 1133 0 1179 0 1170 0 1163 0 1153 0 1145 0 1137 0 1139 Ij 1131 0 1114 0 11 06 IJ 1 099 0 1 093 0 1 035 0 1 078 0 1071 0 1 065 0 1 058 0 1 053 0 1 046 Ij 1 04 0 0 1 034 0 1 038 0 1 033 0 1016 0 1 011 0 1 0 05 0 1 000 0 0994 0 0989 0 0984 0 0979 0 0974 0 0969 0 0964 0 0959 0 0955 0 095 0 0 0945 0 0941
0. 0 0 0 Ij 0 0 0 0 0 0 0 0 0 Ij 0 0 0 0 0 0 0 Ij 0 IJ 0 0 Ij 0 0 0 0 Ij Ij 0 0 0 Ij 0 0 0 0 Ij 0 0 Ij 0 0 0 0
17 0 0 1386 1374 1 363 1353 1341 1331 1331 131 1 1303 1193 1 133 1 174 1 166 1 157 1 149 1141 1 133 1 135 1117 1110 1 1 03 1 095 1 088 1 083 1 075 1 068 1 063 1 055 1 049 1 043 1 037 1 031 1 035 1 019 1 014 1 008 1 003 0997 0993 0937 0983 0977 0973 0967 0963 0957 0953 0948 Q944
0 0 0 0 0 0 0 0 0 ij 0 0 0 0 Ij 0 0 0 Ij 0 0 û 0 0 0 Ij n 0 0 0 0 0 0 0 0 Ij 0 Ij 0 0 Ij 0 0 0 0 0 0 0 Ij Ij
18 0 0 139 0 1379 1367 1356 1346 1335 1335 1315 13 06 1196 1 187 1178 1170 1161 1153 1144 1136 1139 1131 1113 11 ûé 1 099 1 093 1 085 1 078 1 071 1 065 1 058 1 053 1 046 1 04 0 1 034 1 033 1 033 1017 1011 1 0 05 11j ij 0 0995 099 0 0984 0979 0974 0969 0965 096 0 0955 0951 0946
ij 0 0 0 0 ij 0 0 0 Ij 0 0 0 0 0 0 0 0 Ij 0 Ij IJ 0 0 0 0 Ij 0 0 0 Ij IJ 0 Ij 0 0 0 0 0 0 0 0 0 0 0 Ij 0 0 0 0
1900 1395 1383 1373 1361 135 0 134 0 1 339 1319 1310 13 0 0 1191 1183 1173 1 165 1156 1148 1 140 1133 1 134 1117 11 09 11 03 1 095 1 088 1 081 1 074 1 063 1 061 1 055 1 049 1 043 1 037 1 031 1 035 1 019 1014 1 0 08 1 0 03 0997 0993 0937 0933 0977 0973 0967 0963 0958 0953 09481
0. 3 0 0 0 0. 1399 1387 0. 1376 0. 1365 Ij. 1354 0. 1344 Ij. 1333 1333 1314 0. 1304 1195 0. 1186 0. 1177 0. 1168 Ij. 1 1 6 0 Ij. 1151 0. 1143 Ij. 1135 0. 1138 0. 1130 IJ. 1113 Ij. 1105 0. 1 098 0. 1 091 0. 1 034 0. 1077 0. 1 071 0. 1 064 0. 1 058 0. 1 053 Ij. 1 046 Ij. 1 04 0 Ij 1 034 1 038 0. 1 033 Ij 1 016 0 1011 IJ 1 005 0 1 000 Ij 0995 0 099 0 0 0984 0 0979 Ij 0974 0 097 0 0 0965 0 096 0 Ij 0955 0 0951
442
Anhang - Tabellen
Forts. Tab. 4 V
51 52 53 54 55 56 57 5S 59 ÓÜ 61 6-£ 63 64 6-5 66 67 68 69 70 71 7£ 73 74 75 76 77 73 79 30 81 3£ 33 34 35 36 37 88 S9 9U 91 9£ 93 94 95 96 97 98 99
0. £ 1 0 0 0. ££ 0 0 0. £ 3 0 0 0. 0. 1303 0. 13 08 0 1312 0 0. 1 £9£ 0. 1£96 0. 13 0 0 0 0. 1 £8 0 0. 1£84 0. 1£88 0 0. 1£69 0. 1 £73 0. 1 £77 0 0, 1£58 0. 1£6£ 0 1 £66 0 0. 1 £43 0. 1£51 0. 1£55 0 0. 1£37 0. 1£41 0. 1 £45 0 0. 1££7 0. 1£31 0. 1 £35 0 0. 1 £ 1 7 0 1££ 1 0. 1££5 0 0. 1 £08 0 1£1 1 0. 1 £ 15 0 0. 1 198 0 1 £ 0£ 0 1 £ 06 0 0. 1 139 Cl. 1193 0. 1196 0 0 1130 0. 1134 0 1187 0 0. 117£ 0. 1175 0 1178 0 0 1163 0. 1167 0 1170 0 0. 1155 0. 1158 0 1161 0 0 1 147 0. 1150 0 1153 0 0 1 139 0. 114£ 0 1 145 0 0 1131 0. 1134 0 1 137 0 0 11 £ 3 0. 11 £6 0 1 1£9 0 0 1116 0. 1119 0 11££ 0 0 11 03 0. 1111 0 1114 0 0 1101 0. 1104 0 1107 0 0 1 094 0 1 097 0 11 0 0 0 0 1 087 0 109 0 0 1 093 0 0 1 03 0 0 1 083 0 1 036 0 n 1 074 0 1 077 0 1 079 0 0 1 067 0 1 07 0 0 1 073 III 0 1 061 0 1 064 0 1 066 0 0 1 055 0 1057 0 1 06 0 0 0 1 048 0 1 05 1 0 1 054 IJ 0 1 04£ M 1 045 0 1 048 0 0 1 036 0 1 039 0 1 04£ 0 0 1 03 0 0 1 033 0 1 036 0 0 1 0£5 1] 1 0£7 0 1 03 0 0 0 1 019 0 1 0££ 0 1 0£4 0 0 1 013 0 1 0 16 0 1 018 0 0 1 008 0 1010 0 1013 0 0 1 003 0 1 0 05 0 1 0 03 0 u 0997 LI 1 0 0 0 LI 1 U Lie IJ 0 099£ 0 0995 0 0997 0 0 0987 0 0989 0 099£ 0 0 093£ 0 0934 0 0937 0 0 0977 0 0979 0 098£ 0 0 097£ 0 0974 0 0977 IJ 0 0967 0 0969 0 097£ 0 0 Ü96£ 0 0965 0 0967 0 0 0953 0 096 Li 0 096£ 0 0 0953 0 0955 0 0953 0
x"'-Verteilung, Prozentpunkte c'4M[l 0 25 0 0 0 1316 0 132 0 0 13 04 0 13 03 0 1£9£ 0 1£96 0 1£81 0 1285 0 1 £ 7 0 0 1273 0 1259 0 1263 0 1£48 0 1252 0 1 £38 0 1242 0 1££8 0 1232 0 1 £ 13 0 1222 0 1 £ 09 IJ 1212 0 1 £ 0 0 0 12 03 0 1191 0 1194 0 1182 0 1135 0 1173 0 1176 0 1165 0 1 168 0 1156 0 1 159 0 1 148 0 1151 0 1140 IJ 1143 0 1 132 0 11 35 0 11£5 0 1128 0 1117 0 1120 0 1110 0 1113 0 11 03 IJ 11 06 0 1 096 0 1 099 0 1 089 0 1 092 0 1 082 0 1033 0 1 076 0 1 078 0 1 069 0 1072 0 1 063 0 1 065 0 1 056 0 1059 0 1 05 0 0 1 053 0 1 044 0 1 047 0 1 038 0 1 041 0 1 032 0 1 035 0 1 027 0 1 029 0 1 02 1 0 1 023 0 1 01 5 0 1 01 8 IJ 1 01 0 0 1 01 £ 0 1 OU 5 IJ 1 OU 7 IJ 0999 0 1 002 0 0994 0 0996 0 0939 0 0991 0 0984 0 0986 0 0979 0 0981 0 0974 0 0976 IJ 0969 0 0971 0 0964 0 0967 0 096 0 Ü 0962 0
26 0 0 0 1324 0 1312 0 1 3 0 0 IJ 1288 0 1277 0 1266 0 1256 0 1245 0 1235 0 1225 0 1216 0 12 06 IJ 1197 0 1183 0 1179 0 1171 0 1 162 0 1 154 IJ 1 146 0 1 138 0 1131 0 1 123 0 1116 0 1 1 08 0 1101 0 1 094 IJ 1 037 0 1 081 0 1 074 0 1 068 0 1 06 1 IJ 1 055 0 1 049 0 1 043 0 1 037 0 1031 n 1 026 Ij 1 02 0 0 1015 IJ 1 LILI 'r1 IJ 1 0 04 0 0998 0 0993 0 0933 0 0983 0 0978 0 0973 0 0969 0 0964 0
£70 0 1 328 1315 1304 1 £9£ 1281 127 0 1259 1249 1233 1229 1219 1209 12 0 0 1191 118£ 1174 1165 1157 1149 1141 1133 1126 1118 Uli 11 04 1 097 1 09 0 1 083 1 077 1 07 0 1 064 1 058 1 051 1 045 1 04 0 1 034 1 028 1 0££ 1 017 1011 1 006 1 0 01 0995 099 0 0935 098 0 0975 0971 0966
0. töOO 0 0. 133£ 0 0. 1319 0 0. 13 07 0 0. 1 £96 0 0. 1£84 0 0. 1273 0 0. 1262 0 0. 1£5£ 0 0. 1242 0 0. 1£3£ 0 0. 1222 0 0. 1213 0 0. 12 03 0 0 1194 IJ 0. 1135 0 0. 1177 0 0 1168 0 IJ 116 0 0 0. 1152 0 0. 1144 0 0. 1136 0 0. 1129 0 0. 1121 IJ 0. 1114 0 0 11 07 0 0 11 0 0 0 0 1 093 0 0. 1 086 0 0 1079 0 0. 1 073 0 0 1 066 0 0 1 06 0 0 0 1054 0 0 1 048 0 0 1 042 0 0 1 036 0 0 1 03 0 0 0 1 0£5 0 0 1019 0 IJ 1 Li 1 4 0 0 1 0 08 0 0 1 0 03 0 0 0998 0 0 0992 0 0 0987 0 0 0982 0 0 0978 0 0 0973 0 0 0968 0
29 0 0 0. 3 0 0 0 1 335 0. 1339 1323 0. 13£7 1311 0. 1314 1299 0. 1303 1288 0. 1£91 1277 0. 128 0 1266 0 . 1 £ 6 9 1255 0. 1259 1245 0 . 1 2 4 8 1235 0. 1238 1225 0 . 1 2 2 8 1216 0 . 1 2 1 9 12 06 0 . 1 2 09 1197 0. 1200 1188 0. 1191 1180 0 . 1 1 8 3 1171 0 . 1 1 7 4 1163 0. 1166 1155 0 . 1 1 5 7 1147 0. 1149 1139 0 . 1 1 4 2 1131 0. 1134 11£4 0 . 1 1 £ 6 1116 0. 1119 11 09 0. 111 £ 11 02 0 . 1 1 0 5 1 095 0. 1098 1 OSS 0 . 1 0 9 1 i o s e 0. 1084 1 075 0. 1 078 1 069 0. 1 071 1 062 O. 1 065 1 056 0. 1 059 1 05 0 0. 1 052 1IJ44 0. 1 046 1 038 0. 1 041 1 032 0. 1 035 1 027 0. 1029 1021 0. 1023 1 016 0 . 1 0 1 3 1 01 0 0. 1012 1 0 05 0. 1007 1 00 0 0. 1002 0995 0. 0997 0939 0. 0992 09S4 0. 0987 098 0 0. 0982 0975 0 . 0 9 7 7 097 0 0 . 0 9 7 2
Anhang — Tabellen
443
Forts. Tab. 4 V
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92
93 94 95 96 97 98 99
0. 31 0 0 0. 32 0 0 0. 1343 0. 1346 0. 133 0 0. 1334 0. 1318 0. 13££ 0. 1306 Ü. 1310 0. 1 £95 0. 1298 0 1283 0. 1£87 0. 1 £7£ 0. 1£76 0. 1£6£ 0. 1£65 0. 1£51 0. 1255 0. 1241 0. 1£44 0. 1 £31 0. 1 £35 0. 1£££ 0. 1££5 0. i e i E 0. 1£15 0. 1 £03 0. 1 £ 06 0. 1 194 0. 1197 0. 1185 0. 1188 0 1 177 0. 118 0 0. 1168 0. 1171 0. 1160 0. 1163 0 1152 0. 1155 0. 1 144 0. 1147 0. 1 137 0. 11 39 0. 1129 0. 1132 0. 11£2 0. 11£4 0. 1114 0. 1117 0. 1107 0. 1110 0. 1 1 0 0 0. 11 03 0. 1 093 0. 1 096 0. 1 087 0. 1 089 0. 1 080 0. 1 082 0. 1 073 0. 1 076 0. 1 067 0 1 069 0. 1 061 0 1 063 0. 1 055 0. 1057 0. 1 049 0. 1 051 0. 1 043 0. 1 045 0. 1 037 0. 1 039 0. 1 031 0 1 033 0. 1 0£6 0 1 Ü£8 0. 1 0£ 0 0 1 0££ 0. 1015 0 1017 0. 10 09 0 1011 0. 1004 0 1 0 06 0. 0999 0 1 0 01 0 0994 ü 0996 0 0988 0 099 0 0 0984 ü 0985 0 0979 0 098 1 0. 0974 0 0976
x~'-Verteilung, Prozentpunkte 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
3300 0. 3400 1350 0. 1354 1 337 0. 1341 13£5 0. 1328 1313 0. 1316 1301 0. 13 05 129 0 0. 1293 1279 0. 1282 1£68 0. 1£71 1 £58 0. 1261 1848 0. 1251 1238 0. 1241 1228 0. 1231 1218 0. 12£1 12 09 0. 1212 1 £ 0 0 0. 1203 1191 0. 1194 1 18£ 0. 1185 1174 0. 1177 1 166 0. 1168 1157 0. 1160 1 150 0. 1152 1 142 0. 1144 1 1 34 0. 1137 11£7 0. 11 £9 1119 0. 1122 1 11£ 0. 1115 1105 0. 11 07 1 098 0. 1100 1 091 0. 1 094 1 085 0. 1 087 1 078 0. 1 08 0 1 072 0. 1 074 1 065 0. 1 068 1 059 0. 1 061 1 053 0. 1055 1 047 0. 1 049 1 041 0. 1 043 1 035 0. 1 038 1 03 0 0. 1 032 1 024 0. 1 026 1 019 0. 1021 1 013 0. 1015 1 008 0. 1010 1 0 03 0. 1 0 05 0997 0. 0999 Ü99£ 0. 0994 0987 0. 0989 0982 0. 0984 0978 0. 098 0
0. 350 0 0. 360 0 0. 1357 0. 1361 0. 1344 0. 1348 0. 133£ 0 . 1 3 3 5 M 132 0 0 . 1 3 2 3 0. 13 08 0.1311 0. 1297 0. 13 0 0 0. 1285 0.1£89 0. 1£75 0 . 1 2 7 8 0. 1264 0. 1 £67 0. 1254 0. 1257 0. 1244 0. 1247 0. 1234 0. 1237 0. 1224 0. 1227 0. 1215 0. 1218 0. 1206 0. 12 08 0. 1197 0. 1199 0. 1188 0. 1 191 0 1179 0. 118£ 0. 1171 0. 1174 0. 1163 0. 1165 0. 1155 0. 1157 0. 1147 0. 1 149 0. 1139 0. 1 14£ 0, 1132 0 . 1 1 3 4 0 1124 0. 1 1 £7 0. 1117 0. 1119 0. 1110 0. 111 £ 0. 11 03 0.11 05 0. 1 096 0. 1098 0. 1 089 0. 1092 0 1 083 0. 1 085 0 1 076 0 . 1 0 7 8 0 1 07 0 0 . 1 0 7 2 0 1 064 0 . 1 0 6 6 0 1 057 0. 1 06 0 0 1 05 1 0. 1 054 0 1 045 0. 1 048 0 1 04 0 0. 1 04£ 0 1 034 0. 1 036 0 1 028 0. 1 03 0 0 1 023 0. 1 025 0 1017 0.1019 0 1012 0.1014 0 1 0 07 0. 1 0 09 0 1 0 0 1 0 . 1 0 03 0 0996 0 . 0 9 9 8 0 099 1 0 . 0 9 9 3 0 0986. 0 . 0 9 8 8 0 0981 0. 0983
0. 370 0 0. 38 0 0 0 . 1 3 6 4 0. 1368 0. 1351 0. 1355 0. 1339 0. 1342 0 . 1 3 2 6 0. 133 0 0 . 1 3 1 5 0. 1318 0. 13 03 0. 13 06 0. 1£9£ 0. 1£95 0. 1281 0. 1 £84 0. 127 0 0. 1273 0. 126 0 0. 1£63 0. 125 0 0. 1252 0. 1£40 0. 1242 0. 1230 0. 1233 0. 1 ££ 0 0. 1££3 0. 1211 0. 1£14 0. 1202 0. 12 05 0 . 1 1 9 3 0. 1196 0 . 1 1 8 5 0. 1187 0 . 1 1 7 6 0. 1179 0 . 1 1 6 8 0. 1170 0 . 1 1 6 0 0. 1162 0. 1152 0. 1154 0. 1144 0. 1147 0 . 1 1 3 6 0. 1139 0 . 1 1 2 9 0. 1131 0. 11££ 0. 1124 0. 1115 0. 1117 0. 1107 0. 1110 0. 1101 0. 11 03 0. 1 094 0. 1 096 0 . 1 0 8 7 0. 1 089 0 . 1 0 8 1 0. 1 083 0 . 1 0 7 4 0. 1 076 0 . 1 0 6 8 0. 1 07 0 0 . 1 0 6 2 0. 1 064 0 . 1 0 5 6 0. 1 058 0. 1 05 0 0. 1 052 0. 1 044 0 1 046 0. 1 038 0 1 04 0 0. 1 03 £ 0 1 034 0. 1 0£7 0 1 029 0. 1 021 0 1 023 0. 1016 0 1018 0. 1 01 0 0 i o i a 0. 1005 0 10 07 0. 1 0 0 0 0 1 0 0£ 0 . 0 9 9 5 0 0997 0. 099 0 0 0992 0 . 0 9 8 5 0 0987
0. 390 0 0. 1371 0. 1 358 0. 1345 0. 1333 0. 1321 0. 1309 0. 1 £98 0. 1 £87 0. 1276 0. 1 £66 0. 1255 0. 1245 0 1 £36 0. 1££6 0. 1£17 0. 1 £ 08 0. 1199 0 119 0 0 1181 0. 1173 0. 1165 0. 1157 0. 1 149 0. 1 141 0 1 134 0 1126 0. 1119 0 1112 0. 11 05 0 1 098 0 1 09 £ 0 1 085 0 1 079 0 1 07£ 0 1 066 0 1 06 0 0 1 054 0 1 048 0 1 04£ 0 1 036 0 1 031 0 1 0£5 0 1 02 0 0 1014 0 1 009 0 1 0 04 0 0999 0 0994 0 0989
0. 4 00 0 0. 1375 0. 1362 0 1349 0 1336 0. 1324 0. 1313 0. 1301 0. 1290 0. 1279 0. 1269 0. 1258 0. 1248 0. 1238 0. 1£29 0. 1£19 0. 1£1 0 0. 1201 0 1193 0 1184 0. 1176 0. 1167 0. 1159 0. 1151 0 1144 0 1136 0 1129 0 1122 0 1114 0 11 07 0 1101 0 1 094 0 1087 0 1 081 0 1 074 0 1068 0 1 06 £ 0 1 056 0 1 05 0 0 1 044 0 1 038 0 1 033 0 1 0£7 0 1 022 0 1016 0 1011 0 1 006 0 1 0 01 0 0995 0 099 0
444
Anhang - Tabellen
Forts. V
51 52 53 54 55 56 57 5S 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 73 79 53 0 SI SS 83 84 RS 86 S? 88 89 90 91 92 93 94 95 96 97 98 99
0. 0. 0. 0. 0. 0. 0. 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
X"'-Verteilung, Prozentpunkte
Tab. 4 41 0 0 1378 1 365 1 352 134 0 1328 1316 13 04 1293 1 £82 1272 1261 1251 1241 1232 1222 1213 1204 1195 1187 1178 1170 1162 1154 1146 1139 1131 1124 1117 1110 11 03 1 096 1 089 1 083 1 076 1 07 0 1 064 1 058 1 052 1 046 1 04 0 1 035 1 029 1 024 1018 1013 1 008 1 002 0997 0992
0. 4 2 0 0 0. 1382 0. 1368 0. 1355 Ij. 1 3 4 3 0. 1331 0. 1319 0 . 13 07 0. 1 2 9 6 0. 1 2 8 5 0. 1275 0. 1264 0. 1254 0. 1244 0. 1234 0. 1225 0. 1216 0 . 12 07 0. 1198 0. 1189 0. 1 1 8 1 0. 1172 0. 1 1 6 4 0. 1156 0. 1149 0. 1141 0 1133 0 1126 0 1119 0 1112 0. 1 1 0 5 0 1 098 0. 1 0 9 2 0 1 085 IJ 1 0 7 9 0 1072 0 1 066 0 1 06 0 0 1 054 0 1 048 0 1042 0 1 037 0 1031 0 1 025 n 1 02 0 0 •1015 Ij 1 009 0 1 0 04 0 0999 0 0994
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0 0. 0 Ij 0. 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 M M 0
4 >¡0 0 1 385 1 372 1359 1346 1334 1322 1311 1299 1288 1277 1267 1257 1247 1237 1228 1218 12 09 1200 1192 1183 1175 1167 1 159 1151 1 143 1136 1 128 1121 1114 11 07 11 0 0 1 094 1 087 1081 1074 1 068 1 062 1 056 1 05 0 1044 1 038 1 033 1027 1 022 1017 1011 1 Ü 06 1 0 01 0996
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 n 0 0 0 0 0 0 0 0 0 0 Ij 0 0 0 0 0 0 0 0 III 0 0 0 0 0 0 0 0 0 0 0 0
44 0 0 1389 1375 1362 135 0 1337 1325 1314 13 02 1291 128 0 127 0 126 0 125 0 124 0 123 0 1221 1212 1203 1194 1186 1177 1169 1161 1153 1146 1138 1131 1123 1116 11 09 11 03 1 096 1 089 1 083 1 076 1 07 0 1 064 1 058 1052 1 046 1 04 0 1 035 1 029 1 024 1018 1 013 1 008 1 003 0998
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0 0 0. 0. 0 0 0 0 0 0 0 0 IJ
0 0 0 M 0 0 0 0 0 0 0 Ij 0 0 0 Ij 0 0 0 0 0 0
450 0 1392 1379 1366 1353 134 0 1328 1317 1305 1294 1283 1273 1263 1252 1243 1233 1224 1215 1206 1197 1188 1180 1172 1164 1156 1148 1140 1133 1126 1119 1112 11 0 5 1 098 1 091 1 085 1 078 1072 1 066 1 06 0 1 054 1 048 1042 1 037 1 031 1026 102 0 1015 1010 1 0 05 0999
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Ij 0 Ij Ij 0 0 0 0 0 0 III 0 0 Ij Ij 0 0 0 0 0 0 0 0 0 0 0 0 0
4 6 00 1396 1382 1 369 1356 1344 1332 1320 1 3 08 1297 1286 1276 1265 1255 1245 1236 1226 1217 12 08 1199 1191 1182 1174 1166 1158 1150 1143 1135 1128 1121 1114 11 07 11 0 0 1 094 1 087 1 081 1 074 1 068 1 062 1 056 1 05 0 1 044 1 039 1 033 1 028 1022 1017 1 012 1 0 06 1 0 01
0, 0 0 Ij 0 0 0 Ij 0 0 0 0 0 0 0 0 0 0 Ij Ij 0 0 0 0 0 0 0 0 Ij 0 0 0 0 0 0 0 0 0 0 0 0 Ij 0 0 0 0 0 0 0 0
470 0 1399 1385 1372 1359 1347 1335 1323 1311 13 0 0 1289 1279 1268 1258 1248 1239 1229 122 0 121 1 1202 1193 1185 1177 1168 1161 1153 1145 1138 113 0 1123 1116 11 09 1 1 02 1 096 1 089 1 083 1 076 1 07 0 1 064 1 058 1 052 1 046 1041 1 035 1 029 1024 1 019 1013 1 008 1 003
ij 0 0 0 0 0 0 0 0 0 0 0 0 Ij Ij Ij Ij 0 0 Ij 0 0 0 0 0 0 0 0 0 0 0 Ij Ij 0 0 0 0 Ij ö 0 0 0 0 0 0 0
4 8 00 1402 1389 1376 1363 135 0 1338 1326 1315 13 0 3 1292 1282 1271 1261 1251 1241 1232 1222 1213 12 0 5 1196 1187 1179 1171 1163 1155 1147 114 0 1133 1125 1118 Uli 1104 1 098 1091 1 085 1 078 1 072 1 066 1 06 0 1 054 1 048 1 042 1037 1031 1 026 0 1 02 0 0 1015 0 1 01 0 0 1 005
0. 4 9 0 0 0. 1406 0. 1392 0. 1 3 7 9 0. 1366 0. 1 3 5 3 0. 1341 0. 1 3 2 9 0. 1 3 1 8 0. 1 3 0 6 0 1295 LI. 1 2 8 4 0. 1274 0 1264 0 1254 0 1244 0 1234 0 1225 0 1216 0 1207 0 1 198 0 1190 0 1 182 0 1 173 0 1 165 0 1 157 0 1 150 0 1 142 0 1135 0 1 128 0 1120 0 1114 0 1 107 0 1 100 0 1 093 0 1 087 0 1 08 0 0 1 074 0 1 068 0 1 062 0 1 056 0 1 05 0 Ij 1 0 4 4 0 1 039 0 1 033 0 1 028 0 1 022 0 1 017 0 1 012 0 1 0 07
5 0 0 l'l 141 0 1396 1382 1369 1357 1344 1332 1321 1309 1298 1£Ö? 1277 1267 1257 1247 1237 1228 1219 1210 1201 1192 1184 1176 1168 1160 1152 1145 1137 113 0 1123 1116 11 09 1102 1 095 1089 1 083 1 076 1 070 1064 1 058 1 052 1 046 1 04 1 1 035 103 0 0 1 024 0 1019 0 1014 0 1 OOS
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. IJ. 0. 0. 0. 0. 0. Ij. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. Ij. 0. 0. 0. 0. Ij. 0. Ij. 0. 0. 0. 0 0 0 0 0 Ij
Anhang — Tabellen
445
Forts. Tab. 4 V 51 52 53 54 55 56 57 58 5"? 60 61 62 63 64 65 66 67 6-8 69 70 71 7 c" 73 74 75 76 77 78 7'? 80 81 82 83 84 35 86 37 88 8'? 90 91 92 93 94 95 96 97 98 99
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0. 0 0. 0. 0. 0 0
51 00 1413 1 399 1386 1373 136 0 1348 1335 1324 1312 1301 1 £9 0 128 0 1269 1259 1249 1 24 0 123 0 1221 1212 1203 1195 1186 1178 1170 1162 1154 1147 1 139 1132 1125 1118 U l i 1 1 04 1 097 1 091 1 084 1 073 1072 1 066 1 06 0 1 054 1 048 1 04£ 1 037 1 031 1 0£6 1 02 0 1 015 1010
x"'-Verteilung, Prozentpunkte 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 fl 0 0 0 0 0 0 0 0 0 0 0 0 IJ 0 0 0 0 0 0 0 0
52 00 1417 1 4 03 1389 1376 1363 1351 1338 1327 1315 1304 1293 1283 1 £7£ 1£6£ 1252 1242 1233 1224 1215 1 2 06 1197 1139 1181 1173 1165 1157 1149 1 142 11 34 1127 1120 1113 1 1 06 11 00 1 093 1 087 1 03 0 1 074 1 068 1 062 1 056 1 05 0 1 045 1 039 1 033 1 028 1 0££ 1017 1 01 £
0 . 5:-iO0 0. 1 4 £ 0 0 . 1 4 06 0.139£ 0.1379 0.1366 0.1354 0.134£ 0.1330 0.1318 0. 1 3 07 0.1£96 0.1£85 0.1£75 0.1265 0.1255 0.1£45 0.1236 0.1££6 0.1217 0 . 1 2 09 0. 1 2 0 0 0.1191 0.1183 0. 1 1 7 5 0. 1 1 6 7 0. 1 1 5 9 0.1151 0.1144 0.1137 0.1129 0.1122 0. 1 1 1 5 0 . 1 1 08 0 . 1 1 02 0.1095 0.1089 0.1082 0.1076 0.107 0 0.1064 0. 1 0 5 8 0. 1 0 5 £ 0. 1 0 4 6 0. 1 0 4 1 0. 1 0 3 5 0. 1 03 0 0. 1 0 2 4 0. 1 0 1 9 0.1014
n. 5 4 0 0 0. 1 4 2 4 0 . 1 4 09 0. 1 3 9 6 0. 1 3 8 3 0. 1 3 7 0 0. 1 3 5 7 0. 1 3 4 5 0. 1 3 3 3 0. 1 3 £ 1 0. 1 3 1 0 0. 1 2 9 9 0. 1 2 8 8 0. 1 £ 7 8 0. 1 £ 6 8 0. 1 2 5 8 0. 1 £ 4 8 0. 1 2 3 8 0. 1 2 2 9 0. 1 2 2 0 0.1211 0. 1 2 02 0. 1 1 9 4 0. 1 1 8 6 0. 1 1 7 7 0. 1 1 6 9 0. 1 1 6 £ 0. 1 1 5 4 0. 1 1 4 6 0. 1 1 3 9 0. 1 1 3 2 0. 1 1 2 5 0. 1 1 1 8 0. 1 1 1 1 0 . 1 1 04 0.1097 0 . 1 09 1 0. 1 085 0. 1 0 7 8 0. 1 0 7 2 0. 1 066 0 . 1 06 0 0. 1 0 5 4 0. 1 048 0. 1 0 4 3 0. 1 0 3 7 0. 1 0 3 2 0. 1 0 £ 6 0. 1 0 £ 1 0.1016
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
55 00 1427 1413 1399 1386 1373 136 0 1348 1336 1325 1313 1 3 02 1291 1281 1271 1261 1251 1241 1232 1223 1214 1 2 05 1197 1188 1180 1172 1 164 1 156 1 149 1141 1 134 11£7 1120 1113 1 1 06 1100 1 093 1 087 1 08 0 1 074 1 068 1 062 1 056 105 0 1 045 1 039 1 034 1 0£8 1 023 1018
n 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0
0 IJ 0 0 0 0 0 0 0 0
56 00 1431 1417 1 4 03 1390 1377 1364 1352 1 34 0 1328 1316 1 3 05 1295 1284 1274 1264 1254 1244 1235 1226 1217 1 2 08 1 199 1191 1183 1174 1167 1 159 1151 1 144 1 1 36 1 129 1 122 1 115 1 1 09 1102 1 095 1 089 1 083 1 076 1 070 1 064 1 058 1 053 1 047 1 041 1 036 1 03 0 1 025 1 02 0
0. 5 7 0 0 0. 1 4 3 5 0. 1 4 £ 0 0. 1 4 0 7 0. 1 3 9 3 0. 1 3 8 0 0.1367 0. 1 3 5 5 0.1343 0.1331 0.1320 0. 1 3 0 8 0. 1 2 9 8 0. 1 £ 8 7 0. 1 £ 7 7 0. 1 £ 6 7 0.1257 0.1247 0.1238 0. 1 2 2 8 0. 1 2 1 9 0. 1 2 1 1 0. 1 2 0 2 0. 1 1 9 3 0. 1 1 8 5 0. 1 1 7 7 0. 1 1 6 9 0. 1 1 6 1 0. 1 1 5 4 0. 1 1 4 6 0. 1 1 3 9 0.1131 0.1124 0.1117 0.1111 0 . 1 1 04 0. 1 097 0. 1 0 9 1 0. 1 084 0. 1 078 0. 1 0 7 £ 0. 1 066 0 . 1 06 0 0. 1 0 5 4 0.1049 0. 1 0 4 3 0..1 0 3 7 0. 1 03 £ 0. 1 0 2 7 0.1021
0 . 581") 0 0. 1 4 3 8 0.14£4 0.1410 0.1397 0.1384 0. 1 3 7 1 0.1358 0.1346 0.1334 0.1323 0.131£ 0. 1 3 0 1 0. 1 2 9 0 0. 1 2 8 0 0.1£69 0.1259 0. 1 2 5 0 0. 1 2 4 0 0.1231 0.1£££ 0.1213 0. 1 £ 0 4 0.1196 0.1187 0.1179 0.1171 0.1164 0.1156 0.1148 0. 1 1 4 1 0.1134 0.1127 0. 1 1 2 0 0. 1 1 1 3 0 . 1 1 06 0.1099 0.1093 0. 1 0 8 7 0 . 1 08 0 0.1074 0.1068 0.1062 0. 1 0 5 6 0. 1 0 5 1 0. 1 0 4 5 0.1039 0. 1 0 3 4 0. 1 0 2 8 0.1083
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IJ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0
5 9 no 1442 14£3 1414 140 0 1387 1 374 1 361 1 349 1337 1326 1315 1304 1 £93 1282 1 £7£ 1262 1 £5£ 1 £43 1 £34 1££5 1£16 1 £07 1198 1190 1182 1174 1166 1 158 1151 1143 1136 1129 1122 1115 1 1 08 1 1 02 1 095 1 089 1 082 1 076 1 07 0 1 064 1 058 1 053 1 047 1 04 1 1 036 1 03 0 1 025
fl. 6 0 fl 0 0. 1 4 4 6 0. 1 4 3 1 0. 1 4 1 7 0. 1 4 0 4 0. 1 3 9 0 0. 1 3 7 7 0. 1 3 6 5 0. 1 3 5 2 0.1341 0. 1 3 2 9 0. 1 3 1 8 0. 1 3 0 7 0. 1 2 9 6 0. 1 2 8 5 0. 1 2 7 5 0. 1 2 6 5 0.1255 0. 1 2 4 6 0.1236 0. 1 £ 2 7 0. 1 2 1 8 0. 1 2 1 0 0. 1 2 0 1 0. 1 1 9 3 0. 1 1 8 4 0. 1 1 7 6 0. 1 1 6 8 0. 1 1 6 1 0. 1 1 5 3 0. 1 1 4 6 0. 1 1 3 8 0. 1 1 3 1 0. 1 1 2 4 0. 1 1 1 7 0. 1 1 1 0 0 . 1 1 04 0.1097 0. 1 0 9 1 0.1085 0.1078 0. 1 U72 0. 1 066 0. 1 06 0 0. 1 0 5 5 0. 1 049 0. 1 0 4 3 0. 1 0 3 8 0.1032 0. 1 0 2 7
446
A n h a n g — Tabellen x '-Verteilung, Prozentpunkte
Forts. Tab. 4 V 51
0 . 6 1 Cl 0
0 . 6 c ' Cl Cl
0
6 3 0 0
Cl. 6 4 0 0
0. 6 5 0 0
0 . 6 6 0 0
0 . 6 7 0 0
0 . 6 8 0 0
0.
6 9 0 0
0 . 7 0 0 0
0.
145 0
0
0.
1 4 5 7
0. 1 4 6 1
0. 1 4 6 5
0
1 4 6 9
0.
1 4 7 4
0 . 1 4 7 8
0.
1 4 8 2
0.
1 4 8 6
Cl
1 4 5 4
0.
1 4 5 9
0 . 1 4 6 3
0.
1 4 6 7
0.
1471
1 4 4 4
CI.
1 4 4 8
0.
1 4 5 2
0.
1 4 5 6
1 4 5 3
5 2
0.
1 4 3 5
Cl
1 4 3 9
Cl. 1 4 4 3
0. 1 4 4 7
0. 145
0
53
0.
1421
0
1 4 2 5
0.
1 4 2 8
Cl. 1 4 3 2
0.
1 4 3 6
0
1 4 4 0
0.
54
0.
1 4 0 7
0
141 1
0
1 4 1 4
0. 1 4 1 8
Cl, 1 4 2 2
0
1 4 2 6
Cl. 1 4 3 0
Cl.
1 4 3 4
0.
1 4 3 8
0 . 1 4 4 2
0. 14
1 4 2 4
0.
1 4 2 8
0.
1 4 1 4 1401
5 5
0. 1 3 9 4
0
1 3 9 7
11. 1 4 0 1
0.
0
1 4 1 2
0.
1 4 1 6
0.
1 4 2 0
0.
5 6
0.
1381
Cl
1 3 8 4
Ci. 1 3 8 8
0. 1 3 9 1
0.
1 3 9 5
0
1 3 9 9
Cl. 1 4 0 3
0.
14
0 . 1 4 1
5 7
0.
1 3 6 8
0
1 3 7 2
0. 1
0. 1 3 7 9
0.
1 3 8 2
0
1 3 8 6
Cl. 1 3 8 9
0 . 1 3 9 3
0 . 1 3 9 7
0.
5 8
0.
1 3 5 6
0
1 3 5 9
0.
0.
0.
137 0
0
1 3 7 3
0.
1 3 7 7
0.
0 . 1 3 8 4
0 . 1 3 8 8
3 7 5
1 3 6 3
14
05
1 3 6 6
08
06
138
0
0
59
0.
1 3 4 4
0
1 3 4 7
0.
1351
0.
1 3 5 4
0
1 3 5 7
Cl
1361
0.
1
3 6 4
0 . 1 3 6 8
0 . 1 3 7 2
0 . 1 3 7 6
60
0.
1 3 3 2
0
1 3 3 5
0.
1 3 3 9
0.
1 3 4 2
0.
1 3 4 5
Cl
1 3 4 9
0.
1
3 5 2
0 . 1 3 5 6
0 . 1 3 6 Cl
0.
1 3 6 3
61
0.
1321
0
1 3 2 4
0.
1 3 2 7
0.
1331
0.
1 3 3 4
0
1 3 3 7
0.
1341
Cl.
0.
0.
1 3 5 1
6 2
0.
131 0
0
1 3 1 3
0.
1 3 1 6
0.
1 3 1 9
0
1 3 2 3
0
1 3 2 6
0.
1
0 . 1 3 3 3
0 . 1 3 3 6
0 . 1 3 4
6*3
0.
1 2 9 9
0
13
0.
13
0.
1 3 0 8
0.
1 3 1 2
0
1 3 1 5
Cl. 1 3 1 8
0 . 1 3 2 2
0.
0.
1 3 2 9
64
0.
1 2 8 8
0
1291
0.
1 2 9 5
0.
1 2 9 8
0.
1301
Cl
13
0.
1 3 0 7
0 . 1 3 1 1
0 . 1 3 1 4
0.
1 3 1 7
65
0.
1 2 7 8
0
1281
0.
1 2 8 4
0.
1 2 8 7
0
129
0
Cl
1 2 9 3
0.
1 2 9 7
0.
130
0. 13
Ci.
1 3 0 7
66
0.
1 2 6 8
0
1271
0.
1 2 7 4
0.
1 2 7 7
0.
128
0
0
1 2 8 3
0.
1 2 8 6
0.
129 0
0 . 1 2 9 3
0.
1 2 9 6
1 2 6 7
Cl. 1 2 7
0
0
0
02
6 ?
0.
1 2 5 8
0
6 S
0.
1 2 4 9
69
0. 1
70
0
71
0. 1 2 2 1
7 2
0.
1 2 1 2
73
0
1 2 0 4
1 1 9 8 119 0
05
04
3 2 9
1 3 4 4
0
1 3 4 8
1 3 2 5
03
0
1261
0.
1 2 6 4
0.
1 2 7 3
0. 1 2 7 6
0 . 1 2 7 9
0.
1 2 8 3
0.
1 2 8 6
Cl
1251
0.
1 2 5 4
Cl. 1 2 5 7
0.
126
0
1 2 6 3
0.
1 2 6 6
Ci.
1 2 6 9
0.
1 2 7 3
0.
1 2 7 6
2 3 9
Cl
1 2 4 2
0.
1 2 4 5
Cl. 1 2 4 8
0
1251
Cl
1 2 5 4
0
1 2 5 7
0.
126 0
0.
1 2 6 3
0.
1 2 6 6
123 0
0
1 2 3 3
0
1 2 3 6
0. 1 2 3 8
0
1241
Ci
1 2 4 4
0
1 2 4 7
0.
125 0
0.
1 2 5 3
0.
1 2 5 7
1 2 2 4
0.
1 2 2 7
Cl. 1 2 2 9
0.
1 2 3 2
1.1
1 2 3 5
0.
1
0.
1241
0.
1 2 4 4
Cl.
1È4?
0
1 2 1 5
0.
1 2 1 8
Cl. 1 2 2 0
Ci. 1 2 2 3
0
1 2 2 6
0.
1 2 2 9
0 . 1 2 3 2
0.
1 2 3 5
0.
1 2 3 8
0
12
0.
12
0. 1 2 1 2
0
1 2 1 4
0
1 2 1 7
0
1 2 2 0
0.
0.
1 2 2 6
0.
1 2 2 9
Cl. 1 2 0 0
0. 12
0
12
06
Cl
12
0.
121 1
0 . 1 2 1 4
0 . 1 2 1 7
0.
0.
1 1 9 2
0.
1 1 9 5
0
1
197
Cl
12 0 0
0
1 2 0 3
0.
0 . 1 2
0.
1181
0
1 1 8 4
0.
1
187
0
1 1 8 9
0
1 1 9 2
0
1
0 . 1 1 9 7
0 . 1 2 0 0
0.
0.
1
179
0
1181
0
1 1 8 4
Ci
1 1 8 7
0.
1 1 8 9
0 . 1 1 9 2
0 . 1 1 9 5
1181
06
09
2 3 8
1 2 2 3
74
0.
1 1 9 5
Ci
75
0
1 1 8 7
0
76 77
0
1 1 7 9
0
1171
0
1 1 7 3
0
1
7 S
0
1
0
1 1 6 6
0
1 1 6 8
0.
1171
0
1 1 7 3
0
1 1 7 6
Cl
1 1 7 9
0.
0 . 1 1 8 4
Ci.
79
0
1 1 5 6
0
1 1 5 8
0
1 1 6 0
Cl. 1 1 6 3
0
1 1 6 6
Cl
1 1 6 8
CI
1171
0 . 1 1 7 3
0 . 1 1 7 6
0.
1 1 7 9
Cl
1 1 5 5
0
1 1 5 8
0
1161
Cl
1 1 6 3
0.
0 . 1 1 6 8
0.
1171
0
0 0
1141
8 2
0
1 1 3 4
y 3
0
1
126
Cl
84
0
1
120
35
0
86
09
195
12
06
09
1 2 2 0 1 2 1 2 12
03
1 1 8 7
115 0
0
0
1 1 4 3
Cl
1 1 4 6
0.
1
1 1 5 Cl
Cl
1 1 5 3
0
1 1 5 6
0 . 1 1 5 8
û . l l è i
0 . I i ê 4
0
1 1 3 6
0
1
0.
1141
0
1 1 4 3
0
1 1 4 6
Cl
1 1 4 8
0.
1151
Ci.
0.
1 1 5 6
1 1 2 9
0
1131
0.
1 1 3 4
0
1
0
1 1 3 8
0
1141
0.
1 1 4 4
0 . 1 1 4 6
0.
1 1 4 9
0
1 1 2 2
0
1 1 2 4
Ci
1 1 2 7
0
1 1 2 9
0
1131
Cl
1 1 3 4
0.
1 1 3 6
0 . 1 1 3 9
0.
1 1 4 2
1 1 1 3
0
1 1 1 5
0
1 1 1 7
0
1 1 2 0
0
1 1 2 2
0
1 1 2 4
0
1 1 2 7
0 . 1 1 2 9
0 . 1 1 3 2
0.
1 1 3 4
0
11
06
0
11
0
1111
0
1 1 1 3
0
1 1 1 5
0
1 1 1 8
Cl
1 1 2 0
0 . 1 1 2 3
0 . 1 1 2 5
0.
1 1 2 8
87
0
11 0 0
0
1 1 0 2
0
1 1 04
0
1 1 0 6
0
11
09
0
1111
0
1 1 1 3
0.
0 . 1 1 1 8
0 . 1 1 2 1
88
0
1
093
0
1 0 9 5
0
1
097
0
11 0 0
0
11
02
0
1 1 04
0
11
0 . 1 1 0 9
0.
1 1 2
0.
8 9
CI
1 08 7
Cl
1
0 8 9
0
1
091
0
1
093
0
1
0 9 6
0
1
098
Cl
1 1 0 0
0.
05
0.
9 0
CI
1 08 0
0
1
0 8 3
0
1
0 8 5
0
1
0 8 7
0
1
0 8 9
0
1
0 9 2
0
1
094
0 . 1 0 9 6
0 . 1 0 9 9
0.
91
0
1
074
0
1
076
0
1
079
0
1081
0
1
0 8 3
0
1
085
0
1
088
0.
1 09 0
0 . 1 0 9 2
0.
9 2
0
1
068
0
107 0
0
1
073
0
1
075
0
1
077
0
1 Cl 7 9
Cl
1
081
0.
1 0 8 4
0 . 1 0 8 6
I;I.
9 3
0
1
062
0
1
0
1
067
Cl
1
069
0
1 0 7 1
Cl
1
0 7 3
0
1
075
0 . 1 0 7 8
0. 1 08 0
0. 1
1
0 6 5
0
1
0 6 7
0
1
069
0 . 1 0 7 2
0 . 1 0 7 4
0.
Cl. 1 0 7 0
0
1
148
Cl
S 0 81
9 4
1
163
176
03
057
0
1
1
08
0 6 5 059
0
053
0
1 1 5 3
1
138
061
Ci
1
148
063
0
057
0
1
1 3 6
07
1 1 6 6
1 1 1 6
1 1 0 3
1 1 5 3
1
0 . 1 1
1 1 1 4 11
07
1101 1 0 9 5 088
1
0 8 2
1 076
0
1
051
Cl
055
0
059
0
1
061
0
1
063
0 . 1 0 6 6
0. 1
96
0
1
045
0
1 0 4 7
Cl
1
049
0
1051
0
1
0 5 3
0
1
056
0
1
058
0.
0.
1 0 6 2
0.
97
0
1
040
0
1 0 4 2
0
1
044
0
1
0 4 6
0
1
0 4 8
Cl
1
050
0
1 0 5 2
0 . 1 0 5 4
0.
1 0 5 6
0 . 1 0 5 9
98
0
1
034
0
1
036
0
1
0 3 8
0
1 04 0
0
1
0 4 2
0
1
044
Ci
1
0 . 1 0 4 9
Ci. 1 0 5 1
Ci. 1 0 5 3
9 9
0
1
029
0
1
031
0
1
033
0
1
0
1
037
0
1
039
Cl
1.041
0 . 1 0 4 3
Cl. 1
0.
95
1
1
035
046
1 06 0
0 6 8
0 4 5
1 0 6 4
1 047
Anhang - Tabellen
447
Forts. Tab. 4 V 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99
0. 71 0 0 0. 72 0 0 0. 1491 0. 1496 0. 1476 0. 1480 0. 1461 0. 1465 0. 1446 0. 145 0 0. 1432 0. 1436 0. 1418 0. 1422 0. 1405 0. 14 09 0. 1392 0. 1396 0. 1379 0. 1383 0. 1367 0. 1371 0. 1355 0. 1359 0. 1343 0. 1347 0. 1332 0. 1336 0. 1321 0. 1325 0. 131 0 0. 1314 0. 130 0 0. 13 03 0. 1289 0. 1293 0. 1279 0. 1 c! 8 0. 1269 0 1273 0. 1 26 0 0 1263 0 125 0 0. 1254 0. 1241 0 1244 0. 1232 0 1235 0. 1223 0 1226 0. 1215 0 1218 0. 1206 0 12 09 0. 1198 0 1201 0 119 0 0 1193 0. 1182 0 1185 0. 1174 0 1177 0. 1166 0 1169 0 1159 0 1162 0 1 151 0 1154 0 1144 0 1147 0 1137 0 114 0 0 1130 0 11 33 0 1123 0 1126 0 1117 0 1119 0 1110 0 1113 0 11 03 n 11 06 0 1097 0 11 00 0 1091 0 1 093 0 1 085 0 1087 0 1 079 0 1 081 0 1 073 0 1 075 0 1 067 0 1 069 0 1 061 0 1 063 0 1 055 0 1 058 0 1 05 0 0 1 052
-Verteilung, Prozentpunkte 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
73 00 0. 740 0 0. 75 0 0 1 500 15 05 0. 151 0 1485 0 1489 0. 1494 1474 0. 1479 1469 1455 0 1459 0. 1464 144 0 0 1445 0. 1449 1427 0 1431 0. 1435 1413 0 1417 0. 1422 1 4 0 0 0 1 4 04 0. 1408 1387 0 1391 0. 1396 1375 0 1379 0. 1383 1 363 0 1367 0. 1371 1351 0 1355 0. 1359 1339 0 1 343 0. 1347 1328 0 1 332 0. 1336 1317 0 1321 0. 1325 13 07 131 0 0. 1314 1296 0 13 0 0 0 1303 1286 0 129 0 0. 1293 1 276 128 0 0. 1283 1266 127 0 0. 1273 1257 0 126 0 0. 1264 1248 1251 0. 1254 1238 1242 0 1245 0 123 0 1233 Ij. 1236 1221 0 1224 0 1227 1212 0 1215 0 1219 1204 0 12 07 0 1210 1196 1199 0 12 02 1188 1191 0 1 194 1180 0 1183 0 1186 1172 1175 0 1178 1164 1167 0 1170 1 157 0 1160 0 1163 115 0 0 1153 0 1155 1143 0 1145 0 1148 1135 0 1138 0 1141 1129 1131 0 1134 1122 1124 0 1127 1115 1118 0 1121 11 09 1111 0 1114 11 02 1105 IJ 1 107 1 096 1 098 0 1101 1 09 0 0 1 092 0 1 095 0 1 083 1 086 0 1 089 1 077 1 08 0 0 1 082 1 072 1 074 0 1077 1 066 0 1 068 0 1071 1 06 0 0 1 062 0 1 065 1 054 0 1 057 0 1 059
0 76 0 0 0. 0. 1515 0 0. 1499 0 0. 1484 0 0. 1469 0 0. 1454 0 0. 144 0 0 0. 1426 0 0. 1413 IJ 0. 1 4 0 0 0 0 1387 0 0. 1 375 n 0. 1363 0 0. 1351 0 0. 134 0 0 0. 1329 0 0. 1318 0 0. 13 07 0 0. 1297 0 0. 1287 0 0. 1277 0 0. 1267 0 0 1258 0 0 1249 0 0 1239 0 0 1231 0 0 1222 IJ 0 1213 Ij 0 1205 0 0 1 197 0 0 1189 0 0 1181 0 0 1173 0 0 1166 0 0 1158 0 0 1151 0 0 1144 0 0 1137 0 IJ 1130 Ii 0 1123 0 0 1117 0 0 1110 0 0 11 04 0 0 1 097 0 0 1091 0 1 085 0 0 1 079 0 0 1 073 0 n 1 067 0 IJ 1 061 0
77 0 0 152 0 1504 1489 1473 1459 1445 1431 1417 1404 1392 1 379 1367 1355 1344 1333 1322 1311 1301 1291 1281 1271 1261 1252 1243 1234 1225 1217 1 208 12 0 0 1192 1184 1177 1169 1161 1154 1147 114 0 1 133 1126 1119 1113 1106 110 0 1 094 1 088 1 082 1 076 1 07 0 1 064
0. 78 0 0 0. 1525 0. 15 09 0. 1494 0. 1479 0. 1464 0. 1449 0. 1436 0. 1422 0. 14 09 0. 1396 0. 1384 0. 1372 0. 136 0 0. 1348 0. 1337 0. 1326 0. 1315 0 13 05 0. 1294 0 1284 0. 1275 0. 1265 0 1256 0 1247 0 1 238 0 1229 0 122 0 0 1212 0 12 04 0 1195 0 1187 0 1179 0 1172 0 1164 0 1157 0 1150 0 1143 0 1136 0 1129 0 1122 IJ 1116 0 11 09 0 11 03 0 1 096 0 1 09 0 0 1 084 0 1 078 0 1 072 0 1 067
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
790 0 1531 1515 1499 1484 1469 1454 144 0 1427 1414 14 01 1388 1376 1364 1352 1341 133 0 1319 1 309 1298 1288 1279 1269 1259 125 0 1241 1232 1224 1215 1207 1 199 1 191 1 183 1 175 1 168 1160 1153 1146 1 139 1132 1125 1119 1112 11 06 1 099 1 093 1 087 1 08 1 1 075 1 069
0. y 0 0 0 0. 1 537 0. 1520 0. 1504 0. 1489 0. 1474 0. 146 0 0. 1446 0. 1432 0. 1419 0. 14 06 0. 1393 0. 1381 0. 1369 0. 1357 0. 1346 0. 1334 0. 1324 0. 1313 0. 13 03 0. 1292 0. 1283 0. 1273 0 1263 0. 1254 0 1245 0 1236 0. 1227 0 1219 0 1210 0 1202 0 1194 0 1186 0 1 178 0 1171 0 1163 0 1156 0 1149 0 1 142 0 1 135 0 1128 0 1 122 0 1115 0 1 1 09 0 1102 0 1 096 0 1 09 0 0 1 084 0 1 078 0 1072
448
Anhang — Tabellen
Forts. Tab. 4 V
51 58 53 54 55 56 57 58 59 t. 0 61 6 iE: 6-3 64 65 66 67 6S 69 70 71 7£' f o
74 75 7 t77 78 79 80 81 88 83 84 85 86 87 88 89 90 91 98 93 94 95 96 97 98 99
0. 81 0 0 0. 88 0 0 0. ö3 0 0 0. 1543 0. 1549 0. 1555 0. 1586 0. 1532 0. 1538 0. 1510 0. 1516 0. 1588 0. 1495 0. 15 0 0 0. 15 06 0. 148 0 0. 1485 0. 1491 0. 1465 0. 1471 0. 1476 0. 1451 0. 1456 0. 1468 0. 1437 0. 1448 0. 1448 0. 1484 0. 1489 0. 1434 0. 1411 0. 1416 0. 1481 0. 1 398 0. 14 03 0. 1408 0. 1385 0. 1390 0. 1396 0. 1373 0. 1378 0. 1383 0. 1362 0. 1366 0. 1371 0. 135 0 0. 1355 0. 1359 0. 1 339 0. 1344 0. 1348 0. 1388 0. 1333 0. 1337 0. 1317 0. 1381 0. 1 386 0. 13 07 0. 1311 0. 1316 0. 1896 0. 13 01 0. 13 05 0. 1886 0. 1891 0. 1895 0. 1877 0. 1881 0. 1885 0. 1867 0. 1871 0. 1876 0. 1858 0. 1868 0. 1866 0. 1849 0. 1853 0. 1857 0. 184 0 0 1844 0. 1848 0. 1 83 1 0. 1835 0. 1839 0 1 888 0 1886 0 183 0 0 1814 0 1818 0 1888 0 1806 0 1810 0 1813 0 119S 0 1801 0 18 05 0 1 19 0 0 1193 0 1197 0 1 188 0 1186 0 1 189 0 1 174 0 1178 0 1 188 )J 1167 0 1170 0 1174 0 1 160 0 1163 0 1167 0 1158 0 1156 0 1159 0 1145 0 1149 0 1152 0 1138 0 1148 0 1145 0 1138 0 11 35 0 1138 0 1185 0 1188 0 1138 0 1118 0 1181 0 1185 0 1118 0 11 15 0 1118 0 11 05 0 11 09 0 1118 0 1 099 0 1108 0 11 06 0 1 093 0 1 096 0 1 099 0 1 087 0 1 09 0 0 1 093 0 1 081 0 10 8 4 0 1 087 0 1075 0 1 078 0 1 081
'-Verteilung, Prozentpunkte 0. 840 0 0. 85 0 0 0. 1568 0. 1569 0. 1545 0 1558 0. 1589 0 1535 0. 1513 0. 1519 0. 1497 0. 15 04 0. 1488 0. 1489 0. 1468 0. 1474 0. 1454 0. 146 0 0. 144 0 0. 1446 0. 1487 0 1433 0. 1414 0. 1419 0. 1401 0. 1406 0. 1388 0 1394 0. 1376 0 1388 0. 1365 0. 137 0 0. 1353 0. 1358 0. 1348 0. 1347 0. 1331 0. 1336 0. 138 0 0. 1385 0. 1310 0 1315 0. 1300 0. 1305 0. 189 0 0. 1895 0. 188 0 0. 1885 0. 1871 0. 1875 0. 1861 0 1866 0. 1858 0. 1857 0.1843 0. 1848 0. 1835 0 1839 0. 1886 0. 183 0 0.1818 0. 1888 0.1809 0 1814 0. 1801 0. 1805 0.1193 0 1 197 0. 1186 0. 119 0 0. 1178 0 1188 0. 1171 0 1174 0. 1163 0 1167 0. 1 156 0 116 0 0. 1149 0 1153 0. 1148 0 1146 0. 1135 0 1139 0. 1188 0 1138 0. 1188 0 1185 0. 1 115 0 1119 0. 1109 0 1113 0.11 03 0 1106 0. 1 097 0. 1100 0. 1 09 0 0 1 094 0. 1 084 0 1 088
0. 86 0 0 ü. 1576 ü. 1559 0. 1543 0. 1586 0. 1511 0. 1496 0. 1481 0. 1466 0. 1458 0. 1438 0. 1485 0. 1412 0. 1400 0. 1388 0. 1376 0. 1364 0. 1353 0. 1348 0. 1331 0. 1380 0. 1310 0. 13 0 0 0. 1890 0. 188 0 0 1871 0. 1262 0. 1258 0. 1844 III. 1835 0. 1886 0. 1818 0. 1810 0. 1808 0. 1194 0. 1186 0 1179 0 1171 0. 1164 0 1157 0 1150 0. 1143 0 1136 0 1189 0 1183 0. 1116 0. 1110 0. 11 04 0 1 093 0. 1 098
0. 870 0 0. 1584 0. 1567 0. 155 0 0. 1 534 0. 1518 0. 1503 0. 1488 0. 1 473 0. 1459 0. 1445 0. 1438 0. 1419 0. 1406 0. 1394 0. 1382 0. 137 0 0. 1358 0. 1347 0. 1336 0. 1386 0. 1315 0. 1305 0. 1895 0. 1885 0 1876 0. 1267 0. 1257 0. 1249 0. 124 0 0. 1231 0. 1223 0. 1215 0. 1206 0. 1199 0 1191 0. 1 183 0 1176 0 1168 0 1161 0 1154 0 1147 0 1140 0 1133 0 1 187 0 112 0 0 1114 0 11 08 0 1101 0 1 095
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 ü 0 0 ri 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Cl 0 III 0 0 0 0
88 0 0 1593 1575 1558 1548 1526 1510 1495 148 0 1466 1458 1438 1485 1413 14 0 0 1388 1376 1 365 1353 1348 1338 1321 1311 1301 1891 1881 1278 1263 1254 1245 1236 1888 1219 1811 1203 1196 1188 1180 1173 1166 1158 1151 1145 1138 1131 1185 1118 1118 11 06 1 099
0. 890 0 0. 1608 0. 1584 0. 1567 0. 155 0 0. 1534 0. 1518 0. 1508 0. 1488 0. 1473 0. 1459 0. 1446 0. 1432 0 142 0 0 14 07 0. 1395 0. 1 383 0. 1371 0 136 0 0 1 349 0 1338 0. 1387 0 1317 0 13 07 0 1897 0 1887 0 1878 0 1868 0 1859 0 185 0 0 1242 0 1233 0 1225 0 1217 0 12 08 0 1801 0 1193 0 1 185 0 1178 0 1170 0 1 163 0 1 156 0 1 149 0 1 148 0 1 136 0 1129 0 1123 0 1116 0 1110 0 1 104
0. 9 0 0 0 0. 161 1 0. 1 593 0. 1576 0. 1559 0. 1542 0. 1586 IJ. 1511 0. 1496 0. 1481 0. 1467 0. 1454 0. 144 0 0. 1487 0. 1414 0. 1402 0. 139 0 0. 1378 0. 1367 0. 1356 IJ. 1345 0. 1334 0. 1323 0. 1313 0. 13 03 0. 1 893 0. 1284 0. 1274 0. 1265 0. 1256 0. 1248 0. 1239 IJ. 123 0 11. 1888 0. 1214 0. 12 06 0. 1198 0. 1191 0. 1183 0. 1176 0. 1168 0. 1161 0. 1154 0. 1147 0 1141 0. 1134 IJ. 1187 0. 1181 0. 1115 0. 11 08
Anhang - Tabellen
449
Forts. Tab. 4 V 5 1 5
c
5 3
x"'-Verteilung, Prozentpunkte
0 . 9 1 0 0
0 .
9 2
0 .
9 3 0 0
0. 9 4 0 0
0 . 9 5 0 0
0 . 9 6 0 0
0 . 9 7 0
0 .
9 ö 0
0 .
9 9 0
0 .
1
0 .
1 6 3 3
0.
1 6 4 6
0.
1 6 6 1
0 .
1 6 7 7
0 .
1
0 .
1 7 2 3
0 .
1 7 5 8
0 .
1 8 1 4
0 .
1 6 0 4
0 .
1 6 1 5
0 .
1 6 2 7
0.
1 6 4 £
0 .
1 6 5 8
0 .
1 6 7 8
0
1 7
0 .
1 7 3 6
0 .
1
0 .
1 5 8 6
0.
1 5 9 7
0 .
1 6
0.
1 6 2 3
0.
1 6 3 9
0 .
1 6 5 9
0 .
1 6 8 3
0 .
1 7 1 6
0 .
1 7 7 0
0.
1 6 £
1
0.
1 6 4
0 .
1 6 6 4
0 .
1 6 9 6
0
1 7 4 9
0 4
6 £ £
0 0
0 9
5 4
0 .
1 5 6 9
0 .
1 5 7 9
0 .
1 5 9 £
0.
1 6
5 5
0 .
1
5 5 8
0 .
1 5 6 £
0
1 5 7 4
0.
1 5 8 7
5 6
0 .
1
5 3 6
0 .
1 5 4 6
0
1 5 5 7
0 .
1 5 7
5 7
0 .
1 5 £ 0
0 .
1 5 3
0 .
1 5 4 1
0 .
5 8
0 .
1 5 0 5
0 .
1 5 1 5
0 .
1 5 £ 6
5 9
0 .
1 4 9
0 .
1 5 0 0
0 .
6 0
0 .
1 4 7 6
0 .
1 4 8 6
0
0
0
0 5
6 9 8
0
0
0 3
ü
0
7 9 £
0
1 6
0.
1 6 £ £
0 .
1 6 4 5
0 .
1 6 7 7
IJ
1 7 2 9
0.
1 5 8 7
0 .
1 6
0 5
0 .
1 6 2 7
0 .
1 6 5 8
0
1 7
1 5 5 4
0 .
1 5 6 9
0 .
1
5 8 8
0.
1 6 1
0 .
1 6 9
0 .
1 5 3 8
0 .
1 5 5 3
0 .
1 5 7 1
0 .
1 6 7 2
1 5 1 1
0 .
1 5 2 3
0 .
1 5 3 7
0
1 4 9 6
0.
1 5
0
1 5 2 2
0
1 5 3 9
0 .
1 5
0.
1 5 £ 4
0 .
1 4 9 3
0.
1 5 0 9
0
0 8
6 1
0 .
1 4 6 8
0 .
1 4 7 1
0
1 4 8 2
0.
1 4 9 4
6 2
0 .
1 4 4 9
0 .
1 4 5 8
0 .
1 4 6 8
0 .
1 4 8
0
0 7
1 6 4
0
1 5 9 3
1 6 2 3
1 5 7 7
1 5 5 4 0 .
0
0
1 6
0 6
1 6 5 4
0
1
0 .
1 6 2
0 .
1 5 9
1 5 4 5
0 .
1 5 7 4
0
1 5 5 8
0 .
1 6
1 5 3
0
0
0 .
1 5 6 1
0.
0
0 9
6 3 6 0 0 3
6 3
0 .
1 4 3 5
0.
1 4 4 4
0 .
1 4 5 4
0.
1 4 6 6
0 .
1 4 7 9
0 .
1 4 9 5
1 5 1 4
0.
1 5 4 3
IJ
1 5 8 7
6 4
0 .
1
0
1 4 3 1
0 .
1 4 4 1
0.
1 4 5 2
0
1 4 6 5
0.
1 4 8 1
0 .
1 5 0 0
0 .
1 5 2 8
0 .
1 5 7 2
6 5
0 .
1 4 1 0
0 .
1 4 1 9
0 .
1 4 8 8
0 .
1 4 3 9
0.
1 4 5 2
0.
1 4 6 7
0 .
1 4 8 6
0 .
1 5 1 4
0
1 5 5 7
6-6
0 .
1 3 9 8
0 .
1 4
0 .
1 4 1 6
0.
1 4 2 7
0 .
1 4 3 9
0.
1 4 5 4
0 .
1 4 7 3
0
1 5 0
0 .
1 5 4 2
6 7
0 .
1
0 .
1 3 9 4
0 .
1 4
0 .
1 4 1 4
0 .
1 4 £ 7
0
1 4 4 1
0 .
1 4 6
0
1 4 8 6
0 .
1 5 2 8
1 4 0 2
0
1 4 2 9
0
1 4 4 7
0
1 4 7 3
0 .
1 5 1 4
0 .
1 4 1 7
0
1 4 3 4
0
1 4 6
0 .
1 5 0 0
0
1 4 £ £
0
1 4 4 8
0 .
1 4 8 7 1 4 7 4
4 8 3
3 8 6
0 6
0 4
0
0
6 8
0 .
1 3 7 4
0 .
1 3 8 3
0.
1 3 9 2
0 .
0 .
1 4 1 4
6 9
0 .
1 3 6 3
0 .
1 3 7 1
0
1 3 8 0
0 .
1 3 9 1
0 .
1 4
7 0
0 .
1 3 5 2
0.
1 3 6
0
1 3 6 9
0.
1 3 7 9
0 .
1 3 9 1
0
1 4
7 1
0 .
1 3 4 1
0.
1 3 4 9
0
1 3 5 8
0.
1 3 6 8
0 .
1 3 7 9
0 .
1 3 9 3
0
1 4 1 0
0
1 4 3 4
0 .
7 2
0 .
1 3 3 1
0 .
1 3 3 8
0
1 3 4 7
0.
1 3 5 7
0.
1 3 6 8
0 .
1 3 8 8
0
1 3 9 9
0
1 4 2 2
0
1 4 6 1
7 3
0
1 3 8
0 .
1 3 2 8
0
1
0.
1 3 4 6
0
1 3 5 7
0.
1 3 7 1
0
1 3 8 7
0
1 4 1
0
1 4 4 9 1
0
0
3 3 6
0 £
0 5
0
0
1 3 7 6
0
1 3 9 8
3 4 9
0
1 3 6 5
0
1 3 8 7
IJ
1 4 2 5
0
1
0
1 3 7 6
ij
1 4 1 4
1 3 2 9
0
1 3 4 4
0
1 3 6 6
0
1 4
1 3 1 9
0
1 3 3 4
0
1 3 5 5
0
1 3 9 1
0 9
0
1 3 2 4
£ 9 9
0
0
0 .
1 3 1 8
1 3 £ 6
0
1 3 3 6
0
1 3 4 7
0
1 3 6
0
1 3 0 0
0 .
1 3
0
1 3 1 6
0
1
0
1
0
1
7 6
0
1 8 9 1
0 .
1 2 9 8
0
1 3
0
1 3 1 5
0
1 3 2 6
0.
1 3 3 9
7 7
0
1 2 8 1
0 .
1 2 8 8
0
1 2 9 6
0
1 3 0 5
0
1 3 1 6
0
7 8
0
1 2 7 2
0.
1 2 7 9
0
1 2 8 7
0
1 2 9 6
0
1 3 0 6
0
7 9
0
1
0.
1 2 7
0
1 2 7 8
0
1 2 8 6
0
1
£ 9 7
0
1 3
8 0
0
1 8 5 4
0
1 2 6 1
0
1 2 6 9
0
1 2 7 7
0
1
£ 8 7
0
1
8 1
0
0
1 3 1
£ 6 3
0
1 2 4 5
0
0 8
0
1 2 5 2
0
0 6
1 £ 6
0
0
3 2 5
3 3 6
1 £ 9
0
3 5 5
0 2
0
1 3 4 5
0
1 3 8 1
1 3 1 4
0
1 3 3 5
0
1 3 7
0
1 3 0 5
0
1 3 2 5
0
1 3 6 0
1 2 9 5
0
1 3 1 5
0
1 3 5
0
1 3 4
0 0
0
0
1 £ 7 8
0
1 2 5 9
0
1 2 6 9
0
1 2 8 1
0
1
0
1 2 6
0
1 2 7 2
0
1 2 8 6
0
1 3
0
1 2 7 7
0
1 2 9 7
l'I
1 3 3
0
1 2 8 8
0
1 3 £ 1
0
1 2 7 9
0
1 3 1 1
1 2 7 0
0
1 3 0 2
8 2
0
1 2 3 7
0
1 2 4 3
0
1 £ 5 1
8 3
0
1 2 2 8
0
1 8 3 5
0
1 2 4 2
0
1 £ 5
8 4
0
1 2 2
0
0
1 £ £ 7
0
1 2 3 4
0
1
£ 4 2
0
1 £ 5 £
0
1 2 6 3
£ 3 4
0
8 5
0
1 £ 1 £
0
1 £
0
1 2 2 6
0
1
0
1 £ 4 3
0
1 2 5 5
0
1 2 6 9
8 6
0
1 £
0 4
0
1 £ 1 1
0
1 £ 1 8
0
1 2 2 6
0
1
0
1 2 4 6
0
1 2 6
8 7
0
1
1 9 6
0
1 2
0
1 £ 1 0
0
1 2 1 8
0
1 £ £ 7
0
1
0
1 2 5 1
0
0 3
4 3 7
1 2 6 8
0
1 9
0
0
7 5
7 4
0
£ 3 5
£ 3 8
0
0 6
0
8 8
0
1 1 8 9
0
1 1 9 5
0
1 2
0
1 £ 1 0
0
1 £ 1 9
0
1 2 3
0
1 2 4 3
0
1 2 6 2
0
1
8 9
0
1 1 8 1
0
1 1 8 7
0
1 1 9 4
0
1 2
0
1 2 1 1
0
1 2 2 2
0
1
0
1 2 5 3
0
1 2 8 5
9 0
0
1
1 7 4
0
1 1 8 0
0
1
1 8 7
0
1 1 9 5
0
1 2
0
1 2 1 4
0
1 £ £ 7
0
1 2 4 5
0
1
9 1
0
1
1 6 7
0
1 1 7 3
0
1
1 7 9
0
1
IJ
1 1 9 6
0
1 2
0
1 2 1 9
u
1 2 3 7
0
1 2 6 8
9 2
0
1 1 6 0
0
1 1 6 6
0
1 1 7 2
0
1 1 8 0
0
1 1 8 8
0
1 1 9 9
0
1 2 1 2
0
1 2 2 9
0
1 2 5 9
9 3
0
1 1 5 3
0
1 1 5 9
0
1 1 6 5
0
1 1 7 3
0
1 1 8 1
0
1 1 9 1
0
1 2 0 4
0
1 2 2 1
9 4
0
1 1 4 6
0
1 1 5 2
0
1 1 5 8
0
1 1 6 5
0
1 1 7 4
0
1 1 8 4
0
1
0
0
1
0
0
1 1 7 0
0
0
1 1 6 3
0
0
1 1 5 6
0
1
0
1 1 4 9
0
1 1 6 1
0 2
1 8 7
0 3
0
1 1 4 5
0
1 1 5 9
0
1 1 6 7
9 6
0
1 1 3 3
Cl
11
0
1
1 4 5
0
1 1 5 £
0
1 1 6
9 7
0
1 1 2 6
0
1 1 3 £
0
1
1 3 8
0
1 1 4 5
0
1 1 5 3
9 8
0
1 1 £
0
11
0
1 1 3 1
0
1
1 3 8
0
1 1 4 6
9 9
0
1 1 1 3
0
1 1 1 9
0
1 1
0
1
1 3 2
1]
1 1 4
9 5
0
1
1 3 9
0
3 8
£ 5
0
0 2
1 1 5 1
£ 5
0
0
0
0 6
1 7 7
£ 3 5
£ 9 3
£ 7 6
0
1
1 2 1 4
0
1 £ 4 1
1 1 8 9
0
1 £
0
1
1 1 8 2
0
1 1 9 9
0
1 2 2 6
1 1 7 5
0
1 1 9 1
0
1 2 1 8
0
1 1 8 4
0
1 2 1 1
0
1 1 7 7
Ci
1 2
1 9 7
1 6 8
0 6
£ 4 9
£ 3 3
0 4
450
Anhang — Tabellen
Tab. 5 HPD-Intervalle für a) die inverse Chi-Verteilung x~' in den Spalten (1) und (2)
.1
.1710
X_I(20,1)
1 .4
.2919
b) die logarithmische inverse Chi-Verteilung log x " ' ; in den Spalten (3) und (4) die bereits umgerechneten Werte für = exp(log x" 1 ) u n d in den Spalten (5) und (6) die in die Metrik für x 2 umgerechneten Werte; man erhält diese, indem man l / ( x ~ ' ) 2 bildet und beachtet, daß die oberen und unteren Intervallgrenzen zu vertauschen sind.
X
log x " 1 ( 2 0 , 0 )
1 1.2587 = ,298~2
32.3975
32.3975 = .1757"2
c) die inverse Chi-Quadrat-Verteilung X - 2 in den Spalten (7) und (8) Die Tabelle enthält die Werte für 90%, 95% und 99% HPD-Intervalle und für Freiheitsgrade von 1 bis 100.
0
.0275
2
0829
(20,1)
Anhang — Tabellen
451
Forts. Tab. 5 0.90
Xi V
1
£
3 4 5 6 7 ñ 9 10 11 12 13 14 15 16 17 18 19 £0 £1 22 £4 £5 £6 ¿7 £8 29 30 31 3£ 33 34 35 36 37 38 39 40 41 4£ 43 44 45 46 47 48 49 50
Xi (2)
(3)
(4)
,9767 £0 07 1 .33 0 0 0. 99 01 0. 8 071 III. 691£ 0., 61 05 0. 55 06 0., 5 042 0., 4668 0.,4361 0.,4103 0., 3883 0., 369£ 0., 35£4 0., 3376 0., 3£44 0.,31 £5 0.,3017 0., £919 0., £8£9 0., £747 0.,£671 0., £6 0 0 0.. £535 0.,£474 0,,£416 0.. £363 0.. £31£ 0.,££65 0,. £££0 0,,£177 0..£137 0., £099 0.. £ 062 0.. £ 0£8 0.. 1 995 0.. 1 963 0., 1933 0., 19 04 0., 1876 0,, 1849 0,. 18£4 0., 1799 0., 1775 0.. 1753 0,, 1731 0., 1709 0,. 1689 0.. 1669
0. 3997 0. 3566 0. 3£56 0. 3 021 0. £835 0. £683 0. £555 0. £446 0. £351 0. ££68 0. £193 0. £ 1 £6 0. £ 066 0. £ 01 0 0. 196 0 0. 1913 0. 187 0 0. 183 0 0. 1 79£ 0. 1757 0. 17£4 0. 1693 0. 1664 0. 1636 0. 1610 0. 1585 0. 1561 0. 1538 0. 1516 0. 1496 0. 1476 0. 1457 0. 1439 0. 14SI 0., 1404 0. 1388 0., 137£ 0. 1357 0. 1 343 0. 13£9 0. 1315 0. 13 02 0. 1 £89 0. 1 £77 0. 1£65 0. 1253 0. 1242 0. 1231 0. 1220 0. 1209
9,, 0843 2. 44£4 1., 4488 1., 0644 0. 859£ 0. 7304 0.,6413 0., 5757 0., 525 0 0.,4846 0.,4515 0.,4237 0.,4001 0., 3797 0.,3619 0., 3462 0., 33££ 0.,3197 0.,3083 0., £98 0 0., £886 0., 280 0 0., £7£ 0 0., £647 0.,£578 0.,£515 0.,£455 0., £399 0.,£347 0.. ££98 0..££51 0.. £207 0..2165 0..2126 0.,2 088 0,.2053 0.,£018 0., 1986 0., 1955 0., 19£5 0., 1896 0,, 1869 0., 1843 0., 1817 0.. 1793 0., 1770 0..1747 0.. 17£5 0..1704 0.. 1684
(1) 0. £718 0. £8£6 0. £757 0. £656 0. £55£ 0. £456 0. £368 0. ££88 0. ££15 0. £149 0. £088 0. £033 0. 1 98£ 0. 1 934 0. 189 0 0., 185 0 0., 1811 0.,1776 0., 1 74£ 0., 1710 0.,1680 0., 165£ 0., 16£5 0., 1600 0., 1575 0.. 1 55? 0., 1530 0., 1509 0.. 1489 0.. 1469 0., 1451 0., 1433 0., 1416 0.. 1399 0.. 1383 0,, 1368 0.. 1 353 0., 1338 0,. 13£5 0., 1311 0., 1£98 0.. 1 £85 0,. 1273 0.. 1 £61 0.. 1£50 0.. 1 £39 0.. 1££8 0.. 1 £ 17 0.. 1 £ 07 n. . 1197
X2
£.
(5) 0., 0121 0. 1676 0. 4764 0. 88£7 1. 3547 1. 8746 2. 4313 3. 0173 3. 6276 4. 2582 4. 9063 5, 5696 6. 2462 6., 9348 7, 6339 8., 34£7 9,, 0605 9,, 7861 10.,5190 11., £587 12., 0 048 12., 7567 13.,5140 14.,£765 15., 0438 15.,8157 16., 5918 17.,372 0 18., 1560 18., 9436 19., 7347 £0.,5291 21., 3267 22.. 1272 ££., 93 06 £3., 7368 £4., 5456 25., 3569 £6., 1707 £6., 9869 £7., 8052 28., 6258 29., 4485 3 0., £732 31., 0998 31., 9£84 32., 7588 33 , 59 09 34., 4£48 35., £6 04
X-2 (6)
6. £593 7. 8641 9. 4338 10. 9583 12. 4423 13. 8922 15. 3135 16. 71 08 18. 0874 19. 4463 £0. 7895 £ £ . 1189 23. 4361 £4. 7423 £6. 0386 £7. 3257 £8. 6 04£ £9. 8755 31. 1397 32. 3975 3 3. 6491 34. 8951 36. 1358 37. 3716 38., 60£6 39. 8£93 41. 0518 4£. £704 43., 485 1 44., 6964 45. 9043 47. 1 089 48., 31 04 49., 5 09 0 50. 7048 51 ,. 8978 53., 0883 54. 2762 55. 4618 56. 645 0 57 • 8261 59. 0049 60. 1817 61. 3565 6£. 5£94 63., 70 03 64.,8695 66., 0369 67., £0£6 68., 3666
(7)
(8)
0. 0461 63.,3351 0. 0555 4.,7517 0. 0567 1. 718 0 0. 055£ 0. 9469 0. Ü5£9 0. 6274 0. 05 03 0. 4598 0. 0478 0. 3586 0. 2919 0. 0454 0. 0431 0. 2449 0. 04 11 0. 21 02 0. 0392 0. 1836 0. 0374 0. 1627 0. 0358 0., 1458 0. 0344 0.,1319 IJ. 033 0 0., 1204 0., 11 06 0. 0317 0., 1 0££ 0. 03 06 0. 0295 0., 0949 0., 0885 0. 0285 0. 0275 0., 0829 IJ. 0267 0., 078 0 0. 0258 0., 0736 IJ. 0251 0., 0696 0. 0243 0., 0660 0. 0236 0., 0628 0. 0230 0., 0598 0. 0224 0., 0571 0. 0218 0., 0546 0. 0213 0., 0523 0. 02 07 0., 05 02 0. 02 02 0., 0483 0. 0198 0., 0465 0. 0193 0., 0448 0. 0189 0., 0432 0.. 0417 0. 0185 0. 0181 0., 04 04 0. 0177 0., 0391 0. 0174 0., 0379 0. 0170 0., 0367 0. 0167 0.. 0356 0. 0164 0., 0346 0. 0161 0., 0336 0. 0158 0., 0327 0. 0155 0., 0319 0. 0152 0., 0310 0. 0150 0., 03 03 0. 0147 0., 0£95 0. 0145 0., 0£88 0. 0142 0., 0£81 0. 014 0 0., 0£75
452
Anhang - Tabellen
Forts. Tab. 5 0.90
Xl V
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100
X"l
2
X-2
X
(1)
(2)
(3)
(4)
(5)
(6)
(7)
(8)
0. 1187 0. 1177 0. 1168 0. 1159 0. 1150 0. 1141 0. 1133 0. 1125 0. 1117 0. 1109 0. 1101 0. 1 093 0. 1 086 0. 1 079 0. 1 072 0. 1 065 0. 1 058 0. 1 051 0. 1 045 0. 1 038 0. 1 032 0. 1 026 0. 1 02 0 0. 1014 0. 1008 0. 1 0 02 0. 0997 0. 0991 0. 0986 0. 0980 0. 0975 0. 097 0 0. 0965 0. 0960 0. 0955 0. 0950 0. 0945 0. 0941 0. 0936 0. 0931 0. 0927 0. 0922 0. 0918 0. 0914 0. 0910 0. 09 05 0. 0901 0. 0897 0. 0893 0. 0889
0. 1650 0. 1631 0. 1613 0. 1596 0. 1579 0. 1562 0. 1546 0. 1531 0. 1516 0. 1501 0. 1487 0. 1473 0. 1460 0. 1447 0. 1434 0. 1421 0. 1409 0. 1397 0. 1386 0. 1374 0. 1363 0. 1352 0. 1342 0. 1331 0. 1321 0. 1311 0. 13 02 0. 1292 0. 1283 0. 1274 0. 1265 0. 1256 0. 1248 0. 1239 0. 1231 0. 1223 0. 1215 0. 12 07 0.,1199 0. 1192 0. 1185 0. 1177 0. 1170 0., 1163 0. 1156 0. 1150 0. 1143 0. 1136 0. 1130 0. 1124
0. 1199 0. 1189 0. 1180 0. 1170 0. 1161 0. 1152 0. 1144 0. 1135 0. 1127 0. 1119 0. 1111 0. 11 03 0. 1 095 0. 1 088 0. 1 08 0 0. 1 073 0. 1 066 0. 1 06 0 0. 1 053 0. 1046 0. 1 040 0. 1 033 0. 1027 0. 1021 0. 1015 0. 1 009 0. 1003 0. 0998 0. 0992 0. 0987 0. 0981 0. 0976 0. 0971 0. 0966 0. 0961 0. 0956 0. 0951 0. 0946 0. 0941 0. 0937 0. 0932 0. 0928 0. 0923 0. 0919 0. 0915 0. 091 0 0. 0906 0. 09 02 0. 0898 0. 0894
0. 1664 0. 1645 0. 1627 0., 1609 0. 1592 0. 1575 0. 1559 0. 1543 0. 1528 0. 1513 0. 1498 0. 1484 0. 1470 0. 1457 0. 1444 0. 1431 0. 1419 0. 1407 0. 1395 0. 1383 0. 1372 0. 1361 0. 135 0 0. 134 0 0. 1329 0. 1319 0. 1310 0. 1300 0. 1290 0. 1281 0. 1272 0. 1263 0., 1255 0. 1246 0. 1238 0. 1229 0. 1221 0.. 1213 0., 1206 0. 1198 0. 1191 0., 1183 0., 1 176 0., 1 169 0., 1 162 0. 1155 0.,1148 0. 1142 0. 1 135 0., 1129
36., 0975 36., 9363 37 ,7766 38.,6183 39., 4615 40. 3062 41 . 1521 41. 9995 42.,8481 43., 6979 44., 549 1 45. 4014 46. 2549 47. 1 096 47. 9654 48., 8222 49. 6801 50. 5392 51. 3992 52., 26 03 53., 1223 53. 9853 54., 849 1 55., 7140 56., 5797 57., 4463 58.,3138 59., 1822 60., 0513 60., 921.3 61., 7921 62., 6637 63.,5361 64., 4092 65., 2832 66., 1578 67., 0331 67., 9091 68., 7857 69., 6633 70., 5414 71.,4201 72.. 2997 73.. 1798 74., 06 04 74., 941 7 75., 8236 76., 7 062 77., 5893 78., 4731
529 0 7 0. 6899 71. 8493 73., 0073 74., 1637 75. 3187 76. 4724 77. 6247 78. 7759 79. 9258 81. 0743 82. 2218 83. 368 0 84. 5131 85 6571 86. 8 0 01 87. 9419 89. 0826 9 0. 2223 91. 3611 92. 4989 93. 6357 94. 7718 95. 9067 97. 04 08 98. 1740 99.,3063 1 00., 4378 101. 5685 102. 6984 1 03.,8273 1 04., 9556 1 06., 0831 107. 2099 108., 3358 109., 461 0 110., 5856 111., 7094 112., 8326 113., 9549 115., 0767 116., 1980 117.,3182 118.. 438 0 119., 5574 120., 676 0 121. 7939 122.,9112 124., 0278 125., 1441
0. 0138 0. 0136 0. 0133 0. 0131 0. 0129 0. 0128 0. 0126 0. 0124 0. 0122 0. 0121 0. 0119 0. 0117 0. 0116 0. 0114 0. 0113 0. 0111 0. 0110 0. 0109 0. 0107 0. 01 06 0. 01 05 0. 01 04 0. 01 02 0. 01 01 0. 0100 0. 0 099 0. 0098 0. 0 097 0. 0096 0. 0 095 0. 0 094 0. 0 093 0. 0 092 0. 0 091 0. 0 090 0. 0 089 0. 0 088 0. 0 037 0. 0 086 0. 0 086 0. 0 085 0. 0 084 0. 0 083 0. 0 082 0. 0 082 0. 0 081 0. 0 080 0. 0 08 0 0. 0 079 0. 0078
0. 0268 0. 0262 0. 0257 0. 0251 0. 0246 0. 0241 0. 0236 0. 0231 0. 0227 IJ. 0223 0. 0218 0. 0214 0. 0211 0. 0207 0. 0203 0. 020 0 0. 0196 0. 0193 0. 019 0 0. 0187 0. 0184 0. 0181 0. 0178 0. 0175 0. 0173 0. 0170 0. 0168 0. 0165 0. 0163 0. 0161 0. 0158 0. 0156 0. 0154 0. 0152 0. 015 0 0. 0148 0. 0146 0. 0144 0. 0143 0. 0141 0. 0139 0. 0137 0. 0136 0. 0134 0. 0133 0. 0131 0.. 013 0 •0. 0128 0. 0127 0. 0125
Anhang — Tabellen
453
Forts. Tab. 5 0.95 1
X" "
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 £0 £1 22
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 £4 . 0 £5 0 £6 0 £7 0 0 £8 £9 0 0 30 31 0 3£ 0 0 33 0 34 0 35 0 36 37 0 38 0 39 0 40 0 41 0 4£ 0 43 0 44 0 45 0 46 0 47 0 0 48 0 49 0 50
(1)
2
X"' (2)
£446 15 96 11 £57£ 3. 139 0 2533 1. 7028 £456 1 £ 0£3 £374 0 9495 0 796£ ££94 0 69£5 £££0 0 6174 £152 0 56 01 £089 0 5148 2032 0 4780 1978 0 4474 19£9 1884 0 4£ 14 0 3991 184£ 18 03 0 3797 0 36£6 1766 0 3475 1731 1699 0 3339 1668 0 3217 164 0 0 31 06 0 3 0 05 161£ 0 1586 £913 0 £827 156£ 1538 0 2749 0 2676 1516 1495 0 £6 08 1474 0 £544 l'I £485 1455 1436 0 £43 0 1418 0 £377 0 £328 1401 0 ££81 1384 0 1368 0 1353 £195 0 £156 1338 0 £1 18 1324 1310 0 £082 0 £047 1 £96 1£83 0 £015 0 1983 1£71 1£59 0 1953 0 1 9£4 1 £47 1 £35 0 1 897 1££4 0 187 0 1£13 0 1845 0 18£ 0 1£03 1192 0 1796 1183 0 1773 1173 0 1751 1163 0 173 0
(3)
X"2
X (4)
0 3577 17 791 £ 0 3239 3 4354 £989 1 837£ 0 £795 1 £835 0 2638 1 0 054 0 £5 08 0 8377 0 £398 0 725 0 0 23 03 0 6436 n 2219 0 5819 0 2145 0 5333 0 2 079 0 4939 0 2 019 0 461£ 0 1965 0 4337 0 410 0 0 1915 0 3895 0 1869 0 3715 1827 0 1788 0 3556 0 1751 0 3413 0 3 £8 5 0 1717 0 1685 0 3169 0 3 063 1655 0 1626 0 £967 0 1599 0 £878 0 1574 0 2796 0 1549 0 £ 7£ 0 0 1526 0 £65 0 0 1504 0 £584 0 £5£3 1483 0 1463 0 £465 0 1444 0 £41 1 0 14£6 0 £36 0 0 1408 0 £31£ 0 1391 0 ££66 0 1375 0 £££3 0 1359 0 £18£ 0 1344 0 £143 0 1329 0 21 06 0 1315 0 £071 0 1301 0 £037 0 £005 0 1 £88 0 1£75 0 1974 0 1£63 0 1944 0 1251 0 1916 0 1239 0 1889 0 1££8 0 1 863 0 1217 0 1837 1 £ 06 0 1813 0 1196 0 179 0 0 1186 0 1767 0 1176 0 1745
(5)
0 003S 0. 0847 0. £963 0 6070 0 989£ 1 4£5 0 1. 90£6 £ 4139 2. 953£ 3. 516£ 4 0994 4 7 005 5 3171 5 9477 6. 59 08 7 £455 7 91 0 3 8 5844 9 £673 9581 10 6564 11 3616 12 0733 12 7910 13 5145 14 £433 14 9771 15 7158 16 4589 17 £064 17 958 0 18 7135 19 4726 £0 2354 £1 0016 21 7711 ¿c! 5436 £3 3191 £4 0976 £4 8789 £5 6628 £6 4493 d7 2383 £8 0297 £8 8£34 £9 6194 3 0 4176 31 £178 3£ 0£01 3£ 8244
(6)
(7)
7 8168 53 01 19 09 8 0£4 3686 8966 39£3 86 04 3 049 7£89 1348 5£47 90 03 263 0 6141 9539 £847 6 066 9£ 01 35 ££61 36 5£49 37 817 0 39 1 0£9 4 0 3829 41 6574 42 9£67 44 1911 45 45 09 46 7 06£ 47 9573 49 £044 50 4476 51 6873 52 9234 54 1561 55 3857 56 6123 57 8358 59 0565 60 £744 61 4898 62 7 0£5 63 91 £9 65 1£09 66 3265 6-7 5299 68 7311 69 9304 71 1275 7£ 3226
0. 0378 0. 0466 0. 0482 0. 0475 0. 0459 0. 0440 0. 04£ 0 0. 0401 0. 0383 0. 0367 0. 0351 0. 0337 0. 0323 0. 0311 0 03 0 0 0. 0289 0. 0279 0. 027 0 0. 0261 0. 0253 0. 0£45 0. 0£38 0. 0231 0. 0225 0. 0219 0. 0213 0. 0£08 0. 0£03 0. 01 98 0. 0193 0. 0189 0. 0184 0. 0180 0 0177 0. 0173 0. 0169 0. 0166 0. 0163 0. 0160 0. 0157 0. 0154 0. 0151 0. 0148 0. 0146 0. 0143 0 0141 0 01 39 0 0136 0 0134 0. 0132
11 12 14 15 17 18 20 21. 23 24 25 27 28 29 31 32
(8) • • • • • • •
9 £ 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
75££ 847 0 4119 8778 616 0 4657 3700 3045 £574 £££0 1945 1727 155 0 1404 1281 1177 1 088 1010 0942 0883 0829 0782 0739 0701 0666 0635 06 06 0579 0555 053£ 0511 049£ 0474 0457 0441 0426 0413 0399 0387 0376 0365 0354 0345 0335 0327 0318 031 0 03:03 0295
Anhang - Tabellen
454 Forts. Tab. 5
0.95
Xi
X"-l
2
X"2
X
V
(1)
(2)
(3)
(4)
51 52 53 54 55 56 57 58 59 60 61 6£ 63 64 65 66 67 68 69 70 71 7c! 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 9£ 93 94 95 96 97 98 99 100
0. 1154 0. 1145 0. 1136 0. 1128 0. 1119 0. 1111 0. 1103 0. 1095 0. 1 088 0. 1080 0. 1073 0. 1 066 0. 1059 0. 1 058 0. 1045 0. 1 039 0. 1032 0. 1 026 0. 1 08 0 0. 1013 0. 1 007 0. 1008 0. 0996 0. 0990 0. 0985 0. 0979 0. 0974 0. 0968 0. 0963 0. 0958 0. 0953 0. 0948 0. 0943 0. 0939 0., 0934 0., 0989 0,, 0985 0., 0980 0., 0916 0., 0911 0., 0907 Ii., 09 03 0., 0899 0., 0895 0., 0891 0., 0887 0., 0833 0., 0879 0., 0875 0., 0871
0. 1710 0. 1690 0. 1670 0. 1652 0. 1634 0. 1616 0. 1599 0. 1582 0. 1566 0. 1551 0. 1536 0. 1521 0. 1507 0. 1493 0. 1479 0. 1466 0. 1453 0. 1440 0. 1428 0. 1416 0. 1404 0. 1393 0. 1381 0. 1370 0. 1360 0. 1349 0. 1339 0. 1329 0. 1319 0. 1309 0. 1 3 0 0 0. 1291 0. 1282 0. 1273 0. 1264 0. 1256 0., 1247 0., 1239 0., 1231 0., 1223 0., 1215 0. 1208 0. 12 0 0 0., 1193 0., 1186 0., 1179 6. , 1172 0., 1165 0., 1158 0., 1151
0. 1166 0. 1157 0. 1148 0. 1139 0. 1130 0. 1122 0. 1114 0. 11 06 0. 1 098 0. 1 090 0. 1 082 0. 1075 0. 1 068 0. 1061 0. 1 054 0. 1047 0. 1 04 0 0. 1 034 0. 1027 0. 1 021 0. 1 015 0. 1 009 0. 1 0 03 0. 0997 0. 0992 0. 0986 0. 0981 0. 0975 0. 097 0 0. 0965 0. 0959 0. 0954 0. 0949 0. 0945 0. 094 0 0. 0935 0. 0930 0. 0926 0. 0921 0. 0917 0. 0912 0. 0908 0. 09 04 0. 090 0 0. 0896 0. 0891 0. 0887 0. 0883 0. 088 0 0. 0876
0. 1724 0. 1704 0. 1684 0. 1665 0. 1647 0. 1629 0. 1612 0. 1595 0. 1578 0. 1562 0. 1547 0. 1532 0. 1517 0. 1503 0. 1489 0. 1476 0. 1462 0. 145 0 0. 1437 0. 1425 0. 1413 0. 1401 0. 139 0 0. 1379 0. 1368 0. 1357 0. 1347 0. 1337 0. 1327 0. 1317 0. 1307 0. 1298 0. 1289 0. 128 0 0. 1271 0. 1262 0. 1254 0. 1246 0. 1237 0. 1229 0. 1222 0. 1214 0. 1206 0. 1199 0. 1191 0. 1184 0. 1177 0. 117 0 0. 1163 0. 1157
(5)
(6)
33. 6306 7--¡. 516 0 34. 4387 74. 7 075 35., 2486 75., 8970 36., 0603 77. 0849 36., 8737 78.,271 1 37., 6887 79.,4558 38., 5053 8 0., 6387 39., 3236 81.,8200 40., 1434 82., 9999 40. 9648 84. 1781 41. 7876 85. 355 0 42. 6118 86. 53 04 43. 4374 87. 7046 44. 2643 88. 8774 45., 0926 9 0. 0487 45. 9222 91. 2187 46.,7532 92. 3876 47., 5853 93.,5551 48.,4186 94.,7215 49., 2531 95., 8869 50., 0889 97., 0508 50., 9257 98.,2137 51., 7637 99., 3755 52.,6 028 10 0., 5361 53., 4430 101., 6957 54., 284 0 1 02., 8544 55., 1264 1 04., 0120 55., 9697 1 05., 1684 56.,8138 106., 324 0 57., 6591 107.,4786 58.,5 053 1 08., 6322 59., 3524 109., 7849 6 0., 2003 HO., 9369 61., 0494 112., 0876 61., 8991 113., 2377 62.. 7499 114. 3867 63., 6014 115., 535 0 64.. 4538 116.. 6824 65.,3071 1 17,. 3289 66.. 1612 118..9747 67., 0160 120.. 1199 6.7., 8716 121., 264 0 68., 7279 122..4077 69., 5852 123., 550 0 70.. 4432 124..6919 71,. 3 01 7 125.. 8333 72.. 1614 126.. 9734 73,. 0215 128.. 1132 73., 8822 129.. 2524 74,, 7438 130,. 39 07
(7)
(8)
0. 0130 0. 0128 0. 0126 0. 0124 0. 0123 0. 0121 0. 0119 0. 0118 0. 0116 0. 0114 0. 0113 0. 0111 0. 0110 0. 01 09 0. 0107 0. 01 06 0. 0105 0. 0103 0. 0102 0. 0101 0. 01 0 0 0. 0 099 0. 0098 0. 0096 0. 0095 0. 0094 0. 0093 0. 0 092 0. 0 091 0. 009 0 0. 009 0 0. 0089 0. 0088 0. 0087 0. 0 086 0. 0 085 0. 0 084 0. 0084 0. 0083 0. 0082 0., 0 081 0. 0 080 0. 0 080 0. 0 079 0. 0 078 0. 0078 0., 0077 0., 0076 0., 0 076. 0., 0 075
0. 0288 0. 0282 0. 0275 0. 0269 0., 0264 0., 0258 0. 0253 0. 0247 0. 0243 0. 0238 0. 0233 0. 0229 . 0. 0224 0. 0220 0. 0216 0. 0213 0. 02 09 0. 0205 0. 0202 0., 0198 0., 0195 0., 0192 0.,0189 0., 0186 0., 0183 0. 0180 0. 0178 0.,0175 0.,0172 Cl., 017 0 0., 0167 0., 0165 0., 0163 0., 0161 0., 0158 0., 0156 0., 0154 0., 0152 0.. 0150 0,. 0148 0.. 0147 0., 0145 0., 0143 0.,0141 0.. 0139 0.. 0138 0.. 0136 0.. 0135 0.. 0133 0., 0132
Anhang — Tabellen
455
Forts. Tab. 5 0.99 X"1 " 1 £ 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 £0 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 4£ 43 44 45 46 47 48 49 50
(1) 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0
0 0 0 0 0 0 0 0 0 0
2047 2189 2184 2140 2 086 £030 1976 19E5 1878 1833 1791 1753 1716 1682 1650 1620 1592 1565 1539 1515 1492 1471 1450 1430 1411 1393 1375 1 358 1 34£ 13£7 131 £ 1£97 1£33 1270 1257 1244 1232 1220 1209 1198 1187 1177 1167 1157 1147 1138 1 129 1 1£0 1111 11 03
X"1 (2)
79 7 2 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
7183 0668 9618 8452 3533 08 04 9 075 7880 7 0 02 633 0 5797 5363 5 0 02 4697 4435 4208 4 0 08 3831 3673 3531 3402 3285 3179 3080 2990 2906 £8£8 2756 2688 £625 2565 £509 £456 24 06 £359 2314 2271 2231 £192 2155 £1£0 £086 £054 £0£3 1993 1964 1937 1911 1885 1861
X2
(3) 0. £ 9 6 9 0. £ 7 4 4 0. 2 5 7 1 0. 2 4 3 2 0. £ 3 1 7 0. £ £ £ 0 0. 2 1 3 5 0. £ 0 6 1 0. 1996 0. 1937 0. 1884 11. 1836 0. 1791 0. 1750 0. 1713 0. 1677 0. 1645 0. 1614 0. 1585 0. 1558 0. 1532 0. 1508 0. 1485 0. 1463 0. 1442 0. 1423 0. 1404 0 1385 0. 1368 0 1351 0. 1335 0. 132 0 0. 1305 0. 1291 0. 1£77 0. 1 £ 6 4 0. 1251 0. 1238 0. 1££6 0. 1215 0. 1203 0 119£ 0. 1182 0. 1171 0 1161 0 1151 0 1142 0 1133 0 11£4 0 1115
(4) 86 7 3 1 1 1 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0
0
0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
£364 5656 1456 9462 4195 1281 9439 8170 7241 6531 5969 5512 5133 4813 4539 4302 4 093 3909 3745 3597 3464 3342 3232 3130 3 036 £95 0 £869 £795 £7£5 £66 0 £598 £54 0 £486 £435 £386 234 0 2296 2255 ££15 2177 2141 2107 £074 £042 2012 1982 1954 1927 1901 1876
(5) 0 0 0 0 0 0 1 1. 1 P £ 3 3 4 4 5. 5 6 7 7 8 8 9 10 10 11 12 12 13 14 14 15 16 16 17 18 18 19 20 £1 £1 ££ £3 £3 £4 £5 £6 £6 £7 28
0 0 01 0175 1011 £64 0 4963 7858 1££3 4981 9 071 3447 8 072 £915 7953 3164 8533 4 045 9687 5448 132 0 7293 3362 9519 5759 £077 8467 49£7 1452 8038 4682 1383 8136 494 0 1791 8689 5631 2616 964 0 6702 38 04 0941 8113 5317 £555 9825 7126 4452 1807 9194 66 05 404 0
X"2 (6)
11 13 15 16 18 £0 £1 £3 £5 £6 £8 £9 31 32 34 35 36 38 39 41 4£ 43 45 46 48 49 50 5£ 53 54 56 57 58 60 61 6'2 63 65 66 67 69 70 71 7£ 74 75 76 77 79 80
34£8 £853 1265 9 0 05 62 03 £943 9£95 5314 1 04£ 6517 1766 6818 1689 6399 096 0 5387 969£ 3384 7966 1955 585 0 966 0 339 0 7044 06£9 4146 7598 0993 4331 761£ 0843 4 0££ 7158 0£45 3£88 6£91 9256 2183 5069 7923 0741 353 0 6283 90 03 1693 4362 7000 96 04 2186 4745
(7) 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0 0 0 0 0
0269 0343 0363 0364 0357 0346 0334 0322 031 0 0£99 0£88 0£78 0£63 0£59 0251 0243 0£35 0228 0£££ 0£ 16 021 0 0£ 04 0199 0194 0189 0185 018 0 0176 01 7£ 0169 0165 016£ 0159 0155 0152 0150 0147 0144 0142 0139 0137 0134 0132 0 1 30 0128 0126 0124 0122 01 £ 0 0119
(8) • • • • • • •
49.759£ 8.7119 3.3688 1.8070 1.1495 0. 8 097 0 . 6 099 0.4814 0.3932 0.3297 0.£8£1 0.£454 0.£164 0. 193 0 0.1737 0. 1 5 7 7 0.1441 0.13£5 0.1225 0.1137 0 . 1061 0.0993 0.0933 0. 0 8 7 9 0.0831 0.0787 0.0748 0.0711 0.0678 0.0648 0. 062 0 0.0595 0.0571 0.0549 0.0528 0.0509 0.0491 0.0474 0.0458 0.0444 0. 043 0 0.0417 0.0404 0.0392 0.0381 0.0371 0.0361 0.0351 0.0342
456
Anhang — Tabellen
Forts. Tab. 5 0.99
X" i V
(1)
(2)
51 52 53 54 55 5b 57 5h 59 60 61 62 63 64 65 66 67 63 .69 70 71 73 7:3 74 75 76 77 78 79 80 81 82 83 84 85 86 y7 88 89 90 91 9£ 93 94 95 96 97 98 99 10Ò
0. 1094 0. 1 086 0. 1078 0. 1071 0. 1 063 0. 1056 0. 1 049 0. 1 043 0. 1 035 0. 1 038 0. 1 032 0. 1015 0. 1 009 0. 1 0 03 0. 0996 0. 0990 0. 0985 0. 0979 0 0973 0. 0968 0 0962 0 0957 0 0952 0 0947 0 0941 0 0936 0 0932 0. 0937 0 0922 0 0917 0 0913 0 09 08 0 09 04 0 0899 0 0895 0 0891 0 0887 0 0883 0 0879 0 0875 0 0871 0 0867 0 0363 0 0859 0 0855 0 0852 0 0848 0 0844 0 0841 0 0-337
0. 1837 0. 1814 0. 1792 0. 1770 0. 175 0 0. 1730 0. 1710 0. 1692 0. 1673 0. 1656 0. 1638 0. 1622 0. 16 05 0. 1589 0. 1574 0. 1559 0. 1545 0. 1530 0. 1516 0. 15 03 0. 1490 0. 1477 0. 1464 0. 1452 0. 144 0 0. 1428 0. 1417 0. 1406 0. 1395 0. 1 384 0. 1374 0. 1363 0. 1353 0. 1343 0. 1 334 0. 1324 0. 1315 0. 13 06 0. 1297 0. 1288 0. 128 0 0. 1271 0. 1263 0. 1255 0. 1247 0. 1239 0. 1231 0. 1224 0. 1216 0. 1209
(3) 0 1106 0 1 098 0 1 09 0 0 1082 0 1074 0 1 066 0 1 059 0 1 052 0 1 044 0 1 037 0 1031 0 1 024 0 1017 0 1011 0 10 05 0 0999 0 0993 0 0987 0 0981 0 0975 0 097 0 0 0964 0 0959 0 0953 0 0948 0 0943 0 0938 0 0933 0 0928 0 0924 0 0919 0 0914 0 091 0 0 0905 0 0901 0 0896 0 0392 0 0888 0 0884 0 088 0 0 0876 0 0872 0 0868 0 0864 0 086 0 0 0356 0 0853 0 0849 0 0846 0 0842
X"2
X2
X" (5)
(4) 0 1852 0 1829 0 1806 0 1784 0 1763 0 1743 0 172-3 0 1704 0 1685 0 1667 0 165 0 0 1633 0 1616 0 160 0 0 1585 0 1569 0 1555 0 154 0 0 1526 0 1512 0 1499 0 1486 0 1473 0 1461 0 1448 0 1437 0 1425 0 1414 0 1403 0 1392 0 1381 0 1371 0 136 0 0 135 0 0 1341 0 1331 0 1322 n 1312 0 1303 0 1295 0 1286 0 1277 0 1269 0 1261 0 1253 0 1245 0 1237 0 1229 0 1222 0 1214
29 29 30 31 32 32 33 34 35 35 36 37 33 39 39 40 41 42 42 43 44 45 46 46 47 48 49 50 50 51 52 53 54 54 55 56 57 58 5y 59 60 61 6¡í! 6£ 63 64 6>5 66 66 67
15 02 8987 6497 4029 1585 9161 6757 4376 2016 9674 7351 5044 2759 0491 8241 6 0 08 3791 1591 94 07 7232 5 079 294 0 0818 87 08 6612 4531 2457 04 01 836 0 6329 4312 23 09 0317 3329 636 0 44 03 2457 0519 8597 6677 4774 288 0 0998 9125 7261 54 09 3568 173 0 99 0 0 8 03 0
(6)
(?)
31 7276 82 9786 84 £271 85 4733 86 7170 87 9589 89 199 0 9 0 4366 91 67£ 1 92 9057 94 1376 95 3681 96 5963 97 8225 99 0471 0 0 2699 01 4913 02 7109 03 9289 05 1466 06 3613 07 575 0 08 7367 09 9973 11 2 066 12 4143 13 6218 14 8271 16 0310 17 2337 18 4351 19 6351 2 0 3339 22 033 0 23 2294 24 4249 25 6192 26 8129 28 0047 £9 1 969 3 0 3369 31 5762 32 7642 33 951 1 35 1374 36 3222 37 5 059 38 6897 39 8729 41 0549
0. 0117 0. 0115 0. 0114 0. 0112 0. 0111 0. 01 09 0. 01 08 0. 01 06 0. 01 05 0. 01 04 0. 01 02 0. 01 01 0. 0100 0. 0 099 0. 0097 0. 0096 0. 0095 0. 0094 0. 0093 0. 0092 0. 0 091 0. 0090 0. 0089 0 0 088 0 0 087 0. 0 086 0. 0085 0. 0085 0. 0034 0. 0083 0. 0 082 0 0 081 0. 0 08 0 0 0 08 0 0. 0079 0. 0078 0. 0078 0. 0077 0 0 076 0 0 075 0 0 075 0 0074 0. 0073 0 0 073 0 0 072 0 0072 0 0 071 0 0070 0 0 070 0 0069
(8) 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ü 0 0 0 0
0334 0325 0318 031 0 0 303 0296 0289 0283 0£77 0271 0266 026 0 0255 025 0 0245 0241 0236 0232 0228 0££4 022 0 0216 0213 02 09 02 06 0£0£ 0199 0196 0193 0190 0187 0184 018£ 0179 0176 0174 0172 0169 0167 0165 0163 016 0 0158 0156 0154 015£ 0151 0149 0147 0145
A n h a n g — Tabellen
457
Tab. 6 Prozentpunkte der Standard-F-Verteilung für p = 0.95 und p = 0.99 In der ersten Spalte steht immer vl; ist die Summe aus der zweiten Spalte und einem Wert, der am Kopf der Tabelle steht. Beispiel: Gesucht ist der 95%-Punkt für 12 und 15 Freiheitsgrade: Wir suchen in der ersten Spalte die Zeilen mit dem Wert 12, wir zerlegen 15 in 10 + 5 und finden in der Zeile „10" und der Spalte „5" den Wert F = 2.48. Beispiel: Gesucht ist der 99%-Punkt für 40 und 12 Freiheitsgrade: Wir suchen in der ersten Spalte die Zeilen mit dem Wert 40; wir zerlegen 12 in 10 + 2 und finden in der Zeile „10" unter der Spalte „2" den F-Wert 3.62. Mit Hilfe der Tabelle lassen sich auch für p = 0.05 und p = 0.01 die Prozentpunkte bestimmen. Dazu wird die Reziproksymmetrie verwendet: 1. Gehe vom Komplement der Wahrscheinlichkeit aus! 2. Suche den Wert für vertauschte Freiheitsgrade! 3. Der reziproke Wert davon ist das Ergebnis. Beispiel: Gesucht ist der 5%-Punkt für 7 und 44 Freiheitsgrade: 1. Das Komplement der Wahrscheinlichkeit ist 0.95. 2. Der F-Wert für vertauschte Freiheitsgrade ist 3.33. 3. Der reziproke Wert davon ist 0.3 und dies ist der gesuchte F-Wert. Wenn i>i < 10 oder v2 < 10 wurde mit der Reihenentwicklung (Series Expansion, Abramowitz & Stegun, 1970, 26.6.4 bis 26.6.8) gearbeitet. Sind beide Freibeitsgräde größer 10, so wurde die Cornish-Fisher-Formel verwendet (Sahai & William, S. 89, Gleichung 19 und 20; die Gleichung 19 enthält Druckfehler, vgl. Kendali & Stuart, 1963,1, S. 380). Bei der Verwendung der Reihenentwicklung wurden die Prozentpunkte zunächst über die Cornish-FisherFormel geschätzt und dann mit der Sekanten-Methode auf die gesuchte Lösung hin iteriert, bis die gewünschte Rechengenauigkeit erfüllt war.
Fortsetzung Tabelle 6: siehe S. 458
458
Anhang — Tabellen
Forts. Tab. 6 "l »2 1 1 1 1 1
0 10 £0 30 40 £ 0 2 10 £0 £ 30 £ 40 3 0 3 10 3 £0 3 30 3 40 4 0 4 10 4 £0 4 30 4 40 •j 0 5 10 5 £0 5 30 5 40 >=• 0 6 10 6 £0 30 6 40 7 0 7 10 7 £0 7 30 7 40 8 0 8 10 8 £0 8 30 3 40 9 0 10 9 £0 9 30 9 40 lu 0 10 10 10 £0 10 30 10 40 11 0 11 10 11 £0 11 30 11 40 1£ 0 1£ 10 1£ £0 1£ 30 1£ 40
F-Verteilung, 95 %-Punkte 1
2
3
4
4 4 33 4 16 4 08
18 4 4 4 4 19
1 0 13 4 67 4 £8 4 14 4 07 9 54 3 81 3 4£ 3 £8 3 £1 9 £8 3 41 3 03 £ 89 £ 8£ 9 1£ 3 18 p 80 £ 6-6 £ 59 9 01 3 03 £ 64 £ 50 £ 43 8 94 £ 9£ £ 53 £ 39 £ 3£ 8 89 £ 83 £ 44 £ 30 £ £3 8 35 £ 77 £ 37 £ £3 16 8 81 £ 71 £ 3£ £ 18 £ 11 8 79 £ 67 £ £7 £ 13 £ 06 8 76 £ 63 £ £4 £ 09 £ 0£ 8 74 £ 60 £ £0 £ 06 1 98
7 4 4 4 4 6 3
3 98 47 3 31 3 ££ 3 59 3 07 £ 91 £ 83 3 £ £ £
36 84 68 60
3 £0 £ 68 £ 52 £ 44 3 £ £ £
09 57 41 33
3 £ £ £
01 49 3£ £4
£ 95 £ 4£ £ £5 £ 17 £ £ £ £
90 37 £0 1£
£ £ £ £
85 3£ 15 07
E ee £ £8 11 £ 03 £ £ £ £
79 £5 08 00
47 75 31 15 08 00 89 3 44 3 £9 3 ££ 19 16 3 49 3 05 £ 90 £ 83 19 £5 t; £6 £ 8£ £ 67 £ 59 19 3 0 3 11 £ 6-6 £ 51 £ 44 19 33 3 00 £ 55 £ 40 £ 32 19 35 £ 91 £ 46 £ 31 £ £4 19 37 £ 85 £ 40 £ £4 £ 17 19 41 £ 80 £ 34 £ 19 £ 11 19 41 £ 75 £ 30 £ 14 £ 07 19 4 0 £ 7£ £ £6 £ 10 2 0£ 19 4 0 £ 69 £3 £ 07 1 9'?
3 3 b 3 3 £ £ 6 3 £ £ £ K £
£ £ £ 6. £ £ £ £ t. £ £ £ £ 6 £ £ £ £ 6 £ £ £ £ 5 £ £ £ 5 £ £ £ £ 5 £ £ £ 1
71 60 £6 13 07 94 74 40 £8 £1 59 34 01 88 82 39 11 78 65 58 £6 96 6£ 49 43 16 85 51 •¿y 311 ü'r 76 4£ £9 £3 04 70 36 £3 16 00 65 30 17 10 96 60 £5 1£ 05 94 57 ££
08 01 91 53 18 05 98
5
6
£
6£ 5 54 4 £4 4 1£ 4 06 4 79 5 68 3 39 •p 3 £7 3 £0 3 41 4 £9 3 99 £ 87 £ 81 £ 19 4 06 3 76 £ 64 £ 58 £ 05 4 90 £ 60 £ 49 £ 4£ £ 95 4 79 £ 49 2 37 £ 31 £ 88 4 71 £ 40 £ £9 £ £ ££ 82 4 64 £ 34 £ £c! £ 15 £ 77 4 59 £ £8 £ 16 £ 10 £ 74 4 54 £ £4 £ 11 £ 05 £ 70 4 51 £ £0 £ 07 £ 01 £ 4 48 £ 16 £ 04 £ 97 1
4 4 4 4 5 3 3 3 3 5 3 £ £ £
5 3 £ £ £ 5 £ £ £ £ 4 £ £ £ £ 4 £ £ £ £ 4 £ £ £ £ 4 £ £ £ £ 4 £ £ £ £ 4 £ £ £ £ 4 £ £ £ 1
99 50
££
1£ 06 14 63 37 £6 £0 76 £4 98 87 81 5'J 01 74 63 57 39 85 59 48 4£ £8 74 47 36 30 £1 66 39 £8 ££
15 59 32 £1 15 10 54 £7 15 09 06 49
££
11 04 03 46 18 07 00 00 4£ 15 03 97
7
8
5 4 4 4 4 4 3 3 3 3 4 3 £ £
59 5 45 4 £1 4 11 4 05 4 73 4 59 3 36 3 £5 .3 19 35 4 £0 96 £ 86 £ 80 £ 1£ 3 96 £ 73 £ 63 £ 57 p 97 3 81 £ 57 £ 47 £ 41 £ 87 3 70 £ 46 £ 36 £ 30 £ 79 3 61 £ 37 £ £7 £ £1 £ 73 3 55 £ 31 £ £0 £ 14 £ 68 o 49 £ £5 £ 14 £ 09 £ 64 3 45 £ £0 £ 10 £ 04 £ fc- 0 3 41 £ 16 £ 06 £ 00 1 5? 3 38 d 13 £ Ü£ £ 96 1
£
4 £ £ £ £ 3 £ £ £ £ 3 £ £ £ £ 3 £ £ £ £ 3 £ £ £ £ 3 £ £ £ £ 3 £ £ £ £ 3 £ £ £ £ 3 £ £ £ 1
3£ 4£ £0 10 04 46 55 34 £4 19 07 16 95 85 30 84 93 71 6£ 57 69 ff 56. 46 41 58 6-6 45 35 £9 50 58 36. £6 £1 44 51 £9 19 14 39 46 £4 14 08 35 41 19 09 03 31 37 15 05 99 £8 34 1£ 0£ 96
9
10
5 1£ 4 38 4 18 4 09 4 04 4 £6 o 5£ 3 33 3 £4 p 18 •7/86 3 13 £ 93 £ 35 £ 79 p 63 £ 90 £ 70 £ 61 £ 56 43 £ 74 £ 55 £ 46 £ 40 3 37 £ 63 £ 43 £ 34 £ £9 3 £9 £ 54 £ 35 £ £6 £ £0 3 £3 £ 48 £ £8 £ 19 £ 13 3 18 £ 4£ £ ££ £ 13 £ 08 3 14 £ 38 £ 18 £ 08 £ 03 3 10 £ 34 £ 14 £ 04 1 99 07 £ 31 £ 10 £ 01 1 96
4. 96 4. 35 4. 1? 4. 09 4. 03 4. 1 0 3. 49 3. 3£ 3. 23 3. 18 3. 71 3. 10 £ 92 £ 84 £ 79 3. 48 £ 37 £ . 69 £ 61 £ . 56 3. 3 £ . 71 £ . 53 £ . 45 £ 40 3. £ £ £. 6 0 £ . 42 £ . 34 £9 3. 14 £ . 51 £ . 33 £ . £5 £0 3 • 07 45 £ . £7 £ . 18 13 3. 02 £ 39 £ £1 1£ £ 07 £ . 98 £ . 35 £ 16 £ . 08 £ . 03 £ 94 £ 31 1£ £ 04 1. 99 £ 91 £ 28 £ 09 £ 00 1
459
Anhang — Tabellen
F-Verteilung, 95%-Punkte
Forts. Tab. 6 "i »3 13 13 13 13 13 14 14 14 14 14 15 15 15 15 15 16 16 16 16 16 17 17 17 17 17 18 18 18 18 18 19 19 19 19 19 20 £0 £0 £0 £0 £1 £1 £1 £1 £1 ££
£2 22
££
£3 £3 £3 £3 £3 £4 £4 £4 £4 £4
0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40
2 1? 4 0 £ 66 £ £0 ££ 05 2 04 97 1 96 19 39 74 £ 64 17 £0 03 z> 01 94 i 9 3 19 39 7£ £ 6£ 18 £ 15 0 0 1 99 9£ 1 91 19 44 7 0 £ 60 16 £ 13 98 1 97 9 0 1 89 19 44 68 £ 58 14 £ 11 96 1 95 88 1 87 19 44 67 £ 57 1£ £ 1 0 95 1 94 86 1 86 19 44 66 £ 56 1 1 £ 08 93 1 9£ 85 1 84 19 45 65 £ 54 10 £ 07 9£ 1 91 33 1 33 19 45 64 £ 53 08 £ 06 91 1 9 0 8£ 1 81 19 45 63 £ 52 07 £ 05 90 1 83 81 1 8 0 19 45 6£ o 51 06 £ 04 88 1 87 8 0 1 79 19 46 61 £ 51 05 £ 0 3 88 1 86 79 1 78
£ 76
£
£ 1 £ £
£ 1 £ £
£
1
£ £ 1 1 £ 2 1 1 £ £ 1 1 £
£ 1 1 £ £ 1 1 £ £ 1 1 £
£ 1 1 £ £ 1 1 £ £ 1 1
3
4
S
s 73 2 58 £ 17 £ 03 1 95 s 7£ £ 55 £ 15 2 00 1 93 S 70 2 53 2 13 1 98 1 91 3 69 £ 51 £ 11 1 96 1 88 3 68 £ 50 £ 09 1 94 1 y7 y 67 2 48 2 08 1 93 1 85 s 67 2 47 £ 06 1 91 1 83 ^ 66 2 46 2 05 1 90 1 8£ 8 65 £ 45 £ 04 1 89 1 31 3 65 £ 44 £ 0£ 1 87 1 79 8 64 £ 43 £ 01 1 86 1 73 8 64 2 4£ o 01 i 85 i r i-
5. 89 £ 51 15 £ 0£ 1. 95 5. 87 £, 43 £ 13 1 99 1 9£ 5 86 £ 46 £ 11 1 97 1 90 5 34 £ 44 £ 09 1 95 1 83 5 83 £ 43 £ 07 1 93 1 86 5 8£ £ 41 £ 05 1 9£ 1 84 5 81 £ 40 £ 04 1 90 1 83 5 80 £ 39 £ 03 1 39 1 31 5 79 £ 38 £ 01 1 38 1 30 5 79 £ 37 £ 00 1 86 1 79 5 78 £ 361 99 1 85 1 78 5 77 £ 35 1 98 1 84 1 77
4 £ £ £ 1 4 £ £
1 1 4 £ £ 1 1 4 £ £ 1 1 4 £ £ 1 1 4 £ £ 1 1 4 £ £
1 1 4 £ £ 1 1 4 £ £ 1 1 4 £ 1 1 1 4 £ 1 1 1 4 £ 1 1 1
7
6 66 45 14 01 94 64 4£ 11 99 9£ 6£ 40 09 96 89 60 38 07 94 87 59 37 05 9£ 85 53 35 04 91 34 57 34 0£ 89 8£ 56 33 01 88 31 55 3£ 00 37 30 54 31 98 85 78 53 30 97 84 77 53 £9 96 83 76
£ £ £ 1 £ £ 1 1 3 £ £ 1 1 3 £ £ 1 1 .3 £ £ 1 1 3 £ £ 1 1 3 £
£ 1 1 3 £ 1 1 1 j! £ 1 1 1 3 £ 1 1 1 3 £ 1 1 1 .3 £ 1 1 1
98 40 1£ 00 94 96 37 09 98 91 94 35 07 95 89 92 33 05 93 8? 91 82 08 92 85 90 80 02 90 88 88 29 00 88 82 87 £8 99 87 80 86 26 98 86 79 86 £5 97 85 7y 85 24 96 88 =i 3 44 64 ¿8 £ 51 2 56 60 ¿7 2 £5 £ ¿3 1 1 2 1 0 £ 09
45 3 ¿8 2 60
•-f
2
2 '-t 3 2 2 2
9
2 2 2
9 3
2 2 2
£1 43 £6 59 33 £0 4£ £5 58 3£ 18 40 £4 5 t. 30 17 39
9 3 ££ 2 55 2 £9 2 16 9 3:3 3 £1 2 54 2 £8 2 14 9 37 3 £0 2 53 2 £7 2 13 y 36 3 19 2 5£ 2 £6 2 1£ 9 35 18 2 51 £ £5 2 11 •-4 34 3 18 2 50 2 £4 2 1 0 9 33 3 17 2 49 2 £3 2 09 9 3£ 3 16 2 48 2 £c! 2 08 •M 31 3 15 2 47 2 £1 2 08
7 30 3 16 £ 57 £ 33 £ £0 7 £8 3 15 £ 55 £ 3£ £ 19 7 £7 3 14 £ 54 £ 30 £ 17 7 C* 3 1£ £ 53 £ £9 £ 16 7 £4 3 11 £ 51 £ ¿8 £ 15 7 £3 3 10 £ 50 £ £6 £ 13 7 ££ 3 09 £ 49 £ £5 £ 1£ 7 £1 3 08 £ 48 £ £4 £ 11 7 £0 3 07 £ 47 £ £3 £ 10 7 19 3 06 £ 46 £ ££ £ 09 7 18 3 05 £ 45 £ £1 £ 08 7 17 3 05 £ 45 £ £1 £ 07 7 16 04 £ 44 £ £0 £ 07
6 06 3 07 2 54 £ 31 £ 19 t. 04 3 05 £ 52 £ 30 £ 18 6 03 3 04 £ 51 £ £8 £ 16 b 0£ 3 03 £ 49 £ £7 £ 15 t. 0 0 3 01 £ 48 £ £6 £ 14 e 99 3 00 £ 47 £ £5 £ 1£ 5 98 £ 99 £ 46 £ £4 £ 11 5 97 £ 98 £ 45 £ £3 £ 10 5 96 £ 97 £ 44 £ ££ £ 09 5 95 £ 96 £ 43 £ £1 £ 08 5 94 £ 96 £ 4£ £ £0 £ 07 5 94 £ 95 £ 41 £ 19 £ 06 £ 94 £ 41 £ 18 £ 06
5 £ £ £ £ 5 £ £ £ £ 5 £ £ £ £ 5 £ £ £ £
9 i=.'6 98 51 30 18 £5 97 49 SO 17 £3 95 48 £7 15
4 71 £ 91 £ 48 p £8 £ 17 4 70 2 89 £ 46 £ £7 £ 16 4 68 £ 88 £ 45 £ £6 £ 14 ££ 4 67 94 £ ¡37 46 £ 44 £6 £ £4 14 £ 13 4 66 j £1 £ 93 £ 86 £ 45 £ 4£ £4 £3 p 13 £ 1£ i? £0 4 65 £ 9£ £ 84 £ 44 £ 41 £ £3 £ ££ £ 1£ £ 11 5 19 4 64 £ 91 £ 83 £ 43 £ 4 0 £ £ £1 10 £ 09 5 18 4 63 £ 9 0 £ 8£ £ 4£ £ 39 £ £1 £ £0 £ 09 £ 08 5 17 4 6£ £ 89 £ 81 £ 41 £ 38 £ £ 0 £ 19 £ 08 £ 07 5 16 4 61 £ 88 £ 81 £ 40 37 £ 19 £ 18 £ 07 £ 06 5 15 4 6 0 £ 87 £ 8 0 £ 39 £ 36 £ 18 £ 17 £ 06 £ 05 5 14 4 59 £ 86 £ 79 £ 38 £ 35 £ 17 £ 16 £ 06 £ 05 14 4 59 £ 86 £ 73 £ 37 £ 35 £ 16 £ 15 05 £ £ 04
10 4 31 84 £ 45 £7 £ 17 4 30 83 £ 44 £ £6 15 4 £8 81 £ 4£ £ £4 £ 14 4 £7 £ 80 £ 41 £ £3 £ 1£ 4 £6 £ 79 £ 40 ££
£ 11 4 £5 £ 78 p 39 p £0 p 1 0 4 £4 £ 77 £ 38 p 19 £ 09 4 £3 £ 76 £ 36 £ 18 £ 08 4 ££ £ 75 £ 35 £ 17 £ 07 4 £1 £ 74 £ 35 £ 16 £ 06 4 £0 £ £ 34 £ 15 p 05 4 19 o 7£ £ 33 £ 14 £ 04 4 19 £ 7£ £ 3£ £ 14 £ 03
474
Anhang — Tabellen F-Verteilung, 99%-Punkte
Forts. Tab. 6
8 •38 33 38 38 38 39 39 39 39 39 w 40 40 40 40 41 41 41 41 41 4a 42 4£ 4£ 4£ 43 43 43 43 43 44 44 44 44 44 45 45 45 45 45 46 46 46 46 46 47 4? 47 47 47 48 48 48 48 48 49 49 49 49 49 50 50 50 50 50
0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £0 30 40 0 10 £o 30 40
•-T-4 3 £ £ £ 99 3 86 3 £ 64 £ £ £8 £ £ 11 ¿ 99 86 .3 £ 64 £ £ £7 £ 10 99 85 :3 £ 6.3 £ £ c'7 £ ? 09 £ 9Q 3 85 3 £ 6£ £ £ ¿6 £ £ 09 £ 99 o 84 3 £ 6£ £ £ £6 £ £ 08 £ 99 83 3 £ 61 £ £5 £ £ 08 £ 99 3 83 61 £ £ £4 £ £ 07 £ 99 8£ :3 £ 60 £ £ £4 £ £ 06 £ 99 8£ £ 60 £ £ £3 £ £ 06 £ 99 3 8£ 2 59 £ £ £3 £ £ 05 £ 99 3 81 £ 59 £ £ £ £ 05 £ 99 3 81 58 £ £ ££ £ £ 04 £ 3 87 £ 65 £ £9 £ 1£
66 6-3 60 £7 10 65 6£ 59 £6 10 64 6£ 58 £5 09 6-3 61 53 £5 03 6£ 61 5? £4 03 61 60 56 £•3 07 61 59 56 £3 06 60 59 55 ££
06 59 53 55 ££
£6 3 £ £ £ £6 3 £ £ £ £6 £ £ £ £6 £ £ £ £6 3 £ £ £ £6 3 £ £ £ £6 £ £ £ £6 3 £ £ £ £6 "i £ £ £ £6 3 £ £ £ £6
05 53 53 54 £1 05 53 53 54 £ £1 £ 04 £ 57 £6 57 53 £ £0 £ 04 £ 57 £6 57 3 53 £ £0 £ 03 £
34 13 73 44 3 £3 55 £ 51 z>ej £ £3 09 £ 03 13 77 4 3 3 £7 54 £ 5 0 £4 £ £ £ 03 £ 07 •3£ 13 76 4£ 3 £6 54 £ 49 £ 3 £ £1 03 £ Ü7 31 13 76 4£ 3 £6 5 3 £ 49 ££ £ £0 07 p 06 31 1 3 75 £5 41 5£ Z>48 ££ £ £0 06 £ 05 3 0 13 74 41 3 £5 5£ £ 47 £1 £ 19 06 £ 05 £9 13 74 40 £4 51 £ 47 £ £1 19 05 £ 04 £3 13 73 4 0 3 £4 51 £ 46 £ Ü £ 18 05 £ 0 3 £3 13 7£ 39 £3 5 0 £ 46 £ 0 £ 18 04 £ 0 3 £7 13 7£ •39 3 £3 5 0 £ 45 19 £ 17 0 3 £ 0£ £6 13 71 .3 £ £ 49 £ 45 19 £ 17 0 3 £ 0£ £6 1 3 71 33 ££ 49 £ 44 13 £ 16 0£ 01 £5 13 7 0 37 3 £1 43 £ 44 13 £ 16 0£ £ Ol
9 3 £ £ £ 9 3 £ £ £
31 14 47 £1 07 30 14 46 £0 06 £9 3 13 £ 45 £ 19 £ 05 y £9 1£ £ 45 £ 19 £ 05 •-t £3 3 1£ £ 44 £ 13 £ 04 £7 3 11 £ 4-3 £ 17 £ 03 9 £7 3 11 £ 43 £ 17 £ 03 9 30 .3 1 0 £ 4£ £ 16 £ 0£ 9 30 3 10 £ 4£ £ 16 £ 0£ '-4 £9 3 09 £ 41 £ 15 £ 01 9 £9 .3 09 £ 41 £ 15 c! 01 9 £3 3 03 £ 40 £ 14 £ 00 9 £3 3 03 £ 40 £ 14 £ 00
3 £ £ £ 7 3 £ £ £ 7 3 £ £ £ 7 3 £ £ £ 7 .3 £ £ £ 7 £ £ £ 7 £ £ £ £ 7 £ £ £ £
7 £ £ £ £ 7 £ £ £ £ 7 £ £ £ £ 7 £ £ £ 1 7 £ £ £ 1
16 03 43 19 06 15 Ü£ 4£ 13 05 14 0£ 4£ 13 04 14 01 41 17 04 13 01 40 16 03 13 00 40 16 0£ 1£ 99 •39 15 Ü£ 11 99 39 14 01 11 93 38 14 01 10 98 38 13 00 10 98 37 13 00 10 97 37 1£ 99 09 97 36 1£ 99
5 £ £ £ £ 5 £ £ £ £ •j £ £ £ £ 5 £ £ £ £ 5 £ £ £ £ 5 £ £ £ £ 5 £ £ £ £ 5 £ £ £ £ 5 £ £ £ £ 5 £ £ £ 1 5 £ £ £ 1 5 £
£ £ 1 5 £ £ £ 1
9£ 93 40 17 05 9£ 93 -3 9 17 04 91 9£ 33 16 03 -i ij 91 •3:3 15 03 90 91 37 15 0£ 39 90 37 14 01 39 90 •36 13 01 3:3 39 35 13 00 33 39 •DCj 1£ 00 37 33 34 1£ 99 y7 33 34 11 99 ;-:K 37 33 11 93 86 37 33 10 93
5 £ £ £ £ 5 £ £ £ £ 5 £ £ £ £ 5 £ £ £ £ 5 £ £ £ £ 5 £ £ £ £ 5 £ £ £ £ 5 £ £ £ 1 5 £ £ £ 1 5 £ £ £ 1 5 £ £ £ 1 5 £ £ £ 1 5 £ £ £ 1
9 13 35 37 16 04 1£ 84 36 15 03 1£ 34 35 14 0£ 11 83 35 14 0£ 10 8£ 34 13 01 10 S£ .3 3 1£ 00 09 31
4 £ £ £ £ 4 £ c £ £ 4 £ £ £ £ 4 £ £ £ £ 4 £ £ £ £ 4 £ £ £ £ 4 £ ; £ £ 1£ 00 1 09 4 31 £ •3£ £ 11 £ 99 1 03 4 30 £ 3£ £ 11 £ 99 1 03 4 30 £ 31 £ 10 £ 93 1 07 4 79 £ 31 £ 10 £ 93 1 07 4 79 £ 30 £ 09 £ 97 1 07 4 73 £ 30 £ 09 £ 97 1
10 58 77 34 14 03 57 77 33 14 0£ 57 76 33 1.3 0£ 56 75 3£ 1£ 01 55 75 31 1£ 00 55 74 31 11 00 54 74 •3 0 10 99 54 73 30 10 98 53 73 £9 09 98 53 7£ £9 09 97 53 72 £8 08 97 5£ 71 £8 08 96 5 c' 71 £7 07 96
4 £ £ £ £
4 £ £
£ £ 4 £ £ £ £ 4 £ £ £ £ 4 £ £ £ 1 4 £ £ £ 1 4 £ £ £ 1 4 £ £ £ 1 4 £ £ £ 1 4 £ £ £ 1 4 £ £ £ 1 4 £
£ £ 1 4 £ £ £ 1
18 71 31 13 0£ 17 70 31 1£ 01 17 69 30 11 01 16 69 £9 11 00 15 63 £9 10 99 15 63 £3 09 99 14 67 £7 09 93 14 67 £7 03 97 1-3 66 £6 06: 97 13 66' £6 07 96 1£ 65 £5 07 96 1£ 65 £5 06 95 1£ 64 £4 06 95
475
Anhang — Tabellen
F-Verteilung, 99%-Punkte
Forts. Tab. 6 v
\
"2
51 51 51 51 51 51 51 51 51 51 5£ 5£ 5£ 5£ 5£ 5£ 5ü 5 c' 5£ 5£ 53 5J 53 53 53 53 53 53 53 53 54 54 54 54 54 54 54 54 54 54
0 10 £0 30 40 50 60 70 SO 90 0 10 £0 30 40 50 60 70 80 90 0 10 £0 30 40 50 6° 70 80 90 0 10 £0 30 40 50 60 70 ftO 90 o 10
£o
30 40 55 70 55 80 56 56 56 56 56 56 56 56 56
10 £0 30 40 50 60 70 30 90
1
2
3 £ £ £ 1 1 1 1 1
80 58
;-;
80 53 £1 04 93 86 81 78 75
£ r> 1 1 1 1 1
££
04 94 37 8£ 73 75
3 £ £ £ 1 1 1 1 1
80 57 £1 03 93 36 81
3 £ £ £ 1 1 1 1 1
79 57 £0 03 9£ 85 30 77 74
77
74
99 56 .3 56 £ 53 £ 19 £ 03 1 93 1 36 1 81 1 73 1 75 99 55 3 56 £ 5£ £ 19 £ 02 1 9£ 1 86 1 81 1 77 1 74 99 55 3 56 £ 5£ £ 13 £ 0£ 1 9£ 1 85 1 80 1 77 1 74 99 54 3 55 £ 51 £ 18 £ Ol 1 91 1 85 1 80 1 76 1 73 59. 54 3. 55 £.51
3
4
5
£6 3 £ d £ 1 1 1 1 1 £6
£4 13 7 0 37 £1 48 £ 44 17 £ 15 0£ £ 0 0 9£ 1 91 36 1 35 31 1 8 0 77 1 77 75 1 74 £4 13 69 37 3 £1 £ 47 £ 4 3 £ 17 £ 15 £ Ol £ 0 0 1 9£ 1 91 1 35 1 85 1 30 1 30 1 77 1 77 1 74 1 74 £6. £3 13 69 3 36 3 £0 £ 47 £ 43 £ 16 £ 14 £ Ol £ 0 0 1 91 1 9 0 1 85 1 84 1 30 1 80 1 7é> 1 76 1 74 1 73 £6 £3 13 68 3 36 3 £0 £ 47 £ 4£ £ 16 £ 14 £ 0 0 1 99 1 91 1 9 0 1 84 1 34 1 3 0 1 79 1 76 1 76 1 73 1 73 13.68 3. £ 0 £ . 46 £. 4£ £ . 1 6 £. 14
£. 0 1 1.91 1 .9 ü 1. 34 1 . 3 4 1 . 8 0 1 . 79 1. 76 1 . 76 1. 73 1 . 73 59. 53 ib. ü (
57 57 57 57 57 57 57 57 58 5S 58 58 58 58 58 58 58 58 59 5'? 59 59 59 59 59 59 59 59 60 60 60 60 60 60 60 60 60 60 61 61 61 61 61 61 61 61 61 61 6 c' 6£ 6£ 62 62 62 62 62 6'2 62
0 10 £0 30 40 50 60 70 80 90 0 10 ¿0 30 40 50 60 70 80 9° 0 10 £0 30 40 50 60 70 80 90 0 10 £0 30 40 50 60 70 80 90 0 10 ¿0 30 40 50 60 70 80 90 0 10 £0 30 4° 50 60 70 30 90
3 2 2 £ 1 1 1 1 1
78 56 19 0£ 91 84 79 75 72
3 78 £ 55 £ 19 ¿- Ol 1 91 1 84 1 79 1 75 1 7£
3 78 £ 55 £ 19 Ol 1 90 1 83 1 78 1 75 1 7£ 3 £ £ £ 1 1 1 1 1
77 55 18 Ol 90 83 78 74 71
£ £ £ 1 1 1 1 1
77 55 18 00 90 83 78 74 71
£
2 1 1 1 1 1
77 54 18 00 89 8£ 77 74 71
99 5 3 54 £ 50 £ 17 00 1 90 1 84 1 79 1 75 1 7£ 99 5 3 54 £ 50 £ 17 £ 00 1 90 1 83 1 78 1 75 1 7£ 99 5 £ 3 54 £ 50 £ 16 £ 00 1 90 1 33 1 78 1 74 1 71 99 5£ 53 £ 49 £ 16 1 99 1 39 1 8£ 1 78 1 74 1 71 99 51 3 53 £. 4 9 £ 16 1. 99 89 82 1 77 74 71 99 51 3 53 £ 49 2 15 1 99 1 89 1 8£ 1 77 1 73 1 70
£6 3 £ £ 1 1 1 1 1 1 £6 3 £ £ 1 1 1 1 1 1 £6 3 £ £ 1 1 1 1 1 1 £6 3 £ £ 1 1 1 1 1 1 £6 £ £ 1 1 1 1 1 1 £6 3
£ £
1 1 1 1 1 1
£1 35 46 15 99 ¡-¡9 83 78 75 7£ £1 35 45 15 99 89 83 78 74 7£ £1 34 45 14 98 89 8£ 78 74 71 £0 34 45 14 98 38 8£ 77 74 71 £0 34 44 14 98 38 8£ 77 73 70 19 33 44 13 97 38 31 76 73 70
13 3 £ £ 1 1 1 1 1 1 13 3 £ £ 1 1 1 1 1 1 13
3
£ £ 1 1 1 1 1 1 13 3 £ £ 1 1 1 1 1 1 13 3 £ 1 1 1 1 1 1 13 .3 2
£
1 1 1 1 1 1
6 7 9 £5 19 3 06 £ 37 41 1 3 £ 11 Ciy 1 9 7 89 1 38 8£ 1 82 78 1 78 74 1 74 1 71 7 c' 9 £5 67 19 .3 05 £ 37 41 12 £ 1 1 98 1 96 38 1 88 8£ 1 82 78 1 r c 74 1 74 71 1 71 9 06 £4 18 3 05 £ 37 41 1£ .£ 1 0 97 1 96 88 1 87 1 81 82 77 1 77 74 1 73 71 1 71 y £4 66 18 3 05 4 0 £ 36 12 £ 1 0 9 7 1 96 88 1 87 81 1 81 77 1 76 7-i» 1 7 3 71 1 70 9 £4 66 18 3 04 4 0 £ 36 12 £ 1 0 97 1 95 87 1 37 81 1 30 76 1 76 73 1 73 70 1 70 65 9 23 3 04 17 4 0 £ 36 1 1 £ 09 96 1 95 37 1 86 1 80 81 76 1 76 7 1 7£ 70 1 70
7 £ £ £ 1 1 1 1 1 1 7 2 £ £ 1 1 1 1 1 1 7 £ £ £ 1 1 1 1 1 1 7 £ £ £ 1 1 1 1 1 1 7
£ £ l l l l l l 7
£ £ £
1 1 1 1 1 1
07 94 34 09 96 87 81 77 74 71 06 94 33 09 95 87 81 77 7-3 71 06 94 33 08 95 87 81 76 73 70 06 93 33 08 95 36 80 76 73 70 05 93 32 03 94 86 80 76 7£ 70 05 93 3£ 08 94 86 30 75 72 69
5 £ £ £ 1 1 1 1 1 1 5
£
£ £ 1 1 1 1 1 1 5 £ 2 2 1 1 1 1 1 1 5 2 2 2 1 1 1 1 1 1 5 2 £ £ 1 1 1 1 1 1 5 2
£ £
1 1 1 1 1 1
83 84 30 07 95 87 31 77 74 71 83 84 30 07 94 86 81 76 73 71 83 84 30 07 94 86 80 76> 73 70 8£ 83 £9 06 94 36 80 76 72
70
82 83 £9 06 93 85 79 75 fc 6-9 82 83 £9 06 93 85 79 75 72 69
8
9
5 04 2 76 £7 06 1 94 1 86 1 80 1 76 1 73 1 71 5 04 2 75 £ £7 £ 06 1 9.3 1 86 1 30 1 76 1 73 1 ?0 5 03 2 75 £ £7 £ 05 1 93 1 85 1 80 1 76 1 7£ 1 70 5 03 £ 75 £ £6 £ 05 1 93 1 85 1 79 1 75 1 72 1 70 5 03 £ 75 £ £6 £ 05 1 9£ 1 35 1 79 1 75 1 7£ 1 69 5 03 £ 74 £ £6 £ 04 1 9£ 1 84 1 79 1 75 1 71 1 69
4 £ £ £ 1 1 1 1 1 1 4 £ £ £ 1 1 1 1 1 1
1 1 1 1 1 1 4 £
d
£ 1 1 1 1 1 1 4 £ c' £ 1 1 1 1 1 1 4
£ £ £
1 1 1 1 1 1
10
49 6-8 £4 04 93 35 30 76 73 71 49 68 £4 04 92 85 80 76 73 70 49 68 ¿4 04 9c! 85 79 75 72 70 48 67 £3 03 9£ 84 79 75 ( i=! 69 48 67 £3 03 91 84 79 75 71 69 48 67 £3 03 91 84 78 74 71 69
4 £ £ £ 1 1 1 1 1 1 4
£
£ £ 1 1 1 1 1 1 4 £ £ £ 1 1 1 1 1 1 4 £ £ £ 1 1 1 1 1 1 4 £ £ £ 1 1 1 1 1 1 4
£ £
2 1 1 1 1 1 1
09 6£
££
03 9£ 85 80 76 73 70 09 61 21 03 9£ 84 79 75 72 70 08 61 £1 0£ 91 84 79 75 7£ 70 08 61 £1 0£ 91 84 78 75 72 69 08 60 £0 0£ 91 83 78 74 71 6-9 08 6-0 20 Ol 90 83 78 74 71 68
477
Anhang — Tabellen
F-Verteilung, 99%-Punkte
Forts. Tab. 6 7 63 63 63 63 63 63 6-3 63 63 63 64 64 64 64 64 64 64 64 64 64 65 65 65 65 65 65 65 65 65 65 66 66 66 66 66 66 66 66 66 66 67 67 67 67 67 67 67 67 67 67 63 6S 68 6S 63 68 68 63 68 68
0 10 £0 30 40 50 6.0 70 30 90 0 10 £0 30 40 50 60 70 80 90 0 10 £0 30 40 50 60 70 8° 90 0 10 £0 30 40 50 60 70 80 90 0 1 o £0 30 40 5 0 60 7 0 80 90 0 10 £0 30 40 50 60 70 80 90
3 £ £ £ 1 1 1 1 1
76 54 17 0ü 89 Sc" 77 73 7Ù
1 1 1 1 1 1
76 54 17 99 89 Sc' 77 7 70
3 £ £ 1 1 1 1 1 1
76 5? 17 99 SS 81 76 7j 70
}; £ £ 1 1 1 1 1 1
76 53 17 99 SS 31 76 7c! 69
3 £ £ 1 1 1 1 1 1
76 53 16 99 öS S1 76 75 69
3 75 53 £ 16 1 9S 1 SS 1 81 1 75 1 7 c' 1 69
99 51 5£ £ 49 £ 15 i 93 i 88 i 81 i 77 i 73 i 70 99 5 0 3 5 c' £ 48 £ 15 1 98 1 88 1 81 1 76 1 1 70 99 5 0 5 5£ £ 48 £ 15 1 98 1 88 1 31 1 76 1 7£ 1 69 99 49 3 5£ £ 48 £ 14 1 97 1 37 1 31 1 76 1 7£ 1 69 99 49 i 5£ £ 48 £ 14 1 97 1 37 1 80 1 75 1 7£ 1 69 99 49 3 51 £ 47 £ 14 1 97 1 87 1 80 1 75 1 71 1 63
£6 3 £ £ 1 1 1 1 1 1 £6 3 £ £ 1 1 1 1 1 1 £6 3 £ £ 1 1 1 1 1 1 £6 3 £ £ 1 1 1 1 1 1 £6 3 £ £ 1 1 1 1 1 1 £6 £ £ 1 1 1 1 1 1
19 33 44 13 97 S7 SI f t73 70 19 33 44 13 97 87 81 767£ 69 18 33 43 1£ 97 87 30 76 7£ 69 18 3£ 43 1£ 96 87 30 75 7£ 69 18 3£ 43 1£ 96 86. 80 75 71 68 17 3£ 43 1£ 96 86* 79 75 71 6-8
13 65 3 17 £ 39 £ 11 1 96 1 87 1 80 1 76 1 7£ 1 69 13 65 3 17 £ 39 £ 11 1 96 1 86 1 80 1 75 1 7£ 1 6-9 13 6*5 17 £ 39 £ 10 1 95 1 86 1 80 1 75 1 72 1 69 13 64 3 16 £ 39 £ 10 1 95 1 86 1 79 1 75 1 71 1 69 13 64 .3 16 £ 38 £ 10 1 95 1 85 1 79 1 75 1 71 1 68 13 64 3 16 £ 38 £ 10 1 95 1 85 1 79 1 74 1 71 1 68
9 3 £ £ 1 1 1 1 1 1 9 3 £ £ 1 1 1 1 1 1 9 3 £ £ 1 1 1 1 1 1 9
£ 1 1 1 1 1 1 9
1 1 1 1 1 1
1 1 1 1 1 1
£3 04 35 09 95 36 80 75 7£ 69 £3 04 35 09 95 86 30 75 7£ 69
££
03 35 08 94 •35 79 75 71 69 ££ 03 35 08 94 85 79 74 71 68 ¿d 03 34 OS 94 85 79 74 71 68 c'£ 03 34 OS 93 84 73 74 70 68
7 £ £ £ 1 1 1 1 1 1 7 £
£
£ 1 1 1 1 1 1 7 £ £ £ 1 1 1 1 1 1 7 £ £ £ 1 1 1 1 1 1 7 £ £ £ 1 1 1 1 1 1 7 £ £ £ 1 1 1 1 1 1
05 9£ 3£ 07 94 OC; 79 75 7£ 69 05 9£ 3£ 07 93 35 79 75 71 69 04 9£ 31 07 93 85 79 74 71 6-3 04 9£ 31 06 93 84 78 74 71 68 04 91 31 06 93 84 78 74 70 6-8 04 91 31 06 9£ 34 78 73 70 67
5 £ £ £ 1 1 1 1 1 1 5 £ £ £ 1 1 1 1 1 1 5 £ £ £ 1 1 1 1 1 1 5 £ £ £ 1 1 1 1 1 1 5 d £ £ 1 1 1 1 1 1 5 £ £ £ 1 1 1 1 1 1
8 ü£ 33 £8 06 93 85 79 75 71 69 81 8£ £8 05 9£ 84 79 74 71 68 81 8£ £8 05 9£ 84 73 74 71 63 81 8£ £8 05 9£ 84 78 74 70 6.8 81 8£ £7 04 9£ 83 78 73 70 6-7 30 31 £7 04 91 83 77 73 70 t- 7
5 £ £ £ 1 1 1 1 1 1 5
£
£ £ 1 1 1 1 1 1 5 £ £ £ 1 1 1 1 1 1 5 £ £ £ 1 1 1 1 1 1 5 £ £ £ 1 1 1 1 1 1 5
£ £ £ 1 1 1 1 1 1
9 0£ 74 £5 04 9£ 84 73 74 71 69 0£ 74 £5 04 91 34 78 74 71 63 0£ 74 £5 03 91 83 78 74 70 6-8 0£ 73 £5 03 91 33 77 73 70 68 Ol 73 £4 03 91 77 73 70 6.7 Ol 73 £4 03 90 8£ 77 73 70 67
4 £ £ £ 1 1 1 1 1 1 4 £ £ £ 1 1 1 1 1 1 4 £ £ £ 1 1 1 1 1 1 4 £ £ £ 1 1 1 1 1 1 4 £ £ £ 1 1 1 1 1 1 4 £ £ £ 1 1 1 1 1 1
10 43 6r £3 ü£ 91 83 78 74 71 68 47 66 ££ 0£ 91 83 78 74 70 68 47 66 ££ 0£ 90 83 77 73 70 63 47 66 ££ ü£ 90 3£ 77 73 70 6' 7 47 66 31 Ol 90 SS 77 73 7 Iii 67 46 6- 5 £1 Ol 89 8£ 76 7£ 69 6' 7
4 £ £ £ 1 1 1 1 1 1 4 £ £ 1 1 1 1 1 1 4 £ £ £ 1 1 1 1 1 1 4 £ £ £ 1 1 1 1 1 1 4 £ £ £ 1 1 1 1 1 1 4 £ £ £ 1 1 1 1 1 1
07 60 £0 Ol 90 83 77 74 71 68 07 60 £0 Ol 90 o£! r' f 73 70 68 07 59 19 00 89 8£ 77 73 70 67 0? 59 19 00 89 8£ 77 73 70 6> 7 IJfc. 59 19 00 89 81 76 72 69 67 06 59 19 00 88 81 76 7£ 69 67
478
Anhang — Tabellen F-Verteilung, 99%-Punkte
Forts. Tab. 6
69 69 69 69 69 69 69 69 69 69 70 70 70 70 70 70 70 70 70 70 71 71 71 71 71 71 71 71 71 71 72 72 72 72 72 72 72 72 72 72 73 73 73 73 73 73 73 73 73 73 74 74 74 74 74 74 74 74 74 74
0 10 20 30 40 50 60 70 80 90 0 10 20 30 40 50 60 70 80 90 0 10 20 30 40 50 60 70 80 90 0 10 20 30 40 50 60 70 80 90 0 10 20 30 40 50 60 70 80 90 0 10 20 -: 4 9 44 1 1 1 94 1 83 1 76 1 71 1 68 1 65 99 45 3 48 44 10 1 94 1 83 1 76 1 71 1 67 1 6'5 99 45 3 48 2 44 2 1 0 1 93 1 83 1 76 1 71 1 67 1 64 99 44 3 48 44 1 0 1 93 1 83 1 76 1 71 1 67 1 64
£
£ £
£ £
£ £
£ £
3 2 6 14 3 £9 40 2 09 9 3 1 1 83 1 761 71 1 68 1 65 2 6 14 3 £9 o 40 2 09 1 93 1 83 1 76 1 71 1 68 1 65 2 6 13 3 £9 40 08 1 92 1 83 1 76 1 71 1 67 1 64 £ 6 13 3 iE."? 39 08 1 92 1 82 1 76 1 71 1 67 1 64 £6 1 3 3 29 2 39 2 08 1 92 1 82 1 76 1 71 1 67 1 64 £ 6 13 29 39 08 1 92 1 8£ 1 75 1 70 1 67 1 64
£
£ £
£ £
£ £
4 13 3 2 2 1 1 1 1 1 1 13 3 2 2 1 1 1 1 1 1 13 3 2
£
1 1 1 1 1 1 13 c'
£
1 1 1 1 1 1 13 -:
£ £ 1
1. 1 1
1. 1 13 2.
d 1 1 1 1
1 1
5 61 13 36 07 92 82 76 71 67 65 61 13 35 07 91 82 76 71 67 64 60 13 35 06 91 82 75 71 67 64 60 13 35 06 91 82 75 70 67 64 60 13 35 06 91 81 75 70 6-7 64 60 1 3 35 06 91 81 75 70 6'6. 64
9 3 2 2 1 1 1 1 1 1 9 3
£ £
1 1 1 1 1 1 9
2 2 1 1 1 1 1 1 9 3
£ £ 1 1 1 1 1 1 9
£ £ £ 1
1 1 1 1 1
19 00 32 05 90 81 75 71 67 64 19 00 31 05 90 81 75 70 67 64 19 00 31 04 90 81 75 70 67 64 18 00 31. 04 90 81 75 70 67 64 18 99 31 04 90 81 74 70 66 64 18
9 2 2 31 2 04 1 90 1 31 1 74 1 70 1 66 1 63
6
7
7 01 2 89 28 2 03 1 89 1 81 1 75 1 70 1 67 1 64 7 Ol 2 89 2 28 2 03 1 89 1 81 1 75 1 70 1 6.7 1 64 7 01 2 88 2 28 2 03 1 89 1 80 1 74 1 70 1 66 1 64 7 01 88 £7 03 1 89 1 80 1 74 1 70 1 661 64 7 01 88 £7 0£ 1 89 1 80 1 74 1 69 1 66 1 63 7 00 £ 88 2 27 2 02 1 89 1 80 1 74 1 69 1 66 1 63
5 2 d 2 1 1 1 1 1 1 5 2 2 2 1 1 1 1 1 1 5 2 2 2 1 1 1 1 1 1 5
£
£ £ £
£ £
£ £ £
8 78 79 24 Ol 88 80 74 70 67 64 78 79 24 Ol 88 80 74 70 66 64 78 79 24 Ol 88 80 74 69 66 63 77 78 £4 Ol 88 79 74 69 66 63
1 1 1 1 1 1 5 77 2 78 £4 Ol 1 88 1 79 1 73 1 69 1 66 1 63 5 77 78 £4 £ 00 1 87 1 79 1 73 1 6>9 1 6'6' 1 63
£ £
£ £
4 99 2 70 2 £1 £ 00 1 87 1 79 1 74 1 70 1 66« 1 64 4 99 2 70 2 £1 2 00 1 87 1 79 1 74 1 69 1 6-6> 1 63 4 98 2 70 £ £1 1 99 1 87 1 79 1 73 1 69 1 66 1 63 4 93 70 £1 1 99 1 87 1 79 1 73 1 69 1 66 1 63 4 98 70 2 £1 1 99 1 87 1 79 1 73 1 69 1 6-5 1 6- 3 4 98 2 69 c' £1 1 99 1 86 1 78 1 73 1 69 1 65 1 63
£ £
£
9 4 44 63 2 18 1 93 1 86 1 79 1 73 1 69 1 66 1 63 4 44 c! 6 3 2 18 1 93 1 36 1 79 1. 73 1 69 1 66 1 63 4 . 44 62 18 98 86 78 73 69 66 63 4 . 43 6c! 18 98 86 78 7-J 69 65 63 4 . 43 6 c" 2 . 18 97 86 73 7 c' 68 6-5 6-3 4. 43 2 . 62 18 97 86 78 72 68 65 6 c!
£
£.
£
£ £
£
£
10 4 . 04 ¿*. 5 6 ¿. 16 97 86 78 73 1. 69 66 63 4 . 04 £ .56 £. 16 97 85 78 1 . 73 69 65 63 4. U 56 c!. 15 96 85 78 72 68 65 63 4 . 03 £. 5 6 15 96 85
£.
77
72 1 . 68 1 . 65 63 4 . 03 £. 5 5 £. 15 96 y 5 77 72 68 65 4. 0 3 £. 5 5 2 . 15 96 85
77
72 68 65 1. 62
A n h a n g - Tabellen
481
Forts. Tab. 6
37 87 87 87 87 87 87 87 87 87 88 88 88 88 88 88 88 88 88 88 89 89 89 39 89 89 89 89 39 89 90 90 90 90 90 90 90 90 90 ;?0 91 91 91 91 91 91 91 91 91 91 92 9£ 92 92 9£ 92 92 92 92 92
0 10 2 0 30 40 50 60 70 80 90 0 10 20 30 40 50 60 70 30 90 0 10 20 30 40 50 60 70 80 90 0 10 £0 30 40 50 60 70 80 90 0 10 20 30 40 50 60 70 80 90 0 10 £0 30 40 50 60 70 80 90
F-Verteilung, 99%-Punkte
3 2 2 1 1 1 1 1 1
72 49 1£ 94 84 76 71 67 64
3 £ 2 1 1 1 1 1 1
7£ 49 12 94 83 76 71 67 64
3 £ 2 1 1 1 1 1 1
7 c' 49 12 94 83 76 71 67 64
3
^
2 1 1 1 1 1 1
ia 94 83 76 71 67 64
3 £ £ 1 1 1 1. 1. 1
71 49 12 94 83 76 70 67 63
3. £ 2. 1 1. 1 1 1 1
71 43 12 94 83 75 70 66 6.3
99 3 2 £ 1 1 1 1 1 1 99 3 £ £ 1 1 1 1 1 1 99 3 £ £ 1 1 1 1 1 1 99 3 £ £ 1 1 1 1 1 1 99 3 £ £ 1 1 1 1. 1. 1 99. 3 2.
44 48 44 10 93 83 76 71 67 64 44 48 44 10 93 83 76 71 67 64 44 48 44 10 93 82 75 70 67 64 44 48 43 10 93 8 c! 75 70 66 63 43 47 43 09 92 82 75 70 66 63 43 47 43 £. 09 92 1 . 82 75 70 66 63
£6 13 3 iE"? £ 39 £ 08 1 92 1 32 1 75 1 70 1 67 1 64 £6 12 3 £8 £ 39 2 08 1 92 1 32 1 75 1 70 1 66 1 63 £6 1 £ 3 £8 £ 59 2 07 1 91 1 8£ 1 75 1 70 1 6*6 1 63 £6 1 £ 3 28 £ 39 £ 07 1 91 1 31 1 75 1 70 1 6-6' 1 6? £6 1 £ 3 28 £ 38 2 07 1 91 1 81 1 74 1 70 1 6.6' 1 63 £6 1 2 3 £8 c' 3 8 £ 07 1 91 1 81 1 74 1 6,9 1 6-6 1 63
13 3 b' £ 1 1 1 1 1 1 13 3 2 2 1 1 1 1 1 1 13 3 £
60 13 35 06 91 81 75 70 66 63 59 1£ 34 06 90 31 74 70 66 63 59 1£ 34 cL 05 1 90 1 31 1 74 1 70 l 66 1 63 13 59 1£ £ 34 £ 05 1 90 1 81 1 74 1 69 1 66 1 63 13 59 3 1£ £ 34 £ 05 1 90 1 30 1 74 1 69 1 66 1 6' 3 13 59 3 12 £ 34 £ 05 1. 9 0 1 80 1. 74 1. 6 9 1. 6 5 1 63
9 2 2 £ 1 1 1 1 1 1 9 £ 2 2 1 1 1 1 1 1 9 £ £ £ 1 1 1 1 1 1 9 £ £ £ 1 1 1 1 1 1
1 1 1 1 1 1 9 2 2 2 1 1 1 1 1 1
18 99 31 04 89 80 74 69 66 63 18 99 30 04 89 30 74 69 66 63 18 99 30 04 89 30 74 69 66 63 18 99 30 03 89 80 74 69 65 63 17 99 30 03 89 80 73 69 6-5 62 17 99 30 03 89 80 73 69 65 62
7 00 2 88 £ 27 2 0£ 1 88 1 80 1 74 1 6,9 1 66 1 63 7 00 2 38 £ £7 £ 0£ 1 88 1 79 1 73 1 69 1 65 1 63 7 00 £ 87 £ 27 £ 0£ 1 88 1 79 1 73 1 69 1 65 1 63 7 00 £ 87 £ £6 £ 0£ 1 88 1 79 1 73 1 69 1 6-5 1 62 7 00 £ 87 £ £6 £ Ol 1 33 1 79 1 73 1 68 1. 6 5 1 6£ 7 00 £ 87 2. £6 2 Ol 1. 8 8 1 79 1 73 1. 6 8 1 . 6*5 1 62
7
8
77 2 78 2 £4 00 1 87 1 79 1 73 1 69 1 6-5 1 6>3 5 77 £ 78 £ 23 £ 00 1 87 1 79 1 73 1 69 1 65 1 6£ 5 77 £ 78 £ iE' '•! £ 00 1 87 1 79 1 73 1 68 1 65 1 6-2 5 77 £ 78 £ 23 £ 00 1 87 1 73 1 73 1 6.3 1 6*5 1 62 j 77 c! 7 7 £ £3 £ 00 1 y7 1 78 1 7£ 1 68 1 6.5 1 6£ 5 76 £ 77 2 £3 £ 00 1 86 1 78 1 7£ 1 6-8 1 64 1 6£
4 £ £ 1 1 1 1 1 1 1 4 £ £ 1 1 1 1 1 1 1 4 2 2 1 1 1 1 1 1 1 4 £ 2 1 1 1 1 1 1 1 4 2 2 1 1 1 1 1 1 1 4 £ 2 1 1 1 1 1 1 1
9 98 69 20 99 86 73 73 63 65 62 98 69 20 99 86 7y 72 68 65 62 98 69 20 98 36 78 72 68 65 62 97 69 20 98 86 78 7£ 68 6*5 6£ 97 69 £0 98 86 78 7£ 6.8 64 6£ 97 69 £0 98 85 <
6> 2 ., 5 5 £ _, 5 0 2, 47 2 ., 4 5 2 ., 4 4 2 ., 4 3 2 ., 3 9 2 ., 3 4 2 ., 3 1 2., 3 0 2 ., 2 3 2,, 2 7 2., 2 8 2. 2 3 2 ,, 2 0 2 ., 18 ,17 2 ., I i .
3 ., 1 7 •5 , 1 8 ••5 , 0 9 t. 0 8 3 ., 0 7 3 ., 06 , 7:3 2. , 7 3 2. . 7 0 2. , 6 8 2, , £ 7
3 ., 1 6 3. 1 2 •3., 0 9 , 08 3 ., 0 6 3 ., 0 6 2. 7 7
, 16 3 ,, 1 2 3 t, 09 3 ., 0 7 3 ., 0 6 3 ., 0 5 2 .. 7 6 2. 72 2 ., 7 0 2 . 6-3 2 . , 6*7 2 . , 6> 6 2 _, 5 3 2 ., 4 9 2 ., 4 6 2 ., 4 5 2 ., 4 4 2 ., 4 3 2 ., 3 7 2 ,, 3 3 2 ., 3 1 2 ., 2 9 2 .. 2 8 2 ., 2 7 2 ., 2 6 2. 22 2 ., 1 9 2 .. 1 3 2.. 1 6 2., 1 6
15 3 . 11 3 _0 9 07 3 . 06 3. 05 ¿. 76 2 . c' c.' 2. 7 0 2. 63 2 . 6-7 2. 66 2. 5 3 2. 49 2. 46 2 ., 4 5 2 ., 4 4 2 ., 4 3 2. 37 2 .. 3 3 2 ., 3 1 . 29 2 ., 2 8 2. 27 2 ., 2 5 2 ., 2 1 2 ., 1 9 2 ., 1 8 2 . , 16 2 ., l i -
3,, 15 3. 1 1 3. 0 9 3 07 , 06 , 05 c'. 2. 72 2. 69 2. 63 2 . 6-7 2 . 66. 2. 52 2 ., 4 3 2. 46 2 , 45 2 ., 4 4 2 ., 4 3 2 ., 3 6 2 .. 3 3 2 ., 3 0 2 ,, 2 9 2 ., 2 8 2 ., 2 7 2 ., 2 5 2 ., 2 1 2 ., 1 9 2 ., 1 7 2 ., 1 6 2 ., 1 6
3 . 14 3 . 11 3 _0 9 3 _07 3 _0 6 3 _0 5 c'. 7 5 2 . 71 2. 69 2 . 68 2. 67 2 . 66. 52 2. 48 2. 46 2. 44 2. 43 2. 43 2. 36 2. 32 2. 30 2. 29 2. 2 3 2. 27 2 ., 2 4 2 ., 2 1 2 ., 19 2 ., 1 7 c.'., 1 6 2. 15
3i , 1 4 3 . 10 3 i, 0 8 3 ., 0 7 3 ., 06 3 ., 0 5 , ,'4 2 . 71 2 . , 6.9 2 , , 6-8 2. 67 2 ., 6 6 2 ., 5 1 2 ., 4 8 2 ., 4 6 2 ., 4 4 2 ., 4 3 2 ., 4 3 2 ., 3 5 2 ., 3 2 2 ., 3 0 2 ., 2 9 2 . . 28 2 ., 2 7 2 ., 2 4 2., 2 1 2 .. 1 9 2 .. 1 7 2 .. 1 6 2 .. 1 5
3 13 3 . 10 3 . 08 3. 07 3 , 06 3. 05 74 2 , 71 2. 69 2. 68 2. 67 2. 66 2. 51 2. 48 2. 46 2. 44 2. 43 2. 43 2, 3 5 2. 3P
2 2 2 2 2 2 3 3 3 3
5. 4. 4. 4. 4. 4. 4. 4. 4. 3.
04 92 85 81 78 75 18 07 00 96 3. 94 3 ., 9 1 3 ., 7 0 3 ., 5 9 3 _, 5 3 3 ., 4 9 3 ., 4 7 3 ., 4 5 3 ., 4 0 3 ., 2 9 3 ., 2 3 3 ,, 1 9 3 ., 1 6 3 .. 1 4 3 .. 1 7 3 .. 0 6 3 . 00 2 .. 9 7 2 ,. 9 4 2 ,. 9 2
5. 4. 4. 4. 4. 4. 4. 4. 4. 3. 3.
4. 99 4. 9 0 4. 84 4. 80 4. 77 4. 75 4 . 14 4 . 04 3 ., 99 3. 95 3. 93 3 ,, 9 1 3 ., 6 6 3 ., 5 7 3 ., 5 2 3 ,, 4 8 3,, 4 6 3 ., 4 4 3 ., 3 5 3.. 2 6 3 ., 2 1 3 .. 1 8 3 1. 1 5 3 ,. 1 4 3 ,. 1 3 i-,. 0 4 2 ,. 9 9 2 ,. 9 6 2 ,. 9 4 2 . 92
4. 4. 4. 4. 4. 4. 4. 4.
4. 4. 4. 4. 4. 4. 4. 4. 3. 3.
4. 4. 4. 4. 4. 4. 4. 4.
4. 95 4. 87 4. 82 4. 78 4. 76 4. 74 4 . 09 4 . 02 3. 97 3. 94 3. 92 3. 9 0 3. 62 3 ., 5 5 3 ., 5 0 3 ., 4 7 3 ., 4 5 3 ., 4 3 3 ., 3 1 3 .. 2 4 3 .. 2 0 3 .. 1 7 3 .. 1 5 3 .. 1 3 3 .. 0 9 3 ,. 0 2 2 ,. 9 8 2 . 95 2,. 9 3 2 .91
4. 4. 4. 4. 4. 4. 4. 4.
"l 2 2
5 0 7 0 9 0 110 1 30 150 50 7 0 90 1 1 0 3 13 0 3 15 0 50 4 4 7 0 4 90 4 110 4 130 4 150 5 0 5 70 5 9 0 5 5 11 0 5 130 5 150 6. 5 0 7 0 6 6 9 0 6 110 6 130 6 150
2. 2, , 5 4 2. , 5 0 2. , 4 7 2. . 4 5 2. , 4 4 2. . 4 3 2. , 3 9 2 .34 2. , 31 2. , 29 2. . 2'ö 2. . 2? 2. , 2? 2. , 22 2. ,2d 2. , 1 8 2. , 1 7 2. , 1 6 02 91 85 80 77 75 17 06 00 96 93 ,91 3. 69 0 , 58 3 ., 5 3 3 ., 4 9 3 ., 4 6 3 ., 4 4 3 ., 3 8 3 ., 2 8 3 ,. 2 2 3 ., 1 8 3 ., 1 6 3_. 1 4 3 . 16 3 .. 0 6 3 ,, 0 0 2 ,. 9 6 2 ,. 9 4 2 ,. 9 2
2. , f 2. , 7 0 2. , 2. , 6» 7 2. , 6 6 2. 5 4 2. 4 9 2. 4 7 2. , 4 5 2. , 4 4 2, , 4 3 2. , 3 8 2. , 3 4 2. , 3 1 2. , 2 9 2. , 2 3 2. , 2 7 2. , 2 7 2. , 2 2 2. , 1 9 2, , 1 8 2. , 1 7 2. , 1 6 5. 4. 4. 4. 4. 4. 4. 4. 3. 3.
01 91 84 8 0 77 75 15 05 99 96 93 3 . 91 3. 6 7 3 . 5 t: 3. 5 2 3. 49 3. 46 3. 44 3, 37 3 27 3i 22 3, 1 8 3 . 16 3 ., 1 4 3 ,, 1 4 3 ., 0 5 3 ., 0 0 2 ,, 9 6 2 ,. 9 4 2 .. 9 2
10
la
_
98 89 83 79 77 75 13 04 99 3. 95 3. 93 3 . 91 3. 65 3. 56 3. 51 3. 48 3. 46 3. 44 3. 3 4 3 . . 26. 3 ,21 3 _, 1 8 3 ., 1 5 3 ., 1 4 3 ., 1 2 3 ., 0 4 2 ., 9 9 2 ., 9 6 2 .. 9 3 2 .. 9 2
14
_
98 88 8 3 79 76 74 12 03 98 95 92 3 . 91 3. 64 3. 56 3 ^ 51 3. 48 31 4 5 3< 44 3. 33 3 ., 2 5 3 .20 3 i, 1 7 3., 1 5 3 ., 1 3 3 . . 11 3 ,. 0 3 2 ,. 9 8 2 ,. 9 5 2 ,. 9 3 £,. 9 2
16
96 88 82 79 76 74 11 03 98 95 92 90 63
3. 3. 3. 3. 3 ., 5 5 3. 51 3 _, 4 7 3 ,, 4 5 3 ., 4 4 3 ., 3 2 3. 2 5 3 .. 2 0 3 i. 17 3 .. 1 5 3 ,, 1 3 3 .. 1 0 3 .. 0 2 p .98 £ . 95 2,. 9 3 £ .91
18
2 ., 3 0 2 ., 2 9 2 ., 2 8 2 ., 2 7 2 ., 2 4 2 ., 2 0 2 ., 18 2 ., 1 7 2., 1 6 2. 1 5 94 86 81 78 76 74 09 01 97 3. 94 92 3. 90 3 . 61 3. 5 4 3 5 0 3. 47 3. 45 3. 43 3. 3 0 3 ., 2 4 3 ., 1 9 3 ., 1 7 3 ,, 1 5 3 ., 1 3 3 ., 0 8 3 . . 01 2 .. 9 7 2 ,. 9 5 2 ,. 9 3 2,. 9 1
20 3 _, 1 3 3. 10 3, 08 3. 07 3 . 06 3. 05 f . .-'4 2. 71 2. 69 2. 67 2 . 6-7 2. 66 2. 50 2. 47 p m, 4 5 2 ., 4 4 2 ., 4 3 2 ., 4 2 2 ., 3 5 2 ., 3 2 2 ., 3 0 2 ., 2 8 2 ., 2 7 2., 2 7 2 ., 2 3 2 ., 2 0 2 .. 1 8 2 .. 1 7 2 .. 1 6 2 ., 1 5 4. 93 4. 86 4 . 81 4. 78 4. 76 4. 74 4 . 08 4 . 01 3. 97 3. 94 3. 92 3. 9 0 3. 60 3. 5 4 3. 5 0 3 ., 4 7 3 ., 4 5 3 ., 4 3 3 ., £ 9 3 .. £ 3 3 ., 1 9 3 t. 16 3 _, 1 4 3 ,. 1 3 3.. 0 7 3 . . 01 2 .. 9 7 2 .94 £ . 9£ 2 .91
Anhang — Tabellen
485
Tab. 7 Untere und obere F-Werte für 99%-, 95%- und 90%-Intervalle. Die Werte gehören ursprünglich zu HPD-Intervallen auf standardisierten logarithmischen FVerteilungen und wurden dann in „normale" F-Werte umgerechnet. Auf der linken Hälfte stehen die Werte für gerade v2, auf der rechten für ungerade v2(v3 linker Nachbar + 1). Beispiel: Auf einer Standard-F-Verteilung ist das 90%-Intervall für 10 und 21 Freiheitsgrade gesucht: Wir suchen c, = 10 und v2 = 20, gehen in der entsprechenden Zeile auf die rechte Hälfte und finden unter .90 die Werte .38 und 2.4. Wir das Intervall auf einer F-Verteilung mit dem Skalierungsfaktor 4/ gesucht, so werden die Tabellenwerte mit \p multipliziert. Beispiel: Das 99%-Intervall für V, = 28, v2 = 12 und (1.05,14.7).
Fortsetzung
Tabelle 7: siehe S. 486
= 3.5 ist (CJ.30• 3.5, 4.20• 3.5) =
486
Anhang — Tabellen
Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen p2 (gerade)
v r + 1 (ungerade)
\
/ .99
.95
.90
.99
.95
90
"l "2 2 £ 2 £ 2 2 p 2 2 £ 2 2 2 2 2
£ £ £ £ 2 2 £ £ £ 2 3 3 3 3
o
p p 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3
£ 4 6 3 10 1£ 14 16 18 £0 ££ £4 £6 £8 30 3£ 34 36 38 40 4£ 44 46 48 50 £ 4 6 8 10 1£ 14 16 18 £0 ££ £4 £6 £8 30 3£ 34 36 38 40 4£ 44 46 48 50
0. 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
01198 01 3 £ 01 18 01 14 0 1 le01 i d 01 1 0 9 01 9 01 01 8 8 01 8 01 8 01 01 8 ¡3 01 7 01 7 01 7 01 7 01 7 01 7 01 7 01 7 01 7 01 7 01 Ü£ 1 6 7 0£ £ 6 03 1 4 03 1 1 9 03 8 03 03 7 7 03 7 03 03 6 6 03 6 03 6 03 6. 03 6 03 03 6 03 6 03 5 5 03 5 03 5 03 03 5 5 03 03 5 03 5
99 01 32 03 00 83 08 55 17 87 63 44 £9 15 04 94 86 79 7£ 66 61 56 5£ 48 44 £3 07 66 11 44 48 86 4£ 11 86 6> 7 51 39 £8 19 11 04 98 9£ 88 83 79 76 73 70
0. 03 0. 03 0. 04 0. 04 0. 04 0. 04 0. 04 0. 04 0 . 04 0. 04 0 . 04 0 . 04 0. 04 0. 04 0. 04 0 . 04 0. 04 0. 04 0 . 04 0. 04 0. 04 0. 04 0. 04 0 . 04 0. 04 0 . 05 0 . 07 0 . 08 0. 08 0 . 09 0 . 09 0. 09 0. 09 0 . 09 0. 09 0. 09 0 . 09 0. 09 0. 09 0. 09 0. 09 0 . 09 0.10 0. 1 0 0. 1 0 0. 10 0. 1 0 0. 1 0 0.10 0. 1 0
39 12 9 7 ('
6. 6 6 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 33 10 7 6 5 5 5 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4
00 90 14 73 00 56 £6 05 89 76 58 51 46 41 36 33 £9 £6 £4 £1 19 17 16 14 £3 68 46 £6 64 £6 01 8£ 69 58 50 43 37 3£ £8 £4 £1 18 16 13 11 09 08 06 05
0 0 0 0 0 0 0 0 0 0. 0 0. 0 0 0. 0. 0 0. 0 0 0. 0. 0 0. 0. 0. 0. 0. 0. 0. 0. 0 0. 0. 0 0. 0. 0 0. 0 0. 0. 0. 0 0. 0. 0 0. 0. 0
05 1 9 00 07 8 38 6. 4 7 07 5 70 07 5 £9 08 5 08 03 08 4 86 08 4 73 08 4 63 08 4 56 08 4 50 4 45 03 08 4 40 08 4 37 08 4 34 4 31 08 08 4 £9 08 4 £7 4 08 08 4 £ 3 08 4 ££ 08 4 £0 08 4 19 08 4 18 08 4 17 09 1 6 3 7 1 £ 7 04 5 37 13 14 4 69 14 4 33 4 11 14 15 3 95 15 3 84 3 76 15 3 15 69 3 64 15 15 3 59 15 3 56 15 3 53 3 50 15 15 3 48 15 3 46 3 44 15 15 3 4£ :-; 4 1 15 ;-; 3 9 15 3 38 15 3 37 15 3 36 15 3 35 15
0. 0 1 0. 0 1 0. 0 1 0. 0 1 0. 0 1 0. 0 1 0. 0 1 0. 0 1 0. 0 1 0. 0 1 0. 0 1 0. 0 1 0.01 0. 0 1 0. 0 1 0. 0 1 0.01 0. 0 1 0. 0 1 0. 0 1 0. 0 1 0. 0 1 0. 0 1 0. 0 1 0. 0 1 0. 0 £ 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 03 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 0 3 0. 0 3
57 ££ 15 1£ 11 10 C| 9 9 3 C; 3 3 3 7 7 7 7 7 7 7 7 7 7 ('
47 18 1£ 10 8 8 7 7 6. 6. 6 6 6 6 6 6 6. 5 5 5 5 •5 5 5 5
53 S£ 71 86 35 42 80 35 01 74 53 36 2£ 10 99 90 8£ 75 69 63 58 54 50 46 43 49 40 50 14 90 14 6£ £5 98 76 59 45 33 £3 14 07 01 95 90 85 81 78 74 71 68
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
03 1 8 4 3 03 1 0 4 7 04 8 3 0 7 32 04 04 6 7 6 04 6 4 0 04 6. 1 5 5 96 04 04 5 8 £ 04 5 7 1 04 5 6 £ 04 5 5 5 04 5 4 8 04 5 4 3 04 5 3 9 04 5 3 4 04 5 3 1 04 5 2 8 04 5 £ 5 04 5 £ 3 04 5 £ 0 04 5 1 8 04 5 1 6 5 15 04 04 5 13 06 1 5 4 4 8 08 60 08 6 7 5 09 5 9 0 09 5 4 3 09 5 1 £ 09 4 9 1 09 4 7 5 09 4 6 3 09 4 5 4 09 4 4 6 09 4 4 0 09 4 3 4 09 4 3 0 09 4 £6 09 4 £ £ 1 0 4 19 1 0 4 17 1 0 4 14 10 4 1 £ 10 4 1 0 1 0 4 09 1 0 4 07 1 0 4 06 1 0 4 04
0 0 0 0 0 0 0 0 0. 0. 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
06 1 0 9 3 07 ? 17 07 6 02 08 5 47 08 5 15 08 4 94 08 4 79 08 4 68 08 4 59 08 4 52 08 4 47 08 4 4£ 08 4 38 08 4 35 08 4 32 os- 4 3 0 os 4 28 08 4 26 08 4 24 08 4 22 4 21 08 08 4 £0 08 4 19 08 4 18 4 17 08 9 11 £8 5 98 1£ 4 97 13 14 4 49 14 4 £1 14 4 02 3 89 15 15 3 80 o 72 15 3 66 15 3 6£ 15 3 58 15 3 54 15 3 51 15 3 49 15 3 47 15 3 45 15 3 43 15 3 41 15 3 40 15 15 39 3 38 15 3 37 15 3 36 15 3 35 15
487
Anhang — Tabellen Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen v 2 (gerade)
+ 1 (ungerade)
\
/ .99 *i
"2
'
4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
£ 4 6 8 10 12 14 16 18 £0 ££ £4 26 £3 30 3S 34 36 38 40 42 44 46 48 50 £ 4 6 8 10 12 14 16 18 20 22 24 26 28 30 3£ 34 36 38 40 42 44 46 48 50
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0. 0. 0 0. 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0.
.95 1
031 5c" 04 £3 05 1 2 9 05 R 06 7 06 06 6 06 6 6 06 06 5 5 06 06 5 5 06 5 06 5 06 5 06 5 06 06 5 5 06 06 4 06 4 06 4 06 4 06 4 06 4 04143 06 2 1 07 1 1 08 8 7 08 6 08 6 09 5 09 5 09 5 09 09 09 4 09 4 09 4 09 4 09 4 09 4 09 4 09 4 09 4 09 4 09 4 09 4 09 4 4 09
18 15 86 66 16 30 74 35 07 85 68 54 42 33 £5 17 11 06 01 97 93 89 86 84 81 5£ 45 fy 79 39 58 07 71 44 £4 08 95 84 75 67 61 55 50 46 4£ 38 35 32 29 27
' 0 0 0 0 0
0 0. 0 Cl 0 0. 0. 0 0 0 0. 0 0. 0. 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0 0. Ij 0. 0 0. 0. 0. 0 0. 0. 0. 0. 0. 0. 0 0. 0. 0.
.90 1
08 3 0 5 2 1 0 Q 60 6. 6 4 1£ 5 53 1£ 4 96 13 4 61 13 4 o? 13 14 4 21 4 08 14 14 3 98 14 3 91 3 84 14 3 79 14 14 3 74 14 3 70 3 67 14 14 3 64 3 6£ 14 3 59 15 15 57 3 55 15 15 3 54 3 52 15 3 51 15 3 49 15 1 0 £8 9 7 13 8 97 15 6 15 5 09 16 4 55 16 4 £1 17 17 99 18 3 83 q 7 1 18 3 6£ 18 18 3 55 ;-: 4 9 18 3 43 18 18 3 39 3 35 19 8 19 32 3 £9 19 3 £7 19 •o £ 5 19 £3 19 19 21 19 19 3 18 19 3 17 19 19 3 15
' 0 0 0 0 ij
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ü Ij Cl 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
.99
95
90
w
12 15 14 16 6 39 17 4 8£ 18 4 19 19 3 85 19 3 64 £0 3 50 £0 3 40 £0 3 3£ £0 3 £5 3 £0 £1 £1 3 16 £1 13 £1 1 0 £1 3 07 £1 05 3 03 21 £1 3 02 3 00 £1 £ 99 £1 £ 97 £1 £1 £ 96 £1 £ 95 £1 £ 94 £ 94 £1 14 14 44 19 6 00 £1 4 50 3 89 ££ £3 3 57 £4 3 36 3 £2 £4 ;-; 1 £ £4 3 £5 05 £ 99 £5 £5 £ 94 £ 90 £5 2 86 £5 £5 2 84 2 81 £6 £ 79 £6 £ 77 £6 26 £ 76 £ 74 £6. 26 2 73 £6 2 72 £6 2 71 £ £6 70 £ 69 £6 £ 68 £6
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0. 0. 0. 0 0, 0 0. 0. 0. 0. 0. 0. 0. 0 0. 0. 0. 0. 0. 0. 0. 0 0. 0. 0.
04 05 05 05 06 06 06 06 06 06 06 06 06 06 06 06 06 06 06 06. 06 06 06 06 06 05 07 07 08 08 08 09 09 09 09 09 09 09 09 09 09 09 09 09 09 09 09 09 09 09
4£ 16 10 £ 7 6 6 6 5 5 5 5 5 5 5 5 5 5 4 4 4 4 4 4 4 39 14 9 7 6. 6, 5 5 5 5 5 4 4 4 4 4 4 4 4 4 4 .4 4 4 4
59 £3 91 79 68 99 53 £0 95 76 61 48 37 £8 £1 14 09 03 99 95 91 88 85 8£ 80 76 94 96 98 94 30 87 56 33 15 01 89 79 71 64 58 53 48 44 40 36 33 31 £8 £6
09 1 4 0 0 ( 69 11 5 98 1£ 5 £0 13 13 4 764 48 13 14 4 £8 14 4 14 14 4 03 3 94 14 14 87 81 14 3 76 14 3 7£ 14 3 69 14 3 66 14 14 3 63 3 60 15 3 58 15 3 56 15 54 15 3 53 15 3 51 15 3 50 15 15 3 49 1 £ 13 17 7 15 14 5 15 4 78 16 17 4 36 4 09 17 91 17 18 3 77 3 18 66. 18 3 58 3 51 18 3 46 18 18 41 3 3r 18 34 19 19 3 31 "I; 19 £8 3 26 19 3 24 19 19 3 . ££ 19 3 . £0 19 3. 19 17 19 3 16 19 3. 15 0. 1 9 0 0 0 0 0 0 0 0 0 Ij 0. 0. 0 0 0 0. 0. 0. 0. 0. 0. 0. 0. 0.
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Ij 0 0 0 0 0 0 0 0 0 0 0. Ij. 0. 0. 0. Ij. 0. 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
14 17 18 19 19 £0 20 20 £0 21 £1 £1 21 21 21 21 21 21 £1 £1 £1 £1 £1 £1 £1 17 £0 £1 £3 £3 £4 £4 24 25 £5 £5 £5 £5 £5 £6 2626 £6 £6 £6 £6 26 £6 £6 £6-
8 48 5 40 4 45 4 00 3 74 3 57 3 44 3 35 3 £8 3 23 3 18 3 14 3 11 3 09 3 06 3 04 3 0£ 3 01 £ 99 £ 98 £ 97 p 96 £ 95 £ 94 £ y 3 8 02 5 05 4 14 3 71 3 45 3 ¿Q 3 17 j 08 01 £ 96 £ 9£ £ 88 2 85 2 SS £ 80 £ 78 £ 76 £ 75 p 70 £ 7£ £ 71 £ 70 £ 69 £ 68 £ 68
Anhang — Tabellen
488 Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen v 2 (gerade)
.99
"l
"2
'
6 6 6
2 4 ó 8 10 12 14 16 18 £0
0. 0. 0. 0. 0. 0. 0 0. 0. 0. 0. 0. 0. 0. 0. 0 0. 0 0. 0. 0. 0. 0. 0. 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
6 6 6 6 6 6 6 6 6 6 6 t< 6 6 6 6 6 6 é 6 6 7 7 7 7 7 7 7 7 7 7 7 7 r' 7 7 7 7 7 7 7 7 7 7 7 7
£4 £6 £8 30 3£ 34 36 33 40 4£ 44 46 48 50 £ 4 6 8 10 1£ 14 16 18 £0 ££ £4 £6 £8 30 3£ 34 36 38 40 4£ 44 46 48 50
.95 1
05137. 08 2 0 . Ñ9 11 10 o 10 6 6 11 11 5. 11 5. 11 5 1£ 4. 4. 1£ 4. 1£ 4 1£ 4. 1£ 4 1£ 1£ 4 4. 1£ 4 12 4 le4 le' 4 1£ 3 12 3 1£ 1£ 1 £ 3. 061 34 O1? 1'? 11 10 7 1£ 12 6 5 13 5 13 14 4 14 4 14 4 14 4 14 4 14 4 15 4 4 15 15 3 15 3 15 3 15 3 15 3 3 15 3 15 3 15 3 15 3 15
x 2 + 1 (ungerade)
94 33 07 22 88 11 62 27 02 83 67 55 45 36 £9 ££ 17 1£ 08 04 01 98 95 92 90 13 54 57 80 51 77 £9 96 71 53 38 26 16 08 01 95 89 35 81 77 74 71 6> 8 6-6 63
' 0. 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0. 0 0 0. 0 0 0 0 0 0. 0. 0. 0 0 0
0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
"
.90
'
11 21" 9 8 8 56 15 5 82 17 4 80 18 19 4 27 3 95 20 74 £0 ]; 5 8 £1 £1 3 47 3 •38 £1 3 30 £2 3 £4 22 3 19 22 22 3 15 3 12 ££ 3 09 22 3 06 ££ 3 03 £2 3 01 ££ 2 99 ££ 23 2 98 23 2 96 2 95 23 £ 9-3 £3 £ 9£ £3 1£ £ 7 £ 9 17 8 £7 5 59 19 4 59 £1 4 07 22 3 76 ££ 3 55 £3 3 40 23 3 £9 24 3 £0 £4 £4 3 13 .3 07 £5 3 02 98 £5 £ 94 £5 2 91 £5 £ §9 £5 £ 86 £5 £5 2 84 £6 2 82 £6 2 81 2 79 £6 2 78 £6 £6 2 76 26 2 75
'
' 0. 0. 0. 0. 0 0 0. 0. 0. 0. 0. 0. 0 0. 0. 0. 0. 0. 0. 0 0 0 0. 0. 0. 0 0 0 0 0 0 0 0 0 ñ
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
15 £1 £3 £5 £6 £7 £7 £8 oo £8 £9 £9 £9 £9 £9 £9 £9 30 30 30 30 30 30 30 30 17 ££ £5 £7 £8 £9 30 30 31 31 3£ 3£ 32 32 3£ 32 33 33 33 33 33 33 33 33 33
.99
> 13 9 8 5 75 4 £8 69 3 37 17 3 04 £ 94 £ 86 £ 81 £ 76 £ ?£ £ 69 £ 66 £ 63 £ 61 £ 60 £ 58 £ 56 £ 55 £ 54 £ 53 £ 52 £ 51 £ 50 13 6 6 5 57 4 13 55 3 23 3 04 £ 90 2 81 2 73 £ 67 £ 6- 3 59 £ 56 £ 53 £ 50 £ 48 £ 47 £ 45 £ 44 £ 42 £ 41 £ 40 39 £ 38 £ 37
'
.95 1
' 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 IJ
0 0 0 0 0 0 0 0 Ñ 0 0 0 0 0 0 0
07 08 09 1 0 11 11 11 11 11 12 12 12 12 12 12 12 12 12 12 12 12 12 12 1£ 1£ 08 1 0 1 1 1£ 13 13 13 14 14 14 14 14 14 15 15 15 15 15 15 15 15 15 15 15 15
37 14 Q 7 6 5 5 5 4 4 4 4 4 4 4 4 4 4 4 4 3 3 O 3 36 13 8 7 6 5 5 4 4 4 4 4 4 4 3 3
3 3 3 3 3 3 3
9¿ 09 33 44 45 84 43 14 9£ 74 61 50 40 32 £6 20 15 10 06 02 99 96 94 91 89 64 50 89 06 09 51 11 83 61 45 32 21 1£ 04 98 9£ 87 83 79 75 7£ 69 67 65 6£
'
" 0 0 Ú o o o 0. 0. 0. 0. 0. 0. 0. 0. 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. o 0 o o o o o o 0 o o 0 0 o
o 0 o o o o o o 0 o o
.90
~
13 1£ 6 3 6 79 16 18 5 £1 4 50 19 4 09 £0 £0 83 3 65 £1 £1 3 52 £1 3 42 £1 34 "¡ £ 7 ££ ££ 3 ££ ££ 17 ££ 13 2 c! 3 10 ££ 07 ££ 05 3 02 ££ 3 00 ££ ££ 2 99 £3 c! 9 7 £3 £ 95 £ 94 ¿3 £ 93 £3 £3 £ 92 15 1 £ £ 5 18 6 54 4 99 £0 £1 4 30 3 90 ££ £3 3 65 23 -O 4 7 3 34 £4 3 24 £4 £4 3 16 £4 3 10 £5 04 3 00 £5 £ £5 96 £ 93 £5 £ 90 £5 £ y ( £5 £ 85 £5 £ 83 £6 £ 81 £6 £ 80 26 £ 78 £6 £ 77 £6 £ 76 £6 £ 75 26
' 0 0. 0 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0 0
0 0
0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0
0
19 22 £4 £5 £6 £7 £7 £8 £8 £8 29 29 29 £9 £9 £9 30 30 30 30 30 30 30 30 30 £0 £4 26 £8 £9 30 30 31 31 31 3£ 32 32 32 32 •3 3 33 33 33 .33 33 33 33 33 33
7 4 3 3 3 3 £ £ £ 2 2 2 2 £ 2 £ £ £ £ £ £ £ 7 4 3 3 3 £ £ 2 2 2 £ 2 2 2 £ 2 2 £ £ £ £ £ £ 2 2
72 8£ 94 51 £6 1 0 98 90 83 78 74 70 67 65 ó£ 60 59 57 56 55 53 5£ 5£ 51 50 50 66 79 37 12 96 85 77 70 65 61 57 54 5£ 49 47 46 44 43 4£ 41 40 39 38 37
489
Anhang — Tabellen Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen v2 (gerade)
i>2 + 1 (ungerade)
/
.99 Vi
"2
8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8 8
2 4 6 8 10 12 14 16 18
8 8 8 8 ¡3 8 Q 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9 9
£0
££
£4 £6 £8 30 32 34 36 38 40 4£ 44 46 48 50 2 4 6 8 10 1£ 14 16 18 £0
££
£4 £6 £8 30 3£ 34 36 33 40 42 44 46 48 50
95
\
/
90
.99
\ 90
v
'
0 0 0. 0 0 0 0 0 0 0 0. 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
95
07 131 1 0 18 1 £ 10 13 7 14 15 5 15 5 16 4 16 4 16 4 16 4 16 4 17 3 17 3 17 o 17 3 17 3 17 3 17 3 17 3 17 3 17 3 17 3 18 3 18 3 081 £9 11 18 13 9 15 7 16 6 16 5 17 4 17 4 18 4 18 4 18 3 18 3 19 3 19 3 19 3 19 3 19 3 19 3 19 3 19 3 £0 3 £0 3 £0 3 £0 £0
35 96 19 50 £3 51 05 7£ 48 30 16 04 95 86 80 74 68 64 60 56 53 50 48 45 43 36 5£ 90 £6 0£ 31 85 54 30 1£ 98 87 77 70 63 57 5£ 48 44 40 37 34 31 £9 2.7
0 13 26 78 0 18 8 05 0 £1 5 4£ 0 £3 4 43 0 £4 93 0 £5 6£ 0 £5 3 41 0 £6 3 £6 0 £6 15 0 £7 06 0 £7 £ 99 0 £7 £ 94 0 27 £ 89 0 £7 £ 85 0 28 £ 81 0 28 £ 78 0 £8 £ 76 0 £8 2 73 0 £8 2 71 0 £8 £ 69 0 £8 2 68 0 £8 2 66 0 £8 2 6-5 0 £9 2 63 0 £9 2 62 0 14 £6 40 0 19 7 88 0 £2 5 28 0 £4 4 31 0 £5 3 81 0 £6 3 51 0 £7 3 30 0 £8 3 15 0 £8 3 04 0 29 £ 96 0 29 £ 89 0 29 £ 83 0 29 2 78 0 3 0 2 74 0 3 0 £ 71 0 30 £ 68 0. 3 0 £ 65 0 30 P 63 0 30 P 61 £ 59 0 31 0 31 £ 57 0 31 £ 56 0 31 £ 54 £ 53 0 31 0 31 £ 52
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
IS 13 43 24 5 44 27 4 01 29 3 44 30 13 31 2 93 32 2 8 0 33 2 7 0 33 2 63 34 2 57 34 53 34 2 49 34 2 46 35 2 43 35 p 4 0 35 2 38 35 2 37 35 2 35 35 2 34 36 2 32 36 P 31 •36 £ 30 36 2 29 36 P 28 36 2 28 18 13 25 25 5 34 28 3 92 31 3 35 32 3 04 33 2 85 34 2 72 35 2 62 35 2 55 36 2 49 36 2 45 36 2 41 37 2 38 37 ^ 35 37 2 33 37 2 3 0 37 2 29 38 2 27 38 2 26 38 24 •38 2 23 38 2 22 38 2 21 38 20 38 2 20
0 09 0 11 0 13 0 14 0 14 0 15 0 15 0 16 0 16 0 16 0 16 0 17 0 17 0 17 0 17 0 17 0 17 0 17 0 17 0 17 0 17 0 17 0 18 0 18 0 18 0 10 0 13 0 14 0 15 0 16 0 17 0 17 0 18 0 18 0 18 0 18 0 19 0 19 0 19 0. 19 0. 19 0. 19 0. 19 0. 19 0. 20 0. 2 0 0. 2 0 0. 2 0 0 20 0. 2 0
35 13 8 6 5 5 4 4 4 4 4 3 3 3 ;-;
3 3 ^
3 3 3 3 3 34 12 8 6 5 5 4 4 4 4 3 3
3 3 3 3 3 3 3 3 3
70 05 55 77
83 £6 87 59 39 23 10 99 90 33 76 71 6.6' 62 58 55 52 49 46 44 42 Q7 71 29 54 62 06 68 41 21 05 92 82 73 6*6 60 54 50 45 42 38 35 33 30 28 26
0. 16 11 97 0. £0 £1 35 0.22 4 83 4 14 0.23 0. £4 3 76 0. £5 50 0. £6 3 33 0. £6 3 2 0 0. ¿6 3 10 3 03 0. £7 £ 96 0.27 0. £7 £ 91 0. £7 £ 87 0. £8 £ 83 0. £8 £ 8 0 0. £8 £ 7 7 £ 74 0.28 0. £ 8 p 72 p 0. £8 70 0. £8 £ 68 0 . 2 8 £ 67 0. £8 2 65 0. 28 2 64 0. 29 2 63 0. 29 2 62 0 . 1 7 11 7 5 £ 20 0.21 0. 23 4 7 0 0.25 4 03 3 64 0.26 0. 27 3 39 3 ££ 0.27 0. £8 3 09 3 0.28 00 0. 29 2 92 0. £9 £ 86 0. £9 2 80 0. 3 0 £ 76 0. 3 0 £ 72 0 . 3 0 2 69 0. 3 0 2 66 0.30 2 64 0. 3 0 £ 6-2 0.3 0 £ 6 0 £ 58 0.31 0.31 £ 57 £ 0. 31 55 0. 31 £ 54 2 53 0.31 P 52 0.31
0 21 0 26 0 28 0 30 0 31 0 32 0 32 0 33 0 33 0 34 0 34 0 34 0 35 0 35 0 35 0 35 0 35 0 35 0 35 0 36 0 36 0 36 0 36 0. 36 0 36 0 2£ 0 £7 0 30 0. 31 0 33 0. 34 0. 34 0. 35 0. 35 0. 36 0. 36 0. 36 0. 37 0. 37 0. 37 0. 37 0. 37 0. 38 0. 38 0. O 0. 38 0. 38 0. 38 0. 38 0. 38
7 4 3 3 3
£ £
£ £ £
£
2 £ 2 2 2 2 £ £ 2 £ 2 2 2 £ 7
4 3 3 £ £ 2 2 2 2 £ 2 £ £ £ £ 2
£
2 2 £ £ 2 £ £
35 54 68 £6 02 86 75 66 60 55 51 47 44 42 39 37 36 34 33 32 31 30 29 28 £7 22 44 59 18 94 78 67 58 52 47 43 39 36 34 31 30 £8 26 25 £4 £3
££
£1
£0
19
490
Anhang — Tabellen
Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen i»i (gerade)
/ .99 "l "î 10 £ 10 4 10 6 10 8 10 10 1 0 12 10 14 10 16 10 IS 10 20 10 22 10 24 10 26 10 23 10 30 10 32 10 34 10 36 10 33 1 0 40 1 0 42 1 0 44 1 0 46 10 48 10 50 11 2 11 4 11 £ 11 8 11 10 11 12 11 14 11 16 11 18 11 20 11 22 u £4 11 26 11 28 11 30 11 32 11 34 11 36 11 38 11 40 11 42 11 44 11 46 11 48 11 50
x 2 + 1 (ungerade)
\ .90
.95
/ .99
\ .90
.95
v
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
08127 12 18 15 9 16 7 17 5 18 5 19 4 19 4 19 4 20 3 20 3 20 20 3 21 3 21 3 21 3 21 ;Z> 21 3 21 3 21 3 22 3 22 3 22 22 22 3 09126 13 17 16 17 6 18 5 19 5 20 4 20 4 21 4 21 3 22 3 22 3 22 3 22 3 23 3 23 3 23 3 23 3 23 3 23 3 2:3 3 23 3 23 3 24 24 3
70 16 67 07 85 15 70 39 16 98 84 73 64
0. 14 26 0.2 0 7 0.23 5 0 25 4 0. 27 0. 28 3 0. 29 3 0 • 29 3 0.30 2 0. 3 0 2 0. 31 2 0.31 2 0.31 2 0. 32 2 49 0 2 44 0. 32 2 39 0. 32 2 34 0. 32 2 2 39 0 3 27 0. 33 2 24 fr 33 2 21 0. 33 2 18 0. 33 2 16 0. 33 2 14 0. 33 2 34 0. 15 25 88 0.21 7 48 0.24 5 91 0 27 4 71 0. 28 3 02 0. 29 3 57 0. 3 0 3 £t> 0. 31 2 04 0. 31 2 86 0. 32 2 73 0. 32 2 62 0. 33 2 52 0. 33 2 45 0 33 2 38 0. 34 2 32 0. 34 2 27 0. 34 £ 23 0. 34 2 19 0.34 2 16 0. 34 2 13 0.34 2 1 0 0. 35 2 08 0. 35 2 05 0. 35 £ 03 0. 35 2
10 75 17 21 72 41 21 07 96 87 80 74 70 66 62 59 57 54 52 51 49 47 46 45 44 85 64 09 13 64 34 14 99 83 80 73 67 63 59 55 52 50 47 45 44 42 40 39 38 37
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
19 26 30 32 34 35 36 36 37 37 33 33 38 39 39 39 39 40 40 40 40 40 40 40 40 19 27 31 33 35 36 37 38 33 39 39 40 40 40 41 41 41 41 41 42 42 42 42 42 42
13 5 3 3 2 2 2 2 2 2 2 2 2 2 2 2 £ 2 2 2 2 2 2 2 2 13 5 3 3 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2
11 25 85 28 98 79 65 56 49 43 38 34 31 28 26 24 22 21 19 13 17 16 15 14 13 00 19 79 23 92 73 60 51 43 38 33 29 26 23 21 19 17 15 14 13 11 10 09 09 08
0 0 ü 0 0 0 0 o 0 o o 0 ij 0 0 Ij Ij 0 o Ij o 0 0 Ij Ij Ij o Ij Ij Ij Ij 0 0 Ij Ij Ij Ij Ij o Ü Ij Ij Ij Cl 0 0 0 0 Ij 0
11 14 15 1? IS IS 19 19 ¿0 £0 £0 ¿0 £1 £1 £1 £1 £1 £l £1 £1 ££ ££ ££ ££
11 14 1* 18 19 £0 £0 £1 £1 £1 ££ ££ ££ ££
£3 £3 £3 £3 r> 3
£3 £3 £3 £4 £4
34 41 0 18 1£ 44 0 22 S 08 0 25 36 0 26 46 0 27 4 9 0 0 28 4 53 0 29 4 26 0 3 0 4 06 0 3 0 3 91 0 31 3 78 0 31 3 68 0 31 6 0 0 31 3 52 0 32 3 46 0 32 3 41 0 32 3 36 0 32 3 32 0 32 3 29 0 33 3 25 Ij 33 3 22 0 33 3 20 0 33 3 17 0. 33 •"; 15 0 33 13 0 33 95 33 0. 18 1 £ 21 0 23 ? 92 0. 26 6 21 0 2 7 32 0 29 4 77 0. 3 0 4 41 0 31 4 14 0 31 3 95 0 32 •3 79 0 32 3 67 0 33 3 57 0 33 3 48 0. 33 3 41 0. 33 •q 35 0. 34 3 3 0 0. 34 3 0. 34 3 21 0. 34 3 18 Ij 34 3 14 0. 34 3 1 1 0. 35 3 09 0. 35 •3 06 0. 35 3 04 0. 35 3 02 0. 35
11 6 4 3 3 3 3 3 2 2 2 2 2 2 2 2 2 £
2 2 2 £ £ £ £ 11 5 4 3 3
3 2 2 £
8 2 2 2 2 2 2 2 p 2 2 2 2 2 2
58 09 60 93 55 30 13 01 91 83 77 72 68 64 61 53 5653 51 50 48 47 45 44 43 44 99 52 85 47 £3 06 93 84 76 70 65 61 57 54 51 49 46 44 43 41 40 38 37 36
0 £3 0 £8 0 31 0 33 0 34 0 35 0 36 0 37 0 37 0 38 0 38 0 38 0 39 0 39 0 39 0 39 0 39 0 40 0 40 0 40 0 40 0 40 0 40 0 40 0 40 0 £4 0 £9 0 32 0 34 0 35 0 37 0 37 0 33 0 39 0 39 0 40 0 40 0 40 0. 4 0 0 41 0. 41 0 41 0 41 0. 41 0 4£ 0 42 0 42 0 42 0 42 0 42
7 4 3 3 2 £ £ 2 £ £ £ £ £ £ £ £ 2 2 £
£ £ £ £ 2 7 4 3 3
2 2 2 2 2 2 2 2 2 2 2 2 2 £
2 2 2 2 2 2 2
13 37 52 11 87 71 60 52 46 40 36 33 30 27 25 23 21 20 19 17 16 15 14 14 13 05 30 46 06 y2 66 55 47 40 35 31 27 24 22 20 18 16 15 13 12 11 10 09 08 07
491
Anhang — Tabellen Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen »2(gerade)
i>2 + 1 (ungerade)
/ .99 "i 12 12 12 12 12 12 12 12 12 12 12 12 12 12 12 12 12 12 12 12 12 12 12 12 12 13 13 13 13 13 13 13 13 13 13 13 13 13 13 13 13 13 13 13 13 13 13 13 13 13
•
2 4 ¡3 10 12 14 Ii. 1 ¡3 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
.95
.90
091 25 2 3 14 17 6 4 9 33 16 18 6 73 5 59 19 2 0 4 91 4 47 21 4 16 £2 3 94 22 -j 7 6 23 23 63 3 52 23 3 43 24 24 3 35 24 29 3 23 24 3 18 24 3 14 25 3 10 25 25 07 q 04 25 o 01 25 2 98 25 2 96 25 2 94 25 101 2 4 31 14 17 4 4 9 19 17 K t- ( 19 5 49 20 4 81 21 22 4 38 4 07 23 23 3 35 24 3 68 24 3 55 3 44 25 ]: 3 5 25 3 27 25 3 21 25 3 15 26 26 10 3 06 26 26 3 02 26 2 99 •zi 9 6 26 26 2 93 2 90 27 2 88 27 ¿¿7 2 8 6
. 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0. 0 0 0 0 0 0 0 0 0 0 0 0 III 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
15 22 25 28 29 31 31
oc
33
p 2 2 p 2 2 2 2 2 2 2 2 £ 2 2 £ 2 £5 7 4 4 3 3 3 2 o £ 2 o 2 2 2 2 2 2 2 2 2 £ 2 2 2
34 34 35 35 35 35 35 36 36 36 36 36 36 36 37 16 22 26 29 30 32 33 33 34 35 35 35 36 36 36 37 37 37 37 37 38 33 38 38 33
i 7 "5 4 3 3 3
£
65 55 01 07 58 28 08 93 82 74 67 61 57 53 49 46 44 41 39 38 36 34 33 32 31 48 47 95 01 52 22 02 88 77 69 62 56 52 48 44 41 39 36 34 33 31 29 28 27 26
\
.99
.95
90
. 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
2 0 12 9 0 27 5 13 32 3 74 3 18 34 2 88 36 37 2 69 38 2 56 39 2 46 4 0 2 39 2 33 40 41 2 £8 41 2 £5 42 2 £1 2 19 42 42 2 16 42 2 14 43 2 12 43 2 11 43 2 09 2 08 43 2 07 43 2 06 43 43 2 05 2 04 44 2 03 44 2 0 12 8 2 5 28 08 32 3 70 3 14 35 37 £ 84 P 65 38 £ 52 39 4 0 2 42 41 2 35 £ £9 41 42 24 42 £ 21 43 2 17 43 2 15 43 e.' 12 2 10 44 2 08 44 44 2 07 £ 05 44 44 £ 04 45 £ 03 2 45 02 45 01 £ 00 45 45 1 99
12 15 17 19 £0 £1 £1 ££ £2 £3 £3 £3 24 24 £4 £4 £4 £5 25 25 25 = 5 25 25 25 1£ 16 18 £0 £1 ££ £3 £3 24 24 24 25 25 25 26 26 26 26 26 £6 £6 £7 £7 27 27
33 12 7 6 5 4 4 4 3 3 3 3 3 3 3 3 3 3 3 3 2 2 2 33 11 7 5 5 4 4 3 3 3
^
3 3 3 o 2 2 2 2 2 2
57 03 77 09 21 67 30 04 85 69 57 47 39 32 26 £0 16 12 08 05 02 00 97 95 93 25 88 65 99 11 57 £1 95 76 61 49 39 31 £4 18 12 08 04 00 97 94 92 89 87 85
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0, 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
1 9 11 3 3 5 91 24 27 4 45 29 3 79 3 0 3 41 3 17 31 32 3 00 33 2 87 33 2 78 2 70 34 £ 64 34 2 59 34 £ 55 35 2 51 35 2 48 35 2 45 35 36 2 43 36 2 40 36 2 38 36 2 37 36 2 35 2 34 36 2 32 36 37 2 31 37 2 30 £ 0 11 £ 3 £4 5 84 27 4 39 29 3 73 3 36 31 32 12 2 95 33 2 8£ 34 34 2 73 2 65 35 2 59 35 2 54 36 36 2 50 2 46 36 37 2 43 37 £ 40 £ 37 £ 35 ¿7 37 2 33 37 2 3£ 38 2 30 38 2 £9 38 2 £7 2 £6 38 38 2 £5
0 0 0 0 0 0 0 0
0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ü 0 0 0 0
£4 3 0 33 35 37 38 39 39 40 41 41 41 4£ 4£ 4£ 4£ 43 43 43 43 43 43 44 44 44 £5 30 34 36 38 39 40 41 41 42 42 43 43 43 44 44 44 44 44 45 45 45 45 45 45
6 99 4 25 3 41 3 01 £ 77 £ 6£ 2 50 2 4£ 2 36 2 31 2 £6 2 23 2 £0 2 17 2 15 £ 13 £ 12 £ 10 £ 09 £ 07. 2 06 2 05 2 . 04 2 04 2 03 6 93 4 £1 3 37 2. 97 2 73 2 58 2. 47 2 38 2. 32 2 27 2 £2 2 19 2 16 2 . 13 2 11 2 09 2 08 2 06 2 05 2 04 2 02 2 01 2 01 2 00 1 99
492
A n h a n g — Tabellen
Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen f 2 (gerade)
/ 99 v
14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 14 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15 15
v 2 + 1 (ungerade)
.95
V7
4 8 10 18 14 16 IS £0 ££
24 26 £8 30 32 •34 36 38 40 4£ 44 4t. 48 50 £
4 6 8 10 1£ 14 16 18 £0
££
£4 £6 £8 30 35 34 36 38 40 4£ 44 46 48 50
/ .99
.90
\ .90
.95
'
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1 0123 15 17 18 9 £0 6 £1 5 4 ££ 23 4 £4 4 £5 3 25 3 25 3 26 3 26 3 26 3 27 3 27 3 27 3 27 £ 27 £ £8 £ £8 £ £8 2 28 £ £8 £ £8 £ 1 01£2 15 17 18 8 £1 6 5 ££ ft £3 4 0 £4 4 0 25 3 0 £6 ^ 0 £6 3 0 ¿7 3 0 £7 3 0 £7 3 0 28 3 0 £8 3 0 £8 3 0 £8 2 0 ¡=.'8 2 0 29 £ 0 £9 2 0 £9 ¿> 0. £'3 2 0 29 2 0. 29 £ 0 29 £
54 £7 08 57 40 73 30 00 78 61 47 36 C.' f £0 14 08 03 99 95 92 89 86 84 81 79 87 1£ 9:5 49 35 £6 £3 93 71 54 41 30 £1 14 07 02 97 93 ¡39 86 83 80 78 75 73
0 16 0 £3 0 £7 0 £9 0 31 fi 33 0 34 0 34 0 35 0 36 0 36 0 37 0 37 0 37 0 38 0 38 0 38 0 38 0 39 0 39 0 39 0 39 0 39 o 39 o 39 0 16 0 £3 0 £7 o 30 0 3£ o :-: 3 0 34 o 35 0 36 0 •37 0 37 0 38 o 33 o 38 o 39 0. 39 n 39 0 40 0 40 o 40 0. 4 0 0. 4 0 0. 4 0 0. 41 0. 41
£5 7 4 3 3 3 £ £ £ £ £ £ £ £ £ £ £
£
34 41 90 96 47 18 98 83 73 64 57 5£ 47 43 40 37 34 3£ 30 £8 £6 £5 £4
£ £ £ £ £ £ ££ £ £1
£5 7 4 3 3 £ £ £ £ £ £ £ £ £ £ £ £ £ £ £ £ £ £
£
££
35 85 9£ 43 14 94 80 69 60 54 48 43 39 36 33 30 £8 £6 £4 £3 £1 £0 18 17
0.21 0. 29 0. 33 0. 36 0. 38 0. 39 0. 4 0 0.41 0. 42 0. 43 0. 43 0. 44 0. 44 0. 44 0. 45 0. 45 0.45 0. 45 0. 45 0. 46 0. 46 0. 46 0. 46 0. 46 0. 46 0.21 0. 29 0. 34 0.36 0. 38 0.4 0 0.41 0. 4£ 0.43 0. 4 3 0.44 0. 45 0.45 0. 45 0. 46 0.46 0. 46 0. 46 0.47 0.47 0.47 0. 47 0.47 0.47 0. 48
12 76 5 04 3 67 11 £ 80 £ 61 £ 48 £ •39 2 3£ £ £6 £ £1 £ 17 £ 14 £ 1 1 £ 09 2 07 2 05 £ 03 £ 0£ £ 01 £ 00 1 99 1 98 1 97 1 96 1£ 7 0 5 01 3 64 3 0:3 2 78 £ 59 2 45 £ 36 P £9 2 £3 £ 18 2 14 2 11 £ 08 2 06 £ 04 £ 02 £ 01 1 99 1 98 1 97 1 96 1 95 1 94 1 93
0 13 0 16 0 19 o £1 o ££ o £3 0 £4 o £4 o ¿5 0 £5 0 £6 0 £6 o £6 o £7 o £7 0 £7 0 ei 7 0 £7 o £8 o £8 n £8 fl £8 0 £8 ü £8 0 £8 0 13 0 17 0 £0 0 £1 0 £3 0 £4 0 £5 0. £5 0 £6 0 £6 0. £ ? o £7 0. £7 0. £8 0. £8 0. £8 0. £8 0. £9 0. £9 0. £9 0. £9 0. £9 0. £9 0. £9 Iii. ¿Q
3£ ii 7 5 5 4 4 3 q 3 3 3 3
^
3 3 £ £ £ £
2
£ £ £
3£ 11 7 5 4 4 4 3 3 3 3 3 t; £
2 £
£ £ £ £ £ £
93 74 55 90 03 49 14 88 69 54 4£ 3£ £4 17 11 05 01 97 93 90 87 85 83 80 78 75 63 47 8£ 95 43 07 81 6£ 47 35 £6 17 10 05 99 95 91 87 84 81 79 77 74 7£
0. £ 0 0. £5 0. £8 0. 3 0 0. 32 0. 33 0. 34 0. 35 0.35 0. 36 0. 3 6 0. 37 0. 3 7 0. 38 0. .33 0. 33 0. 3 8 0. 3 8 0. 3 9 0. 39 0. 3 9 0. 3 9 0. 3 9 0. 39 0. 39 0. £ 0 0. £ 6 0. £ 9 0. 31 0. 33 0. 34 0. 35 0. 3 6 0. 36 0. 3 7 0. 3 7 0. 3 8 0. 3 8 0.3 9 0. 39 0. 39 0. 39 0. 4 0 0. 4 0 0. 4 0 0. 4 0 0. 4 0 0. 4 0 0.41 0.41
11 5 4 3 3 3 2 2 £
2 £ £ £ £
£ £ £ £ £
£ £ £ £ £
11 5 4 3 3 3 £ £ £ £ £ £ £ £ £ £
£
2
£ £ £ £ £
2
£
15 79 34 68 31 07 90 78 68 61 54 49 45 41 38 36 33 31 29 £7 £6 £4 23 22 £1 08 74 30 64 27 03 86 74 64 57 51 46 41 38 34 32 29 £7 £5 23 22 20 19 18 17
0 0 0 0 ft II 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
25 31 34 37 38 40 41 4£ 4£ 43 43 44 44 44 45 45 45 45 46 46 46 46 46 46 46 £6 3 c! 35 37 39 41 42 4£ 43 44 44 45 45 45 46 46 46 46 47 47 47 47 47 47 48
6 4 3 2 2 2 2 2 P 2 £ £
2 P £ £
2 2 2 2 1 1 1 1 1 6« 4 3 £
2 2 P £ £ £ £
2 £ £ £ £ £
1 1 1 1 1 1 1
88 17 34 94 70 54 43 35 29 23 19 16 13 10 08 06 04 03 01 00 99 98 97 96 96 84 14 31 91 67 51 40 3£ £6 £0 16 13 10 07 05 03 01 00 98 97 96 95 94 93 93
Anhang — Tabellen
493
Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen (gerade)
Vl
/ 99 "l 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 7 7 7 7 7 7* 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7
.95
N
/
.90
.99
"2 2 4 6 8 10 12 14 16 18 £0
££
£4 £6 £8 80 32 •34 36 38 40 42 44 46 48 50 g 4 6 8 10 1£ 14 16 18 20 22 24 26 28 30 '32 34 36 38 40 4£ 44 46 48 50
+ 1 (ungerade)
\ .95
.90 *
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
101 16 19 21 £3 £4 £5 £6 26 £7 28 28 28 2'? 29 29 £9 30 30 30 30 30 30 31 31 111 16 19 22 23 £5 £6 £7 £7 £8 £8 29 29 30 30 30 30 31 31 31 31 31 31 32 32
22 16 8 6 5 4 4 3 3 3 3 3 3 3 3
P £ 2
£ £
p £ 2 £
£
21 16 8 6 5 4 4 3 3
•-:
^ 3 3 2 £ £ 2 2 2 2 2 £ 2 2
30 99 90 42 26 60 17 87 66 49 35 25 16 08 02 97 92 88 84 80 78 75 72 70 68 80 88 82 36 20 54 12 8 c.' 61 44 31 20 11 04 97 92 87 83 79 76 73 70 68 65 63
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ù 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0.
17 25 11 7 31 24 £8 4 SI 31 3 §8 33 40 3 1 0 34 £ 90 35 £ 7b 36 37 2 «57 £ 38 2 50 38 2 45 39 39 2 40 39 2 36 40 2 32 40 2 30 40 2 27 41 2 25 2 23 41 41 2 21 2 19 41 2 18 41 41 2 16 2 15 4£ 4£ 2 14 1 7 2e» 02 7 26 £4 28 4 78 31 3 85 3 37 33 3 07 35 2 87 36 37 2 73 38 2 62 38 2 54 39 2 47 2 41 40 2 37 40 2 33 40 41 2 29 41 2 26 41 2 24 4a 2 22 2 20 42 42 2 18 o 16 42 2 15 42 43 2 13 2 12 43 2 11 43
0 0 o 0 0 0 M 0 0 o o 0 0 0 o o o o l'I 0 o 0 o o o 0 0 0 o 0 0 o 0 o o o o o 0 o
o 0
0 o o o û
2 1 12 6 5 4 98 29 34 3 61 37 3 05 £ 75 39 2 56 41 42 2 43 £ 33 43 44 2 £6 £ 20 44 2 16 45 2 12 45 46 £ 09 2 06 46 47 2 03 47 01 47 1 99 47 1 93 1 96 48 48 1 95 48 1 94 1 93 48 1 92 48 1 91 48 49 1 90 2 1 1£ 6 0 3 0 4 95 34 59 38 3 03 0 40 73 2 54 41 2 41 43 £ 31 44 2 £4 44 45 £ 18 £ 13 46 £ 09 46 2 06 47 47 2 03 47 2 01 •48 1 99 48 1 97 1 96 48 1 94 48 49 1 93 49 1 92 1 91 49 49 1 90 49 1 89 50 1 88
0 0 1*1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0
0 0 0 0 0 0 0 0 0 0 0 0 0 0
0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1 3 32 5 4 18 11 5 3 7 39 20 5 75 22 -'3 4 89 4 36 25 25 4 01 3 76 26 3 57 27 ¿7 3 42 28 30 3 20 28 28 3 12 29 3 05 2 99 29 £ 94 29 £ 29 90 30 2 86 30 £ 8£ 2 79 30 £ 76 30 £ 74 30 £ 71 30 £ 69 31 £ 67 31 14 32 37 18 11 44 7 3£ 21 5 6-9 £3 £4 4 83 £5 4 31 3 96 26 27 3 71 £8 3 5£ 3 37 £8 £9 3 £5 3 £9 15 3 07 £9 3 00 30 2 94 30 £ 89 30 2 30 85 2 81 31 P 77 31 31 2 74 2 71 31 2 69 31 32 2 6> 7 32 2 64 p 63 3£
0. £ 1 1 1 02 0. £ 6 5 69 0. £ 9 4 26 3 0. 3 £ 61 0. 3 3 3 23 3 00 0. 3 5 2 83 0. 36 £ 70 0. 3 7 £ 61 0. 3 7 0. 3 8 £ 53 2 47 0. 3 8 2 42 0. 3 9 0. 3 9 2 38 0. 4 0 2 34 2 31 0. 4 0 2 28 0. 4 0 2 26 0. 4 0 0.41 2 £4 0.41 2 ££ £ 20 0.41 £ 18 0.41 £ 17 0.41 £ 16 0.4£ £ 14 0.4£ £ 13 0. 4 2 0. £ 1 1 0 9 6 0. £ 7 5 66 0.3 0 4 £3 0. 3 2 3 57 0. 3 4 £0 0.35 £ 96 0. 3 7 2 80 £ 67 0. 3 7 2 58 0. 3 8 £ 50 0. 3 9 £ 44 0. 3 9 2 0.40 39 2 35 0. 4 0 0.41 2 31 £ £8 0.41 £ £5 0.41 p 0.41 £3 0.42 2 21 0.42 2 19 0. 4 2 2 17 0. 4 2 2 15 0. 4 2 2 14 0.43 2 13 £ 11 0. 4 3 £ 10 0.4 3
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Cl 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
£6 32 36 38 40 41 4£ 43 44 45 45 46 46 46 47 47 47 47 48 48 48 48 48 49 49 26 3£ 36 39 41 4£ 43 44 45 45 46 46 47 47 48 48 48 48 49 49 49 49 49 49 50
6 81 4 11 3 £8 £ 88 2 65 g 49 2 38 £ £9 £ £3 2 18 14 g 10 £ 07 £ 05 £ 02 £ 00 1 99 1 97 1 96 1 95 1 93 1 9£ 1 91 1 91 1 90 6 78 4 09 3 £6 £ 86 £ 62 £ 47 P 36 2 £7 £ £1 16 £ 11 £ 08 £ 05 p 0£ £ 00 1 98 1 96 1 95 1 93 1 92 1 91 1 90 1 89 1 88 1 87
494
Anhang - Tabellen
Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen v 2 (gerade)
.99
i>2 + 1 (ungerade)
\ .90
.95
/ .99
\ .90
.95
"2 18 18 18 18 18 18 18 18 18 18 18 18 18 18 18 18 18 18 18 18 18 18 18 13 13 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19 19
2 4 6 8 10 1£ 14 16 18 £0 ££
£4 £6 £8 30 32 34 36 38 40 4£ 44 46 48 50 £
4 6 8 10 1£ 14 16 18 £0 ££
£4 £6 £8 30 3£ 34 36 38 40 4£ 44 46 48 50
0. 111 21 16 16 20 8 22 6 0. £4 5 0. £5 4 0. £6 4 0. ¿7 3 0. £8 3 0. £9 3 0. £9 3 0. 30 3 0. 3 0 3 0. 30 £ 0. 31 £ 0. 31 2 0. 31 £ 0. 3£ 2 0. 3£ £ 0. 3£ £ 0. 3£ £ 0. 3£ 2 0. 3£ £ 0. 33 £ 0. 33 £ 0. 111£1 0. 1? 16 0. £0 0. £3 6 0. £5 5 0. £6 4 0. 27 4 0. £8 3 0. £9 3 0. £9 3 0. 3 0 3 0. 3 0 3 0. 31 3 0. 31 2 0. Vi 2 0. 32 2 0. 3£ 2 0. 3£ £ 0. 3:3 £ 0. 33 2 0. 33 2 0. 33 £ 0 •33 £ 0. 34 £ 0. 34 £
36 78 76 30 15 50 07 78 56 39 £6 16 07 99 93 87 83 79 75 7£ 69 66 63 61 59 07 69 70 £5 11 45 03 74 52 35
0.17 24 0. £4 7 0. £9 4 0. 32 3 0. 34 3 0. 35 C; 0. 37 £ 0. 38 £ 0. 39 £ 0. 39 £ 0. 4 0 £ 0.4 0 £ 0.41 £ 0.41 0. 42 £ 0. 4£ £ 0.4£ £ 0. 4£ £ 0. 43 £ 0. 43 £ 0. 43 £ 0.43 £ 0.43 £ 0. 44 £ 0. 44 £ 0. 17 £4 0. £5 7 0. £9 4 0. 32 3 0. 34 t; 0. 36 3 0. 37 2 0. 38 2 0. 39 2 0.40 2 0.41 2 ££ 1£ 0.41 2 03 0. 42 2 95 0. 42 2 89 0. 42 2 84 0.4 3 2 79 0.4 3 £ 75 0. 4:3 £ 71 0.44 2 68 0. 44 £ 65 0. 44 £ 6£ 0. 44 £ 6 0 0. 44 £ 57 0. 44 £ 55 0.45 2
93 ££
75 82 34 04 85 70 60 51 44 39 34 30 27 24 21 19 17 15 13 12 10 09 08 86 19 72 79 31 02 82 68 57 49 42 36 32 £8 £4 £1 19 16 14 12 11 09 08 07 06
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
££
.3 0 .35 38 40 4£ 43 44 45 46 46 47 47 48 48 49 49 49 49 50 50 50 50 50 50 ££
30 35 38 41 42 44 45 46 46 47 48 48 49 49 49 50 50 50 50 51 51 51 51 51
12 57 4 93 56 :3 01 £ 71 £ 5£ 2 39 2 29 2 22 2 16 £ 11 £ 07 £ 04 2 01 1 99 1 97 1 95 1 93 1 92 1 91 1 89 1 88 1 87 1 87 1 86 1£ 53 4 91 3 55 £ 99 2 69 2 50 2 37 2 27 2 20 2 14 2 09 £ 06 £ 02 1 99 1 97 1 95 1 93 1 91 1 90 1 89 1 88 1 86 1 85 1 85 1 84
0. 14 3£ 0. 18 11 0. £ 1 7 0. 23 5 0. £5 4 ij. 26 4 0. 27 3 0.28 3 0. £8 3 0. 29 3 0. 29 3 0. 3 0 3 0. 3 0 3 0. 31 £ 0. 31 £ 0. 31 £ 0. 31 £ 0. 3° £ 0. 32 2 0. 32 2 0. 3£ 2 0. 33 £ 0. 33 £ 0. 33 2 0. 2 0. 14 32 0. 19 1 1 0. 22 7 0. £4 5 0. ¿5 4 0. 27 4 0. £8 0. £8 3 0. 29 .3 0. 3 0 3 0. 3 0 3 0. 31 3 0. 31 2 0. 31 £ 0. 32 2 0. 32 2 0. 32 £ 0. 33 2 0. 33 2 0. 33 2 0. 33 2 0. 33 £ 0. 33 £ 0. 34 £ 0. 34 £
£1 36 26 64 78 26 91 66 47 32 £1 11 03 96 90 85 81 77 73 70 67 65 6£ 60 58 07 29 £1 59 74 ££
87 62 43 28 17 07 99 92 86 81 77 73 69 66 63 61 59 56 54
0. £1 0. £7 0. 3 0 0. 33 0 35 0. 36 0. .37 0. 38 0. 39 0. 4 0 0. 4 0 0. 41 0. 41 0. 41 0. 42 0. 42 0. 4£ 0. 4 3 0. 43 0. 43 0. 4:3 0. 43 0. 44 0. 44 0. 44 0 ££ 0 £7 0 31 Q 33 0 35 0 37 0 38 0 39 0 40 0 40 0 41 0 41 0 4£ 0 4£ 0 43 0 43 0 43 0 43 0 44 0 44 0 44 0 44 0 44 0 45 0 45
10 5 4 3 3
9£ 6£ 19 55 18 94
0. £7 0. 38 0 37 0 39 0 41 £ 0 43 £ 77 0. 44 £ 65 0. 45 2 55 0. 45 0. 46 £ 48 2 41 0 47 £ 36 0 47 2 3£ 0 48 •p£ £8 0 48 £ £5 0 48 £ ££ 0 49 2 £0 0 49 2 18 0 49 2 16 0 49 2 14 0 50 2 13 0 5 0 £ 1 1 0 50 £ 1 0 0 50 2 09 0 50 c' 08 0 5 0 1 0 87 0 £7 5 59 0 33 4 17 0 37 3 5£ 0 4 0 3 15 0 4£ o 91 0 43 £ 74 0 44 2 6£ 0 45 £ 53 0 46 0 47 £ 45 £ 39 0 47 £ 34 0 48 £ 3 0 0 48 £ £6 0 49 £ £3 0 49 £ £0 0 49 £ 18 0 50 £ 15 0 50 0 50 £ 13 0 50 £ 12 2 1 ü 0 51 2 09 0 51 £ 07 0 51 2 06 0 51 0 51 £ 05
75 4 07 £4 £ 84 0 60 £ 45 33 £ £5 £ 19 £ 13 £ 09 £ 06 03 £ 00 1 98 1 96 1 94 1 93 1 91 1 90 1 89 1 88 1 87 1 86 1 85 t. 73 4 05 3 22 £ 82 £ 58 43 £ 32 £3 2 17 £ 12 £ 07 £ 04 p 01 1 98 1 96 1 94 1 92 1 91 1 89 1 88 1 87 1 86 1 85 1 84 1 83
495
Anhang — Tabellen Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen v 2 (gerade)
» 2 + ' (ungerade)
/ .99 "i 20 20 20
"2
•
2
0 0 0 0 0 0 0 0 0
4 6. 8 10 12 14 16 18 20 22 24
20 20 20 20 20 20 20 20 20 20 26 £ 0 28 2 0 30 £0 £0 20 £0 £0 £0 £0 £0 £0 £0 £1 £1 £1 £1 £1 £1 £1 £1 £1 £1 £1 £1 £1 £1 £1 £1 £1 £1 £1 £1 £1 £1 £1 £1 21
32 34 •36 OC; 40 42 44 46 48 50 2 4 6 8 10 12 14 16 18 £0 22 24 26 £8 30 32 34 36 38 40 42 44 46 48 50
0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
'
.95 •
'
62 61 64 £0 07 41 99 7 0 48 32 19 08 99 9£ 2 86 2 80 2 75 2 71 2 68 2 64 2 61 £ 59 £ 56 £ 54 2 5£ 1 20 31 16 54 8 59 6 16 5 03 4 38 3 96 3 67 3 45 3 £8 3 15 3 05 2 96 2 89 2 82 £ 77
0 0 0 0 0 0
1 1 1 20 1 7 16 8 21 6. 23 25 5 2? 4 28 3 3 £9 £9 3 30 3 31 3 3 31 32 2 2 :3£ 32 33 33 33 34 34 34 34 34 34 35 11 1? £1 £4 £6 £7 £8 £9 30 31 31 32 32 33 33 33 34 34 34 35 35 35 35 .35 •35
£ 72 £ 68
£ 2 £ 2 2 2 £
64 61 58 55 5 3 51 49
0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
.90
\
.99
.95
.90
— 17 £4 7 £5 3 0 4 33 .35 '3 37 3 £ 33 £ 39 £ 40 £ 41 41 £ £ 42 42 £ £ 4.3 £ 4 3 £ 43 44 c £ 44 £ 44 £ 45 £ 45 £ 45 £ 45 £ 45 45 £ 18 £4 25 7 4 30 3 :3 "3 35 37 £ 38 £ 2 39 2 40 41 2 2 42 2 42 2 43 2 4 3 44 2 o 44 2 44 2 45 45 2 2 45 2 45 46 2 2 46 2 46 2 46
80 16 69 77 29 00 80 66 55 46 40 34 29 25 22 19 16 14 12 1 0 09 07 06 04 03 74 13 67 75 27 98 78 64 53 44 38 32 27 23 2 0 17 14 12 10 08 07 05 04 02 01
0.22 0. 3 1 0. 3 6 0.39 0.41 0.4 3 0.44 0.45 0.46 0.47 0. 48 0. 4 8 0. 4 9 0. 4 9 0.50 0.50 0.50 0.51 0.51 0.51 0.51 0.51 0. 5£ 0.5£ 0.5£ 0. 2£ 0.31 0.36 0.39 0.4£ 0.43 0. 4 5 0. 4 6 0.47 0.48 0.48 0. 4 9 0.49 0.50 0.5 0 0.51 0.51 0.51 0.51 0.52 0. 5 2 0. 5 2 0.52 0.53 0. 5 3
12 4 3 2 2 2 2 2 2 £ 2 2 2 1 t 1 1 1 1 1 1 1 1 1 1 12 4 3 2 2 2 2 2 2 2 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1
5 0 89 53 97 67 48 35 26 18 12 08 04 01 98 95 93 91 90 88 87 86 85 84 83 82 47 87 51 96 66 47 34 24 17 1 1 06 OS 99 96 94 92 90 88 87 85 84 8 3 82 81 80
15 31 19 11 7 22 24 5 26 4 27 4 3 28 29 3 -j 30 30 3 3 31 31 3 £ 32 2 32 3 3 2 2 33 2 33 33 2 P 34 34 2 34 2 34 2 34 2 34 2 2 35 1 5 31 19 11 22 7 5 25 26 4 28 4 29 3 3 3 0 3 0 3 3 31 32 3 32 3 33 2 £ 33 2 33 £ 34 £ 34 £ 34 £ 34 £ 35 2 35 £ 35 £ 35 £ 35
94 2 ° 16 55 70 18 83 58 40 £5 13 03 95 89 83 78 73 69 66 63 60 57 55
5 3 51 33 18 1 1 51 66 15 80 55 36 22 10 00 92 85 80 74 70 66 63 60 57 54 52 5 0 £ 48
0 0 0 0 0 0 0
0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
££ 1 0 £8 5 31 4 34 3 36 2 37 o 38 2 39 2 40 41 £ 2 4£ £ 4£ £ 42 2 4:3 2 43 44 2 2 44 44 2 44 2 2 45 o 45 45 £ £ 45 O 45 O 46 22 1 0 28 5 3£ 4 34 36 3 2 38 2 39 4 0 2 £ 41 £ 4£ 42 £ 43 £ 43 2 £ 44 £ 44 44 £ 45 2 £ 45 £ 45 £ 45 46 £ £ 46 £ 46 £ 46 46 £
8:3 57 14 50 13 89 72 6 0 5 0 43 37 :3£ 27 24 £0 18 15 13 11 09 08 06 05 04 0:3 80 54 12 48 11 87 70 58 48 41 35 30 £5
££ 18 16 13 11 09 07 06 04 03 02 01
0 0 0 0. 0 0 0 0 0 0 0 0 n 0 0 0 0 0 0 0 0 0 ri 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
27 33 37 40 42 44 45 46 47 47 48 49 49 49 5 0 50 5 0 51 51 51 51 52 52 52 5£ £7 34 38 41 43 44 45 46 47 48 49 49 50 50 5 0 51 51 51
52 52 5£ 52 52 53 53
6 4 :3 2 2 2 2 2 2 £ 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 6 4 3
P 2 2 2
2 2 2 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1
70 03 20 8 0 57 41 3 0 22 15 10 06 0£ 99 97 94 9£ 91 89 88 86 85 84 83 8£ 8£ 68 01 19 79 55 4 0 £8 20 14 08 04 01 98 95 9.3 91 89 87 86 85 84 83 82 81 8 0
496
Anhang — Tabellen
Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen » j (gerade)
"i
"2
•
22 22 22 22 22 22 22 22 22 2£
2 4 6 8 10 12 14 16 IS £0 22 24 £6 £8 3 0 32 34 36 33 4 0 42 44 46 48 50 2
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IJ
££ ££ ££ ££ ££ ££ ££ £2 £2 22 2£ 22 22 22 22 23 23 23 23 23 23 23 23 23 23 23 23 23 23 23 23 23 23 £3 23 23 23 23 23 23
4 6 8 1 0 12 14 16 18 2 0 22 £4 £6 £8 3 0 32 34 36 38 4 0 42 44 46 48 50
v 2 + 1 (ungerade)
/
*
N
•99
.95
.90
' 1 £12 0 18 16 £1 8 £4 6 £6 4 £8 4 ;3 29
03 48 55 13 99 35 93 3 0 3 63 31 3 4£ 3 £6 31 32 3 1£ 0£ 33 33 2 93 £ 86 33 2 79 34 2 74 34 2 69 34 2 65 35 2 61 35 2 58 35 2 55 35 2 53 36 2 5 0 36 2 48 36 £ 46 36 1£ 1 19 78 18 16 42 8 51 £2 6 09 24 26 4 96 4 32 28 3 9 0 29 3 61 3 0 31 3 39 3 23 32 3 1 0 3 3 2 99 33 2 9 0 34 2 83 34 2 77 34 o 71 35 2 67 35 2 62 35 2 59 36 2 55 36 2 53 36 £ 5 0 36 2 47 37 2 45 £ 43 0. 3 r
'
'
0. 1 8 2 4 7 0. 2 6 0. 3 0 4 3 0. 33 0. 36 £ 0. 37 £ 0. 39 £ 0. 40 £ 0. 41 0. 42 £ 0. 4 2 0. 4 3 2 0. 44 2 2 0. 44 £ 0. 44 £ 0. 4 5 £ 0 - 45 £ 0. 4 5 £ 0. 46 £ 0. 46 £ 0.46 £ 0. 46 £ 0. 4 7 £ 0. 4 7 0. 4 7 1 0. 1 8 £ 4 7 0. £ 6 0. 31 4 3 0. 34 0. 36 0. 38 £ 0. 39 £ 0. 4 0 £ 0. 4 1 £ 0. 4 2 2 0. 4 3 2 0. 44 2 0. 44 £ 0. 4 5 £ 0. 4 5 £ 0. 4 5 0. 46 2 2 0. 46 £ 0. 46 2 0. 4 7 2 0. 4 7 2 0. 4 7 £ 0. 4 7 0. 4 7 1 0. 48 1
/ .99
• 68 11 65 73 £5 96. 76 6£ 51 4'3 30 £6
££
IS 15 1:3 10 08 06 05 0 3 0£ 00 9'? 6 3 08 63 71 2 3 94 74 60 49 41 34 £8 24 20 16 13 11 08 06 05 03 01 00 99 98
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
< 22 1£ 31 4 36 3 £ 40 £ 4£ £ 44 £ 45 46 £ 47 £ 48 2 49 2 49 1 5 0 5 0 1 51 1 1 51 5£ 1 52 1 5c! 1 52 1 53 1 53 1 53 1 53 1 53 1 22 12 31 4 3 37 £ 4 0 £ 4£ £ 44 2 46 47 2 £ 48 £ 49 £ 49 2 5 0 50 1 51 1 1 51 1 52 5£ 1 5£ 1 53 * 1 53 1 53 1 53 1 54 1 54 1 54 1
45 86 50 94 64 45 32 23 15 09 05 01 98 95 9£ 90 88 87 85 84 8 3 82 81 80 79 42 84 49 93 63 44 31 £1 14 08 0 3 00 96 93 91 89 8? 85 84 8'3 81 80 79 78 77
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. ü. 0. 0. 0. 0. o. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. ü. 0. 0. 0. 0. 0. 0.
' 15 £0 £3 £5 ¿7 £8 £9 3 0 31 3£ 3£ 33 33 34 34 34 35 35 35 35 36 36 36 36 36 15 £0 £3 £5 ¿7 £9 3 0 31
31 11 ('
5 4 4 3 3 3 3 2 2 £ 2 2 2 £ 2 £ £ 2 2 £ 31 1 1 7 5 4 4 3 3
3£ 33 3 3 34 34 35 35 35 36 36 36 36 36 37 37 37
3 £ £ £ £ £ 2 2 2 2 2 2 £ 2 2
>
•
73 1£ 07 47 63 1£ 77
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 n 0 0 0 0 0 0
19 07 97 39 83 77 72 6-7 63 6 0 57 54 51 49 47 45 64 08 04 44 6 0 09 74 49 3 0 16 04 95 87 8 0 74 69 6*5 61 57 54 51 49 46 44 42
*
\
.95
.90 •
££ £8 32 35 37 38 39 4 0 41 4£ 4 3 43 44 44 45 45 45 46 46 46 46 46 47 47 47
££
£8 3£ 35 37 39 4 0 41 4£ 43 43 44 44 45 45 46 46 46 46 47 47 47 47 47 48
1 0 5 4 3 3 2 2 2 £ £ £
77
52 10 46 09 85 68 56 47 39 33 £ £8 £ £3 £ 2 0 £ 17 £ 14 £ 11 £ 09 £ 07 £ 05 £ 04 £ 0£ £ 01 £ 0 0 1 99 1 0 74 5 5 0 4 08 3 44 3 0 7 £ 83 £ 67 2 54 2 45 2 37 2 31 2 26 2 22 2 18 2 15 2 12 2 10 2 07 2 05 2 04 2 02 2 01 1 99 1 98 1 97
• 0 0 0 0 o o 0 0 o 0 0 o 0 o 0 0 o 0 0 0 0 0 o o 0 0 o o CI o 0 0 0 o o n o 0 o o 0 0 0 o o 0 0 0 o o
— £7 34 38 41 43 45 46 47 48 49 49 5 0 5 0 51 51 51 52 5£ 52 52 53 53 53 53 53 28 34 38 41 43 45 46 47 48 49 5 0 5 0 51 51 5£ 5 c.' 52 53 53 5 3 53 53 54 54 54
£ 4 3 £ £ 2 £ 2 2 £
£
1 1 1 1 1 1 1 1 1 1 1 1 1 1 6 3 3 2 2 £ 2 2 £ £
£ 1 1 1 1 1 1 1 1 1 1 1 1 1 1
67 0 0 17 77 54 38 £7 19 12 07 03 99 96 94 91 89 88 86 85 83 82 81 SO 79 78 65 98 16 76 53 37 26 17 1 1 06 01 98 95 9£ 9 0 88 86 85 83 8£ 81 8 0 79 78 77
Anhang — Tabellen
497
Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen v2 (gerade)
.99
»i £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 £4 2S £5 £5 £5 £5 £5 £5 25 £5 25 £5 £5 £5 £5 £5 25 £5 £5 £5 £5 £5 c'5 25 £5
.95 >
£ 4 IT. 8 10 12 14 16 IS £0 ££ £4 £6 £8 30 32 34 36 38 40 42 44 46 48 50 2 4 6 8 10 1£ 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50
Vi + 1 (ungerade)
0. 1 £ 119.54 0. 18 16. 36 0. 22 8. 48 0. 25 6. 06 0. c' i'' 4. 93 0. 28 4. 29 0. 3 0 3 . 87 0. 31 3 58 0. 32 37 0. 32 £0 0. 33 07 0. 34 £ 97 0. 34 £ 88 0. 35 2. 81 0. 35 2 74 0. 35 2 69 0. 36 £ 64 0. 36 £ 60 0. 36 £ 56 0. 37 £ 53 0. 37 £ 50 0. 37 £ 47 0. 37 2. 45 0. 37 2 43 0. 38 ü 41 0 12 1 19 33 0 18 16 .31 0 22 8 .44 0 25 6 03 0 27 4 .91 0 29 4 £6 0 3 0 3 y5 0 31 56 0 32 3 34 ;-; 0 33 18 0 34 3 05 0 34 £ 94 0 35 £ 86 0 35 2 78 0 36 2 72 0 36 2 67 0 36 2 62 0 37 2 58 0 37 2 .54 0 37 £ 51 0 37 £ .48 0 38 £ .45 0 38 £ 43 0 38 2 41 0 38 2 38
>
'
0 18 £4. 59 0. 26 7. 06 0. 31 4. 61 0. 34 69 0. 36 3. ££ 0. 38 2. 93 0. 40 £. 73 0. 41 2. 59 0 42 2. 48 0. 43 2. 39 0. 43 £. 33 0. 44 £. ¿7 0. 45 2. 22 0. 45 2. 18 0. 46 2. 15 0. 46 £. 12 0. 46 £. 09 0. 47 £. 07 0. 47 £. 05 0. 47 £. 03 0. 47 £. 01 0. 48 £. 00 0. 48 1. 98 0. 48 1 .97 0. 48 1 .96 0 18 £4 55 0 £6 7 04 0 .31 4 6 0 0 .34 8 68 0 3:7 3 20 0 39 £ 91 0 4 Cl £ 71 0 41 £ 57 0 .42 2 46 0 .43 2 38 0 44 £ 31 0 45 2 25 0 45 2 21 0 46 2 17 0 46 2 13 0 46 £ 1 0 0 47 £ 08 0 47 £ 05 0 47 £ 03 0 48 £ 01 0 48 £ 0 0 0 48 1 98 0 48 1 97 0 49 1 96 0 49 1 94
.90
.99
.95
.90
:
3 9
£
6 5
0
4 8
£
£ 4
Ij
3 3
3
5 8
o
4 3
£
5 7
0
4 9
£
1 9
31
1 6
0
3 3
3
4 5
0. 4 3
£
5 0
Ij
4 9
£
1 4
0
3 4
3
0
£
4 5
0
5 0
£
1 0
4 0
Ij
5 1
£
07
Ij
3 5
>:
4 4
1 5
0
4 5
£
3 5
0
5 1
£
04
£
3 1
Ij
5 1
£
01
Ij
3 6
3
0 0
0
4 6
£
£ 8
0
5 £
1
9 8
£
5 £
1
1
9 4
7 8
0
4
9 7
0
31
1 8
0
3 4
3
£ 3
0. 4 4
31
£ 0
0
3 5
3
07
0. 4 5
31
££
0
3 6
£
9 4
£ 4
0
3 7
£
8 9
o
4 7
£
£ 1
0
5 3
31
£ 4
0. 3 7
£
8 4
0. 4 7
£
1 9
Ij
5 3
1
9 £
Ij
3 7
£
7 9
o
4 7
£
1 6
0
5 3
1
9 0
7 5
0. 4 8
£
1 4
0
5 4
1
S 9
Ij
3 8
£
7 1
0
4 8
£
1 2
0
5 4
1
8 7
6-8
0. 4 8
£
1 0
Ij
5 4
1
8 6
0
;y,
6 4
0
4 8
£
08
0
5 4
1
8 5
6 1
0. 4 9
£
06
0
5 5
1
8 3
o
3 9
8 £
5 6
0. 4 9
£
0 3
0. 5 5
1
8 1 o
--¡9
31
£ 6
0. 3 7
£
31
£ 8
0
3 8
£
31
3 0
0
3 8
31
3 £
0
3 9
31
3 4
0. 3 9
£ £ £
5 1
0. 4 6
0. 4 9
£
01
0. 5 5
1
9 6
7 9
Ij
£
5 8
Ij. 4 9
£
0 5
0
5 5
1
£
5 3
0. 4 9
£
0£
0
5 5
1
£
4 9
0. 5
£
0 0
0. 5 6
1
7 8
0
8 0
31
3 6
4 7
0. 5 0
0
£
4 5
0. 5
0
1
9 7
0. 5 6
1
7 7
31
3 8
0. 4 0
£
4 3
0. 5 0
1
9 6
0
5 6
1
? 6
0
4
0
£
4 £
0. 5
0
1
9 5
0
1
7 5
31
4 0
0. 4 0
£
ü. 5 0
1
9 4
0
56-
1
7 5
0
4
0
£
3 8
0. 5 1
1
9 4
0. 5 7
1
7 4
31
4 £
0. 4 1
£
4 0 37
0. 5 1
1
9 3
0. 5 7
1
7 3
o
4 1
£
3 6
0. 5 1
1
9
0. 5 7
1
7 3
31
4 4
0. 4 1
£
3 4
fl. 5 1
1
9 1
0
5 7
1
7 £
o
4 1
£
3 3
0. 5 1
1
9 0
0
5 7
1
7 £
31
4 6
0. 4 1
£
3 £
0. 5 1
1
9 0
0. 5 7
1
7 1
Ij
4 1
£
3 1
0. 5 1
1
8
0. 5 7
1
7 1
31
4 8
0
£
3 0
Ij. 5 £
1
8 8
0
1
7 0
0
4 1
£
£ 9
0. 5 £
1
8 8
0. 5 8
1
7
6 9
0
4 £
£
£ 7
0. 5 £
1
8 7
0. 5 8
1
6 9
31
5 0
0. 4 0
0
4 1 4 £
£
2
- 8
0. 5 £
1
1
9 8
8 7
0
0
5 6
5 7 5 8
1
1
7 8
o
4
=
9
5 6
0
501
Anhang — Tabellen Forts. Tab. 7 F-Werte für HPDJntervalle auf log F-Verteilungen v 7 (gerade) r ~
.99
32 32 32 32 32 32 32 32 32 32 32 32 32 32 32 32 32 32 32 32 32 32 32 32 32 33 33 33 33 33 33 33 33 33 33 33 33 33 33 33 33 33 33 33 33 33 33 33 33 33
2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 33 40 42 44 46 48 50 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0
131 19 24 27 29 31 32 34 35 36 36 37 38 38 39 39 40 40 40 41 41 41 42 42 42 131 19 24 27 29 31 33 34 35 36 37 38 38 39 39 40 40 40 41 41 41 42 42 42 42
i>2 + 1 (ungerade)
•*•
/
18 16 8 5 4 4 3 3 3 2 2 2 2 2 £ 2 £ 2 2 2 2 2 2 2 18 16 8 5 4 4 3 3 3 3 2 2 2 2 £ 2 2 2 2 2 £ £ £ £ £
.95
¿5 05 26 88 77 13 72 43 22 06 93 82 73 66 60 54 50 46 42 39 36 33 31 28 26 13 02 24 86 75 1£ 70 4£ 20 04 91 81 72 65 59 53 48 44 41 37 34 32 £9 £7 £5
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
19 £ 4 £7 6 94 4 51 32 3 60 36 39 3 13 P 83 41 2 64 42 44 2 50 2 39 45 o 30 46 £ 23 46 £ 18 47 2 13 48 2 09 48 49 2 06 2 02 49 50 2 00 50 1 97 51 1 95 51 1 93 51 1 92 51 1 90 52 1 89 52 1 87 52 1 86 19 2 4 3 1 27 t' 9 3 3 3 4 50 36 3 59 3 l£ 39 41 2 83 2 63 42 2 49 44 2 38 45 46 2 £9 47 2 £3 2 17 48 £ 1£ 48 £ 08 49 49 2 05 2 02 50 50 1 99 51 1 97 51 1 94 51 1 93 52 1 91 1 89 52 52 1 88 52 1 87 1 85 53
.90
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ü 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
2 3 12 2 8 33 4 75 -o 4 1 38 42 2 85 45 2 55 £ 36 47 £ 23 48 5 0 £ 13 2 06 51 5£ £ 00 53 1 95 53 1 91 54 1 88 54 1 85 1 83 55 55 1 80 56 1 79 56 1 77 57 1 75 57 1 74 57 1 73 57 1 72 1 71 58 58 1 70 58 1 69 £ 3 1£ 2 7 33 4 75 3 40 38 o 85 4£ D 55 45 2 36 47 49 2 23 5 0 P 13 o 05 51 1 99 52 53 1 95 54 1 91 54 1 87 55 1 84 55 1 82 56 1 80 56 1 78 57 1 76 1 75 57 57 1 73 1 72 57 58 1 71 1 70 58 1 69 58 1 68 58
.99
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
16 22 ¿5 28 30 32 33 34 35 36 37 38 38 39 39 40 40 40 41 41 41 41 42 42 42 16 22 £6 28 30 32 33 35 36 36 37 38 38 39 39 40 40 41 41 41 42 42 4£ 4£ 43
.95
31 10 6. 5 4 3 3 3 2 £ £ 2 £ 2 2 2 2 2 2 P
2 2 2 2 31 10 6 5 4 3 3 3 3 £ £ £ £ £ £ £ 2 2 o 2 2 2 £ £ 2
07 80 81 24 41 90 56 32 13 99 87 78 70 63 57 52 48 44 40 37 34 32 £7 25 03 77 79 22 40 89 55 30 12 97 86 76 68 62 56 51 46 42 39 36 33 30 28 26 24
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
24 10. 56 3 0 5. 37 34 3 . 97 37 3. 33 40 £. 9 6 £ 73 41 43 2. 56 44 2. 44 £ 34 45 £ 27 46 47 2. 2 0 2 15 48 48 £. 11 49 2 . 07 49 2 . 04 50 £ 01 50 1. 9 9 50 1 96 51 1. 94 51 1. 9 3 51 1. 91 5£ 1. 8 9 5£ 1. 88 5£ 1. 87 5c! 1 86 £4 10. 55 3 0 5 . 36 34 96 38 32 4 0 2 96 42 2 . 72 43 2. 55 44 2. 4 3 £ 33 45 46 £. 2 6 2. 2 0 47 2 . 14 48 48 2 1 0 2 . 06 49 49 2 . 03 5 0 2 00 50 1 98 51 1. 9 5 51 1 93 51 1 92 52 1 90 52 1. 89 52 1 87 52 1 86 1 85
.90
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
29 36 40 43 46 48 49 50 51 52 53 54 54 55 55 56 56 56 57 57 57 58 58 58 58 29 36 40 44 46 48 49 50 52 5£ 53 54 54 55 56 56 56 57 57 57 58 58 58 58 59
6 3 3 2 2 2 2 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 6 3 3 £ 2 2 p
2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
55 90 08 68 45 29 18 09 03 98 93 90 86 84 82 79 78 76 75 73 72 71 70 69 68 54 89 08 68 44 29 17 09 02 97 93 89 86 8 3 81 79 77 75 74 73 71 70 69 68 68
502
Anhang — Tabellen
Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen 2 (gerade)
.99
v2 + 1 (ungerade)
.95
\
r~
.90
.99
\ .90
.95
"l "2 34 34 34 34 34 34 34 34 34 34 34 34 34 34 34 34 34 34 34 34 34 34 34 34 34 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35 35
£ 4 y 10 1£ 14 16 18 £0 ££ £4 £6 £8 30 3£ 34 36 38 40 4£ 44 46 48 50 £ 4 6 8 10 1£ 14 16 18 £0 ££ £4 £6 £8 30 3S 34 36 38 40 4£ 44 46 48 50
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0. 0. 0. 0. 0. 0. 0. 0. 0 0. 0 0.
1 3 1 18 £ 0 16 £4 8 5 £? 30 4 31 4 33 3 3 34 35 3 36 3 £ 37 £ 38 £ 38 39 £ 40 £ £ 40 4 0 d" £ 41 £ 41 £ 4£ £ 42 £ 4£ £ 4£ 43 £ £ 43 13 117 £ 0 15 £4 8 5 £7 30 4 3£ 4 33 3 35 3 3 36 37 £ 37 £ 38 £ 39 £ 39 40 £ 40 £ 41 £ p 41 £ 4£ £ 4£ £ 4£ £ 4£ £ 43 £ 43 43
03 om c'3 85 74 lü 69 40 19 03 90 80 71 63 57 5£ 47 43 39 3b
•i
0 0 0 o 0 0 o o o Ij 0 0 o o o 0 o 0 o o 0
51 46 4£ 3S 35 3£ £9 £7 £4 ££
0 o 0 0 0 o o o o o lj 0 o o 0 0 0 0 0 lj 0 o 0 0 o o lj lj
30 £8 £6 £4 93 97 £1 83 73 09 68 39 18 0£ 89 78 70 6£
19 £ 4 ¿ 9 6 9£ 27 33 4 49 3 6 3 58 39 3 1 1 £ 8£ 41 43 £ 6£ 44 £ 48 £ 37 45 46 £ £9 47 c" £ £ £ 16 48 £ 11 48 £ 07 49 5 0 £ 04 5 0 £ 01 50 1 98 51 1 96 51 1 94 5£ 1 92 5£ 1 90 1 88 52 5;± 1 87 53 1 86 53 1 85 19 £4 ii £8 6 91 4 49 33 36 58 39 3 10 £ 81 41 £ 61 43 £ 47 44 45 36 £ £8 46 £ £1 47 p 15 48 49 £ 11 49 £ 07 £ 03 50 5 0 £ 00 51 1 97 51 1 95 5£ 1 93 5£ 1 91 5£ 1 89 jiz' 1 88 53 1 86 53 1 85 1 84 53
0 0 0 lj 0 0 0 0 0 0 0 ü 0 0 0 0 0 0 0 0 0 LI 0 0 0 0 0 0 0 ü 0 0 0 0 0 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0
¿ 3 1£ ¿ 6 33 4 74 39 3 £ 84 4£ £ 54 45 47 £ 35 49 2 ££ 50 £ 1£ p 51 05 5£ 1 99 53 1 94 54 1 90 54 1 87 55 1 84 56 1 81 56 1 79 56 1 77 57 1 75 57 1 74 57 1 73 58 1 71 58 1 70 1 69 59 1 68 59 1 67 £ 3 1£ £ 5 33 4 74 3 39 39 £ 84 4£ £ 54 45 £ 35 47 £ £1 49 5 0 £ 12 £ 04 51 5 h' 1 98 53 1 93 54 1 89 55 1 86 55 1 83 56 1 81 56 1 79 57 1 77 57 1 75 57 1 73 1 72 58 1 71 58 1 70 58 59 1 69 59 1 68 59 1 67
0 ij ij ü lj 0 0 o lj lj lj lj o 0 o lj Ij o 0 o lj Ij Ij 0 lj o 0 o 0 0 0 lj lj Ij lj lj 0 lj lj o lj lj 0 0 o lj 0 o 0 o
17 22 26 28 31 32 34 35 36 37 38 38 39 39 40 40 41 41 41 42 42 42 4 c' 43 43 17 22 26 29 31 32 34 35 36 37 38 39 39 40 40 41 41 41 4£ 4£ 4£ 43 43 43 43
30 10 6 5 4 3 3 3 3 2 2 2 £
£ £
p £ 2 2
£
£
2 2 £ 30 10 6. 5 4 3 3 3 3 2 £ £ £ 2 P £ £ £ o £ £
2 £ £
y 75 78 £1 38 88 54 £9 11 96 85 75 67 6Ü 54 49 45 41 38 34 32 £9 £7 25 23 95 73 76 19 37 86 5£ £8 09 95 83 74 66 •59 53 48 44 40 36 3-1 30 £8 £6 23 £1
0 lj 0 0 0 0 Ij Ij Ij Ij Ij 0 0 0 0 0 Ij Ij Ij Ij 0 Ij 0 0 Ij Ij 0 0 0 0 Ij 0 0 0 Ij 0 0 0 0 0 0. 0. Ij 0 0 0. Ij. 0. 0. 0
24 10 5 4 3 ij 5 3 5 •3 9 5 35 3 31 38 4 0 2 95 p 71 42 2 54 43 2 42 45 2 33 46 2 c.'5 47 2 19 47 2 14 48 2 09 49 2 05 49 5 0 £ 02 50 1 99 51 1 9 7 51 1 95 51 1 93 52 1 91 52 1 89 1 88 5 c' 53 1 86 53 1 85 1 84 53 £4 1 0 5 3 3 0 5 35 3 95 35 3 31 38 4 0 £ 94 2 70 42 £ 54 44 £ 41 45 £ 32 46 £ 24 47 2 18 48 2 13 48 49 2 08 5 0 2 05 5 0 2 01 51 1 99 51 1 96 51 1 94 52 1 92 52 1 90 5i=; 1 88 53 1 87 53 1 86 53 1 84 53 1 83
0 Ij Ij 0 0 0 0 0 0 0 0 0 0 0 0 0 Ij 0 0 0 0 0 0 0 0. 0. 0. 0 0. 0. 0. 0. lj. Ij. 0 0 0. 0. 0. 0 0. 0. 0 0. 0. 0. 0. 0. 0. 0.
29 36 41 44 46 48 49 51 5° 53 53 54 55 55 56 56 57 57 57 58 58 58 58 59 59 £9 36 41 44 46 48 5 0 51 5£ 53 54 54 55 56 56 57 57 57 58 58 58 58 59 59 59
6 5-J 3 89 3 07 67 £ 44 2 £8 £ 17 2 08 P 02 1 96 1 92 1 88 1 85 1 83 1 80 1 78 1 76 1 75 1 73 1 72 1 71 1 70 1 69 1 68 1 67 53 88 07 2 67 £ 43 £ 27 £ 16 £ 08 £ 01 1 96 1 91 1 88 1 85 1 8£ 1 80 1 78 1 76 1 74 1 73 1 71 1 70 1 69 1 68 1 67 1 66
503
Anhang — Tabellen Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen v 2 (gerade) /
"
N
•99
.95
.90
1
"l
"2
36
£
0 .
1 3
1 7
8 3
0 . 1 9
3 6
4
0. £ 0
1 5
9 5
0.
0 . £ 4
3
19
0
8 £
0.
3 7
71
0.
3 9
£
3 b
'
0. £ 7
5
3 6
1 0
0 .
3 0
4
3 6
1 £
0.
3 c.'
4
3 6
1 4
0.
3 3
3 6
1 6
0 .
3 5
3 6
I S
0 .
3 6
3 6
£ 0
0 .
3 6
££
0.
3 6
£ 4
0 .
3 8
3 6
£ 6
0 .
3 9
3 6
£ 8
0. 4
3 6
3 0
0 .
4 0
3 6
3 2
0 .
4 1
3 6
3 4
0 .
41
3 6
3 6
0. 4 £
3 6
36
3 3
0 .
4 0
0. 4 £
3 6
4 £
0 .
3 6
4 4
0. 4 3
3 6
4 6
0 .
3 6
4 8
0 .
3 6
5 0
0.
4 4
0 .
1 3 1 1 7
36-
£
3 7
'
'
0
9 1
0
£ 4
1 0
5 1
0
£ 9
6
5 £
£ 8
6
9 0
0
3 3
4
7 3
0.
£ £
1 0
7 1
0
31
5
3 4
0
3 6
3
8 8
3'3
4
4 8
0
3 9
3
3 8
0.
£ 6
6
7 5
0
3 5
3
9 4
0
4 1
3
1 8
0
3 8
3
3
0
4 4
3 6
0
4
8 5
0
4 £
5 1
0
4 4
£
5 3 4 1
0. 5 1
£
3 1
0, 5 2
2
01
£ 4
0. 5 3
1
9 5
1 7
0
1
9 1
1 2
0. 5 5
1
8 7
0 8
0. 5 5
1
8 4
0 4
0. 5 6
1
8 1
01
0. 5 6
1
7 9
1 7
0 . 4 6
3 7
3
01
0 . 4 7
3 8
2
4 3 4 3
2
P
4 3
0
4 8
4 £
c!
3 1
0.
5:3
1
8 8
0. 5 8
1
7
0.
4 3
£ 8
0.
J :!
1
8 7
0
5 9
1
6 9
0 . 4 3
£ 6
fl.
5 3
1
8 5
0. 5 9
1
6 8
0.
4 3
£ 3
0 .
5 3
1
8 4
0. 5 9
1
6 7
0.
4 4
£ 1
0.
5 4
1
8 3
0. 5 9
4 4
7 4
0 .
1 9
£ 4
9
3
0 .
£ 8
3 7
3
6 6
0 .
4 3
1 6
0.
3 5
3
3 7
0.
4 5
5 4
1
9 3
0.
1 5
0. 5 4
1
8 9
0 . 3 9
0
5 5
1
8 6
0.
0 6
0. 5 6
1
8 3
0. 4
0
0 £
0
5 6
1
8
0 . 4
0
1
9 9
0
5 7
1
7 8
0 . 4 1
1
9 7
0. 5 7
1
7 6
0 . 4 1
1 6
0 . 4 6
£ £
3 7
£ 0
0 .
9 9
3 7
££
0.
3 8
£
0 . 4 7
8 7
0.
3 7
£ 4
0 .
3 9
2
76*
0 . 4 9
3 7
£ 6
0.
3 9
6 7
0 . 4 9
3 7
£ 8
0 . 4
6 0
0. 5
0
3 7
3
5 4
0 . 5
0
3 7
3 £
0 . 4 1
3 7
3 4
0 . 4 1
3 7
3 6
0 . 4 £
3 7
3 8
0. 4 £
4 8
0
0
0
3 9
1
9 8
0. 5 7
1
7 7
4 3
0. 5 1
1
9 5
0. 5 7
1
7 5 7 4
3 9
0
5 £
1
9 3
0
5 8
1
3 5
0. 5 £
1
9 1
0. 5 8
1
7 £
3 £
0. 5 £
1
8 9
0. 5 8
1
7 1
0. 5 3
1
8 8
0. 5 9
1
7 0
0
1
8 6
ü. 5 9
1
6 8
1. 8 5
0. 5 9
1. 6 7
1
8 4
0. 5 9
1. 6 6
1
8 £
0. 5 9
1. 6 6
£ £9 £ £7 £ £4 £ ££ £ £0
5:3
0. 5 3 0. 5
3
0
£ 4
1 0
9
3 3
7 £
3 1
5
3 3
4
4 7
0
3 9
3
0.
£ 6
6
7 3
0
3 5
3
9 3
3
5 6
0
4
8 3
0.
£ 9
5
1 7
0
3 8
3
£ 9
0 0 0
0 9
0
4 5
5 3
0.
3 1
4
3 5
0
4 1
2
9 3
0
8 0
0
4 8
3
8 4
0
4 £
0
LI
4 9
0
5
0
5 1
£ £ £ £ £ £
3 8
0
5 1
£ £ £ £ £ £ £ £
0
4 6
0.
3 4
3
5
0
0
4 4
11
0.
3 6
3
£6-
0
4 5
3 5
0
5 £
£6-
0
5 3
1
£ 0
0
5 4
1
14
0
5 5
1
0 9
0
5 5
1
8 5
0 . 4
0
0 5
0
5 6
1
8 £
0. 4
0
0 £
8
0 3
0.
3 7
9 7
0.
3 8
9 £
0.
3 8
8 8
0.
3 9
1 1
7 7
0 . 4 1
5 7
1
7 5
0.
4 £
0 . 5 c"
1
9 4
0
5 8
1
7 4
0.
4 £
0.
5 £
1
9 1
0
5 8
1
7 £
0.
4 £
0.
5 £
1
8 9
0
5 8
1
7 1
0 . 4 3
1
8 8
0
5 9
1
7 0
0 . 4 3
0
0 . 4 1
1
8 6
0
5 9
1
6-8
0 . 4 3
1
8 5
0
5 9
1
6-7
0.
0 . 5 4
1
8 3
0
5 9
1
6 6
0 . 4 4
0.
1
y c'
0
6
1
6 5
0.
0
0. 5 4
£ 0
5 7
5 4
0. 5 1
0
5 6
£ 0
4 7
0
7 0
0
5 3
0. 5
8 8
6
4 4 4 4
£ £ £ £ £ £ £ £ £ £ £ £ £ £ £ £
0 7
5 £
3 0
3 4
1 6
5 0
1 0
o
2 7
0
£ £
£
4 3
5 8
0.
0
5 3
5 4
2
4 9
0 . 1 7
3
0
0 6 6 6
0
0.
0
£ £ £
6 5
£ 3
0
0.
5
6 6
9 6
0.
4 8
0
1
9 9
0 . 5 3
4 6
0
4
1
3
0
1 £
1
3
£ £ £
0
£ 3
0 . 5 1
£ 30 £ 2 £4 £ ££
£
0. 4 9
7
0
0 . 5 1
3 6
3
9 3
0
4 8
0
7
£ £ £ £
0
£ 3
4 4
4
8 £
0
£ £
6.
3
4 £
3 7
£
3 8
0.
3 4
0. 4 4
4 7
7 1
0.
0 . 4 4
0
1
1 4
5 0
9 4
0. 5 8
0 .
4 8
3 7
9
0 . 3 9
3 7
0.
1
0 7
3 7
9 8
5 £
7 0
0. 4 3
4 6
0.
4
0 . 4 3
0
3 4
4
4 6
0 8
4 3
3 0
4 4
3 6
4 £
3 £
3 7
0.
0.
0 .
3 7
0 4
0.
0 .
£
4 5
7 3
1 0
3
0
7 4
1 2
0. 4 3
£ 0
£ 7
1
3 7
0 . 4
1
3 5
1 0
c"
3 7
0
5:3
n
0.
3
1
0 . 5 1
0 .
4
0
11
3
5 7
4 5
81
4 £
£ 7
4
0 . 3 4
0
0 . 5 1
5
3 7
5 £
3 1
0. 3
£ 1
0. 5 8
4 9
0. £ 8
3 7
0
0.
3 4
9 £
0
8
0. 4 1
36-
5 3
9 4
0 . 5
3 ?
0
5 1
£ 9
1
5 5
1 8
£ £ £ 2 £ 2 £
0
0.
1
0
8
0
4 6
8 3
5 £
0. 5
1 5
3 6
4 9
4 5
0
3
0 . 5 1
61
0. £ 4
0 .
4 7
0
8
4
0 .
4 8
0. £ 0
1 8
0
6 !
0
J 7
4 8
0.
0 . 4 9
4
3 7
£ £ £ £ £ £ £
£ £ £ £ £ £
0
1 0
5
4 1
0.
7 7 6 8
6
3 7
3
5 7
£ £ £ £ £ £ £ £ £ £
3 ? 3 7
.
3
3
4 3
>
0 . 1 7
0 . 4 5
8 8
•
£ 4
3 8
4 £
>
1 £
3
£ £ £ £ £ £ £ £
. £ 3
0.
£
\ .90
0
0 . 4 1
£
* .95
£ 5
0 8
£
/ .99
£ 4
6 7
0
„ 2 + 1 (ungerade)
0 7
0
4 6
9 3
0
4 7
8 1
0
4 8
7 £
0
4 9
6 4
0
5
0
5 7
0
5
0
5 1
5
0
£ 69 £ 5£ £ 4 0 £ 3 0 £ PP £ 17 £ 11 £ 07 £ 03 £ 0 0
0
2 9
6
5 2
3 6
3
8 7
4 1
3
0 6
4 4
£
6 6
4 7
2
4 2
4 9
2
2 6
2
1 5
0 0
0
0
5iz!
£ £
0
5 3
1
9 5
0
5 4
1
9
0
5 5
1
8 7
0 7
0
5 6
1
8 4
0
5 6
1
8 1
0
5 1
0
5 7
1
7 8
4 6
0
5 1
1
9 7
0
5 7
1
7 6
4 £
0
5 £
1
9 5
0
5 7
1
7 5
3 8
0
5 £
1
9 £
0
5 8
1
7 3
3 4
0
5 c'
1
9
0
5 8
1
7 1
0
3 1
0
5 3
1
8 9
0
5 8
1
7
£ 8
0
5 3
1
b'7
0
5 9
1
6 9
£ 6
0
8 5
0
0
5 3
1
0
5 9
1
6 8
£ 3
0
5 4
1
8 4
0
5 9
1
6 7
£ 1
0
5 4
1
8 3
0
6 0
1
6-6
1 9
0
5 4
1
8 £
0
6
1
6 5
0
504
Anhang — Tabellen
Forts. Tab. 7 F-Werte für HPD-IntervalJe auf log F-Verteilungen v 7 (gerade)
i>2 + 1 (ungerade)
A .99
.95
\
r~
.90
.99
.95
.90
"1 "2 38 38 38 38 38 38 38 3'3 38 38 38 38 38 38 38 38 38 38 38 38 38 38 38 38 38 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39 39
c! 4 6 8 1 0 1£ 14 16 18 20 22 24 £6 28 30 32 34 36 38 40 42 44 46 48 50 2 4 6 8 1 0 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0. 0. 0. 0. 0. 0.
13 1 1 7 2 0 15 £5 8 £8 5 30 4 4 3£ 34 3 35 3 36 3 £ 37 2 38 39 40 £ £ 40 £ 41 £ 41 £ 4£ 42 £ £ 43 £ 43 43 £ 44 p 44 £ 44 44 £ 13 17 20 15 25 8 28 5 30 4 32 4 34 3 35 3 37 38 ci 0 38 39 40 41 41 4£ 4£ 43 43 43 44 44 44 44 45
£ £ £ £ £ £ £ £ £
62 91 16 80 69 06 65 36 15 98 86 75 66 59 53 47 43 39 35 32 29 26 £3 £1 19 53 89 15 78 68 04 64 35 14 97
74 65 58 5£ 46 42 38 34 31 2 . £8 2. £5 2 ££ 2 . £0 2 18
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0. 0. 0. 0. 0.
1 9 24 -"8 6 89 33 4 46 37 56 3 08 40 4£ £ 79 £ 59 43 2 45 45 £ 34 46 47 £ 26 £ 19 48 £ 13 49 2 09 50 £ 04 50 £ 01 51 51 1 98 5£ 1 95 52 1 93 5£ 1 91 53 1 89 53 1 87 53 1 85 54 1 84 54 1 83 54 1 82 1 9 £4 £0 6 88 28 4 46 33 3 55 37 40 3 08 42 79 £ 59 44 £ 45 45 p 34 46 47 c" £ 5 48 2 18 49 2 13 50 2 08 2 04 50 2 00 51 51 1 97 52 1 95 52 1 92 53 1 90 53 1 88 1 86 53 54 1 85 54 1 83 54 1 8£ 54 1 81
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0. 0 0 0. 0. 0. 0. 0. 0. 0.
£4 33 39 43 46 48 49 51 52 53 54 55 55 56 57 57 57 58 58 59 59 59 59 60 60 £4 33 39 43 46 48 50 51 5 c' 53 54 55 56 56 57 57 58 58 58 59 59 59 60 60 60
1£ 4 3
£ £ £ 2 2
£
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 12 4 3 2 2
£
2
c!
£ 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
£2 72 37 82 52 33 20 1 0 03 97 92 88 85 82 79 77 75 73 72 70 69 68 67 66 65 22 71 37 82 5£ 33 19 1 0 02 96 91 87 84 81 79 76 74 73 71 70 68 67 66 65 64
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0. 0. 0. 0. 0. 0.
17 22 26 29
30 10 6 5 31 4 33 3 35 3 3 36 37 3 £ 33 £ 39 2 39 £ 40 41 2 £ 41 £ 4£ 2 4£ 42 2 £ 43 £ 43 2 43 £ 44 £ 44 44 2 2 44 1 7 30 £ 3 10 £6 6 £9 5 31 4 3 33 35 36 3 37 38 2 39 £ £ 40 40 £ £ 41 £ 41 £ 4£ 4£ £ £ 43 £ 43 £ 43 2 44 £ 44 £ 44 £ 45 £ 45
84 68 72 16 33 83 49 £5 06 9£ 80 71 63 56 50 45 41 37 33 30 ¿7 £5
££
£0 18 81 66 71 15 32 82 48 £4 05 91 79 70 62 55 49 44 40 36 32 29 26 £4 £1 19 17
0 £4 0 31 0 35 0 38 0 41 0 43 0 44 0 46 0 47 0 48 0 48 0 49 0 50 0 50 0 51 0 51 0 5£ 0 52 0 53 0 53 0 53 0 54 0 54 0 54 0 54 0 £4 0. 3 1 0 35 0 38 0. 4 1 0. 4 3 0. 4 4 0. 4 6 0. 4 7 0. 4 8 0. 4 9 0 49 0. 5 0 0. 5 1 0. 5 1 0. 5 2 0. 5 c' 0. 5 3 0. 5 3 0. 5 3 0. 5 4 0. 5 4 0. 5 4 0. 5 4 0. 5 5
10 5 3 3 2 2
£ £
2 2
£ £ £ £ 1 1 1 1 1 1 1 1 1 1 1 10 5 3
£ £ £ £ £ £ £ £ £ £ 1 1 1 1 1 1 1. 1 1 1 1
49 3£ 9£ 29 92 68 52 39 30 22 16 11 06 03 99 97 94 92 90 88 86 85 83 82 81 48 32 92 28 92 68 51 39 29
££
15 10 06 02 99 96 93 91 89 87 86 84 83 81 80
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0. 0 0 0 0 0 0 0 0. 0. 0 0 0 0. 0. 0 0 0. 0. 0. 0. 0. 0. 0.
£9 36 41 44 47 49 50 52 53 54 54 55 56 56 57 57 58 58 58 59 59 59 60 60 60 29 37 41 44 47 49 50 52 53 54 55 55 56 57 57 58 58 58 59 59 59 60 60 60 60
6 3 3 2
£ £ £ 2
£ 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 6 3 3 2
£
2
£ 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
51 87 05 65 4£ £6 15 06 00 94 90 86 83 80 78 76 74 7£ 71 70 68 67 66 65 65 50 86 05 65 41 26 14 06 99 94 89 86 83 80 77 75 74 72 70 69 68 67 66 65 64
Anhang — Tabellen
505
Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen " i (gerade)
¡,2 + 1 (ungerade)
\
/ .99
.95
/
.90
\
.99
.95
90
"i 40 40 40 4 0 40 4 0 40 40 40 40 40 4 0 40 40 4 0 40 4 0 40 4 0 4 0 40 40 40
4 6 8 1 0 1£ 14 16 18 20
££ 24 £6 28 30
32 34 36 38 4 0 42 44 46 4 0 48 4 0 '5 0 41 £ 41 4 41 6 41 8 41 1 0 41 1£ 41 14 41 16 41 18 41 £0 4 1 ££ 41 £4 41 41 41 41 41 41 41 41 41 41 41 41 41
£6 £8 3 0 3£ 34 36 38 4 0 42 44 46 48 5 0
0 0 0 0 0 0 0 0 0 0 0
1 3 1 1 7 £0 15 8 £5 £8 5 4 31
0 0
£
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
33 34 36 37 38 3 4 4 4 4 4 4
9 0 0 1 1 £ £
43 43 44 44 44 44 45 45
£ o
67 04 6'3 34 13
£
84 78 64 57 51 45 41 37 33 30 £7
£ £ £ £
£4 21 19 17
£ £ £ £ 2 2 £ £
13 1 17 38 £0 15 85 8 13 £5 £8 5 76 4 66 31 33 4 03 3 62 34 3 33 36 37 3 12 38 £ 96 £ 83 39 £ 72 4 0 £ 64 40
0 0
41 4£ 4£
0 0
43 43
0
43 44 44
0 0 0 0 0 0
4 3
45 87 14 77
45 45 45 45
£
£
£ £ 2 £ 2 £ 2 2 £
56 5 0 45 4 0 36 32 £9 £6 £3 £1 1 8 16
0 0
19 £8
0 0
33 37 4 0
0 0 0
4£ 44
0 0
45 47 0 48 IJ 4 8 0 49 0 50 ö 51 0 51 0 5£ 0 5£ 0 53 0 53 0 53 0 54 0 54 0 54 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0. Cl 0 0 0. 0 0. 0. 0. 0. 0. 0.
55 55 19 £8 33 37 4 0 4£ 44 45 47 48 49 49 5 0 51 51 5£ 5£ 53 53 54 54 54 55 55 55
£4 6 4 3 3 £
£ £ £ o
£ £ £ £ £ 1 1 1 1 1 1 1 1 1 1 £4 6 4 3 3 £
2 £ £ ¡3
18 87 45 54 07 78 58 44 £5 18 1 £ 07 03 0 0 97 94 9£ 89 88 86 84 83 81 8 0 17 87 45 54 06 77 58 43 33 £4 17
£ £ £
1 £ 07 03 1 99 1 96 1 93 1. 91 1 ¡-¡"H 1 87 1 SS 1 84 1 ¡de' 1. 81 1 8 0
0 £4 0 33 IJ 3 9 IJ 4 3 0 46 0 48 0 5 0 0 51 0 5£ 0 53 0 54 0 55 0 560 56 0 57 0 57 0 0 0 0 0 0 0 0 0 0 Ij 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
58 58 59 59 59 6 0 6 0 6 0 6 0 £4 34 39 43 46 48 5 0 51 5 3 54 55 55 56 57 57 58 58 59
59 0. 5 9 0 6 0 0. 6 0 0 6 0 0. 6 0 0 61
1£ 4 3 £ £ £ 2 2 2 1 1 1 1 1
£1 71 37 81 51 3£ 19 09 0£ 96 91 87 84 81 78 76 74 7£ 71
1 1 1 1 1 1 1 1 1 1 1
69 6.8 67 66 65 64
12 4
2 0 71
£ 2 c! £ £ £ 1 1 1 1 1 1 1 1 1
36 81 51 3£ 19 09 01 95 91 87 83 8 0 78 75 74 72 7 0
1 1 1 1 1 1
69 68 66 6.5 64
1
63
0 . 0. 0. 0. 0. 0. 0. 0. 0.
1 7 2 3 27 29
3S 33 3 5 36 37
30 10 K 5 4 3 3 3 £
0. 0. 0. 0.
3 9 4 0 41 41
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 . 0. 0. 0. 0. 0. 0. 0. 0.
4£ £ 42 £ 43 4 3 2 £ 43 £ 44 £ 44 £ 44 £ 45 £ 45 45 5 1 7 '30 2 3 10 2 7 6 3 0 32 4 3 34 3 35 3 6 38 3 £ 39 £ 39 £ 4 0 £ 41 £ 41 £ 42
0. 0. 0. 0. 0. 4 2 0. 4 3 0. 4 3 0. 0. 0. 0. 0. 0. 0.
44 44 44 45 45 45 45
£ £ £
£
78 65 7 0 1 3 8 4
3 1 1 7
£ 3 04 9 0 78 69 61 54 48 43 39 35 31 £8 £5 £3 £0 18 16 76 64 68 1 £ 3 0 8 0 46
££ 03 89 77
a £ £
68 6 0 53 47 4£ 38 34
£ £ £
3 0 ¿'7 £4
£ £ o
££
£
19 17 15
0. £ 4 0. 3 1 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.
35 3 9 41 43 45 46 47 48 49 5 0 5 0 51
0.51 0. 5 2 0. 5 2 0. 5 3 0.5 3 0. 5 3 0. 5 4 0.54 0. 5 4 0.55 0. 5 5 0. £ 4 0. 3 1 0. 3 6 0. 3 9 0.41 0.43 0. 4 5 0. 4 6 0. 4 7 0. 4 8 0.49 0. 5 0 0. 5 1 0 . 0. 0. 0. 0.
5 1 52 52 53 53
0. 0. 0. 0. 0. 0. 0.
5 3 54 54 54 55 55 55
10 5 3 2 2 2 2 2 2 £ 2 £ £ 1 1 1 1 1 1 1 1 1 1 1 10 5 3 £ £ 2 2 2 2 £ £ £ £ 1 1 1 1 1 1 1 1 1 1 1
48 31 91 £7 91 67 51 38 £9 £1 15 1 0 05 01 98 95 98 9 0 88 87 85 83 8£ 81 8 0 47 3 0 91 £7 9 0 67 5 0 38 £8 £ 0 14 09 05 01 98 95 92 9 0 88
0. 37 0.41 0. 0. 0. 0 . 0. 0. 0. 0. 0.
45 47 49 5 1 52 53 54 55 56
0. 5 6 0. 5 7 0.57 0. 5 8 0. 5 9 0. 5 9 0. 5 9 0.6 0 0. 6 0 0.6 0 0.60 0.61 0. £ 9 0. 3 7 0.41 0. 0. 0. 0 . 0. 0. 0. 0. 0. 0. 0. 0.
45 47 49 5 1 52 53 54 55 56 56 57 57
0. 5 8 0.58 0. 5 9
86 84 8 3 81 8 0
0. 0. 0. 0. 0. 0.
59 59 6 0 6.0 60 61
79
0.61
6 . 5 0 3. 86 3 . 04 £ . 6 4 2 £ . £. £. 1 . 1. 1 . 1. 1.
4 1 £ 5 14 05 9 9 93 8 9 85 8£
1 . 7 9 1. 77 1. 75 1 . 73 1 . 7 1 1 . 7 0 1 . 6 9 1 .67 1 . 66 1 .65 1 . 6 4 1 . 6 3 6. 49 3. 86 3 . 04 £ . 6 4 £ . 4 0 £. £5 £ . 1 3 £. 05 1. 98 1 . 9 3 1 . 8 8 1 . 8 5 1. 8£ 1 . 79 1. 77 1 1 1 1 1 1 1 1 1 1
. . . . . . . . . .
74 3 1 0 8 67 6 6 6 5 6 4 6 3 7 7 7 6
506
Anhang — Tabellen
Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen v 2 (gerade)
1>2 + 1 (ungerade)
/ .99 "l
"2
42 42 42 4£ 42 4£ 42 42 42 42 42 42 42 42 42 42 42 42 42 42 42 42 42 42 42 4:3 43 4:3 43 43 43 43 43 43 43 43 43 43 43 43 43 43 43 43 43 43 43 43 43 43
4 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50 2 4 6. 8 10 12 14 16 18 20 22 24 26 28 30 32 34 36 38 40 42 44 46 48 50
£
0. 0. 0. 0. 0. 0. 0. 0 0 0 0 0. 0. 0. 0. 0 0. 0. 0. 0. 0 0 0 0. 0 Cr 0 0 0 0 0 0 0 0 0 0 ü 0 0 0 0 0 0 0 0 0 0 0 0 0
13 1 f 31 2 0 15. 8 3 25 1 1 28 5 . 75 31 4 . 65 4 . 0£ 33 61 32 37 11 38 2 . 95 £. 8 2 39 2 71 40 2 . 6-3 41 41 2. 55 2 49 42 2 44 42 43 2. 39 2 35 43 2 31 44 £ £8 44 £ £5 44 £ ££ 45 2 £0 45 2 17 45 46 2 . 15 1 3 1 17 24 20 15 82 25 8 10 5 74 £8 31 4 64 4 01 33 35 3 60 3 31 36 37 1 0 2 94 38 2 81 39 2 71 40 2 6£ 41 42 2 55 42 2 48 2 43 43 £ 38 43 £ 44 34 44 2 30 £ ¿L f 44 £ £4 45 2 21 45 2 19 45 2 17 46 £ 15 46
95
0. 1 9 2 4 . 16 . 86 0. 2 8 4 . 44 0. 3 4 0. 3 7 3. 53 0. 4 0 06 0. 4 2 S. 7? £. 0. 4 4 57 £. 43 0. 4 6 £. 3£ 0.47 0. 4 8 £4 £ . 17 0. 4 9 £. 1 0. 5 0 £ . 06 0. 5 0 £ . 0£ 0.51 0. 5 2 1 . 99 0. 5 2 1 . 96 0. 5 3 1 . 93 1 .90 0. 5 3 0. 5 3 1 . 88 0. 5 4 1 . 86 0. 5 4 1 . 85 0. 5 4 1 .83 0. 5 5 1 . 8£ 0. 5 5 1 . ¡3 0 1 . 79 0. 5 5 0. 1 9 £4 1 4 0. 2 8 6 35 0. 3 4 4 43 0. 3 7 53 .3 0. 4 0 05 £ 76 0.43 £ 57 0. 4 4 £ 4£ 0. 4 6 £ 3£ 0. 4 7 £ £3 0. 4 8 £ 16 0. 4 9 £ 1 0 0. 5 0 £ 06 0. 5 1 £ 0£ 0.51 1 98 0. 5 £ 0. 5 2 1 0. 5 3 1 9£ 0. 5 3 1 90 1 88 0.54 0. 5 4 1 86 0. 5 4 1 84 0. 5 5 1 8£ 0. 5 5 1 81 1 80 0.55 0. 5 6 1 78
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 o. 0. 0. 0. 0. 0. 0. 0. 0. 0. o 0 o o o 0 o o o o o 0 0 o o o 0 o o 0 0 0 0 o o
\
/
90
99
£4 1 2 . 2 0 34 4 70 36 39 43 2 . 81 46 2 51 £ 31 48 50 2 18 5£ 2 08 53 2 01 54 1 95 55 1 90 56 1 86 56 1 83 57 1 80 57 1 77 1 75 58 1 73 59 1 . 71 59 1. 7 0 60 1 68 1 6-7 60 60 1 6-6 1 65 60 1 64 61 61 1 63 £4 12 19 34 4 70 Q 3 35 £ 80 43 £ 46 .50 48 2 31 50 2 18 £ 08 5£ £ 01 53 54 1 95 55 1 90 56 1 86 56 1 8 c' 57 1 79 58 1 77 58 1 75 59 1 73 59 1 71 59 1 69 60 1 68 1 67 60 60 1 66 61 1 64 61 1 63 61 1 63
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. Ij 0 0 0 o 0 0 Ij 0 o o o o 0 o o 0 o o 0 o 0 0 0 o
17 £3 £7 30 3£ 34 5 37 38 39 40 40 41 4£ 4£ 43 43 44 44 44 45 45 45 45 46 17 £3 £7 30 3£ 34 36 37 38 39 40 41 41 4£ 4£ 43 43 44 44 45 45 45 46 46 46
3 0 73 1 0 6£ 67 5 1 4 30 3 79 45 i 21 3 02 £ 88 £ 76 £ 6-7 £ 59 £ 52 £ 46 £ 41 £ 37 £ 33 £ 29 £ 26. £ 23 £ 21 £ 19 £ 16 £ 14 3 0 71 10 6 0 6 66 5 11 4 29 :3 7 8 44 3 20 3 02 £ 87 £ 76 £ 66 £ 58 £ 51 £ 46 £ 41 £ 36 £ 32 £ 29 £ 26 £ 23 £ 20 £ 18 £ 16 £ 14
\ 95
0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0. 0 0 0 0 0 0 0 0
24 31 36 39 41 43 45 46 47 48 49 50 51 51 5 c' 52 53 53 54 54 54 55 55 55 55
10. 4 6
5. 3 0 90 26 £ 90 2 66 2. 5 0 2 37 2. 28 2 . £0 2 14 2 . 08 2 . 04 2. 0 0 1 97 1 94 1 92 1 89 1 87 1 85 1 84 1 82 1 81 1 80 1 78 £4 10 4 5 5 29 31 36> 3 9 0 3 £639 2 89 41 £ 6643 45 2 49 46 2 37 0 48 2 27 0 49 2 19 £ 13 0 49 0 50 2 08 0 51 2 04 £ 00 0 52 0 52 1 96 0 53 1 94 0 53 1 91 0 53 1 89 0 54 1 87 0 54 1 85 0 55 1 83 0 55 1 ö£ 0 55 1 80 0 55 1 79 0 56 1 78
90
0. 0. 0. 0. 0. 0 0. 0 0. 0. 0. ü. 0. 0. 0. 0. 0. 0. 0. 0 0. 0. 0. 0. 0. 0 0 0 0
29 37 41 45 47 49 51 52 53 54 55 56 57 57 58 58 59 59 59 60 60 60 61 61 61 30 37 42 45 0 47 0 49 0 51 M 52 0 53 0 54 0 55 0 56 0 57 0 57 0 58 0 58 0 59 0 59 0 60 0 60 0 60 0 61 0 61 0 61 0 61
6. 49 3 85 3 03 2 64 2 40 £ £4 £ 13 £ 05 1 98 1 92 1 88 1 84 1 81 1 78 1 76 1 74 1 7£ 1 71 1 69 1 . 68 1. 67 1. 65 1 64 1 63 1. 63 6> 4 8 0 85 3 03 2 63 £ .40 2 .24 £ 13 2 04 1 97 1 92 1 88 1 84 1 81 1 78 1 76 1 74 1 72 1 70 1 69 1 67 1 66 1 65 1 64 1 63 1 62
507
Anhang — Tabellen Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen (gerade)
vi
44 44 44 44 44 44 44 44 44 44 44 44 44 44 44 44 44 44 44 44 44 44 44 44 44 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45 45
/
Ä
•99
.95
„ 2 + i (ungerade) N
/
*
\
.90
.99
.95
.90
»i
0 4 0 6 0 8 0 10 0 12 0 14 0 16 0 18 0 £0 0 0 24 0 26 0 £8 0 30 0 32 0 34 0 36 0 38 0 40 0 42 0 44 0 46 0 48 0 50 0 2 0 4 0 6 0 8 0 10 0 12 0 14 0 16 0 18 0 20 0 22 0 24 0 26 0 23 0 30 0 32 0 34 0 36 0 38 0 40 0 42 0 44 0 46 Ij 48 0 50 0
*
13 117 20 15 25 8 5 31 4 33 4 35 36 -! 38 3 39 2 40 2 40 2 41 2 42 2 42 2 43 2 43 2 44 2 44 2 45 2 45 2 45 46 2 46 2 46 2 13117 2 0 15 25 8 29 5 31 4 33 3 35 3 37 3 38 39 2 40 2 41 2 41 £ 42 2 43 d 43 £ 44 £ 44 £ 45 £ 45 c! 45 £ 46 2 46 £ 46 2 46 2
19 80 09 73 63 00 59 31 09 93 80 70 61 54 48 42 37 33 30 26 23 21 18 16 14 13 79 08 72 62 99 58 30 09 93 30 69 60 53 47 41 37 33 29 25 23 20 17 15 13
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ö 0 0
19 28 34 38 40 43 44 46 47 48 49 50 51 51 52 53 53 54 54 54 55 55 55 56 56 19 28 34 33 41 43 45 46 47 48 49 50 51 52 52 53 53 54 54 55 55 55 55 56 56
24 6 4 3 •t; £ £ £ £ £ 2 2 £ £ 1 1 1 1 1 1 1 1 1 1 1 £4 6 4 3 3 £ £ £ £ £ £ £ 2 2 1 1 1 1 1 1 1 1 1 1 1
13 85 43 52 05 76 56 42 31 £3 16 10 05 01 98 94 92 89 37 85 84 8£ 31 79 7y 1£ 84 42 52 05 75 56 41 31 £2 15 09 05 01 97 94 91 89 87 85 83 81 80 79 77
0.24 0. 34 0. 4 0 0.43 0. 46 0. 49 0. 5 0 0. 5£ 0. 53 0. 54 0.55 0. 56 0. 57 0. 57 0. 58 0. 58 0.59 0. 59 0.6 0 0.6 0 0.6 0 0.61 0.61 0.61 0. 61 0. £4 0.34 0.4 0 0.44 0. 46 0. 49 0. 5 0 0. 52 0.5 3 0. 54 0. 55 0. 56 0.57 0. 57 0. 58 0. 58 0. 59 0. 59 0.6 0 0.6 0 0. 6 0 0.61 0. 61 0. 61 0. 62
12 4 3 £ 2 2 2 2 £
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 12 4 3 2 2 2 2 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
IS 69 35 30 50 31 18 08 00 94 39 85 82 79 76 74 72 71 69 68 66 65 64 63 6£ 18 69 35 80 50 30 17 07 00 94 89 85 8£ 79 76 74 72 70 69 67 66 65 64 63 62
0.17 0. 23 0. 27 0. 3 0 0. 32 0. 34 0. 36 0. 37 0. 38 0. 39 0.40 0.41 0.41 0.42 0. 43 0.43 0. 44 0.44 0.44 0. 45 0.45 0.45 0.46 0.46 0. 46 0. 17 0. 23 0. £7 0.3 0 0. 32 0. 34 0. 36 0. 37 0. 38 0. 39 0.4 0 0.41 0. 42 0.42 0. 43 0.43 0. 44 0.44 0. 45 0.45 0.45 0. 46 0.46 0.46 0.47
3 0 6'8 10 59 6 65 5 10 4 28 3 78 3 44 . 3 19 3 01 2 86 £ 75 £ 65 2 57 £ 51 2 45 2 40 2. 35 £ 31 £ 28 2 £5 2 22 2 19 2 17 Cl' 15 £ 13 30 66 10 58 6 64 5 09 4 £7 3 77 3 43 3 19 3 00 £ 86 2 74 £ 65 2 57 2 50 £ 44 £ 39 £ 35 £ 31 £ £7 £ £4 £ £1 £ 19 £ 16 £ 14 £ 1£
0. £4 0.31 0. 36 0. 39 0. 42 0. 44 0.45 0.47 0.48 ü. 4 9 0. 5 0 0. 5 0 0.51 0. 52 0. 52 0. 53 0. 53 0.54 0. 54 0.54 0. 55 0.55 0. 55 0. 56 0. 56 0. 24 0. 31 0. 36 0. 39 0.42 0. 44 0.45 0. 47 0. 48 0. 49 0. 5 0 0.51 0.51 0.52 0. 53 0. 53 0. 53 0. 54 0. 54 0. 55 0. 55 0. 55 0. 56 0.5 6 0. 56
1 0 44 5 £9 3 89 3 25 2 89 2 65 2 49 P 36 £ 27 £ 19 2 13 2 07 2 03 1 99 1 96 1 93 1 91 1 88 1 361 84 1 83 1 81 1 80 1 79 1 77 10 44 5 28 3 89 3 25 £ 88 £ 65 £ 48 £ 36 2 26 2 18 2 1£ £ 07 £ 03 1 99 1 96 1 93 1 90 1 88 1 86 1 84 1 82 1 81 1 79 1 78 1 77
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
30 37 42 45 48 50 51 52 54 55 55 56 57 58 58 59 59 59 60 60 60 61 61 61 61 30 37 42 45 48 50 51 53 54 55 56 56 57 58 58 59 59 60 60 60 61 61 61 61 62
6 3 3 2 £ 2 £ £
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 6 3 3 £ £ £ £ i i i i i i i i i i i i i i i i i
48 84 03 63 39 £4 12 04 97 9£ 87 84 80 78 75 73 71 70 68 67 66 65 64 63 62 48 84 02 63 39 £3 12 03 '37 91 87 83 80 77 75 73 71 69 68 65 64 63 62 61
508
Anhang — Tabellen
Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen v2 (gerade)
99 "l
"2
46 46 46 46 46 46 46 46 46 46 46 46 46 46 46 46 46 46 46 46 46 46 46 46 46 47 47 47 47 47 47 47 47 47 47 47 47 47 47 47 47 47 47 47 47 47 47 47 47 47
£ 4 6 8 10 12 14 16 18 £0 £2 £4 £6 £8 30 32 34 36 38 40 42 44 46 48 50 £ 4 6 8 10 1£ 14 16 18 £0 22 24 26 28 30 32 34 36 38 40 4£ 44 46 48 50
v2 + \ (ungerade)
95
90
99
95
90
*
0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
13117 21 15 £5 8 5 £9 4 31 3 34 •o 35 3 37 3 38 39 £ £ 40 41 £ £ 42 2 42 43 2 43 £ 44 £ £ 44 £ 45 45 £ £ 46 46 £ £ 46 2 46 47 2 13117 £1 1 5 8 £5 5 £9 4 32 3 34 35 37 38 3 £ 39 £ 40 £ 41 4£ £ 2 4£ £ 43 2 44 £ 44 £ 45 £ 45 2 45 46 £ 2 46 2 46 2 47 £ 47
07 7? 07 7£ 62 99 58 29 08 9£ 79 68 60 5£ 46 41 36 3£ £8 £5 ££ 19 17 14 12 01 76 06 71 61 98 57 28 07 91 78 68 59 5£ 45 40 35 31 ¿7 £4 £1 18 16 14 12
0. 1 9 £4 1 1 6 83 0. 2 8 4 4£ 0. 3 4 3 51 0. 3 3 0.41 04 2 75 0.43 0. 4 5 2 55 £ 41 0.46 £ 30 0. 4 8 £ ££ 0. 4 9 0.50 £ 15 £ 09 0.50 0.51 2 04 £ 00 0. 5 2 0. 5£ 1 97 1 94 0.53 0. 5 3 1 91 0.54 1 88 0.54 1 36 0. 5 5 1 84 0. 5 5 1 83 0. 5 5 1 81 0. 5 6 1 80 1 78 0. 5 6 1 77 0.56 0. 1 9 £4 1 0 6 y3 0. £ 8 0. 3 4 4 42 3 51 0.38 0.41 3 04 £ 0. 4 3 75 £ 55 0.45 2 41 0.46 £ 30 0.48 0. 49 £ £1 £ 14 0.50 £ 09 0.51 £ 04 0.51 £ 00 0. 5 £ 0. 5 3 1 96 1 93 0. 5 3 0.54 1 90 1 88 0.54 1 86 0.55 0. 5 5 1 84 0.55 1 82 0. 5 6 1 81 0. 5 6 1 79 1 78 0. 5 6 1 77 0. 5 6
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ü 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
24 12 17 34 4 69 3 34 40 44 £ 79 £ 49 47 49 £ 30 51 £ 17 5£ £ 07 £ 00 53 54 1 94 55 1 89 56 1 85 57 1 81 58 1 78 58 1 76 59 1 74 59 1 7£ 60 1 70 60 1 68 60 1 67 61 1 65 61 1 64 61 1 63 62 1 62 62 1 61 24 12 17 34 4 68 34 40 44 2 79 47 2 49 49 2 30 51 2 17 2 07 52 53 1 99 55 1 93 56 1 88 56 1 84 57 1 81 58 1 78 58 1 75 59 1 73 59 1 71 60 1 69 60 1 68 60 1 6661 1 65 61 1 64 61 1 63 62 1 6£ 6£ 1 61
0. 1 7 0. £ 3 0. £ 7 0. 3 0 0. 3 3 0. 3 4 0. 3 6 0. 3 7 0. 3 9 0. 4 0 0.4 0 0.41 0.4£ 0.43 0.43 0.44 0.44 0.45 0.45 0. 4 5 0.46 0. 4 6 0.46 0. 4 7 0. 4 7 0. 1 7 0. £ 3 0. £ 7 0.3 0 0. 3 3 0. 3 5 0. 3 6 0. 3 8 0. 3 9 0.4 0 0.41 0.41 0.42 0. 4 3 0. 4 3 0. 4 4 0. 4 4 0. 4 5 0. 4 5 0. 4 6 0. 4 6 0. 4 6 0. 4 7 0. 4 7 0.47
30 10 6 5 4 3 3 3 £ £ 2 £ 2 2 2 2 2 £ £ £ £ £ £ 2 £ 30 10 6 5 4 3 3 2 2 0 £ £ 2 £ £ £ £ 2 2 2 £ 2. 2 2
64 57 64 08 26 76 4£ 18 99 85 73 64 56 49 43 38 34 30 26 23 20 18 15 13 11 61 56 6-3 07 26 75 42 17 99 84 73 63 55 49 43 38 33 29 26 23 20 17 15 13 11
0 2 5 10 4 3 0 31 5 £8 3 88 0 36 0 39 3 £5 2 88 0 42 0 44 £ 64 2 48 0 46 £ 35 0 47 i> 2 6 0 48 £ 18 0 49 £ 1£ 0 50 2 07 0 51 0 52 i=! 0£ 0 52 1 98 0 53 1 95 0 53 1 92 0 54 1 90 0 54 1 87 0 55 1 85 0 55 1 83 0 55 1 8£ 0 56 1 80 0 56 1 79 0 56 1 78 0 56 1 76 0 £5 1 0 4£ 5 27 0 32 0 36 3 88 0 3 9 3 £4 0 42 £ 88 0 44 £ 64 0 46 £ 47 £ 35 0 47 £ £5 0 48 2 18 0 49 0 50 £ 11 0 51 2 06 £ 0£ 0 52 0 52 1 98 1 95 0 53 0 53 1 92 0 54 1 89 0 54 1 87 0 55 1 85 1 83 0 55 0 55 1 81 0 56 1 80 0 56 1 78 0 56 1 77 0 57 1 76
0 0 0 0 0 0 0 0 0
30 37 42 45 48 50 51 53 54 0 55 0 56 0 ( 0 57 0 58 0 58 0 59 0 59 0 60 0 60 0 60 0 61 0 61 0 61 0 6£ 0 6£ 0 30 0 37 0 42 0 45 0 48 0 50 0 52 0 0 54 0 55 0 56 0 57 0 57 0 58 0 59 0 59 0 60 0 60 0 60 0 61 0 61 0 61 0 62 0 62 0 62
6 3 3 £ 2 2 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 6 3 3 2 2 2 £ £ 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
47 84 OS 6£ 39 23 12 03 96 91 87 83 80 77 75 72 71 69 67 66 65 64 63 62 61 47 83 02 62 38 £3 11 03 96 91 86 83 79 77 74 72 70 69 67 66 65 63 6£ 61 61
Anhang — Tabellen
509
Forts. Tab. 7 F-Werte für HPD-Intervalle auf log F-Verteilungen Kj (gerade)
Vi + 1 (ungerade)
/ .99
48 48 48 48 48 48 48 48 48 48 48 48 48 48 48 48 48 48 48 48 48 48 48 48 48 49 49 49 49 49 49 49 49 49 49 49 49 49 49 49 49 49 49 49 49 49 49 49 49 49
2 4 6 8 10 12 14 16 18 £0 ££ £4 £6 £8 30 3£ 34 36 38 40 4£ 44 46 48 50 £ 4 6 8 10 12 14 16 18 £0 ££ £4 £6 £8 30 32 34 36 38 40 4£ 44 46 48 50
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0. 0 0 0 0. 0. 0. 0 0. 0. 0 0. 0.
13116 96 £ 1 15 7 5 8 05 £5 5 70 £9 4 60 32 34 97 3 56 36 37 3 £8 38 3 07 2 90 39 2 40 78 41 £ 67 £ 42 58 £ 51 43 £ 45 43 2 39 44 2 35 44 45 £ 30 45 £ £7 46 £ 23 £ 20 46 £ 18 46 £ 15 47 2 47 13 2 11 47 1 3 1 16 9 0 2 1 15 7 3 8 04 26 5 69 29 3£ 4 59 34 3 96 •z2 (gerade)
x2 + 1 (ungerade)
/ .99 V2 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50 50
£ 4 6 8 10 12 14 16 isso ££ £4 £6 £8 30 3£ 34 36 38 40 4£ 44 46 48 50
' 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
13116 £1 15 £6 8 5 £9 3£ 4 34 3 3 36 37 3 3 39 40 £ 41 £ £ 4£ £ 4£ £ 43 £ 44 £ 44 £ 45 2 45 2 46 46 £ £ 46 £ 47 47 £ £ 47 £ 48
.95 '
'
86 7£ 04 69 59 96 55 £7 05 89 76 66 57 50 44 38 33 29 25 ££ 19 16 14 1£ 1 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0
.90 v
/
1 9 £4 06 6 8£ £9 34 4 40 3 50 38 41 3 03 2 74 43 45 2 54 47 2 39 £ 29 48 2 20 49 £ 13 50 51 £ 07 £ 03 52 5£ 1 99 1 95 53 54 1 92 54 1 89 55 1 87 55 1 85 1 83 55 56 1 81 56 1 79 57 1 78 57 1 76 57 1 75
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
\
.99
95
90
' 24 12 15 34 4 67 3 33 40 £ 44 78 £ 48 47 £ £9 49 p 16 51 £ 06 53 54 1 98 55 1 92 56 1 87 57 1 83 57 1 80 1 77 58 1 74 59 59 1 7c! 60 1 70 60 1 68 61 1 67 61 1 65 61 1 64 6£ 1 63 6£ 1 6£ 6£ 1 61 63 1 60
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
18 30 56 £3 10 5 3 6 60 28 5 05 31 33 4 £4 35 3 73 37 3 40 38 3 15 £ 97 39 £ 82 40 41 £ 71 £ 61 42 2 53 43 £ 47 43 2 41 44 44 2 36 £ 31 45 £ £7 45 £ £4 46 £ 21 46 £ 18 47 £ 15 47 47 £ 13 £ 48 11 48 c! 09
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0
0 0 0 0 0
£5 1 0 4 0 5 £6 3£ 3 87 36 40 3 23 2 4£ 86 44 2 63 46 2 46 47 £ 34 49 2 24 50 £ 16 2 10 51 51 2 05 £ 00 5£ 53 1 97 53 1 93 54 1 90 54 1 88 55 1 86 55 1 84 56 1 82 56 1 80 56 1 78 57 1 77 57 1 76 5 7 1 75
0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
30 37 42 46 48 50 52 53 54 55 56 57 58 58 59 60 60 60 61 61 62 62 6£ 62 63
6 46 83 3 Ol £ 61 2 38 £ 22 2 10 2 02 1 95 1 90 1 85 1 8£ 1 78 1 76 1 73 1 71 1 69 1 68 1 66 1 65 1 64 1 62 1 61 1 60 1 60
Anhang — Tabellen
511
Tab. 8 Beta-Verteilung, Prozentpunkte (Aus: Novick und Jackson (1974)) Zur Bestimmung des k%-Punktes auf der Verteilung Be(p,q) für p > q wird der Tabellenwert für den (100-k)%-Punkt bei vertauschten p und q nachgeschlagen und von 1.00 abgezogen. Beispiel: zur Bestimmung des 95%-Punktes für Be(10,2) wird der Tabellenwert für 5% auf der Verteilung Be(2,10) nachgeschlagen und von 1.00 abgezogen; man erhält 1 . 0 0 - 0 . 0 3 3 3 2 = .96668.
Fortsetzung V'2
q-2 3 4 5 6 7 a 9 10 11 12 13 1 14 15 16 17 18 19 20 21 22 23 2« 25
,o«i«o .029«« .02288 .01872 .0158« .01373 .01212 .01085 .009819 .008967 .008252 . 0 0 76«2 .007116 .006658 .006255 .005899 .005581 .005295 .005037 •00«803 .001590 . 0 0 « 395 . 0 0 «216 .00«051
p=3
-3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 2« 25
„ .5%
.5%
.08283 .06628 .05530 . 0 «7«9 .0«156 .03699 .03333 .03033 .02783 .02570 .02390 .02231 .02092 .01971 .01862 .01764 .01677 .01598 .01526 .01459 .01399 .013«3 .01291
Tabelle 8: siehe S. 512 1% .05890 .0«199 .03268 .02676 .02267 .01965 .01736 .01553 .01407 .01285 .01183 .01096 .01020 .00954« .008965 .008453 .008003 .007591 .007225 .006889 .00658« .006302 .006046 .005810
5% . 1 353 .09761 .07645 .06285 .05338 .04639 .04102 .03677 .03332 .03046 .02805 .02600 .02422 .02268 .02132 .02011 .0190 3 .01807 .01719 .01640 .01567 .01501 .01440 .01384
1% .1056 .0 8«72 .07080 .06085 .0533« .0«752 .04282 .03897 .03577 .03305 .03073 .02870 .02692 .02536 .02396 .02271 .02159 .02057 .0196« .01880 .01802 .01730 .01.664
.1893 .1532 .1288 .1111 .09775 .08727 .07882 .07187 .06605 .06110 .05685 .05315 .04990 .04703 .04446 .04217 .04010 .03822 .03651 . 0 3«9 5 .03352 .03220 .03098
10%
25%
50%
.1958 .1426 .1122 .09259 .07883 .06863 .06077 .05453 .04945 .04524 .04169 .03866 .03604 .03375 .03173 .02995 .02835 .02691 .02562 .02444 .02337 .02238 .02148 .02065
. 32G4 .2430 .1938 .1612 .1380 .1206 .1072 .09641 .08761 .08029 .07410 .06879 .06419 .06017 .05663 .05348 .05066 .04812 .04583 .04374 .04184 .04009 .03849 .03700
5000 3857 31 38 2645 2285 201 1 1796 1623 1 4 80 1360 1258 1170 109« 1027 09678 091 51 08678 08251 0786« 07512 07191 06895 .06623 06372
10%
25%
. 2«66 .2009 .1696 . 1«69 .1295 .1158 .1048 .09565 .08800 .08147 .07586 .07097 .06667 .06286 .05946 . 0 56«2 .05367 .05117 . 0 « 890 .0Í682 . 0 « «91 . 0 «316 .04153
.359« .2969 .2531 .2206 .1955 .1756 .1593 . 1«59 . 1 3«5 . 12«7 .1163 .1090 .1025 .09677 .09163 .08701 .0828« .0790« .07558 .07241 .06950 .06681 .06432
75% .6736 .5437 . «5«2 .3895 . 3«07 . 3027 .2723 .247« .2266 .2091 . f 941 . 1810 .1697 .1596 .1507 .1427 .1355 .1291 .1232 .1178 .1128 .1083 .1041 .1002
50%
75%
.5000 .«214 .3641 .3205 .2862 .2586 .2358 .2167 .2004 .1865 .1743 . 1637 .1542 .1458 .1383 .1315 .1253 .1197 . 11 «6 .1099 .1055 .1015 .09781
. 6 «06 .5532 .4861 .4332 . 3905 .3554 . 3261 . 3012 .2798 .2612 . 2«50 .2306 .2178 .2064 .1961 .1867 .1783 . 1705 .1634 .1569 .1509 .1453 ,1«01
90% .8042 .6795 .5839 .5103 .«526 .4062 . 368« . 3369 .3102 .2875 .2678 .2507 .2356 .2222 .2102 .1995 .1898 .1810 . 1729 .1656 . 1 588 . 1 526 . 1 «6 9 . 1 «1 5
.753« .6668 .5962 .5382 .4901 .««96 .«152 . 3855 . 3598 .3372 .3173 .2996 .2837 .269« .2565 . 2««8 . 2 3«0 . 22«2 .2152 .2068 .1991 . 1920 .1853
95%
99%
99.5%
. 86 «7 .7514 .657« .5818 .5207 . «707 . «291 . 3942 . 3643 . 3387 .3163 .2967 .2794 .2639 .2501 .2377 .2264 .2161 .2067 . 1981 .1902 .1829 .1761 .1690
.9411 .8591 . 7780 .7057 . 6«33 .5900 . 54 «1 .50«« . 4698 . 4396 .4128 . 3891 . 3679 . 3489 . 3317 .3160 . 3018 .2888 .2769 .2659 .2557 .2462 . 2375 . 2293
.9586 .8892 . 8149 .7461 .6848 .6316 .5850 .5442 .5085 .4771 . «490 . 4241 .4016 .3813 . 3630 . 3«6 3 . 331 1 . 3171 . 3043 .2925 .2815 .2712 .2617 .2529
95%
99%
99.5%
.8107 .7287 .6588 .5997 . 5«97 .5069 .«701 .4381 .4101 . 3854 .3634 . 3438 .3262 . 3103 .2958 .2826 .2706 .2595 .2493 .2398 .2310 . 2229 .2153
. 89« 3 . 8269 . 7 6 37 .7068 .6563 .6117 .5723 .537« .5062 .«783 . 4531 .4305 .4099 . 3912 . 3740 . 3583 . 3«39 . 3305 . 31 81 . 3066 .2959 .2859 .2766
.9171 . 856« .7970 . 7«22 .6926 .6482 .6084 .5730 .5410 .5123 .4863 . 4628 .4413 . «216 .4037 . 3871 .3718 . 3577 .3446 . 3324 . 3210 . 3104 . 3004
512
Anhang — Tabellen Beta-Verteilung, Prozentpunkte
Forts. Tab. 8 -4 .5% 1-4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
1177 09985 08679 07678 06885 06238 05707 05261 04877 04547 04254 04004 03778 03577 03394 03232 03082 02948 02823 02710 02603 02509
1%
5%
10%
25%
50%
75%
90%
95%
99%
.1423 .1210 . 1053 .09320 .08368 .07590 .06946 .06403 .05939 .05539 .05188 .04880 .04605 .04361 .04141 .03943 .03763 .03598 .03447 .03308 .03180 .03062
.2253 .1929 .1687 .1500 .1351 .1228 . 1 127 .1040 .09666 .09026 .08464 .07970 .07529 .07135 .06781 .06460 .06168 .05901 .05656 .05431 .05223 .05031
.2786 .2397 .2104 .1876 . 1692 .1542 .1416 .1309 .1218 .1138 .1068 .1006 .09514 .09021 .08577 .08175 .07808 .07473 .07166 .06883 .06622 .06379
.3788 . 3291 .2910 .2608 .2364 .2162 .1991 .1846 .1720 .1611 .1514 .1429 .1353 .1284 .1222 .1166 .1115 .1068 .1024 .09845 .09477 .09135
.5000 .4402 . 3931 . 3551 . 3238 .2976 .2753 .2561 .2394 .2247 .2118 .2002 .1899 .1805 .1721 .1644 .1573 .1509 .1449 .1394 .1343 .1296
.6212 .5555 .502 0 .4577 .4205 . 3888 .3615 . 3377 . 3169 .2985 .2821 .2674 .2541 .2421 .2312 .2212 .2120 .2036 .1958 .1886 .1819 .1756
.7214 .6554 .5994 .5517 .5108 .4753 .4443 .4170 . 3928 .3712 . 3519 . 3344 .3186 . 3042 .2910 .2789 .2678 .2575 .2480 .2392 .2309 .2232
.7747 . 7108 .6551 .6066 .5644 .5273 .4947 .4657 .4398 .4166 . 3956 . 3767 . 3594 . 3437 .3292 .3159 . 3036 .2923 .2817 .2719 .2627 .2542
.8577 .8018 . 7500 .7029 .6604 .6222 .5878 .5566 .5285 .5029 .4796 .4583 . 4387 . 4207 .4041 . 3887 .3745 . 3612 . 3488 . 3372 . 3264 . 3162
5%
10%
25%
50%
75%
.3920 .3507 . 3173 .2898 .2668 .2471 .2301 .2154 .2024 .1909 .1806 .1714 .1631 .1556 .1487 .1424 .1366 .1313 .1264 .1218 .1175
.5000 .4517 .4119 .3785 . 3502 .3258 . 3045 • 2B59 .2694 .2547 .2415 .2297 .2189 .2091 .2001 .1919 .1843 .1773 .1709 .1648 .1592
.6080 .5555 .5111 .4731 .4403 .4117 .3865 . 3642 . 3444 . 3265 .3105 .2959 .2826 .2705 .2593 .2491 .2396 .2308 .2226 .2150 .2079
99.5% . 8823 . 8303 . 7809 .7351 .6934 .6553 .6206 .5891 .5605 .5344 .5104 .4884 .4681 .4495 .4321 .4161 .4011 . 3872 . 3743 . 3621 . 3507 . 3400
-5 .5% qp5 6 7 8 9 10 11 12 13 14 15
16
17 18 19 20 21 22 23 24 25
1460 1283 1145 1034 .09424 08661 08008 07452 06970 06543 06171 05835 05533 05261 05017 04791 04590 04401 04230 04068 03918
-6 .5% »6
7 8 9 10 11 12 13 14 15 16
17 18 19 20 21 22 23 24 25
1693 1522 1383 1267 1169 1086 1014 09509 08948 08453 08014 0761 1 07251 06927 06625 06351 06097 05865 05649 05447
1% .1710 .1505 .1344 .1215 .1108 .1019 .09436 .08783 .08215 .07718 .07278 .06885 .06531 .06213 .05925 .05661 .05421 .05200 .04997 .04810 .04636
.2514 .2224 .1996 .1810 .1657 .1527 .1417 .1321 .1238 .1164 .1099 .1041 .09885 .09411 .08981 .08588 .08229 .07899 .07594 .0731 1 .07050
. 3010 .2673 .2405 .2107 .2005 .1851 .1720 .1606 .1506 .1418 .1339 .1269 .1206 .1149 .1097 .1050 . 1006 .09661 .09292 .08950 .08632
1%
5%
10%
25%
50%
75%
.3177 .2882 .2637 .2432 .2250 .2104 .1972 .1855 . 1751 .1659 .1575 .1500 .1432 .1369 .1312 .1260 .1211 . 1 166 .1125 .1086
.4016 . 3663 . 3368 .3117 .2902 .2714 .2549 .2404 .2274 .2157 .2052 .1956 .1870 .1790 .1717 .1650 . 1 588 .1530 .1476 .1426
.5000 .4595 .4251 . 3954 . 3697 . 3470 . 3270 . 3092 .2932 .2788 .2657 .2538 .2430 .2330 .2238 .2153 .2074 .2001 .1933 . 1869
.5984 .5547 .5167 .4835 .4543 . 4283 .4051 . 3843 . 3655 . 3484 . 3329 .3187 . 3056 .2936 .2824 .2721 .2625 .2536 .2452 .2374
.1940 1746 . 1588 . 1 457 . 1346 .1251 . 1168 . 1096 .1032 .09753 .09247 .08789 .08374 .07999 .07654 .07339 .07050 .06781 .06531 .06300
.2712 .2453 .2240 .2061 .1909 . 1778 .1664 .1563 . 1475 .1396 . 1324 .1260 . 1202 .1149 . 1101 . 1056 . 101 5 .09769 .09415 .09087
90%
95%
99%
99.5%
.6990 .6458 .5995 .5590 .523« .4920 .4640 .4389 .4164 .3960 .3775 . 3607 .3452 . 3310 .3180 . 3059 .2947 .2842 .2745 .2655 .2570
.7486 .6965 .6502 .6091 .5726 .5400 .5107 . 4844 .4605 . 4389 .4191 .4010 .3844 . 3691 . 3549 . 3418 . 3296 .3182 . 3076 .2977 .2884
.8290 .7817 .7378 .6976 .6609 .6274 .5969 . 5690 . 5434 .5199 . 4983 .4783 . 4598 .4426 .4267 .4118 . 3979 .3849 . 3727 .3613 . 3505
.8540 . 8091 .7668 .7275 .6913 .6580 .6273 .5991 . 5732 .5493 . 5271 .5066 . 4875 .4698 . 4534 . 4380 . 4236 .4099 . 3972 . 3853 . 3740
90%
95%
99%
.6823 .6377 .5982 .5631 .5317 .5035 .4781 .4550 . 4341 .4149 . 3973 .3812 . 3663 . 3525 . 3397 . 3277 . 3166 . 3062 .2965 .2874
.7288 .6848 .6452 .6096 .5775 .5483 . 5219 . 4978 .4758 .4556 .4370 .4198 . 4039 . 3891 . 3754 . 3626 . 3506 . 3394 . 3289 . 3190
. 8060 . 7651 .7271 .6920 .6597 .6299 .6025 . 5772 .5538 .5321 .5120 .4933 .4758 .4595 .4443 . 4 300 .4166 .4039 . 3920 . 3808
99.5% . 8307 .7915 . 7546 . 7202 .6882 .6584 .6310 .6055 .5818 .5598 . 5393 .5201 .5022 . 4855 .4697 .4550 .4412 . 4280 .4156 .4041
Anhang — Tabellen
513
Forts. Tab. 8 D-7 .5%