204 68 8MB
German Pages 152 [158] Year 2007
Ill Μ
Μ
Lehr- und Handbücher der Statistik Herausgegeben von Universitätsprofessor Dr. Rainer Schlittgen Lieferbare Titel: Böhning, Allgemeine Epidemiologie Praxis der Regressionsanalyse, 2. Auflage Degen • Lorscheid, Statistik-Lehrbuch, 2. Auflage Degen • Lorscheid, Statistik-Aufgabensammlung, 5. Auflage Heiler • Michels, Deskriptive und Explorative Datenanalyse, 2. Auflage Oerthel • Tuscht, Statistische Datenanalyse mit dem Programmpaket SAS Pflaumer • Heine • Härtung, Statistik für Wirtschaft- und Sozialwissenschaften: Deskriptive Statistik, 3. Auflage Pflaumer • Heine • Härtung, Statistik für Wirtschafts- und Sozialwissenschaften: Induktive Statistik Pokropp, Lineare Regression und Varianzanalyse Rasch • Henendörfer u.a., Verfahrensbibliothek, 2. Auflage Rinne,Wirtschafts- und Bevölkerungsstatistik, 2. Auflage
Rüger, Induktive Statistik, 3. Auflage Rüger, Test- und Schätztheorie, Band I Rüger, Test- und Schätztheorie, Band II: Statistische Tests Schendera, Datenmanagement und Datenanalyse mit dem SAS-System Schlittgen, Statistik, 10. Auflage Schlittgen, Statistik-Trainer Schlittgen, Statistische Inferenz Schlittgen, GAUSS für statistische Berechnungen Schlittgen, Angewandte Zeitreihenanalyse Schlittgen, Statistische Auswertungen mit R Schlittgen • Streitberg, Zeitreihenanalyse, g. Auflage Schürger, Wahrscheinlichkeitstheorie Tutz, Die Analyse kategorialer Daten
Fachgebiet Biometrie Herausgegeben von Dr. Rolf Lorenz Lieferbare Titel: Bock, Bestimmung des Stichprobenumfangs
Brunner • Langer, Nichtparametrische Analyse longitudinaler Daten
Verfall r eri sbibl i oth ek Versuchsplanung und -auswertung
Herausgegeben von
D. Rasch G. Herrendörfer J. Bock N.Victor V. Guiard t Technische Gestaltung:
Karsten Schlettwein
2., vollständig überarbeitete Auflage
Oldenbourg Verlag München Wien
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
© 2008 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0 oldenbourg.de Das Werk einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung außerhalb der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Bearbeitung in elektronischen Systemen. Lektorat: Wirtschafts- und Sozialwissenschaften, [email protected] Herstellung: Anna Grosser Coverentwurf: Kochan & Partner, München Gedruckt auf säure- und chlorfreiem Papier Druck: Grafik + Druck, München Bindung: Thomas Buchbinderei GmbH, Augsburg ISBN 978-3-486-58330-4
Dem Andenken an unseren Kollegen und Freund Volker Guiard gewidmet, der inmitten der Arbeiten an dieser Auflage verstorben ist
Autoren Prof. Dr. Dr. U. Abel
Ruprecht-Karls-Universität Heidelberg, Institut für Medizinische Biometrie und Informatik
Dr. G. Antes
Albert-Ludwigs-Universität Freiburg, Institut fur Medizinische Biometrie und Medizinische Informatik
Prof. Dr. Μ. P. Baur
Rheinische Friedrich-Wilhelm-Universität Bonn, Institut fur Medizinische Statistik
Prof. Dr. H. Becher
Ruprecht-Karls-Universität Heidelberg, Hygiene-Institut, Abt. Tropenhygiene und öffentliches Gesundheitswesen
Dr. F. Beier
Kendle GmbH & Co. GMI KG München
Prof. Dr. J. Bock
Rostock
Dr. M. Budde
F. Hoffmann-La Roche AG, Basel
Dr. H. U. Burger
F. Hoffmann La Roche AG Basel
Prof. Dr. K. Busch
Rostock
Prof. Dr. T. Calinski
Landwirtschaftliche Hochschule Poznan, Inst, fur Mathem. Statist.
Prof. Dr. B. Ceranka
Landw. Universität Poznan, Abteilung für Mathemathische und Statistische Methoden
Prof. Dr. H. Dörfel
Halle
Dipl.-Math. B. Dümke
Rostock
Dr. L. Edler
Deutsches Krebsforschungszentrum, Heidelberg, AG Biostatistik
Dr. G. Enderlein
Berlin
Prof. Dr. H. Enke
Halle
Dr. K.-D. Feige
Matzlow
Dipl.-Math. G. Gort
Wageningen University, Biometris, Wageningen, NL
PD Dr. V. Guiard*
FBN Dummerstorf, FB Genetik und Biometrie
Prof. Dr. G. Herrendör
Dummerstorf
Dr. C. Heuer
Dossenheim
Dr. R.-D. Hilgers
Universitätsklinikum der RWTH Aachen, Institut für Biometrie,
PD Dr. R. Holle
GSF-Forschungszentrum fur Umwelt und Gesundheit, Oberschleißheim, Medis-Institut,
Prof. Dr. L. Hothorn
Universität Hannover, Lehrgebiet Bioinformatik
Dr. M. Kieser
Dr. Willmar Schwabe Arzneimittel, Karlsruhe
Dr. M. Knapp
Rheinische Friedrich-Wilhelm-Universität Bonn, Institut für Medizinische Statistik
VII
Dr. A. Koch
Bundesinstitut für Arzneimittel und Medizinprodukte, Bonn
Prof. Dr. W. Kopeke
Westfälische Wilhelms-Universität Münster, Institut für Medizinische Informatik und Biomathematik
PD Dr. S. Kröpf
Otto-von-Guericke-Universität Magdeburg, Institut für Biometrie und Medizinische Informatik
Dipl.-Stat. R. Kruse
Rheinische Friedrich-Wilhelm-Universität Bonn, Institut für Medizinische Statistik
Prof. Dr. J. Läuter
Otto-von-Guericke-Universität Magdeburg, Institut für Biometrie und Medizinische Informatik
Prof. Dr. W. Lehmacher
Universität zu Köln, Institut für Medizinische Statistik, Informatik und Epidemiologie
Prof. Dr. F. Möller
Universitä degli studi di Milano, Dipartimento di Economia e Politica
Dr. E. Moll
Biologische Bundesanstalt für Land- und Forstwirtschaft, Kleinmachnow
Dr. G. Nürnberg
FBN Dummerstorf, FB Genetik und Biometrie
Dipl.-Stat. M. Olschewski
Albert-Ludwigs-Universität Freiburg, Institut für Medizinische Biometrie und Medizinische Informatik
Dipl.-Math. E. Peter
BioMath-Gesel lschaft für Angewandte Mathematische Statistik in Biologie und Medizin mbH, Rostock
Prof. Dr. H.-P. Piepho Prof. Dr. B. van Putten
Universität Hohenheim, Institut für Pflanzenbau und Grünland, Fachgebiet Bioinformatik, Stuttgart Wageningen University, Biometris, Wageningen, NL
Prof. Dr. Dr. h.c. Dieter Rasch
Universität für Bodenkultur Wien, Institut für angewandte Statistik und EDV; Wien, Österreich
Prof. Dr. C. Richter
Humboldt-Universität zu Berlin, LandwirtschaftlichGärtnerische Fakultät
Dr. P. E. Rudolph
FBN Dummerstorf, FB Genetik und Biometrie
Dr. A. Safer
Abbott GmbH & Co. KG Informatik / Biometrie, Ludwigshafen
Prof. Dr. J. S. Simonoff
New York University, Dept. Of Statistics & Oper. Research
Dipl.-Math. K. Schlettwein FBN Dummerstorf, FB Genetik und Biometrie Dr. C. Schmoor
Universitätsklinikum Freiburg, Zentrum Klinische Studien
Prof. Dr. B. Schneider
Medizinische Hochschule Hannover, Institut für Biometrie
Prof. Dr. M. Schumacher
Albert-Ludwigs-Universität Freiburg, Institut für Medizinische Biometrie und Medizinische Informatik
VIII
S. A. Seuchter
Rheinische Friedrich-Wilhelm-Universität Bonn, Institut für Medizinische Statistik
Prof. Dr. A. Stein
Enschede, NL
Dr. K. Steindorf
Deutsches Krebsforschungszentrum Heidelberg, A G Umweltepidemiologie,
PD Dr. D. Sumpf
Hamburg
Dr. F. Teuscher
FBN Dummerstorf, FB Genetik und Biometrie
Prof. Dr. E. Thomas
Humboldt-Universität zu Berlin, LandwirtschaftlichGärtnerische Fakultät
Prof. Dr. H.-J. Trampisch
Ruhr-Universität Bochum, Abteilung für Medizinische Informatik, Biomathematik und Epidemiologie
Prof. Dr. R. Trommer
Eberswalde
Dr. A. Tuchscherer
FBN Dummerstorf, FB Genetik und Biometrie
Prof. Dr. K. Ulm
Technische Universität München, Institut für Medizinische Statistik und Epidemiologie
Prof. Dr. W. Urfer
Universität Dortmund, FB Statistik
Prof. Dr. L. R. Verdooren
Numico-Research B.V., Wageningen, NL.
Prof. Dr. N. Victor
Ruprecht-Karls-Universität Heidelberg, Institut für Medizinische Biometrie und Informatik
Prof. Dr. J. Wahrendorf
Deutsches Krebsforschungszentrum, Heidelberg, Abteilung Epidemiologie
Prof. Dr. Μ. P. Wand
University of New South Wales, Sydney, Australia
Dr. M. Wang, MSc
ORTEC b.v., Rotterdam, NL
Dr. K. Warnstorff
Martin-Luther-Universität Halle-Wittenberg, A G Biometrie und Agrarinformatik
Prof. Dr. S. Wellek
Zentralinstitut für Seelische Gesundheit, Mannheim, Abteilung Biostatistik
Dr. E. R. Williams,
CSIRO Divistion of Forestry, Canberra, Australia
PD Dr. J. Windeler
Medizinischer Dienst der Spitzenverbände der Krankenkassen e.V.
IX
Inhaltsverzeichnis Vorwort
1
1.
Liste der Verfahrenstitel
2
2. 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 2.10
Symbolik Allgemeine Symbolik Verteilungen Parameter und ihre Schätzwerte Tests und Konfidenzintervalle Versuchsanlagen und Varianztabellen Zeitreihen Statistische Genetik Klinische Forschung, Epidemiologie, Überlebenszeitanalyse Feldversuchswesen Räumliche Statistik
19 19 20 21 23 24 24 25 25 26 26
3. 3.1 3.2 3.3 3.4 3.5 3.6
Hinweise für Benutzer Voraussetzungen für die Anwendungen Aufbau und Inhalt der Verfahrensbibliothek Auffinden von Verfahren und Begriffen Anwendung der Verfahren Bemerkungen zu den Beispielen Hinweise zur verwendeten Software
27 27 28 31 32 32 33
4. 4.1 4.2 4.3 4.3.1 4.3.2 4.3.3 4.3.4 4.3.4.1 4.3.4.2 4.3.5 4.3.6 4.3.7 4.3.8 4.3.9 4.4 4.4.1 4.4.2 4.4.3 4.4.4 4.4.5 4.4.6 4.4.7 4.4.8 4.4.9 4.4.10
Grundbegriffe der Mathematischen Statistik Zufall und Wahrscheinlichkeit Grundgesamtheit - Stichprobe Statistische Schlussweisen Punktschätzungen Konfidenzschätzungen Toleranzschätzungen Schätzung von Dichte-und Wahrscheinlichkeitsfunktionen Nichtparametrische Schätzung einer Wahrscheinlichkeitsfunktion Nichtparametrische Dichteschätzung Tests Multiple Vergleiche Auswahlverfahren - Selektion Gegenüberstellung von Schätzungen, Tests und Auswahlverfahren Vorhersage in gemischten linearen Modellen Spezielle Verfahren Varianzanalyse Regressionsanalyse und Korrelationsanalyse Kovarianzanalyse Analyse von Kontingenztafeln Zeitreihenanalyse Verallgemeinerte lineare Modelle Mehrdimensionale statistische Analyse Statistische Methoden in der Medizin Landwirtschaftliche Feldversuche Räumliche Statistik
35 35 37 39 42 45 46 47 47 48 49 52 56 57 58 59 59 63 69 70 72 73 75 77 77 81
XI
5. 5.1 5.2 5.3 5.3.1 5.3.2 5.3.3 5.3.4 5.3.5 5.3.6
Statistische Versuchsplanung Die Stellung des Versuches im Erkenntnisprozess Gegenstand und Aufgaben der statistischen Versuchsplanung Teilgebiete und Prinzipien der statistischen Versuchsplanung Präzisierung der Fragestellung Auswahl des Versuchstyps Prinzipien der Versuchsplanung Auswahl der Versuchsanlage Optimale Allokation Vorgabe der Genauigkeit - Bestimmung des Versuchsumfanges (Fallzahlschätzung) 5.3.6.1 Schätzungen 5.3.6.2 Tests 5.3.6.3 Multiple Vergleiche 5.3.6.4 Auswahlverfahren 5.4 Beschaffung und Verwendung von Vorinformationen
97 99 100 101 102
6.
Die Verfahren
102
7. 7.1 7.2
Literatur und Richtlinien Literaturverzeichnis Richtlinien und Gesetze
103 103 138
XII
85 85 85 86 86 88 89 91 94 96
Schlüsselsystem 1
Allgemeine Grundlagen
2 Datenaufbereitung
1 2 3 4 5 6
1 2 3 4 5
3 Schätzungen, Tests und Auswahlverfahren
1 2
Präzisierung der Versuchsfrage Versuchsanlagen, Randomisierung Erhebungen Theoretische Verteilungen Tabellen Varianzanalyse - Tabellen und Stichprobenumfänge Herstellung von Dateien, Häufigkeitsverteilungen und graphischen Darstellungen Ausreißertests, Fehlerkontrolle Maßzahlen der Lage Maßzahlen der Streuung Momente, Schiefe, Exzess und weitere Maßzahlen Verteilungen 1 Schätzungen 2 Tests 3 Toleranzintervalle Lageparameter 1 Schätzungen Einstichprobenproblem 2 Tests Einstichprobenproblem 3 Schätzungen Zweistichprobenproblem 4 Tests Zweistichprobenproblem 5 Schätzungen Mehrstichprobenproblem 6 Multiple Vergleiche 7 Auswahlverfahren
1/11 1/21 1/31 1/41 1/51 1/61 2/11 2/21 2/31 2/41 2/51 3/11 3/12 3/13 3/21 3/22 3/23 3/24 3/25 3/26 3/27
Schlüsselsystem 3 Schätzungen, Tests und Auswahlverfahren
4 Analyse von Zusammenhängen und Abhängigkeiten
5 Mehrdimensionale Verfahren 6 Spezielle Anwendungen
Schätzungen Tests, multiple Vergleiche Auswahlverfahren Beurteilung fester Effekte 4 Varianzanalyse Beurteilung von Varianzund Kovarianzkomponenten 3 Vorhersage zufälliger Effekte 5 Variationskoeffizient, Schiefe, Exzess und weitere Parameter 6 Wahrscheinlichkeiten 1 Schätzungen 2 Tests 3 Auswahlverfahren 3 Varianzen
1 2 3 1 2
1 Qualitative Merkmale Kontingenztafeln 1 Lineare Regression Modell I 3 Quantitative Merkmale 2 Lineare Regression Modell II 3 Quasilineare Regression 5 Eigentlich nichtlineare Regression 4 Zeitreihen 1 Schätzungen 2 Modellwahl und Tests 5 Verallgemeinerte lineare Modelle 1 Varianzanalyse 2 Faktoranalyse 3 Diskriminanzanalyse, Clusteranalyse 1 Klinische Forschung 1 Mess- und Diagnoseverfahren 2 Präklinische Versuche 3 Klinische Studien 2 Epidemiologie 3 Uberlebenszeitanalyse 4 Genetik 5 Landwirtschaftliche Feldversuche 6 Räumliche Statistik
3/31 3/32 3/33 3/41 3/42 3/43 3/51 3/61 3/62 3/63 4/11 4/31 4/32 4/33 4/35 4/41 4/42 4/51 5/11 5/21 5/31
6/11 6/12 6/13 6/21 6/31 6/41 6/51 6/61
Vorwort zur zweiten Auflage Die vorliegende Sammlung von statistischen Verfahren zur Planung und Auswertung von Versuchen und Erhebungen erscheint nun in zweiter Auflage zwar in stark veränderter Form aber mit nur unwesentlich geändertem Inhalt. Bei den Änderungen handelt es sich fast ausschließlich um die Korrektur von Fehlern und wenige Ergänzungen - vor allem von neuerer Literatur. Bei der ersten Auflage lagen zwischen dem Erscheinen der beiden Bände etwa 2 Jahre. Während der zweite Band seit Jahren vergriffen ist, gab es von Band I noch Restbestände. Verlag und Herausgeber haben sich daraufhin geeinigt, eine zweite Auflage in vorwiegend elektronischem Format, jedoch vollständig, herauszubringen: der Buchteil beschränkt sich jetzt auf eine Benutzungsanleitung, die Einfuhrung in die Statistik, die Symbolik, und natürlich die Liste der Verfahrenstitel; die Verfahren sind auf eine beiliegende CD verlagert. Neben den üblichen Methoden der angewandten Statistik sind nach wie vor an speziellen Teilgebieten enthalten: - Verallgemeinerte lineare Modelle - Zeitreihenanalyse - Faktoranalyse - Diskriminanzanalyse - Sequentielle Verfahren - Überlebenszeitanalyse - Räumliche Statistik Manche Anwendungsgebiete der Statistik haben ihre eigenen Methodenrepertoires, teilweise wurden spezifisch für dieses Gebiet geeignete Methoden entwickelt. Solche Methodenrepertoires sind für die folgenden Anwendungsbereiche in eigenen Abschnitten dargestellt: - Populationsgenetik - Diagnoseverfahren - Präklinische Versuche - Klinische Studien - Epidemiologie - Humangenetik - Feldversuchswesen - Geostatistik Die neue Präsentationsweise der Verfahren machte einigen technischen Aufwand erforderlich. Es ist nun möglich, nach Begriffen zu suchen und entsprechende Verfahren anzusteuern. Wir danken dem Vorstand des Forschungsinstituts für die Biologie Landwirtschaftlicher Nutztiere und dem Leiter des Bereiches Genetik und Biometrie, dass diese Aufgabe einem Informatiker aus dem Institut übertragen wurde. Rostock, Dummerstorf und Heidelberg im Frühjahr 2007 Die Herausgeber
1
Liste der Verfahrenstitel1 Numer
Titel
1/11/0000 Ableitung und Präzisierung von statistischen Versuchsfragen 1/11/0120 Festlegung der Risiken eines Tests, eines Auswahlverfahrens bzw. des Konfidenzkoeffizienten 1/11/0130 Vorgabe des Genauigkeitsparameters d (bzw. λ) 1/11/0200 Bestimmung des geeigneten Typs eines Versuches 1/11/1415 Entscheidung zwischen zwei Messmethoden bei der Schätzung eines Mittelwertes unter Berücksichtigung der Versuchskosten 1/11/2000 Skalierung 1/11/2002 Metrische Skalierung einer qualitativen Variablen bei gegebener Klasseneinteilung 1/11/2004 Metrische Skalierung von ranggeordneten oder kontinuierlichen Messvariablen bei gegebener Klasseneinteilung 1/11/2101 Transformation einer empirischen Verteilung in eine vorgegebene Verteilung (Flächentransformation) 1/21/0000 Auswahl der Versuchsanlage und Verwendung von Vorinformation 1/21/0005 Zufallige Auswahl und Zuordnung 1/21/0011 Angabe von a-priori-Verteilungen für unbekannte Parameter 1/21/1020 Auswahl der Versuchsanlage zur Schätzung von α Mittelwerten für normalverteilte Merkmale (Modell I) 1/21/2020 Auswahl der Versuchsanlage zum Vergleich von α Mittelwerten für normalverteilte Merkmale (Modell I) 1/21/2301 Auswahl des Typs eines balancierten Periodenversuchsplanes (Überkreuzversuchsplan) 1/21/3020 Auswahl der Versuchsanlage zur Selektion aus α Normalverteilungen bezüglich des Erwartungswertes 1/21/4000 Übersicht 1/21/4010 Vollständig randomisierte Anlage - einfache Versuchsanlage 1/21/4110 Versuche in vollständigen Blocks mit vollständiger Randomisation 1/21/4120 Vollständig balancierte vollständige Blockanlage (BVB) 1/21/4125 Vollständig balancierte vollständige Blockanlage in Zeilen-Spalten-Anordnung 1/21/4130 Teilweise balancierte vollständige Blockanlage (TBVB) 1/21/4140 Vollständig balancierte unvollständige Blockanlage (BUB) ohne weitere Einschränkungen 1/21/4150 Teilweise balancierte unvollständige Blockanlage (TBUB) ohne weitere Einschränkungen 1/21/4151 Teilbare TBUB (TP) 1/21/4152 Einfache Pläne (EP) 1/21/4153 Dreieckpläne (DP) 1/21/4154 Quadratpläne (QP) 1/21/4155 Zyklische Pläne (ZP) 1/21/4160 Alpha-Anlage (or-Anlage) 1/21/4162 Teilweise balancierte unvollständige Blockanlage mit zwei Wiederholungszahlen (erweiterte BUB) 1/21/4200 Übersicht 1
In der elektronischen Version dieser Liste fuhrt ein Klick auf die Nummer direkt zum Verfahren.
2
1 121/4201 1/21/4202 1/21/4205 1/21/4210 1/21/4212 1/21/4217 1/21/4218 1/21/4219 1/21/4220 1/21/4250 1121 /4312 1/21/4500 1/21/4600 1/21/4700 1/21/4800
Zerlegbare Zeilen-Spalten-Anlagen luteinisierte Zeilen-Spalten-Anlagen Nichtzerlegbare Zeilen-Spalten-Anlagen - Lateinische Rechtecke Lateinisches Quadrat ohne weitere Einschränkung Balancierter Periodenversuchsplan - Überkreuzversuchsplan A u s w a h l e i n e s η χ η -lateinischen Quadrates für 3 < « < 6 Auswahl eines η χ η -lateinischen Quadrates für « > 6 Paarweise orthogonale lateinische Quadrate Youdenanlage Lateinisches Rechteck (LR) Balancierte Periodenversuchsanlage (Überkreuzversuchsplan) in Blocks Kreuzklassifikation Hierarchische Klassifikation Gemischte Klassifikation Übersicht
1/21/4820 Vollständige 2P -faktorielle Versuche 1/21/4821 2p~k - fraktionierte faktorielle Versuche 1/21/4822 Haupteffektpläne für faktorielle Versuche mit zweistufigen Faktoren 1/21/4825 1121 /4900 1/21/5001 1 /31 /0000 1/31/1110 1/31/1210 1 /31 /2010 1/31/2110 1/31/3100 1/31/4100 1/31/5100 1/31/6100 1/41/0000
2P - bzw. 2p~k -faktorielle Versuche in unvollständigen Blockanlagen Sequentielle Versuche Bestimmung des Stichprobenumfanges bei unbekannter Varianz Stichprobenauswahl Stichprobenauswahl aus endlichen Grundgesamtheiten - Vollständige Zufallsauswahl mit und ohne Zurücklegen Stichprobenauswahl aus endlichen Grundgesamtheiten - Systematische Auswahl mit Zufallsstart Randomisieren von Versuchsanlagen Stichprobenauswahl aus endlichen Grundgesamtheiten - Auswahl mit Wahrscheinlichkeit proportional zur Größe der Einheiten Stichprobenauswahl aus endlichen Grundgesamtheiten - Mehrstufige Auswahl und Klumpenauswahl Stichprobenauswahl aus endlichen Grundgesamtheiten - Geschichtete Auswahl Stichprobenauswahl aus endlichen Grundgesamtheiten - Mehrphasige Auswahl Linienstichprobenverfahren Theoretische Verteilungen - Übersicht
1/41/0010 Normalverteilung - Ν ( μ ; σ 2 ) 1/41/0015 Gestutzte Normalverteilung 1/41/0020 /-Verteilung - t ( f ) 1/41/0030
X2-Verteilung
-
CQ(f)
1/41/0040 F-Verteilung - F ( / i ; / 2 ) 1/41/0050 1/41/0060 1/41/0070 1/41/0090 1/41/0510 1/41/0520
Ein- und zweiparametrische Exponentialverteilung Logarithmische Normalverteilung Gammaverteilung Weibullverteilung Binomialverteilung - b(n\ p) Poissonverteilung - Ρ{λ)
3
1/41/0530 1/41/0540 1/41/0541 1/41/0550 1/41/0560 1/41/1010 1/41/1510 1/41/6000 1/51/0005 1/51/0010 1/51/0022 1/51/0024
Hypergeometrische Verteilung Negative Binomialverteilung, Pascalverteilung, geometrische Verteilung Logarithmische Verteilung Polyaverteilung (Ansteckungsverteilung) Verallgemeinerte Binomialverteilung Mehrdimensionale Normalverteilung Polynomialverteilung Transformation von Beobachtungsdaten Bestimmung des Quantiis einer Verteilung mit SAS Dichte- und Verteilungsfunktion der Normalverteilung Quantile der t- und Normalverteilung Werte ζ = z(k;t;f;P)als Lösung der Gleichung gf (x)dx = Ρ in Abhängigkeit von k, t,f und Ρ •y
1/51/0032 Quantile der χ -Verteilung 1/51/0042 Quantile der F- Verteilung 1/51/0045 Tabelle zur Bestimmung des Stichprobenumfanges fur den F-Test (Modell I) bei höheren Klassifikationen 1/51/0092 Quantile der Standard-Weibullverteilung 1/51/0510 Wahrscheinlichkeitsfunktion und Verteilungsfunktion der Binomialverteilung 1/51/0520 Wahrscheinlichkeitsfunktion und Verteilungsfunktion der Poissonverteilung 1/51/1011 Tabelle der Quantile der &-dimensionalen /-Verteilung mit unabhängigen Zählern 1/51/1012 Quantile der A>dimensionalen t- und Normalverteilung mit ρ =0,5 1/51/1910 Quantile der Verteilung des Stichprobenkorrelationskoeffizienten bei zweidimensionaler Normalverteilung ρ = 0 1/51/2010 Quantile der studentisierten Spannweite 1/51/2020 Quantile der Prüfzahl des Kolmogorov-Smirnov-Tests 1/51/3010 Stichprobenumfang fur Mittelwertvergleiche nach dem «-Test für das Ein- und Zweistichprobenproblem (auch fur den /-Test geeignet) 1/51/3014 Stichprobenumfang für den Newman-Keuls-Test und den Tukey-Test 1/51/4801 Hadamard-Matrizen für r = 2; 4(4)32 1/61/0000 Varianz- und Kovarianzanalyse 1/61/0001 Ableitung von Formeln fur SQ, FG und E(MQ) für Varianzanalysen in orthogonalen Klassifikationen Planung und Auswertung orthogonaler Klassifikationen Besonderheiten bei der Auswertung nichtorthogonaler Klassifikationen Varianztabelle für einfache Klassifikation Varianztabelle für zweifache Kreuzklassifikation mit gleicher Klassenbesetzung mit Wechselwirkungen 1/61/2110 Varianztabelle für zweifache Kreuzklassifikation mit gleicher Klassenbesetzung ohne Wechselwirkungen 1/61/2111 Varianztabelle für zweifache Kreuzklassifikation mit einfacher Klassenbesetzung 1/61/2200 Varianztabelle für zweifache hierarchische Klassifikation - balancierter Fall
1/61/0002 1/61/0003 1/61/1000 1/61/2100
4
1/61/2202 Varianztabelle fur eine zweifache hierarchische Klassifikation - unbalancierter Fall 1/61/3100 Varianztabelle für dreifache Kreuzklassifikation mit gleicher Klassenbesetzung 1/61/3110 Varianztabelle für dreifache Kreuzklassifikation mit gleicher Klassenbesetzung ohne Wechselwirkung AxBxC 1/61/3111 Varianztabelle für dreifache Kreuzklassifikation mit einfacher Klassenbesetzung 1/61/3120 Varianztabelle für dreifache Kreuzklassifikation mit gleicher Klassenbesetzung ohne Wechselwirkungen 1. und 2. Ordnung 1/61/3200 Varianztabelle für dreifache hierarchische Klassifikation - balancierter Fall 1/61/3202 Varianztabelle für eine dreifache hierarchische Klassifikation - unbalancierter Fall 1/61/3300 Varianztabelle für dreifache gemischte Klassifikation (A y B)xC mit gleicher Klassenbesetzung 1/61/3310 Varianztabelle für dreifache gemischte Klassifikation (A y B)xC mit gleicher Klassenbesetzung ohne Wechselwirkungen BxC in A 1/61/3320 Varianztabelle für dreifache gemischte Klassifikation (A > B)xC mit gleicher Klassenbesetzung ohne Wechselwirkungen 1/61/3400 Varianztabelle für dreifache gemischte Klassifikation ( A x B ) y C mit gleicher Klassenbesetzung mit Wechselwirkungen 1/61/5000 Konstruktion von Tabellen für die lineare Kovarianzanalyse und die mehrdimensionale Varianzanalyse 1/61/7100 Kovarianztabelle für die zweifache Kreuzklassifikation mit gleicher, mehrfacher Klassenbesetzung 2/11/0000 Häufigkeitsverteilung, Klasseneinteilung, graphische Darstellung 2/11/0001 Häufigkeitstabelle, empirische Verteilungsfunktion 2/11/0002 Darstellung von eindimensionalen empirischen Häufigkeitsverteilungen 2/11/0003 Klassenbildung 2/11/0004 Dateneingabe zum Aufbau einer S AS-Datendatei 2/21/0000 Prüfung von Beobachtungswerten 2/21/0001 Endziffernkontrolle 2/21/0100 Ausreißertests 2/21/0101 Einseitiger Test bezüglich eines Ausreißers für normalverteilte Zufallsvariablen bei unbekanntem μ und bekanntem σ 2 2/21 /0102 Einseitiger Test bezüglich eines Ausreißers für normalverteilte Zufallsvariablen bei unbekanntem μ und σ2 2/21 /0103 Zweiseitiger Test bezüglich einer unbekannten Anzahl von Ausreißern 2/21/0210 2/31/0001 2/41/0001 2/51/0000 2/51/0001 2/51/0010 2/51 /1000 2/51/1111 2/51/1221
für eine normalverteilte Zufallsvariable bei unbekanntem μ und σ 2 Plausibilitätskontrolle Maßzahlen der Lage Maßzahlen der Streuung Momente, Schiefe, Exzess und weitere Maßzahlen Momente Schiefe und Exzess Maße für den Zusammenhang zweier Merkmale Korrelationskoeffizient Rangkorrelation und Zuordnung von Rangzahlen
5
2/51/1311 Punktbiserialer Korrelationskoeffizient - Zweizeilenkorrelations-koeffizient 2/51/1315 Biserialer Korrelationskoeffizient 2/51/1331 Assoziationsmaße in (2x2)-Tafeln 2/51/1335 Tetrachorischer Korrelationskoeffizient 2/51/1415 Multiserialer Korrelationskoeffizient 2/51 /1441 y-Maß fur ordinalskalierte Kontingenztafeln 2/51/1551 Assoziationsmaße in (a x b) -Kontingenztafel 2/51/1552 Vorhersagemaße λ in Kontingenztafeln 2/51/1553 Vorhersagemaße τ in Kontingenztafeln 3/11/0000 Schätzung einer Wahrscheinlichkeitsfiinktion, einer Dichtefunktion bzw. einer Verteilungsfunktion 3/11/0050 Konfidenzbereich für eine kontinuierliche Verteilungsfunktion 3/11/0070 Bestimmung eines Konfidenzintervalls für ρ = P(x < y) bei zweidimensionaler Normalverteilung 3/11/2001 Nichtparametrische Schätzung einer Wahrscheinlichkeitsfunktion ohne Voraussetzungen über deren Form 3/11/2002 Nichtparametrische Schätzung einer Wahrscheinlichkeitsfunktion unter Glattheitsannahmen 3/11/3001 Nichtparametrische Dichteschätzung - Histogrammschätzung 3/11/3002 Nichtparametrische Dichteschätzung - Kernschätzung 3/11/3003 Nichtparametrische Dichteschätzung (modifizierte Kernschätzung) 3/11/3004 Nichtparametrische Dichteschätzung (lokale polynomiale Kernschätzung) 3/12/0000 Tests für Verteilungen 3/12/1001 Graphischer Vergleich einer empirischen Verteilung mit der Normal Verteilung 3/12/1002 Vergleich einer empirischen Verteilung mit der Normalverteilung, modifizierter ^ - T e s t 3/12/1003 Vergleich einer empirischen Verteilung mit der Normalverteilung (Omnibus-Test) 3/12/1004 Vergleich einer empirischen Verteilung mit einer vorgegebenen Vertei3/12/1010 3/12/1050 3/12/1080
3/12/1090
3/12/2010 3/12/2020 3/13/0000 3/13/0100
lung, χ 2 -Test Vergleich einer empirischen Verteilung mit einer vorgegebenen kontinuierlichen Verteilung, Kolmogorov-Smirnov-Test Vergleich einer empirischen Verteilungsfunktion mit der Verteilungsfunktion einer Exponentialverteilung, Kuiper-Test Vergleich einer empirischen Verteilungsfunktion mit der Verteilungsfunktion der Extremwertverteilung anhand zensierter oder unzensierter Stichproben Vergleich einer empirischen Verteilungsfunktion mit der Verteilungsfunktion der Weibullverteilung anhand zensierter oder unzensierter Stichproben Homogenitätstest für zwei Stichproben (Test von Wilcoxon bzw. MannWhitney) Homogenitätstest für zwei Stichproben (Kolmogorov-Smirnov-Test) Konstruktion von Toleranzbereichen (-Intervallen) Bestimmung einseitiger und zweiseitiger P-Anteil-Toleranzintervalle zum Koeffizienten γ
6
3/13/0102 Bestimmung von Ρ-Anteil-Toleranzintervallen zum Koeffizienten γ für normalverteilte Grundgesamtheiten bei unbekannten μ und σ 3/13/0110 Bestimmung einseitiger und zweiseitiger Z3-Anteil-Toleranzbereiche bei unbekannten, kontinuierlichen Verteilungen 3/13/0200 Bestimmung von Toleranzintervallen mit erwartetem Anteil β 3/13/0202 Bestimmung von Toleranzintervallen mit erwartetem Anteil β fur die Normalverteilung bei unbekannten Parametern μ und σ 3/13/0210 Bestimmung von Toleranzintervallen mit erwartetem Anteil /?für beliebige kontinuierliche Verteilung 3/13/0300 Toleranzintervalle für diskrete Verteilungen 3/13/0501 Toleranzbereiche für zweidimensionale kontinuierliche Verteilungen mit geringer Abhängigkeit zwischen beiden Komponenten des Zufallsvektors 3/13/0513 Bestimmung von (endlichen) Toleranzbereichen mit erwartetem Anteil β für die Λ-dimensionale Normalverteilung mit unbekannten Parametern 3/13/0515 Bestimmung von endlichen P-Anteil-Toleranzbereichen zum Koeffizienten γ für die λ-dimensionale Normalverteilung mit unbekannten Parametern 3/21/0000 Schätzung von Lageparametern (Einstichprobenproblem) 3/21 /0010 Schätzung des Mittelwertes einer Normalverteilung 3/21/0052 Schätzung des Mittelwertes einer Normalverteilung mit unbekannter Varianz bei einseitiger Stutzung 3/21/0053 Schätzung des Mittelwertes und der Standardabweichung einer Normalverteilung bei zweiseitiger Stutzung und bekannten Stutzungspunkten 3/21/0111 Kostenoptimale Schätzung des Mittelwertes einer Normalverteilung 3/21/0115 Regressionsschätzung des Mittelwertes einer Normalverteilung mit unbekannter Varianz bei Berücksichtigung von Kosten 3/21/0161 Schätzung des Mittelwertes einer Normalverteilung mit unbekannter Varianz aus einseitig zensierten Stichproben vom Typ I oder vom Typ II Punktschätzung 3/21/0211 Sequentielle Bestimmung eines Konfidenzintervalls mit vorgegebener Breite 2d für den Mittelwert einer Normalverteilung 3/21/3121 Schätzung des Mittelwertes einer Lognormalverteilung 3/21/3201 Schätzung des Parameters einer Poissonverteilung 3/21/3202 Sequentielle Schätzung des Parameters einer Poissonverteilung 3/21/3205 Schätzung des Parameters einer linksseitig gestutzten Poissonverteilung 3/21 /3400 Robuste Schätzer des Mittelwertes 3/21/3401 or-getrimmtes Mittel 3/21 /3402 ar-winsorisiertes Mittel 3/21/3403 Andrews' Sinus M-Schätzer 3/21 /3404 Huber-Schätzer des Mittelwertes 3/21/3405 Hampel-Schätzer des Mittelwertes 3/21/5000 Schätzung von Lageparametern endlicher Grundgesamtheiten 3/21/5010 Schätzung des Mittelwertes einer endlichen Grundgesamtheit - Vollständige Zufallsauswahl mit oder ohne Zurücklegen 3/21/5030 Schätzung des Mittelwertes einer endlichen Grundgesamtheit Systematische Auswahl mit Zufallsstart 3/21/5050 Schätzung des Mittelwertes einer endlichen Grundgesamtheit - Einstufige Klumpenauswahl 3/21/5070 Schätzung des Mittelwertes einer endlichen Grundgesamtheit - Mehrstufige Auswahl 7
3/21/5090 Schätzung des Mittelwertes einer endlichen Grundgesamtheit -Geschichtete Auswahl 3/22/0000 Vergleich eines Lageparameters mit einer Konstanten - Einstichprobenproblem 3/22/1002 Vergleich des Mittelwertes einer Normalverteilung mit einer Konstanten 3/22/1005 Vergleich der Mittelwerte gepaarter Stichproben von einer zweidimensionalen Normalverteilung 3/22/1111 Einfache Varianzanalyse Modell II - Vergleich des Mittelwertes mit einer Konstanten unter Berücksichtigung von Versuchskosten 3/22/1500 Sequentieller Vergleich des Mittelwertes einer Normalverteilung mit einer Konstanten bei bekannter Varianz mit minimalem erwarteten Stichprobenumfang an den Stellen und μ ^ + d 3/22/1501 Sequentieller Vergleich des Mittelwertes einer Normal Verteilung bei bekannter Varianz mit einer Minimax-Bedingung für den Stichprobenumfang 3/22/2001 3/22/3401 3/22/3402 3/22/4105 3/22/4701 3/22/4705 3/23/0000 3/23/1000 3/23/1002 3/23/1012 3/23/1022 3/23/1102
3/23/1112 3/23/4002 3/24/0000 3/24/2002 3/24/2003 3/24/2052 3/24/2053 3/24/2521
Vergleich des Mittelwertes einer Poissonverteilung mit einer Konstanten Robuster Test mit «-getrimmtem Mittel Robuster Test mit or-winsorisiertem Mittel Vergleich des Parameters der einparametrischen Exponentialverteilung mit einer Konstanten Prüfung von Hypothesen über den Mittelwert im Einstichprobenproblem bei unbekannten, kontinuierlichen Verteilungen Test auf Gleichheit der Erwartungswerte der Randverteilungen in zweidimensionalen Verteilungen (Vorzeichen-Rang-Test) Schätzung von Lageparametern - Zweistichprobenproblem Schätzung der Differenz der Mittelwerte zweier Normalverteilungen Schätzung der Differenz der Mittelwerte zweier Normalverteilungen bei gleichen Varianzen Schätzung der Differenz der Mittelwerte zweier Normalverteilungen bei ungleichen Varianzen Schätzung der Differenz der Mittelwerte gepaarter Stichproben aus Normalverteilungen Schätzung der Differenz der Mittelwerte zweier Normalverteilungen bei gleichen Varianzen unter Berücksichtigung der Versuchskosten Schätzung der Differenz der Mittelwerte zweier Normalverteilungen bei ungleichen Varianzen unter Berücksichtigung der Versuchskosten Schätzung der Differenz der Mittelwerte zweier Poissonverteilungen Vergleich zweier Lageparameter im Zweistichrobenproblem Vergleich zweier Mittelwerte von Normalverteilungen mit gleichen Varianzen Vergleich zweier Mittelwerte von Normalverteilungen mit ungleichen Varianzen (Welch-Test) Vergleich zweier Mittelwerte von Normalverteilungen mit gleichen Varianzen unter Berücksichtigung von Kosten Vergleich zweier Mittelwerte von Normalverteilungen bei ungleichen Varianzen und unterschiedlichen Versuchskosten Vergleich zweier Mittelwerte von Normalverteilungen bei unbekannten, gleichen Varianzen und eingeschränkter Messwerterfassung in einer Stichprobe
8
3/24/4102 Vergleich der Lageparameter zweier zweiparametrischer Exponentialverteilungen mit gleichen Skalenparametern 3/24/4151 Sequentieller Vergleich der Parameter zweier einparametrischer Exponentialverteilungen 3/24/4501 Prüfung von Hypothesen im Zweistichprobenproblem bei unbekannten kontinuierlichen Verteilungen 3/24/5200 Vergleich von Mittelwerten zweier Poissonverteilungen 3/25/1152 Zweistufige Konstruktion von simultanen Konfidenzintervallen für die Differenzen von a —1 Behandlungen zu einem Standard für Normalverteilungen mit beliebigen Varianzen 3/25/2002 Schätzung einer Linearkombination von Mittelwerten in einem einfaktoriellen Versuch (einschließlich eingeschränkter Messwerterfassung) 3/25/2255 Schätzung des Produktes von Mittelwerten unabhängiger Zufallsvariablen bei bekannten Variationskoeffizienten unter Berücksichtigung von Versuchskosten 3/26/0000 Tests bezüglich mehrerer Lageparameter 3/26/0010 Multiple Vergleiche mit einer abgeschlossenen Testprozedur 3/26/1111 Vergleich von α Mittelwerten aus Normalverteilungen mit gleichen, unbekannten Varianzen (/-Test) 3/26/1118 Vergleich von α Mittelwerten aus Normalverteilungen mit gleichen, unbekannten Varianzen bei eingeschränkter Messwerterfassung (i-Test) 3/26/1121 Vergleich von α Mittelwerten aus Normalverteilungen mit gleichen, unbekannten Varianzen bei versuchsbezogenem Risiko 1. Art und vergleichsbezogenem Risiko 2. Art (Newman-Keuls-Test, Tukey-Test) 3/26/1131 Vergleich von α Mittelwerten aus Normal Verteilungen mit gleichen, unbekannten Varianzen (F-Test) 3/26/1132 Vergleich von α Mittelwerten aus Normalverteilungen mit ungleichen, unbekannten Varianzen 3/26/1151 Vergleich von α Behandlungen mit einer Kontrolle bei normalverteilten Merkmalen mit unbekannter Varianz (t- oder Dunnett-Prozedur) 3/26/1152 Vergleich von α Behandlungen mit einer Kontrolle unter Annahme einer monotonen Ordnung bei normalverteilten Merkmalen mit gleicher, unbekannter Varianz (Williams-Prozedur) 3/26/1161 Vergleich von α Mittelwerten aus Normalverteilungen (gleiche, unbekannte Varianzen) mit einer Konstanten bei vergleichsbezogenem Risiko 1. Art (/-Test) 3/26/1171 Vergleich von α Mittelwerten mit einer Konstanten bei normal verteilten Merkmalen mit unbekannter, gleicher Varianz und multiplem Risiko 1. Art (stufenweises Vorgehen) 3/26/1181 Vergleich einer Linearkombination von a Mittelwerten mit einer Konstanten (Normalverteilung, gleiche Varianzen) 3/26/2000 Nichtparametrischer Vergleich von k Behandlungen mit einer Kontrolle (Steel-Prozedur) 3/26/8005 Vergleich von α Mittelwerten aus Stichproben mit stetiger Verteilung (Kruskal-Wallis-Test) 3/26/8505 Vergleich von α Mittelwerten aus Stichproben mit stetiger Verteilung bei geordneter Alternative (Jonckheere-Terpstra-Test) 3/26/9101 Vergleich der Mittelwerte von α Poissonverteilungen (w-Test) 3/26/9104 Vergleich der Mittelwerte von α Poissonverteilungen mit dem Mittelwert einer Standard-Poisson-Verteilung («-Test) 3/27/0000 Selektion - Auswahl von Behandlungen
9
3/27/1101 Auswahl des größten Mittelwertes von α Normalverteilungen mit gleichen Varianzen (auch bei eingeschränkter Messwerterfassung) 3/27/1102 Auswahl der t größten Mittelwerte von α Normalverteilungen mit gleichen, bekannten Varianzen 3/27/1202 Sequentielle Auswahl des größten Mittelwertes von a Normalverteilungen bei unbekannter, gleicher Varianz 3/27/1301 Auswahl der t größten Mittelwerte von α Normalverteilungen mit beliebigen, unbekannten Varianzen 3/27/3101 Auswahl einer Teilmenge (aus α normalverteilten Grundgesamtheiten) mit zufälligem Umfang, die den größten Mittelwert enthält (gleiche, bekannte Varianzen) 3/27/3201 Auswahl einer Teilmenge vom Umfang r > t bezüglich der t größten Erwartungswerte aus α Normalverteilungen mit gleichen, bekannten Varianzen 3/27/4201 Auswahl einer Teilmenge aus α normalverteilten Grundgesamtheiten, die alle Grundgesamtheiten enthält, welche besser sind als ein Standard 3/31/0000 Schätzung von Varianzen - Übersicht 3/31/0101 Schätzung der Varianz einer Normalverteilung 3/31/0103 Schätzung der Standardabweichung (Varianz) einer Normalverteilung bei einseitiger Stutzung 3/31/0110 Schätzung der Varianz innerhalb von Gruppen - gemeinsame Schätzung 3/31/0175 Schätzung der Varianz eines Alternativmerkmals 3/32/0000 Tests fur Varianzen - Übersicht 3/32/0101 Vergleich der Varianz einer Normalverteilung mit einer Konstanten 3/32/0102 Vergleich der Varianzen zweier Normalverteilungen (F-Test) 3/32/0110 Vergleich der Varianzen von k > 2 Normalverteilungen 3/33/0001 Auswahl der t Grundgesamtheiten mit den kleinsten Varianzen 3/33/0010 Auswahl einer Teilmenge aus a Grundgesamtheiten, die die Grundgesamtheit mit der kleinsten Varianz enthält 3/41/0000 Beurteilung fester Effekte in Modellen der Varianzanalyse 3/41/0011 Einfache Varianzanalyse Modell II - Schätzung des Mittelwertes 3/41/1002 Schätzung der Effekte in einer zweifachen Kreuzklassifikation, Modell I 3/41/1005 Mittelwertvergleich bei zweifacher Kreuzklassifikation, Modell I mit Wechselwirkungen 3/41/1010 Mittelwertvergleich bei zweifacher Kreuzklassifikation, gemischtes Modell mit Wechselwirkungen 3/41/2000 Multiple Mittelwertvergleiche in Blockanlagen, Modell I 3/41/2001 Konstruktion von Blockanlagen zur Schätzung von Behandlungsdifferenzen mit gleicher Genauigkeit 3/41/2005 Auffinden eines Blockplans für Mittelwertvergleiche mit gleicher Genauigkeit ( k < v vorgegeben) 3/41/2006 Blockanlagen für Mittelwertvergleiche mit gleicher Genauigkeit (k>v oder k beschränkt) 3/41/2010 Vergleich von a Behandlungen in vollständigen Blocks 3/41/3501 Vergleich von Mittelwerten bei hierarchisch klassifiziertem Beobachtungsmaterial, gemischtes Modell 3/41/4050 Planung und Auswertung von balancierten Periodenversuchen bei ein-periodischen Nachwirkungen 3/41/4051 Periodenversuchspläne mit doppelt so vielen Perioden wie Behandlungen (Berenblut-Pläne)
10
3/41/4052 Periodenversuchspläne mit Periodenanzahl gleich Behandlungsanzahl (lateinische Quadrate) 3/41/4053 Planung und Auswertung von Extraperiodenversuchen 3/41/4054 Planung und Auswertung von balancierten Periodenversuchen mit Periodenanzahl kleiner als Behandlungsanzahl 3/41/4058 Planung und Auswertung von Überkreuzversuchen für zwei Behandlungen mit zwei Perioden 3/41/4059 Planung von Umkehrversuchen für zwei Behandlungen und mehr als zwei Perioden 3/42/0000 Beurteilung von Varianzkomponenten, Intraklasskorrelationskoeffizienten und Kovarianzen 3/42/1000 Schätzungen von Varianzkomponenten in gemischten linearen Modellen 3/42/1001 Einfache Varianzanalyse Model II - Schätzung von Varianzkomponenten zwischen den Gruppen 3/42/1005 Einfache Varianzanalyse Modell II - Schätzung von Varianzkomponenten für Alternativmerkmale 3/42/1006 Einfache Varianzanalyse Modell II Schätzung des Intraklasskorrelations-koeffizienten 9 k für Mittelwerte 3/42/1010 Zweifache hierarchische Varianzanalyse Modell II - Schätzung der Varianzkomponente des übergeordneten Faktors 3/42/1011 Zweifache hierarchische Varianzanalyse Modell II - Schätzung der Varianzkomponente des untergeordneten Faktors 3/42/1101 Zweifache Kreuzklassifikation Modell II mit ungleicher Klassenbesetzung - Schätzung der Varianzkomponenten 3/42/2001 Prüfen von Hypothesen über die Varianzkomponente zwischen den Gruppen (einfache Varianzanalyse) 3/42/2002 Prüfen von Hypothesen über die Varianzkomponente des übergeordneten Faktors in einer zweifach hierarchischen Versuchsanlage - Modell II 3/42/2003 Prüfen von Hypothesen über die Varianzkomponente des untergeordneten Faktors in einer zweifach hierarchischen Versuchsanlage - Modell II 3/42/3000 Schätzung der Kovarianz zweier Merkmale 3/42/3001 Einfache Kovarianzanalyse Modell II - Schätzung der Kovarianzkomponente zwischen den Gruppen 3/42/3002 Einfache Kovarianzanalyse - Schätzung der Kovarianz innerhalb von Gruppen 3/43/0001 Beste lineare erwartungstreue Vorhersage (BLUP) für die zufälligen Effekte im Modell II der einfachen Varianzanalyse 3/51/1001 Schätzung des Variationskoeffizienten )-Kontingenztafeln (Modell 1) Modell 2 einer (2x2)-Tafel Das k-Stichprobenproblem in Modell 2 einer (Äx2)-Tafel Vergleich von a Polynomialverteilungen Korrespondenzanalyse Analyse vollständiger dreidimensionaler Kontingenztafeln Analyse dreidimensionaler Kontingenztafeln (Modell 1) Analyse dreidimensionaler Kontingenztafeln (Modell 2) Analyse dreidimensionaler Kontingenztafeln (Modell 3)
4/31/0000 Lineare Regression, Modell I 4/31/0002 Auswertung der linearen Regression, Modell I 4/31/1110 Einfache lineare Regression, Modell I - Schätzung der Regressionsfunktion 4/31/1112 Einfache lineare Regression durch einen festen Punkt, Modell I Schätzung der Regressionsfunktion 4/31/1120 Einfache lineare Regression, Modell I - Schätzung des Anstiegs ßx 4/31/1121 Einfache lineare Regression, Modell I - Schätzung von ßx bei unterschiedlichen Varianzen an den Messstellen 4/31/2110 Schätzung der Regressionsfunktion, mehrfache lineare Regression - GOptimalität 4/31/3101 Vergleich des Anstiegs /?, mit einer Konstanten 4/31/3161 Vergleich des Anstiegs ßx mit einer Konstanten bei Regression durch einen festen Punkt 4/31/3201 Vergleich der Anstiege zweier Regressionsgeraden - Varianzhomogenität 4/31/3251 Vergleich der Anstiege zweier Regressionsgeraden Varianzinhomogenität 4/31/3311 Vergleich mehrerer Regressionskoeffizienten (/-Test, Tukey-Test, FTest) 4/32/0000 4/32/0002 4/32/1101 4/32/1102 4/32/1201 4/32/1301 4/32/1321 4/32/1401 4/32/1975
Korrelationsanalyse - Übersicht Auswertung der linearen Regression Modell II Schätzung des Korrelationskoeffizienten Schätzung des Korrelationskoeffizienten innerhalb von Gruppen Schätzung eines partiellen Korrelationskoeffizienten Vergleich des Korrelationskoeffizienten mit einer Konstanten Vergleich zweier Korrelationskoeffizienten Vergleich eines partiellen Korrelationskoeffizienten mit Null Prüfung auf gleiche Wirkungsrichtung
12
4/32/3011 4/32/3012 4/32/3210 4/32/3211
4/35/2003 4/35/2004 4/35/2005 4/35/3001 4/35/3002 4/35/3003 4/41 /0000 4/41 /1100 4/41/1200 4/41/2300
Schätzung des Anstiegs in Modell II der Regression Schätzung des Anstiegs innerhalb von Gruppen Vergleich des Anstiegs mit einer Konstanten (Modell II) Vergleich des Anstiegs mit einer Konstanten (Modell II) innerhalb von Gruppen - Kovarianzanalyse Test auf Abhängigkeit in der mehrfachen linearen Regression (Modell II) Auswahl der Population mit dem größten multiplen Korrelationskoeffizienten Quasilineare Regression - Übersicht Auswertung der mehrfachen quasilinearen Regression Schätzung der quadratischen Regressionsfunktion - eine Einflussgröße Schätzung der quadratischen Regressionsfiinktion - zwei Einflussgrößen Schätzung der quadratischen Regressionsfunktion - drei Einflussgrößen Schätzung der quadratischen Regression - vier Einflussgrößen Schätzung der quadratischen Regression - fünf Einflussgrößen Zentral zusammengesetzte Versuchspläne zweiter Ordnung Mischungspläne fur die quadratische Regression Schätzung der Koeffizienten der polynomialen Regression Eigentlich nichtlineare Regression - Übersicht Modellwahl in der nichtlinearen Regression Zweiparametrische exponentielle Regression Die Michaelis-Menten-Regression Dreiparametrische exponentielle Regression Logistische Regression, dreiparametrische tanh-Regression mit stetiger Zielgröße Gompertz-Regression Bertalanffy-Regression Dreiparametrische Arcustangensregression Vierparametrische Tangenshyperbolicusregression Vierparametrische Arcustangensregression Janoschek-Regression Schätzung und Vorhersage bei Zeitreihen - Übersicht Schätzung der Parameter von ARM Α {ρ, ^-Modellen Schätzung des Spektrums einer Zeitreihe Vorhersage bei Zeitreihen
4/42/0000 4/42/0100 4/42/0200 4/42/0210 4/42/0220 4/42/0300 4/42/0400 4/42/0500 4/42/0510
Modellwahl und Hypothesenprüfling bei Zeitreihen Untersuchung einer Zeitreihe auf Stationarität Überfuhrung einer beliebigen Zeitreihe in eine stationäre Zeitreihe Übergang zur Zeitreihe der Inkremente Transformation der Messwerte Die Wahl von ρ, Λ und q in ARIMA-Modellen Prüfung eines Modells auf Stationarität und Invertierbarkeit Residuenanalyse in ARIMA - Modellen Test von p, d und q in einem ARIMA - Modell
4/51/0000 4/51/0100 4/51 /0200 4/51/0205 4/51/0300 4/51/0305
Verallgemeinerte lineare Modelle - Übersicht Auswertungsmethoden - Anpassung eines GLM GLM für Binomialverteilungen GLM-Überdispersion oder Unterdispersion bei Binomialverteilungen GLM für Poissonverteilung GLM-Überdispersion oder Unterdispersion bei Poissonverteilungen
4/32/3250 4/32/4401 4/33/0000 4/33/0002 4/33/1110 4/33/1205 4/33/1206 4/33/1215 4/33/1220 4/33/1250 4/33/1290 4/33/1410 4/35/0000 4/35/0001 4/35/1001 4/35/1005 4/35/2001 4/35/2002
13
4/51 /0400 GLM für Polynomialverteilung 4/51/0700 Wahl der Kopplungsfunktion 5/11/0000 Vergleich der Erwartungs werte mehrdimensionaler kontinuierlicher Verteilungen 5/11/2001 Vergleich zweier Mittelwertvektoren mit unbekannten gleichen Kovarianzmatrizen 5/11/2002 Vergleich zweier Mittelwertvektoren mit unbekannten ungleichen Kovarianzmatrizen 5/11/3001 Stabiler multivariater Mittelwertvergleich bei zwei oder mehreren Stichproben (PC-Test mit einem Score) 5/11/3002 Stabiler multivariater Mittelwertvergleich bei zwei oder mehreren Stichproben (PC-Test mit mehreren Scores) 5/11/3003 Stabiler multivariater Mittelwertvergleich bei zwei oder mehreren Stichproben (SS-Test) 5/11/4000 Vergleich der Mittelwertvektoren mehrerer mehrdimensionaler Normalverteilungen mit unbekannten gleichen Kovarianzmatrizen 5/21/0000 Faktoranalyse - Einleitung und Übersicht 5/21/1000 Hauptachsenmethode zur Schätzung der Faktorladungen 5/21/2000 Maximum-Likelihood-Methode zur Schätzung der Faktorladungen 5/31/0000 Diskriminanzanalyse - Übersicht 5/31/1000 Diskrimination zwischen mehreren Grundgesamtheiten 5/31/2001 Diskrimination für Normalverteilungen mit gleichen Kovarianzmatrizen bei geschätzten Parametern 5/31/2002 Stichprobenumfang fur die Diskrimination zwischen zwei Normalverteilungen mit gleichen Varianzen bei Vorgabe eines mittleren Diskriminationsfehlers 5/31/2003 Stichprobenumfang für die Diskrimination zwischen zwei Normalverteilungen mit gleichen Varianzen bei Vorgabe eines maximalen Diskriminationsfehlers 6/11/0000 Einleitung und Verfahrensübersicht 6/11 /1100 Planung von Reliabilitätsstudien 6/11/1200 Planung von Validierungsstudien 6/11/2100 Reliabilitätsmaße fur qualitative Merkmale 6/11/2200 Reliabilitätsmaße für ordinale Merkmale 6/11/2300 Reliabilitätsmaße fur metrische Merkmale 6/11/3100 Validitätsmaße - Dichotome Merkmale 6/11/3200 Schätzung und Prüfung der Validität - Dichotome Merkmale 6/11/3300 Dichotomisierung 6/11/3400 Validitätsmaße - Quantitative Merkmale 6/11/3500 Schätzung und Prüfung der Validität - Quantitative Merkmale 6/11/3600 Kombination zweier Diagnoseverfahren 6/12/0000 Einleitung, Verfahrensübersicht und Richtlinien 6/12/1000 Substanzscreening 6/12/2000 Dosisfindungsstudien bei dichotomen Merkmalen 6/12/3000 Einleitung und Verfahrensübersicht 6/12/3100 Direkte Prüfung 6/12/3211 Schätzung der relativen Wirksamkeit ρ (Parallellinienprüfung) 6/12/3212 Standardisierung und Prüfung von Präparaten 6/12/3220 Schätzung der EDP 6/12/4100 Untersuchungen zur akuten Toxizität
14
6/12/4200 6/12/4300 6/12/4400 6/12/4500 6/12/5100 6/12/5500 6/13/0000 6/13/0001 6/13/0002 6/13/0010 6/13/0020 6/13/0030 6/13/1100 6/13/1200 6/13/1201 6/13/1210 6/13/1220 6/13/1230 6/13/1240 6/13/5000 6/13/5110 6/13/5120 6/13/5210 6/13/5220 6/13/5221
Untersuchungen zur chronischen Toxizität Genotoxizität - Auswertung von Mutagenitätsstudien Auswertung reproduktionstoxikologischer Studien Auswertung von Kanzerogenitätsstudien Pharmakokinetik Pharmakodynamik Besonderheiten und Prinzipien klinischer Studien Einordnung einer Studie in den Entwicklungsprozess einer Therapie Einteilung der Probleme und Umsetzung in Hypothesen Ablauf einer kontrollierten Therapiestudie Erstellung des Studienprotokolls Prüfung der ethischen Vertretbarkeit Vergleich von Erfolgsraten Spezielle Probleme der Studiendurchführung Auswertungsverfahren - Übersicht Studien in einer Parallelgruppenanlage Studien mit verbundenen Stichproben Studien mit Cross-over-Anlagen Prüfverfahren bei multizentrischen Studien Prüfung auf Äquivalenz - Übersicht Einseitige Äquivalenztests für Lokationsprobleme Exakter Fisher-Test auf einseitige Äquivalenz von Erfolgsraten Allgemeiner Intervallinklusions-Test auf Äquivalenz Test auf Bioäquivalenz bei (log-) normalverteilten Beobachtungen Äquivalenz des Erwartungswertes //einer Normalverteilung bei bekannter Varianz mit einem Sollwert //Q 6/13/5222 Äquivalent von zwei Normalverteilungen mit unbekannter gemeinsamer 6/13/5230 6/13/5240 6/13/6000 6/13/6100 6/13/6101 6/13/6102 6/13/6500 6/13/6501 6/13/6511 6/13/6512 6/13/6513 6/13/6514 6/13/7000 6/13/7100 6/13/7200 6/13/7300 6/13/7310 6/13/7320 6/13/7330
Varianz σ2bezüglich (μ]-μ2)/σ Exakter Fisher-Test auf zweiseitige Äquivalenz von Erfolgsraten Nichtparametrischer Äquivalenztest fur zwei unverbundene Stichproben Grundanliegen sequentieller Verfahren Sequentielle Dreieckstests - Beschreibung und Übersicht Sequentieller Dreieckstest für Binomialverteilung Sequentieller Dreieckstest für Normalverteilung Verfahrensübersicht Fixe Auswertungszeitpunkte - Normalverteilte Zielgrößen Beliebige Auswertungszeitpunkte - Normalverteilte Zielgrößen und zweiseitige Fragestellung Beliebige Auswertungszeitpunkte - Normalverteilte Zielgrößen und einseitige bzw. asymmetrische Fragestellung Beliebige Auswertungszeitpunkte - Dichotome Zielgrößen Beliebige Auswertungszeitpunkte - Zielgröße Überlebenszeit Ablauf einer Meta-Analyse Planung von Meta-Analysen Literatursuche und Extraktion der Informationen Auswertungsmethoden für Meta-Analysen - Übersicht Kombination von Studien mit dichotomer Zielgröße Kombination von Studien mit normalverteilter Zielgröße Kombination von Studien mit ordinaler Zielgröße oder mit Zielgröße Überlebenszeit 15
6/13/7390 6/13/7400 6/13/9010 6/21 /0000 6/21/0010 6/21/0020 6/21/0500 6/21 /1100 6/21/1200 6/21/2100 6/21/2200 6/21/2300 6/21/2400 6/21/2500 6/21/2600 6/21/3100 6/21/3200 6/31/0000 6/31/0010 6/31/1100 6/31/1200 6/31/1300 6/31/1400 6/31/2100 6/31/2200 6/31/2300 6/31/2400 6/31/3100 6/31/3110 6/31/3150 6/31 /3200 6/41/0000 6/41/1101 6/41/1110 6/41/1201 6/41/2000 6/41/2010 6/41/2020 6/41/2030 6/41/3100 6/41/3101 6/41/3102 6/41/3103 6/41/3104 6/41/3105
Deskriptive und graphische Methoden Darstellung der Ergebnisse und Publikation Schätzung von Arzneimittelinteraktionen Einleitung - Problemübersicht und Zuordnung der Verfahren Maßzahlen für Sterbe- und Erkrankungshäufigkeiten Effektmaße Grundprinzipien der Studienplanung Darstellung von zeitlichem Trend und räumlicher Verteilung von Krankheiten Alters-Perioden-Kohortenmodelle Fall-Kontroll-Studien Kohortenstudien Querschnittsstudien Korrelationsstudien (Ökologische Studien) Eingebettete Fall-Kontroll-Studie Interventionsstudien Schätzung von Risiken Untersuchung von Schwellenwerten Einleitung und Verfahrensübersicht Modellierung Kaplan-Meier-Schätzer Schätzung bei Exponentialverteilung Schätzung der kumulativen Hazardfunktion Schätzung der medianen Überlebenszeit Logrank-Test Verallgemeinerte Rangtests Vergleich zweier Exponentialverteilungen Bestimmung des notwendigen Stichprobenumfangs Modell mit proportionalen Hazards nach Cox Schätzung individueller Überlebenszeitfunktionen Prüfung der Modellannahmen für das Coxsche Regressionsmodell Das Exponentialregressionsmodell Statistische Genetik Schätzung des Heritabilitätskoeffizienten h2 durch Regression Schätzung des Heritabilitätskoeffizienten h2 - Halbgeschwistermethode Schätzung des genetischen Korrelationskoeffizienten durch Regression Statistische Verfahren der Genomanalyse Töchter-Plan (DD) Enkelinnen-Plan (GDD) QTL-Kartierung mittels Inzuchtlinien Kopplungsanalyse - Einführung und Übersicht Schätzungen und Tests von Rekombinationsraten mit Hilfe der Likelihoodfunktion Test auf Kopplung mit Hilfe abstammungsgleicher oder zustandsgleicher Allele Einfacher Kopplungstest über Häufigkeiten von abstammungsgleichen Allelen Likelihoodbasierte Kopplungstests über Häufigkeiten abstammungsgleicher Allele Kopplungsanalyse mit Hilfe zustandsgleicher Allele
16
6/41/3200 Beurteilung des Auftretens von bestimmten Genotypen und Allelen bei erkrankten Kindern 6/41/3201 Punktschätzung von HRR 6/41/3202 Konfidenzintervall für HRR 6/41/3203 Test von H : p = p fur beliebige Populationen - Genotypanalyse 0
x
l
6/41/3204 Test von H : p = p* für Gleichgewichtspopulationen - Genotypanalyse 0 x 6/41/3205 Test von H : p - p* in beliebigen Populationen - Allelanalyse 0 x 6/41/3206 Test von H : p = p* in Gleichgewichtspopulationen - Allelanalyse 0 x 6/51/0000 Landwirtschaftliche Feldversuche - Einleitung und Übersicht 6/51/0001 Planung landwirtschaftlicher Feldversuche 6/51/0005 Versuchstypen im Feldversuchswesen 6/51/0010 Wahl der Versuchselemente 6/51/0011 Wahl der Teilstückgröße und -form 6/51/0015 Planung und Auswertung von Blindversuchen 6/51/0040 Auswahl und Konstruktion der Feldversuchsanlagen 6/51/1000 Auswertung von Versuchen in vollständigen Blocks - einfache Blockbildung 6/51/1110 6/51/1210 6/51/1220 6/51/1230 6/51/1700 6/51/7050 6/61/0000 6/61/1010 6/61/1020 6/61/1021 6/61/1022 6/61/1030 6/61/1031 6/61/1100 6/61/2000 6/61/2010 6/61/2020 6/61/2030 6/61/2040 6/61/2050 6/61/2051 6/61/2052 6/61/3000
Varianzanalyse für die einfaktorielle Blockanlage A - B l Varianzanalyse fur die zweifaktorielle Blockanlage Axß -B1 Varianzanalyse für die zweifaktorielle Spaltanlage A/B-Bl Varianzanalyse für die zweifaktorielle Streifenanlage A +B-BI Auswertung einer (zweifaktoriellen) Versuchsserie Schätzung und Vergleich der Ertragsstabilität von g Genotypen an ο Orten mit Hilfe des Regressionsansatzes von Finlay-Wilkinson Räumliche Statistik - Einführung Schätzung der Kovarianzfunktion einer räumlichen Variablen mit konstantem Trend Schätzung des Variogramms einer räumlichen Variablen Schätzung der Parameter eines exponentiellen Variogrammodells Schätzung der Parameter eines sphärischen Variogrammodells Definition von Inkrementen und der verallgemeinerten Kovarianzfunktion für nichtstationäre räumliche Variablen Schätzung der verallgemeinerten Kovarianzfunktion für nichtstationäre Variablen Modellierung räumlicher Abhängigkeiten zwischen zwei Variablen Räumliche Vorhersage - Übersicht Vorhersage von stationären räumlichen Variablen mit Hilfe der Kovarianzfunktion Vorhersage von stationären räumlichen Variablen mit Hilfe des Variogramms Vorhersage von nichtstationären räumlichen Variablen Räumliche Vorhersage unter Einbeziehung von Kovariablen - Kokriging Vorhersage von Wahrscheinlichkeiten unerwünschter Ereignisse Vorhersage von Überschreitungswahrscheinlichkeiten Hermitesche Vorhersage - HV Konstruktion optimaler Messnetze
17
2. Symbolik Zufallsvariablen werden durch Unterstreichung gekennzeichnet. Aus Zufallsstichproben abgeleitete Größen (ζ. B. Schätzungen) werden als Zufallsgrößen mit unterstrichenen Symbolen bezeichnet, ihre Realisationen (ζ. B. Schätzwerte) durch die gleichen nichtunterstrichenen Symbole. Da in SAS-Ausdrucken englische Abkürzungen und Bezeichnungen auftreten, werden diese ebenfalls aufgeführt.
2.1 Allgemeine Symbolik Hn(y)
Empirische Verteilungsfunktion einer Stichprobe vom Umfang η
χ, y
Vektoren und Matrizen werden fett gedruckt
A = (ajj)
Matrix mit den Elementen at]
A'
Transponierte der Matrix A
^-i
Inverse der Matrix A
En
Einheitsmatrix der Ordnung η
| AI
Determinante der Matrix A
Rg(A)
Rang der Matrix A
Sp(A)
Spur der Matrix A
\
=
λ
=
Ein Punkt an der Stelle eines Suffix bezeichnet die Summierung über diesen Suffix. Zusätzlich kann der Buchstabe groß geschrieben werden
Σ yy 7=1
Wahrscheinlichkeit eines einzelnen Ereignisses, Grundwahrscheinlichkeit q = \-ρ
Alternativwahrscheinlichkeit bei der Binomialverteilung
P(A | B)
Bedingte Wahrscheinlichkeit für das Eintreten des Ereignisses A, wenn das Ereignis Β eingetreten ist
f , FG, DF
Freiheitsgrade ( D F nur in SAS)
x,y,X2,F,x,s2,r -
~
Zufallsvariable werden durch Unterstreichungen gekennzeichnet, ihre Realisationen durch dieselben nicht unterstrichenen Buchstaben
y-ß u=— σ
Standardisierte Zufallsvariable
e
Zufalliger Fehler, Fehlerkomponente in Modellen
η
Stichprobenumfang, Versuchsumfang
19
Ν
Umfang einer endlichen Grundgesamtheit, Gesamtumfang mehrerer Stichproben ' 1(2)' •'•·' l(n)
Ordnungsmaßzahlen
yd),)>(2),•••,)'(„)
Kleinster, zweitkleinster bis größter Wert einer realisierten Stichprobe vom Umfang η oder Realisationen von Ordnungsmaßzahlen
h
Klassenbreite
k, m
Anzahl der Klassen
f j , tij
Absolute Häufigkeit, Besetzungszahl
y * _ li_ J
Fj
Relative Häufigkeit
η j =
^Jι i=l
Absolute Summenhäufigkeit
ρ
π* ~_L j
Relative Summenhäufigkeit
η
["x^
Kleinste ganze Zahl > χ (Aufrundung), in SAS c e i l ( χ )
[xj
Größte ganze Zahl < χ (Abrundung), in SAS f l o o r ( χ )
In
Natürlicher Logarithmus
lg
Logarithmus zur Basis 10
2.2 Verteilungen F(y)
= P(y < y)
Verteilungsfunktion der Zufallsvariablen y
f{y)
Dichtefunktion einer kontinuierlichen Zufallsvariablen y
0{u)
Verteilungsfunktion der standardisierten Normalverteilung
φ(ιι)
Dichtefunktion der standardisierten Normalverteilung
F(y | x ) F(jr,0) f(y
| x)
Verteilungsfunktion der bedingten Verteilung von y Verteilungsfunktion von y mit dem Parameter θ Dichtefunktion der bedingten Verteilung von y
f{y\6)
Dichtefunktion der Zufallsvariablen y mit dem Parameter θ
Ν(μ· σ2)
Kurzbezeichnung fur eine Normalverteilung mit dem Erwartungswert (Mittelwert) μ und der Varianz σ2
N(0; 1)
Kurzbezeichnung für die standardisierte Normalverteilung
20
b(n; ρ)
Kurzbezeichnung fur eine Binomialverteilung mit den Parametern ρ und η
Ρ{λ)
Kurzbezeichnung für eine Poissonverteilung mit dem Parameter λ
CQ(f)
Kurzbezeichnung für eine zentrale χ2 - Verteilung mit / F r e i heitsgraden
t(f)
Kurzbezeichnung fur eine zentrale /-Verteilung mit / Freiheitsgraden
Fifofi)
Kurzbezeichnung fur eine zentrale F-Verteilung mit fx und f2 Freiheitsgraden
Up
P-Quantil der N(0; 1) -Verteilung
t ( f ; P)
P-Quantil der t-Verteilung mit f Freiheitsgraden
χ2 ( / ; Ρ)
P-Quantil der χ2 -Verteilung mit f Freiheitsgraden
F(f\;f2;P)
P-Quantil der F-Verteilung mit fx und f2 Freiheitsgraden
q(k; f; P)
P-Quantil der Verteilung der studentisierten Spannweite m i t / Freiheitsgraden und k Variablen
ED50 EDP
Dosis, welche im Mittel bei 50 % (P %) der Testobjekte einen bestimmten Effekt hervorruft [50 %- (P %-) effektive Dosis]
LD50 LDP
Dosis, welche im Mittel bei 50 % (P %) der Testobjekte zum Tode fuhrt [50 %- (P %-) letale Dosis]
2.3 Parameter und ihre Schätzwerte θ
Bezeichnung für einen nicht näher festgelegten Parameter oder den Intraklasskorrelationskoeffizienten
§
Schätzfunktion (Schätzung, Schätzer) von θ
θ
Schätzwert von θ (Realisation von Θ )
E(y) = ßy = μ
Erwartungswert (Mittelwert) der Zufallsvariablen y
V(y) = σ2=σ2
Varianz der Zufallsvariablen y
(Ty = (7
Standardabweichung der Zufallsvariablen y
E(y | x) = ßyV
Erwartungswert von y in der zweidimensionalen Verteilung von
(x,y)
unter
der
Bedingung
x=x
(bedingter
Erwartungswert) V(y\x) = o · ^
Varianz von y
in der zweidimensionalen Verteilung von
( x , y ) unter der Bedingung x = x (bedingte Varianz)
21
_ 1Λ Υ y - ~ 2 ^ y i =— η 1V
_-
Η
Arithmetischer Mittelwert der Stichprobenwerte Arithmetischer Mittelwert der Zufallsvariablen —ι y , Schätzfunktion für μ Harmonisches Mittel
G
Geometrisches Mittel
Mo
Dichtemittel, Modalwert Zentralwert, Median
2
2
sy=s
1
Schätzwert von o y
sy=s
Schätzwert von a y
Β, Β < Α
Die Faktoren Α und Β sind hierarchisch klassifiziert, Α ist Β übergeordnet, Β ist Α untergeordnet (Β innerhalb von A)
B(A)
In SAS: Β < A d. h. Variationsursache "B innerhalb von A"
SQX, SS
Summe der Quadrate der Abweichungen bezüglich der Variablen χ (SS = "Sum of Squares" in SAS)
SPX y
Summe der Produkte der Abweichungen bezüglich χ und y
MQ
Mittleres Abweichungsquadrat (in SAS: Mean Squares)
E(MQ)
Erwartungswert der MQ
BUB
Balancierte unvollständige Blockanlage
TBUB
Teilweise balancierte unvollständige Blockanlage
LQ
Lateinisches Quadrat
2.6 Zeitreihen yk (?)
Autokovarianz mit Verzögerung k einer Zeitreihe
pk (t)
Autokorrelationskoeffizient mit Verzögerung k
yk
Autokovarianz mit Verzögerung k in einer stationären Zeitreihe
pk
Autokorrelationskoeffizient mit Verzögerung k einer stationären Zeitreihe
TK
Theoretisches Korrelogramm einer stationären Zeitreihe
TPK
Theoretisches partielles Korrelogramm einer stationären Zeitreihe
ck
Empirische Autokovarianz mit Verzögerung k, Schätzwert von yk
rk
Empirischer Autokorrelaltionskoeffizient mit Verzögerung k, Schätzwert von pk
24
2.7 Statistische Genetik Heritabilitätskoeffizient fj
Schätzung des Heritabilitätskoeffizienten
ρ
Genetischer Korrelationskoeffizient
,τ-2
Genetische Varianz
n2
Umweltbedingte Varianz
g
u
u
TP, DD
Töchterplan (DD - Daughter Design)
EP, GDD
Enkelinnenplan (GDD - Grand Daughter Design)
θ =r
Rekombinationsrate
θ - pj
Intraklasskorrelationskoeffizient
2.8 Klinische Forschung, Epidemiologie, Überlebenszeitanalyse D
Dosis
Κ
Kontrolle
DWF
Dosis-Wirkungsfunktion
Ρ
Relative Wirksamkeit Standards S
S(t)
Überlebenszeitfunktion bis zum Zeitpunkt t
Ä(t)
Hazardfunktion
A{t)
kumulative Hazardfunktion
SR
Sterberate
ASR
Altersstandardisierte Sterberate
RR
Relatives Risiko
RD
Risikodifferenz
AR
Attributables Risiko
OR
Odds Ratio (Chancenverhältnis)
25
des Präparates Ρ
bezüglich
2.9 Feldversuchswesen R
Versuchsanlage ohne Blockbildung - vollständig randomisierte Versuchsanlage
Bl
Versuchsanlage mit einfacher Blockbildung
LR
Versuchsanlage mit zweifach orthogonaler Blockbildung Lateinisches Rechteck
A/B-Bl
Zweifaktorielle Spaltanlage in Blocks
AxB-Bl
Zweifaktorielle Blockanlage (Kreuzklassifikation in einer Blockanlage)
Λ-LQ
Einfaktorielles lateinisches Quadrat
A+B-Bl
Zweifaktorielle Streifenanlage in Blocks
2.10 Räumliche Statistik c(h)
Kovarianzfunktion
r(h)
Variogramm
H N
Länge des Vektors h
g(h)
Verallgemeinerte Kovarianzfunktion ( V K F )
R
Reichweite einer räumlichen Statistik
"0
Parameter des Klumpeneffektes in Variogrammodellen
N(h)
Anzahl der Variablenpaare mit Abstand h
26
3. Hinweise für Benutzer 3.1 Voraussetzungen für die Anwendung Für das Verständnis der meisten Verfahren ist ein Grundwissen der Mathematischen Statistik erforderlich. Deshalb haben wir in Kapitel 4 und 5 einige Grundbegriffe erläutert. Wer sich darüber hinaus informieren möchte, dem empfehlen wir weitere Literatur, die im Umfeld der Autoren entstanden ist vor allem deshalb, weil sie in der Symbolik identisch mit diesem Text sind. Es sind dies die folgenden, von E. Moll (2003/2004) herausgegebenen, vier Hefte „Einfuhrung in die Biometrie": Heft 1 Richter, C. (2004). Grundbegriffe und Datenanalyse (2. Aufl.). Ribbesbüttel: Saphir. Heft 2 Sumpf, D. & Moll, E. (2004). Schätzen eines Parameters und Vergleich von bis zu zwei Parametern (2. Aufl.). Ribbesbüttel: Saphir. Heft 3 Schumacher, E. (2004). Vergleich von mehr als zwei Parametern (2. Aufl.). RibbesbüttekSaphir. Heft 4 Rasch, D. & Verdooren, R. (2004). Grundlagen der Korrelationsanalyse und der Regressionsanalyse (2. Aufl.). Ribbesbüttel: Saphir. Sowie Rasch, D., Verdooren L.R. and Gowers, J.I. (2007) Grundlagen der Planung und Auswertung von Versuchen und Erhebungen Oldenbourg Verlag München Wien . Als Nachschlagewerke fur einzelne Begriffe empfehlen wir: Marriot, F.M.C. A dictionary of statistical terms. New York: Wiley, 1990 Rasch, D., Tiku, M. L., Sumpf, D. (Eds.) Elsevier's Dictionary of Biometry. Amsterdam, London, New York: Elsevier Science BV, 1994 Außerdem finden sich in fast allen Verfahren Hinweise zu weiterführender Literatur, die wir fur diese Auflage aktualisiert haben. Auch erfahrene Versuchsansteller sollten sich die Kapitel 4 "Grundbegriffe der Mathematischen Statistik" und 5 "Statistische Versuchsplanung" ansehen und - j e nach den mathematisch-statistischen Vorkenntnissen - mehr oder weniger gründlich durcharbeiten, da hier wichtige Grundlagen in relativ gestraffter Form dargeboten werden. 27
Es ist unbedingt erforderlich, sich mit der Symbolik vertraut zu machen. Eine Besonderheit besteht darin, dass die Zufallsvariablen unterstrichen werden. Im Dialogsystem CADEMO sind viele der in diesem Buch angegebenen Formeln zur Bestimmung des Stichprobenumfangs in Programme umgesetzt und können ergänzend genutzt werden.
3.2 Aufbau und Inhalt der Verfahrensbibliothek Die Verfahrensbibliothek Versuchsplanung und -auswertung ist eine Sammlung von Verfahren von allgemeiner Verwendbarkeit für -
die Formulierung von Versuchsfragen, die Planung der Struktur des Versuches, die Planung des Umfangs des Versuches, die Modellwahl für die Beobachtungen, die Planung der Auswertung des Versuches, die Durchführung der Auswertung des Versuches.
Die Verfahrensbibliothek ist in mehrere Hierarchieebenen gegliedert: -
Das Schlüsselsystem gliedert das Gesamtsystem in sechs Komplexe und diese in Teilkomplexe. Die Übersichtsverfahren ordnen die einzelnen Verfahren eines Teilkomplexes.
Von den Herausgebern wurde die Form einer Verfahrenssammlung gewählt, weil sie folgende günstige Eigenschaften besitzt: -
-
Das Eingliedern neuer Erkenntnisse der mathematisch-statistischen Grundlagenforschung ist bei Neuauflagen einfach möglich. Die Verfahren sind, im Vergleich zu Abhandlungen in Lehrbüchern, bedarfsgerecht aufbereitet. Die einzelnen Verfahren können wie Bausteine zusammengefügt werden. Die Arbeit mit diesen Verfahren ist prinzipiell auch für Wissenschaftler und technische Mitarbeiter möglich, die weniger Erfahrungen aber Grundkenntnisse auf dem Gebiet der Mathematischen Statistik besitzen. Die Hinweise und Beispiele erlauben die Nutzung von CADEMO (siehe 3.6) zur Planung des Versuchsumfanges sowie von SAS zur Versuchsauswertung. Beispiele demonstrieren die Nutzung der Verfahren. Statistiker werden bei der Beratung von Fachwissenschaftlern unterstützt.
Im Komplex 1, "Allgemeine Grundlagen", sind solche Verfahren eingeordnet, die allgemeine Funktionen bei der Lösung mehrerer statistischer Probleme haben. Beim Aufbau dieses Komplexes wurden besonders auch solche Probleme beachtet, die in Lehrbüchern der Mathematischen Statistik häufig nur am Rande oder gar nicht behandelt werden. Sowohl für die Präzisierung der Versuchsfrage, als auch für die Präzisierung der gesamten Aufgabenstellung wurden Verfahren erarbeitet. Diese Verfahren werden durch solche zur Vorgabe der Genauigkeiten ergänzt, da dem Versuchsansteller erfahrungsgemäß die begründete Vorgabe von Genauigkeiten Schwierigkeiten bereitet. Mit den Verfahren zur Auswahl der Versuchsanlage werden
28
den Versuchsanstellern Kriterien und Hinweise gegeben, die eine Entscheidung für eine günstige Anlage (entsprechend den vorliegenden Bedingungen) erlauben. Um einen Überblick über die verschiedenen Versuchsanlagen zu geben und die Auswahl der geeigneten Versuchsanlage zu erleichtern, werden in 1/21 die wichtigsten Versuchsanlagen beschrieben, ihre Vor- und Nachteile sowie Hinweise zur Auswertung angegeben. Falls sinnvoll, wurden auch Konstruktionsverfahren bzw. Tabellen mit Plänen angefügt, und in einigen Verfahren wurde die Konstruktion der Anlagen mit CADEMO und deren Auswertung über SAS am Beispiel demonstriert. Häufig sollen Informationen über Grundgesamtheiten effektiv gewonnen werden, ohne dass ein "Versuch" im engeren Sinne durchgeführt wird. Hierfür werden Stichproben erhoben, aus denen die gewünschten Informationen "hochgerechnet" werden. Für solche Fälle steht der Teilkomplex 1/31 "Erhebungen" zur Verfügung. Je nach Untersuchungsziel und der jeweils vorliegenden Struktur der Grundgesamtheit wird unter Beachtung der vorliegenden Vorinformationen das entsprechende Stichprobenverfahren gewählt. Sowohl für die Auswahl eines statistischen Modells für die Planung von Versuchen, als auch für die statistische Verarbeitung des Datenmaterials nach der Versuchsdurchführung sind Kenntnisse über die Verteilung der untersuchten Merkmale erforderlich. Mit den im Teilkomplex 1/41 vorhandenen Verfahren sollen die Anwender befähigt werden, für vorliegende empirische Häufigkeitsverteilungen des Beobachtungsmaterials entsprechende theoretische Verteilungen zu ermitteln. In die Verfahrensbibliothek wurden außerdem alle für die Anwendung der Verfahren erforderlichen Tabellen und Nomogramme aufgenommen. Das wird besonders dann notwendig sein, wenn man nicht über CADEMO den Stichprobenumfang plant. Verwendet man zur Versuchsauswertung SAS, so sind dort entweder alle Quantile für Tests enthalten, oder der Test wird über die ausgegebene Wahrscheinlichkeit (P-Wert) durchgeführt. Schließlich enthält der Teilkomplex 1/61 Tabellen der Varianzanalyse mit den Erwartungswerten E(MQ) für die mittleren Abweichungsquadrate für alle drei Modelle (Modell I mit festen Effekten, Modell II mit zufälligen Effekten und das gemischte Modell mit festen und zufalligen Effekten). In den meisten Fällen wurden dabei aber nur Tabellen für balancierte Versuche angegeben. Im Falle unbalancierter Versuche sind viele häufig empfohlene F-Tests nicht sehr wirksam. Hier sollte, wenn mit SAS möglich, der exakte F-Test genutzt werden. Insbesondere sollte die Schätzung von Varianzkomponenten im Falle unbalancierter Versuche nicht über diese Tabellen durchgeführt, sondern auf Maximum-Likelihood-Schätzungen (ML oder REML) ausgewichen werden, die in SAS vorhanden sind. Häufig werden insbesondere in der Landwirtschaftsforschung Erhebungen mit einer über die Verwandtschaftsmatrix erklärten Abhängigkeit der Beobachtungen zur Schätzung von Varianzkomponenten benutzt. In solchen Fällen können andere Programme verwendet werden. Hier kann das Programm von Groeneveld (1995) "REML VCE" empfohlen werden. In Komplex 2 "Datenaufbereitung" sind Verfahren zusammengestellt, die zur elementaren Beschreibung von Daten eingesetzt werden, wenn ζ. B. Ergebnisse aus bereits durchgeführten Versuchen ausgewertet werden sollen. Dazu zählen besonders die Maßzahlen der Lage, Streuungsmaße, Schiefe, Exzess und Maßzahlen des Zusammenhanges. Es werden Verfahren für die Kontrolle der Daten auf Ausreißer und Erfassungsfehler angegeben. Da die Versuchsauswertung in diesem Buch vorzugsweise mit SAS vorgenommen werden soll, enthält dieser Komplex auch Hinweise zur Dateigestaltung und zu Möglichkeiten der graphischen Darstellung mit SAS. 29
Komplex 3 "Schätzungen, Tests und Auswahlverfahren" bildet mit den Verfahren für Schätzungen, Tests und Auswahlverfahren den Hauptteil der Verfahrensbibliothek. Schätzungen, Tests und Auswahlverfahren werden u.a. fur Verteilungen, Lageparameter, Varianzen, Varianzkomponenten, Schiefe, Exzess und Wahrscheinlichkeiten angegeben. Im Teilkomplex 3/1 "Verteilungen" werden Verfahren zusammengestellt, in denen Schätzungen und Tests fur Verteilungen sowie Toleranzintervalle behandelt werden. Hier findet man z.B. Anpassungs- und Homogenitätstests sowie Dichteschätzungen. Der Teilkomplex 3/2 "Lageparameter" enthält die wichtigsten Verfahren zur Schätzung, zur Auswahl und zum Vergleich von Lageparametern. In den Verfahren zur Schätzung von Mittelwerten sind sowohl die Formeln für die Punkt- als auch fur die Konfidenzschätzung angegeben. Außerdem sind Verfahren enthalten, die es gestatten, den Mittelwert einer ursprünglichen Verteilung zu schätzen, wenn Beobachtungswerte aus einer gestutzten Verteilung vorliegen. Für Tests von Lageparametern gibt es Verfahren zum Vergleich dieser Parameter untereinander und mit einer Konstanten. Dazu wurden u.a. der t-Test, der F-Test und eine Reihe von multiplen Mittelwertvergleichen aufgenommen. Durch die Erarbeitung von Verfahren für eingeschränkte Messwerterfassung werden Voraussetzungen fur eine zum Teil beträchtliche Verminderung des Versuchsaufwandes gegeben. Unter den Auswahlverfahren finden sich sowohl die Methoden der Indifferenzbereichsformulierung als auch der Teilmengenauswahl. In diesem Teilkomplex wird nur von einfaktoriellen Versuchen in einfachen Versuchsanlagen ausgegangen. Teilkomplex 3/3 "Varianzen, Kovarianzen und Skalenparameter" enthält die Verfahren zur Punkt- und Konfidenzschätzung fur Varianzen und Kovarianzen sowie die entsprechenden Auswahl- und Testverfahren. Auf ein Verfahren zum Bartlett-Test wurde verzichtet, da dieser Test sehr empfindlich gegenüber der Verletzung der Verteilungsvoraussetzung reagiert. Dafür wurden fur den multiplen Vergleich von Varianzen andere approximative Verfahren aufgenommen, die eine größere Robustheit besitzen. Sowohl bei der Planung als auch bei der Auswertung treten in gemischten linearen Modellen einige Besonderheiten auf, die in 3/4 behandelt werden. In diesem Teilkomplex sind sowohl Mittelwertvergleiche in gemischten linearen Modellen als auch die Schätzung von Varianzkomponenten und die Vorhersage zufalliger Effekte angesie delt. Aber auch Mittelwertvergleiche in Versuchsanlagen zur Ausschaltung von Störfaktoren (fest) wurden hier oder in 1/21 eingeordnet. Im Teilkomplex 3/5 sind einige Verfahren zur Beurteilung von Schiefe und Exzess sowie weiterer Parameter zusammengetragen. In diesem Teilkomplex findet man auch die Schätzung von solchen Parametern von Verteilungen, die selbst weder Lageparameter noch Varianzen sind. Der Teilkomplex 3/6 enthält Verfahren zur Beurteilung von Wahrscheinlichkeiten. Hier findet man auch die Verfahren zu Kontingenztafeln Modell II (zweidimensionale Tafeln mit festen Randnummern an einem der Ränder). Der Komplex 4 umfasst alle Verfahren zur Beschreibung von Zusammenhängen und Abhängigkeiten, beginnend mit einem Teilkomplex 4/1 über qualitative Merkmale, d.h., Kontingenztafeln Modell I. Zusammenhänge zwischen qualitativen und quantitativen Merkmalen werden im Teilkomplex 4/2 behandelt. Die üblichen Verfahren der Regressionsanalyse findet man im Teilkomplex 4/3. 4/4 enthält einige grundlegende Verfahren fur Zeitreihen, 4/5 entsprechend für verallgemeinerte lineare Modelle.
30
Mehrdimensionale Verfahren, wie der Vergleich von Mittelwertvektoren, die Diskriminanzanalyse, die Schätzung von Varianzmatrizen usw., werden im Komplex 5 zusammengefasst. Spezialverfahren zu klinischen Studien, zu epidemiologischen Studien, zur Lebensdaueranalyse, zu Emeuerungsproblemen, zur statistischen Genetik, zu landwirtschaftlichen Feldversuchen sowie zur räumlichen Statistik werden im Komplex 6 dargestellt.
3.3 Auffinden von Verfahren und Begriffen Sie können sich ein geeignetes Verfahren suchen, indem Sie eine Volltextsuche für einen bestimmten Begriff durchführen. Dabei finden Sie natürlich mitunter sehr viele Verweise auch auf Verfahren, in denen das Wort irgendwo im Text auftaucht. Wenn Sie daher etwa wissen, was Sie wollen, sollten Sie über das Schlüsselsystem in den inneren Einbandseiten zunächst den geeigneten Komplex suchen und dann die zugehörigen Verfahren im Inhaltsverzeichnis durchgehen. Wir wollen das an einem Beispiel veranschaulichen. Als Beispiel diene die Validierung eines psychologischen Eignungstests zum Programmierer nach Rasch und Kubinger, (2006). Unter Validität eines psychologisch-diagnostischen Verfahrens ist zu verstehen, dass es tatsächlich jenes Persönlichkeitsmerkmal misst, welches es zu messen behauptet. Als prognostisches Validitätskriterium liegt der Berufserfolg in einem großen Rechenzentrum nach einer Probezeit von einem halben Jahr vor. Der Eignungstest soll zu Beginn der Probezeit vorgenommen und kein Bewerber auf Grund des Testergebnisses im Eignungstest von der Anstellung auf Probe ausgeschlossen werden. Es handelt sich damit um ein Zweistichprobenproblem zum Vergleich der Mittelwerte zweier unabhängiger Stichproben und folglich zunächst um ein Verfahren aus dem Komplex 3/24. Gehen wir die Liste der Verfahren dieses Komplexes durch, so kommt (auch wegen der dort genannten und in Rasch & Guiard (2004) näher begründeten Robustheit des /-Tests) Verfahren 3/24/2002 in Frage. Nach diesem Verfahren würde zunächst der Versuchsumfang in Abhängigkeit von den festgelegten Genauigkeitsvorgaben bestimmt werden. Dann wird der entsprechende Versuch durchgeführt und anschließend mit dem auf der CD mitgelieferten SAS-Programm ausgewertet. Gibt man den Suchbegriff Zweistichprobenproblem ein, gelangt man nach einigen Suchläufen zu Verfahren 6/13/6102. Es erlaubt die gleiche Nullhypothese zu prüfen, nun aber mit einem sequentiellen Test. Obwohl diese Tests unter „Klinische Studien" eingeordnet wurden, sind sie ebenso universell anwendbar wie die Tests mit festem Versuchsumfang. Bei sequentiellen Tests führt nach Anwendung zweier Behandlungen Α bzw. Β auf mindestens zwei Versuchseinheiten die anschließende Auswertung zu einem der folgenden Ergebnisse: - Α ist besser als Β - Β ist besser als A - Α und Β sind äquivalent - die Untersuchung wird mit Α fortgesetzt - die Untersuchung wird mit Β fortgesetzt.
31
In den drei ersten Fällen endet die Untersuchung, der Versuchsumfang ist immer vom Verlauf der Untersuchungen abhängig und damit zufällig. Bei den von uns im Komplex 6/13/6 beschriebenen sequentiellen Dreieckstests endet die Untersuchung nach einer von den Genauigkeitsangaben abhängenden maximalen Anzahl von Versuchseinheiten. Die erwartete Anzahl erforderlicher Einheiten ist oft kleiner als der Umfang des entsprechenden Verfahrens mit festem Umfang, in unserem Fall also als im Verfahren 3/24/2002. Natürlich kann man im Schlüsselsystem bzw. im Inhaltsverzeichnis anklicken, um an den Anfang der zugehörigen Unterabschnitte zu gelangen. In den Verfahren fuhrt das Anklicken von Literaturzitaten zu dem Literaturverzeichnis.
3.4 Gliederung der Verfahren Für die Verfahren der Verfahrensbibliothek wurde folgende einheitliche Gliederung festgelegt, von der nur in Ausnahmefallen (Beispiel nicht nötig, da Lösungsweg sehr einfach, Verfahren allgemein bekannt, Literatur nicht nötig) abgewichen wird: Titel des Verfahrens, Problemstellung (einschließlich Modellvoraussetzungen), Bemerkungen, einschließlich der Voraussetzung für die Anwendung (Hinweise auf Robustheit und Approximationsmöglichkeiten), Lösungsweg, Literaturangaben, Beispiel (mit Softwarehinweisen und einem oft mit CADEMO und SAS durchgerechneten Beispiel). Als Anhang zum pdf-Text der Verfahren findet man SAS-Programme und Daten zu den Beispielen. Die SAS-Programme (*.sas) und die Daten (*.dat) des Beispiels wurden nach den Nummern der Verfahren benannt, z.B. 2510010.sas und. 2510010.dat. Gibt es zu einem Verfahren mehr als ein SAS-Programm oder mehr als eine Datendatei, so ist der Name durch einen Buchstaben erweitert. Z.B. in Verfahren 1/21/4820 gibt es unter dem Pfad die beiden SAS-Programme "1214820A.sas" und "1214820B.sas" sowie die Datendateien "1214820A.dat" und "1214820B.dat". Beweise und Ableitungen wurden nicht in die Verfahren aufgenommen. Für Interessenten wird auf die Quellen verwiesen.
3.5 Bemerkungen zu den Beispielen Es wäre wünschenswert, wenn Beispiele sowohl aus der Sicht des Statistikers als auch des Anwenders bis zum Ende durchgeführt werden. Das ist im Rahmen dieses Buches jedoch nicht möglich. Die Beispiele dienen der Demonstration des Lösungsweges oder wenigstens von Teilen des Lösungsweges. Die in der Praxis auftretenden sachlichen Probleme sind im Allgemeinen sehr komplexer Natur, so dass die hier verwendeten Beispiele stets nur einen Teilaspekt behandeln können. Häufig wurde auch auf die genaue Beschreibung der untersuchten Merkmale verzichtet, oder es wurde lediglich ein fiktives Beispiel zur Lösung der beschriebenen Aufgabe gewählt. Manchmal möchte ein Anwender ein Beispiel nicht nur im Rahmen des gerade vorliegenden 32
Verfahrens auswerten. Dem steht nichts entgegen. Er kann zur Auswertung auch andere Verfahren heranziehen. In Tests wurden ζ. B. die Beispiele nur mit dem untersuchten Test ausgewertet, eine Intervallschätzung wurde nicht vorgenommen. Verlangt der Versuchsansteller auch eine Intervallschätzung, so kann er das Beispiel nach den entsprechenden Verfahren behandeln, oder er kann den Test gleich über die Intervallschätzung vornehmen. In diesem Buch wurde zwischen Test und Intervallschätzung streng unterschieden, da es sich um zwei verschiedene Aufgaben handelt. Sie können jedoch oft gemeinsam gelöst werden. Bis auf wenige Ausnahmen wurde der Aufbau der Verfahrensbibliothek aus möglichst kleinen Bausteinen vorgenommen, die aber jeweils nur einen Teil einer statistischen oder biometrischen Fragestellung zu lösen gestatten. Die Nutzung mehrerer dieser Bausteine zur Lösung einer Aufgabe sollte dadurch aber nicht erschwert werden. In den meisten Beispielen wird auch die Anwendung von Software demonstriert. Hierzu werden im Abschnitt 3.6 weitere Hinweise gegeben.
3.6 Hinweise zur verwendeten Software Wenn auch viele Beispiele dieses Buches noch mit Taschenrechnern bewältigt werden können, so ist das für praktische Probleme eigentlich nicht mehr möglich. Dazu wird heute eine vielfältige Software in Form von Programmpaketen oder Spezialsoftware angeboten, die auch genutzt werden muss, damit die Versuche nach sogenannten "besten" Verfahren allseitig ausgewertet werden können. Insbesondere im Falle nichtbalancierter Versuchsergebnisse oder bei der Auswertung mehrerer Merkmale ist die Nutzung derartiger Software unumgänglich. Es ist ζ. B. heute nicht mehr zu vertreten, das Näherungsverfahren von Snedecor bei der Auswertung einer Kreuzklassifikation mit ungleicher Klassenbesetzung anzuwenden. Hier gibt es wesentlich bessere Verfahren, die nur über solche Software realisierbar sind. Ebenfalls dürfen die Verfahren zur Schätzung von Varianzkomponenten über sogenannte Varianzanalysen nur noch im orthogonalen Fall empfohlen werden. Hier sind Maximum-Likelihood-Verfahren oder davon abgeleitete Verfahren, auch wenn sie häufig die Normalverteilung voraussetzen und die Verteilungen der Merkmale davon abweichen, zu empfehlen. Sind spezielle Abhängigkeiten zu berücksichtigen, wie ζ. B. die Verwandtschaft von Tieren, so muss auf Spezialsoftware zurückgegriffen werden. Es gibt nun eine große Auswahl sehr empfehlenswerter Programmpakete zur Statistik, mit deren Hilfe die meisten Verfahren dieses Buches behandelt werden können. Das Programmpaket SAS ist eines davon. Wir beziehen uns vorrangig auf dieses Programmpaket, weil es weit verbreitet ist und unseren Vorstellungen in vielen Punkten entspricht. Ein Hauptteil der Verfahrensbibliothek besteht aber in der Versuchsplanung. Hier wurde auf CADEMO zurückgegriffen, da dieses Programmsystem in der Folge und auf der Grundlage der ersten Ausgabe der Verfahrensbibliothek erarbeitet wurde und damit besonders gut zur Lösung von Planungsaufgaben geeignet ist. In vielen Beispielen der Verfahrensbibliothek wurde die Anwendung von Software demonstriert. Mitunter enthält auch der Lösungsweg Softwarehinweise. Die Handhabung von SAS wurde dabei durch Angabe eines mit 4GL (4GL = 4 t h General Language) geschriebenen SAS-Programmes und durch (ausschnittweise) Wiedergabe der SAS-Ausgabe beschrieben. Der Ablauf des mit CADEMO zu fuhrenden Dialoges wird jeweils durch ein Schema dargestellt, welches sich bei Anwendung von
33
CADEMO selbst erklärt. Diese Beschreibungen der Softwareanwendung können aber kein Ersatz für die entsprechenden Handbücher sein. Die in einigen Verfahren demonstrierte Softwareanwendung ist oft auch auf andere ähnliche Verfahren analog übertragbar. Bei den in den Verfahren angegebenen SAS-Programmen wird im allgemeinen vorausgesetzt, dass die Originaldaten bereits mit Hilfe eines "data-Schrittes" in eine SAS-Datendatei sasl überführt wurden. Die entsprechenden SAS-Programme, enthalten aber auch jeweils diesen data-Schritt. Für die hierbei verwendeten einfachen Formen der Dateneingabe wurden in dem Verfahren 2/11/0004 allgemeine Hinweise zur Programmierung eines data-Schrittes gegeben. Es ist nun nicht auszuschließen, dass die Ergebnisse der Beispiele von den mit CADEMO oder SAS gerechneten etwas abweichen. Die Ursache kann in unterschiedlicher Genauigkeit oder auch etwas abgewandelten Algorithmen bei Problemen der ganzzahligen Optimierung der Versuchspläne bestehen. Meistens ist das Ergebnis der Berechnung mit SAS oder CADEMO, sollte es von den "Handergebnissen" abweichen, etwas besser. In einigen Fällen haben wir die Beispiele daraufhin verändert, jedoch nur bei größeren Abweichungen. In einigen Fällen wird auch auf andere Software hingewiesen, ohne deren Nutzung explizit zu demonstrieren. SAS wird vorrangig zur Versuchsauswertung genutzt. Dabei erhält man die benötigten Quantile (oder Wahrscheinlichkeiten) mit ausgedruckt. Mit SAS ist es natürlich auch möglich, entsprechende Quantile ohne Auswertungsverfahren zu berechnen. Dazu dienen die inversen Funktionen der entsprechenden Wahrscheinlichkeitsfunktionen, die in der BASE SAS Software enthalten sind, ζ. B. sind die Quantile der zentralen und nichtzentralen F-Verteilung mit einem einfachen DATA-Schritt über die SASFunktion FINV (p, ndf, ddf, nc) für vorgegebene Werte erhältlich. Der Grundbaustein von SAS ist die Base SAS Software. Diese Standardkomponente umfasst eine leistungsfähige Programmiersprache, die grundlegenden Funktionen für alle weiteren SAS-Anwendungen sowie eine Reihe von Prozeduren zur Durchführung von elementaren statistischen Verfahren und zur Erstellung einfacher Graphiken. Zur Durchführung statistischer Verfahren können Prozeduren aus der Statistiksoftware SAS/STAT verwendet werden. Die in diesem Buch im Wesentlichen genutzten Prozeduren sind SAS/BASE: CORR, (CHART), FREQ, MEANS SAS/STAT: ANOVA, GLM, MIXED, NPAR1 WAY, TTEST.
34
4. Grundbegriffe der Mathematischen Statistik 4.1 Zufall und Wahrscheinlichkeit Die mathematischen Methoden der Versuchsplanung und -auswertung sind zwei Teilgebiete der Mathematischen Statistik. Die Grundlage der Mathematischen Statistik ist die Wahrscheinlichkeitsrechnung, so dass zunächst der Wahrscheinlichkeitsbegriff erläutert werden soll. Die vorliegende Sammlung von Verfahren wendet sich an Versuchsansteller, deren Versuche so geartet sind, dass bei wiederholter Realisierung der vom Versuchsansteller beeinflussbaren Versuchsbedingungen identische Versuchsergebnisse nicht zu garantieren sind. Solche Ergebnisse sind ζ. B. der Anteil von Ausschussprodukten je Schicht einer Produktionsabteilung, die Körpermasse eines sechs Monate alten Kalbes einer bestimmten Rinderrasse bei bestimmter Futterration, der Ertrag einer Weizensorte bei bestimmter Düngung und Bodenwertklasse und die Wirkungsdauer von Pharmaka bei Patienten mit bestimmter Körpermasse. Versuchsergebnisse, die trotz der Einhaltung eines bestimmten Bedingungskomplexes (ζ. B. Wirkungsdauer, Alter des Kalbes, Rasse, Futterration) von Versuchseinheit zu Versuchseinheit variieren, heißen zufällig. Wir sprechen folglich entweder von zufalligen Ereignissen oder von zufalligen Merkmalen. Die Wahrscheinlichkeit P(A) eines Ereignisses Α ist eine Zahl zwischen 0 und 1 [0 < P(A) < 1]. Bezüglich der Interpretation gibt es zwei Hauptrichtungen, die Häufigkeitsinterpretation und die Interpretation als Überzeugtheitsgrad. Die Häufigkeitsinterpretation geht davon aus, dass ein bestimmter Bedingungskomplex (Versuch) mehrfach realisiert wird, werden kann oder zumindest gedacht werden kann, in dem das Ereignis Α auftreten kann. Dann wird P(A) als die relative Häufigkeit interpretiert, mit der Α bei häufiger Wiederholung des Versuches zu erwarten ist. Für viele Naturwissenschaften ist diese Interpretation akzeptabel. Die andere Möglichkeit ist die Interpretation von P(A) als Überzeugtheitsgrad eines Individuums oder einer Gruppe. Diese Interpretation dürfte vor allem für Soziologen, Juristen oder Mediziner von Interesse sein, kann aber auch von anderen Wissenschaftlern genutzt werden, wenn Einzelergebnisse zu bewerten oder einzelne wichtige Entscheidungen zu treffen sind. Sollen Wahrscheinlichkeiten bestimmt werden, so wird man nach Möglichkeit einen Versuch durchführen und die relative Häufigkeit des entsprechenden Ereignisses als Schätzwert (im Sinne von 4.3) fur die Wahrscheinlichkeit wählen. Will man vor dem Versuch eine α priori-Wahrscheinlichkeit angeben oder ohne Versuch die Wahrscheinlichkeit ermitteln, so kann man versuchen, den Überzeugtheitsgrad zu quantifizieren. Neben den zufalligen Ereignissen, die durch Wahrscheinlichkeiten charakterisiert werden, spielen in den empirischen Wissenschaften vor allem zufallige Merkmale eine Rolle. Wir unterscheiden zwischen diskreten Merkmalen, die durch eine Nominalskala oder durch Zählen erfasst werden und kontinuierlichen Merkmalen, die gemessen werden. Dem Merkmal in der Realität entspricht der mathematische Begriff der Zufallsvariablen. Da die Verfahren in der Sprache der Mathematischen Statistik formuliert sind, sollen im Folgenden einige Begriffe der Fachwissenschaft und der Mathematischen Statistik, die einander im Sinne Realität - Modell entsprechen, gegenübergestellt werden.
35
Realität Relative Häufigkeit Überzeugtheitsgrad Merkmal Merkmalswert Empirische Verteilung (Häufigkeitsverteilung) Empirische Verteilungsfunktion Natürlicher Parameter
Modell Wahrscheinlichkeit Wahrscheinlichkeit Zufallsvariable Realisation der Zufallsvariablen Wahrscheinlichkeitsverteilung Verteilungsfunktion Modellparameter
Bei der Planung und Auswertung von Versuchen steht man stets vor der Aufgabe, die Realität durch ein möglichst gut angepasstes Modell widerzuspiegeln. Vor allem betrifft das die Wahrscheinlichkeitsverteilung, die als Modell der empirischen Verteilung des Merkmals gewählt werden soll. Erfahrungsgemäß reichen relativ wenige Verteilungen aus, um die wichtigsten Merkmale modellieren zu können.Wenn davon die Rede ist, dass ein Merkmal y normalverteilt sei, so ist das "wörtlich genommen" eine nicht exakte Abkürzung für den Sachverhalt, dass die Normalverteilung ein gutes Modell fur die empirische Verteilung des Merkmals y ist. Beispielsweise kann die Normalverteilung als Modell für die Verteilung der Milchmengenleistung beim Rind dienen. Wir sprechen dann abkürzend auch davon, dass die Milchmenge (etwa oder näherungsweise) normalverteilt sei. Es wäre nun Sophisterei, wollte man das wörtlich nehmen und kritisieren, dass die Milchleistung positiv sei, eine normalverteilte Zufallsvariable aber zwischen - °° und + °° variieren könne. Wichtig ist bei der Wahl des Verteilungsmodells, dass der Mittelwert der Milchmengenleistung so weit von Null weg liegt, dass die Approximation der empirischen durch die theoretische Verteilung vorgegebene Genauigkeitsforderungen erfüllt und die Normalverteilung in diesem Sinne eben ein gutes Modell der empirischen Verteilung ist. Die wichtigsten Verteilungen, die als Modelle für empirische Verteilungen dienen, sind für diskrete Merkmale die Binomialverteilung, die Poissonverteilung und die negative Binomialverteilung, für kontinuierliche Merkmale bzw. für diskrete Merkmale bei großem Stichprobenumfang die Normalverteilung, die Exponentialverteilung und die Weibullverteilung. Ob eine Wahrscheinlichkeitsverteilung ein gutes Modell in einer bestimmten Situation ist, kann mit den Verfahren von 3/1 eingeschätzt werden; eine Charakterisierung der wichtigsten Verteilungen findet man in 1/41. Beim Bayesschen Vorgehen (siehe 4.3) benötigt man eine a-priori-Verteilung des unbekannten Parameters θ . Auch hierfür kommen vor allem die obengenannten Verteilungen in Frage. Dabei geht man entweder von allgemeinen Erfahrungen, von aus Vorversuchen oder ähnlichen Versuchen gewonnenen Ergebnissen oder von Literaturergebnissen aus, bestimmt den Variationsbereich von θ , den Gipfel der Verteilung und eventuell weitere Punkte einer Dichtefunktion und passt an diese Daten eine entsprechende Wahrscheinlichkeitsverteilung als Modell an. Dabei muss man beachten, dass die Verteilung von θ (also z.B. des Mittelwertes oder der Varianz eines Merkmals) und nicht die der Zufallsvariablen y (Merkmal) selbst gesucht wird. Zur Charakteri36
sierung von Verteilungen dienen Verteilungsfunktion oder im diskreten Fall die Wahrscheinlichkeitsfunktion bzw. im kontinuierlichen Fall die Dichtefunktion. Die Verteilungsfunktion F(y) gibt die Wahrscheinlichkeit dafür an, dass die Zufallsvariable y Werte kleiner als das Argument y von F(y) annimmt. Gibt man fur F(y) den Wert Ρ vor (0 < Ρ < 1), so wird der Wert yP, für den F(yP)
= Ρ ist, das P-Quantil
der Verteilung genannt. Im Falle einer nach N(0; 1) verteilten Zufallsvariablen u ist z.B. für Ρ = 0,975, F(w 0>975 ) = 0,975 mit m0 9 7 5 = 1,96.
4.2 Grundgesamtheit - Stichprobe Wir gehen davon aus, dass ein Versuchsansteller vor Versuchsbeginn eine präzisierte Aufgabenstellung erarbeitet hat (hierfür steht ihm der Teilkomplex 1/11 zur Verfugung). Dazu gehört auch die Angabe der Gesamtheiten, auf die sich die Aussagen des Versuches beziehen. Soll beispielsweise der Einfluss von Vatertieren auf die Milchleistung von Kühen untersucht werden, so sind zwei Grundgesamtheiten festzulegen und zwar die Grundgesamtheit der Kühe, die durch die Rasse, den Laktationsstand und die Umweltbedingungen charakterisiert wird. Eventuell beschränkt man G, auf Kühe in größeren Herden oder in anderer Weise. Weiterhin ist die Grundgesamtheit der als Vatertiere einzusetzenden (oder eingesetzten) Bullen festzulegen, z.B. nach Rasse, Art der Vorselektion (Abschluss einer Zuchtwertvorhersage oder nicht), Alter u.a.. Die Vatertiere würden in diesem Falle als Stufen des zu untersuchenden Faktors Vatertier auftreten, die Kühe als Versuchseinheiten. Im Allgemeinen wird die Grundgesamtheit in dem Versuchsplan bzw. dem Protokoll einer Studie durch Ein- und Ausschlusskriterien für die Versuchsobjekte beschrieben. Bei der statistischen Versuchsplanung geht man davon aus, dass die Grundgesamtheit der möglichen Versuchseinheiten nicht vollständig in den Versuch einbezogen werden kann (ζ. B. bei zerstörender Werkstückprüfung in der Qualitätskontrolle) oder soll; es ist nur ein Teil der Grundgesamtheit in den Versuch aufzunehmen. Diesen Teil nennen wir konkrete Stichprobe. Die Grundgesamtheit der Stufen der Faktoren kann vollständig im Versuch auftreten oder auch aus dieser Grundgesamtheit wird nur ein Teil in den Versuch einbezogen. Damit entsprechend Abschnitt 4.3 statistische Schlüsse von einem Teil der Grundgesamtheit auf die Grundgesamtheit selbst gezogen werden können, muss dieser Teil (die Stichprobe) nach einem Zufallsstichprobenverfahren (s. unter 1/31) aus der Grundgesamtheit ausgewählt worden sein. Nur von solchen Stichproben wird in diesem Buch die Rede sein. In der Grundgesamtheit der Versuchseinheiten interessieren uns nur bestimmte Merkmale, deren in der Stichprobe ermittelten Werte dann Stichprobenwerte genannt werden. In den meisten Verfahren beziehen sich die Begriffe Grundgesamtheit und Stichprobe daher auf Merkmale bzw. Merkmalsvektoren. Mit einem Zufallsstichprobenverfahren wird erreicht, dass bei häufiger Stichprobenentnahme im Mittel aller entnommenen Stichproben etwa die Verhältnisse in der Grundgesamtheit widergespiegelt werden; für die einzelne konkrete Stichprobe gilt das allerdings nicht. Auch für die Grundgesamtheit der Stufen der Prüffaktoren muss man die Auswahl der in den Versuch einzubeziehenden Stufen nach einem Zufallsstichprobenverfahren vornehmen, wenn nicht alle Stufen der Grundgesamtheit im Versuch auftreten. Im letzteren Fall sprechen wir von Modell I, im anderen Fall von Modell II, wenn die Grundgesamtheit der Stufen eines Faktors unendlich ist oder sonst vom Modell mit endlichen
37
Stufengesamtheiten. Bevor ein Versuch angestellt wird, muss also genau festliegen, auf welche Grundgesamtheit der Versuchseinheiten, der Stufen eines Faktors oder auch die Blocks eines Blockversuches sich die statistischen Schlüsse beziehen. Beispielsweise werden im Feldversuchswesen oft Blockversuche durchgeführt, in denen die Blocks zum Bodenausgleich auf einem fest vorgegebenen Versuchsfeld liegen, zufällig ist lediglich noch die Zuordnung der Behandlungen zu den Blocks. Damit beziehen sich die statistischen Schlüsse auf die Verhältnisse des ausgewählten Versuchsfeldes und sind nicht ohne weiteres auf andere Bedingungen übertragbar. Anders sieht es aus, wenn Blocks zum Ausgleich von Elterneinflüssen verwendet werden sollen, und die Eltern wirklich zufällig aus einer Grundgesamtheit ausgewählt werden. Wir wollen auch in diesem Abschnitt die Bezeichnungen für die Objekte der Realität und für das mathematische Modell unterscheiden. In der Realität haben wir eine Stichprobe von Merkmalswerten, sie wird, ebenso wie die Träger dieser Werte, als konkrete Stichprobe bezeichnet. Ihr entspricht im einfachsten Falle die Realisation (>>,,..,,yn) der abstrakten Zufallsstichprobe (yl,—,y ) • Ein Vektor (y^—.y ) von Zufallsvariablen y. heißt (abstrakte) Zufallsstichprobe, wenn die y unabhängig voneinander nach der gleichen Verteilung verteilt sind. Bei endlichen Grundgesamtheiten mit Ν Elementen kann eine Stichprobe (auch konkrete Zufallsstichprobe genannt) nach zwei verschiedenen Zufallsstichprobenverfahren erhoben werden. Das wird dann jeweils durch den Vektor einer (abstrakten) Zufallsstichprobe modelliert. (Konkrete) Zufallsstichprobe vom Typ I : Erhebung mit Zurücklegen (Konkrete) Stichprobe vom Typ II: Erhebung ohne Zurücklegen Die (konkrete) Zufallsstichprobe vom Typ I hat die gleichen Eigenschaften wie die aus einer unendlichen Grundgesamtheit. Bei der Stichprobe vom Typ II besitzen die Elemente jedoch die Korrelation p = - ^ . Wird TV unendlich groß, so verschwinden die Unterschiede zwischen diesen beiden Typen. Wenn es in den Verfahren nicht anders vermerkt wurde, ist mit Zufallsstichprobe (oder kurz Stichprobe) eine konkrete Stichprobe mit den Eigenschaften des Typs I gemeint. In der Literatur zur angewandten Statistik ist es üblich, auch die Realisation einer abstrakten Zufallsstichprobe als Zufallsstichprobe zu bezeichnen. Man hat dabei mehr das Verfahren, als die konkrete Stichprobe im Auge, verwendet also den Begriff eigentlich als Abkürzung dafür, dass die Stichprobe nach einem Zufallsstichprobenverfahren erhoben wurde. Diese auch zum Teil in diesem Buch verwendete Bezeichnungsweise fuhrt hier zu keinen Verwechslungen, da Zufallsvariable von ihren Realisationen durch Unterstreichen unterschieden werden. Bei der Beschreibung von Auswertungsmethoden ist es belanglos, ob die Variablen yt unterstrichen werden oder nicht, da konkrete Berechnungen ohnehin nur mit den Realisationen y t durchgeführt werden können. Man erhält so ζ. B. aus der Realisation (y\,—,y„) den Schätzwert θ = e{yx,..,yn)
eines Parameters θ. Dieser stellt eine Rea-
lisation der Zufallsgröße (L = e(y ,...,y ) dar, welche man als Schätzfunktion oder Schätzung bezeichnet (siehe auch 4.3.1). Eine Stichprobe heißt zensiert, wenn nur ein Teil der Stichprobenelemente dem Wert nach bei der Auswertung berücksichtigt werden kann. Eine zensierte Stichprobe kommt dadurch zustande, dass für einige Stichprobenelemente nur festgestellt wird, dass sie in gewisse Klassen fallen. 38
Zensierung kann ζ. Β. dadurch entstehen, dass extrem große oder kleine Werte durch Überschreiten des festgelegten Beobachtungsbereiches nach oben bzw. unten nicht mehr genau bestimmbar sind und man sie deshalb in offenen Klassen zusammenfasst. Zensierte Stichproben treten aber vor allem bei Versuchen auf, bei denen das beobachtete Merkmal der Zeitpunkt oder der Belastungswert (Druck, Zug) ist, bei dem ein bestimmtes Ereignis (Tod, Zerstörung eines Werkstückes) auftritt (Lebensdaueruntersuchungen). Wir unterscheiden zwei Typen von zensierten Stichproben: Typl: Eine Zufallsstichprobe (j^,.··>}') heißt (rechtsseitig) zensiert vom Typ I, wenn Realisationen nur registriert werden, wenn sie unterhalb der Grenze y0 liegen. Die Anzahl der Elemente n — r mit Messergebnissen bzw. die Anzahl der Elemente r y0 sind, ist dann zufallig. Typ II: Eine Zufallsstichprobe heißt (rechtsseitig) zensiert vom Typ II, wenn nur die n-r der η Stichprobenelemente mit den kleinsten Merkmalswerten beobachtet werden und der Versuch dann abgebrochen wird. Analog ist zweiseitiges Zensieren definiert. Zensierte Stichproben sind nicht mit Stichproben aus gestutzten Verteilungen zu verwechseln!
4.3 Statistische Schlussweisen Ein Versuch wird durchgeführt, um bestimmte Informationen über den Versuchsgegenstand zu erhalten und diese gegebenenfalls zu verallgemeinern. Für die Versuchsplanung ist es äußerst wichtig, dass man weiß, zu welchem Zweck der Versuch durchgeführt werden soll. Die Ziele des Versuchsanstellers lassen sich meist in eine der Kategorien Schätzen, Vergleichen, Auswählen, Vorhersagen, Zuordnen, Einteilen oder Zusammenfassen (Gruppenbildung) einordnen. Auf der anderen Seite gibt es die Methoden der Mathematischen Statistik zur Verarbeitung von Versuchsergebnissen, wie Punktschätzung, Konfidenzschätzung, Toleranzschätzung, Selektion (Auswahlverfahren) Tests, Vorhersageverfahren, Faktoranalyse, Diskriminanzanalyse und Clusteranalyse sowie verschiedene Vorgehensweisen, wie
39
Bayessches Vorgehen, Nicht-Bayessches Vorgehen und verschiedene Arten der Versuchsdurchfuhrung, wie nichtsequentielle Versuche, sequentielle Versuche, gruppensequentielle Versuche und Versuche in mehreren Durchgängen. Außerdem werden die verwendeten statistischen Ausweitungsverfahren nach den Voraussetzungen in parametrische Verfahren und nichtparametrische Verfahren eingeteilt. In diesem Abschnitt sollen Methoden und Vorgehens weisen beschrieben werden. Zunächst soll aber in der folgenden Abbildung 1 der Zusammenhang zwischen den Zielen und Methoden dargestellt werden.
Methoden des Statistikers
Ziele des Versuchsanstellers Schätzen Vergleichen, AusÜberprüfen wählen
Punktschätzung
+
Intervallschätzung Toleranzschätzung
+ +
Selektionsverfahren
ο
Tests
Zusammenfassen, Einteilen
ο
+
ο
+ +
ο
Vorhersageverfahren
+
+
Faktoranalyse
ο
ο
Diskriminanzanalyse
ο
ο
Clusteranalyse 1
Zuordnen
+1
+ +2
ο 2
von Merkmalen, von Objekten, + vorrangig geeignet, ° bedingt geeignet
Abb. 1: Zusammenhang zwischen Zielen und Methoden In einem Versuchsplan kann von vornherein feststehen, wieviel Beobachtungen durchzuführen sind; wir sprechen dann von Versuchen mit festem Stichprobenumfang. Es gibt aber auch Versuchspläne, in denen nach einer bestimmten Anzahl von Beobachtungen entschieden wird, ob und/oder wie der Versuch fortzusetzen ist. Solche Versuche heißen sequentielle Versuche, ihnen entsprechen sequentielle Auswertungsverfahren (Schätzungen, Tests). Spezialfälle dieser Gruppe sind zweistufige Versuche (Verfahren), k-stufige Verfahren, sequentielle Versuche, in denen in jeder Stufe genau eine Beobachtung durchgeführt wird, gruppensequentielle Versuche, in denen in jeder Stufe mehrere Beobachtungen durchgeführt werden. In den k-stufigen Verfahren liegt vor Versuchsbeginn die Anzahl k der Stufen fest. Zweistufige Verfahren werden ζ. B. für Mittelwertvergleiche verwendet, um in der ersten Stufe die Varianz zu schätzen. Aus diesem Schätzwert wird schließlich der Gesamtstichprobenumfang und damit der Umfang der zweiten Stufe ermittelt. Ein typisches Beispiel für dieses Vorgehen sind Fall 2 und Fall 3 des Lösungsweges von Ver40
fahren 1/21/5001. Der Fall k > 2 ist nur in wenigen Verfahren verwendet worden. Bei den sequentiellen Verfahren im engeren Sinne ist die Anzahl der Schritte vom Versuch selbst abhängig und damit eine Zufallsvariable. Bei diesen Verfahren wird nach jeder einzelnen Beobachtung festgelegt, ob der Versuch fortgesetzt oder mit einem bestimmten Ergebnis beendet wird. Praktisch bedeutsam sind sogenannte abgeschlossene sequentielle Versuchspläne, die mit Sicherheit spätestens nach n0 Schritten enden. Beispiele hierfür findet man im Abschnitt 6.13.61. In den bislang gebräuchlichsten statistischen Verfahren wird davon ausgegangen, dass eine Zufallsvariable y ζ. B. in einer einparametrischen Verteilungsfamilie über eine Verteilungsfunktion F(y,6) obachtungen von y
von einem festen Parameter θ abhängt, über den aus Be-
statistische Schlüsse zu ziehen sind. In den letzten Jahrzehnten
werden immer häufiger für verschiedene Fragestellungen Verfahren entwickelt, die davon ausgehen, dass der Parameter θ der Verteilung einer Zufallsvariablen y selbst eine zufallige Größe ist und eine bestimmte Verteilung besitzt. Statistische Verfahren, die vor Versuchsbeginn vorliegende Informationen in Form einer Verteilung von θ in die Schlussfolgerungen einbeziehen, heißen Bayessche Verfahren. Wird die Verteilung von θ als vollständig bekannt vorausgesetzt, so spricht man vom klassischen Bayesschen Vorgehen; die Verteilung von θ heißt in diesem Zusammenhang a-priori-Verteilung. Mit Hilfe des Bayesschen Satzes der Wahrscheinlichkeitsrechnung kann man aus den Beobachtungswerten und der a-priori-Verteilung eine kombinierte Information über θ ableiten, die als a-posteriori-Verteilung bezeichnet wird. Für diese a-posteriori-Verteilung wird häufig der Erwartungswert Ε(θ) von θ oder ein Toleranzintervall für θ angegeben. Andererseits gibt es Fälle, in denen man die a-priori-Verteilung von θ aus Versuchen schätzt (bei kontinuierlichen Zufallsvariablen erfordert das oft die numerisch aufwendige Lösung von Integralgleichungen) und aus dieser geschätzten a-priori-Verteilung und den Beobachtungswerten zur a-posteriori-Verteilung gelangt, dieses wird als empirisches Bayessches Vorgehen bezeichnet. Beide Formen des Bayesschen Vorgehens sind oft heftiger Kritik ausgesetzt. Anstoß wird vor allem an der Grundvoraussetzung genommen, dass θ als Zufallsvariable aufgefasst wird. Viele Statistiker sind der Auffassung, dass unbekannte Parameter feste Größen sind, denen auch in der Natur unter gegebenen Bedingungen bestimmte Konstanten entsprechen. Nun gibt es sicher Fälle, wo Parameter (etwa von Fertigungsprozessen) zufalligen Schwankungen unterliegen, in vielen Fällen muss man jedoch von festen Parametern ausgehen. Viele klassische Bayesianer vertreten jedoch in diesem Fall die Auffassung, dass die Unvollständigkeit unseres Wissens über θ diesen Parameter fur uns zufällig erscheinen lasse. Der klassische Bayesianer wird daher sein subjektives Wissen (Individuum oder Gruppe) in Form einer a-priori-Verteilung darstellen. Gegen diese Subjektivität bei Planung und Auswertung wendet sich ein großer Teil der Kritik am klassischen Bayesschen Vorgehen. Gerade derartige Angriffe lassen sich jedoch zurückweisen. Zunächst ist Subjektivität in Versuchsplanung und -auswertung nicht vollständig auszuschließen. Subjektive Aspekte spielen bei der Auswahl von Untersuchungsmerkmalen, Prüffaktoren, Faktorstufen, Irrtumswahrscheinlichkeiten und Versuchseinheiten und vor allem auch bei der Formulierung der Versuchsfrage oft eine große Rolle, allerdings sollte man die Subjektivität soweit wie möglich einschränken. Außerdem ist nicht einzusehen, warum unvollkommene aber dennoch wertvolle Vorinformationen nicht genutzt werden sollen. Sicher ist es subjektiv, wenn Rinderzüchter vor einer Erhebung
41
angeben, dass der Mittelwert μ
einer Herde zwischen 2500 und 12000 kg
Milchmenge liegt und die Verteilung etwa bei 6000 kg ihr Maximum hat. Diese Gruppe von Züchtern hat damit aber ihre Erfahrungen, so gut sie es kann, quantifiziert. Es ist besser, diese möglicherweise nicht ganz zutreffende Vorinformation zu verwerten, als μ als gleichverteilt zwischen - °° und anzusehen - darauf läuft es im Prinzip hinaus, wenn man so tut, als sei über μ nichts bekannt. Sicher ließen sich solche Vorinformationen auch bei anderen Vorgehensweisen verwerten, beim Bayesschen Vorgehen liegen jedoch schon Methoden vor, bei anderen Vorgehensweisen gibt es erst Ansätze. Das Bayessche Vorgehen in der Form, dass bei Unkenntnis einer a-priori-Verteilung generell eine Gleichverteilung angesetzt wird, ist als Formalismus abzulehnen. Im Folgenden werden statistische Verfahren beschrieben, die davon ausgehen, dass die unbekannten Parameter feste Größen sind. Dabei wollen wir solche Verfahren, die die spezielle Form der Verteilung einer Zufallsvariablen y nicht berücksichtigen, verteilungsfrei nennen. Verteilungsfreie Verfahren sind im Allgemeinen jedoch nicht völlig frei von Voraussetzungen über die zugrundeliegende Verteilung, sie erfordern beispielsweise Kontinuität der Verteilung. Abgesehen von den Homogenitäts- und Anpassungstests und den damit zusammenhängenden Schätzverfahren sollte man (z.B. für Mittelwertvergleiche und -Schätzungen) verteilungsfreie Verfahren nur anwenden, wenn die Verteilung der Zufallsvariablen nicht annähernd durch eine der Standardverteilungen, wie Normal-, Exponential-, Weibull-, Binomial- oder Poissonverteilung beschrieben werden kann. Bei statistischen Schlüssen für Mittelwerte wird das meist nur für kleine η (η < 30) der Fall sein.
4.3.1 Punktschätzungen In der Praxis steht man häufig vor dem Problem, bestimmte Kennwerte fur eine Grundgesamtheit anzugeben. Soll z.B. die mittlere Milchleistung einer umfangreichen Herde ermittelt werden, so errechnet man aus den Milchleistungen y t einer zufällig ausgewählten Stichprobe von η Tieren, d. h. aus den Werten einer konkreten Stichprobe, das arithmetische Mittel y = — + y2 +... + y„) und "schätzt" auf diese Weift se die "wahre" mittlere Milchleistung μ, d. h. den Mittelwert in der Grundgesamtheit. In mathematische Begriffe übersetzt, bedeutet das, dass man aus der Realisation nac (y\,y2,—,y n ) e ' n e r Zufallsstichprobe ^ e ' n e r bestimmten Vorschrift den Schätzwert μ = y für den Parameter μ der Verteilung der Zufallsvariablen y berechnet. Da das Merkmal Milchleistung (in dem im Vorhergehenden beschriebenen Sinne) normalverteilt ist, handelt es sich hier um die Schätzung des Erwartungswertes μ der Normalverteilung iV(,w; -y — 1 - - V« ·
bei σ ), so spricht man von einem
σ V«
+u
,
ein zweiseitiges (1 - a) -Konfidenzintervall aus einer Zufallsstichprobe vom Umfang η •y für den Erwartungswert μ einer nach Ν(μ;σ ) verteilten Zufallsvariablen dar, da Ρ(μ 0 ist. Τ wird ρ-Anteil-Toleranzbereich zum Koeffizienten γ (γ>0)
46
genannt, wenn
Ρ(Α> ρ)>γ gilt, d. h., wenn der Bereich mit der Mindestwahrscheinlichkeit γ mindestens den Anteil ρ > 0 der Grundgesamtheit enthält. Man erhält ein verteilungsfreies Toleranzintervall mit erwartetem Anteil β für eine beliebige kontinuierliche Verteilung, indem man aus jeder realisierten Stichprobe vom Umfang η
=
2
-1
\-ß
den kleinsten und den größten Wert als Intervallgrenzen auswählt, d. h.,
wobei mit y die erste und mit v, die n-te Ordnungsmaßzahl bezeichnet wurde. -0) -(«) Für β = 0,6 erhält man ζ. B . aus der Stichprobe (5, 3, 8, 4 ) vom Umfang η
=
0,4
- 1 = 4 die Realisation Γ = [3;8] eines Intervalles Τ , fur das £ [ Λ ( Τ ) ] = 0 , 6
gilt. Während Konfidenzintervalle etwas über die Lage des wahren Parameters aussagen, wird mit Toleranzintervallen eine Aussage über einen Anteil der Grundgesamtheit getroffen. Sie unterscheiden sich auch in ihrer Länge. Die erwartete Länge von Konfidenzintervallen strebt für η —»°° gegen Null, die erwartete Länge von Toleranzintervallen gegen eine von Null verschiedene Konstante. Das ist auch vernünftig, denn wenn man die Parameter der Verteilung kennt, so sind die Intervallgrenzen von Τ zwei geeignet gewählte Quantile der Verteilung.
4.3.4 Schätzung von Dichte- und Wahrscheinlichkeitsfunktionen Dichte- und Wahrscheinlichkeitsfunktionen können parametrisch und nichtparametrisch geschätzt werden. In ersterem Fall muss die Verteilungsfamilie (normal, binomial usw.) bekannt sein. Dann werden Punktschätzungen für die Parameter ermittelt und in die Dichte- bzw. Wahrscheinlichkeitsfunktion eingesetzt. Damit erhält man dann eine Schätzung der Dichte- bzw. Wahrscheinlichkeitsfunktion der Form f{y,9) = f{y,Ö). Oft kennt man aber die Art der Verteilung nicht (genau). Das ist z. B . in der explorativen Datenanalyse der Fall, in der man die empirische Verteilung grafisch darstellt, um eine Verteilungsfamilie zu bestimmen. Außerdem kann man konkurrierende Modelle (vorausgesetzte Verteilungsfamilien) grafisch (nichtparametrisch) überprüfen. 4.3.4.1 Nichtparametrische Schätzung einer Wahrscheinlichkeitsfunktion Angenommen, dl,d2,·.·,
y
folge einer diskreten Verteilung mit den möglichen
Werten
deren Wahrscheinlichkeitsfunktion durch p(dj) = P(y = dj) definiert (aber
unbekannt)
ist.
Ist
( y ^ - . ^ y j eine
zufällige
Stichprobe,
deren
Komponenten
(voneinander unabhängig) wie y verteilt sind und n- die Anzahl der Elemente dieser Stichprobe, die gleich dj
sind (j = 1,2,...) mit
nichtparametrische Schätzung der p(dj)
j gegeben durch
47
= η,
so ist eine natürliche
Das entspricht gleichzeitig der Maximum-Likelihood-Schätzung der Wahrscheinlichkeitsfunktion der Polynomialverteilung. Wenn η sehr viel größer als die Anzahl k der j-Werte ist, für die Beobachtungen vorliegen, so ist diese Schätzung (nach dem Gesetz der großen Zahlen) sicher ganz brauchbar. Ist aber η nicht sehr viel größer als k, kann die Varianz der ~p(d}) unannehmbar groß sein. Solche Verhältnisse können ζ. B. sehr schnell bei einer Vielzahl möglicher Klassen in mehrdimensionalen Kontingenztafeln auftreten. Hat man keine weitere Information über die Wahrscheinlichkeitsfunktion, so gibt es keine Verbesserung. Kann man jedoch eine gewisse Glattheit voraussetzen, so kann diese Information genutzt werden. In solchen Fällen können Glättungsverfahren hilfreich sein, um die Präzision der Schätzung zu erhöhen. Die einfachste Glättung besteht bei Kontingenztafeln darin, dass man eine kleine Konstante ε zu allen Klassenhäufigkeiten hinzufugt und damit formal den Umfang der Stichprobe um k • ε erhöht. Die Glättung erfolgt dabei in Richtung möglichst gleicher Klassenhäufigkeiten. Können die Klassen so wie bei eindimensionalen Verteilungen geordnet werden, kann man die Besetzung der Nachbarklassen zur Glättung hinzuziehen, wobei die Information unmittelbarer Nachbarn stärker ins Gewicht fallen kann.
4.3.4.2 Nichtparametrische Dichteschätzung Ist y kontinuierlich verteilt, so gilt es, eine Dichtefunktion aus der Zufallsstichprobe (>> ,...,y n ) von η wie y unabhängig voneinander verteilten Elementen zu schätzen. Die einfachste nichtparametrische Dichteschätzung ist das Histogramm, das man nach einer Aufteilung des Variationsbereiches von y in elementefremde Teilintervalle (Klassen) (oder auch von [^ m i n = y(\),--,y m ^ = >"(«)]) erhält. Die auf die Teilintervalle (Klassenbreite) bezogene relative Anzahl von Stichprobenwerten, die in eine Klasse fallen, also die relativen Klassenhäufigkeiten, sind eine Schätzung von f ( y ) für jedes y aus dieser Klasse. Die Glattheit des entstehenden Histogramms hängt von der Breite der Klassen ab. Eine glattere Dichteschätzung erhält man, indem man ein Häufigkeitspolygon konstruiert, das die über den Klassenmitten aufgetragenen (auf die Klassenbreite bezogenen) relativen Klassenhäufigkeiten verbindet. Dann schätzt man f ( y ) für jedes y durch den Ordinatenwert dieses Polygons. Eine bessere Glättung und Schätzung erhält man, indem man f ( y ) für jedes y als Summe von bestimmten Gewichten schätzt, wobei die Gewichte eine fallende Funktion von I j - j , ) (i = 1,...,») sind. Man erhält dann eine sogenannte Kernschätzung der Form
wobei die Gewichtsfunktion Κ auch Kern oder Kernfunktion genannt wird. Die Glattheit der Schätzung wird durch die sogenannte Bandbreite h gesteuert. Die Kernschätzung kann verallgemeinert werden, um Verzerrungen an den Rändern abzuschwächen und um die Glattheit lokal zu beeinflussen, indem die Bandbreite h auf eine Funktion von y oder von yt verallgemeinert wird. Auch eine Verallgemeinerung auf mehrdi-
48
mensionale Dichten ist möglich. Es gibt auch Alternativen zu Kernschätzungen, auf die hier aber nicht eingegangen wird. Die SAS/INSIGHT Software gestattet die Konstruktion und die grafische Darstellung von Kernschätzungen. Zur Planung des Stichprobenumfanges gibt es kaum Verfahren.
4.3.5 Tests Wissenschaftliche Hypothesen lassen sich oft als Annahmen über die Verteilung bestimmter Merkmale formulieren. Ein Entscheidungsverfahren, das es gestattet, auf Grund von Stichproben zwischen zwei Hypothesen zu entscheiden, wird Test genannt. Wegen des unterschiedlichen Gewichtes der dabei möglichen Fehlentscheidungen ist es üblich, eine der Hypothesen auszuzeichnen und als Nullhypothese H0 zu benennen, die andere als Alternativhypothese Η A . Legt eine Hypothese den Parameter auf einen Wert fest, so heißt sie einfach; lässt diese Hypothese fur den Parameter mehrere Werte zu, so heißt sie zusammengesetzt. Interessiert ζ. B. bei der Herstellung eines Werkstückes die Frage, ob eine Abmessung y im Mittel einen Normwert μ 0 unter- oder überschreitet, so lauten die Hypothesen Η0:μμ0.
(1)
Will man nur wissen, ob überhaupt eine Abweichung auftritt, so ist zwischen den Hypothesen Η0:μ
= μϋ
und
ΗΑ:μΦμ0
(2)
zu entscheiden. Bei (1) spricht man von einer einseitigen Fragestellung, bei (2) von einer zweiseitigen Fragestellung. Der Test besteht darin, dass man den Stichprobenraum (die Gesamtheit aller möglichen konkreten Stichproben) mit Hilfe der Quantile einer Prüfzahl in einen Annahmebereich Α für H0 und einen kritischen Bereich Κ unterteilt und wie folgt entscheidet: - Liegt die konkrete Stichprobe in A, so wird H0 angenommen, d. h. ΗA abgelehnt. -
Gehört die konkrete Stichprobe zu K, so wird H0 abgelehnt, d. h. ΗA angenommen.
Ist in dem genannten Beispiel (2) die Varianz σ2 bekannt und y normalverteilt, so y — μο /— verwendet man als Prüfzahl die Größe u = = V« · σ Der Annahmebereich Α ist für dieses Testproblem der Bereich der Stichproben, für die | u |< u a gilt, der kritische Bereich enthält die Stichproben mit | u |> u a . Es sind zwei Arten von Fehlentscheidungen möglich: H0 angenommen H0
H0 abgelehnt
richtig kein Fehler
H0 falsch
Fehler 1. Art
Fehler 2. Art
kein Fehler
Abb. 3: Die möglichen Fehler beim Testen Entsprechend gibt es zwei Risiken (Irrtumswahrscheinlichkeiten)
49
-
das Risiko 1. Art α , das als die Wahrscheinlichkeit, einen Fehler 1. Art zu begehen, erklärt ist und das Risiko 2. Art ß, das die Wahrscheinlichkeit angibt, einen Fehler 2. Art zu begehen (wird bei einem Test der Umfang nicht geplant, und fuhrt er zur Annahme von H 0 , so kann die Entscheidung bei kleineren Stichproben mit eventuell
unvertretbar großem Risiko β behaftet sein). In dem Beispiel besteht ein Fehler 1. Art darin, dass man auf Grund des Tests zu dem Schluss kommt, dass das Mittel der Abmessungen von dem Normwert abweicht, obwohl das in Wirklichkeit nicht der Fall ist. Einen Fehler 2. Art macht man, wenn man die Aussage trifft, dass das Mittel der Abmessungen dem Normwert μ 0 entspricht, obwohl es in Wirklichkeit (ζ. B.) darüber liegt. Als Güte eines Testes bezeichnen wir die Wahrscheinlichkeit, H0 abzulehnen. Diese Wahrscheinlichkeit hängt außer von den Parametern der Hypothesen (hier μ) auch noch von weiteren Verteilungsparametern und vom Versuchsplan ab. Als Gütefunktion bezeichnet man die Abhängigkeit dieser Güte von μ bei festen weiteren Parametern und festem Versuchsplan. Für Parameterwerte aus dem Bereich der Alternativhypothese, also für μ ϊ μ^, ist die Güte gleich 1 - β(μ), für μ = μ{) ist sie gleich a. Das Risiko 2. Art β ist also kein konstanter Wert, sondern eine Funktion von μ {β = β (μ)). Mit Vergrößerung der Abweichung zwischen μ und dem Nullhypothesenbereich (hier μ = μ^) wird - bei vernünftigen Tests - β kleiner. Da H0 in diesem Beispiel eine einfache Hypothese darstellt (μ = μϋ), ist das Risiko 1. Art α konstant. Betrachten wir jedoch das Hypothesenpaar (1) (einseitiger Test), dann ist nicht nur ΗA, sondern auch H0 eine zusammengesetzte Hypothese. Für die Parameterwerte aus dem Bereich der Nullhypothese - also μ^μ^ - ist nun die Gütefunktion gleich α(μ). Hier ist also auch das Risiko 1. Art von μ abhängig. Wird nun für α ein konstanter Wert angegeben, so ist damit der Wert α(μϋ) gemeint, nämlich das Maximum des Risikos 1. Art. Daher wird das Hypothesenpaar des einseitigen Tests auch oft in der Form Η0:μ = μ0, ΗΑ:μ>μ0 geschrieben. Beide Hypothesendarstellungen sind aber austauschbar. Welche zu verwenden ist, hängt davon ab, ob die Werte μ < μ(ί prinzipiell unmöglich sind oder nicht. Die Gütefunktion für das angegebene Beispiel ist in Abbildung 4 dargestellt.
50
μο Ho
^^
μ,-d
μ
Abb. 4: Gütefunktion des einseitigen «-Tests
Ηα
Testverfahren werden so konstruiert, dass das Risiko 1. Art (bzw. sein Maximum) für jeden Stichprobenumfang η stets den gleichen Wert «besitzt, wogegen β außer von μ auch noch von η und eventuell noch von anderen unbekannten Parametern (ζ. B. Varianz) abhängt. D. h., das Risiko 1. Art ist besser kontrollierbar. Man wählt daher das Hypothesenpaar derart, dass die fälschliche Ablehnung von H 0 , also der Fehler 1. Art schwerwiegender ist, als der Fehler 2. Art. Sind ζ. Β. μτ und μΝ die mittlere Leistung einer traditionellen bzw. einer neuen Methode und soll nur im Falle μΝ > μτ die neue Methode in die Praxis eingeführt werden, so kann mit einem Test zwischen den Möglichkeiten "neue Methode einfuhren" und "traditionelle Methode beibehalten" entschieden werden. Wegen des hohen Aufwandes der Methodenumstellung wird er Fehler, dass die neue Methode eingeführt wird, obwohl μΝ < μτ gilt, als schwerwiegender betrachtet und damit als Fehler 1. Art bezeichnet. Der Test arbeitet also mit den Hypothesen H0 : μΝ μτ. Die Annahme von H0 oder ΗA wird mit der Entscheidung fur die traditionelle bzw. fur die neue Methode identifiziert. Ist die neue Methode jedoch ökonomisch günstiger als die alte, der Umstellungsaufwand vernachlässigbar, und ist die Einfuhrung der neuen Methode wünschenswert, sofern ihr Qualitätsparameter μΝ höchstens um ein gewisses d von μτ abweicht, dann ist der Fehler, dass die neue Methode eingeführt wird, obwohl \μΝ-μτ\>ά gilt, der schwerer wiegende, weswegen man diese letzte Ungleichung als H 0 und \μΝ - μτ\η,α ( = Ο .
i=\
Die rechts stehenden Gleichungen bezeichnet man als Reparametrisierungsbedingungen, durch sie ist μ eindeutig bestimmt. Im Falle der einfachen Varianzanalyse sind die Summen der Abweichungsquadrate (SQ) unabhängig von der Definition des allgemeinen Mittels, d. h. unabhängig von der Wahl der Reparametrisierungsbedingung. Man schätzt μ= -
Σ^μ. Σηι
//,
durch
μ,=y. μ = — Ύ\μ.1 =— Ύ\y. —ι —ι. und μ durch — a a
oder
= ν je nachdem, ob die erste oder zweite Reparametrisierungsbedingung
—
gilt. Die Effekte a{ werden durch at = μ. ~μ geschätzt. Es ist zu bemerken, dass die Schätzwerte fur μ und a, von den Reparametrisierungsbedingungen abhängen, während schätzbare Funktionen wie ζ. B. Differenzen zwischen den α, von diesen Bedingungen unabhängig sind. Der nächste Auswertungsschritt besteht im Aufstellen einer Varianztabelle nach Verfahren 1/61/1000 mit den Summen der Abweichungsquadrate (SQ), Freiheitsgraden (FG) und mittleren Summen der Abweichungsquadrate (MQ). Λ Nun ist MQr eine Schätzung fur σ ; sie stimmt mit der Schätzung der Varianz innerhalb von Gruppen nach Verfahren 3/31/0110 überein. Die verschiedenen Problemstellungen für die Vergleiche der Mittelwerte, die auf der Varianztabelle 1/61/1000 aufbauen, sind in Verfahren 3/26/0000 zusammengestellt. Für sie muss die Zusatzbedingung, dass die e tj unabhängig voneinander nach N(0; σ ) verteilt sind, erfüllt sein. In Modell II sind die Stufen und damit auch ihre Effekte a t zufallig. Daher geht man von dem Modell y_ij =M + a i + e i j für die Beobachtungen aus, wobei vorausgesetzt wird, dass - die at unabhängig voneinander mit dem Erwartungswert 0 und der Varianz σα , -
die Cjj unabhängig voneinander mit dem Erwartungswert 0 und der Varianz σ
und -
die a t unabhängig von den ei; normalverteilt sind.
Weiterhin gilt im Modell II E(y ) = μ. Beachtet man, dass alle Zufallsvariablen y ( j = 1,...,«,) aus einer (zufalligen) Klasse stets einen gemeinsamen Zufallseffekt a ( enthalten, dann folgt dass im Falle σα > 0 jedes beliebige Paar y ..,y Φ j*) korreliert ist, der Korrelationskoeffizient ist 2 , _2 σ„+σ
60
er wird als Intraklasskorrelationskoeffizient bezeichnet. Die Varianzkomponente er
J
λ
schätzt man wie bei Modell I durch MQR und die Varianzkomponente σα
aus
&l=(MQA-MQR)/n0 (ANOVA-Methode, siehe 1/61/1000). Diese Empfehlung gilt für gleiche Klassenbesetzung. Bei ungleicher Klassenbesetzung sollte man unter Annahme der Normalverteilung die Maximum-Likelihood-Schätzung (ML) oder die etwas einfachere eingeschränkte (restricted) Maximum-Likelihood-Schätzung (REML) bevorzugen, da diese Methoden wesentlich genauere Schätzungen liefern. In SAS sind entsprechende Programme vorhanden. = 0, ΗA : er2 > 0 findet man im Teilkomplex 3/32.
Den Test der Hypothesen H0 :
In Tabelle 2 sind noch einmal die Modelle I und II gegenübergestellt. Tabelle 2: Modelle der einfachen Varianzanalyse Modell I
Modell II
Modell
Zy =μ + α,+ fLij
y^ß
Voraussetzungen
Ε
+ äi+etj
% ) = Μ + αί=Μ· Qj, ey. System unabhängiger
etj unabhängig
Zufallsvariablen «,.~ΛΤ(0;σα2)
2
ey~N( 0 ; σ )
Ziel der Analyse
e0~N( 0 ; σ 2 )
Für Punktschätzungen braucht keine Normalverteilung vorzuliegen (Methode der kleinsten Quadrate) Schätzung der at bzw. Schätzung von σ 9, o0 a und
ßi Vergleich der μ,
Abhängigkeiten
Auswahl der größten μι Λ Schätzung von σ die v. sind voneinander
-u
unabhängig
2 2 Oa +CT Test von Hypothesen über diese Parameter die v.. innerhalb einer Klasse
-y
sind korreliert
Werden mehrere Faktoren in den Versuch einbezogen, so unterscheidet man nach der Art und Weise, in der die Stufen kombiniert werden, die folgenden Klassifikationstypen für je zwei Faktoren: - Hierarchische Klassifikation {A>B) \ Der Faktor Β ist dem Faktor Α hierarchisch untergeordnet, wenn jede Stufe von Β nur mit einer Stufe von Α auftritt.
A
-
Aa
61
-
Vollständige Kreuzklassifikation (AxB): Die Faktoren Α und Β heißen vollständig kreuzklassifiziert, wenn jede Stufe von Α mit jeder Stufe von Β kombiniert wird. A X
A2
• •
B2
X
X · • X
BB
X
X · • X
X ·
Λ X
-
Unvollständige Kreuzklassifikation: Sind die Faktoren weder hierarchisch noch vollständig kreuzklassifiziert, so spricht man von unvollständiger Kreuzklassifikation oder Kreuzklassifikation mit Fehlstellen. Die zu den Stufenkombinationen gehörigen Gruppen von Beobachtungen bezeichnet man als Klassen. Nach der Art und Weise, in der die Faktoren kombiniert sind, ergeben sich für das Datenmaterial bzw. für die Varianzanalysen folgende Klassifikationstypen.· - Reine hierarchische Klassifikation: Alle Faktoren sind hierarchisch klassifiziert (ζ. Β. Α >- Β > C, d. h., die Stufen von C sind denen von Β untergeordnet und diese wiederum denen von A). - Reine Kreuzklassfikation: Alle Faktoren sind (vollständig) kreuzklassifiziert. - Gemischte Klassifikation: Einige Faktoren bzw. Faktorkombinationen sind kreuzklassifiziert, andere hierarchisch (ζ. B. (AxB)>C, d. h., Α ist mit Β kreuzklassifiziert. Fasst man (AxB) als neuen Faktor D mit den Kombinationen AtBj als Stufen auf, so ist C dem Faktor D hierarchisch untergeordnet). - In allen anderen Fällen spricht man von unvollständiger Klassifikation. Sind Faktoren oder Faktorkombinationen mit anderen vollständig kreuzklassifiziert, so kann man bei mehrfacher Klassenbesetzung auch deren Wechselwirkungen erfassen. Das soll anhand von Verfahren 1/61/2100 (AxB, gleiche, mehrfache Klassenbesetzung) erläutert werden. Die Beobachtungen —ijk y. zur Stufenkombination AjBj haben im Falle von Modell I den Erwartungswert μ^, d. h. es gilt hjk "Kj+Zijk
mit
E(
^yk) =
v
ii.ijk) = °2
und
unabhängen eijk
(i = Ι,.,.,α; j = 1 ,...,b; k = 1 ,.,.,η). Man führt folgende Parameter ein: - allgemeines Mittel μ = μ , - Hauptwirkung der i-ten Stufe des Faktors A a i - Mi. ~ M.. > - Hauptwirkung der j-ten Stufe von Β b i=M.j~M. . - bedingte Wirkung der i-ten Stufe von Α auf der j-ten Stufe von Β -
bedingte Wirkung der j-ten Stufe von Β auf der i-ten Stufe von A l'j, "-Μ,J-Mi. , Wechselwirkung der i-ten Stufe von Α mit der j-ten Stufe von Β
62
w
ij = ai\j ~ ai = bj\i - hj = Mij - Mt. - M.j + M.. • Wechselwirkungen treten also auf, wenn mindestens eine bedingte Wirkung von der entsprechenden Hauptwirkung abweicht. Bei dieser Definition der Haupt- und Wechselwirkungen gelten die Reparametrisierungsbedingungen (über alle nicht in die Summation einbezogenen Indizes) a b a b
Σα·=Σ^=Σννϋ=Σγνυ=0
•
Μ j=1 i=l j=1 Bei ungleicher Klassenbesetzung verwendet man auch andere Reparametrisierungsbedingungen, d. h. andere Definitionen der Wirkungen (entsprechend den bei der einfachen Varianzanalyse angegebenen). Wechselwirkungen höherer Ordnung, d. h. Wechselwirkungen zwischen den Stufen mehrerer Faktoren definiert man ganz analog. Die Ordnung ist gleich der um eins verminderten Anzahl der kreuzklassifizierten Faktoren. So erfasst man in AxBxC sowohl Wechselwirkungen 1. Ordnung (zwischen den Stufen von je zwei Faktoren, als auch Wechselwirkungen 2. Ordnung (zwischen den Stufen von Α, Β und C), während in (A> B)xC nur Wechselwirkungen 1. Ordnung (zwischen den Stufen von Β und C bzw. Α und C) definiert sind. Bei Modell II und gemischten Modellen sind die Stufen zufalliger Faktoren und damit auch ihre Wirkungen zufallig. Man erhält die entsprechenden Modelle für die Beobachtungen, indem man in der Modellgleichung fur Modell I alle Wirkungen, die zu zufalligen Faktoren gehören, unterstreicht. Wie bei der einfachen Varianzanalyse wird vorausgesetzt, dass die zufalligen Wirkungen und die Zufallsabweichungen ein -y Sy•y stem von unabhängigen Zufallsvariablen bilden und nach jV(0 \aF) bzw. N(0 ,σ ) verteilt sind (aj- bezeichnet die zur Wirkung F, ζ. B. Faktor A, gehörige Varianzkomponente). Im Teilkomplex 1/61 findet man häufig gebrauchte Varianztabellen einschließlich der Erwartungswerte der MQ für alle Modelle, 1/61/0000 gibt eine Übersicht über die aufgenommenen Tabellen. Dort findet man auch die Erläuterung für verschiedene Varianten dieser Modelle. Allgemeine Hinweise zur Auswertung wurden in 1/61/0002 und 1/61/0003 gegeben. Spezielle Varianztabellen sind den entsprechenden Verfahren zugeordnet. Varianztabellen für orthogonale Anlagen kann man mit Hilfe von Verfahren 1/61/0001 erhalten. Zu einer Varianztabelle wird man in der Regel von einem der Problemstellung (Beurteilung von Mittelwerten, Varianzkomponentenschätzung) angepassten Verfahren geführt.
4.4.2 Regressionsanalyse und Korrelationsanalyse Der Gegenstand der Regressionsanalyse ist die Untersuchung stochastischer Zusammenhänge, d. h. die Untersuchung von Zusammenhängen zwischen Zufallsvariablen oder zwischen Variablen und Zufallsvariablen. So besteht ζ. B. zwischen dem Alter χ und der Lebendmasse y von Tieren einer bestimmten Rasse offenbar kein streng funktionaler Zusammenhang. Trägt man jedoch die Beobachtungswerte Alter und Lebendmasse in ein Koordinatensystem ein, so erkennt man an dem klaren Trend der sich ergebenden Punktwolke, dass eine Abhängigkeit vorliegt. Diese Beziehung möchte man in einer formelmäßigen Darstellung erfassen, d. h., es soll eine Kurve angegeben werden, die die Punktwolke möglichst gut beschreibt. Dazu unterstellt man für y das sogenannte Regressionsmodell
63
y = yx=y(x)+e
.
Für jedes Alter χ gibt y(x) = E(y^)
die mittlere Lebendmasse an, um die die Beob-
achtungen zufällig variieren. y(x) heißt Regressionsfunktion, χ Regressor und die Zielgröße y Regressand. Charakteristisch für dieses Beispiel ist, dass der Regressor "einstellbar" ist. Man kann die Messstellen x,, an denen man die Lebendmasse feststellt, vor dem Versuch festlegen. Ein derartiges Modell wird Modell I der Regressionsanalyse genannt. Man spricht von dem "adäquaten" Modell bzw. der adäquaten Regressionsfunktion, wenn E(e) = 0 , d. h. E ( y ) = y{x) ist. Für die Beobachtungen y.. an den verschiedenen Messstellen xl gilt entsprechend Z,y
=
y ( x i ) + £ij
(' =
j =
1,.·.,«,·)•
An jeder Messstelle xt werden ni unabhängige Messungen (Beobachtungen) durchgeführt, speziell kann nx = « 2 = " · =
n m
- 1 sein, d. h. pro Messstelle eine Messung vor-
liegen. Untersucht man den Zusammenhang zwischen zwei Merkmalen, ζ. B. zwischen dem Brustumfang χ und der Lebendmasse y bei Rindern einer Rasse, so kann man jede als Regressand wählen. Es ergeben sich die zwei Modelle y = y ( x ) + ex
und
x = x ( y ) + e2
•
In beiden Fällen spricht man von Modell II der Regressionsanalyse. Dabei bezeichnet die Regressionsfunktion y(x) den bedingten Erwartungswert von y für festes x, y(x) = E(y | χ), und die Regressionsfunktion x(y) den bedingten Erwartungswert von χ
für festes
y , x ( y ) = E(x
\y).
Die beiden Regressionsfunktionen weichen im allge-
meinen voneinander ab. Es wird vorausgesetzt, dass die Zufallsabweichungen e von den Regressoren unabhängig sind. Diese Voraussetzung kann ζ. B. bei der Untersuchung von Prozessen (siehe 4.4.5 Zeitreihenanalyse) verletzt sein. Die formale (numerische) Behandlung der beiden Modelle ist hinsichtlich der Auswertung gleich. Es treten jedoch neben den bereits genannten Unterschieden noch folgende auf: - die Verteilungen der Schätzungen sind verschieden, - die Konfidenzintervalle haben unterschiedliche erwartete Längen, - die Gütefunktionen der Tests unterscheiden sich, - die Versuchsplanung ist verschieden. Je nach der Gestalt der Regressionsfunktion unterscheidet man folgende Typen der einfachen Regression: - lineare Regression y(x) = ß0 + βλχ , -
quadratische Regression
-
polynomiale Regression
-
quasilineare Regression
y{x)
= ß0g0
-
eigentlich nichtlineare Regression
y{x)
= f{x,ß^,...,ßk) .
y ( x ) - ßQ + ßxx
+ ß2x2
y ( x ) = βϋ + ßxx
2
,
Η— + ß^xk
+ ß2x
( x ) + ßxgx
(x) + • • • + ßkgk
,
(χ)
Bei der quasilinearen Regression sind die g ^ x ) beliebige reelle, aber bekannte und von den ßi unabhängige Funktionen, d. h., y(x) ist in den Parametern ßt, die man 64
,
als Regressionskoeffizienten bezeichnet, linear, braucht aber in χ nicht linear zu sein (z.B. y(x) = ß0+ßix + ß2\nx). Die lineare, quadratische und polynomiale Regression stellen Spezialfälle der quasilinearen Regression dar. Von eigentlich nichtlinearer Regression spricht man, wenn y(x) nicht linear in χ und in wenigstens einem Parameter ist (ζ. B. y(x) = ß0+ ßxehx,
genauer in Rasch (1995), Def. 16.1).
Das bisher Gesagte gilt mit den entsprechenden Modifikationen nicht nur für die einfache Regressionsanalyse (ein Regressor), sondern auch fur die mehrfache oder multiple Regression (mehrere Regressoren). Die Regressionsfunktion hängt dann von mehreren Regressoren ab, sie lautet ζ. B. im Falle der quadratischen Regression Modell I mit den Regressoren χ,, x 2 , y(X\ ,X2) = ßo+ ß\X\ + ßlX2 + ßix\x2 + / W + ßix2 • Neben Modell I und Modell II sind hier auch gemischte Modelle möglich, in denen einige Regressoren zufallig, andere einstellbar sind. Soll der Zusammenhang zwischen mehreren Zufallsvariablen χι,^,—,χ^+ι untersucht werden (multiple Regressionsanalyse Modell II), so kann man jede als Regressand auswählen. Man erhält demnach k + 1 Regressionsfunktionen Xf ( * ! , . . . • • • X k + \ ) -E(Xj · · · , * , • - ! , · (Man beachte, dass der Index i hier die verschiedenen Variablen unterscheidet, bei der einfachen Regression jedoch die verschiedenen Messstellen von nur einer Variablen. Im letzteren Fall wird aber auch der Index r verwendet.) Durch die Schätzung der Regressionsfunktion erhält man eine Beschreibung der Gestalt des Zusammenhanges, aber noch keine Aussage über die Stärke des Zusammenhanges bzw. den Grad der Abhängigkeit der Zufallsvariablen (bei Modell II). Im Falle der einfachen linearen Regression Modell II verwendet man als Maß für den Grad der Abhängigkeit der Zufallsvariablen χ und y den Korrelationskoeffizienten (genauer: den einfachen Produkt-Moment-Korrelationskoeffizienten) cov(x,j>) σ P= JvixWiy) Sollte die Modellannahme der Linearität aber nicht zutreffen, dann erfasst ρ nur die lineare Komponente der Abhängigkeit. Ist ρ - 1 oder ρ - - 1 , so besteht ein linearer deterministischer Zusammenhang zwischen χ und y , während man im Falle p = 0 von unkorrelierten Zufallsvariablen spricht. Unabhängige Zufallsvariable sind unkorreliert, die Umkehrung gilt nicht, es gibt sogar Extremfalle, bei denen ein deterministischer, aber dann nichtlinearer Zusammenhang vorliegt, und trotzdem ρ = 0 gilt. Bei zweidimensionaler Normalverteilung ist jedoch Unkorreliertheit gleichbedeutend mit der Unabhängigkeit der Zufallsvariablen. Der Parameter ρ wird durch SP
(siehe Verfahren aus 4/32) geschätzt. Im Modell II der Regression wird V{y)
65
als (einfaches) theoretisches Bestimmtheitsmaß bezeichnet. Es gibt den Anteil an a y an, der durch die Regression erklärt werden kann. In der einfachen linearen Regression
B>(x)J ein Polynom entsprechender Ordnung in den Koordinaten von xe D ist. Die räumliche Abhängigkeit kann verwendet werden, um Vorhersagen der Werte von y{x) [also von räumlichen Eigenschaften] an nicht beobachteten Punkten zu machen, ζ. B. um eine Landkarte herzustellen. Hierzu verwendet man die in 4.3.9 beschriebenen besten linearen erwartungstreuen Vorhersagen, deren Anwendung in der räumlichen Statistik als Kriging bezeichnet wird. D. h. es gilt für die Vorhersage i(x 0 ) an der Stelle x0 wobei entsprechend 4.3.9 die Äj so gewählt werden, dass
in der Klasse aller linearen erwartungstreuen Vorhersagen jy(x 0 )} minimal wird. Die Ausdrücke für die Kriging-Vorhersage und für die Varianz des Vorhersagefehlers hängen von der Abhängigkeitsstruktur im in 4.3.9 beschriebenen linearen Modell und vom Grad der Nicht-Stationarität ab. Eine wichtige Aufgabe der räumlichen Statistik besteht folglich in der geeigneten Schätzung der räumlichen Abhängigkeit und in der optimalen Wahl der Messpunkte. Das hier beschriebene Vorgehen kann auf mehrdimensionale Probleme im Sinne von Abschnitt 4.4.7 verallgemeinert werden. Hierbei ist y{x) ein Vektor beobachteter Einzelmerkmale am Punkt x e D . Im stationären Fall spielt hierbei die Kovarianzfunktion CYZ{h) = Ε [y(x + A)z(*)] - μγμζ
82
eine Rolle, die die Eigenschaft CYZ(h)--CZY(-h) besitzt. Die räumliche Kovarianz zweier Merkmale kann zur Vorhersage an nicht beobachteten Punkten x0 e D verwendet werden, man nennt dies Ko-Kriging. Hierbei wird für die Vorhersage einer Komponente des Merkmalsvektors die Information aus allen Komponenten der Beobachtungsvektoren benutzt. Die Versuchs- bzw. Erhebungsplanung in der räumlichen Statistik läuft auf die Frage hinaus, wie oft man wo messen oder beobachten muss. Als Optimalitätskriterium kommen dabei in Frage die Genauigkeit räumlicher Interpolation (Vorhersage) oder die Schätzgenauigkeit räumlicher Variogramme.
83
5. Statistische Versuchsplanung 5.1 Die Stellung des Versuches im Erkenntnisprozess In allen Naturwissenschaften werden Versuche durchgeführt. Sie dienen der Aufdeckung von Gesetzmäßigkeiten, der Aufstellung und Überprüfung von Hypothesen bzw. der Entscheidungsfindung. Versuche sind überall dort notwendig, wo man mit deduktiven Schlüssen allein keine gesicherten Aussagen über die Wirklichkeit machen kann, weil nicht alle oder keine Gesetzmäßigkeiten des untersuchten Gegenstandes bekannt sind. Versuche bilden somit als eine spezielle Form der Praxis die wichtigste (eigentlich die einzige) Grundlage der Erkenntnisgewinnung. In den Naturwissenschaften stellen sie den Hauptweg dar. Der Weg von der Aufgabenstellung zur Lösung der Forschungsaufgabe läuft stets dann über einen Versuch, wenn notwendige Informationen nicht oder nicht günstiger über deduktive Ableitungen oder aus Datenspeichern ermittelt werden können. Innerhalb einer Aufgabe gibt es dabei häufig mehrere Wege der Informationsbeschaffung, die sowohl hintereinander als auch parallel liegen können (Literaturstudien, Patentrecherchen, theoretische Überlegungen, Experimente). Der Versuch hat in vielen Fällen im Erkenntnisprozess eine Doppelstellung; er dient sowohl als Mittel zur Gewinnung von Informationen, die in theoretische Untersuchungen einfließen, als auch als ein Mittel zur Überprüfung der Ergebnisse theoretischer Überlegungen und dabei wiederum als Ausgangspunkt für neue Untersuchungen, da er für die weitere Forschungsarbeit Motive und neue Informationen liefert. Neben seiner erkenntnistheoretischen Rolle nimmt der Versuch durch den zu seiner Vorbereitung, Durchführung und Auswertung erforderlichen Aufwand an Zeit und Forschungskapazitäten (finanzielle Aufwendungen, Arbeitskräfte, Messtechnik, Versuchsobjekte) eine bedeutende Stellung im Forschungsprozess ein. Eine wichtige Aufgabe der Versuchsplanung besteht daher darin, einen günstigen Kompromiss für die Lösung des Widerspruchs zwischen der Genauigkeit der Versuchsaussage und dem Versuchsaufwand zu finden.
5.2 Gegenstand und Aufgaben der statistischen Versuchsplanung Versuche werden unter vorgegebenen Bedingungen durchgeführt. Sind die Versuchsbedingungen derart vorgegeben, dass bei wiederholten Versuchen unter den gleichen Bedingungen immer das gleiche Versuchsergebnis zu erwarten ist, so ist der Versuch vollständig determiniert. Allerdings ist es in den seltensten Fällen möglich oder sinnvoll, die Versuchsbedingungen so umfassend anzugeben, dass bei wiederholten Versuchen immer mit dem gleichen Versuchsausgang zu rechnen ist. Versuchsergebnisse hängen fast immer teilweise vom Zufall ab. Derartige Versuche sind für die Forschung in der Biologie, Landwirtschaft und Medizin charakteristisch und kommen auch in allen anderen Wissenszweigen vor. Nur bei der Planung solcher Versuche sprechen wir von statistischer Versuchsplanung. Wichtige Teilgebiete der Versuchsplanung sind: - Präzisierung der Versuchsfrage, - Wahl des statistischen Modells, - Konstruktion und Auswahl der Versuchsanlage,
85
- Wahl des Versuchsumfangs, - Planung der Auswertung von Versuchen. Sie stellen nur einen Teil der Planung derartiger Versuche dar. Zur umfassenden Planung von Versuchen gehört natürlich auch die Beschaffung der Versuchseinheiten, Messinstrumente, Versorgung der Versuchseinheiten während des Versuches usw.. Wenn im folgenden von Versuchsplanung die Rede ist, so wird darunter stets die statistische Versuchsplanung verstanden. Jede Versuchsarbeit kann in die drei Schritte - Planung, - Durchführung und - Auswertung eingeteilt werden. Diese drei Schritte sind im Zusammenhang zu betrachten, d. h. bei der Planung eines Versuches sind seine Durchführung und Auswertung stets zu berücksichtigen. Es braucht nicht betont zu werden, dass stets vor der Durchführung und Auswertung die Planung eines Versuches erfolgen muss. Anderenfalls kann nicht gesichert werden, dass die gestellte Versuchsfrage mit vorgegebener Genauigkeit beantwortbar ist. Bei mehrstufigen Versuchen wird die Folge Planung - Durchführung - Auswertung jedoch mehrfach durchlaufen, da das Ergebnis der Auswertung einer Stufe die Planung der folgenden bestimmt oder über den Abbruch der Untersuchung entscheiden kann. Bei einigen speziellen Versuchsproblemen, ζ. B. bei der Steuerung von Prozessen, ist eine Durchdringung der drei Schritte Planung, Durchführung und Auswertung vorhanden. Dies trifft vor allem auf sequentielle versuche zu, wie sie in den Verfahren. 6.13.6 beschrieben wurden. Vor allem die dort angegebenen sequentiellen Dreieckstest sind allgemein anwendbar. Dass sie unter die klinischen Studien und nicht in Komplex 3 eingeordnet wurden hat mit den unterschiedlichen Erscheinungsterminen der beiden Bände der ersten Auflage zu tun. Eine nachträgliche Umordnung barg die Gefahr in sich, dass Verweise nicht mehr korrekt sind und hat bei der modernen Gestaltung dieser Auflage ohnehin kaum noch Bedeutung.
5.3 Teilgebiete und Prinzipien der statistischen Versuchsplanung 5.3.1 Präzisierung der Fragestellung Die Grundlage jedes Versuches bildet eine präzisierte Fragestellung. Nur wenn vor dem Versuch die zu beantwortende Frage präzise formuliert wurde, kann nach Durchführung des Versuches eine Antwort auf diese Frage erwartet werden. In der Praxis findet man häufig noch folgende Situation: Ein Versuch ist ohne Versuchsplanung durchgeführt worden. Meist lag dann auch keine bis ins einzelne präzisierte Aufgabenstellung vor. In dem Falle, dass eine präzisierte Aufgabenstellung mit vorgegebenen Genauigkeitsforderungen vorlag, wäre es Zufall, wenn sich diese Aufgabe mit einem nicht geplanten Versuch lösen ließe. Darauf kann ein ernsthafter Wissenschaftler nicht hoffen. Häufig wurde der Versuch aber auch deshalb nicht geplant, weil keine präzisierte Aufgabenstellung vorlag, man sich die nicht unbeträchtliche Mühe ihrer Erarbeitung nicht machte und nach dem Motto vorging "Wir fangen erst mal an und werden dann schon sehen". In solchen Fällen wird die Aufgabenstellung nach Vorliegen der Versuchsergebnisse "erarbeitet". Die Frage "Was kann ich denn nun mit diesem Material machen?" hört der statistische Berater 86
nur zu oft. Die Gegenfrage, warum denn der Versuch überhaupt begonnen wurde, ergibt oft seltsame Antworten. Eine solche Vorgehensweise ist oftmals mit großen ökonomischen Verlusten verbunden. Daher ist es unumgänglich, zunächst die Versuchsfrage - häufig werden es auch mehrere Versuchsfragen sein - zu präzisieren. Es hat sich als zweckmäßig erwiesen, bei der Präzisierung der Versuchsfrage drei Fragen zu beantworten, die in den Standardwerken über Versuchsplanung angegeben sind (Original bei A. Linder, 1959): - Was will man wissen? - Wie genau will man es wissen? - Für welche Gesamtheit will man es wissen? Die erste Frage umfasst die Versuchsfrage im engeren Sinne. Sie könnte beispielsweise lauten: Bewirkt eine neue Therapie Al eine höhere durchschnittliche Anzahl von Heilerfolgen bei Patienten mit einer bestimmten Krankheit als eine bisher verwendete Therapie A2 ? Es ist genau anzugeben, nach welchen Merkmalen gefragt wird und in welcher Richtung eine Veränderung interessiert oder ob nur eine Gleichheit nachzuweisen ist. Einige weitergehende Ausführungen zu dieser Frage findet man in den Verfahren des Teilkomplexes 1/11. Die zweite Frage betrifft die geforderte Genauigkeit der gewünschten Antwort auf die erste Frage und beeinflusst damit wesentlich den Versuchsumfang. Es ist festzulegen, nach welchen Kriterien der Versuchsumfang zu bestimmen ist. Sollen lediglich Genauigkeitsforderungen verwendet werden, wie sie in Abschnitt 5.3.6 beschrieben werden, oder sollen neben den Genauigkeitsforderungen noch die Versuchskosten und in welcher Form berücksichtigt werden oder sollen der Stichprobenumfang über die Risikofunktion, die die erwarteten Verluste bei Fehlentscheidungen angibt, und die Versuchskosten bestimmt werden? Durch die Antworten auf die ersten beiden Fragen muss die Problemstellung bis auf den Aussagebereich klar umrissen werden. Aus der Antwort auf die erste Frage muss beispielsweise hervorgehen, ob ein multipler Mittelwertvergleich, ein Auswahlverfahren oder eine Intervallschätzung durchgeführt werden soll. Aus der Antwort auf die zweite Frage muss ζ. B. klar ersichtlich sein, ob die vorgegebenen Risiken vergleichsbezogen oder versuchsbezogen sind. Es ist also notwendig, dass der Versuchsansteller alle diese möglichen Fragestellungen kennt oder dass er sich bei der Präzisierung seiner Fragestellung beraten lässt und dann entscheidet, welche Fragestellung für sein Problem passend ist. Das ist auch notwendig, um das entsprechende Verfahren der Verfahrensbibliothek zu finden. Die dritte Frage betrifft die Grundgesamtheit, auf die geschlossen werden soll (den Aussagebereich). Es besteht ein untrennbarer Zusammenhang zwischen Grundgesamtheit und Stichprobe, der bei der Versuchsplanung zu beachten ist. Zur Beantwortung der Versuchsfrage werden Stichproben verwendet, die nach einem reinen oder eingeschränkten Zufallsstichprobenverfahren aus der Grundgesamtheit zu entnehmen sind. Es darf nur auf die Grundgesamtheit geschlossen werden, aus der die Stichprobe nach einem solchen Verfahren gezogen wurde. Eine Extrapolation auf andere Grundgesamtheiten ist zumindest sehr fragwürdig und hat nur hypothetischen Charakter. Nur in diesem Sinne ist sie vom Standpunkt der Mathematischen Statistik aus vertretbar. Auch darf die Grundgesamtheit, aus der die Stichprobe stammt, nicht beliebig erweitert werden. Werden z.B. die Tiere einer Rasse in einem bestimmten Alter und in einem Land als Grundgesamtheit angesehen und wird daraus die Stichprobe gezogen, so darf nicht auf Tiere der gleichen Rasse, die in einer anderen Umwelt leben bzw. auf Tiere in einem anderen Alter geschlossen werden. Grundsätzlich ist nur ein Schluss von der Stichprobe auf die Grundgesamtheit 87
zulässig, aus der die Stichprobe entnommen wurde. Es ist also vor der Durchführung des Versuches festzulegen, fur welche Grundgesamtheit die Aussage zu machen ist, und aus ihr ist die Stichprobe zu entnehmen. Nur unter diesen Bedingungen gelten die vorgegebenen Risiken einer Fehlentscheidung. Weicht man von diesem Grundsatz ab, so sind die Risiken von Fehlentscheidungen nicht mehr unter Kontrolle. Für die Präzisierung der Versuchsfrage ist es wichtig, die Versuchsdurchführung im System der gesamten Forschungsaufgabe, im System der Forschungseinrichtung und im System der Versuchs- und Produktionsanlage, in der die Untersuchung durchgeführt wird, zu sehen. Diese Analyse weist auf Umstände (Störfaktoren, Höchstgrenzen fur die Beeinflussung der laufenden Produktion, Prioritäten in Forschung und Produktion, gleichzeitige Nutzung von Versuchsobjekten fur die verschiedene Aufgaben, personelle, finanzielle u.a. Kapazitäten, Ethik, Tierschutz, Seuchenschutz) und Wünsche (gleichzeitige Erprobung neuer Mess- und Registriersysteme, Qualifizierung von Mitarbeitern, Zwischenergebnisse) hin, die für die Anlage und Durchführung entscheidend sein können. Die Systeme sollten dabei nicht nur in ihrem derzeitigen Zustand, sondern in der voraussichtlichen Entwicklung (Änderung der Aufgaben und ihrer Prioritäten, Änderung der gerätetechnischen Ausrüstungen) gesehen werden.
5.3.2 Auswahl des Versuchstyps Versuche können unter verschiedenen Versuchsbedingungen durchgeführt werden. Die Wahl der Versuchsbedingungen beeinflusst den Aussagebereich des Versuchs. Man unterscheidet mehrere Versuchstypen (siehe Verfahren 1/11/0200). Jeder dieser Versuchstypen ist charakteristisch für bestimmte Versuchsbedingungen. Die Auswahl des Versuchstyps hängt von der Grundgesamtheit ab, auf die geschlossen werden soll. Oft ist es nicht sinnvoll, sofort Versuche unter Praxisbedingungen durchzufuhren, wenn eine Aussage für die Praxis gemacht werden soll. Bei der Auswahl des Versuchstyps muss der Stand der Erkenntnis über den zu untersuchenden Gegenstand berücksichtigt werden. In Laborversuchen oder Versuchen unter experimentellen ökologischen Bedingungen werden aus der Vielzahl von Varianten diejenigen ausgewählt, von denen angenommen werden kann, dass sie von praktischer Bedeutung sein könnten. Diese werden dann in Praxisversuchen erprobt, um die gestellte Versuchsfrage zu beantworten. Nicht bei jedem Versuch kommen alle Versuchstypen in Frage. Beispielsweise scheidet die Erhebung schon bei vielen Versuchen aus, da man die entsprechenden Daten nicht im Betrieb erheben kann. Andererseits ist es das Ziel vieler Versuche, Aussagen über Methoden oder Verfahren zu machen, bei denen das Labor schon die Praxis ist. Dann scheiden natürlich die anderen Versuchstypen aus. Es ist also zunächst zu überlegen, welche Versuchstypen zur Beantwortung der Versuchsfrage (ohne Berücksichtigung des Aussagebereiches) geeignet sind. Anschließend ist zu entscheiden, ob ein Vorversuch mit eingeschränktem Aussagebereich dem eigentlichen Versuch voranzugehen hat oder ob sofort ein Versuch mit vollem Aussagebereich durchgeführt werden soll. Eine stufenweise Einschränkung der Varianten durch einen Vorversuch und Hauptversuch erweist sich häufig als erheblich günstiger (geringere Versuchskosten). In vielen Bereichen, in denen eine Versuchsplanung auf Grund bestehender Regeln bereits standardmäßig erfolgen muss, sind die Versuchstypen noch feiner klassifiziert. Ein Beispiel hierfür sind klinische Prüfungen und deren Phasen I bis IV.
88
5.3.3 Prinzipien der Versuchsplanung Bei der Aufstellung eines Versuchsplanes (in klinischen Studien auch Studienprotokoll genannt) sind, nachdem die Versuchsfrage präzisiert und der Versuchstyp festgelegt wurden, einige Grundprinzipien zu beachten, die an einem einfachen Beispiel erläutert werden sollen. Nehmen wir an, in einem Versuch sollen zwei Futtermittel ( A l , A 2 ) an einer bestimmten Rasse unter exakt gegebenen Bedingungen geprüft werden. Das betrachtete Merkmal sei die durchschnittliche tägliche Zunahme. Der einfachste Plan für einen solchen Versuch wäre wohl der, bei dem je ein Tier mit dem Futtermittel A( und A2 gefuttert wird. Nach Beendigung des Versuches liegen zwei Ergebnisse für die durchschnittliche tägliche Zunahme vor (yx,y2) • Nehmen wir an, es sei yx > y2 • Welche Schlussfolgerung könnte aus diesen Ergebnissen gezogen werden? Man müsste annehmen, dass Al das bessere Futtermittel ist. Dieser Schluss ist aber wenig begründet, denn die Ergebnisse können außer durch die Futtermittel auch noch durch andere Ursachen bedingt sein. Es ist bekannt, dass auch Tiere einer Rasse bei gleicher Fütterung und Haltung durchaus verschiedene Merkmalsausprägungen besitzen. Man muss also die Zufallsstreuung (hier biologische Variabilität, in anderen Fällen die Messgenauigkeit oder auch die Variabilität der Produkte einer Maschine usw.) berücksichtigen. Erst dann sollte man von einer Überlegenheit des Futtermittels Ax über das Futtermittel A2 sprechen, wenn die Differenz yx - y2 > 0 mit großer Wahrscheinlichkeit nicht nur auf zufallige Einflüsse zurückzufuhren ist. Die Differenz muss also mit der Zufallsstreuung verglichen werden. Ist die Varianz σ 2 bekannt, so kann ein Versuch in der oben beschriebenen Form ausreichend sein, um die Versuchsfrage zu beantworten. In den meisten Fällen ist jedoch die Varianz unbekannt und wird erst aus den Versuchsergebnissen geschätzt. Aus diesen Überlegungen leitet man das erste Grundprinzip ab. 1. Um die Varianz σ2 aus dem Versuch selbst schätzen zu können, müssen die Behandlungen auf mehrere Versuchseinheiten angewendet werden. Mindestens von einer Behandlung müssen mehrere Messwerte erhoben werden (Wiederholung). In die meisten Versuche bezieht man mehrere Behandlungen ein. Es ist zu entscheiden, welche der aus der Grundgesamtheit ausgewählten Versuchseinheiten welcher Behandlung zugeordnet werden. Die Zuordnung der Versuchseinheiten zu den Behandlungen kann nach verschiedenen Zuordnungsverfahren geschehen. Wird eine Zuordnung nach einem nach Gutdünken festgelegten System vorgenommen, so spricht man von systematischer Zuordnung (nicht zu verwechseln mit der systematischen Zufallsauswahl). Die systematische Zuordnung entspricht nicht den Grundsätzen der Mathematischen Statistik. Wird sie angewendet, so können systematische Fehler auftreten. Daher ist sie abzulehnen. Durch eine zufallige Zuordnung wird garantiert, dass nur Fehler auftreten, die sich bei Wiederholung des Versuches im Mittel aufheben. Oft spielen bei der Zuordnung auch ethische Probleme eine Rolle. Handelt es sich ζ. B. um den Vergleich zweier Therapien zur Krebsbekämpfung und hat eine Therapie größere Heilerfolge als die andere, ordnet man nach der sogenannten "Play the winner rule" der erfolgreichsten Therapie mehr Patienten als der zunächst weniger erfolgreichen zu.
89
Gleiches trifft auch für andere Formen der eingeschränkten Zufallszuordnung zu. Dabei werden die Versuchseinheiten vorher in Gruppen eingeteilt. Hierzu wird eine zusätzliche Information verwendet. Innerhalb der Gruppen findet eine reine Zufallszuordnung statt. Wir erhalten damit das zweite Grundprinzip. 2. Damit systematische Fehler bei der Verteilung der Versuchseinheiten auf die Behandlungen vermieden werden, muss die Zuordnung zufallig vorgenommen werden (Randomisation bei der Zuordnung der Versuchseinheiten zu den Behandlungen). Diese zufällige Zuordnung wird in Verfahren 1/31/2010 beschrieben. Besonderheiten bei klinischen Studien findet man in 6/11. Mit Hilfe der Ergebnisse des Versuches soll auf eine vorher festgelegte Grundgesamtheit geschlossen werden. Dieser Schluss von der Stichprobe auf die Grundgesamtheit ist mit gewissen Risiken verbunden. Damit diese Risiken kontrolliert werden können, ist es notwendig, dass die Versuchseinheiten aus der Grundgesamtheit nach einem Zufallsstichprobenverfahren (rein oder eingeschränkt) erhoben werden. Das fuhrt zum dritten Grundprinzip. 3. Um von der Stichprobe auf die vorgegebene Grundgesamtheit mit vorgegebenen Risiken schließen zu können, ist es notwendig, dass die Stichprobe nach einem reinen oder eingeschränkten Zufallsstichprobenverfahren aus der Grundgesamtheit erhoben wird (Randomisation bei der Auswahl der Versuchseinheiten). Neben diesen drei Grundprinzipien gibt es noch weitere Prinzipien, die jedoch nicht allgemeingültig sind. Der Versuchsansteller wird bestrebt sein, seinen Versuch so wirksam wie möglich zu gestalten. Die Wirksamkeit eines Versuches hängt vom Stichprobenumfang und der Zufallsstreuung ab. Der Versuchsansteller wird also die Zufallsstreuung so klein wie möglich zu halten versuchen. Eine Möglichkeit, dieses Ziel zu erreichen, besteht in der Blockbildung. Wie schon bemerkt, benötigt man zur Blockbildung Information über die Versuchseinheiten. Nur dann, wenn solche Information vorhanden ist, kann versucht werden, durch Blockbildung die Zufallsstreuung einzuschränken. Ob eine Blockbildung geeignet ist, dieses Ziel zu erreichen, entscheidet man mit Hilfe der Verfahren des Teilkomplexes 1/21. Bei der Durchführung von Versuchen kann häufig eine subjektive Einstellung der beteiligten Personen zu den Untersuchungsobjekten nicht ausgeschlossen werden (z. B. Bevorzugung von eigenen Entwicklungen und von "Autoritäten" oder Abneigung gegen bestimmte Untersuchungsobjekte und -methoden). Wenn die subjektive Einstellung und das damit verbundene Verhalten bei der Behandlung der Versuchsobjekte und bei der Bewertung der Versuchsergebnisse diese so beeinflussen kann, dass das zu Fehlentscheidungen fuhrt, so sind, soweit das überhaupt möglich ist, die Versuchsobjekte (Versuchseinheiten) zu verschlüsseln. Am bekanntesten ist diese Vorgehensweise bei den Blindversuchen bei klinischen Studien und bei der Bewertung (Verkostung) von Erzeugnissen der Nahrungs- und Genussmittelindustrie. An die Schlüssel sind u. a. folgende Forderungen zu stellen: - Eindeutigkeit der Verschlüsselung, - kein Suggerieren von Rangfolgen, - Geheimhaltung des Schlüssels vor Betreuern und Bewertern.
90
5.3.4 Auswahl der Versuchsanlage Zur Aufstellung von Versuchsplänen wird Information benötigt. Je komplizierter ein Versuch ist, desto mehr Information muss der Versuchsansteller besitzen, will er einen solchen Plan anwenden. Die geringste Information braucht man für eine vollständig randomisierte (oder einfache) Versuchsanlage, da hierbei die Versuchsobjekte bzw. ihre Umweltbedingungen nicht in Gruppen (Blocks) eingeteilt werden. Daher ist in allen Fällen, in denen keine Information über die zu untersuchenden Objekte bzw. ihre Umwelt vorliegt, die zur Blockbildung verwendet werden kann, die vollständig randomisierte Versuchsanlage zu bevorzugen. Die Information, die vor dem Versuch über die Versuchsobjekte bzw. deren Umwelt vorliegt, soll als Vorinformation bezeichnet werden. Es kann sich dabei um Information aus vorhergehenden Versuchen, aus der Literatur oder auch aus ähnlichen Versuchen handeln. Das Wort Information soll hier im weitesten Sinne verstanden werden. Jede begründete Vermutung sollte bei der Versuchsplanung mit berücksichtigt werden. Es ist stets zu prüfen, wie die vorhandene Information zu verwenden ist. Zunächst versucht man, die Information zur Blockbildung zu benutzen (ζ. B. für eine vollständige Blockanlage), um deren Wirksamkeit mit der vollständig randomisierten Versuchsanlage zu vergleichen. Anschließend werden, falls sich die Blockanlage als besser erwiesen hat, auch weitere Anlagen in die Betrachtung einbezogen. Sollen nun verschiedene Versuchsanlagen miteinander verglichen werden und ist das Ziel dieses Vergleiches die Auswahl einer Versuchsanlage, so benötigt man dazu ein Entscheidungskriterium. Es gibt Kriterien, bei denen lediglich die Genauigkeit berücksichtigt wird wie sie ζ. B. in 5.3.6 beschrieben ist. Andere Kriterien berücksichtigen neben der Genauigkeit die Versuchskosten. Die gebräuchlichsten Kriterien sind: -
Relative Effizienz Bei der Anwendung dieses Kriteriums wird entweder die Restvarianz oder die Varianz, bestehend aus Restvarianz und Wechselwirkungsvarianz, verwendet. Die entsprechenden Varianzen von verschiedenen Versuchsanlagen werden gegen2
2
übergestellt. Sind ( a t und σ2) die Fehlervarianzen zweier Versuchsanlagen, so σ2 ist Ε = —y die Effizienz der Anlage 1 relativ zur Anlage 2. of Hier wird vorausgesetzt, dass die Varianzen bekannt sind, anderenfalls sollte dieses Kriterium nicht benutzt werden. Wird dieses Kriterium angewendet, so ist diejenige Versuchsanlage zu bevorzugen, die die kleinste Varianz besitzt. Andererseits hängt die Genauigkeit nicht nur von der Varianz ab, sondern auch von den Freiheitsgraden. Daher wurde Ε etwas abgeändert in E*
_{nx+\){n2+1)sl (n,+3)(#» 2 +l)i, 2 ' •y
In diesem Falle brauchen die σ,
nicht bekannt zu sein, sondern es müssen
lediglich Schätzwerte basierend auf Beobachtungen (i = 1,2) vorliegen. Ε ist jedoch nur eine Näherungsformel und berücksichtigt die Freiheitsgrade nicht voll. Besonders bei kleinen «, ist die Approximation nicht sehr gut. -
Genauigkeit bei gleichem Versuchsumfang Genauigkeit bei gleichen Versuchskosten Versuchsumfang bei gleicher Genauigkeit Kosten bei gleicher Genauigkeit 91
Neben diesen 5 Kriterien existieren noch viele andere. Außerdem können sie durch verschiedene Genauigkeitsangaben variiert werden. Die Genauigkeitskriterien sind nicht wahlweise zu verwenden, sondern hängen von den Vorgaben ab - von der präzisierten Fragestellung. Verschiedene Entscheidungskriterien fuhren gewöhnlich auch zur Auswahl von verschiedenen Versuchsanlagen. Bei der Auswahl der Versuchsanlage handelt es sich um eine Optimierungsaufgabe. Das Entscheidungskriterium hängt von den folgenden Vorgaben ab: - Ziel des Versuches Es ist zu beachten, ob das Ziel des Versuches die Durchführung eines Tests, einer Schätzung oder ein Auswahlproblem ist. - Vorgabe der Genauigkeit In 5.3.6 werden einige Genauigkeitsvorgaben erläutert. Nach der Wahl der Genauigkeitsvorgabe richtet sich auch das Kriterium der Auswahl der Versuchsanlage. Dabei ist nicht nur die Art der Genauigkeitsvorgabe zu beachten, sondern auch die Größe der vorgegebenen Parameter. Ist nur eine geringe Genauigkeit gefordert, so wird man auch nur einen kleinen Stichprobenumfang benötigen, dann aber sind die Freiheitsgrade (bei unbekannter Varianz) zu berücksichtigen. Dagegen spielen die Freiheitsgrade bei sehr großen Stichprobenumfangen keine Rolle. Sie können vernachlässigt werden. - Modell der Beobachtungswerte In vielen Fällen hängen die Teststatistik und das Konfidenzintervall vom Modell für die Beobachtungswerte ab. Dabei hat die Wahl des Modells sowohl einen Einfluss auf die Freiheitsgrade als auch auf die Varianz der Beobachtungswerte. Damit beeinflusst die Modellwahl (z.B. Modell I oder gemischtes Modell bei Mittelwertvergleichen, Modell I oder Modell II bei der Regression) wesentlich die Vorgabe der Genauigkeit und hat daher einen Einfluss auf die Struktur der Stichprobe und deren Umfang. - Art des Tests bei multiplen Vergleichen Die Auswahl der Versuchsanlage ist vom gewählten Test abhängig. Jedoch ist der Einfluss bei den multiplen Mittelwertvergleichen nur gering. Daher kann die Entscheidung auch nach Verfahren 1/21/2020 für alle diese Tests durchgeführt werden. - Auswahl der Merkmale im Versuch Die Entscheidungskriterien werden gewöhnlich nur für ein Merkmal angegeben. Sollen in einem Versuch, wie es sehr oft vorkommt, gleichzeitig mehrere Merkmale untersucht werden (mehrdimensionale Analyse - siehe Abschnitt 4.4.7), so tritt der Fall ein, dass für einige Merkmale die eine Anlage optimal ist und für andere Merkmale eine andere Anlage. Es ist also eine zusätzliche Auswahl nach einem Kriterium unter den optimalen Anlagen oder möglicherweise auch unter anderen Anlagen vorzunehmen. Häufig ist aber ein Merkmal Hauptanliegen der Untersuchung. Dann wird empfohlen, die Versuchsplanung für dieses Merkmal durchzuführen. Mitunter wird der Versuch aber auch für eine Linearkombination der Merkmale (ζ. B. Selektionsindex) geplant. Andererseits kann die Genauigkeit auch "mehrdimensional" definiert sein (ζ. B. Diskrimination mit minimaler Wahrscheinlichkeit für Fehlklassifikation). - Ausfall von Versuchseinheiten während des Versuches Muss bei der Durchführung des Versuches mit dem Ausfall eines größeren Teils der Versuchseinheiten gerechnet werden, so sind Versuchsanlagen, bei denen durch einen solchen Ausfall die Versuchsauswertung erheblich erschwert wird, das sind ζ. B. die balancierten unvollständigen Blockanlagen, nicht zu verwenden, da
92
auch die Genauigkeiten in solchen Fällen stark abnehmen und der Versuch nicht mehr die gewünschte Aussagekraft besitzt bzw. überhaupt nicht mehr auswertbar ist. Neben diesen Gesichtspunkten, die das Auswahlkriterium beeinflussen, gibt es noch andere, die ebenfalls bei der Auswahl der Versuchsanlage berücksichtigt werden müssen. - Soll ein Versuch sequentiell oder klassisch (in einem Schritt) durchgeführt werden? Für sequentielle Versuche sind einige Versuchsanlagen besonders gut geeignet, andere dagegen weniger. Bei der Anwendung von sequentiellen Anlagen ist stets zu prüfen, ob die Bearbeitungszeit nicht zu groß wird. Das ist ein Nachteil solcher Versuche, dem der Vorteil einer geringeren erwarteten Anzahl von Versuchseinheiten bei gleicher Genauigkeit gegenübersteht (Näheres siehe Verfahren 1/21/4900 und die Verfahren im Abschnitt 6.13.6), - Sollen in einen Versuch mehrere Faktoren einbezogen werden (faktorielle Versuche)? Mehrfaktorielle Versuche haben gegenüber einfaktoriellen zwei Vorteile. Einmal kann in vielen Fällen die Wechselwirkung zwischen den Faktoren mit geprüft werden und andererseits wird mit nur geringfügig vergrößerter Anzahl von Versuchseinheiten die Versuchsfrage für alle Faktoren beantwortet. Sie sind allerdings schwerer durchfuhrbar und erfordern eine weitergehende Versuchsplanung als einfaktorielle Versuche (Näheres siehe 1/21/4800). Abschließend soll noch an einem Beispiel der Einfluss einiger Faktoren auf die Auswahl der Versuchsanlage demonstriert werden. Es wurde absichtlich ein kleiner Stichprobenumfang gewählt, um den Einfluss der einzelnen Faktoren deutlich hervorzuheben. Bei größerem η wird der Einfluss geringer. Wir wollen annehmen, dass in einen Versuch η = 9 Versuchseinheiten einbezogen werden können. Drei Behandlungen sind zu prüfen. Zur Versuchsdurchfiihrung mögen nur drei Versuchsanlagen (vollständig randomisierte Versuchsanlage, Blockanlage mit 3 Blocks, lateinisches Quadrat) in Frage kommen. Wir wollen annehmen, dass die unbekannte Varianz in der vollständig randomisierten Λ
Versuchsanlage σ = 1 ist. Durch die Blockbildung wird die Varianz des Merkmals verkleinert, gleichzeitig gehen aber auch Freiheitsgrade verloren. In Tabelle 4 ist angegeben, auf welchen Anteil die Varianz bei einer Blockanlage und einem lateinischen Quadrat sinken müsste, wenn die gleiche Effektivität der drei Anlagen erreicht werden soll. Diese Frage wurde sowohl für die Schätzung als auch für den t-Test untersucht. Zur Berechnung dieser Tabelle wurden die Verfahren 1/21/1020 und 1/21/2020 verwendet. Aus Tabelle 4 ist zu erkennen, dass mit wachsender Genauigkeit der Anteil der Varianz kleiner wird, d. h., es kann sein, dass bei geringer Genauigkeit das lateinische Quadrat zu bevorzugen ist, bei höherer Genauigkeit aber die Blockanlage. Auch der Einfluss der Zielstellung (Test, Schätzung) wird ersichtlich.
93
Tabelle 4: Erforderliche Varianzen einer Blockanlage und eines lateinischen Quadrates relativ zu denen einer vollständig randomisierten Anlage für n=9 und drei Behandlungen nach 1/21/2010 bzw. 1/21/2020.
Konfidenzschätzung α (einseitig) 0,10 0,05 0,025 0,01 t-Test α 0 0,05 0,25 0,05 0,05 0,025 0,10 0,025 0,05
Vollständig Vollständige randomisierte Blockanlage Anlage FG FG