219 80 15MB
German Pages 419 [420] Year 2003
Statistische Methoden in den Wirtschafts- und Sozialwissenschaften Von
Professor Dr Hans Peter Litz Professor für Statistische Methodenlehre und Wirtschaftsstatistik an der Carl von Ossietzky Universität Oldenburg
3., vollständig überarbeitete und erweiterte Auflage
R. Oldenbourg Verlag München Wien
Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliotheic verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
© 2003 Oldenbourg Wissenschaftsverlag GmbH Rosenheimer Straße 145, D-81671 München Telefon: (089) 45051-0 www.oldenbourg-verlag.de Das Werk außerhalb lässig und filmungen
einschließlich aller Abbildungen ist urheberrechtlich geschützt. Jede Verwertung der Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzustrafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverund die Einspeicherung und Bearbeitung in elektronischen Systemen.
Gedruckt auf säure- und chlorfreiem Papier Druck: Grafik + Druck, München Bindung: R. Oldenbourg Graphische Betriebe Binderei GmbH ISBN 3-486-27336-1
Vorwort
Vorwort zur ersten Auflage
die Welt ist die Suppe und das Denken meistens eine Gabel... (nach Harry Mulisch: Die Entdeckung des Himmels)
Erhebung, Aufbereitung, Analyse und Präsentation von statistischen Daten gehören - fast könnte man sagen - seit grauer Vorzeit zu den Gegenständen der wirtschaftsund sozialwissenschaftlichen Methodenausbildung und zu den Basisqualifikationen einer wirtschafts- und sozialwissenschaftlichen Berufstätigkeit. Stehen im Studium meist die formalen Aspekte der Methoden im Vordergrund, sind es in der beruflichen Praxis die inhaltlichen. Doch ist das angemessene inhaltliche Argumentieren in quantitativen Dimensionen nicht umstandslos aus der Kenntnis der formalen Methoden abzuleiten. Die pädagogische Erfahrung zeigt, dass den Studierenden oft weniger die mathematischen Anforderungen - wenn sie sich im Rahmen halten - und die damit verknüpften Rechenschritte Schwierigkeiten bereiten, als die richtige Auswahl der Methoden und die Umsetzung der Ergebnisse in adäquate inhalthche Aussagen über konkrete soziale und ökonomische Sachverhalte. Diese Fähigkeit für die vorgestellten Methoden zu vermitteln, ist das primäre Anliegen des hier vorgelegten Lehrbuchs. Seine Anwendungsorientierung entspricht zwar auch didaktischen Überlegungen, mehr jedoch einem Methodenverständnis, dem zufolge der Status der Statistik über den einer "Hilfswissenschaft" hinausreicht. Der Stellenwert der statistischen Methoden in den Wirtschafts- und Sozialwissenschaften resultiert, wie der Titel signalisiert, daraus, dass die quantitative Deskription und Analyse einen genuinen Teil der Wirtschafts- und Sozialwissenschaften ausmacht. Konkret ergibt er sich jeweils im spezifischen empirisch-statistischen Arbeits- und Forschungsprozess. Da die Objekte der Wirtschafts- und Sozialwissenschaften, die Individuen, ihre Eigenschaften, ihr Handeln und die sozialen und ökonomischen Beziehungen, die sie eingehen, zuerst einmal zu beschreiben sind, bevor von ihnen auf größere Gesamtheiten geschlossen werden kann, folgt das Lehrbuch dem traditionellen Konzept der Einteilung in einen deskriptiven und einen induktiven Methodenteil. Die Methoden selbst werden als formale, quantitative Modelle begriffen, deren adäquate Verwendung die Beachtung einer "Parallelität von Sachlogik und Zahlenlogik" (Flaskämper) erfordert. Dieser Intention ist eine rezeptbuchartige Vermittlung der Methoden nicht angemessen. Ein Methodenverständnis im obigen Sinne richtet den formalen Anspruch einer Methodenlehre darauf aus, die implizite
VI
Vorworl
logische Struktur der statistischen Formeln transparent zu machen und den inhaltliche Anspruch darauf aus, dieser formalen Struktur exemplarisch die logische Struktur einer empirischen Fragestellung gegenüber zu stellen. Die Beispiele beziehen sich meist auf den Datenfundus des Sozio-ökonomischen Panels. Methodenauswahl, formaler Anspruch und Darstellungsform sind auf eine integrierte zweisemestrige Grundausbildung von Studierenden der Wirtschafts- wie der Sozialwissenschaften ausgerichtet und wurden in den vergangenen Jahren in den Veranstaltungen des Verfassers in die aktuelle Form gebracht. Dabei erwiesen sich die unterschiedlichen Interessen und Voraussetzungen der Teilnehmer wie die divergierenden methodischen Akzentsetzungen der Bezugsfächer als fruchtbare konzeptionelle und didaktische Herausforderungen. Für die kritische und anregende Begleitung der Entstehung wie für die praktische Eφrobung des Textes danke ich meiner Kollegin Frau Anabella Weismann und den Herren Lothar Ebben, Jochen Meiners und Klaus Zelder. Femer gilt mein Dank Herrn Hauke Hunger und Herrn Michael Redenius für die Anfertigung der Graphiken und des Tabellenanhangs sowie vor allem Frau Hannelore Oprach, die mit großer Kompetenz, Sorgfalt und Geduld das Manuskript während der gesamten Entstehungsphase betreut hat. Nicht zuletzt bin ich den Tutoren meiner Veranstaltungen für ihre Hilfe bei der Ausformulierung der Übungsaufgaben und bei der Fehlersuche zu Dank veφflichtet. Wenn man dabei auch noch unmittelbar vor der Drucklegung fündig wird, kommt man als Statistiker zu dem Schluss: Der Druckfehler ist das sichere Ereignis schlechthin. Es bleibt nur, den Leser um Nachsicht zu bitten. Herrn Martin Weigert und dem Oldenbourg-Verlag danke ich schließlich für ihre Bereitschaft, das Lehrbuch in ihr Sortiment aufzunehmen und eine schnelle Drucklegung zu ermöglichen.
Vorwort zur dritten Auflage Die dritte Auflage der "Statistischen Methodenlehre" wurde gründlich überarbeitet und ergänzt. So ist der Beispieldatensatz auf das Jahr 2000 aktualisiert. Die monetären Angaben wurden in EUR umgerechnet. Vor allem in Hinblick auf notwendige Grundlagen der multivariaten Statistik wurden in Teil II zusätzlich, wenn auch nur kursorisch, die Poisson-, die Hypergeometrische- und die F-Verteilung behandelt. Hinzu kamen außerdem knappe Darstellung der Differenzentests für Mittel- und Anteilswerte und der Quotiententests für Varianzen.
Vorwort
VII
Wie bereits in der zweiten Auflage erwähnt, sind zum Lehrbuch inzwischen eine Reihe von zusätzUchen Materialien im Netz verfügbar, so z.B. Musterlösungen zu den Aufgaben des Buches, eine Formelsammlung zur deskriptiven Statistik und eine Liste der Errata. Hinzuweisen und dem praxisorientierten Leser für ein Selbststudium nachdrücklich zu empfehlen ist ein Blick auf die "Virtuelle Lehr/Lemplattform" in der Statistik ( ViLeS), die mit inzwischen über 70 z.T. interaktiven Modulen den Stoff der deskriptiven und induktiven Statistik weitgehend abdeckt. Dieses Statistik-Tutorium ist auf den empirisch-statistischen Forschungs- und Informationsprozess ausgerichtet und enthält einen Generator internetbasierter Fragebögen, interaktive Rechenaufgaben mit Ergebniskontrollen und ein Programm zur deskriptiven Auswertung klassierter statistischer Daten. Die Angebote sind unter http://www.uni-oldenburg.de/fb4/vwl2/litz/homepage und/oder unter http://viles.de zu finden. Die Neuauflage verdankt ihre jetzige Form des Rates und der Unterstützung von Kollegen, Mitarbeitern und Studierenden. Meiner Kollegin Frau Anabella Weismann danke ich für die kritische Durchsicht des Textes und für Empfehlungen zur inhaltlichen Gestaltung der Überarbeitung. Die Tutorinnen und Tutoren und die Teilnehmer des Statistik-Grundstudiums haben mit ihren wertvollen Hinweisen und Verbesserangvorschlägen wesentlich zur Überarbeitung beigetragen. Zu besonderem Dank verpflichtet bin ich Herrn Dipl. Ökonom Michael Ebeling für die sorgfältige Erstellung der neuen Graphiken und Herrn stud. rer. ök. Martin Bialek für die redaktionelle Betreuung dieser Auflage. Die Hauptlast der Überarbeitung lag allerdings bei Frau Hannelore Oprach, die wie schon bei der ersten Auflage, den Text mit großer Geduld und Genauigkeit in die neue Fassung gebracht hat. Nicht zuletzt gilt mein Dank dem Oldenbourg-Verlag und Herrn Martin Weigert für die Bereitschaft, diese Methodenlehre wieder aufzulegen.
Hans Peter Litz
Inhaltsverzeichnis
IX
Inhaltsverzeichnis Einführung
1
Teill Konzeptionelle Grundlagen und statistische Deskription A Methodologische Aspekte und messtheoretische Voraussetzungen 1 Überlegungen zur Anwendungslogik statistischer Verfahren 1.1 1.2 1.3 1.4 1.5 1.6 1.7
Statistik: Verfahrensweise oder Ergebnis? Statistik: Methode oder Modell? Statistik: Hilfswissenschaft oder Komponente eines empirischen Forschungsprozesses? Die logische Struktur des empirisch-statistischen Modells Exkurs: Übersicht über ausgewählte Lehrbücher zur deskriptiven und induktiven Statistik Exkurs: Das Rechnen mit dem Summenzeichen Übungsaufgaben
2 Elemente statistischer Modelle und ihre Erfassung 2.1 2.2 2.3 2.4
4 4 4 5 12 22 25 27 28
30
Die statistischen Erhebungs- bzw. Untersuchungsmassen und ihre Elemente 31 Statistische Merkmale und Merkmalsausprägungen 33 Das Messen der statistischen Merkmalsausprägungen 34 Übungsaufgaben 42
В Eindimensionale Häuflgkeiten und ihre statistische Bearbeitung
44
3 Die Aufbereitung der statistischen Daten
44
3.1 3.2 3.3
Signier-und Plausibilitätskontrollen Die Grundauszählung Die tabellarische Darstellung der Daten 3.3.1 Die Klassierung der Daten 3.3.2 Die Kumulation der Daten 3.4 Die graphische Darstellung der Daten 3.4.1 Aufgaben und Formen der statistischen Graphik 3.4.2 Stab-, Kreis-und Balkendiagramm 3.4.3 Das Histogramm 3.4.4 Das Liniendiagramm 3.4.5 Treppenfunktion und Summenpolygon 3.4.6 Beispiele fehlerhafter statistischer Graphiken 3.5 Übungsaufgaben
4 Die Maßzahlen der zentralen Tendenz (Mittelwerte/Lokalisationsparameter) 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8
Die allgemeine Bedeutung statistischer Maßzahlen Lagetypische Mittelwerte: Der Modus Lagetypische Mittelwerte: Der Median Rechnerische Mittelwerte: Das arithmetische Mittel Modus, Median und arithmetisches Mittel im Vergleich Probleme der Mittelung von abgeleiteten Merkmalsausprägungen Rechnerische Mittelwerte: Das harmonische, das geometrische und das quadratische Mittel Übungsaufgaben
44 45 50 50 55 58 58 61 62 64 67 70 73
76 76 77 80 83 85 88 90 93
Inhaltsverzeichnis
5 Die statistischen Streuungsmaße (Dispersionsparameter) 5.1 Lagetypische Streuungsmaße: Spannweite und Quartilsabstände 5.2 Die graphische Darstellung lagetypischer Streuungsparameter (Boxplots) 5.3 Rechnerische Streuungsmaße: Die mittlere absolute Abweichung, die Varianz und die Standardabweichung 5.4 Relative Streuung und Schiefe 5.5 Übungsaufgaben
096 096 099 100 102 104
6 Die statistischen Konzentrationsmaße 6.1 Konzepte der graphischen und rechnerischen Konzentrationsanalyse .. 6.2 Die statistische Analyse der relativen Konzentration: Lorenz-Kurve und Gini-Koeffizient 6.3 Die statistische Analyse der absoluten Konzentration: Konzentrationskurve, Indizes von Rosenbluth und Herfindahl 6.4 Übungsaufgaben
106 106
С Zweidimensionale Häufigkeiten u n d ihre statistische Bearbeitung
120
7 Modelle der Abhängigkeit und Unabhängigkeit von statistischen Variablen 7.1 Kausale und statistische Zusammenhänge (Definitionen) 7.2 Korrespondenz von kausalen und statistischen Zusammenhängen 7.3 Die tabellarische und graphische Darstellung zweidimensionaler Häufigkeitsverteilungen 7.4 Die Typisierung statistischer Zusammenhänge 7.5 Statistische Unabhängigkeit 7.6 Logik und Konstruktionsprinzipien statistischer Zusammenhangsmaße 7.7 Übungsaufgaben
108 113 119
120 120 121 123 129 130 132 133
8 Z u s a m m e n h a n g s m a ß e f ü r nominalskalierte Variablen 8.1 Die Kontingenz-und Indifferenztabelle 8.2 Das Kontingenzmaß Chi-Quadrat (χ^) 8.3 Zusammenhangsmaße auf der Basis von χ^ 8.4 Die PRE-Maße von Goodman und Kruskal 8.5 Übungsaufgaben
135 135 136 138 141 143
9 Z u s a m m e n h a n g s m a ß e f ü r ordinalskalierte Daten 9.1 Maße auf der Basis des Paarvergleichs (Konkordanzmaße) 9.1.1 Konkordante und diskordante Paare 9.1.2 Das Problem der "Ties" 9.1.3 Konstruktionsmöglichkeiten für Konkordanzmaße 9.2 Maßzahl auf der Basis des Rangvergleichs 9.2.1 Der Rangkorrelationskoeffizient nach Spearman ( r j 9.2.2 Verwendbarkeit des Rangkorrelationskoeffizienten 9.3 Übungsaufgaben
144 144 144 146 148 153 153 155 157
10 Z u s a m m e n h a n g s m a ß e f ü r metrisch skalierte Daten 10.1 Art und Stärke des Zusammenhangs 10.2 Das Regressionsmodell 10.2.1 Die Wahl des Modelltyps 10.2.2 Das einfache lineare Regressionsmodell 10.2.3 Die Methode der kleinsten (Fehler-)Quadrate 10.3 Das Korrelationsmodell 10.3.1 Der Korrelationskoeffizient nach Bravais-Pearson (r) 10.3.2 Der Determinationskoeffizient (r^)
159 159 160 160 161 162 166 166 169
Inhaltsverzeichnis
10.4
Übungsaufgaben
172
11 Grenzen und Erweiterungen der einfachen Analyse zweidimensionaler Verteilungen 11.1 11.2 11.3 11.4
Stellenwert und Grenzen der bisher behandelten Modelle Regressionsmodelle mit einer nicht-metrischen (dichotomen) Variablen Regressionsmodelle mit mehreren unabhängigen Variablen Nichtlineare Regressionsmodelle
12 Indexziffern 12.1 12.2 12.3 12.4 12.5 12.6 12.7 12.8 12.9
XI
175 175 177 179 182
184
Problemstellung Messziffernreihen und Volumenindizes Mengenindizes nach Laspeyres und Paasche Preisindizes nach Laspeyres und Paasche Indexzusammenhänge und "ideale" Indexkonstruktionen Das Problem der Deflationierung Verkettung und Umbasierung von Indexreihen Kaufkraftparitäten und "Terms of Trade" Übungsaufgaben
184 185 186 188 192 193 195 197 198
Teil II Wahrscheinlichkeitstheoretische Grundlagen und statistische Induktion Vorbemerkungen
201
A Wahrscheinlichkeitsrechnung und Wahrscheinlichkeitsverteilungen
206
1 Zufallsexperimente und Zufallsereignisse 1.1 Der Begriff des Zufalls und des Zufallsexperiments 1.2 Ereignisse und Ereignisoperationen 1.3 Übungsaufgaben
206 206 207 214
2 Begriffe und Operationen der Wahrscheinlichkeitsrechnung 2.1 Konzepte und Definitionen der Wahrscheinlichkeit 2.1.1 Die klassische objektive Wahrscheinlichkeit 2.1.2 Die statistische objektive Wahrscheinlichkeit 2.1.3 Die subjektive Wahrscheinlichkeit 2.2 Die axiomatische Definition der Wahrscheinlichkeit 2.3 Der Begriff der bedingten Wahrscheinlichkeit und die Unabhängigkeit von Ereignissen 2.4 Die Wahrscheinlichkeit des gemeinsamen Auftretens von Ereignissen 2.5 Das Theorem der totalen Wahrscheinlichkeit und der Satz von Bayes 2.6 Übungsaufgaben
216 216 216 217 219 219
3 Grundzüge der Kombinatorik 3.1 Ansätze und Aufgabenstellungen der Kombinatorik 3.2 Permutationen 3.3 Variationen mit Wiederholung 3.4 Variationen ohne Wiederholung 3.5 Stichproben ohne Zurücklegen 3.6 Stichproben mit Zurücklegen 3.7 Permutationen von и Elementen mit к und η - к gleichen Elementen 3.8 Formeln zur Kombinatorik 3.9 Übungsaufgaben
235 235 236 236 238 238 240 240 241 242
221 224 227 231
XII
Inhaltsverzeichnis
4 Zufallsvariablen und ihre Verteilungen 4.1 Der Begriff der Zufallsvariablen und der Wahrscheinlichkeitsfunktion 4.2 Wahrscheinlichkeits- und Verteilungsfunktion für diskrete Zufallsvariablen 4.3 Wahrscheinlichkeits- und Verteilungsfunktion für stetige Zufallsvariablen 4.4 Übungsaufgaben
243 243
5 Theoretische Verteilungen
257
5.1
Die Binomial Verteilung
5.1.1 5.1.2 5.1.3
Definition des Bernoulli-Experiments Entwicklung der Binomialverteilung Die Wahrscheinlichkeits- und Verteilungsfunktion der Binomialverteilung 5.1.4 Erwartungswert und Varianz der Binomialverteilung 5.1.5 Übungsaufgaben 5.2 Die Hypergeometrische Verteilung und die Poisson-Verteilung 5.2.1 Die Hypergeometrische Verteilung 5.2.2 Die Poisson-Verteilung 5.3 Die Normal Verteilung 5.3.1 Vorbemerkungen 5.3.2 Die Standardnormalverteilung 5.3.3 Die allgemeine Form der Normalverteilung 5.3.4 Die Standardisierung beliebiger Normalverteilungen 5.3.5 Übungsaufgaben 5.4 Die Approximation der Binomialverteilung durch die Normalverteilung 5.5 Die Reproduktionseigenschaft der Normalverteilung 5.6 Übungsaufgaben 5.7 Die χ^ Verteilung 5.7.1 Die allgemeine Form der χ^ - Verteilung 5.7.2 Tabellierung der χ^ - Verteilung und Approximation durch die Normalverteilung 5.7.3 Übungsaufgaben 5.5 Die t - Verteilung 5.8.1 Die allgemeine Form der t - Verteilung 5.8.2 Tabellierung der t - Verteilung und Approximation durch die Standardnormalverteilung 5.8.3 Übungsaufgaben 5.6 Die F - Verteilung 5.7 Im Übergang von der Wahrscheinlichkeitstheorie zur induktiven Statistik: Abschätzungen und Grenzwertsätze
246 250 255 257
258 259 261 264 266 267 267 267 268 268 269 272 274 276 278 281 283 284 284 286 289 290 290 292 293 294 294
В Schließende Statistik
301
Vorbemerkungen
301
6 Stichprobenverteilungen 6.1 Der Begriff der Stichprobenverteilung ^ 6.2 Die Stichprobenverteilung des arithmetischen Mittels X,
303 303 310
6.2.1 6.2.2 6.2.3 6.2.4
Die Verteilung der X, Der Mittelwert μ^ und die Standardabweichung Oy Der Endlichkeitsfaktor Übungsaufgaben
310 311 313 314
XIII
Inhaltsverzeichnis
6.3
Die Stichprobenverteilung der modifizierten Varianz
σ
sf
315
6.3.1
Das Konzept der erwartungstreuen Standardabweichung s,
315
6.3.2
Die Verteilung der modifizierten Varianz ^
317
6.3.3
Übungsaufgaben
· i-
^
319
6.4
Die Stichprobenverteilung der X¡ bei unbekanntem σ
320
6.5
Die Stichprobenverteilung der p,
320
6.5.1 Die Stichprobenverteilung von k bei 6.5.2 Die Stichprobenverteilung von ρ bei 6.6 Übersicht über die Stichprobenverteilungen 6.7 Übungsaufgaben
η · π( 1 - π) < 9 η · π(1 - π) > 9
7 Der Hypothesentest 7.1 Konstruktionsprinzipien des Hypothesentests Hypothesen, Stichproben und Stichprobenverteilungen Annahme- und Ablehnungsbereich einer Hypothese Statistische Ableitung der Zurückweisungspunkte 7.2 Statistische Formeln für den Hypothesentest 7.2.1 Test des Parameters μο 7.2.2 Übungsaufgaben 7.2.3 Test des Parameters πο 7.3.4 Übungsaufgaben 7.3.5 Test des Parameters c^ bei normalverteilter Grundgesamtheit 7.2.6 Übungsaufgaben 7.3
Der χ^ - Anpassungs- und Unabhängigkeitstest 7.3.1 Der Anpassungstest 7.3.2 Der Unabhängigkeitstest 7.3.3 Übungsaufgaben 7.4 Zwei-Stichproben-Tests von Differenzen und Verhältnissen von Parametern 7.4.1 Test der Differenz zweier Mittelwerte 7.4.2 Test der Differenz zweier Anteilswerte 7.5 Weiterführende Überlegungen; die Kontrolle des β - Fehlers 7.5.1 Die Logik des β - Fehlers 7.5.2 Die Gütefunktion des Tests 7.5.3 β - Fehler und Stichprobenumfang
8 D a s S c h ä t z e n v o n P a r a m e t e r n der G r u n d g e s a m t h e i t 8.1 Die Punktschätzung 8.1.1 Kriterien: Erwartungstreue, Konsistenz und Effizienz 8.1.2 Verfahren: Die Maximum-Likelihood-Methode 8.2 Die Intervallschätzungen 8.2.1 Der Konfidenzbereich für die Schätzung 8.2.2 Statistische Formeln für die Parameterschätzung 8.2.2.1 Konfidenzbereiche für μ 8.2.2.2 Konfidenzbereich für σ^ 8.2.2.3 Konfidenzbereich für π 8.3 Übersichtstabelle zu den Test- und Schätz verfahren 8.4 Maximaler Schätzfehler und Stichprobengröße 8.5 Übungaufgaben
320 321 323 326 327 327 328 329 334 337 338 340 340 342 343 346 346 346 348 350 350 351 353 354 354 356 357 360 360 361 362 366 368 370 370 371 372 373 376 378
XIV
Inhaltsverzeichnis
9 Tabellenanhang 9.1 ВinomialVerteilung - Wahrscheinlichkeitsfunktion 9.2 Standardnormalverteilung - Dichtefunktion für Zo ^ 0 9.3 Standardnormalverteilung - Randwahrscheinlichkeiten 1 - F(zo) für Zo>0 9.4
Z^ und Z;y2 - Werte für gängige Signifikanzniveaus Oo und Konfi-
9.5
denzniveaus (1-Oo) χ^ - Verteilung - Randwahrscheinlichkeiten 1 - F ( x ^
9.6
t - Verteilung - Randwahrscheinlichkeiten 1 - F{Q für f j > 0
9.7
F - Verteilung - Randwahrscheinlichkeiten 1 -
9.7.1 Graphische Darstellung der F - Verteilung 9.7.2 Tabellen zur F - Verteilung 9.8 Das griechische Alphabet
380 380 384 386
387 388 390 392 392 392 397
Literaturverzeichnis
398
Stichwortverzeichnis
401
Einführung
Einführung Vermutlich werden viele Leser, die dieses Buch aufschlagen, dies eher mit Skepsis und Vorbehalten tun, als mit gespannter Neugierde auf einen neuen und anregenden Wissenszweig. Gilt doch Statistik weithin als langweilig, trocken und seiner mathematischen Methoden wegen als schwierig. Das verbreitete Vorurteil von der Statistik als höherer Form der Lüge oder ein oft artikuliertes Unbehagen angesichts des wachsenden Datenmülls bestärken diese Haltung ebenso wie eine nur formale, wenig problemorientierte Darstellung der statistischen Methoden in manchen Lehrbüchern. Statistik ist eine Sprache, in der mit numerischen oder graphischen Mitteln Aussagen über quantitative soziale, ökonomische, technische oder naturwissenschaftliche Sachverhalte gemacht werden. Wie in jeder Sprache kann man auch in der statistischen lügen. Wie bei jeder Sprache braucht es das Verständnis der Sprache sowohl auf der Seite des eine Botschaft Aussendenden wie auf der Seite des Empfangenden. Wieso aber sollte man diese neue Sprache lernen? Die am wenigsten tauglichen Begründungen sind die: Weil es in den Lehrplänen steht oder weil man sie beherrschen muss, wenn man mitreden will. Eine neue Sprache zu lernen, ist nur dann sinnvoll, wenn man mit ihr Sachverhalte besser ausdrücken kann als in einer bisher geläufigen Sprache. Diesen Anspruch erhebt allerdings die Statistik. Jedoch sollten die Statistiker häufiger einräumen, dass sich auch vieles gar nicht oder nur schlechter in ihrer Sprache beschreiben lässt. Viele ökonomische und soziale Phänomene jedoch wären ohne ihre quantitativen Dimensionen in ihrer gesellschaftlichen Bedeutung nicht zu erfassen und die Statistik ist der dafür adäquate, sprachliche Ausdruck. Nehmen wir als Beispiel die soziale und ökonomische Relevanz der Arbeitslosigkeit. Diese Relevanz wird nicht bestimmt von unserer sinnlicher Wahrnehmung der Arbeitslosigkeit in der Öffentlichkeit oder im Bekannten- und Freundeskreis. Sie resultiert ausschließlich und seit langem aus den monatlichen Zahlen der Bundesanstalt für Arbeit, und zwar unabhängig davon, ob diese Zahlen als richtig einzuschätzen sind. Dass diese Statistiken umstritten sind, zeigt andererseits, dass die Sprache der Zahlen nicht immer problemlos anzuwenden ist. Auf der anderen Seite sollte man es nicht der statistischen Sprache anlasten, wenn sie zur Legitimierung wirtschafts- und sozialpolitischen Handelns verwandt wird. Dass dies geschieht, macht es geradezu notwendig, die Sprache selbst zu verstehen, um zwischen der Aussage über die Realität und der Interessenorientiertheit dieser Aussage unterscheiden zu können.
Einführung
Ein Kollege hat vor einigen Jahren ein Statistik-Buch mit dem Titel geschrieben: "So lügt man mit Statistik" in dem er auf sehr unterhaltsame Weise anhand von vielen Beispielen auf die Fallstricke einer dilettantischen Anwendung der statistischen Methode hinweist. Vielleicht ließe sich aus einer systematischen Analyse der Fälle die Struktur der statistischen Lüge destillieren. Der direktere Weg zum richtigen Einsatz der statistischen Methoden geht jedoch über die Frage: Wie sagt man mit der Statistik die Wahrheit? Mit dieser Frage wird ein erkenntnistheoretisches und methodologisches Problem aufgeworfen, das eine nur formal ausgerichtete Methodenlehre nicht lösen kann, weil die Frage nach der Wahrheit das Verhältnis von Methode und Inhalt betrifft. Eine sach- und problemorientierte Annäherung an die statistischen Methoden empfiehlt sich darüber hinaus auch aus didaktischen Überlegungen. Andererseits muss eine Methodenlehre systematisch aufgebaut sein und kann nicht ganz ohne die formale Ableitung der statistischen Formeln auskommen - schließlich ist die Zahlenlogik ein zentraler Bestandteil der Formel. Aus dieser widersprüchlichen Zielsetzung heraus müssen bisweilen die sogenannten mathematisch-statistischen Grundlagen präsentiert werden, ohne dass bereits klar ist, welche Probleme damit gelöst werden können. Umgekehrt wird bei der Diskussion methodologischer Prinzipien manchmal auf methodische Aspekte vorgegriffen, bevor die Methoden ausführlich behandelt sind. So empfiehlt es sich, den nächsten Abschnitt zweimal zu lesen: Zu Beginn, um eine erste Orientierung über die Anwendungsproblematik der statistischen Methoden zu erhalten, und am Ende des ersten Teils, um sich das komplexe Verhältnis zwischen Inhalt und Methode noch klarer machen zu können.
1)
Walter Krämer: So lügt man mit Statistik, Frankfurt/M., 1994.
Teil I
Konzeptionelle Grundlagen und statistische Deskription
Teil I: Grundlagen und statistische
Deskription
A
Methodologische Aspekte und messtheoretische Voraussetzungen
1
Überlegungen zur Anwendungslogik statistischer Verfahren
1.1 Statistik: Verfahrensweise oder Ergebnis? Geht man von der umgangssprachlichen Bedeutung des Begri№ "Statistik" aus, so wird man unmittelbar auf den angesprochenen Zusammenhang von statistischer Methode und inhaltlicher statistischer Aussage verwiesen: Im Alltag, wie auch nach wissenschaftlichem Verständnis meint Statistik sowohl eine graphische oder numerische, oft tabellarische Darstellung realer quantitativer Sachverhalte wie den Kanon der Statistischen Methoden, letzteres z.B. bei der Bezeichnung des Faches oder der Betitelung eines Lehrbuchs. Das Dilemma der Statistik besteht darin, dass bei der Beschäftigung mit einem Aspekt oft der jeweils andere Aspekt aus dem Auge verloren geht. Den Tabellen, Zahlen und Graphiken sieht man nicht mehr an, mit welchen Methoden sie entwickelt wurden. Und den Formeln und Rechenverfahren ist es vollkommen gleichgültig, mit welchen Ausgangsdaten sie gefüttert wurden. Die EDV mit ihren Statistik-Analyse-Paketen hat dieses Dilemma noch verschärft, indem sozusagen per Knopfdruck eine Unmenge z.T. höchst komplexer Rechenprozeduren veranlasst werden und der Benutzer dann seinem Schicksal, der Durchforstung und Interpretation der Ergebnisse überlassen wird. Ohne genaue Kenntnis der Methoden ist damit jeder empirisch arbeitende Wirtschafts- und Sozialwissenschaftler hoffnungslos überfordert. (·)
Die Frage nach der Wahrheit einer statistischen Aussage umfasst ihre formale Richtigkeit und ihre inhaltliche Angemessenheit. Die formal richtige Anwendung der Methoden impliziert die Beachtung der formalen Zulässigkeit der Methoden, ihre rechenfehlerfreie Anwendung und u.U. die angemessene geometrische Umsetzung des statistischen Resultats in eine graphische Darstellung. Die inhaltliche Angemessenheit der Methode berührt das Verhältnis der gewählten statistischen Methode zu ihrem empirischen Gegenstand.
Die Adäquatheit einer statistischen Methode resultiert aus der Korrespondenz zwischen der einer statistischen Methode inhärenten Zahlenlogik und der dem zu untersuchenden Objekt innewohnenden Sachlogik. Dieser auf Flaskämper
1)
z.B. S P S S (früher: Statistical Paclcage for Social Sciences, heute: Superior P e r f o r m a n c e S o f t w a r e ) oder S A S (Statistical Analysis System) b z w . B M D P (Biomedical C o m p u t e r Programs). G r u n d k u r s e in diesen V e r f a h r e n gehören inzwischen zur Standardausbildung in den Wirtschafts- und Sozialwissenschaften.
2)
Paul Flaskämper: Beitrag zur Logik der statistischen Mittelwerte, in: Allg. Stat. Archiv, Bd. 21, 1931.
A: Methodologische
Aspekte
zurückgehende Aspekt der "Parallelität von Sach- und Zahlenlogik" in der angewandten Statistik unterscheidet diese von der formalen Statistik als Teil der Mathematik. Der Grundgedanke, dass statistische Methoden nur dann empirische Objekte " erfahrbar machen, wenn sie deren sachliche Strukturen erschließen, weist den inhaltlichen Bezügen der Methode einen über die bloßen Anwendungsbeispiele hinausgehenden Status zu. Statistische Ergebnisse sind zuerst einmal nur Zahlen, die an sich überhaupt nichts aussagen. Ihre empirische Bedeutung gewinnen sie erst über ihre Interpretation. Und diese wird um so schwieriger, j e komplexer der sie erzeugende statistische Algorithmus ist. Somit besteht die eigentliche Schwierigkeit im Umgang mit der Statistik in der Interpretation ihrer Ergebnisse und nur zum geringen Teil, zumindest in dieser Einführung, in ihrem formalen, d.h. mathematischen Anspekt. Die hier postulierte logische Verknüpfung von Inhalt und Methode scheint mir grundlegend für eine statistische Methodenlehre vor allem, wenn das Anwendungsgebiet die Wirtschafts- und Sozialwissenschaften sind. Im Gegensatz zu den Naturwissenschaften, deren Objekte sich dem Statistiker in ihrer "naturgesetzlichen Konstanz" präsentieren, konstituieren sich in den Wirtschafts- und Sozialwissenschaften die Forschungsobjekte in ihrer Sinnhaftigkeit jeweils neu, auch im statistischen Erfahrungsprozess. Dieser Gedanke Max Webers
prägt innerhalb des
empirisch-statistischen Forschungsprozesses nicht nur die eigentliche Erhebungsphase, sondern bereits die Erarbeitung der statistischen Fragestellung aus einem inhaltlichen, theoretisch-empirischen (Adäquations-)problem 1.2
Statistik: Methode oder Modell?
Um der Gefahr der Verselbständigung der Ergebnisse gegenüber den ihnen zugrundeliegenden Methoden vorzubeugen, ist es notwendig, von einem Alltagsverständnis des Begriffs "Methode" Abstand zu nehmen. Bei Kriz
findet sich ein
schönes Beispiel dafür, was statistische Methoden nicht sind, nämlich alternativ zur Verfügung stehende Verfahrensweisen, die alle zum gleichen Ziel führen. Wenn
1)
Empirie (griechisch): "Erfahrang".
2)
Max Weber: Die "Objektivität" sozialwissenschaftlicher und sozialpolitischer Erkenntnis, in: M. Weber, Gesammelte Aufsätze zur Wissenschaftslehre, 3. Aufl., Tübingen 1968, insbes. S, 170 ff.
3)
vgl. dazu S. 16 ff.
4)
Jürgen Kriz: Statistik in den Sozialwissenschaften, Hamburg, 1973, S. 23 ff.
6
Teil I: Grundlagen
und statistische
Deskription
ich die beste (kostengünstigste oder zeitoptimale) Methode suche, um zum Bahnhof zu kommen, ob mit dem Fahrrad, dem Auto oder zu Fuß, setze ich immer voraus, dass ich zum Bahnhof gelange. (·)
Wenn man zwischen verschiedenen statistischen Methoden der Berechnung eines Mittelwertes, etwa für eine Einkommensverteilung wählt, erhält man jeweils unterschiedliche Ergebnisse, die jeweils etwas anderes aussagen. Es wäre deshalb sinnvoller, nicht von statistischen Methoden zu sprechen, sondern von statistischen Modellen, obwohl dies meist nicht gemacht wird. Auch im Folgenden wird der Begriff der statistischen Methode weiterverwendet, allerdings im Sinne eines statistischen Modells.
Der Begriff des Modells stammt aus der Technik und kennzeichnet dort das Abbild eines realen Gegenstandes, das bis auf die Merkmale, die für die konkrete Untersuchung von Bedeutung sind, in nichts mehr dem ursprünglichen Gegenstand entspricht. Diese im Modell abgebildeten Merkmale sollen dann allerdings vollständig im Modell präsent sein. So kommt es bei Windkanalversuchen auf keines der Wesensmerkmale eines PKWs an, außer auf seine Strömungseigenschaft. Diese sollen im Modell aber vollkommen der eines realen PKWs entsprechen. Das gleiche Prinzip gilt für Crash-Versuche oder andere Tests, die zur Entwicklung einer KFZ-Serie durchgeführt werden: Jedes Problem wird über ein eigenes Modell bearbeitet. Die Qualität eines Modells ist unter zwei Aspekten zu beurteilen: a) Ist das Modell adäquat bzw. "gültig"?, d.h. lässt sich mit ihm das gestellte Problem lösen? und b) 1st das Modell effizient, d.h. werden die Eigenschaften des Objekts genau wiedergegeben? Es gibt also Modelle unterschiedlicher Adäquanz und unterschiedlicher Effizienz, inhaltlich richtige oder falsche statistische Methoden gibt es nicht. Dass statistische Methoden allerdings aus formalem Grund falsch sein können, werden wir später sehen. Wie dieser Modellgedanke auf die Statistik übertragen wird, soll anhand zweier Beispiele verdeutlicht werden. Wir beginnen mit dem Modellcharakter statistischer Graphiken. Stellen wir uns dazu vor, in X-Dorf wolle der Gemeinderat einen Überblick über die Alters- und Geschlechtsstruktur ihres Dorfes erhalten, etwa um eine Entscheidung darüber treffen zu können, ob die Schule vergrößert werden müsse. Also ordnete er an, dass sich alle Bürger zu einem bestimmten Zeitpunkt auf dem Fußballplatz einzufinden haben. Dann würden links und rechts der Mittellinie die Kinderwagen der Säuglinge von 0 bis 1 Jahr aufgereiht, und zwar rechts die der Jungen und links die der Mädchen. In die folgende Reihe kämen die
A: Methodologische Aspekte
Buggies der 1 bis unter 2jährigen. In der dritten Reihe stünden die 2 bis unter 3jährigen usw., bis sich die gesamte Bevölkerung entlang der Mittellinie altersmäßig gruppiert hätte. Der Gemeinderat säße auf der Tribüne und sähe vor sich eine Ansammlung von Menschen in Form einer nicht ganz gleichmäßigen Pyramide. Er könnte auf einen Blick feststellen, daß die 0 - 6jährigen zahlenmäßig nicht stärker vertreten wären als die 6 - 12jährigen und somit eine Erweiterung der Schule überflüssig. Darüber hinaus könnte ihm auffallen, dass die 20 - 40jährigen Männer im Vergleich zu den gleichaltrigen Frauen, aber auch zu den anderen Altersgruppen, unterrepräsentiert wären usw. usf. Vergleicht man den gedachten optischen Eindruck der auf dem Platz versammelten Menschen mit der graphischen Darstellung, die die Statistik zur demographischen Struktur liefert, so ist deren modellhafte Analogie unmittelbar einleuchtend. In den Abbildungen 1.1 und 1.2 sehen wir sog. Bevölkerungspyramiden, d.h. graphische Darstellungen von aufeinander liegenden Säulen gleicher Breite, deren unterschiedliche Länge den zahlenmäßigen Umfang der Bevölkerung einer Altersklasse darstellt, wobei die Юа85еп im Alter von unten nach oben zunehmen und nach Geschlecht aufgeteilt wurden. Abbildung 1.1:
Altersaufbau der Wohnbevölkerung im deutschen Reich 1910 Q u e l l e : S i o t i s H s c h e s J o h r b u A f ü r äas
D e u t s c h e Heieft, 1913, S .
S-9
t U i r in Jahrn
il HlHEI
^t J
bluUtne' d«
*riisH|H7l)/71
J
70
\
Fimi % JnuMtlWKlul
)
/ GiburtmüusfaU bi K f i « ^ . M 7 n ; 7 1
№
to 50 IO
r ^
10
го
\
10 [^и 600 s^ Ш 300
m
100 0 100 zoo 300 100
SOO
EOO
700
Ш 0 ¡1 lltirsialir
Quelle:
Statistisches Jahrbuch 1913, S. 8 f (Daten); RolfWagenführ: Wirtschaftsund Sozialstatistik, Band 1, Freiburg 1970, S. 37 (Graphik).
8
Teil I: Grundlagen und slalislische Deskriplion
Diese Graphiken stellen maßstabsgetreue Modelle einer alters- und geschlechtsspezifisch geordneten Bevölkerung dar und erfüllen auf einfache Weise den gleichen Zweck wie die tatsächliche Versammlung und Ordnung einer Bevölkerung auf einem Areal. Abbildung 1.2:
Altersaufbau der Wohnbevölkerung der Bundesrepublik Deutschland am 31.12.1999
Altersaufbau der Bevölkerung Deutschlands am 31.12.1999
8Ш«11СПмвт]СМ>Т112Ш1 -01 -озое
Quelle: Statistisches Bundesamt (Hrsg.): Statistisches Jahrbuch 2001, Wiesbaden 2001, S. 55
A: Methodologische
Aspekle
Zwar sprechen die meisten Abbildungen erst einmal für sich, doch aussagefähiger werden sie im Vergleich. Stellt man die Bevölkerungs"pyramide" zum Jahrtausendende neben die des Jahres 1910, so fällt sofort ihre Asymmetrie und die Gebrochenheit des Umrisses auf. Die in die Graphik eingearbeiteten Verweise erschließen als Ursache der Zerstörung des klaren pyramidalen Aufbaus der Bevölkerung die demographischen Katastrophen dieses abgeschlossenen Jahrhunderts in Form von Wirtschaftskrisen und Weltkriegen, die in keinem Verhältnis stehen etwa zu den Krisen und Kriegen des vorangegangenen Jahrhunderts. Diese Sachverhalte 'im Prinzip' zu wissen und sie auf derart drastische Weise in ihrem Ausmaß und in ihrer Nachhaltigkeit vor Augen geführt zu bekommen, sind - denke ich - zweierlei Dinge. Der pyramidale Aufbau von 1910 und der eher glockenförmige von 1999 verweisen darüber hinaus auf die tiefgreifenden demographischen Umbrüche dieses Jahrhunderts. Während die Graphik für das Jahr 1910 durch eine konstante Reduktion der Altersjahrgänge mit zunehmendem Alter gekennzeichnet ist, d.h. auch, dass Sterblichkeit zur damaligen Erfahrung eines jeden Jahrgangs gehörte, scheint die Bevölkerungs"pyramide" der Zukunft aufgrund stark reduzierter Sterbequoten in den jungen und mittleren Jahrgängen eher die Form einer Glocke oder eines Kegels anzunehmen, so dass der Begriff der Bevölkerungspyramide selbst schon fast überholt ist. Sicher geben die Graphiken Anlass zu weiteren Inteφretationen und demographischen Analysen. An dieser Stelle sollte jedoch nur der Modellcharakter einer statistischen Graphik und deren Aussagekraft verdeutlicht werden. Verfehlt wäre es auf jeden Fall einer bestimmten Form der Bevölkerungspyramide eine normative Bedeutung zuzuweisen. Das Herausarbeiten und Sichtbarmachen der Struktur "auf einen Blick" ist die wesentliche Leistung einer statistischen Graphik, das Lesen und 1п1ефге11егеп die vom Betrachter geforderte Leistung. Statistik bedeutet immer Reduktion und Konzentration von Information. Oft ist das Konzentrat der Information selbst ungenießbar und muss durch Erläuterungen, Inteφretationen und Analysen verbal so aufbereitet (verdünnt) werden, dass es aufgenommen werden kann. Gleichzeitig bedeutet Konzentration das Herausarbeiten und Sichtbarmachen des Wesentlichen. Gelingt dies im statistischen Bearbeitungsprozess von Informationen, dann lügt die Statistik nicht sondern spricht die Wahrheit, im günstigsten Fall klarer und unmittelbarer als eine andere Sprache. An einem zweiten Beispiel soll nun die Modellogik statistischer Maßzahlen plausibel gemacht werden. Diesmal stellen wir uns ein spanisches Fischerdorf vor.
1о
Teil I: Grundlagen und statistische
Deskription
für das die Einkommensverhältnisse untersucht werden sollen. In dem Dorf leben etwa 200 Fischer- und Bauemfamilien und einige gutbetuchte Pensionäre in ihren Ferienvillen. Wenn wir die Einkommenssituation des Dorfes auf den Nenner einer einzigen statistischen Zahl bringen wollen, und das ist sinnvoll, wenn wir dieses Dorf mit vielen anderen vergleichen wollen, dann bietet uns die Statistik die folgenden Maßzahlen der zentralen Tendenz, umgangssprachlich die Mittelwerte an: -
das arithmetische Mittel, d.h. das rechnerische Durchschnittseinkommen, wie es auch im Alltag benutzt wird,
- den Modus, d.h. den Einkommenswert, der am häufigsten festgestellt wird, und schließlich - den Median, d.h. das Einkommen, das die nach Einkommen geordneten Haushalte in zwei zahlmäßig gleich großen Gruppen aufteilt, in die Haushalte, die mehr und in die Haushalte, die weniger als dieser Median verdienen. Von Ausnahmefällen abgesehen, wird jeder der Mittelwerte ein anderes Ergebnis erbringen. Die Frage nach dem "richtigen" Mittelwert ist für dieses Beispiel müßig, bei anderen Daten kann die Verwendung eines der Mittelwerte jedoch durchaus aus formalen Gründen falsch sein. Es kommt vielmehr darauf an, den Mittelwert zur Charakterisierung des dörflichen Einkommens heranzuziehen, der die problemrelevanten Informationen in sich bündelt. Damit ist die Entscheidung über die Angemessenheit eines Mittelwerts der Kompetenz des "reinen Statistikers" entzogen und dem Fachwissenschaftler, d.h. dem Wirtschafts- und Sozialwissenschaftler überantwortet. Die Entscheidung hängt dann ab von den Gründen des Einkommens Vergleichs. Geht es einer Supermarktkette um die günstigsten Standorte für neue Filialen oder der Provinzregierung um eine Abschätzung der lokalen Steuerkraft (nehmen wir einmal an, die reichen Ansiedler im Dorf zahlten dort ihre Steuern) oder soll im Rahmen einer Studie über das Lebensniveau der Dorfbewohner festgestellt werden, wie viele Dörfler unter der "Armuts"grenze liegen. Für jeden dieser Untersuchungsansätze liefert jeweils ein Mittelwert das geeignete Modell. Es wäre aber auch eine Fragestellung auszudenken, bei denen alle Modelle zum Tragen kommen, weil jedes Modell einen anderen Aspekt der Einkommensstruktur in den Vordergrund stellt. Welche Modell-Logiken stehen nun hinter den verschiedenen Modellen?
1)
Eine ausführliche Behandlung erfolgt im Kap. 4.
A: Methodologische Aspehe
11
1. Beim arithmetischen Mittel werden alle Einkommen aufaddiert und das Gesamteinkommen durch die Anzahl der Einkommensbezieher dividiert. Dieses Modell ist dann adäquat, wenn entweder das Gesamteinkommen einer Untersuchungsgesamtheit die eigentlich relevante Bezugsgröße ist, oder wenn die Vorstellung, alle Einkommen fließen in einen Topf und werden daraus wieder gleichmäßig verteilt, einen realen Sinn ergibt. Auf die Frage nach dem Lebensniveau der Dorfbewohner gibt das "gleichverteilte" Einkommen keine Antwort. Die wenigen hohen Einkommen würden den Durchschnitt auf eine für die Mehrheit der Dorfbewohner irrelevante Höhe schrauben und der Vergleich mit den Dörfern ohne Ferienvillen wäre stark beeinträchtigt. Anders verhält es sich jedoch bei der Berechnung des lokalen Steueraufkommens. Ein einfaches Steuermodell mit gleichen Steuersätzen stützt sich auf alle Einkommen, also müssen auch alle Einkommen im Mittelwert berücksichtigt werden. 2. Der Median setzt die Ordnung der Einkommen ihrer Höhe nach voraus. Er entspricht dann dem Wert des rangordnungsmäßig "mittleren" Einkommens. Ob am oberen Ende der Einkommensskala die reichsten Fischer stehen oder ein paar zugezogene Millionäre - im Vergleich zu den üblichen Einkommensbeziehern sogenannte Ausreißer - spielt bei seiner Bestimmung keine Rolle. Dieser Median ist so zu interpretieren, dass 50 % der Bewohner weniger als xy-EUR verdienen. Unterschreitet dieses Dorf mit seinem xy-Betrag eine vorgegebene Armutsgrenze oder liegt sein Median im unteren Bereich aller Mediane im Dorfvergleich, könnte dieses Dorf aufgrund seiner extrem ungleichen Einkommensverteilung gleichwohl als arm gelten, auch wenn sein arithmetisches Durchschnittseinkommen über dem der anderen Dörfer liegt. 3. Der Modus setzt nur voraus, dass für die einzelnen Einkommensbeträge ausgezählt wird, wie häufig sie vorkommen. Als "typisches" Einkommen gilt das Einkommen, das am häufigsten vorkommt. Zählt man Einkommen in Euro und Cent, kann es vorkommen, dass keine zwei Einkommensbezieher den gleichen Betrag aufweisen. Hier ist es dann sinnvoll, Einkommensklassen von χ bis y EUR zu bilden und die typische Einkommensklasse bzw. deren Mittelpunkt als Modus zu wählen. Im Armutsvergleich wäre dieses Datum ebenfalls eine adäquate Vergleichsgröße. Aber auch die Supermarktkette könnte an diesem Wert interessiert sein, um sich dort anzusiedeln, wo ihr Warensortiment der Kaufkraft dieser Einkommensschicht am besten entspricht. Jeder dieser drei Mittelwerte beleuchtet einen bestimmten Aspekt der dörflichen Einkommen und oft sind alle Aspekte relevant. Die Wahrheit besteht dann in der Differenziertheit der statistischen Beschreibung; die statistische Lüge fängt dort an, wo nicht mehr Problemadäquanz das Auswahlkriterium ist, sondern die Höhe des
12
Teil I: Grundlagen und statistische
Deskriplion
ermittelten Wertes, wenn also mit dem Typus von Mittelwert argumentiert wird, der je nach Interessenlage den höchsten oder niedrigsten Wert innerhalb einer Gruppe von Vergleichsobjekten aufweist. 1.3 Statistik: Hilfswissenschaft oder Komponente eines empirischen Forschungsprozesses? Für die Annäherung an die statistischen Methoden ist es von ausschlaggebender Bedeutung, ob man das konkrete Arbeiten mit statistischen Modellen als angewandte theoretische Statistik begreift oder als konstitutives Element eines fachwissenschaftlich bestimmten, empirisch-statistischen Forschungsprozesses. Der Unterschied im Ansatz ist etwa so groß wie der zwischen der Sichtweise eines Linguisten, der einen Roman als Demonstration grammatikalischer Regeln begreift, und der eines Literaturwissenschaftlers, der die syntaktische Form als Stilmittel zur Akzentuierung inhaltlicher Aussagen analysiert. Im ersten Fall wäre die Methodologie der statistischen Praxis, d.h. die Lehre bzw. Logik der Anwendung statistischer Modelle aus der "theoretischen" Statistik, d.h. aus der Mathematik abzuleiten. Da die Mathematik als Formalwissenschaft keine (oder kaum) Anwendungsprinzipien liefert, blendet dieser Ansatz zwangsläufig die Anwendungslogik aus bzw. reduziert sie auf ihre formalen Aspekte. Die Frage nach der Herkunft der Ausgangsdaten wird dann nicht gestellt oder als unwesentlich abgetan. Die Statistik fungiert traditionellerweise als "Hilfswissenschaft" und der Statistiker als Spezialist für die vom Fachwissenschaftler nicht-nachvollziehbaren Rechenprozeduren. Diese Auffassung erleidet bei komplexeren statistischen Analysen spätestens dann Schiffbruch, wenn es "zur Sache geht", nämlich an die Inteφretation der statistischen Resultate. Doch greifen wir nicht vor, sondern sehen wir uns die Gegenposition etwas genauer an. Diese geht davon aus, dass alle Realwissenschaften, vor allem aber die Wirtschafts- und Sozialwissenschaften neben ihrer theoretischen Komponente, in der Erklärangsmodelle, Hypothesen und Begriffdefmition enthalten sind, eine empirische Komponente aufweisen, mittels derer die Theoriebausteine auf ihre empirische Relevanz, d.h. auf ihre Übereinstimmung mit einer sich entwickelnden gesellschaftlichen Realität überprüft, ausdifferenziert und angepasst werden. Dies geschieht, vor allem wenn es sich um quantitative theoretische Modelle handelt, mittels eines Forschungsprozesses, der aus zwei Komplexen besteht: der empirischen Erhebung der Daten und deren statistische Aufbereitung und Analyse. Diese Sichtweise hat zwei Konsequenzen: Zuerst ist nach diesem Konzept die Empirie einschließlich der Statistik ein konstituierender Teil einer Fachwissenschaft, als zweites gewinnt die Statistik ihre Anwendungsmethodologie aus der allgemeinen Methodologie der Fachwissenschaft.
A: Methodologische Aspekte
13
Wie dies geschieht, wird im Folgenden anhand der 10 Stadien des empirischstatistischen Forschungsprozesses " (vgl. Abb. 1.3) gezeigt. 1. Ein integrativer, forschungslogischer Ansatz als Voraussetzung der statistischen Analysen ist insbesondere dann gefordert, wenn die Theorie in ihrer Orientierungsfunktion für konkretes ökonomisches und soziales Handeln auf den jeweils aktuellen empirischen Stand zu bringen ist, oder wenn eine theoretisch fundierte wirtschaftliche und soziale Praxis auf einen empirisch unbekannten Objektbereich zielen soll.
Abbildung 1.3:
Stadien des empirisch-statistischen Forschungsprozesses
^
Rohdaten^
Empirie Φ Entdeckung des Problems
® methodologische Spezifizierung
(2) theoretische Sondierung
® Operationalisierung
1)
©Erhebung ® Codierung Φ Datenbereinigimg
® statistische - Aufbereitung -Aiudyse
® Interpretation Φ Verwotung
Auf die ausführliche Darstellung dieses Forschungsprozesses wird nicht nur deshalb Wert gelegt, weil die Daten "nicht vom Himmel fallen", sondern weil dieser Prozess eine logische Einheit darstellt, die für die statistischen Resultate und deren Inteφretation bestimmend ist. Schließlich kann die Darstellung als Orientierung für eigene empirisch-statistische Arbeiten der Leser oder als Kriterienkatalog zur Beurteilung empirischer Arbeiten anderer dienen. Eine empfehlenswerte Ergänzung zum hier vorgestellten "idealtypischen" Forschungsprozess aus sozialwissenschaftlicher Sicht findet sich bei: Peter Atteslander: Methoden der empirischen Sozialforschung, 8. Aufl., Beriin 1995, S. 30 ff.
14
Teil I: Grundlagen und statistische
Deskription
Damit sind die beiden wichtigsten Motive einer empirisch-statistischen Forschung benannt: Unklarheiten über die konkrete Geltung theoretischer Aussagen und/oder Informationsdefizite über die aktuelle empirische Struktur eines Handlungsfeldes. Nicht zu vernachlässigen ist ein dritter Grund für empirisch-statistische Untersuchungen: die Evaluation ökonomischer und sozialer Aktionen. (·)
Somit erhalten wir als Ausgangspunkt des empirisch-statistischen Forschungsprozesses 1. die Problemorientierung (Existenz eines Informationsdefizites in der Theorie und/oder Praxis).
2. Die Erkenntnistheorie geht davon aus, dass eine unvoreingenommene Annäherung an Wirklichkeit nicht möglich ist: Alle unsere Wahrnehmung der Realität ist durch einen dreifachen Selektionsprozess gesteuert. Wir wenden uns der Realität selektiv zu, wir nehmen die Realität selektiv wahr und wir verarbeiten (erinnern) diese Wahrnehmung selektiv. Diese Selektivität ist im Forschungsprozess dann unproblematisch, wenn sie nicht zufällig oder aufgrund persönlicher Wahmehmungsmuster stattfindet, sondern wissenschaftlich gesteuert ist. (·)
Wissenschafthche Steuerung des Erfahrungsprozesses heißt, dass sich der empirisch-statistische Forschungsprozess am wissenschaftlich bereits Bekannten orientiert, d.h. an der Theorie. Dieses Postulat war in der erkenntnistheoretischen Diskussion der vergangenen Jahrzehnte als "Primat der Theorie" gegenüber der Empirie " unbestritten. Somit ergibt sich als Forschungsmaxime und Einstieg in den Forschungsprozess 2. der Theoriebezug (Steuerung des Prozesses durch die Theorie).
Dabei verstehen wir unter Theorie das mehr oder minder komplexe System allgemeiner Aussagen (Kausalgesetze, Hypothesen und Begriffsdefinitionen) zu einem Gegenstandsbereich (hier aus dem Bereich der Wirtschaft und/oder des Sozialen), das diese Aussagen logisch und widerspruchsfrei miteinander verknüpft. Die Theorie - und hierin eingeschlossen die Ergebnisse der bisherigen empirischen Untersuchungen zum Gegenstandsbereich - präzisiert unser Herangehen an das Forschungsobjekt in zweierlei Hinsicht. Zum Ersten liefert sie über die theorieimmanenten Definitionen der verwendeten Begriffe die bestmögliche logische Abgrenzung der Untersuchungsobjekte und ihren Eigenschaften. Zum Zweiten klärt sie über ihre Hypothesen den kausalen Bezugsrahmen von Strukturen und Prozessen im Objektbereich. 3. Die nächste Aufgabe im Forschungsprozess besteht in der Sondierung der Methoden, die in diesem Prozess eingesetzt werden sollen.
1)
Vgl. dazu vor allem die im sog. Positivismusstreit geführten Kontroversen (z.B.: Th.W. A d o m o u.a.: Der Positivismusstreit in der deutschen Soziologie, Darmstadt u. Neuwied, 1972, und als Beleg obiger Aussage die Anmerkung von R. Dahrendorf auf S. 148, ebenda).
A: Methodologische Aspekte
(·)
15
Dieses dritte Stadium ist gekennzeichnet durch die Orientierung auf die methodologischen Aspekte des Forschungsprozesses. Daraus resultiert 3. die (Be-)Gründung des methodischen Fundaments. Diese besteht in der problemadäquaten Zusammenstellung der Forschungsinstramente, d.h. der Erhebungs-, Auswahl- und Analysemodelle, wobei es hier vor allem um die wechselseitige Kompatibilität der Modelle, deren Angemessenheit gegenüber dem Forschungsgegenstand und deren Effizienz hinsichtlich der Forschungsaufgaben geht.
So wie im zweiten Schritt die wissenschaftliche Literatur auf Abhandlungen zum Gegenstandsbereich zu sichten war, so sind im dritten Schritt die Methodenlehren zur Erhebungsmethodik " (Befragung, Beobachtung, Experiment, Dokumentenanalyse - beispielsweise der Rechnungslegungen von Haushalten und/oder Unternehmen), zur Auswahlmethodik (Stichprobenmodelle) und zur Aufbereitungsund Analysemethodik '' (uni- und bivariate bzw. multivariate statistische Methoden sowie Zeitreihenanalyseverfahren) auf geeignete Ansätze hin durchzusehen. In den meisten Fällen gehört das Kennenlemen des Kanons der Erhebungsmethoden und der einfacheren statistischen Verfahren zur Grundausbildung der Wirtschafts- und Sozialwissenschaften, so dass im konkreten Forschungsprozess nur noch eine Auffrischung der Kenntnisse und eine problemadäquate Vertiefung notwendig ist. 4. Die bisherigen drei Stadien können wir insgesamt als theoretische Phase des Forschungsprozesses zusammenfassen. Dieser folgt nun die empirische Phase, in der das konkret anzuwendene Erhebungskonzept ausformuliert, getestet und angewandt wird. (·)
Der erste Teil dieser empirischen Phase des Forschungsprozesses beinhaltet 4. die Entwicklung eines Erhebungsdesigns durch Operationalisierung des theoretischen Konzepts. Sie besteht in der Konkretisierung der Erhebungsgesamtheit, der Merkmale und Merkmalsausprägungen in einem Erhebungsprogramm. Dabei müssen die abstrakten Begriffe der Theorie, als
1)
Ausführliche Darstellungen dazu finden sich in den Lehrbüchern zur empirischen Sozialforschung, z.B. bei Peter Atteslander, op.cit.; Jürgen Friedrichs: Methoden empirischer Sozialforschung, 14. Aufl., Opladen 1990; Helmut Kromrey: Empirische Sozialforschung, 8. Aufl., Opladen 1998; Rainer Schnell, Paul Hill, Elke Esser: Methoden der empirischen Sozialforschung, München 1989, zur Markt- und Meinungsforschung, z.B. bei Ludwig Berekoven, Werner Eckert, Peter Ellenrieder: Marktforschung, 5. Aufl., Wiesbaden 1991 und zur Wirtschafts- und Sozialstatistik, z.B. bei Walter Krug, Martin Noumey, Jürgen Schmidt: Wirtschafts- und Sozialstatistik, Gewinnung von Daten, München 1994; Peter von der Lippe, Wirtschaftsstatistik, 5. Aufl., Stuttgart 1996; Horst Rinne: Wirtschafts- und Bevölkerungsstatistik, München 1994 und Rolf Wagenführ, op.cit.
2)
Vgl. hierzu z.B.: Krug/Noumey/Schmidt, op.cit.
3)
Dieser Komplex wird im Folgenden ab Abschnitt 3 oder in vergleichbaren Einführungen in die statistische Methodenlehre sowie in den Lehrbüchern zur multivariaten Statistik und zur Zeitreihenanalyse behandelt (vgl. dazu die FN 1 und 3 auf S. 21 und Abschnitt 1.5).
16
Teil I: Grundlagen und slatislische
Deskriplion
weitgehend nicht unmittelbar beobachtbare Termini wie z.B. wirtschafthcher Wohlstand, Mobilität, Arbeitslosigkeit, Inflation, ökonomische Konzentration usw., durch logische Reduktion in Beobachtungsbegriffe, d.h. Begriffe, die einer unmittelbaren Beobachtung zugänglich sind, umgewandelt werden. Oft ist es notwendig, für ein theoretisches Konstrakt mehrere beobachtbare Merkmale (Indikatoren) heranzuziehen. So könnte man den theoretischen Begriff "soziale Schichtzugehörigkeit" durch eine Reihe von Merkmalen wie Einkommen, Bildungsniveau, Größe der Wohnung und des PKWs, oder Ansehen der Person in der Nachbarschaft operationalisieren. Allerdings erhalten diese mehr oder minder äußerlichen (gattungsbegrifflichen) Merkmale ihre Signifikanz ausschließlich daraus, dass sie in ihrer Gesamtheit den Bedeutungsgehalt des theoretischen Begriffs reflektieren. Der Beobachtungsbegriff soll deshalb möglichst adäquat dem theoretischen Begriff in seinen Sinnstrukturen entsprechen, weshalb diese Aufgabe unter Bezug auf Max Webers Lehre vom Idealtypus in der wirtschafts- und sozialstatistischen Methodologie auch als Adäquationsproblem "bezeichnet wird. Die Beobachtungsbegriffe werden je nach Erhebungsmethode (Fragebogen, Auswertung von Dokumenten) in Erhebungsitems (Fragen, Erfassungsregeln, Kontextmerkmale) umgesetzt. In der empirischen Forschung wird der Sachverhalt, dass mit dem Erhebungsinstrument das erfasst werden kann, was erfasst werden soll, als Gültigkeit (Validität) eines Instruments bezeichnet. Diese ist nur zu erwarten, wenn die theoretischen Begriffe präzise definiert, die zugeordneten Indikatoren logisch abgeleitet und sachlich erschöpfend und die vorgesehenen Merkmalsausprägungen systematisch und vollständig sind. Parallel zur Entwicklung des Instruments ist die Entscheidung über den Auswahlsatz (Totalerhebung oder Stichprobe) zu treffen und eventuell ein Stichprobenplan aufzustellen sowie die technisch/organisatorische Durchführung vorzubereiten (Erstellung der Erhebungspapiere (vgl. Abb. 1.4), Interviewerschulung). Bei professionell durchgeführten Erhebungen, so z.B. bei denen der amtlichen Statistik, werden alle Bestandteile des Erhebungsdesigns z.T. mehrfach im Feld getestet. Bei eigenen, selbst einfachen Erhebungen ist es dringend anzuraten, mindestens einen Pretest des Fragebogens exemplarisch mit 10-20 Probanden durchzuführen. Zu Erhöhung der Konsistenz des Gesamtprozesses ist es darüber hinaus empfehlenswert, bereits an dieser Stelle die zentralen statistischen Analysemodelle zu konzipieren.
1)
vgl. dazu Max Weber, op.cit. S. 190 ff; Heinrich Hartwig: Naturwissenschaftliche und Sozialwissenschaftliche Statistik, in: Zeitschrift für die gesamte Staatswissenschaft, Band 112,1956; Heinz Grohmann: V o m theoretischen Konstrukt zum statistischen Begriff, in: Allg. Stat. Archiv, Bd. 69, (1985) sowie Hans Peter Litz: Statistische Adäquation und Idealtypus, Anmerkungen zur Methodologie der Wirtschafts- und Sozialstatistik, in: Allg. Stat. Archiv, Bd. 7 4 , ( 1 9 9 0 ) .
A: Methodologische Aspekte
Abbildung 1.4:
17
Volkszählung 1987, Personenbogen
VOLKSZAHLUNG 1987
Personenbogen
Qeseeuber ein« Volks-, Berufs-, Oebiuds-, V und Arbeltsstättenzählung {Volkszählungsgesetz 1967) Stkmsg: 25. Ма119в7
Name der G e m e ^ :
QoeburtMiigaben
, ) Qeburtsiabr
JL.
b) Getwrtsmonat
I.Januar bis 24. Mai 25. Mai bis 31. Dez. tnânnfch welblkíi
Qoeeditocht
tedig verheiratet verwitwet geschieden
OFamUlerntand
Römisch-katholische Kirche Evangelische Kirche Evangelische Freikirche Jüdische Religionsgesellschaft Islamische Religionsgemeinschaft andere ReKgionsgeseltschaften keiner Religionsgesellschaft rechtlich zugehörig
Θ Weichen höchsten alloemet nen * SchulabechluB h a b e n d 7 Volksschule. Hauptschule Realschule/gleichwertiger Abschlue (z. B. iHittiere Reife) Hochschulreife (Abitur). Fechhochschulreife 0 *
Fachhochschufe (Ing.-Schute, höhere Fachschute) Hochschute (einschlteeirch LehrerausbiUung)
О ftechtlich· ZugMtdrIgicen zu * ·" bedeutet die Ordnungsrelation größer, mehr, höher o.ä. - "} " bedeutet die Zusammenlegungsrelation, dann können wir folgende gültige Abbildungen von empirischen in numerische Relationen festhalten (" " bedeutet: genau dann, wenn).
Teil /; Grundlagen und statistische Deskription
38
-
a, und 02 sind ledig und erhalten beide die Kodeziffer 1 : α,
-
~
02
'"(^i)
=
mioj), weil 1 = 1
a¡ hat eine länger Ausbildung als Oi, α, erhält die Ziffer 2, a^ die Ziffer 1 α,
>
02
'"(öl)
>
»2(02), weil 2 > 1
und als Beispiel für eine dreistellige Relation: -
α, und 02 verdienen zusammen so viel wie α , , mit: α, verdient 1500 EUR, ^2 verdient 500 EUR und a^ 2000 EUR: öl
~
«2
аз
ш (α ι) + m {α^) = m (α,), weil 1500 + 500 = 2000.
Nun wissen wir, dass es beim Messen oftmals gleichermaßen zulässige, aber unterschiedliche Skalen, also Messvorschriften gibt: Entfernungen lassen sich in Metern, Kilometern, in Meilen oder in Zoll, Temperaturen in Grad Celsius, Fahrenheit oder Reaumur messen und natürlich ist es beliebig, ob wir bei der Verkodung des Geschlechts auf die Zahlenpaare (0,1), (1,2) oder (- 145, 8793) zurückgreifen. (·)
Wir fassen die jeweils äquivalenten Messvorschriften und die über sie jeweils definierten Messskalen zu Messsystemen zusammen: ein Messsystem MS sei definiert als System eines empirischen Relatives, eines numerischen Relativs und einer Menge äquivalenter Messvorschriften mit M = : MS
=
{Ε,Ν,Μ)·
Im internationalen statistischen Vergleich ist es gang und gäbe, die unterschiedlichen Messsysteme umzurechnen: EUR in Francs, Celsius in Fahrenheit, Meilen in km usw. Die Messtheorie bezeichnet derartige Umrechnungen als Skalentransformationen. (·)
Wir definieren die Menge g der Skala S = {E,N,m)
=
1)
{g
:
m{A)
=
..
} der zulässigen Transformationen
mit ^
Ζ
\ g
о
m
e
M}
1)
Das liest sich: G„ ist die Menge ("{ }") aller g für die gilt (":"), es wird die Messung m(A) nochmals in die Menge der numerischen Elemente abgebildet (" "), unter der Bedingung ("I") die Hintereinanderausführung ("o") von g und m gehört ebenfalls (" 6 ") zur Menge der gültigen Messvorschriften M .
A: Methodologische Aspekle
39
Diese allgemeine Definition der zulässigen Skalentransformationen erlaubt es nun, die verschiedenen Skalentypen exakter einzugrenzen. (·)
Ein Skalentyp ist definiert über die jeweils zulässige Art der Transformation. Gleichzeitig wird damit auch die Art der gültigen empirischen Relationen festgelegt. Diese unterscheiden sich für die einzelnen Skalenarten und zwar derart, dass mit steigendem Skalenniveau die Anzahl der vorausgesetzten empirischen Relationen zunimmt und die Menge der zulässigen Transformationen abnimmt (vgl. auch Tab. 2.1).
In den für jeden Skalentyp spezifischen Repräsentationstheoremen (Existenztheoremen) werden die Axiome formuliert, die in der Objektmenge erfüllt sein müssen, damit die Existenz (mindestens) einer Skala angenommen werden kann Orth bezeichnet die messtheoretischen Axiome als Idealisierungen empirischer Sachverhalte, gleichwohl muss ihre Existenz empirisch überprüft werden, bevor einer Skala ein bestimmtes Niveau zugewiesen werden kann. Eine gültige Skalentransformation ist eine, die der neuen Skala die gleiche Repräsentanz zukommen lässt, die die ursprüngliche hatte. Je komplexer das Axiomensystem desto geringer ist die Auswahl unter den zulässigen Transformationen. Dieser Sachverhalt wird als Eindeutigkeitstheorem bezeichnet. Für die einfachste Skala, die Nominalskala, wird als emprische Relation die Äquivalenzrelation gefordert, für die die Axiome der Reflexivität (a-a) , Symmetrie ( wenn a~b , dann b~a ) und Transitivität (wenn a~b und b~c , dann a~c ) vorausgesetzt werden. Konkret besagt die Äquivalenzrelation, dass a die gleiche Merkmalsausprägung besitzt wie b . Natürlich gelten im empirischen Relativ auch Ungleichheitsrelationen, die dann allerdings nicht mehr den Axiomen genügen müssen. In der Skala werden allen, hinsichtlich des betrachteten Merkmals, gleichen Personen die gleichen Zahlenwerte zugewiesen. Dazu benötigt man ebensoviele Zahlen wie es unterschiedliche Ausprägungen des Merkmals gibt. Eine zulässige Transformation ordnet diesen unterschiedlichen Merkmalsausprägungen ebensoviele andere Zahlen oder die gleichen Zahlen auf eine andere Weise zu. Zulässig sind also alle ein-eindeutigen Abbildungen einer Skala in eine andere. Man könnte sozusagen bei allen Haushalten die Telefonnummern austauschen, ohne die Anrufbarkeit der einzelnen Haushaltsmitglieder zu beeinträchtigen.
1)
B. Orth: Einführang in die Theorie des Messens, op.cit., S. 39.
40
Teil I: Grundlagen und statistische Deskription
Für die Ordinalskala wird eine sogenannte schwache Ordnungsrelation " > " gefordert und die Axiome der Konnexität (es gilt a>b oder b>a oder a =b), Transitivität (wenn a>b und b>c , dann a>c ) sowie die für die Äquivalenzrelation gültigen Axiome. Konkret sind diese Ordnungsrelationen gegeben, wenn die Merkmale iüT a , b und с unterschiedlich intensiv ausgeprägt sind, wobei innerhalb der Objekte auch Äquivalenzen zugelassen sind. Ist jedoch die Transitivitätsannahme verletzt - etwa dann, wenn ein Tennisspieler а regelmäßig b und der regelmäßig с schlägt, jedoch dieser ebenso regelmäßig а - kann die Spielstärke der Drei nicht ordinalskaliert werden. Im Messprozess werden den Elementen Zahlen so zugeordnet, dass m{a)>m{b) ist, wenn a>b . Einer besseren Leistung wird also eine höhere Zahl zugeordnet. Zulässig sind alle Skalentransformationen, die die Rangstrukturen unter den Skalenwerten unverändert lassen, dies sind alle monotonen Transformationen. Die Werte - 2, 0, + 2 wären eine gültige Skala, das Quadrieren der Werte eine nicht-zulässige Transformation. Da das Axiomensystem mit zunehmendem Skalenniveau immer komplexer wird, sollen für die folgenden metrischen Skalen nur noch dessen Grundzüge angesprochen werden. Dabei treten zu den Einzelbeziehungen zwischen den Elementen die Relationen zwischen Paaren von Elementen hinzu. Bei der Intervallskala werden Äquivalenzen, Konnexitäten und Transitivitäten " von Differenzen zwischen den Ausprägungen von Merkmalen zweier Paare {a - b) {c - d) betrachtet. So muss für die Temperaturdifferenz zwischen Tag und Nacht am 1. April feststellbar sein, ob sie größer, kleiner oder gleich der Differenz für den 1. Mai ist. Für die Messbarkeit muss ferner einer bestimmten empirischen Differenz die Skaleneinheit zugewiesen werden. Diese bestimmte empirische Differenz ist nicht von "Natur" aus gegeben, sondern wird durch die Skala festgelegt. So entsprechen den Einheiten der Temperaturskalen Celsius und Fahrenheit jeweils unterschiedliche empirische Temperaturdifferenzen. Zulässige Transformationen sind alle funktionalen Abbildungen der Form ^(л:) = a + β · д: für β > О (lineare Transformationen) . Neben den Temperaturskalen sind die Jahreszahlen in verschieden kalendarischen Systemen zu nennen. Bei der Verhältnisskala werden die Relationen zwischen den Verhältnisssen von Merkmalsausprägungen a/b 0 im I. < 0 im II.
und III. und IV.
Quadranten Quadranten.
С; Zweidimensionale Häufigkeiten
1 67
Je nachdem, ob die positiven oder die negativen Produkte überwiegen, wird die Kovarianz als durchschnittliche Kovariation COV
(X.K)
positiv oder negativ. Liegen alle Werte auf einer der Achsen des transformierten Koordinatensystems oder streuen sie gleichmäßig über alle Quadranten, hat die Kovarianz den Wert null. Da die Regressionsfunktion durch den Ursprung dieses Koordinationssystems verläuft, liegen die Beobachtungen umso eindeutiger im ersten und dritten bzw. zweiten und vierten Quadranten, je enger die Werte um die Regressionsfunktion streuen. Da die Stärke des Zusammenhangs unmittelbar mit dem Ausmaß der Streuung der Beobachtungen um die Regressionsfunktion zusammenhängt, ist die Höhe des zahlenmäßigen Betrags der Kovarianz Ausdruck der Stärke des Zusammenhangs. Abbildung 10.4: Die Kovarianz im Streuungsdiagramm
Yi
Y,-Y
II
I
Xi-X
Y-Y x - x Y-Y
Xi-X III
IV
Weil die Kovarianz jedoch mit den Varianzen der beiden Variablen zusammenhängt, kann sie noch nicht als endgültiges Maß verwendet werden. (·)
Eine standardisierte Maßzahl für die Stärke des Zusammenhangs erhält man mit dem Korrelationskoeffîzienten nach Bravais-Pearson, wenn man die Kovarianz durch das Produkt der Standardabweichungen s^ und der beiden Variablen dividiert.
168
Teil I: Grundlagen und statistische Deskription
(10.14)
.
=
-
Die Symmetrie der Formel erlaubt es, bei gleichem Ergebnis die Variablen X, und Yi zu vertauschen. Dies bedeutet, dass es für die Stärke des Zusammenhangs nicht von Bedeutung ist, welche Variable abhängig und welche unabhängig ist. Als Rechenformel verwenden wir i.A. die Umformung (10.15)
г
=
(10.16)
г
=
,
- Σ Χ · Y —X " ' ' ,
.
•Y
für
^ Y . X r Y r f ^ - X Y
г
—
Einzelwerte
und
für gruppiertes
Material.
Für klassierte Daten legen wir wieder die Klassenmitten zugrunde. Wie wir später sehen werden, gilt; -1
9 sein muss, um die Binomialverteilung durch die
1)
Legen wir für
ΑΓ=Σχ,
eine dichotome Zufallsvariable X mit P(X = \) = p und
Ρ{Χ = ΰ) = \ - ρ zugrande, so folgt aus
= Σ x¡ : E(K) = E
¡=i
i = l
und daraus wegen 4.7: E{K) = n • ρ . 2)
Nach (4,8) ist VAR(,K) = EIK -E(K)f
= ΕΐΣχ, -η ·ρΐ
gigkeit derx, folgt VARiK) = E[Σ{Xi-pΐ]
3)
ä j ^ dp
^ d j ^
^
dp
wobei die zweite Ableitung negativ ist.
= £[Σ(λ, - p ) f · Aus der Unabhän-
= E[ΣVAR{x;)] = n • ρ
= 0
g
ρ = 1/2 ,
266
Teil II: Wahrscheinlichkeitstheorie und statistische Induktion
Normalverteilung zu approximieren. Abb. 5.7 (S. 266) zeigt für 1000,0.05). dass bei VAR{K) = np{\-p)= 1000 • 0,05 · 0,95 = 45 die Approximation auch optisch perfekt ist. E{K) ist mit η /7== 50 ebenfalls aus der Graphik abzulesen. 5.1.5 Übungsaufgaben Aufgabe 16 Die Wahrscheinlichkeit, dass ein Papagei das Sprechen erlernt, beträgt nach Literaturangaben 0,4. Der Sprachunterricht wird in Einzelsitzungen abgehalten, die Experimente verlaufen unabhängig voneinander. a) Der Mozartliebhaber Wolf gang A. möchte wissen, wie wahrscheinlich es ist, ob zwei seiner gefiederten Freunde (er besitzt fünf Exemplare) ihm später einmal etwas vortragen. Wolfgang A. denkt an das Duett aus der Zauberflöte. b) Wie wahrscheinlich ist es, dass Wolfgang A. auf die Mitwirkung der fünf Tiere verzichten muss? c) Wie wahrscheinlich ist es, dass wenigstens einer der Papageien so begabt ist, ein Solo aus dem Don Giovanni darbringen zu können? d) Ein Jahr später genießt Wolfgang A. die erhoffte Solopartitur in Papageienversion. Das Duett fällt aus, obwohl der Zoohändler gesagt hat: "Zu einem Duett kommen Sie mit fünf en am günstigsten!" Berechnen Sie den Wert, auf den der Händler sich bezog! Bestimmen Sie zusätzlich die Varianz! Aufgabe 17 Ein Kleiderverkäufer rechnet bei jedem Kunden mit einer Wahrscheinlichkeit von 0.2, ihm einen Anzug verkaufen zu können. Bestimmen Sie die Wahrscheinlichkeit dafür, dass vonfünf Kunden, die unabhängig voneinander das Geschäft betreten, a) keiner, b) zwei oder drei, c) wenigstens einer, d) alle einen Anzug kaufen. Berechnen Sie zusätzlich E{X) und die Varianz bei η = 20 Kunden.
À: Wahrscheinlichkeitsrechnung und theoretische Verteilungen
267
5.2 Die Hypergeometrische und die Poisson-Verteilung 5.2.1 Die Hypergeometrisclie Verteilung Die Hypergeometrische Verteilung basiert wie die Binomialverteilung auf dichotomer Grundgesamtheit mit M und N-M jeweils gleichen Elementen, aus der nun unabhängige Stichproben allerdings ohne Zurücklegen gezogen werden. Die Wahrscheinlichkeit in einer Stichprobe im Umfang von η genau к Elemente mit dem Merkmal А zu ziehen beträgt: M
N-M n-k N η^
Diese Wahrscheinlichkeitsfunktion besitzt den Erwartungswert: E(K}
^
η
mit
ρ
ρ
=
MIN
und die Varianz: N-n VAR{K)
=
n p { \ - p ) N - \
Für nIN
50, < 0,1 und λ < 10 als Approximation sowohl für die Binomial- wie für die Hypergeometrische Verteilung. 5.3 Die Normalverteilung 5.3.1 Vorbemerkungen Von den theoretischen Verteilungen ist die Normalverteilung die wichtigste. Mit ihrer Glockenform (vgl. Abb. 5.2) stellt sie das "Ideal"bild einer Verteilung dar. Sie ist stetig, eingipfehg, symmetrisch und nähert sich mit ihren Ästen asymptotisch der X - Achse bei ±0° . Als empirische Verteilung ergibt sie sich, wenn eine Zufallsvariable mit sehr vielen Merkmalsausprägungen von sehr vielen Zufallsfaktoren bestimmt wird, beispielhaft etwa die empirische Verteilung des Körpergewichts oder der Köφergröße, oder die Abweichungen der Ausmaße von Werkstücken von der Normgröße (Gaußche Fehlerkurve) oder die Lebensdauer einer Glühbirne. Bereits 1773 hatte De Moivre die Normalverteilung als Grenzverteilung der Binomialverteilung abgeleitet (lokaler Grenzwertsatz von De Moivre-Laplace). Wie wir später sehen werden, konvergieren alle hier behandelten Verteilungen von Zufallsvariablen gegen die Normalverteilung, so dass diese bei großen Stichproben für die schließende Statistik die Grundlage für die Schlüsse von der Stichprobe auf die Grundgesamtheit liefert. Für die praktische Arbeit ist von Vorteil, dass die Normalverteilung nur von zwei Parametern, dem arithmetischen Mittel E{X) = μ und der Standardabweichung σ = ^VAR{X) abhängt. Wir symbolisieren diese Abhängigkeit, indem wir kurz schreiben X ist Λ'^(μ;σ) - verteilt. Wegen der Symmetrie gilt: μ = Med = Mod. Die Normalverteilung hat bei μ ± σ zwei Wendepunkte. Abbildung 5.2: Dichtefunktion einer Normalverteilung f(x),
A: Wahrscheinlichkeilsrechnung und theoretische Verteilungen
269
5.3.2 Die Standardnormalverteilung Beginnen wir bei der genaueren Betraclitung dieses Funktionstyps mit dem einfachsten Fall, der Standardnormalverteilung, für die gilt: μ = 0 und σ = 1 . Zur Unterscheidung der standardnormalverteilten Zufallsvariablen von normalverteilten Zufallsvariablen mit behebigem μ und σ wählen wir für erstere das Symbol Ζ . (·)
Ihre Dichtefunktion hat folgende Formel und ergibt folgendes Bild (vgl. Abb.5.3a): (5.7)
fiz)
1
=
r
Abbildung 5.3:
1
mit
E{Z)
=0
und
VAR{Z)=\
-.z' e ' dz = \
Funktionen der Standardnormalverteilung a) Dichtefunktion
f(z) 0,40,3X5-=U.
0,20,1-
-3
-2
-1
0
b) Verteilungsfunktion
sowie
270
Teil И: Wahrscheinlichkeilstheorie und statistische Induktion
Die formalen Eigenschaften der Dichtefunktion werden im Zusammenhang mit der Behandlung der allgemeinen Normalverteilung in Abschnitt 5.3.3 dargestellt. Hier sei nur darauf hingewiesen, dass die Funktion ihr Maximum bei = μ = 0 und ihre Wendepunkte bei г, = σ = +/ - 1 hat. Da die Normalverteilung eine WahrscheinUchkeits-(Dichte-)funktion ist, muss die Fläche unter der Funktion vom Ausmaß Eins sein. Demzufolge gilt P{Z < 0) = P{Z > 0) = 0,5 . Diese Eigenschaften bestimmen auch den Verlauf der Verteilungsfunktion.
(·)
Verteilungsfunktion der Standardnormalvariablen F{zo) : 1
e"'' (5.8)
Fizo)
Diese hat bei
=
P(Z
^o =
nähert sich bei г,
>
Zo) · Wie generell bei stetigen Verteilungsfunktionen ist es beliebig, ob wir die Grenzen einbeziehen oder ausschließen: P{Z < Zo) = P{Z < Zo)· Da die Dichtefunktion symmetrisch ist, genügt es F(zo) bzw. 1 -
F(zo) für Werte
von Zo ^ 0 zu tabellieren. Die Tabellen umfassen meist den Wertebereich 0 < Ζ < 4 , da Ρ (Ζ < 4) bereits sehr nahe bei Eins liegt. Aus praktischen Gründen interessieren weniger die Wahrscheinlichkeiten, dass Ζ einen Wert Zo unterschreitet, als die komplementären Wahrscheinlichkeiten, dass Ζ einen Wert Zo überschreitet. Deshalb sind in vielen Tabellenwerten zusätzlich oder ausschließlich, wie in diesem Lehrbuch, die Randwahrscheinlichkeiten 1 - F{Zo) = P{Z ^ Zo) dargestellt. Betrachten wir in Tabelle 5.4 einen Ausschnitt aus Tabelle 9.3 im Anhang für die Wertebereiche 0,0 < Ζ < 0,5 und 2,5 < Ζ < 2,8, so finden wir in der Vorspalte die ζ - Werte bis zur ersten Dezimalstelle, in der Kopfzeile die Werte der zweiten Dezimalstelle von ζ .
A: Wahrscheinlichkeitsrechnung
und Iheorelische Verteilungen
21 λ
Tabelle 5.4: Standardnormalverteilung - Randwahrscheinlichkeiten 1 -F(zo)
für ausgewählte Zo -Werte
ζ 0,0 0,1 0Л 0,3 0,4 0,5
0 0,500000 0,460172 0,420740 0,382089 0,344578 0,308538
1 0,496011 0,456205 0,416834 0,378280 0,340903 0,305026
2 0,492022 0,452242 0,412936 0,374484 0,337243 0,301532
3 0,488034 0,448283 0,409046 0,370700 0,333598 0,298056
4 0,484047 0,444330 0,405165 0,366928 0,329969 0,294599
5 0,480061 0,440382 0,401294 0,363169 0,326355 0,291160
6 0,476078 0,436441 0,397432 0,359424 0,322758 0^87740
7 0,472097 0,432505 0,393580 0,355691 0,319178 0,284339
8 0,468119 0,428576 0,389739 0,351973 0,315614 0,280957
9 0,464144 0,424655 0,385908 0,348268 0,312067 0^77595
2,5 2,6 2,7 2,8
0,006210 0,004661 0,003467 0,002555
0,006037 0,004527 0,003364 0,002477
0,005868 0,004396 0,003264 0,002401
0,005703 0,004269 0,003167 0,002327
0,005543 0,004145 0,003072 0,002256
0,005386 0,004025 0,002980 0,002186
0,005234 0,003907 0,002890 0,002118
0,005085
0,004940
0,004799
0,003793 0,002803 0,002052
0,003681 0,002718 0,001988
0,003573 0,002635 0,001926
Für P(Z
0,45) erhalten wir den Wert von 0,326355 im Schnitt der Zeile
>
0.4 und der Spalte 5. Ebenso groß ist aus Symmetriegründen ^ ( 2 F (-0,45
Z')
= P{T
> 1,96')
=
Pix'
>
3,84)
=
0,05
Für die Kalkulation von Zeitvorgaben lässt sich die Nachbehandlungszeit mehrerer Werkstücke (Erwärmung und Abkühlung) in Abhängigkeit von der Losgröße bestimmen: Τ
=
Σ i=\
Zf
=
χ'
mit
=
η
Die zu erwartende (durchschnittüche) Nachbereitungszeit entspricht der Losgröße n-.Eif)
-
n.
Beträgt die maximale Nachbearbeitungszeit eines Werkstücks 3,84 Minuten, so ergibt sich, bei Unabhängigkeit der Temperatur der angelieferten Werkstücke, die Nachbereitungszeit von 10 Einheiten bei gleicher Ausschusswahrscheinlichkeit von 0,05 über eine χ ' - Verteilung mit φ = 10 Freiheitsgraden:
=> Pix'
^
3¿)
>
18,307)
=
0.05 =
bei
0,05.
φ =
10
A: Wahrscheinlichkeitsrechnung und theoretische Verteilungen
289
Sie liegt damit deutlich unter dem 10-fachen der maximalen Nachbearbeitungszeit eines Werkstücks. Bei einer Losgröße von η = 40 ergibt Tabelle 9.5 im Anhang für Pix" ^ Xo) = 0,05 bei φ = 40 ein χ ' von 55,758. ШефгйГеп wir für φ = 40 die Approximationseigenschaften von (5.28) und fragen nach P(Z
> zo) mitzo = V2· 55,758-л/2-40-1
=
1,67,
so erhalten wir aus Tabelle 9.3 (Anhang) eine Wahrscheinlichkeit von 0,0475. D.h. die Approximation ist für φ = 40 mit einer Differenz zum Wert in Tab. 9.3 von 0,025 noch relativ ungenau. 5.7.3 Übungsaufgaben Aufgabe 24 Eine Zufallsvariable sei χ^ - verteilt mit 12 Freiheitsgraden. a) Bestimmen Sie den Abszissenwert des Maximums der Verteilung (wie wird er bezeichnet?) und skizzieren Sie daraufhin die Verteilung. b) Ermitteln Sie Erwartungswert, Median und Varianz der Variablen. c) Bestimmen Sie mindestens ein Intervall, in dem 95% der Beobachtungen erwartet werden. d) Mit welcher Wahrscheinlichkeit nimmt die Variable (in etwa) Werte zwischen 3 und 21 an? Aufgabe 25 Der Lebenskünstler Detlev hat in Рагшта eine alte Buslinie mit nur einem Linienbus erworben. Diese durchquert in wöchentlicher Routine einmal den Dschungel. Zur Kalkulation der möglichen Kosten muss er folgende Überlegungen anstellen: Die Abweichungen d in der Ankunftzeit des Busses seien normalverteilt mit E{d) = 0 und σ = 1 (in Tagen). (Diese Informationen hat Detlev von dem Busfahrer bekommen, der die Strecke vorher befahren hat.) Die Kosten eines zu frühen oder zu späten Eintreffens steigen mit der Größe der Abweichung gemäß К = 50- d\EUR). Die Kosten der UnpünktlichkeitßrN Fahrten betragen also: K = 50ldfEUR 1 = 1
.
290
Teil II: Wahrscheinlichkeitstheorie und statistische Induktion
Die jeweiligen Abweichungen seien voneinander
unabhängig.
a) Mit welchen Extra-Kosten muss bei einer Fahrt (N=\)
mit einer Wahr-
scheinlichkeit von 75% höchstens gerechnet werden? b) Mit welcher Wahrscheinlichkeit können Extra-Kosten von mehr als ungefähr 250 EUR ausgeschlossen werden? c)
5.8
Wie groß ist die Wahrscheinlichkeit, dass bei weiterhin wöchentlichen Fahrten die gesamten Extra-Kosten in einem halben Jahr (N = 26) höchstens etwa 2100 EUR und in einem Jahr (N = 52) höchstens 3100 EUR betragen?
Die t - Verteilung
5.8.1 Die allgemeine Form der t - Verteilung (·)
Das Verhältnis einer standardnormalverteilten Zufallsvariablen Ζ und der Wurzel aus einer χ^ - verteilten Variablen U mit φ Freiheitsgraden ist Studentoder kurz t - verteilt. (5.29)
t
Ζ
=
mit
φ
Freiheitsgraden
\Φ Die t - Verteilung wurde von W. Gösset (1908) unter dem Pseudonym 'Student' in die Statistik eingeführt. Sie ist ebenfalls eine zentrale Verteilung der induktiven Statistik. Auf ihr basieren die Schlüsse vom Stichprobenmittelwert auf den Mittelwert der Grundgesamtheit bei kleinen Stichproben (и < 30). (·)
Die t - Verteilung besitzt folgende Dichtefunktion: "
(5.30)
m
-
i - > ^
Auch für die t - Verteilung ist φ der einzige Parameter. Für φ
=
1 erhalten wir
Diese Verteilung besitzt keinen Erwartungswert.
1)
Die Anmerkung zu (5.21) und die Fußnote von S. 286 gelten entsprechend.
2)
Diese Verteilung ist die sogenannte Cauchy-Verteilung.
A : Wahrscheinlichkeitsrechnung und theoretische Verteilungen
(·)
Einen Erwartungswert der t - Verteilung (5.32)
(·)
291
E{t)
=
0
erhalten
wir
für
φ
>
2.
Die Varianz der t - Verteilung ist erst ab φ = 3 gegeben: (5.33)
VARit)
=
Φ
für
Φ-2
φ
>
3
Die Varianz der t - Verteilung ist größer als Eins, also größer als die der Standardnormalverteilung. Sie wird mit zunehmendem φ immer kleiner und nähert sich für η -> oo dem Wert Eins an. Die t - Verteilung ist symmetrisch mit einem Modus bei t Mod(i)
=
0
für φ
>
=
0:
1
Ihre glockenförmige Gestalt ähnelt, wegen Mod(i) = 0 und VAR{t) -> 1, der Standardnormalverteilung. Allerdings verläuft sie flacher als die Standardnormalverteilung und dies umso deutlicher, je geringer die Anzahl der Freiheitsgrade ist (vgl. Abb. 5.11). (·)
Bei φ > 30 ist sie deshalb mit /(i) = /(z) hinreichend genau durch die Standardnormalverteilung approximierbar.
Abbildung 5.11: Diclitefunktion der t für verschiedene Freiheitsgrade
292
(·)
Teil II: WahrscheinlichkeUstheorie und statistische Induktion
Die Verteilungsfunktion der t - Verteilung ist mit 'o
(5.34)
Fit,)
=
P{t
M l · ^
gegeben. Ihre Wahrscheinlichkeiten oder die ihres Komplementes 1 -F(io) sind für ausgewählte φ (meist φ < keiten Ρ (i
ίο)
=
α
tabelliert. "
5.8.2 Tabellierung der t · Verteilung und Approximation durch die Standardnormalverteilung Tabelle 5.6 ist ein Auszug aus der Arbeitstabelle 9.6 im Tabellenanhang. Aufgrund der Symmetrie der Verteilung sind nur Wahrscheinlichkeiten über 0,5 tabelliert. Wie bei der χ^ - Tabelle finden sich die Freiheitsgrade in der Vorspalte, die Wahrscheinlichkeiten 1 - F(io) = P(i > ίο) = Oo in der Kopfzeile und die zugehörigen ÍQ - Werte in der Tabelle. Tabelle 5.6:
t - Verteilung - Randwahrscheinlichkeiten l - F ( i o ) für φ
=
5 und ausgewählte α - W e r t e α
Φ
0,40
0,30
0,10
0,01
5
0,267
0,559
1,476
3,365
Wir erhalten also z.B. Pit
Pit
>
30 eine gute Anpassung an die Normalverteilung ergibt.
В: Schließende Statistik
301
В Schließende Statistik Vorbemerkungen Im jetzt abgeschlossenen Abschnitt zur Wahrscheinlichkeitsrechnung und zu den Wahrscheinlichkeitsverteilungen wurden die statistischen Zufallsvariablen und ihre Verteilungen in einen allgemeinen begrifflich-theoretischen und formalmathematischen Rahmen gestellt. In der induktiven Statistik interessieren Zufallsvariablen und Zufallsverteilungen in der konkret-empirischen Form einer Stichprobe, allerdings nicht unter deskriptiven Aspekten, sondern vor dem Hintergrund eines statistischen Schlusses von den ermittelten Werten einer Stichprobe auf die Struktur der Grandgesamtheit. (·)
Es liegt auf der Hand, Stichprobe und Grandgesamtheit mit den gleichen statistischen Maßzahlen zu beschreiben. Dies drücken wir auch in einer entsprechenden Notation aus, indem wir die Statistikmaße für die Grandgesamtheit (GG) mit griechischen Buchstaben, die der Stichprobe (StPr) mit lateinischen Buchstaben kennzeichnen. Mittelwert der Grandgesamtheit Standardabweichung der Grandgesamtheit Anteilswert in der Grandgesamtheit Umfang der Grandgesamtheit
GG:
μ σ π Ν
StPr:
X : Mittelwert der Stichprobe s,s : Standardabweichung der Stichprobe " ρ : Anteilswert in der Stichprobe Stichprobenumfang
Im Allgemeinen legen wir unseren Betrachtungen echte Zufallsstichproben zugrande, d.h. Stichproben bei denen jedes Element der Grandgesamtheit die gleiche Chance hatte, gezogen zu werden. Dies entspricht dem Auswahlmodell "mit Zurücklegen", das auch bei großen Grandgesamtheiten und verhältnismäßig "kleine Stichproben ohne Zurücklegen" (Auswahlsatz bis 5 %) als gegeben betrachtet wird. Steigt der Auswahlsatz über 5 %, ist ein Korrekturfaktor (EndUchkeitsfaktor) zu berücksichtigen. Im Folgenden werden wir die Beziehungen zwischen einer Stichprobe und der Grandgesamtheit, aus der sie gezogen wurde, auf mehreren Ebenen untersuchen (vgl. dazu vor allem Abb. 6.1).
1)
Aus Gründen, die sich später erschließen (vgl. Abschnitt 6.3.1), arbeiten wir in der induktiven Statistik mit einer gegenüber der deskriptiven Statistik modifizierten Standardabweichung.
302
Teil II: WahrscheinlichkeUstheorie und statistische Induktion
Als Beispiel soll eine Grundgesamtheit (vgl. linke Verteilung in Abb. 6.1) mit einem Mittelwert μ = 2000 EUR, einer Standardabweichung σ = 1000 EUR und einem Anteilswert π = 0,25 von Einkommen über 2500 EUR dienen. Diese Werte entsprechen in etwa der Einkommensverteilung, die im Teil I (deskriptive Statistik) in Abschnitt 3.2 beschrieben wurde " . Aus dieser Grundgesamtheit aller Haushalte soll eine Zufallsstichprobe im Umfang von η = 200 mit folgenden Ergebnissen gezogen worden sein: X = 2200 EUR , i = 1057 EUR und ρ =0,20 (vgl. rechte Verteilung in Abb. 6.1). Unter den Bedingungen einer Zufallsstichprobe sind die einzelnen Merkmalsausprägungen in einer Stichprobe und die aus ihnen berechneten Stichprobenstatistiken X, s und ρ Zufallsereignisse, deren Ergebnisse mit bestimmten Wahrscheinhchkeiten zu erwarten sind.
1)
Ermittelt wurden dort: X = 2039,7
Εί/Λ,ί = 1093,3
EUR
und
ρ =0,253.
В: Schließende Statistik
6
303
Stichprobenverteilungen
6.1 Der Begriff der Stichprobenverteilung Um sich überhaupt über die Berechtigung von statistischen Schlüssen und die Konstruktionsprinzipien von Induktionskonzepten Юarheit zu verschaffen, ist es sinnvoll, sich vorzustellen, was in einer Stichprobe alles möglich ist. Bei einer Grundgesamtheit von N und einer Stichprobe von η lassen sich der Kombinatorik zufolge aus der Grandgesamtheit
(N^
unterschiedliche Stichproben
ziehen. Zöge man diese, würden daraus entsprechend viele Einzelergebnisse von X , s und ρ resultieren, wobei durchaus unterschiedlich zusammengesetzte Stichproben zu den gleichen statistischen Maßzahlen führen können. Die theoretische Statistik hat nun gezeigt, dass die Verteilungen der X¡ , s¡ und Pi
i=
j
nicht empirisch durch das Ziehen aller möglichen Stichproben ermittelt werden müssen, sondern theoretisch aus den Parametern der Grandgesamtheit abgeleitet werden können. Die Stichprobenverteilungen stellen nun die Dichtefunktion der X„ Pi und der с · f? dar " (vgl. Abb. 6.1, Mitte). Von besonderem Vorteil ist, dass die Stichprobenverteilungen für η >30 unmittelbar oder nach einer Umrechnung durch eine Normalverteilung approximiert werden können. Die Parameter der jeweiligen Stichproben Verteilungen ergeben sich aus den Parametern der Grandgesamtheit, also aus μ , σ und π und aus der Stichprobengröße η. Diese Brückenfunktion der Stichprobenverteilungen ist die logische Basis der in den nächsten Abschnitten präsentierten Induktionsschlüsse. Wenn die Stichprobe einigermaßen repräsentativ ist, d.h. in etwa ein verkleinertes Abbild der Grandgesamtheit darstellt, ist bei einer angemessenen Schlussweise ein Fehlschluss so gut wie ausgeschlossen, nicht hingegen, wenn die Stichprobe in einem oder mehreren ihrer Merkmale ein Ausreißer ist, d.h. diesbezüglich sich in ihrer Straktur von der der Grandgesamtheit unterscheidet. Die Differenz zwischen einem Parameter der Grandgesamtheit - im Speziellen die des Mittelwerts μ und des Anteilswerts π - und dem entsprechenden Wert der Stichprobe wird als Stichprobenfehler bezeichnet.
1)
Aus später einsichtigen Gründen (vgl. dazu Abschnitt 6.3) verwendet man nicht die Dichtefunktion der Standardabweichungen f, oder der Varianzen j ? , sondern die Dichtefunktionen der mit einer Konstanten с multiplizierten Varianzen, da deren Verteilungsform einer theoretischen Verteilung (χ^) entspricht.
304
Teil II: Wahrscheinlichkeitstheorie und statistische Induktion
Abbildung 6.1:
Die Stichprobenverteilimgen als Brücke zwischen Grundgesamtheit und Stichprobe
В: Schließende Statistik
305
Die Frage, wann eine Stichprobe als Ausreißer zu gelten hat, hängt davon ab, welche Toleranz, d.h. welcher maximale Stichprobenfehler (vgl. dazu vor allem Abschnitt 8.2.3) beim Schließen noch zulässig sein soll. Nur unter dieser Prämisse ist zu klären, wie groß die Wahrscheinlichkeiten noch tolerierbarer Stichproben und nicht mehr tolerierbarer Stichproben ist. Logisch gesehen ist ein Schluss von der Stichprobe auf die Grundgesamtheit nur dann sinnvoll, wenn bei relativ engen Toleranzen die Wahrscheinlichkeit tolerierbarer Stichproben doch recht hoch ist. In der Praxis verfährt man im Allgemeinen umgekehrt. Dort werden "Ausreißer", d.h. nicht mehr tolerierbare Stichproben im Allgemeinen nicht über die Größe des maximalen Stichprobenfehlers, sondern über ihre Wahrscheinlichkeiten definiert. Man legt dabei den Ausreißer-Bereich so fest, dass er die 10 %, 5 % oder 1 % der am wenigsten wahrscheinlichen Stichproben umfasst und leitet daraus die Toleranzgrenzen ab. Bei der bisherigen Argumentation (Repräsentativität, Ausreißer, Toleranz) stehen weniger die genauen Begrifflichkeiten der Theorie des Schließens im Vordergrund als ihre logischen Prämissen. Die theoretische Klammer der Argumentation, das Verhältius von Grundgesamtheit, Stichprobe und Stichprobenverteilung soll nun in Abb. 6.1 graphisch veranschaulicht werden, wobei bezügUch der konkreten Ausprägungen der Parameter der Stichprobenverteilungen auf Ergebnisse des folgenden Abschnitts vorgegriffen wird. Wir wollen nun mittels der im Zentrum von Abb. 6.1 dargestellten drei Stichprobenverteilungen prüfen, ob bzw. in welcher Hinsicht die rechts abgebildete Stichprobe einen Ausreißer darstellt. Dabei sollen alle die Stichprobenergebnisse als Ausreißer bezeichnet werden, die mit einer Wahrscheinlichkeit von insgesamt 10 % in den markierten rechten oder linken Randbereich der Stichprobenverteilungen fallen. Durch gestrichelte Pfeile ist die Lage der ermittelten Stichprobenwerte in ihrer jeweiligen Stichprobenverteilung markiert. Danach stellt diese Stichprobe bezüglich X einen Ausreißer dar, wohingegen sie bezüglich s, in den Toleranzbereich fällt und für ρ ziemlich genau dem unteren Grenzwert entspricht. Bevor wir uns etwas genauer mit den Konstruktionsprinzipien der Stichprobenverteilungen beschäftigen, sei hier auf eine bedeutsame Voraussetzung aller weiteren Argumentationen hingewiesen, auf die relativ engen Grenzen der Toleranzbereiche. Diese sind aus Gründen der Übersichtlichkeit nicht in Abb. 6.1 eingetragen, liegen aber z.B. für bei der festgelegten Rand-Wahrscheinlichkeit von 10 % mit = 1883 EUR und Xo = 2 И 7 EUR gerade etwas mehr als um ± 100
306
Teil II: Wahrscheinlichkeitstheorie und statistische Induktion
EUR um den Mittelwert der Grundgesamtheit. Dies bedeutet, dass es in 90 % aller Stichproben zu guten Annäherungen an den Parametern der Grundgesamtheit kommt " . Ob eine Stichprobe akzeptable Schlüsse auf die Grundgesamtheit erlaubt, also in den Toleranzbereich fállt oder nicht, hängt sowohl von der Lage des Zentrums dieser Verteilung wie von der Streuung der möglichen Stichprobenergebnisse um dieses Zentrum ab. Damit können genauere Angaben über die Wahrscheinlichkeit von großen und kleinen Abweichungen zwischen den statistischen Parametern der GG und den Statistiken der jeweiligen StPr erst gemacht werden, wenn man die theoretischen Verteilung der jeweiligen Stichprobenstatistik X, s und ρ kennt. (·)
In Zukunft arbeiten wir also mit drei Typen von Verteilungen: - der Verteilung der X¡ in der Grundgesamtheit mit i Parametern μ, σ und π , - der Verteilung der X, in der Stichprobe mit i metern Χ,ί und /7 und
-
- den Verteilungen der Stichprobenstatistiken X„ möglichen Stichproben i
=
1...
fN'
=
1...N und den
l...n
und den Para-
c s j und p, für alle
und ihren Parametern.
Mit den Stichprobenverteilungen erhalten wir also eine dritte Kathegorie von statistischen Parametern. Zu denen der Grundgesamtheit (μ, σ, π) und der Stichprobe (X,s,p) treten die Erwartungswerte und Varianzen bzw. Standardabweichungen der Stichprobenverteilungen. Am einfachsten lassen sich diese Charakteristika der Stichprobenverteilungen für die X, plausibel machen: Wir sehen, dass E(X) = μ^, (der Erwartungswert der X,), dem μ der Grandgesamtheit entspricht, d.h. die Mittelwerte aller Stichproben streuen symmetrisch um den Mittelwert der Grandgesamtheit. Dies leuchtet ein, weil nicht nur die einigermaßen repräsentativen Stichproben Mittelwerte besitzen, die nahe bei μ liegen, sondern auch alle einigermaßen um μ symmetrischen Stichproben. Die Standardabweichung σ^ der Stichprobenverteilung steht in proportionalem Verhältnis zur Standardabweichung der Grandgesamtheit und in einem umgekehrt proportionalen Verhältnis zu ^ . Auch dies ist zumindest in der Tendenz plausibel.
1)
Die Grenzen der Toleranzbereiche für X,, f, und pj für dieses Beispiel werden auf den Seiten 314, 320 und 324 bestimmt.
В: Schließende Statistik
307
Dass die Stichprobenmittelwerte χ . um so mehr streuen, je heterogener die Grundgesamtheit ist, liegt auf der Hand; ebenso, dass sie umso weniger streuen, je größer die Stichprobe ist. Auch die Parameter der beiden anderen Stichprobenverteilungen werden von σ bzw. π und л bestimmt. Allerdings sind die Zusammenhänge nicht mehr so einfach plausibel zu machen wie bei der Verteilung der X¡. Im nächsten Abschnitt werden die Verteilungen der X¡,c • f ? und p¡ einschließlich ihrer Parameter exakt und für unterschiedliche Ausgangslagen abgeleitet, um so die verteilungstheoretischen Grundlagen für die induktiven Verfahren zu legen. Die abstrakten Kenntnisse der Konstruktionsprinzipien der Stichprobenverteilungen bleiben allerdings irrelevant, solange μ, σ und π nicht bekannt sind. Das Dilemma der induktiven Statistik liegt nun allerdings darin, dass Stichproben ja gerade dann gezogen werden, wenn die Grundgesamtheit unbekannt ist. Wenn man also nicht aus irgend einem Grund doch noch eine Totalerhebung durchführt, bleibt die Lage der Stichprobenverteilungen im Dunkeln. Die möglichen stategischen Auflösungen dieses Dilemmas ergeben sich in den Kap. 7 und 8. Doch sie sollen hier noch kurz skizziert werden. Eines der Konzepte des Induktionsschlusses ist der Hypothesentest. Dabei werden die Stichprobenverteilungen nicht aus einer gegebenen Grandgesamtheit abgeleitet, sondern aus einer hypothetischen. Fallen die Stichprobenergebnisse in den, der Hypothese entsprechenden "Toleranzbereich", gibt es keinen Grand an der Hypothese zu zweifeln. Fallen die Stichprobenergebnisse jedoch in den "Ausreißer-Bereich", sind Zweifel an der Hypothese angebracht. Das Dilemma, ein Stichprobenergebnis nur vor dem Hintergrand bekannter Parameter der Grandgesamtheit beurteilen zu können, erfährt nun eine handhabbare Reformulierang: Entweder entscheide ich mich für die Hypothese und damit für den wenig wahrscheinlichen Fall, dass die Stichprobe ein Ausreißer war, oder ich glaube nicht an die Seltenheit der Stichprobe und lehne damit die Hypothese ab. Letzteres ist die rationale Strategie, da sie nur in 1 %, 5 % oder 10 % der Fälle - je nach dem wie groß der Ausreißer-Bereich gewählt wurde - zu einer fehlerhaften Ablehnung einer richtigen Hypothese führt. Oft ist es jedoch mangels Vorinformation nicht möglich, eine Hypothese zu formulieren. In diesem Fall versucht man einen Bereich abzuschätzen, in dem der Parameter der Grandgesamtheit mit einer gewissen Vertrauenswürdigkeit zu vermuten ist. Dieser Konfidenzbereich entspricht, wie wir später sehen werden, dem Bereich der durch die beiden am weitesten auseinanderliegenden, gerade noch akzeptablen Hypothesen abgesteckt wird.
308
Teil ¡I: Wahrscheinlichkeitstheorie und statistische Induktion
Zur weiteren Veranschaulichung soll die Verteilung der X, und der 5, für alle denkbaren Stichproben mit η = 3 Elementen anhand einer kleinen Grundgesamtheit mit N = 6 Elementen praktisch bestimmt werden (vgl. Abb. 6.2 und Tab. 6.1).
Aus dieser GG mit μ = 300 und σ = 129,1 lassen sich 20 verschieden zusammengesetzte Stichproben ziehen , deren Verteilungen zusammen mit den zugehörigen X¡ und dem herkömmlichen deskriptiven 5, in der folgenden Tabelle dargestellt sind. AbbUdung 6.2: VerteUung der X, in der GG
f(x)
2
-
1
-
100 200
300 400 μ
500
Aus den 20 Stichproben erhalten wir die entsprechende Anzahl vonX, und jj. Dabei zeigt sich, dass z.T. unterschiedlich zusammengesetzte StPr die gleichen Mittelwerte bzw. Standardabweichungen haben. Femer sehen wir in der dazu gehörenden Graphik, dass die Mittelwerteverteilung einen Mittelwert μ^ = 300 besitzt, der mit dem Mittelwert der GG übereinstimmt und dass die Mittelwerte enger um diesen Mittelwert streuen, als die X¡ in der GG um μ streuen: Es gilt also μ^^ = μ und σ^ < σ. Ebenso wie für die Mittelwerte aus allen möglichen Stichproben ergeben sich Verteilungen für die Standardabweichungen (vgl. z.B. Tab. 6.1, Spalte 8) und die Anteilswerte.
1)
Die Anzahl der möglichen Stichproben beträgt:
= 20
В: Schließende Statistik
Tabelle 6.1: Verteilung der X, und Nr.
100
200
300
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
1 1 1 1 1 1 1 1 1 1
1 1
1 1 2
-
1 1 -
-
-
-
-
-
-
-
-
-
-
-
-
1 1 1 1
1 1
2 1 1 1 1
-
500
1
-
-
400
-
1 1 1 1 1 1
-
in den unterschiedlichen StPr
-
-
1
1
-
1 1 1 -
1 1 1 1
-
2 2 1 1
1 1
-
1 1 1 -
1 1 1
200 200 233,3 233,3 266,6 266,6 266,6 300 300 333,3 266,6 300 300 333,3 333,3 366,6 333,3 366,6 400 400
Abbildung 6.3: Verteilung der Stichprobenmìttelwerte X,
f(x)
4 3 2 1 H
100
1)
200
309
300
400
500
Da wir später mit s¡ arbeiten, gehen wir auf diese Verteilung nicht weiter ein.
82 82 94 125 170 125 125 163 163 170 47 82 82 125 125 125 47 94 82 82
310
6.2
Teil 11: Wahrscheinlichkeitstheorie und statistische Induktion
Die Stichprobenverteilung des aritlimetischen Mittels X^
Wir betrachten zuerst die Verteilung, dann die statistischen Maßzahlen dieser Verteilung. Dabei werden wir die Ergebnisse des obigen Beispiels bestätigen. 6.2.1 DieVerteUungderXj (·)
Die Verteilung der Stichprobenmittelwerte ist nach dem zentralen Grenzwertsatz bei η « (asymptotisch) normalverteilt mit dem Mittelwert μ und der Varianz σ^/и .Dies gilt unabhängig davon, welcher Verteilungsform die Xi der Grundgesamtheit folgen. Voraussetzung ist, dass die betrachtete Zufallsvariable, hier X, , eine (durch η geteilte) Summenvariable aus unabhängigen (unabhängig voneinander gezogenen) Zufallsvariablen mit der gleichen Verteilung (alle Variable werden ja aus der gleichen GG gezogen) ist.
Der Sachverhalt soll anhand der folgenden Abbildung plausibel gemacht werden: Abbildung 6.4: StichprobenverteUungen von X¡ für verschiedene GG
Θ
\ЛгШипд der ûrundgesamtheif №•1
ΗχΙ
ы
ШЩШ. Illlliìw^ Verteàjng das Stictprobermittelwertes Я m w w
(2) пг2
A
ZV
¿ V
л Л л μ
«
μ
Аg
μ
!
tm
(D η=:5 μ
>
μ
*
/ V .
© кЭО μ
*
Bei praktischen Anwendungen setzt man eine hinreichend gute Annäherung an die Normalverteilung bei η >30 voraus.
1)
Quelle: Bleymüller, J./Gehlert, G./Gülicher, H. op.cit., S. 78
В: Schließende Statistik
311
6.2.2 Der Mittelwert μ^ und die Standardabweichung ΰχ (·)
Der Mittelwert der Verteilung der Stichprobenmittel μϊ entspricht dem arithmetischen Mittel μ der GG. Dies wiorde bereits im Abschnitt 5.5 (S.282) gezeigt. (6.1)
μ^ =
E{X)
= μ
[nach
(5.17)]
Man spricht in diesem Zusammenhang davon, dass X erwartungstreu ist. (·)
Die Varianz der Verteilung der Stichprobenmittelwerte VAR{X) ist eine Funktion der Varianz σ^ der GG und des Stichprobenumfangs η. Auch dies war bereits in Kap. 5.5 abgeleitet worden: (6.2)
VARiX)
=
σ|
=
E[X¡-EiX)]
η
[nach
(5.18)]
Wir erhalten damit: (6.3)
σ^
=
-p
.
in
Οχ wird auch als Standardfehler des arithmetischen Mitteis bezeichnet. Abbildung 6.5: Verteilung der X, und X; bei geg. GG und verschiedenen η ЧК-.Х)
0,006--
(I)_J0Q0_7Q 7
0,005-0,004-0,003-0,002--
0,001-Verteilung der GG
2250
2500
3250
3500
3750
4000
DM
312
Teil ¡I: Wahrscheinlichkeitstheorie und statistische Induktion
In Abb. 6.5 setzen wir voraus, dass die Parameter μ und σ der GG bekannt seien. Es handele sich dabei um eine Verteilung der Einkommen mit einem μ = 2000 EUR und einem σ = 1000 EUR. Der einfachheithalber nehmen wir auch an, dass die Verteilung der GG normal sei. Für и = 20 erhält man dazu eine Verteilung der X, , die mit μ^ = 2000 EUR und σ^ = = 223,6 EUR normalverteilt ist. Entscheiden wir uns jedoch für eine größere Stichprobe mit η = 200 , so erhalten wir bei gleichem μ^ nur noch ein σ^ von 70,7 EUR. In Abb. 6.5 ist zu sehen, wie sehr die Variabilität der Stichprobenverteilung derX, mit wachsendem η eingeschränkt wird und wie deutlich die Wahrscheinlichkeit von Stichproben mit Mittelwerten nahe beim Mittelwert der Grundgesamtheit zunimmt. Definiert man etwa Stichprobenmittelwerte, die über eine Obergrenze Χ„ und unter einer Untergrenze X^ liegen, als Ausreißer, so lässt sich die Wahrscheinlichkeit dieser Ausreißer statistisch bestimmen: P[(XXo)]
-
P(X3500)
2P{X>Xo)
und
Χ,-μ^
=
ρ Z>Zo
=
ρ
=
P(Z>2,24)
=
0,0125
z>
=
=
2500-2000 223,6
Damit zeigt sich, dass Abweichungen von mehr als 500 EUR vom Mittelwert der GG (das sind prozentual gesehen noch nicht einmal 17%) bereits nur noch mit etwa 2,5 % Wahrscheinlichkeit zu erwarten sind.
В: Schließende Statistik
313
Dieses Ergebnis wird durch einen Blick auf Abb. 6.5 bestätigt. " Betrachten wir nun die größere Stichprobe (n = 200), so sind 90 % aller Stichprobenmittelwerte nach der folgenden Berechnung in einem Intervall μ ± 116,7 EUR zu finden: Ρ (-1,65
< Ζ
< +1,65)
±Zo = ^
=
0,90
=
±1,65
аЫп
Xy
Xy
, Xo
=
=
μ
± zo
=
2000
1883,3
EUR
±
1,65
, Xo =
· 70,7 2116,7
EUR
6.2.3 Der Endlichkeitsfaktor (·)
Bei der Ableitung der Varianz der X, (vgl. (6.2)) hatten wir die stochastische Unabhängigkeit der einzelnen Stichprobenelemente vorausgesetzt. Dies ist bei kleinen Grundgesamtheiten, genauer gesagt bei einem relativ großem Auswahlsatz von ^ > 0,05 eine unzulässige Annahme. Wir korrigieren für diesen Fall die abgeleitete Standardabweichung um einen Endlichkeitsfaktor
und erhalten θχ = ·^· л ^ ^ und damit die Stan-
dardnormalvariable (6.5) Ζ
=
Χ-μ
Als Beispiel soll für die Daten der Tabelle 6.1 die Standardabweichung der Verteilung der X, berechnet werden: σ
1)
129,1
Es ist bei allen statistischen Aufgabensteilungen immer sinnvoll, sich die Gegebenheiten in der GG oder der StPr-Verteilung graphisch zu skizzieren. (Dazu ein Tipp: Zuerst den Kurvenzug zeichnen und dann entsprechend den Wendepunkten die X-Achse skalieren).
314
Teil II: Wahrscheinlichkeitstheorie und statistische Induktion
6.2.4 Übungsaufgaben Aufgabe 28
Eine Gesamtheit vom Umfang N= 5 lasse sich wie nebenstehend charakterisieren: a)Bestimmen Sie arithmetisches und Varianz der Gesamtheit!
Mittel
Jetzt werden aus dieser Gesamtheit Auswahlen ohne Wiederholung vom Umfang n = 2 gezogen.
i
Xi
fi
1
2
1
2
4
1
3
6
1
4
8
1
5
10
1
b) Bestimmen Sie die exakte Verteilung des Stichprobenmittels diese graphisch dar!
und stellen Sie
c) Bestimmen Sie den Mittelwert und die Varianz des Stichprobenmittels! d) Wie groß ist die Wahrscheinlichkeit dafür, dass das Stichprobenmittel zwischen 4 und 6 einschließlich dieser Grenzen annimmt?
Werte
Aufgabe 29 Nehmen Sie Stellung zu folgenden
Aussagen:
a) Der Erwartungswert der arithmetischen Mittel einer Zufallsvariablen in gleichartigen Stichproben aus derselben Grundgesamtheit ist gleich dem arithmetischen Mittel der Grundgesamtheit. b) Der Erwartungswert der Standardabweichungen gleichartigen
Stichproben
Standardabweichung
s¡ einer Zufallsvariablen in
aus derselben Grundgesamtheit
ist gleich der
о dieser Zufallsvariablen in der Grundgesamtheit.
c) Der Betrag des Standardfehlers des arithmetischen Mittels einer Zufallsvariablen verhält sich umgekehrt proportional zum Betrag der Varianz dieser Variablen in der Grundgesamtheit. d) Der Betrag des Standardfehlers des arithmetischen Mittels einer Zufallsvariablen verhält sich proportional zum Stichprobenumfang. e) Das Verhältnis Standardabweichung zu arith. Mittel in einer Stichprobe ist immer gleich diesem Verhältnis in der zugehörigen Grundgesamtheit. f)
Der Maximalwert der Dichte einer normalverteilten Zufallsvariable ist μ.
В: Schließende Statistik
31 5
g) Für eine normalverteilte Zufallsvariable gilt: Je größer σ, desto kleiner ist das Maximum der Dichte. Aufgabe 30 Eine Baumschule liefert an eine Baumarktkette Edelrosen als geschlossene Partie von 1200 Stück, deren Höhe normalverteilt ist mit einem Mittelwert von 60 cm und einer Varianz von 36 cm^. a) Es werden Stichproben vom Umfang 36 gezogen. a¡ ) Welcher Anteil der Stichproben wird einen Mittelwert zwischen 59 und 61 cm liefern? 02 ) In welchem symmetrischen Intervall um den Mittelwert der GG liegen 90% aller Stichprobenmittelwerte ? b) Es werden Stichproben ohne Zurücklegen vom Umfang 100 gezogen. b¡} Welcher Anteil der Stichproben wird einen Mittelwert zwischen 59 und 61 cm liefern? ¿2 ) In welchem symmetrischen Intervall um den Mittelwert liegen 95% aller Stichprobenmittelwerte ?
6.3
Die Stichprobenverteilimg der modifizierten Varianz ^ · f
Wie sich im Folgenden zeigen wird, liegt dem Induktionsschluss auf die Streuung der Grundgesamtheit nicht das bisher verwendete deskriptive Konzept der Streuungsmessung zugrunde, sondern ein induktives, das einen erwartungstreuen Schluss der Streuung der Stichprobe auf die der Grundgesamtheit erlaubt. Darüber hinaus betrachten wir nicht die Verteilung dieser erwartungstreuen Standardabweichung, sondern die einer modifizierten und zusätzlich mit einer Konstanten multiplizierten Varianz (vgl. Abschnitt 6.3.2). 6.3.1 Das Konzept der erwartungstreuen Standardabweichung s (·)
Verwendet man bei Stichproben eine Standardabweichung, wie wir sie in der deskriptiven Statistik definiert hatten ( j
=
- Х / ), dann entspricht
deren Erwartungswert E{s) nicht dem entsprechenden Parameter σ der GG. Man sagt s ist nicht erwartungstreu. Dies kann man einfach für die Varianz
zeigen:
316
Teil II: Wahrscheinlichkeitstheorie und statistische Induktion
Bei der Bestimmung des Erwartungswertes von quadrierten Abweichungen in StPr ist es sinnvoll, nicht von den Abweichungen der StPr-Beobachtungen von ihrem eigenen Mittelwert auszugehen, sondern von den (unbekannten) Abweichungen vom (unbekannten) Mittelwert der GG. Abbildung 6.6: Abweichung des Stichprobenbeobachtung Xi von μ
(+)
(+)
X. Legende:
X2
Xi- μ ^-X X- μ
Für die quadrierten Abweichungen der Stichprobenwerte vom Mittelwert μ der GG gilt: -
Σ(,χ-μγ
=
-
η
= i
η
Ι{χ-ΧΫ
+
[vgl.Abb.6.6]
Σ [(χ,-Χ) + (Χ-μ)]' -
Σ(Χ-μ)' + 2 - (Χ-μ) · Σ(χ,-Χ) [mit Σ(χ,-Χ) = 0] (Χ-μ)'.
Daraus folgt: = -
Σ(;c,-μ)^ -
(Χ-μ)^
-
-
Σ
-
-
—
η
σ^
=
с/
-
^
η
£(/)
(6.6)
E(s')
η
-
=
cjÍ
und
£(Χ-μ)
,
^ σ ^
womit
В: Schließende Statistik
31 7
Orientiert man sich bei einer Abschätzung der Varianz (f der Grundgesamtheit an der herkömmlich definierten Varianz s^ der Stichprobe, so kommt es zu einer systematischen Unterschätzung der Varianz der Grundgesamtheit. Die Differenz zwischen dem Erwartungswert dieser Größe und dem wahren Wert des Parameters wird als Bias (Verzerrung) bezeichnet. (·)
Verwendet man statt = (6.7)
eine nur unwesentlich veränderte Stichprobenvarianz
H x ^ - X f mit
Eis')
=
E
=
n-l
gilt:
n-1
•
Eis"·)
=
σ'
und es ergibt sich mit s ein erwartungstreuer Schätzwert für die Standardabweichung der Grundgesamtheit. 6.3.2 Die Verteilung der modifizierten Varianz ^ (·)
^^
Für spätere Zwecke ist es sinnvoll, nicht die Verteilung von f ^, sondern die von ^ ·
zu betrachten. Dabei sind и - 1
und
σ^
bei gegebener
Grundgesamtheit und gleichbleibender Stichprobengröße Konstanten. Betrachten wir die normalverteilten, unabhängigen Zufallsvariablen x¡ und deren Standardisierungen Z/ χ^ - verteilt mit {n-l)s'
=
(6.8)
.
ist
n-\
=
, so ist Σ(Ζ*)^ nach 5.6 (annähernd)
Freiheitsgraden
Daraus ergibt sich über
I { x . - X f :
Σ
(Z;)^ .
χ^ - verteilt mit
φ =
^ n-l
= Freiheitsgraden.
= Vorausgesetzt wird
dabei eine normalverteilte GG.
1)
Unmittelbar χ^ - verteilt nach Abschnitt 5.6 ist allerdings nur T(Zif mit Z, = ^
mit η FG.
2)
Von den η Differenzen (x¡-X) sind nur η - 1 voneinander unabhängige Zufalls variablen. Der Betrag der η - ten Differenz muss so groß sein, daß sich die Summe der Differenzen zu Null aufaddiert.
318
Teil И: WahrscheinUchkeUstheorie und statistische Induktion
Nehmen wir an, in der GG sei die Varianz σ^ =
1000^ , dann können wir für
die jeweils ins Auge gefasste StPr-Größe η (hier: η — 20 ) die Verteilung von χ'
= ^
·
ableiten und graphisch darstellen.
AbbUdung 6.7: VerteUung der χ ' = ^
s'
für φ =
Ì9FG
f ( λ ' ; φ = 19) 0,075-
0,05-
0,025-·
Wir errechnen nun für diese Grandgesamtheit, in welchem Intervall 90 % aller Stichprobenvarianzen bzw. -standardabweichungen liegen werden (φ = л - 1 = 19) Pixl
P(10,117 Aus χ?, = ^
5 annähernd χ^ verteilt (η = Ση,).
Wir formulieren als Nullhypothese, dass die Abweichungen zwischen den empirischen Häufigkeiten f¡ oder n¡ und den theoretisch zu erwartenden absoluten Häufigkeiten η • p¡ dem Zufall zuzuschreiben sind. (·)
Weicht die Stichprobenverteilung nicht von der hypothetischen Verteilung der GG ab, hat die Teststatistik '' (7.20)
χ^=Σ i-1
Í
Ζ/=Σ /=1
in^-n-pd' η
,
0 = Jt-l
Pi
den Wert Null.
1)
Weil die in (7.20) eingehenden Größen im Prinzip diskreter Natur sind, wird in der Literatur vor allem bei φ = 1 als Stetigkeitskorrektur vorgeschlagen, den Zähler der Summanden durch (I n, - η · p¡\ - 0,5f zu ersetzen (sog. Yates-Korrektur).
348
Teil 11: Wahrscheinlichkeitstheorie und statistische Induktion
Nimmt χ^ jedoch Werte an, die weit darüber liegen, stellt sich wieder die Frage, ob die gezogene Stichprobe ein seltener Ausreißer ist oder ob unsere Verteilungsannahme über die GG nicht zutrifft. Wir beantworten diese Frage wie beim Hypothesentest üblich, indem wir über ein vorgegebenes Signifikanzniveau Oo einen Annahme- und rechtsseitigen Ablehnungsbereich für die empirische Teststatistik χ^ bestimmen. (·)
Es gilt im rechtsseitigen Test Нц: ,
Der Wert von
(n¡ —η • p¡f
χ^ = 0 als angenommen, wenn: .
ψ, wird für φ Freiheitsgrade und einem Signifikanzniveau von Oo
aus der Tabelle der χ^ - Verteilung abgelesen. Bei einer stetigen Variablen ergeben sich die Wahrscheinlichkeiten p, als Integral über die Dichtefunktion der Zufallsvariablen in den Grenzen der empirisch vorgegebenen Merkmalsklassen " :
(7.22)
p,
=
fix)dx
-
F
-
F
m¡ - с / 2
(·)
Stellt sich heraus, dass die absoluten Werte η • p¡ «> gegen Null: 0
Q
1 - F ( 0
=
1 -
V
F l ä c h e n f ü r P{t
f ü r íq > 0
1
~ ¡
A b b i l d u n g 9.5:
1 - F{Q
.
l
1 + Φ;
dt
> t^)
f(to)J / 0 * /
i
/
/
i
y
»
»
t
4
\
φ =10
»
= 0,05 tap= 1,812
T a b e l l e 9.6
t · Verteilung - Randwahrscheinlichkeiten
φ| 0,400
0,300
0,250 ^ 0 0
0,100
OjOSO 0,025
0,010
0,005
0,001
1 2 3 4 5
0,325 0,289 0,277 0,271 0,267
0,727 0,617 0,584 0,569 0,559
1,000 0,816 0,765 0,741 0,727
1,376 1,061 0,978 0,941 0,920
3,078 1,886 1,638 1,533 1,476
6,314 2,920 2,353 2,132 2,015
12,71 4,303 3,182 2,776 2,571
31,82 6,965 4,541 3,747 3,365
63,66 9,925 5,841 4,604 4,032
318,3 22,33 10,21 7,173 5,893
6 7 8 9 10
0,265 0,263 0,262 0,261 0,260
0,553 0,549 0,546 0,543 0,542
0,718 0,711 0,706 0,703 0,700
0,906 0,896 0,889 0,883 0,879
1,440 1,415 1,397 1,383 1,372
1,943 1,895 1,860 1,833 1,812
2,447 2,365 2,306 2,262 2,228
3,143 2,998 2,896 2,821 2,764
3,707 3,499 3,355 3,250 3,169
5,208 4,785 4,501 4,297 4,144
11 12 13 14 15
0,260 0,259 0,259 0,258 0,258
0,540 0,539 0,538 0,537 0,536
0,697 0,695 0,694 0,692 0,691
0,876 0,873 0,870 0,868 0,866
1,363 1,356 1,350 1,345 1,341
1,796 1,782 1,771 1,761 1,753
2,201 2,179 2,160 2,145 2,131
2,718 2,681 2,650 2,624 2,602
3,106 3,055 3,012 2,977 2,947
4,025 3,930 3,852 3,787 3,733
16 17 18 19 20
0,258 0,257 0,257 0,257 0,257
0,535 0,534 0,534 0,533 0,533
0,690 0,689 0,688 0,688 0,687
0,865 0,863 0,862 0,861 0,860
1,337 1,333 1,330 1,328 1,325
1,746 1,740 1,734 1,729 1,725
2,120 2,110 2,101 2,093 2,086
2,583 2,567 2,552 2,539 2,528
2,921 2,898 2,878 2,861 2,845
3,686 3,646 3,610 3,579 3,552
=
a
В: Schließende Statistik
t - Verteilung (Fortsetzung)
0,400 0,300 0j250 O J O O 0,100 21 0,257 0,532 0,686 0,859 1,323 22 0,256 0,532 0,686 0,858 1,321
0,050
0,025
0,010
0,005
0,001
2,080 2,074 2,069 2,064 2,060
2,518 2,508 2,500 2,492 2,485
2,831 2,819 2,807 2,797 2,787
3,527 3,505 3,485 3,467 3,450
0,532 0,531 0,531
0,685 0,685 0,684
0,858 0,857 0,856
1,319 1,318 1,316
1,721 1,717 1,714 1,711 1,708
26 0,256 0,531
23 24 25
0,256 0,256 0,256
29 30
0,256 0,256 0,256 0,256
0,531 0,530 0,530 0,530
0,684 0,684 0,683 0,683 0,683
0,856 0,855 0,855 0,854 0,854
1,315 1,314 1,313 1,311 1,310
1,706 1,703 1,701 1,699 1,697
2,056 2,052 2,048 2,045 2,042
2,479 2,473 2,467 2,462 2,457
2,779 2,771 2,763 2,756 2,750
3,435 3,421 3,408 3,396 3,385
40 50 100 150 00
0,255 0,255 0,254 0,254 0,253
0,529 0,528 0,526 0,526 0,524
0,681 0,679 0,677 0,676 0,675
0,851 0,849 0,845 0,844 0,842
1,303 1,299 1,290 1,287 1,282
1,684 1,676 1,660 1,655 1,645
2,021 2,009 1,984 1,976 1,960
2,423 2,403 2,364 2,351 2,327
2,704 2,678
3,307 3,261 3,174 3,145 3,091
27
28
2,626 2,609 2,576
391
392
Teil II: Wahrscheinlichkeitstheorie und statistische Induktion
9.7 F - VerteUung - Randwahrscheinlichkeiten 1 - F ( F ^ ) 9.7.1
Graphische Darstellung zur F - Verteilung
Abbildung 9.6: Flächen für Ρ ( F > F J
9.7.2
bei φ, = 6 und φ2 = 4
Tabellen zur F - Verteilung
Vorbemerkung: Da die Randwahrscheinlichkeiten der F - Verteilung eine Funktion von drei Variablen sind (Wert der Zufallsvariablen F , des Zählerfreiheitsgrades Φι und des Nennerfreiheitsgrades Φ2 ), werden die Funktionswerte F ^ nur noch für ausgewählte Freiheitsgrade und relevante Randwahrscheinlichkeiten von Oo tabelhert. In den folgenden Tabellen erfolgt dies für Oq = 0,05 (Tab .9.7) und ao = 0,01 (Tab. 9.8). Auf eine Tabellierung der Funtionswerte für die linken Randwahrscheinlichkeiten 1 - Oo = 0,99 und 1 - Oq = 0,95 kann verzichtet werden, weil sich deren Funktionswerte aus der folgenden Beziehung ergeben:
В: Schließende Statistik
Tabelle 9.7:
393
Kritische F ^ • Werte für Oo = 0,05 und ausgewählte Freiheitsgrade Ф, und Ф2
NJs U) cC oо m M о to С0_C CD M со C r^MC C D^сLO ΟΟ00 г- сΓмν 0ч0 5 ро^ to •β· § in со ccoo осм_ со m от ro 0 0 » Γco оэ tto" О)"оо" uí со соco" со" CJ-OJ evi со CM-см"co CM-evi см"СМ-c\¡г СМ-CO-см"COC M C M J Ш ρ ES S g cюo s соо s s s s § ΓΙΟ C соOа s SI 0см г- LOот- s s го to ω g Oi С с о co' О c o " с о " с м -C M -C M C O -с м " CM" см-см со С Мсо1СМ-СМ-см"00-со с о 4 OJ m σ> C СОσ> о LOL U) to LO0) to to сO (DT-T-h-r^(DO)COLOCOOÌCMr^CMOO ^ со U) eg O-^incO-^t^CMOt^lO'^COCM-'-'-OOCJ) co" ai oo" m" co" co" см" см" cj" см" см" см" см" eg" eg" см" τ-" аэг^0)с0'^о^сз)сдо>соосмшт-(осд®1лсм(лш'*1-ем^'^аосо1л(з>со •^ioto-^r^coor^(D-^cococgT-^oo05cftoooococor-cDmu>Tí-coco О)" oo" io" те" co" co" co" см" см" eg" см" см" см" eg" eg" eg" ем" г-" --" --" --" >-"
т-" >-"
ооооочюедедо-^^о^-^шсмсо-^ог^-^^оосо-^юсоососот-ю О)" со" со" со" со" см" eg" eg" см" eg" eg" см" ej eg" ei см" -г-" •.-" -г-" τ-"
т-" ·τ-"
ш Г^ Tt ' 0)OOlO^COCOCOCMCNlCNJCNJCNlCNlOJC\JOJCNJCNiCNJCMCNj4-i~4-i-4-T-f-^T-^ tOCOr^CNJCOOi-0)C000^400COOO^^b.lOCNiOh. ^