Statistische Methodenlehre: Ein Lehr- und Arbeitsbuch [5 ed.] 9783886405558, 9783886401550

Die Zielsetzung des Buches besteht darin, eine Einführung in die elementaren Methoden der Statistik zu geben und zwar so

128 22 5MB

German Pages 172 [173] Year 2012

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Statistische Methodenlehre: Ein Lehr- und Arbeitsbuch [5 ed.]
 9783886405558, 9783886401550

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

S

tatistik

Statistische Methodenlehre Ein Lehr- und Arbeitsbuch Bernd Ziegler

ge

ufla 5. A

Deutscher Betriebswirte-Verlag GmbH

Bernd Ziegler

Statistische Methodenlehre

Bernd Ziegler

Statistische Methodenlehre Ein Lehr- und Arbeitsbuch + moderne Datenanalyse (Statistik mit Excel/SPSS unter Windows)

4. Auflage 5. Deutscher Betriebswirte-Verlag, Gernsbach Betriebswirte-Verlag GmbH, Gernsbach

Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Angaben sind im Internet über www.ddb.de abrufbar.

5. 4. überarbeitete überarbeitete Auflage und erweiterte Auflage © © Deutscher Deutscher Betriebswirte-Verlag Betriebswirte-Verlag GmbH, GmbH, Gernsbach Gernsbach2012 2007 Satz: Claudiaund Wild, Konstanz Druckhaus Beltz, Hemsbach Satz, Druck Bindearbeit: Druck: KN Digital Printforce GmbH, Stuttgart ISBN 978-3-88640-126-0 ISBN 978-3-88640-155-0

Vorwort

9

I

Einleitung

13

II

Allgemeine Grundlagen 1 Grundbegriffe der Statistik 1.1 Statistische Einheiten und statistische Masse 1.2 Statistische Merkmale 1.2.1 Qualitative Merkmale 1.2.2 Quantitative Merkmale 1.3 Skalentypen und Messniveau 1.3.1 Nominalskala 1.3.2 Ordinalskala 1.3.3 Intervallskala 1.3.4 Verhältnis- oder Rationalskala 1.4 Übungsaufgaben 2 Grundlegende Probleme der Erhebung und Aufbereitung statistischen Materials 2.1 Erhebung 2.2 Aufbereitung 2.2.1 Gruppenbildung bei qualitativen Merkmalen 2.2.2 Gruppenbildung bei quantitativ-diskreten Merkmalen 2.2.3 Gruppenbildung bei quantitativ-stetigen Merkmalen

16 16 16 17 17 18 19 19 19 20 20 22

III

Eindimensionale Häufigkeitsverteilungen 1 Darstellung eindimensionaler Häufigkeitsverteilungen 1.1 Eindimensionale Häufigkeitsverteilung qualitativer Merkmale 1.1.1 Häufigkeitstabelle 1.1.2 Grafische Darstellung 1.2 Eindimensionale Häufigkeitsverteilung quantitativdiskreter Merkmale 1.2.1 Häufigkeitstabelle 1.2.2 Grafische Darstellung 1.3 Eindimensionale Häufigkeitsverteilung quantitativstetiger Merkmale 1.3.1 Klassenbildung 1.3.2 Häufigkeitstabelle 1.3.3 Grafische Darstellung (Histogramm) 1.3.4 Summenhäufigkeitsfunktion 1.3.5 Übergang zu einer kontinuierlichen Kurve 1.4 Übungsaufgaben

5

23 23 24 24 24 25 26 26 26 27 28 29 30 31 32 32 33 34 35 36 38

2 2.1 2.1.1 2.1.2 2.1.3 2.1.4 2.2 2.2.1 2.2.2 2.2.3 2.2.4 2.2.5 2.3 2.4 2.5 IV

V

Beschreibung eindimensionaler Häufigkeitsverteilungen durch statistische Maßzahlen Mittelwerte Arithmetisches Mittel Zentralwert (Median) Häufigster Wert (Modus) Geometrisches Mittel Streuungsmaße Spannweite Mittlerer Quartilsabstand Durchschnittliche absolute Abweichung Varianz und Standardabweichung Variationskoeffizient Das Konzept der Momente (Schiefe und Wölbung) Konzentrationsmaße Übungsaufgaben

39 39 39 42 44 45 46 46 46 47 49 50 51 52 56

Zweidimensionale Häufigkeitsverteilungen 1 Darstellung zweidimensionaler Häufigkeitsverteilungen 2 Analyse zweidimensionaler Verteilungen 2.1 Regressionsanalyse 2.1.1 Streuungsdiagramm 2.1.2 Bestimmung einer (linearen) Regressionsfunktion nach der Methode der kleinsten Quadrate 2.1.3 Bestimmtheitsmaß 2.2 Korrelationsanalyse 2.2.1 Korrelationskoeffizient nach Bravais-Pearson 2.2.2 Der Zusammenhang zwischen dem Bestimmtheitsmaß und dem Korrelationskoeffizienten nach Bravais-Pearson 2.2.3 Rangkorrelationskoeffizient nach Spearman 2.3 Übungsaufgaben

58 59 64 64 64

Zeitreihenanalyse 1 Vorbemerkungen 2 Zerlegung einer Zeitreihe 2.1 Die Komponenten einer Zeitreihe 2.2 Die Verknüpfung der Komponenten 3 Bestimmung der Trendkomponente 3.1 Methode der gleitenden Durchschnitte 3.2 Methode der kleinsten Quadrate 4 Bestimmung der Saisonkomponente 5 Übungsaufgaben

82 82 82 82 83 85 85 88 92 96

6

62 69 72 73 75 77 80

4.2 Histogramm, Häufigkeitspolygon und Summen häufigkeitsfunktion (Verteilungsfunktion) Indexzahlen 5 Regressions- und Korrelationsanalyse 1 Vorbemerkungen Zeitreihenanalyse 26 Preisindizes 7 Binomialverteilung 2.1 Preisindex nach Laspeyres 8 Normalverteilung 2.2 Preisindex nach Paasche Schätzverfahren (Konfidenzintervall) 39 Mengenindizes 10 Testverfahren (Hypothesentest für das 4 Umsatzindizes (Wertindizes) arithmetische Mittel) 511 Weitere Sonderformen von Preisindizes Chi-Quadrat-Unabhängigkeitstest Verkettung von 6 Umbasierung und Verknüpfung vonIndizes Indizes Deflationierung IX 7Datenanalyse mit SPSS mithilfe von Preisindizes 81 Einige wichtige amtliche Indexzahlen Vorbemerkungen 92 Übungsaufgaben Die Daten 3 Start von SPSS VII Schließende Statistik 4 Dateneingabe und Definition der Variablen 15 Grundlagen der Wahrscheinlichkeitsrechnung Auswahl, Gewichten und Transformation von Daten 5.1 Daten auswählen und gewichten 1.1 Wahrscheinlichkeitsbegriffe 5.2 Daten transformieren 1.2 Wahrscheinlichkeitsverteilungen 6 Deskriptive Statistik I – Darstellung und Beschreibung 1.2.1 Binomialverteilung eindimensionaler Häufigkeitsverteilungen 1.2.2 Normalverteilung Häufigkeitstabelle 26.1 Stichproben und Stichprobenverteilungen 6.2 Statistische Maßzahlen (Perzentile, Lagemaße, 2.1 Grundgesamtheit und Stichprobe Streuung, Verteilung) 2.2 Stichprobenverteilungen 6.3 Grafische Darstellungen 2.2.1 Stichprobenverteilung des Anteilswertes 7 Deskriptive Statistik IIdes – Zweidimensionale 2.2.2 Stichprobenverteilung arithmetischen Mittels Häufigkeitsverteilungen 37.1 Schätzverfahren Korrelationsanalyse 3.1 Konfidenzintervall 7.2 Regressionsanalysefür das arithmetische Mittel 3.2 Konfidenzintervall für den Anteilswert 8 Schließende Statistik 48.1 Testverfahren Die Daten 4.1 Grundstruktur 8.2 Hypothesentestvon undHypothesentests Konfidenzintervall 4.2 Parametertests für den Mittelwert 4.2.1 Hypothesentest für Anteilswert 8.3 undden Konfidenzintervall 4.2.2 Hypothesentest für das arithmetische Mittel für den Anteilswert 4.3 Chi-Quadrat-Unabhängigkeitstest 8.4 Hypothesentest für die Differenz zweier Mittelwerte 4.4 Übungsaufgaben 8.5 Chi-Quadrat-Unabhängigkeitstest VIII Statistik mit Excel Anhang l Der Start von Excel 2 Der Excel-Bildschirm Tabellen 3 Berechnungen mit Excel 4A 1. Standard-Normalverteilung Statistik mit Excel A 2. Chi-Quadrat-Verteilung 4.1 Beschreibung eindimensionaler HäufigkeitsA 3. Prozentpunkte der durch t-Verteilung verteilungen statistische Maßzahlen (Mittelwerte, Streuungsmaße) Literaturverzeichnis 4.1.1 Mittelwerte 4.1.1.1 Ungruppierte Daten Stichwortverzeichnis 4.1.1.2 Gruppierte Daten 4.1.2 Streuungsmaße VI

8 77

172 98 178 98 182 100 188 102 190 104 191 105 106 192 106 194 107 108 196 109 196 111 197 198 113 200 113 204 204 114 208 117 120 212 125 212 131 131 213 133 216 134 136 218 140 218 140 221 144 225 146 226 146 150 226 150 154 229 157 231 160 233 162 236 162 162 162 164 237 163 168 238 164 239 165 168 241 167 168 168 169 244 170 171

Vorwort zur 5. Auflage Die vorliegende 5. Auflage folgt dem Grundsatz "back to basics", d. h. es wird zu dem zurückgekehrt, was die 1. Auflage prägte – ein möglichst einfacher und allgemein verständlicher Einstieg in die Methoden der beschreibenden und schließenden Statistik. Auf die bisherigen Kapitel "Statistik mit Excel" und "Datenanalyse mit SPSS" wurde verzichtet. Der Grund hierfür liegt darin, dass es mittlerweile genügend Lehrbücher gibt, die sehr viel umfangreicher in die moderne Datenanalyse einführen, als dies in einem Lehrbuch, das sich mit den Grundlagen der Statistik beschäftigt, möglich ist. Alle Leser und Leserinnen, welche dieses Zusatzangebot vermissen werden, bitte ich ausdrücklich um Nachsicht. Ich hoffe aber, dass es die Freude, sich mit Statistik zu befassen, nicht schmälern wird. Für kritische und zugleich hilfreiche Anmerkungen, die ich nahezu alle übernommen habe, möchte ich Herrn Dr. Andreas Szczutkowski, Universität Bielefeld, Fakultät Wirtschaftswissenschaften, ganz herzlich danken. Hamburg, im April 2012

8

Vorwort zur 4. Auflage Bei der Neuauflage wurde die bewährte Struktur des Buches beibehalten. Trotzdem sind an einigen Stellen Änderungen und Erweiterungen des Textes eingeflossen. Das Kapitel IX Datenanalyse mit SPSS wurde an die Version 14.0 angepasst. Mein besonderer Dank gilt wiederum Herrn Diplom-Volkswirt Derek Burgert, Doktorand an der Universität Lüneburg, ohne dessen wertvolle Hilfe dieses Kapitel nicht zustande gekommen wäre. Gleichfalls danke ich der SPSS Software GmbH in München für die Überlassung des Programms. Ebenso wurde Kapitel VIII im Hinblick auf Excel 2003 überarbeitet. Für kritische Anmerkungen bin ich stets dankbar (E-Mail: [email protected]) Hamburg, im April 2007

99

Vorwort zur 3. Auflage In der vorliegenden 3. Auflage wurde der Text gründlich überarbeitet und wesentlich erweitert. Neu hinzugekommen ist ein Kapitel über das in den Wirtschafts- und Sozialwissenschaften am weitesten verbreitete reine StatistikProgrammpaket SPSS unter Windows (in der Version 11.5). Für seine Mitarbeit an der Entstehung dieses Kapitels danke ich Herrn Diplom-Volkswirt Derek Burgert, Wissenschaftlicher Mitarbeiter am Forschungsinstitut „Freie Berufe“ an der Universität Lüneburg. Bei der Überarbeitung von Kapitel VIII (Anpassung an Excel 2002) hat mir Frau Diplom-Volkswirtin Marcelle Weber wertvolle Hilfe geleistet. Außerdem wurden die Grundlagen der Wahrscheinlichkeitsrechnung ausführlicher behandelt. Aktualisiert wurde der Abschnitt über die amtlichen Indexzahlen. Auch das Literaturverzeichnis wurde auf den neuesten Stand gebracht. Für kritische Anmerkungen bin ich stets dankbar. (E-Mail: [email protected]) Hamburg, im Oktober 2003

Vorwort zur 2. Auflage Das Buch Grundlagen der statistischen Methodenlehre hat sich als Begleittext zu meiner Statistik-Vorlesung bewährt. Für die zweite Auflage wurden einige kleinere Korrekturen vorgenommen und der Text an wenigen Stellen geringfügig erweitert. Das Kapitel Indexzahlen und das Literaturverzeichnis wurden aktualisiert. Der Einsatz der Personal-Computer (PC) in der Statistik hat in den vergangenen Jahren stark zugenommen. Deshalb wird in einem neu hinzugefügten Kapitel exemplarisch aufgezeigt, wie die in diesem Buch behandelten Methoden unter Verwendung eines PC umgesetzt werden können. Ausgewählt wurde kein spezielles Statistik-Programmsystem, wie beispielsweise SPSS, STATGRAPHICS oder SYSTAT, sondern das weitverbreitete, vielseitige und benutzerfreundliche Tabellenkalkulationsprogramm EXCEL 97, mit dem in relativ einfacher Weise statistische Auswertungen vorgenommen werden können. Für die hilfreiche Unterstützung bei der Anfertigung dieses Kapitels schulde ich Herrn Diplom-Betriebswirt Onur Ösme großen Dank. Hamburg, im März 1998

10

Vorwort "Statistik ist eine lebendige und interessante Wissenschaft, aber ihr Studium kann tödlich langweilig sein." - "Der Leser wird eingeladen, den Autor auf einer relativ schmerzlosen Reise durch die Statistik und statistischen Methoden zu begleiten." "So lügt man mit Statistik." - "Trau keiner Statistik, die Du nicht selbst gefälscht hast." Mit solchen und ähnlichen Formulierungen wird versucht, bei interessierten Lesern Verständnis für ein Gebiet zu wecken, das oft mit unangenehmen Vorstellungen von irgendwelchen "Zahlenfriedhöfen" oder einer endlosen "Zahlenhuberei" verbunden ist. Statistik gilt nach wie vor als Sache für Spezialisten, den "Statistiker" eben, der zumeist leicht belächelt wird. Andererseits leben wir in einem Zeitalter der Statistiken. Daten, Fakten, Tabellen, Kurven, Trends und Tests stürmen nahezu täglich auf uns ein. Verwaltung, Verkehr, Wirtschaft, Versorgung und Entsorgung in modernen Industriestaaten sind in zunehmendem Maße auf mittel- und langfristiges Vorausplanen angewiesen. Planung aber ist ohne Statistik nicht möglich. Während die Statistik früher vor allem eine beschreibende Funktion hatte, rückt gegenwärtig ihre operationale Funktion, d.h. ihre Anwendung bei der Entscheidungsfindung, in den Vordergrund. Dieses Buch versteht sich nun keineswegs als ein weiterer Text zum Thema "Statistik - Lügen oder Wahrheit". Die Zielsetzung liegt vielmehr darin, dem unkundigen, aber interessierten Leser eine verständliche Einführung in die elementaren Methoden der Statistik zu geben und zwar sowohl der beschreibenden (deskriptiven) wie der schließenden (induktiven) Statistik. Bei der Durchsicht der beachtlichen und ständig wachsenden Zahl von Statistik-Lehrbüchern ist festzustellen, dass sie sich entweder auf die Methoden der beschreibenden Statistik beschränken oder so stark von mathematischen Formeln durchsetzt sind, dass die Lektüre ohne ein umfangreiches mathematisches Wissen und Können (deren Besitz kein Nachteil ist) bewältigt werden kann. Demgegenüber wird in diesem Buch versucht, den Zugang zur beschreibenden und schließenden Statistik miteinander zu verbinden und eine Darstellungsform zu wählen, die weder den Leser oder die Leserin abschreckt, noch den Schwierigkeiten des Stoffes unangemessen ist. Der Leser sollte allerdings nicht erwarten, dass er über alle statistischen Verfahren umfassend informiert wird. Dazu sind viele dieser Verfahren zu komplex und haben in der Tat zu viele Voraussetzungen mathematischer Art. Für das Verständnis dieses Buches sind bis auf Kenntnisse in den vier Grundrechenarten und einigen Grundregeln der Differential- und Integralrechnung keine besonderen mathematischen Voraussetzungen erforderlich.

11

Das Buch ist entstanden aus mehrjährigen, lust- wie leidvollen Erfahrungen, vor allem mit Studierenden des Zweiten Bildungsweges. Ihnen allen möchte ich danken, dass sie mich stets gezwungen haben, komplexe Sachverhalte so einfach wie möglich zu erklären. Von daher definiert sich auch die Zielgruppe des Buches: es richtet sich an Studierende der Wirtschafts- und Sozialwissenschaften, die an Fachhochschulen oder Universitäten - freiwillig oder dem Zwang der Prüfungsordnung gehorchend - ihre ersten "Gehversuche" auf dem Gebiet der statistischen Methodenlehre unternehmen. Darüber hinaus kann das Buch überall dort eingesetzt werden, wo die Vermittlung statistischer Methoden auf dem Lehrplan steht, wie z.B. an Institutionen der Fort- und Weiterbildung. Im ersten Teil werden wichtige Grundbegriffe der Statistik sowie einige grundlegende Probleme der Erhebung und Aufbereitung statistischen Materials behandelt. Die Methoden zur Darstellung und Beschreibung eindimensionaler Häufigkeitsverteilungen stehen im Vordergrund des nächsten Abschnittes. Unmittelbar anschließend werden Methoden behandelt, die sich auf die Beschreibung zweidimensionaler Häufigkeitsverteilungen beziehen. Es folgt ein Abschnitt über elementare Methoden der Analyse von Zeitreihen. Danach werden Konstruktion, Aussagefähigkeit und Probleme von Indexzahlen abgehandelt. Der letzte Abschnitt befasst sich mit Methoden, die es erlauben, aus Daten einer Teilerhebung Rückschlüsse auf die zu untersuchende Grundgesamtheit zu ziehen und mögliche Fehlerspielräume abzuschätzen. Am Ende eines jeden Abschnitts finden sich Übungsaufgaben, mit denen die Anwendung des methodischen Instrumentariums erprobt werden kann. Zur Überprüfung sind die Lösungen mit angegeben. Soweit nicht anders vermerkt, sind die Rechenergebnisse auf zwei Nachkommastellen, in einigen Fällen auf vier Nachkommastellen ausgewiesen. Dies gilt auch für die Aufgabenbeispiele im Text. Das vorliegende Lehrbuch wäre ohne engagierte Mitarbeiter nicht zustande gekommen. Mein Dank gilt Herrn Peter Fuchs, der mir bei der Erstellung der Grafiken wertvolle Dienste geleistet hat, sowie Frau Gisela Lemke, die beim Schreiben der verschiedenen Fassungen unendliche Geduld bewiesen hat. Herr Jörg Scheele unterstützte mich bei der mühsamen Arbeit des Korrekturlesens. Für die kritische Lektüre des Manuskripts und zahlreiche Anregungen danke ich meinen Kollegen Jürgen Janssen und Wilfried Laatz. Dem Verlag danke ich, dass er diese Publikation in seine Lehrbuchreihe übernommen hat.

12

I I

Einleitung Einleitung

Über das Datum der Entstehung der Statistik gibt es in der Literatur unterschiedliche man einen Unterschied dem bloßen AufzähÜberAuffassungen. das Datum derMacht Entstehung der Statistik gibt eszwischen in der Literatur unterschiedlilen Dingen oderMacht Personen, dieUnterschied sich bereits in der Bibel (NT, LukasAufzäh2, 1-3) che von Auffassungen. man für einen zwischen dem bloßen Beispiele findenoder lassen, und derfür Statistik Wissenschaft, die (NT, das Zählen eilen von Dingen Personen, die sichalsbereits in der Bibel Lukas mit 2, 1-3) ner Interpretation der numerischen Daten als verbindet, so lassen Ursprünge Beispiele finden lassen, und der Statistik Wissenschaft, diesich das die Zählen mit eider Interpretation wissenschaftlichen Statistik aufDaten das Ende des 17.soJahrhunderts datieren. Das ner der numerischen verbindet, lassen sich die Ursprünge Wort "Statistik" hat seine lateinische im 17. WortJahrhunderts "status" (Zustand, der wissenschaftlichen Statistik auf dasWurzel Ende des datieren.Lage, Das Verfassung) und hat demseine italienischen Wort "statista" (Staatsmann). Der erstmalige Wort "Statistik" lateinische Wurzel im Wort "status" (Zustand, Lage, Gebrauch des "Statistik" Wort wird "statista" Vertretern der deutschen UniversiVerfassung) undWortes dem italienischen (Staatsmann). Der erstmalige tätsstatistik (H. Conring Achenwall 1719-1772) zugeschrieben, die Gebrauch des Wortes 1606-1682, "Statistik" G. wird Vertretern der deutschen Universi1681 im darunter den(H. Vergleich Staaten Hinblick auf Verfassung, Verwaltung, die Fitätsstatistik Conringvon 1606-1682, G. Achenwall 1719-1772) zugeschrieben, nanzen, Bevölkerung Inbegriff der "Staatsmerkwürdigkeiten") verstandarunter den Vergleichu.a. von(als Staaten im Hinblick auf Verfassung, Verwaltung, Fiden. Da Bevölkerung sie aber weder Tabellen benutzten, dies vielmehr nanzen, u.a.Zahlenangaben (als Inbegriff noch der "Staatsmerkwürdigkeiten") verstanden. Da Da sie aber Zahlenangaben noch Tabellen benutzten, benutzten, wirdvielmehr ihr Beikategorisch ihr Beitrag noch zur Entstehung der wissenschaftlichen den. sie ablehnten, aber weder wederwird Zahlenangaben Tabellen dies trag zur geringgeschätzt. Entstehung wissenschaftlichen geringgeschätzt. Was dardie Statistik WasihrdieBeitrag StatistikzuralsStatistik Aufbereitung Daten und kategorisch ablehnten,derwird Entstehung dervon wissenschaftlichen Statistik als Aufbereitung vondie Daten und daraus zu ziehenden Schlussfolgeaus zu geringgeschätzt. ziehenden Schlussfolgerungen betrifft, werden die Statistik Was Statistik als Aufbereitung vonenglische Daten undpolitidarrungen betrifft, werden die englische (Vertreter: J. und Graunt sche Arithmetik (Vertreter: J. Graunt politische 1620-1674, W. Pettydie 1623-1687) die aus zu ziehenden Schlussfolgerungen betrifft,Arithmetik werden englische politi1620-1674, Petty 1623-1687) und 1620-1674, die Geburt der Petty WahrscheinlichkeitsrechGeburt der W. Wahrscheinlichkeitsrechnung (Begründer: B. 1623-1687) Pascal 1623-1662, sche Arithmetik (Vertreter: J. Graunt W. und die nung (Begründer: B. Pascal 1623-1662, J.angesehen. Bernoulli 1655-1705) als 1623-1662, HauptwurJ. Bernoulli als Hauptwurzeln AusB. derPascal Verbindung dieser Geburt der 1654-1705) Wahrscheinlichkeitsrechnung (Begründer: zeln angesehen. Aus der dieser beiden Richtungen die beiden Richtungen entstand die wissenschaftliche Statistik, in Verbindung derenentstand Mittelpunkt J. Bernoulli 1654-1705) als Verbindung Hauptwurzeln angesehen. Aus der dieser wissenschaftliche in heute die in Lehre den Meheute die Lehre vonStatistik, den Methoden zurMittelpunkt Erhebung, Aufbereitung undvon Analyse von beiden Richtungen entstand diederen wissenschaftliche Statistik, deren Mittelpunkt thodendie zur Erhebung, Aufbereitung und Analyse Aufbereitung von Daten steht. Daten steht. heute Lehre von den Methoden zur Erhebung, und Analyse von Daten steht. Der Begriff "Statistik" wird aber noch in einem weiteren Sinne verwendet. Er bezeichnet auch die Zusammenstellung von quantitativen Informationen über Der Begriff "Statistik" wird aber noch in einem weiteren Sinne verwendet. Er bezeichnet auch die Zusammenstellung von quantitativen Informationen über bestimmte Tatbestände, wie z.B. die "Außenhandelsstatistik" oder die "Kfz-Zulasstimmte Tatbestände, wie z.B. die "Außenhandelsstatistik" oder die "Kfz-Zulassungsstatistik". sungsstatistik". Werden die Daten zur Beschaffung derartiger Informationen von amtlichen Stellen erhoben undzur aufbereitet, dannderartiger spricht man von der amtlichen StaWerden die Daten Beschaffung Informationen von amtlichen Stellen und aufbereitet, dann spricht mandas von der amtlichen Statistik. Inerhoben der Bundesrepublik Deutschland gehören Statistische Bundesamt (http://www.destatis.de), die Statistischen Landesämter und die Statistischen Ämtistik. In der Bundesrepublik Deutschland gehören das Statistische Bundesamt (http://www.destatis.de), diewichtigsten Statistischen Landesämter und dieStatistik. Statistischen ter der Kommunen zu den Trägern der amtlichen Ihre ÄmVerter der Kommunen zu den Trägerninsbesondere der amtlichen Statistik. Ihre Veröffentlichungen liefern einewichtigsten Fülle von Daten, was das Wirtschaftsund Sozialleben liefern betrifft.eine VonFülle herausgehobener Bedeutung sind öffentlichungen von Daten, insbesondere was das "Statistische Wirtschaftsund Sozialleben betrifft. Von herausgehobener Bedeutung sind das "Statistische Jahrbuch für die Bundesrepublik Deutschland" und die Monatsschrift "Wirtschaft und Statistik", beide vom Statistischen Bundesamt Wiesbaden herausgegeben. Jahrbuch für die Bundesrepublik Deutschland" undindie Monatsschrift "Wirtschaft und Statistik", beide vom Statistischen Bundesamt Wiesbaden herausgegeben. Neben der amtlichen Statistik gibt es vor allem im in Bereich der wirtschaftswissenschaftlichen Forschungsinstitute, Wirtschaftsverbände, derwirtschaftswissenGewerkschaften, Neben der amtlichen Statistik gibtder es vor allem im Bereich der schaftlichen Forschungsinstitute, der Wirtschaftsverbände, der u.a. Gewerkschaften, der Markt- und Meinungsforschungsinstitute, der Unternehmen eine Vielzahl der Markt- und Meinungsforschungsinstitute, der Unternehmen u.a. eine Vielzahl 13 13 13

statistischer Untersuchungen. Diese nichtamtliche Statistik ist zumeist auf die Beobachtung und Analyse der für die jeweiligen Zwecke wichtigen Tatbestände gerichtet. Ein großer Teil dieses Zahlenmaterials wird ebenfalls veröffentlicht und steht somit als Datenquelle zur Verfügung. Mit zunehmender weltwirtschaftlicher Integration gewinnt die internationale Statistik an Bedeutung. Verschiedene Organisationen sind hier aktiv. Das Statistische Amt der Europäischen Gemeinschaften (Eurostat; http://epp.eurostat.ec. europa.eu) veröffentlicht regelmäßig Daten aus dem Bereich der EU-Staaten und statistische Darstellungen zu bestimmten Problemen (z.B. Umweltstatistik). Von den Vereinten Nationen wird ein für viele Fragestellungen wichtiges Jahrbuch (Statistical Yearbook; http://unstats.un.org) herausgegeben. Auch die verschiedenen Sonderorganisationen der UNO haben ein umfangreiches Veröffentlichungsprogramm. Die Statistik hat jedoch nicht nur die Aufgabe der Informationsbeschaffung, sondern sie hat auch Methoden zur Beschreibung und Analyse der Informationen zu liefern. Beide Aufgabenstellungen hängen - trotz unterschiedlicher Schwerpunkte - eng zusammen. Was die Statistik als Methodenlehre betrifft, ist es üblich, zwischen beschreibender beschreibender (deskriptiver) (deskriptiver) Statistik und und schließender schließender (induktiver) (induktiver, analytischer) Statistik zu In unterscheiden. In der deskriptiven werden Statistik zu unterscheiden. der deskriptiven Statistik werdenStatistik Fragen, wie die Fragen, wie von die Darstellung vonvon Daten in Form Tabellen Grafiken,von die Darstellung Daten in Form Tabellen undvon Grafiken, dieund Berechnung Berechnung Mittelwerten, Streuungs-, Schiefe- und Konzentrationsmaßen, Mittelwerten,von Streuungs-, Schiefeund Konzentrationsmaßen, die Messung des die Messung des Zusammenhangs zwei oder mehreren(Korrelation Variablen (KorZusammenhangs zwischen zwei zwischen oder mehreren Variablen und relation und Regression), vonund Zeitreihen und die Indexberechnung Regression), die Analyse die vonAnalyse Zeitreihen die Indexberechnung behandelt. behandelt. es sich um dagegen um die Fragen, die mithilfe statistischer EntscheiHandelt esHandelt sich dagegen Fragen, mithilfe statistischer Entscheidungen dungen (wie z.B. Schätzen und Testen) spricht (wie z.B. Schätzen und Testen) gelöst gelöst werdenwerden sollen,sollen, dann dann spricht man man von von schließender Statistik. Trennlinie wird zumeist dadurch schließender Statistik oderDie Inferenzstatistik. Die Trennlinie wirdgezogen, zumeist dass daVerfahren, die aufdass den Verfahren, Grundlagendie derauf Wahrscheinlichkeitsrechnung beruhen, der durch gezogen, den Grundlagen der Wahrscheinlichschließenden zugerechnet werden. Einschränkend ist daraufwerden. hinzuweisen, keitsrechnungStatistik beruhen, der schließenden Statistik zugerechnet Eindass eine solche starre Abgrenzung nicht immer Probleme möglich ist. nicht schränkend ist darauf hinzuweisen, dass eine ohne solche starre Abgrenzung immer ohne Probleme möglich ist. In den letzten Jahren hat sich als Ergänzung zur deskriptiven Statistik eine weitere In dender letzten Jahren hatherausgebildet sich als Ergänzung eine weitere Form der Form Datenanalyse - die explorative Statistik. IhrDatenanaZiel liegt lyse herausgebildet – die explorative Statistik. Ihr Ziel liegt insbesondere dainsbesondere darin, mit Hilfe graphischer Darstellungen Auffälligkeiten eines rin, mit Hilfe bestimmter Methoden Auffälligkeiten eines Datensatzes zu entDatensatzes zu entdecken. Aber auch das Vorliegen von Voraussetzungen für die decken. Aber auch das Tests Vorliegen von Voraussetzungen für die Anwendung Anwendung statistischer kann teilweise untersucht werden. statistischer Tests kann teilweise untersucht werden. Eine Einführung in die statistische Methodenlehre sollte deshalb eine Übersicht Eine Einführung in die statistische Methodenlehre sollte eine Übersicht über die über die elementaren Methoden der beschreibenden und der schließenden Statistik elementaren Methoden der beschreibenden und der schließenden Statistik gegeben. Was elementar ist, darüber lässt sich sicherlich streiten. Leser, die beben. Was elementar ist, darüber lässt sich sicherlich streiten. Leser, die bestimmte Methoden vermissen oder mit der Darstellung der behandelten Methoden stimmte Methoden vermissen oder mit der Darstellung der behandelten Methonicht einverstanden sind, werden auf die entsprechende Spezialliteratur verden nicht einverstanden sind, werden auf die entsprechende Spezialliteratur wiesen. verwiesen. 14

Statistische Methoden werden heute nicht nur in den Naturwissenschaften eingesetzt, sondern sie haben auch zunehmend Eingang in die Sozialwissenschaften gefunden, wobei allerdings zwischen den verschiedenen Disziplinen ein gewisses Gefälle besteht. Die Wirtschaftswissenschaften gehören zu den Fachdisziplinen, die mit am stärksten von der Statistik durchdrungen sind. An nächster Stelle sind die Psychologie Psychologieund und- die zu nennen. die mit Soziologie einigem Abstand - die Soziologie zu nennen. Durch die Verbreitung vielseitiger und benutzerfreundlicher Statistik-Programmsysteme für den Personal Computer (PC) ist unter dem Stichwort "Statistische Datenanalyse" vielfach eine Statistik-Euphorie ausgebrochen, die zu einer merkwürdigen Paradoxie geführt hat. Ein Teil derjenigen, die der Statistik bisher mehr oder weniger gefühlsmäßig ablehnend gegenüber standen, wandeln sich zu Anhängern, die ihre Daten in die Programmsysteme einspeisen und die ausgedruckten Ergebnisse ohne kritische Distanz verbreiten. Gerade für den Bereich der Sozialwissenschaften sollte man jedoch stets beachten, dass die Fragestellungen die statistischen Methoden und nicht umgekehrt die statistischen Methoden die Fragestellungen bestimmen. Im Folgenden werden wir uns auf statistische Methoden beschränken, die überwiegend im wirtschaftswissenschaftlichen Bereich eingesetzt werden. Dabei soll sowohl die Logik dieser Methoden verständlich gemacht als auch ihre rechnerische Beherrschung anhand von Beispielen demonstriert werden. Bei der Wahl der Beispiele in Statistik-Lehrveranstaltungen oder Statistik-Lehrbüchern steht man vor der Entscheidung, ob man empirische oder fiktive Daten vorgeben soll. Hier wurde folgender Weg gewählt: Zur Verdeutlichung der Darstellung und Beschreibung eindimensionaler (univariater) und zweidimensionaler (bivariater) Häufigkeitsverteilungen werden die Ergebnisse eine Befragung von 80 Teilnehmern eines Seminars zugrunde gelegt (im weiteren Verlauf als "Standardbeispiel" bezeichnet). Die Beispiele in den folgenden Abschnitten basieren auf fiktiven Daten, da sie den Vorteil besitzen, bestimmte Sachverhalte, die für das Verständnis einer Methode relevant sind, klarer herauszuarbeiten. In den Übungsaufgaben findet sich sowohl empirisches als auch konstruiertes Zahlenmaterial.

15

II

Allgemeine Grundlagen

1

Grundbegriffe der Statistik

1.1

Statistische Einheiten und statistische Masse

Von Anfang an ist darauf hinzuweisen, dass der Untersuchungsgegenstand der Statistik nicht Einzelerscheinungen, sondern sogenannte Massenerscheinungen sind. Der Statistik wird die Aufgabe zugewiesen, Massenerscheinungen zu quantifizieren, zu beschreiben und zu analysieren. Statistische Aussagen sollen über typische, allgemeine und quantifizierbare Eigenschaften von Massenerscheinungen informieren. Sie gelten für die Gesamtheit, nicht jedoch für jeden Einzelfall. Kehren wir zu dem Begriff "Massenerscheinungen" zurück. Massenerscheinungen sind relativ häufig unbestimmte, nicht exakt abgegrenzte gesellschaftliche Phänomene, die in großer Zahl auftreten. Statistische Massen (auch als Grundgesamtheiten bezeichnet) müssen dagegen präzise abgegrenzt werden. Die Abgrenzung muss in sachlicher, räumlicher und zeitlicher Hinsicht geschehen (Identifikationskriterien). Mit der Abgrenzung der statistischen Masse sind auch die statistischen Einheiten, die die statistische Gesamtheit bilden, eindeutig abgegrenzt. In der schließenden Statistik wird zwischen Grundgesamtheit und Stichprobe (als Teil der Grundgesamtheit) unterschieden. Statistische Einheiten sind die Objekte, deren Eigenschaften festgestellt werden sollen. Statistische Einheit kann eine Person, ein Ereignis oder eine Sache sein. Die statistische Einheit ist Träger von Merkmalen und wird deshalb auch als Merkmalsträger bezeichnet. In statistischen Untersuchungen interessiert man sich jedoch nicht für alle möglichen Merkmale, sondern nur für bestimmte Merkmale, die als Untersuchungsmerkmale oder Variable bezeichnet werden. Variable wird ein solches Merkmal deshalb genannt, weil es von Merkmalsträger zu Merkmalsträger unterschiedliche Werte annehmen kann. Die Abgrenzung statistischer Massen in zeitlicher Hinsicht führt zu der Unterscheidung in Bestandsmassen und Bewegungsmassen. Erstere sind für einen bestimmten Zeitpunkt, letztere für einen Zeitraum definiert. Beschreiben die Bewegungsmassen Zugänge (Z) und Abgänge (A) einer Bestandsmasse (sogenannte korrespondierende Massen), dann lässt sich mithilfe der Bewegungsmassen eine Fortschreibung der Bestandsmasse vornehmen. Es gilt folgende Beziehung: Bi = Bo + Z (o,i) - A (o,i)

16

wobei Bi/Bo Bestandsmasse zum Zeitpunkt o bzw. i; Z (o,i)/A (o,i) Zugänge bzw. Abgänge im Zeitraum (o,i). Die Bevölkerungsfortschreibung ist ein Beispiel hierfür. Zugänge sind die Geburten und Zuzüge, Abgänge die Sterbefälle und Fortzüge. Ausgangsbasis sind die Ergebnisse von Volkszählungen. Beispiele für statistische Massen und ihre Abgrenzung: 2010 - die Arbeitslosen in Schleswig-Holstein im Monat April 2006 sachlich: Arbeitslose räumlich: Schleswig-Holstein zeitlich: Zugänge im Monat April 2006 2010 Statistische Einheiten sind Personen; es handelt sich um eine Bewegungsmasse. - die Wohnbevölkerung in der Freien und Hansestadt Hamburg am 31.12.2005 2009 sachlich: Wohnbevölkerung räumlich: Freie und Hansestadt Hamburg zeitlich: 31.12.2005 2009 Statistische Einheiten sind Personen; es handelt sich um eine Bestandsmasse. Beide Beispiele zeigen, dass insbesondere die sachliche Abgrenzung (Arbeitslose, Wohnbevölkerung) häufig Probleme aufwirft. Für die statistische Erhebung müssen praktikable, d.h. empirisch feststellbare Begriffe gefunden werden, die unter Umständen von den idealtypischen (theoretischen) Begriffen abweichen. Diese Schwierigkeit wird als Adäquationsproblem bezeichnet, das für die wirtschaftsund sozialwissenschaftliche Statistik charakteristisch ist. 1.2

Statistische Merkmale

Statistische Merkmale sind die Eigenschaften der statistischen Einheiten, die bei einer Untersuchung von Interesse sind, wie z.B. Familienstand, Kinderzahl oder monatliches Einkommen. Die verschiedenen Werte, die bei der Beobachtung und Messung auftreten können, werden als Merkmalsausprägungen oder MerkMerkmalswerte in in derder Regel mehrere Merkmalsausmalswertebezeichnet. bezeichnet.Jedes JedesMerkmal Merkmalbesitzt besitzt Regel mehrere Merkmals­ prägungen. ausprägungen. Ausgehend von den Merkmalsausprägungen wird in der Literatur zwischen qualitativen und quantitativen Merkmalen unterschieden. Eine weitere Klassifizierung unterscheidet zwischen klassifikatorischen Merkmalen, komparativen (ordinalen) Merkmalen und metrischen Merkmalen. 1.2.1 Qualitative Merkmale Qualitative Merkmale sind dadurch charakterisiert, dass hinsichtlich der verschiedenen Merkmalsausprägungen nur Gleichheit oder Ungleichheit festgestellt 17

werden kann. In diesem Sinn handelt es sich um klassifikatorische Merkmale. Beispiele hierfür sind Beruf, Religionszugehörigkeit und Familienstand. Während im allgemeinen Sprachgebrauch die Bezeichnung "qualitativ" zumeist eine wertende Abstufung enthält, wird in der Statistik nur auf die Andersartigkeit, den kategorialen Unterschied abgestellt. Bei qualitativen Merkmalen unterscheidet man zwischen häufbaren und nicht häufbaren Merkmalen. Häufbares Merkmal heißt, dass eine statistische Einheit mehrere Ausprägungen eines Merkmals besitzen kann (Beispiel: Beruf, Wohnsitz). Geschlecht und Familienstand sind dagegen nicht häufbare Merkmale. Häufbare Merkmale lassen sich auf nicht häufbare reduzieren, indem die Merkmalsausprägungen entweder nach dem Schwerpunkt gebildet oder Kombinationen von Ausprägungen als eigenständige Merkmalsausprägungen angesehen werden. Als qualitative Merkmale werden auch jene Merkmale bezeichnet, deren Merkmalsausprägungen zusätzlich eine Ordnungsrelation zulassen. Diese Ordnungsrelation besteht jedoch lediglich in den Abstufungen "größer", "kleiner" bzw. "sehr gut", "gut", "befriedigend" etc. Von daher ist die Bezeichnung komparative (ordinale) Merkmale prägnanter. Beispiele hierfür sind Handelsklassen von Obst, Betriebsklima und Leistungsnachweise in Form von Noten. 1.2.2 Quantitative Merkmale Quantitative Merkmale zeichnen sich dadurch aus, dass nicht nur Gleichheit oder Ungleichheit und eine Ordnungsrelation definiert sind, sondern die Rangabstufungen der Merkmalsausprägungen auch messbar sind. Synonym hierfür wird der Begriff metrische Merkmale verwendet. Quantitative Merkmale werden unterteilt in: -

quantitativ-diskrete Merkmale Die Merkmalsausprägungen können nur bestimmte Zahlenwerte annehmen. Beispiele: Anzahl der Kinder in einer Familie, Zylinderzahl in einem Verbrennungsmotor.

-

quantitativ-stetige Merkmale Die Merkmalsausprägungen können in einem Intervall jeden beliebigen reellen Zahlenwert annehmen oder anders ausgedrückt: Zwischen zwei Merkmalsausprägungen sind beliebig viele Zwischenstufen denkbar. Beispiele: Entfernungen, Gewichte, Zeitdauer. In der Praxis lassen sich stetige Merkmale häufig nur diskret erfassen. Der Grund hierfür liegt zumeist darin, dass die Messgenauigkeit Grenzen unterliegt. So ist die Körpergröße ein stetiges Merkmal, es kann aber nicht exakter gemessen werden, als es die kleinste auf der Messlatte vorhandene Skaleneinheit zulässt. 18

-

1.3

approximativ-stetige Merkmale Umgekehrt werden quantitativ-diskrete Merkmale manchmal wie quantitativ-stetige Merkmale behandelt. Beispielsweise werden bei Wechselkursen vier Nachkommastellen angegeben. Skalentypen und Messniveau

Das Messen der Untersuchungsmerkmale in statistischen Erhebungen setzt eine Maßskala voraus. Skalen sind Zahlenfolgen (1,..., n), denen jeweils eine Merkmalsausprägung zugeordnet wird. Je nach Merkmalsart (qualitatives oder quantitatives Merkmal) gibt es unterschiedliche Skalentypen, deren Messniveau sich unterscheidet. Die richtige Zuordnung eines Skalentyps zu dem untersuchten Merkmal ist von Bedeutung, weil für bestimmte Messniveaus nur bestimmte Rechenoperationen möglich sind. Anders formuliert: das Messniveau entscheidet darüber, welche statistischen Methoden angewendet werden dürfen und welche nicht. Im Sinne einer aufsteigenden Hierarchie unterscheidet man Nominalskala, Ordinalskala, Intervallskala und Verhältnis- oder Rationalskala. Intervallskala und Verhältnisskala werden vielfach unter dem Begriff metrische Skala zusammen gefasst. Die Merkmalsausprägungen bezeichnet man hier als Merkmalswerte. 1.3.1 Nominalskala Im einfachsten Fall (bei qualitativen Merkmalen in Form klassifikatorischer Merkmale) wird die Skala lediglich zur Benennung der Merkmalsausprägungen verwendet. Die Ausprägungen des qualitativen (klassifikatorischen) Merkmals drücken lediglich eine Verschiedenartigkeit aus, d.h. es kann nur Gleichheit oder Ungleichheit festgestellt werden. Die Reihenfolge, in der die Ausprägungen auf der Skala notiert werden, ist beliebig. Die Verschiedenartigkeit kann auf der Skala entweder durch Ziffern (Zahlen haben hier nur die Funktionen von Namen) oder durch Begriffe bezeichnet werden (Beispiele: Religionszugehörigkeit, Familienstand, Geschlecht, Nationalität). Die Zahlen erlauben keine rechnerischen Transformationen, sie dienen lediglich zur Kodifizierung der Merkmalsausprägungen. Im Bereich der Nominalskalierung ist das Zählen die einzige zulässige Operation. 1.3.2 Ordinalskala Lassen sich die Ausprägungen in einer sachlich begründeten Rangfolge anordnen (Gradunterschiede in der Intensität des Merkmals, d.h. Existenz einer Größer/Kleiner- bzw. Besser/Schlechter-Beziehung), ohne dass die Abstände zwischen den Merkmalsausprägungen gleich groß sein bzw. überhaupt bekannt sein müssen, so liegt eine Ordinal- oder Rangskalierung vor. Bei dieser Skalierung 19

werden die Ausprägungen des Untersuchungsmerkmals benannt und geordnet (Zuordnung von Rangplatz 1, 2, 3, ...). Beispiele: Betriebsklima, Schichtzugehörigkeit, Geschmacksqualitäten, Stärke von Erdbeben. Im Vergleich zur Nominalskalierung besteht insofern ein Informationsgewinn als Sachverhalte quantifizierbar werden, für die keine definierten Maßeinheiten verfügbar sind. Der Hauptmangel der Ordinalskala liegt darin, dass die durch Rangplatzdifferenzen dargestellten Unterschiede der Merkmalsausprägungen nicht messbar sind. Von daher sind Rechenoperationen wie Addieren, Subtrahieren, Multiplizieren und Dividieren nicht zulässig. 1.3.3 Intervallskala Kann zwischen zwei Merkmalswerten die Differenz gemessen werden, liegt eine Intervallskala vor. In dieser Skala sind die Abstände zwischen den benachbarten (aufeinanderfolgenden) Skalenwerten konstant. Die Skala hat jedoch keinen absoluten Nullpunkt. Der Nullpunkt der Skala ist willkürlich bzw. per Konvention festgelegt. Skalenwerte der Intervallskala dürfen addiert und subtrahiert werden. Eine Multiplikation und Division der Zahlenwerte ist jedoch nicht zulässig. Der Vorteil der Intervallskala besteht darin, dass die Größe der Differenz zwischen den Merkmalswerten messbar ist. Die Aussagen sind daher präziser. Ihr Nachteil liegt darin, dass sie keinen Verhältnisvergleich gestattet. Beispiele: Intelligenzquotient. Man kann nicht sagen, dass eine Person mit einem Intelligenzquotienten von 180 doppelt so intelligent ist wie jemand mit 90. 1.3.4 Verhältnisskala Hat die Skala zusätzlich einen absoluten Nullpunkt, so handelt es sich um eine Verhältnisskala. In ihr sind die Messwerte nicht nur im Hinblick auf qualitative Gleichartigkeit des Gemessenen (Nominalskala), auf relative Größenunterschiede (Ordinalskala) oder Intervallgleichheit (Intervallskala), sondern überdies in bezug auf den absoluten Nullpunkt dieser Skala bestimmt. Alle vier Grundrechenarten dürfen auf die Skalenwerte angewandt werden. Damit sind Verhältnisaussagen möglich. Zum besseren Verständnis des Skalierungsvorganges sei folgendes Beispiel aus der Literatur zitiert (Kriz 1983, S. 34): Drei 5000-m-Läufern A, B und C werden Startnummern auf den Rücken geheftet, und zwar A eine (1), B eine (2) und C eine (3). Da den Läufern Zahlen zugeordnet werden, handelt es sich zweifellos um einen Messvorgang. Doch welches Messniveau bzw. welcher Skalentyp liegt vor? (a)

Eine Nominalskala liegt vor, wenn diese Nummernvergabe ausschließlich deshalb erfolgt, um die Läufer zu kennzeichnen - etwa, damit man sie im Stadion auf große Entfernung noch unterscheiden kann. Es wird dann nur die Relation 1 ≠ 2 ≠ 3 benutzt. 20

(b) Soll aber mit der Nummernvergabe gleichzeitig zum Ausdruck gebracht werden, dass der Läufer mit der Nummer (1) der Favorit ist und die größten Siegeschancen hat, während der mit der (2) weniger und der mit der (3) am wenigsten Chancen hat, so handelt es sich um eine Ordinalskala. Es besteht nun empirisch - zumindest im Urteil dessen, der für die Nummernvergabe verantwortlich ist - eine Ordnungsrelation zwischen den Läufern. (c) Bei einer Intervallskala würde man durch die Nummernvergabe aber nicht nur eine Aussage über die Ordnung, sondern gleichzeitig über die Größe des Leistungsunterschiedes zwischen den Läufern machen - etwa "A läuft genau soviel schneller als B, wie B schneller als C läuft". Die - in diesem Falle gleichen - Intervalle (Differenzen) zwischen den Zahlen haben unter diesen Annahmen einen empirischen Sinn. (d) Eine Verhältnisskala schließlich liegt vor, wenn die Nummernvergabe etwas über das Verhältnis der Läufer zueinander aussagen soll, z.B.: "A läuft doppelt so schnell wie B und dreimal so schnell wie C." Übersicht 1:

Skalentypen und Messniveau

Typ Nominalskala Ordinalskala Intervallskala

Verhältnisskala

Definierte Relationen =



= >
< +/-

Reihenfolge mit gleichen Abständen und mit absolutem Nullpunkt

= ≠ > < +/·/:

Anmerkung: Folgende Ungleichheitszeichen werden verwendet: ≠ "ungleich"; > "größer als"; < "kleiner als".

21

1.4

Übungsaufgaben

1. Bilden Sie ein eigenes (d.h. nicht bereits im Buch verwendetes) Beispiel für eine statistische Masse und erläutern Sie daran die Begriffe - Statistische Einheit - Untersuchungsmerkmal (Variable) - Merkmalsausprägungen - Bestandsmasse/Bewegungsmasse - qualitatives Merkmal - quantitativ-diskretes Merkmal - quantitativ-stetiges Merkmal. 2. Geben sie an, welcher Skalentyp folgenden Merkmalen zuzuordnen ist: (a) Autonummern (b) Windstärke (c) Kalenderdatum (d) Höhe des zu versteuernden Einkommens (e) Telefonnummern (f) Geschmacksqualitäten verschiedener Apfelsorten (g) Temperatur (in Celsius) (h) Körpergewicht. 3. Welche Bedeutung haben die verschiedenen Skalentypen? 4. Vergleichen Sie das Messniveau einer Ordinalskala mit dem einer Intervallskala.

Lösungen: 2. (a) Nominalskala; (b) Ordinalskala; (c) Intervallskala; (d) Verhältnisskala; (e) Nominalskala; (f) Ordinalskala; (g) Intervallskala; (h) Verhältnisskala. 3. Das Messniveau der Skalen bedingt sowohl den Informationsgehalt der Daten wie auch die Anwendbarkeit von Rechenoperationen. Allgemein lässt sich sagen: Je höher das Messniveau, desto größer das Ausmaß an Informationen und desto mehr statistische Maßzahlen lassen sich anwenden. 4. Bei einer Ordinalskala bilden die Merkmalsausprägungen eine Rangfolge, ohne dass die Abstände quantifizierbar sind; bei einer Intervallskala sind dagegen die Abstände zwischen den aufeinanderfolgenden Skalenwerten quantifizierbar. Der Null- (oder Bezugs-)Punkt der Intervallskala kann willkürlich (bzw. per Konvention) festgelegt werden. Für die Skalenwerte der Ordinalskala sind Rechenoperationen wie Addieren, Subtrahieren, Multiplizieren und Dividieren nicht zulässig; die Intervallskala erlaubt Addition und Subtraktion, nicht jedoch Division und Multiplikation der Skalenwerte.

22

2

Grundlegende Probleme der Erhebung und Aufbereitung statistischen Materials

2.1

Erhebung

Was die statistische Erhebung als ersten Schritt zur Gewinnung von statistischem Datenmaterial betrifft, so ist zunächst zwischen primärstatistischen und sekundärstatistischen Erhebungen zu unterscheiden. Primärstatistische Erhebungen erfolgen erstmalig und ausschließlich zu statistischen Zwecken. Das Untersuchungsziel ist Grundlage für die Erhebung der Daten. Bei sekundärstatistischen Erhebungen werden dagegen bereits erhobene Daten nachträglich für statistische Zwecke ausgewertet. Eine weitere Unterscheidung ist die zwischen Vollerhebung und Teilerhebung. Während im Rahmen einer Vollerhebung sämtliche Einheiten einer Grundgesamtheit erfasst werden, beschränkt sich die Teilerhebung auf die Erfassung eines Teils der statistischen Einheiten. Durch eine Teilerhebung sollen Informationen über wenige statistische Einheiten zu Aussagen über die Gesamtheit führen. Hierzu ist es allerdings erforderlich, dass die Auswahl ein möglichst repräsentatives Abbild der Grundgesamtheit darstellt. Hinsichtlich der Erhebungstechnik sind bei primärstatistischen Erhebungen die mündliche und schriftliche Befragung und die Beobachtung zu unterscheiden. In den Wirtschafts- und Sozialwissenschaften kommt vorrangig die Befragungsmethode zum Einsatz. Eine mündliche Befragung hat u.a. den Vorteil, dass schwierige Fragen und eine bessere Beurteilung des Wahrheitsgehalts möglich sind. Sie liefert zumeist auch höhere Antwortquoten. Andererseits besteht die Gefahr einer Verzerrung der Antworten durch den Interviewer (Interviewer-Bias). Schriftliche Befragungen sind zumeist kostengünstiger als mündliche Befragungen. Aber auch hier tauchen eine Reihe von Problemen auf, was insbesondere die Erstellung der Fragebogen betrifft. So muss beispielsweise entschieden werden, ob offene oder geschlossene Fragen gestellt werden sollen. Offene Fragen lassen dem Befragten einen Spielraum in der Formulierung seiner Antworten; geschlossene Fragen begrenzen dagegen die Antwortmöglichkeit durch die Vorgabe von Antworten. Allerdings erleichtern geschlossene Fragen die statistische Aufbereitung und Auswertung. Beobachtung wie Experiment finden vor allem in den Naturwissenschaften und der Psychologie Anwendung. Beispiele aus den Wirtschaftswissenschaften sind Verkehrszählungen, bei denen die Daten mittels Beobachtung gewonnen werden sowie experimentelle Produkttests, mit denen die Wirkungen eines Produktes auf bestimmte Testpersonen untersucht werden. Mit zunehmender Verbreitung der neuen Informations- und Kommunikationstechniken gewinnt auch die automatische Datenerfassung an Bedeutung. Die Daten werden im Augenblick der Entstehung erfasst. Ein Anwendungsbeispiel sind 23

die Scanner-Kassen in Supermärkten, die durch Einlesen eines Codes Preis und verkaufte Menge jedes einzelnen Artikels erfassen. Ergebnis der statistischen Erhebung ist das sogenannte Urmaterial. Dieses wird nun in einen nächsten Schritt für statistische Zwecke aufbereitet. 2.2

Aufbereitung

Die statistische Aufbereitung umfasst neben der Prüfung des Urmaterials auf Vollständigkeit und Glaubwürdigkeit, dem Verschlüsseln von qualitativen Merkmalsausprägungen, dem Übertragen von Informationen auf Datenträger vor allem das Sortieren des Urmaterials nach Maßgabe der Merkmalsausprägungen (Gruppenbildung) und das Ermitteln von Besetzungszahlen (Häufigkeiten) für die jeweiligen Merkmalsausprägungen. Bei kleineren Datensätzen kann das Sortieren und Auszählen mithilfe der Strichliste erfolgen. Auf diese Weise werden statistische Einheiten mit identischen Merkmalsausprägungen oder Merkmalswerten zusammen gefasst. Für die Bildung von Gruppen gilt allgemein, dass gleichartige Einheiten in einer Gruppe zusammengefasst werden sollen. Zwar ist die Gruppenbildung mit einem Informationsverlust verbunden, da die zusammengefassten statistischen Einheiten nicht mehr unterschieden werden können. Dem steht andererseits ein Informationsgewinn in Form größerer Übersichtlichkeit des gruppierten Datenmaterials gegenüber. Je nach Merkmalsart lassen sich verschiedene Möglichkeiten der Gruppenbildung unterscheiden. 2.2.1 Gruppenbildung bei qualitativen Merkmalen Handelt es sich um qualitative Merkmale, die nur wenige Merkmalsausprägungen aufweisen, ist die Gruppenbildung relativ unkompliziert. Sie ist durch die erhobenen Merkmalsausprägungen vorgegeben. Probleme treten dann auf, wenn zahlreiche Merkmalsausprägungen vorliegen, so dass nicht für jede Merkmalsausprägung eine eigene Gruppe gebildet werden kann. Hier muss man verschiedene Ausprägungen zu einer Gruppe zusammenfassen, was in der Regel eine mehrstufige Klassifikation erfordert (Beispiel: Klassifikation von Berufen). Dabei ist darauf zu achten, dass jede statistische Einheit eindeutig zugeordnet werden kann. Auf die besonderen Probleme häufbarer Merkmale wurde bereits hingewiesen. 2.2.2 Gruppenbildung bei quantitativ-diskreten Merkmalen Im Falle quantitativer Merkmale werden die Merkmalsausprägungen auch als Merkmalswerte bezeichnet. Das Problem der Gruppenbildung besteht vorrangig darin, die Grenzen der Merkmalswerte zu bestimmen, die zu einer Gruppe (Klas24

se) zusammengefasst werden sollen. Betrachten wir zunächst die Gruppenbildung bei quantitativ-diskreten Merkmalen. Ist die Zahl der Merkmalswerte relativ klein, so wird genauso verfahren wie bei qualitativen Merkmalen. Im anderen Fall werden sie wie quantitativ-stetige Merkmale behandelt. 2.2.3 Gruppenbildung bei quantitativ-stetigen Merkmalen Die Gruppenbildung bei quantitativ-stetigen Merkmalen hat zu beachten, dass die für diskrete Merkmale typische Abstufung der Merkmalsausprägungen fehlt. Die Bestimmung der Unter- und Obergrenze der Merkmalswerte, die zu einer Klasse zusammengefasst werden, muss sich deshalb an sachlichen oder formalen Kriterien orientieren. Gleiches gilt für quantitativ-diskrete Merkmale mit sehr vielen unterschiedlichen Merkmalsausprägungen. Die Klasseneinteilung kann zum einen durch das Untersuchungsziel bestimmt werden. (Beispiel: Bildung von Unternehmensgrößenklassen nach Umsatz oder Beschäftigten, um bestimmte Unternehmenstypen zu kennzeichnen, wie z.B. Klein-, Mittel- und Großbetriebe). Andererseits kann die Klasseneinteilung nach rein formalen Kriterien erfolgen. Man kann beispielsweise gleiche Klassenbreiten wählen. Dabei ist zu beachten, dass die Grenzen der Klassen eindeutig definiert werden und die Klassen sich weder überschneiden noch Lücken durch aufeinanderfolgende Klassen entstehen. Auf die Klassenbildung wird an späterer Stelle noch näher eingegangen. Eine wichtige Darstellungsmöglichkeit aufbereiteter Daten sind Tabellen. Sie sollten so gestaltet sein, dass die für die Fragestellung relevanten Informationen übersichtlich wiedergeben werden. Nachfolgend werden einige allgemeine Hinweise zu Gestaltung einer Tabelle gegeben: -

Die Tabelle sollte eine ausreichend informierende Überschrift haben Die Maßeinheiten der Daten müssen in der Tabelle unbedingt angegeben werden. Die Quellen, aus denen das statistische Datenmaterial stammt, sind unterhalb der Tabelle anzuführen. Kopfzeile bzw. Vorspalte sollten die zur Gruppenbildung verwendeten Merkmalsausprägungen enthalten.

25

III

Eindimensionale Häufigkeitsverteilungen

Nachdem die statistischen Daten erhoben und sortiert wurden, geht es in einem weiteren Schritt darum, die Untersuchungsergebnisse sinnvoll zusammenzufassen, um das Wesentliche klar und verständlich auszudrücken. Dies erfolgt mithilfe von Häufigkeitstabellen, grafischen Darstellungen und der Berechnung charakteristischer Maßzahlen. Zur Illustration der Methoden der beschreibenden Statistik dienen die Ergebnisse einer statistischen Erhebung unter 80 Teilnehmern eines Seminars. Die Teilnehmer wurden hinsichtlich Geschlecht, Anzahl der Kinder, Höhe des verfügbaren Monatseinkommens, Alter und Einstellung zur Statistik befragt.

1

Darstellung eindimensionaler Häufigkeitsverteilungen

Im folgenden interessieren wir uns für nur jeweils ein einziges Untersuchungsmerkmal. Dieses wird bei den statistischen Einheiten (hier: Seminarteilnehmer) im allgemeinen in unterschiedlichen Merkmalsausprägungen auftreten. Die Zusammenstellung der beobachteten Häufigkeiten der Merkmalsausprägungen wird als eindimensionale Häufigkeitsverteilung bezeichnet (auch monovariable oder univariate Verteilung genannt). Will man dagegen den Zusammenhang zwischen zwei Merkmalen erfassen, dann handelt es sich um zweidimensionale (bivariable oder bivariate) Verteilungen. Schließlich kann der Zusammenhang zwischen mehreren Variablen analysiert werden (mehrdimensionale Verteilungen). Multivariate Analysemethoden, wie Faktorenanalyse oder Clusteranalyse, sind jedoch nicht Gegenstand dieses Buches.  (vgl. dazu Backhaus u.a. 2010). Wir wollen uns zunächst mit den Darstellungsmöglichkeiten eindimensionaler Häufigkeitsverteilungen befassen. Dabei ist wiederum zwischen qualitativen und quantitativen Merkmalen zu unterscheiden. 1.1

Eindimensionale Häufigkeitsverteilung qualitativer Merkmale

Die Darstellungsmöglichkeiten qualitativer Merkmale sollen anhand des Untersuchungsmerkmals "Geschlecht" verdeutlicht werden. Es handelt sich um eine nominalskalierte Variable. Nummerieren wir die statistischen Einheiten fortlaufend mit 1 bis N, so besteht die statistische Gesamtheit aus N (hier: 80) Einheiten. Jede dieser Einheiten weist das qualitative Merkmal "Geschlecht" (= A) auf, das lediglich in zwei Ausprägungen vorkommt: weiblich (= a1) und männlich (= a2). Allgemein gilt: Die Merkmalsausprägungen ai können von i = 1, 2, ..., m gehen, wenn das Merkmal A insgesamt m Ausprägungen hat. Als Symbole für die Untersuchungsmerkmale werden meist lateinische Großbuchstaben verwendet.

26

Die Anzahl der statistischen Einheiten je Merkmalsausprägung wird als absolute Häufigkeit der Ausprägung ai bezeichnet und mit dem Symbol h (ai) oder (verkürzt) hi versehen. Werden die absoluten Häufigkeiten hi durch die Zahl aller statistischen Einheiten (N) dividiert, so erhält man die relativen Häufigkeiten fi (= hi/N). Für die absoluten bzw. relativen Häufigkeiten gilt: (1)

m

∑ hi = N

i =1

sowie (2)

m

∑ fi = 1 i =1

Anmerkung: Das Summenzeichen (∑) dient der vereinfachenden und verkürzten Schreibweise von Summen. Der Ausdruck

m

∑ hi

i =1

wird gelesen: Summe aller hi

von i=1 bis m. In diesem Zusammenhang wird i als Summationsindex bezeichnet; der Summationsanfang steht unter, das Summationsende über dem Summenzeichen. Die Gesamtheit der absoluten bzw. relativen Häufigkeiten wird als Häufigkeitsverteilung bezeichnet. Sie lässt erkennen, wie häufig die jeweiligen Merkmalsausprägungen in der Grundgesamtheit auftreten. Ihre tabellarische Darstellung erfolgt in Form einer Häufigkeitstabelle. 1.1.1 Häufigkeitstabelle Für unser Beispiel sieht die Häufigkeitstabelle wie folgt aus: Tab. 1 Häufigkeitstabelle des Merkmals "Geschlecht" Geschlecht

absolute Häufigkeit h (ai) = hi

relative Häufigkeit fi = hi/N

weiblich männlich

36 44

0,45 0,55

Summe (∑)

80

1,00

27

Statt als Dezimalzahlen werden die relativen Häufigkeiten vielfach auch als Prozentwerte geschrieben (fi · 100). Aus der Häufigkeitstabelle ergibt sich, dass 45% der Teilnehmer weiblich und 55% männlich sind. 1.1.2 Grafische Darstellung Was die grafische Darstellung der Häufigkeitsverteilung qualitativer Merkmale betrifft, so kann man zwischen verschiedenen Möglichkeiten wählen (Stabdiagramm, Säulendiagramm, Balkendiagramm, Kreisdiagramm). Aus der Fülle werden lediglich zwei Varianten vorgestellt. Ein Stabdiagramm enthält auf der Abszisse (horizontale Achse) das Merkmal mit den jeweiligen Merkmalsausprägungen, auf der Ordinate werden die absoluten oder relativen Häufigkeiten abgetragen. Über jeder Merkmalsausprägung wird parallel zur Ordinate ein Stab abgetragen, dessen Höhe der absoluten oder relativen Häufigkeit entspricht. Zur deutlicheren Darstellung können auch Säulen anstelle der Stäbe gewählt werden. Dabei ist zu beachten, dass die Säulen bei qualitativen Merkmalen nicht aneinander angrenzen dürfen. Abb. 1 Häufigkeitsverteilung des Merkmals "Geschlecht" als Stabdiagramm hi

fi

45 40

0,50

35 30 25 20

0,375 0,25

15 10 5 0

0,125

weiblich

männlich

Beim Kreisdiagramm wird der Kreis in einzelne Sektoren eingeteilt, deren Flächen den relativen Häufigkeiten der jeweiligen Merkmalsausprägungen entsprechen. Im Gegensatz zum Stab- oder Säulendiagramm handelt es sich somit um eine flächenproportionale Darstellung. Der Kreisumfang, der aus 360 Winkelgraden besteht, repräsentiert die Größe der Grundgesamtheit. Die

28

Winkelgrade der Kreissektoren (oder Kreissegmente) werden wie folgt ermittelt: αi = fi . 360° . Anwendung auf das Beispiel: Winkelgrad des Sektors "weiblich": 0,45 . 360° = 162° Winkelgrad des Sektors "männlich": 0,55 . 360° = 198° Abb. 2 Häufigkeitsverteilung des Merkmals "Geschlecht" als Kreisdiagramm

weiblich

45 % 55 %

männlich

Das Kreisdiagramm ist auch zum Vergleich verschiedener Grundgesamtheiten geeignet. Unterschiedlich große Gesamtheiten werden durch unterschiedlich große Kreise symbolisiert, d.h. die Kreisflächen (F = π · r²) müssen sich proportional zu dem Verhältnis der Grundgesamtheiten verhalten. 1.2

Eindimensionale Häufigkeitsverteilung quantitativ-diskreter Merkmale

Handelt es sich bei dem Untersuchungsmerkmal um ein quantitatives Merkmal (metrisch skalierte Variable), dann wird das Merkmal mit X und die Merkmalsausprägungen, die wir jetzt Merkmalswerte nennen, mit xi bezeichnet. Im Falle quantitativ-diskreter Merkmale können die Merkmalswerte nur bestimmte Zahlenwerte annehmen, die in der Regel nichtnegative ganze Zahlen sind. Als Beispiel wählen wir das Untersuchungsmerkmal "Anzahl der Kinder", das nur die Merkmalswerte 0, 1, 2, 3 usw. annehmen kann. Wie für qualitative Merkmale erhält man durch Auszählen die absoluten Häufigkeiten für jeden Merkmalswert xi, die mit h(xi) oder hi bezeichnet werden. Dabei ist jetzt (im Unterschied zu den qualitativen Merkmalen) i = 1, 2, ..., k, wenn das Merkmal k verschiedene Merkmalswerte hat (x1, x2, ..., xk). Auch die relativen Häufigkeiten sind wie zuvor zu berechnen, d.h. fi = h(xi)/N.

29

Es gilt wiederum: (3)

k

∑ h (x i )

k

∑ hi

=

i =1

= N

i =1

bzw. (4)

k



i =1

hi N

=

k

∑fi i =1

= 1

Da bei quantitativen Merkmalen die Differenz zweier Merkmalswerte den Abstand zwischen den Werten misst, können die Häufigkeiten fortlaufend summiert werden. Man spricht dann von kumulierten Häufigkeiten. Hierdurch ist es möglich, die Häufigkeit für einen Merkmalswert "kleiner oder gleich" xi zu errechnen. Die fortlaufende Summierung (Kumulierung) der absoluten Häufigkeiten ergibt die kumulierten absoluten Häufigkeiten Hi, auch absolute Summenhäufigkeiten genannt. Hi gibt die Anzahl der statistischen Einheiten an, die einen Merkmalswert besitzen, der höchstens xi ist. In entsprechender Weise lassen sich die kumulierten relativen Häufigkeiten (relative Summenhäufigkeiten) Fi berechnen. Fi gibt den Anteil der statistischen Einheiten an, die einen Merkmalswert haben, der höchstens xi ist. Die Gesamtheit der kumulierten relativen Häufigkeiten (für alle Merkmalswerte) wird als Verteilungsfunktion (Summenhäufigkeitsfunktion) F(xi) definiert. F(xi) ordnet jedem Merkmalswert xi den Anteilswert aller statistischen Einheiten zu, die einen Merkmalswert kleiner oder gleich xi haben: F(xi) = f (x ≤ xi). Für x ≥ xk ist F(x) gleich 1. Aus der Differenz der Anteilswerte der Verteilungsfunktion können wiederum die relativen Häufigkeiten bestimmt werden: fi = Fi –Fi-1 1.2.1 Häufigkeitstabelle In unserer Erhebung haben 48 Teilnehmer keine Kinder, 20 Teilnehmer jeweils ein Kind und 12 Teilnehmer 2 Kinder. Der Aufbau der Häufigkeitstabelle unterscheidet sich gegenüber derjenigen für qualitative Merkmale durch eine weitere Spalte für die Verteilungsfunktion F (xi).

30

Tab. 2 Häufigkeitstabelle des Merkmals "Anzahl der Kinder" Anzahl der Kinder

hi

fi

F(xi)

0 1 2

48 20 12

0,60 0,25 0,15

0,60 0,85 1,00

Summe(∑) Summe (Σ)

80

1,00

Aus der Verteilungsfunktion folgt u.a., dass 85% der Befragten kein Kind oder nur 1 Kind haben. 1.2.2 Grafische Darstellung Bei der grafischen Darstellung der Häufigkeitsverteilung quantitativ-diskreter Merkmale kann man ebenfalls zwischen einer höhenproportionalen und einer flächenproportionalen Darstellung wählen. Im Falle eines Stabdiagramms werden auf der Abszisse die Merkmalswerte abgetragen, die Länge der Stäbe über den Merkmalswerten entspricht den relativen Häufigkeiten. Verwendet werden können auch die absoluten Häufigkeiten. Abb. 3 Häufigkeitsverteilung des Merkmals "Anzahl der Kinder" als Stabdiagramm

fi 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0

0

1

2

Anzahl der Kinder

xi

Die Verteilungsfunktion kann gleichfalls grafisch dargestellt werden. Sie hat das Bild einer Treppenfunktion. Dabei ist zu beachten, dass an den Sprung31

stellen immer der obere Wert die Verteilungsfunktion an der Stelle xi wiedergibt und für die Zwischenwerte (nicht vorkommende Merkmalswerte) die Verteilungsfunktion identisch ist mit dem Wert der Verteilungsfunktion für den nächstkleineren vorkommenden Wert. Abb. 4 Verteilungsfunktion für das Merkmal "Anzahl der Kinder"

F(x i ) 1

0,8 0,6 0,4 0,2 0

1.3

0

1

2

xi

Eindimensionale Häufigkeitsverteilung quantitativ-stetiger Merkmale

Die Darstellung einer Häufigkeitsverteilung quantitativ-stetiger Merkmale setzt voraus, dass die Merkmalswerte in Klassen zusammengefasst werden. Der Grund hierfür liegt in der spezifischen Eigenart eines stetigen Merkmals. In einem bestimmten Intervall einer metrischen Skala können grundsätzlich alle reellen Zahlen als Merkmalswerte vorkommen; ihre Unterscheidung wäre aber nur dann möglich, wenn die Messgenauigkeit beliebig wäre. Zur Erinnerung sei hier angeführt, dass quantitativ-diskrete Merkmale mit sehr vielen unterschiedlichen Merkmalswerten als approximativ-stetige Merkmale bezeichnet und daher wie stetige Merkmale behandelt werden. 1.3.1 Klassenbildung Das Ziel der Klassenbildung besteht darin, die Struktur der untersuchten Gesamtheit deutlich herauszuarbeiten. Hinsichtlich der Zahl der Klassen lässt sich keine generelle Regel formulieren. Werden zu viele Klassen gebildet, bleibt die 32

Struktur unübersichtlich, zahlreiche Klassen nur gering überhaupt Verteilung verborgen bleiben. Struktur unübersichtlich, weil weil zahlreiche Klassen nur gering oder oder überhaupt nicht besetzt Bei zu Klassen diedas charakteristische Wie erwähnt, diewenigen Klasseneinteilung durch Untersuchungsziel nichtbereits besetzt sind. sind. Beisollte zu wenigen Klassen kann kann die charakteristische FormForm der der Verteilung verborgen bestimmt werden. Willbleiben. manbleiben. beispielsweise zwei Verteilungen miteinander verVerteilung verborgen Wieunübersichtlich, bereits sollte dieVerteilungen Klasseneinteilung das Untersuchungsziel gleichen, bietet eserwähnt, sichsollte an, weil für gleiche Klassen zu bilden. Wie bereits erwähnt, diebeide Klasseneinteilung durch das Untersuchungsziel Struktur zahlreiche Klassen nur durch gering oder überhaupt werden. Will man beispielsweise Verteilungen miteinander bestimmt werden. Will man beispielsweise zwei zwei Verteilungen miteinander nicht bestimmt besetzt sind. Bei zu wenigen Klassen kann die charakteristische Formverder vergleichen, bietet esbleiben. sichfür an, fürgenannt: beide Verteilungen gleiche Klassen zu bilden. Als formale Kriterien werden u.a. gleichen, bietet es sich an, beide Verteilungen gleiche Klassen zu bilden. Verteilung verborgen -Wie Die Anzahl der Klassen sollte zwischen 10 unddurch 20 liegen (10 ≤ k ≤ 20). Für bereits erwähnt, sollte die Klasseneinteilung das Untersuchungsziel Als formale Kriterien werden u.a. genannt: kleinere Datensätze wird als Faustregel verwendet: Zahl der Klassen nicht Als formale Kriterien u.a. genannt: bestimmt werden. Willwerden man beispielsweise zwei Verteilungen miteinander ver- Anzahl Die Anzahl der Klassen sollte zwischen 10 und 20 liegen (10 ≤ k ≤ 20). Für - größer Die der Klassen sollte zwischen 10 und 20 liegen (10 ≤ k 20). Für gleichen, bietet es sich an, für beide Verteilungen gleiche Klassen zu bilden. (k) sollte zwischen 10 und 20 liegen (10 ≤ k ≤ 20). als N . kleinere Datensätze wird verwendet: Zahl der Klassen nicht kleinere Datensätze wird als Faustregel verwendet: Zahl der Klassen nicht Für kleinere Datensätze wird als Faustregel der Klassen - Möglichst konstante Klassenbreiten wählen. Als formale Kriterien werden u.a. genannt: nichtin größer als. N . am häufigsten vorkommende Merkmalswert sollte größer als N größer als - Der der Gesamtheit -- Die Anzahl der Klassen sollte 10 und 20 liegen (10 ≤ k ≤ 20). Für - Klassenmitte Möglichst konstante Klassenbreiten wählen. die der Klassenbreiten Klasse mitzwischen der größten Besetzung bilden. Möglichst konstante wählen. kleinere Datensätze wird als Faustregel verwendet: Zahl derMerkmalswert Klassen nichtsollte - Klassen Der der Gesamtheit amvoneinander häufigsten vorkommende - Die müssen eindeutig abgegrenzt werden und lückenDer in derinGesamtheit am häufigsten vorkommende Merkmalswert sollte N . folgen. größer diealsKlassenmitte der Klasse mitgrößten der größten Besetzung bilden. los aufeinander die Klassenmitte der Klasse mit der Besetzung bilden. - Klassen Die Klassen eindeutig voneinander abgegrenzt werden und lückenInteressiert nur einmüssen bestimmter Bereich der erhobenen Daten, kann sinn- Die müssen eindeutig voneinander abgegrenzt werden und es lückenMöglichst konstante Klassenbreiten wählen. losder aufeinander folgen. voll sein, offene Randklassen zu bilden.vorkommende Merkmalswert sollte folgen. - los Deraufeinander in Gesamtheit am häufigsten - Klassenmitte Interessiert nur ein Bereich der erhobenen Daten, es sinnKlasse i (für 1, bestimmter ..., k)bestimmter wird durch die untere Klassengrenze -JedeInteressiert nuri =ein Bereich der erhobenen Daten, kann kann es sinndie der Klasse mitbeschrieben der größten Besetzung bilden. voll sein, offene Randklassen zu bilden. o voll sein, offene Randklassen zu bilden. -x u und Diedie Klassen müssen eindeutig voneinander abgegrenzt werden und lückenobere Klassengrenze x i . Für die Klassenbreite Δ xi gilt somit: i Jede Klasse = 1,k)..., k) wird beschrieben die untere Klassengrenze Jede Klasse i (fürii(für =folgen. 1,i ..., wird beschrieben durchdurch die untere Klassengrenze los aufeinander o u o -x u und Interessiert nur ein bestimmter Bereich der erhobenen Daten, kann es sinno u x i .die FürKlassenbreite die Klassenbreite Δ xsomit: und die Klassengrenze x i . Für Δ xi gilt Klassengrenze i gilt somit: - xobere Δi xi x=i die x i obere i . Randklassen zu voll sein, offene bilden. Jede Klasse (für i =links 1, ..., k) wird der beschrieben durch die untere Die Klassen wenn ialle Merkmalswerte gleich oder Als Klasse wird häufig die Klassengrenze Klassenmitte Δ= xix oi=iheißen x iu . abgeschlossen, - xxoiiu .- Merkmalswert Δ xirepräsentativer o u größer als die Klassenuntergrenze, aber kleiner als die Klassenobergrenze x . Für die Klassenbreite Δ xi gilt somit: der und die obere wobeiKlassengrenze xx *ii gewählt, u ≤ ix < xo. Im umgekehrten Fall Klasse zugeordnet werden: x liegen rechts Als repräsentativer Merkmalswert der die Klassenmitte Als repräsentativer Merkmalswert i wirdi wird häufighäufig die Klassenmitte i u der Klasse i o Klasse ­aΔbgeschlossene Klassen vor: x < x ≤ x . o u * x wobei i - x iwobei . i x= gewählt, x *xgewählt, x u + xo i i i i

i x *i = i 2 Als repräsentativer Merkmalswert oder Klasse i wird häufig die Klassenmitte u ou * = xx i* =+ x i + x i * x Liegt die Klasseneinteilung vor, dann lassen sich durch Zuordnung der Merkx i gewählt, wobei i i 2 2

malswerte die absoluten bzw. relativen Klassenhäufigkeiten (hi bzw. fi) ermitLiegt die Klasseneinteilung vor, ergeben dann sich durch Zuordnung der o dann teln. fortlaufendes sich durch wiederum die absoluten undMerkLiegtDurch die Klasseneinteilung lassenlassen sich Zuordnung der Merk+ xvor, x u Summieren = i bzw.i bzw. malswerte diex *iabsoluten Klassenhäufigkeiten (h bzw. f die relativen (Hrelativen bzw. F ). malswerte dieSummenhäufigkeiten absoluten relativen Klassenhäufigkeiten (h bzw. f ) ermiti i i) ermiti i i 2 teln. Durch fortlaufendes Summieren ergeben sich wiederum die absoluten teln. Durch fortlaufendes Summieren ergeben sich wiederum die absoluten und und die relativen Summenhäufigkeiten (Hi bzw. 1.3.2 Häufigkeitstabelle die relativen Summenhäufigkeiten (Hi bzw. Fi).sichFi).durch Zuordnung der MerkLiegt die Klasseneinteilung vor, dann lassen malswerte die absoluten bzw. relativen Klassenhäufigkeiten (hi bzw. fi) ermitDie Darstellung quantitativ-stetiger Merkmale die in absoluten klassifizierter 1.3.2 Häufigkeitstabelle 1.3.2tabellarische Häufigkeitstabelle teln. Durch fortlaufendes Summieren ergeben sich wiederum und Form wird anhand des Untersuchungsmerkmals die relativen Summenhäufigkeiten (Hi bzw. Fi). "Verfügbares MonatseinkomDie tabellarische Darstellung quantitativ-stetiger Merkmale in klassifizierter men" (in EUR) gezeigt. Auf die Angabe der Einzelwerte wirdinverzichtet. Das Die tabellarische Darstellung quantitativ-stetiger Merkmale klassifizierter wird anhand des "Verfügbares MonatseinkomDatenmaterial wird bereits in Untersuchungsmerkmals klassifizierter Form präsentiert. Form wird anhand des Untersuchungsmerkmals "Verfügbares Monatseinkom1.3.2 Form Häufigkeitstabelle men" (in EUR) gezeigt. AufAngabe die Angabe der Einzelwerte wird verzichtet. Es wurden aus Vereinfachungsgründen lediglich 4 Klassen gebildet, die alleDas ei- Das men" (in EUR) gezeigt. Auf die der Einzelwerte wird verzichtet. Datenmaterial wird bereits in klassifizierter präsentiert. ne Breite von 400 besitzen.Form Die Form Untergrenze der ersten Klasse Datenmaterial wirdDarstellung bereits in EUR klassifizierter präsentiert. Diekonstante tabellarische quantitativ-stetiger Merkmale in klassifizierter Es wurden ausObergrenze Vereinfachungsgründen lediglich 4 Klassen gebildet, dieeialle eiist 500 EUR, die der letzten Klasse 2100 EUR. Wären Es wurden aus Vereinfachungsgründen lediglich 4"Verfügbares Klassen gebildet, dieeinzelne alle Form wird anhand des Untersuchungsmerkmals Monatseinkomne Breite von EUR 400Angabe EUR besitzen. Die Untergrenze der ersten Klasse ne konstante Breite von 400 besitzen. Untergrenze derverzichtet. ersten Klasse men" (inkonstante EUR) gezeigt. Auf die derDie Einzelwerte wird Das ist EUR, 500 EUR, die Obergrenze der letzten Wären einzelne ist 500 die Obergrenze der letzten Klasse 2100 2100 EUR.EUR. Wären einzelne Datenmaterial wird bereits in klassifizierter FormKlasse präsentiert. Es wurden aus Vereinfachungsgründen33 lediglich 4 Klassen gebildet, die alle eine konstante Breite von 400 EUR besitzen. Die Untergrenze der ersten Klasse 33 33 Klasse ist 500 EUR, die Obergrenze der letzten 2100 EUR. Wären einzelne 33

Teilnehmer mit einem verfügbaren Monatseinkommen von deutlich über 2.100 EUR vorhanden, würde man eine weitere Klasse als offene Randklasse (über 2.100) anfügen. Entsprechendes gilt für Teilnehmer mit einem verfügbaren Monatseinkommen von unter 500 EUR. Die Häufigkeitstabelle mit klassifizierten Daten sieht dann wie folgt aus: Tab. 3 Häufigkeitstabelle des Merkmals "Verfügbares Monatseinkommen" (in EUR) Einkommensklasse

Klassenbreite

x iu ≤ x < x o i

Δ xi

hi

400 400 400 400

16 28 24 12

0,20 0,35 0,30 0,15

80

1,00

500 900 1300 1700

bis u. 900 bis u. 1300 bis u. 1700 bis u. 2100

Häufigkeit fi

Verteilungsfunktion F(x o i)

0,20 0,55 0,85 1,00

Anmerkung: F(x oi ) = Verteilungsfunktion in den Klassenobergrenzen Aus der Häufigkeitsverteilung ergibt sich u.a., dass etwas mehr als die Hälfte aller Teilnehmer (55%) ein verfügbares Monatseinkommen unter 1.300 EUR, 20% weniger als 900 und 15% mehr als 1.700 EUR hatten. 1.3.3 Grafische Darstellung (Histogramm) Zur grafischen Darstellung der Häufigkeitsverteilung eines quantitativ-stetigen Merkmals wird das Histogramm verwendet. Im Unterschied zum Stab- oder Säulendiagramm wird die Häufigkeit nicht durch eine Höhe, sondern durch eine Fläche wiedergegeben. Bei klassifizierten Daten bildet das Histogramm die Häufigkeiten durch Rechtecke ab, deren Basis durch die Klassenbreite gegeben ist. Handelt es sich um Klassen mit konstanter Breite, dann können die Klassenhäufigkeiten als Rechteckhöhen verwendet werden, da bei gleicher Grundlinie die Höhe eines Rechtecks proportional zur Fläche ist. Werden dagegen unterschiedliche Klassenbreiten verwendet, ist diese Proportionalität nicht mehr gegeben. In diesem Fall werden die Rechteckhöhen durch eine Normierung der relativen (bzw. absoluten) Klassenhäufigkeiten bestimmt. Die normierten relativen Häufigkeiten ergeben sich, indem man die relativen Häufigkeiten durch die jeweilige Klassenbreite dividiert. Bezeichnen wir die Ordinatenhöhe der Rechtecke der i-ten Klasse mit di, so lässt sich schreiben:

34

di =

fi

Δ xi

.

Durch die Normierung wird gewährleistet, dass die relative Häufigkeit einer Klasse gleich der Rechteckfläche über dieser Klasse ist. Es gilt: fi = di . Δ xi. Die normierten relativen Häufigkeiten werden als Häufigkeitsdichte bezeichnet. Bei klassifizierten Daten ist eine weitere grafische Darstellung der Häufigkeitsverteilung möglich, das sogenannte Häufigkeitspolygon. Es entsteht, indem man die Mittelpunkte der Flächenoberkanten der Rechtecke gradlinig miteinander verbindet (vgl. Abb. 5). Um das Häufigkeitspolygon rechts und links abzuschließen, werden die Intervallmitten der benachbarten Klassen am unteren und oberen Ende des Histogramms (bei gleicher Breite) verwendet. Man erreicht dadurch, dass die Gesamtfläche unter dem Häufigkeitspolygon gleich der Gesamtfläche unter dem Histogramm wird. Abb.5

Histogramm und Häufigkeitspolygon für das klassifizierte Untersuchungsmerkmal "Verfügbares Monatseinkommen"

f (x ) i

0,35 0,3 0,25 0,2 0,15 0,1 0,05 0 500

900

1300

1700

2100

xi

1.3.4 Summenhäufigkeitsfunktion Auch die Summenhäufigkeitsfunktion (Verteilungsfunktion) klassifizierter Daten lässt sich grafisch darstellen. Da nicht bekannt ist, welche Merkmalswerte die einzelnen statistischen Einheiten innerhalb einer Klasse haben, kann die kumulierte relative Häufigkeit Fi immer nur der oberen Klassengrenze x oi zuge-

ordnet werden. Werden die Werte dieser Summenhäufigkeiten (auch Hi ist möglich) in ein Koordinatensystem eingetragen und die entstehenden Punkte linear miteinander verbunden, so resultiert daraus das grafische Bild der Sum35

menhäufigkeitsfunktion. Man unterstellt dabei, dass die Merkmalswerte innerhalb der einzelnen Klassen gleichmäßig über die gesamte Klassenbreite streuen. Der entstehende Linienzug wird auch als Summenpolygon bezeichnet.

Mithilfe der Summenhäufigkeitsfunktion F(x oi ) lässt sich die Frage beantworten, wie groß der Anteil (Prozentsatz) der statistischen Einheiten ist, deren Merkmalswerte kleiner x oi sind: F(x oi ) = f(x < x oi ) . Liegen die Daten der Urliste nicht vor, dann lassen sich die Anteilswerte innerhalb einer Klasse durch lineare Interpolation näherungsweise wie folgt berechnen: x - xu i ⋅f F(x) = F(x u ) + i i Δx i

Abb. 6 Verteilungsfunktion (Summenhäufigkeitsfunktion) des Untersuchungsmerkmals "Verfügbares Monatseinkommen" o

F (x i ) 1,0

0,85 0,55

0,20 500

900

1300

1700

2100

xo i

1.3.5 Übergang zu einer kontinuierlichen Kurve Betrachten wir ein Histogramm näher, so ist unmittelbar einsichtig, dass durch eine Erhöhung der Anzahl der Klassen die Klassenbreiten kleiner und damit die Rechtecke des Histogramms schmaler werden. Lässt man mit der Zahl der Klassen auch N gegen unendlich gehen (k→∞; N→∞), dann erhält man als Grenzübergang aus dem Polygonzug des Histogramms einen kontinuierlichen (stetigen) Kurvenzug. 36

Abb. 7 Grafische Darstellung des Histogramms von Abb. 5 bei Vergrößerung der Zahl der Klassen f (x i ) 0,45 0,4 0,35 0,3 0,25 0,2 0,15 0,1 0,05 0 500

900

1300

37

1700

2100

xi

1.4

Übungsaufgaben

Aufgabe 1 Eine Erhebung unter 40 Mitgliedern einer Reisegruppe zeigt hinsichtlich des Untersuchungsmerkmals "Familienstand" folgendes Resultat: achtundzwanzig Teilnehmer sind verheiratet, sechs ledig, vier geschieden und zwei verwitwet. a) b) c)

Stellen Sie die Häufigkeitstabelle mit den absoluten und relativen Häufigkeiten dar. Ist in diesem Fall die Berechnung kumulierter Häufigkeiten sinnvoll? Erstellen Sie ein Säulendiagramm und ein Kreisdiagramm.

Aufgabe 2 Ein Handelsunternehmen unterhält 50 verschiedene Filialen. Die Umsätze pro Woche (in 1.000 Euro) zeigen im Jahresdurchschnitt folgendes Ergebnis: 25, 30, 15, 22, 17, 22, 27, 24, 21, 26, 19, 23, 20, 23, 20, 21, 18, 21, 19, 20, 21, 20, 17, 22, 22, 22, 15, 23, 23, 23, 23, 19, 20, 24, 24, 18, 24, 25, 25, 11, 26, 26, 18, 26, 27, 27, 16, 28, 28, 13. a) b) c)

Bilden Sie zunächst Größenklassen und ermitteln Sie dann die absoluten und relativen Klassenhäufigkeiten sowie die Summenhäufigkeiten. Stellen Sie die Häufigkeitsverteilung in Form eines Histogramms dar und zeichnen Sie das Häufigkeitspolygon ein. Stellen Sie ferner die Summenhäufigkeitsfunktion grafisch dar.

Lösungshinweise: 1.

Da es sich um ein qualitatives Merkmal handelt, sind die Ausführungen in Abschnitt 1.1 zu beachten.

2.

Für die Klassifizierung wird folgendes Verfahren empfohlen; k = 10 und Δxi = 2.

38

2

Beschreibung eindimensionaler Häufigkeitsverteilungen durch statistische Maßzahlen

Im vorhergehenden Abschnitt haben wir die tabellarischen und grafischen Darstellungsmöglichkeiten eindimensionaler Häufigkeitsverteilungen kennen gelernt. Darüber hinaus ist man oftmals daran interessiert, das Datenmaterial weiter zu verdichten, um das Charakteristische einer Häufigkeitsverteilung stärker hervorzuheben. Dies geschieht durch die Berechnung repräsentativer statistischer Maßzahlen, wie Mittelwerte, Streuungsmaße und Schiefemaße. 2.1

Mittelwerte

Mittelwerte sind statistische Maßzahlen zur Kennzeichnung der Lage einer Verteilung. Sie werden deshalb auch Lageparameter genannt. Generell gilt, dass ihre Berechnung Berechnungnur nurbei beieingipfeligen eingipfeligen (unimodalen) Häufigkeitsverteilungen als re unimodalen Häufigkeitsverteilungen als sinnsinn­­vangesehen oll angesehen voll wird.wird. 2.1.1 Arithmetisches Mittel Liegen metrisch skalierte (quantitative) Merkmale vor, dann bietet sich die Berechnung des arithmetischen Mittels an. Das arithmetische Mittel ist ein rechentypischer Mittelwert, d.h. jeder Merkmalswert der statistischen Gesamtheit beeinflusst seinen Wert. Es gibt an, welchen Merkmalswert jede statistische Einheit haben würde, wenn die gesamte Merkmalssumme gleichmäßig auf alle Einheiten verteilt wäre. Die Berechnung des arithmetischen Mittels (wie aller anderen Maßzahlen) hängt davon ab, ob das Datenmaterial in ungruppierter Form (Einzelwerte) oder in gruppierter Form (Häufigkeitsverteilung) vorliegt. a)

Ungruppierte Daten

Bei ungruppiertem statistischen Material ist das arithmetische Mittel der Durchschnitt aus den Merkmalswerten aller statistischen Einheiten, d.h. die Merkmalssumme dividiert durch die Zahl der statistischen Einheiten. Werden N Einzelwerte durch x1, x2, x3, ..., xN symbolisiert, dann errechnet sich das arithmetische Mittel x wie folgt: x=

x 1 + x 2 + x 3 + ... + x N 1 N = ⋅ ∑ x i (ungewogenes arithmetisches Mittel) N N i =1

39

Die gleichmäßige Aufteilung der Merkmalssumme auf alle Merkmalsträger wird durch folgende Umstellung der Formel deutlich: N⋅x =

N

∑ xi

i =1

Besteht eine Grundgesamtheit aus zwei oder mehreren Teilgesamtheiten, von denen jeweils der Umfang und das arithmetische Mittel bekannt sind, lässt sich das arithmetische Mittel der Grundgesamtheit wie folgt berechnen (beschränkt auf zwei Teilgesamtheiten): x=

b)

N1 ⋅ x 1 + N 2 ⋅ xx 2 N1 + N 2

Gruppierte Daten

Kommen einzelne Merkmalswerte mehrfach vor, dann lassen sich deren Häufigkeiten durch h1, h2, h3, ..., hk symbolisieren. Das arithmetische Mittel errechnet sich dann bei k verschiedenen Werten wie folgt: x=

1 ⋅ N

k

k x ⋅ h = ∑ i i ∑ x i ⋅ f i (gewogenes arithmetisches Mittel) i =1 i =1

Bei der Berechnung des arithmetischen Mittels aus klassifiziertem Datenmaterial wird als repräsentativer Wert für die Einzelwerte jeder Klasse die Klassenmitte gewählt. Gegenüber der Berechnung aus Einzelwerten können sich Abweichungen ergeben, wenn die Klassenmitten x *i von dem arithmetischen Mittel der Einzelwerte in den jeweiligen Klassen abweichen. Man spricht deshalb von einem approximativen (näherungsweisen) arithmetischen Mittel: x=

1 ⋅ N

k

k

i =1

i =1

∑ x *i ⋅ h i = ∑ x *i ⋅ f i

wobei k = Anzahl der Klassen. Im Falle offener Randklassen kann das arithmetische Mittel zunächst nicht berechnet werden, da es nicht möglich ist, für diese Randklassen die Klassenmitten anzugeben. Um das Problem zu lösen, müssen die Randklassen geschlossen werden, d.h. die Klassenuntergrenze der unteren Randklasse und die Klassenobergrenze der oberen Randklasse sind mehr oder weniger willkürlich festzulegen.

40

Beispiel: Berechnung des durchschnittlichen verfügbaren Monatseinkommens aus klassifiziertem Datenmaterial (vgl. Tab. 4). Tab. 4 Arbeitstabelle zur Berechnung von x Einkommensklasse

Klassenmitte

x iu ≤ x < x o i

x *i

hi

x *i . hi

700 1.100 1.500 1.900

16 28 24 12

11.200 30.800 36.000 22.800

0,20 0,35 0,30 0,15

140 385 450 285

80

100.800

1,00

1.260

500 bis u. 900 900 bis u. 1.300 1.300 bis u. 1.700 1.700 bis u. 2.100

x=

1 ⋅ N

k

∑ x*i ⋅ h i =

i =1

fi

x *i . fi

100.800 = 1.260 EUR 80

Alternativ lässt sich x mit relativen Häufigkeiten berechnen. Das arithmetische Mittel besitzt folgende formale Eigenschaften: -

Die Summe der Abweichungen der einzelnen Merkmalswerte von ihrem arithmetischen Mittel ist gleich Null: N

∑ (x i - x) = 0 i =1 -

Die Summe der quadrierten Abweichungen der Einzelwerte von x ist kleiner als von jedem anderen Wert: N

∑ (x i - x )2 = min .

i =1

Das arithmetische Mittel ist somit gegenüber anderen Mittelwerten vorzuziehen, wenn die Summe der quadrierten Abweichungen als Gütemaß gewählt wird. Die beeinträchtigt, wenn Die Aussagekraft Aussagekraft des des arithmetischen arithmetischen Mittels Mittels wird wirderheblich dann erheblich beeinträchtigt, Ausreißer (einzelne extreme Beobachtungswerte) vorliegen. Haben von 10 Persowenn Extremwerte (Ausreißer) vorliegen. Haben beispielsweise von 10 Personen nen ein Monatseinkommen je 1.000 ein Monatseinkommen 9 ein9 Monatseinkommen von von je 1.000 EUREUR und und eineeine ein Monatseinkommen von x von 11.000 EUR, so ist das arithmetische Mittel ( x = 2.000 EUR) wenig sinnvoll 11.000 EUR, so ist das arithmetische Mittel ( x = 2.000 EUR) wenig sinnvoll zur zur Charakterisierung des durchschnittlichen Einkommens dieser PersonenCharakterisierung des durchschnittlichen Einkommens dieser Personengruppe. gruppe.

41

2.1.2 Zentralwert (Median) Werden alle statistischen Einheiten nach der Größe ihres Merkmalswertes geordnet, so ist der Zentralwert (Z) der Wert der mittleren statistischen Einheit, d.h. 50 % aller statistischen Einheiten haben einen Merkmalswert kleiner oder gleich dem Zentralwert und 50 % haben einen Merkmalswert größer oder gleich dem Zentralwert. Der Median ist somit der 50-%-Punkt. Im Gegensatz zum arithmetischen Mittel Mittel wird wirdder derZentralwert Zentralwertnicht nichtvon vonExtremwerten Ausreißern beeinflusst, beeinflusst, da da lediglich der Wert ausgewählt wird, der in der Mitte der Merkmalswerte liegt. Voraussetzung für die Ermittlung des Zentralwertes ist, dass das Untersuchungsmerkmal mindestens Ordinalskalenniveau aufweisen muss. a)

Ungruppierte Daten

Werden die beobachteten Einzelwerte der Größe nach geordnet, so ist zu unterscheiden, ob der Datensatz eine ungerade oder eine gerade Anzahl von Werten umfasst: bei N = ungerade gilt Z = x N +1 2

bei N = gerade ist

Z=

 1  ⋅ xN +xN  +1  2  2   2

Mithilfe der Rangziffern kann somit der Zentralwert bestimmt werden. In unserem Beispiel (Verfügbares Monatseinkommen) ist N gerade (N=80), folglich wäre der Beobachtungswert mit der Rangziffer tungswert mit der Rangziffer

N 2

( = 40) und der Beobach-

N + 1 ( = 41) zu suchen. Hilfsweise wird bei einer 2

geraden Zahl von Merkmalswerten das arithmetische Mittel dieser beiden Beobachtungswerte als Zentralwert genommen. b)

Gruppierte Daten

Bei einer Häufigkeitsverteilung klassifizierter Daten liegt der Zentralwert in der Klasse, in der die Verteilungsfunktion den Wert 0,5 bzw. 50 % erreicht, d.h. zunächst ist die Klasse zu suchen, in der Fi = 0,5 (Einfallsklasse von Z). Durch Anwendung folgender Interpolationsformel lässt sich der Zentralwert genauer berechnen: Z = x iu +

0,5 - F(x iu )

F(x io ) - F(x iu )

⋅ ( x io - x iu ) = x iu +

42

0,5 - F(xiu ) ⋅ Δx i , fi

wobei

F( x iu ) : kumulierte relative Häufigkeit an der Untergrenze der Klasse i.

F( x io ) : kumulierte relative Häufigkeit an der Obergrenze der Klasse i.

Für das Beispiel (vgl. Tab. 3) ergibt sich: Fi = 0,50 fällt in die Einkommensklasse 900 bis u. 1.300 EUR, folglich: Z = 900 +

0,50 - 0,20 0,35

.

EUR, 400 = 1.242,86 1.244 EUR,

d.h. 50 % der Seminarteilnehmer haben ein verfügbares Monatseinkommen von weniger als und1.244 50 %EUR. von mehr als 1.242,86 EUR. Wird die "Trennung" zwischen dem oberen und dem unteren Abschnitt der Häufigkeitsverteilung nicht im Verhältnis 1 : 1 (wie beim Zentralwert), sondern im Verhältnis 1 : 3 bzw. 3 : 1 vollzogen, so spricht man vom Quartil 1 (= 25-Prozentpunkt) bzw. Quartil 3 (= 75-Prozentpunkt). Der Zentralwert ist identisch mit Quartil 2. Die entsprechenden Formeln für klassifizierte Daten lauten: Suche die Klasse, in der Fi = 0,25 (bzw. 0,75) wird. Danach Feinberechnung für Q1 = x iu +

0,25 - F( x iu ) ⋅ Δx i bzw. fi

Q3 = x iu +

0,75 - F( x iu ) ⋅ Δx i fi

Beispiel: Fi = 0,25 fällt in die Einkommensklasse 900 bis u. 1.300 EUR, folglich: Q1 = 900 +

0,25 - 0,20 0,35

.

400 = 957,14 956 EUR. EUR.

Fi = 0,75 fällt in die Einkommensklasse 1300 1.300bis bisu.u.1.700 1.700EUR, EUR, folglich: Q3 = 1.300 +

0,75 - 0,55 0,30

.

400 = 1.568 EUR. 1.566,67 EUR.

Die Quartile sind Spezialfälle der allgemeiner definierten Quantile, die eine Häufigkeitsverteilung in zwei beliebig große Teile aufteilen. Neben den Quartilen werden die Dezile (x0,10, x0,20, … , x0,90) und die Perzentile (x0,01, x0,02, … , x0,99) unterschieden. Bei klassifizierten Daten erfolgt ihre Berechnung analog zur Bestimmung der Quartile. 43

Formale Eigenschaft des Zentralwerts: Der Zentralwert besitzt die formale Eigenschaft, dass die Summe der absoluten Abweichungen der Merkmalswerte vom Zentralwert geringer ist als von irgendeinem anderen Wert: N

∑ | x i − Z | = min .

i =1

Anmerkung: Ein in zwei senkrechte Striche gesetzter Wert oder Ausdruck wird als absoluter Betrag bezeichnet und immer positiv genommen, z.B. | 5 - 7 | = | - 2 | = 2. 2.1.3 Häufigster Wert (Modus) Der häufigste Wert, der auch als Dichtester Wert (D) oder Modus bezeichnet wird, ist der Merkmalswert mit der größten absoluten bzw. relativen Häufigkeit. Er kann bereits bei nominalskalierten (qualitativen) Merkmalen bestimmt werden. Es gilt:

D = xi

mit i aus h imax bzw. f imax

Bei klassifizierten Daten (konstante Klassenbreite) wird als angenäherter Wert

für den Modus die Klassenmitte x *i der Klasse mit der größten absoluten bzw. relativen Häufigkeit gewählt. Im Falle ungleicher Klassenbreiten wird die Klassenmitte x *i der Klasse mit der größten Häufigkeitsdichte ( d imax ) genommen. Auf die Feinberechnung des Modus bei klassifizierten Daten wird zumeist verzichtet.

Beispiel: In Tab. 3 weist die zweite Klasse (k = 2) die größte Klassenhäufigkeit auf, so dass hier D = 1.100 EUR ist. Relation zwischen den Mittelwerten (Lageregel) Im Falle einer symmetrischen Verteilung fallen häufigster Wert (D), Zentralwert (Z) und arithmetisches Mittel ( x ) zusammen: D=Z=x

Bei linksschiefen (bzw. linksschiefen) rechtssteilen) Verteilungen gilt folgende Anordnung der rechtssteilen (bzw. Mittelwerte: Mittelwerte: D>Z>x

44

Analog gilt für fürlinkssteile rechtsschiefe (bzw. linkssteile)Verteilungen: Verteilungen: Analog gilt (bzw. rechtsschiefe) D 00  rechtsschiefe symmetrischeVerteilung Verteilung < 0 rechtsschiefe linksschiefe Verteilung m3 ( x ) > Verteilung m3 ( x ) < 0 linksschiefe Verteilung

51 51 51

Die Wölbung beschreibt die Ausgeprägtheit einer Verteilung im Bereich ihres Zentrums. Sie wird mithilfe des Wölbungskoeffizienten (Kurtosis, Exzess) gemessen. Er gibt an, ob eine Verteilung breitgipflig oder schmalgipflig ist. Referenzverteilung ist die Normalverteilung: hier ist der Wölbungskoeffizient gleich Null (normale Wölbung). Bei einer schmalgipfligen (steiler gewölbten) Verteilung nimmt die Kurtosis einen positiven, bei einer breitgipfligen (flacher gewölbten) einen negativen Wert an. Die Kurtosis wird bestimmt durch das Verhältnis des vierten Moments um x und der quadrierten Varianz: _   w =  m 4 ( x )/σ 4  − 3  

(Von dem Quotienten wird der Wert 3 subtrahiert, um im Fall der Normalverteilung eine Kurtosis von Null zu erhalten.) 2.4

Konzentrationsmaße

Die Standardabweichung informiert darüber, wie die Merkmalswerte der statistischen Einheiten um das arithmetische Mittel streuen. Da x den Betrag angibt, den jede statistische Einheit bei Gleichverteilung der Merkmalssumme erhalten hätte, kann die Standardabweichung als ein Konzentrationsmaß angesehen werden. In vielen Fällen interessiert man sich aber vorrangig für die Aufteilung der gesamten Merkmalssumme auf die einzelnen statistischen Einheiten und spricht in diesem Zusammenhang von einer Konzentrationsaussage. Unternehmenskonzentration, Vermögenskonzentration und Einkommenskonzentration sind einige Stichpunkte, welche die wirtschaftspolitische Bedeutung von Konzentrationserscheinungen und der Notwendigkeit ihrer Messung durch Konzentrationsmaße verdeutlichen. Je nach Betrachtungsweise unterscheidet man zwischen absoluter und relativer Konzentration. Der Unterschied besteht darin, dass von absoluter Konzentration dann gesprochen wird, wenn ein Großteil der gesamten Merkmalssumme (z. B. Gesamtumsatz eines Industriezweiges) auf eine kleine Zahl von Merkmalsträgern (z. B. Unternehmen) entfällt, von relativer Konzentration, wenn ein Großteil der gesamten Merkmalssumme auf einen kleinen Anteil der Merkmalsträger fällt, wobei die Zahl von vornherein ohne Bedeutung ist. Maßzahlen der absoluten Konzentration sind Konzentrationsziffern (englisch: concentration ratios), die den Anteil der größten 3, 5, 10 oder mehr Merkmalsträger an der gesamten Merkmalssumme angeben. Sie sind ein weit verbreitetes Maß zur Messung der Konzentration. Der Konzentrationskoeffizient CRa für a = 2, 3, 4, 5, 6, 10 oder 100 (je nach Fragestellung) wird definiert als:

52

N

CR a =

∑xi

i = N −a +1 N

∑xi i =1

Soll beispielsweise der Anteil der 3 umsatzstärksten Unternehmen einer Branche oder eines Marktes am Gesamtumsatz CR3 bei N = 10:

N

∑xi i =1

ermittelt werden, so gilt für

10

CR 3 =

∑xi

i =10−3+1 10

∑xi i =1

Eine weitere Maßzahl der absoluten Konzentration ist der Herfindahl-Index (auch als Hirschman-Index bezeichnet), der definiert ist als H=

N

∑ pi2

i =1

wobei pi = Anteil des Merkmalsträger i an der gesamten Merkmalssumme. Maximale Konzentration liegt dann vor, wenn H = 1 ist (ein Merkmalsträger vereinigt die gesamte Merkmalssumme auf sich); bei minimaler Konzentration ist H =

1 (alle Merkmalsträger haben den gleichen Anteil an der gesamten N

Merkmalssumme).

Zur Messung der relativen Konzentration wird die Lorenz-Kurve herangezogen. In einem quadratischen Schaubild werden auf der Abszisse die kumulierten Anteile der Merkmalsträger (Fi) abgetragen, auf der Ordinate die zugehörigen kumulierten Anteile an der gesamten Merkmalssumme (MSi) eingezeichnet. Der Streckenzug, der die entsprechenden Punkte - vom Nullpunkt beginnend miteinander verbindet, wird als Lorenz-Kurve (Konzentrationskurve) bezeichnet. Verteilt sich die gesamte Merkmalssumme völlig gleich auf alle Merkmalsträger, fällt die Lorenzkurve mit der Diagonalen des quadratischen Schaubildes zusammen. Ansonsten verläuft sie unterhalb der Gleichverteilungsgeraden (Diagonale). Je stärker die Konzentration, desto stärker ist die Lorenz-Kurve nach rechts unten gekrümmt und desto größer ist die Fläche zwischen Diagonale und Lorenz-Kurve. Bei maximaler Konzentration umfasst sie (nahezu) die gesamte Fläche des Dreiecks unter der Gleichverteilungsgeraden. Es liegt des53

halb nahe, das Verhältnis der Flächen zwischen Lorenzkurve und Gleichverteilungsgerade und des Dreiecks unter der Gleichverteilungsgeraden als Maß für die relative Konzentration heranzuziehen. Dieser Quotient wird GiniKoeffizient (G) genannt und kann nur Werte zwischen 0 und 1 annehmen (0 ≤ G ≤ 1). Für G = 1 besteht vollständige Konzentration, für G = 0 besteht eine Gleichverteilung. Zur Berechnung kann folgende Formel verwendet werden: G=1–

k

∑ (MSi −1 + MSi ) · f i =1

i

mit MS0 = 0

Beispiel: Mithilfe der Lorenzkurve wollen wir die Konzentration der Verteilung der verfügbaren Monatseinkommen grafisch darstellen. Dazu wird die Häufigkeitsverteilung in klassifizierter Form herangezogen (vgl. Tab. 3 und 4). Die kumulierten relativen Häufigkeiten der Merkmalsträger wurden bereits errechnet (Fi). Zusätzlich zu bestimmen sind die kumulierten Anteile der einzelnen Einkommensklassen an der gesamten Merkmalssumme (MSi). Dazu dient folgende Arbeitstabelle: Tab. 7 Arbeitstabelle zur Ermittlung der Lorenzkurve

x iu ≤ x < x o i

x *i

500 - u. 900 700 900 - u. 1.300 1.100 1.300 - u. 1.700 1.500 1.700 - u. 2.100 1.900

x*i ⋅ h i

hi

x*i ⋅ h i

16 28 24 12

11.200 30.800 36.000 22.800

0,11 0,30 0,36 0,23

100.800

1,00

=N.

N⋅x

fi

Fi

0,20 0,35 0,30 0,15

0,20 0,55 0,85 1,00

MSi 0,11 0,41 0,77 1,00

x

In der Lorenzkurve werden nun die beiden letzten Spalten der Arbeitstabelle grafisch dargestellt. Die Werte für die Einkommensklasse 900 bis u. 1.300 EUR sind beispielsweise wie folgt zu interpretieren: auf 55% aller Teilnehmer entfallen 41% des Gesamteinkommens.

54

Abb. 9 Lorenzkurve für die Verteilung des verfügbaren Monatseinkommens MS

i

1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0

0,2

0,4

0,6

0,8

55

1,0

Fi

2.5

Übungsaufgaben

Aufgabe 1 Ein Fachgeschäft für Schrauben weist an einem bestimmten Wochentag folgende Verkaufszahlen in den Abteilungen K1 und K2 aus: Abteilung K1 Verkaufsbetrag in EUR 1,50 - u. 2,50 2,50 - u. 3,50 3,50 - u. 4,50 4,50 - u. 5,50 5,50 - u. 6,50 6,50 - u. 7,50

Abteilung K2

Anzahl der Verkäufe

Verkaufsbetrag in EUR

4 8 20 4 2 2

16,-30,-40,-50,-60,--

Anzahl der Verkäufe 8 20 16 12 4

a) Berechnen Sie für jede Abteilung den durchschnittlichen Verkaufsbetrag. b) Ist die Aussage richtig, dass die Verkaufsbeträge in der Abteilung K1 stärker streuen als in der Abteilung K2? Aufgabe 2 Folgende Häufigkeitsverteilung eines statistischen Merkmals ist festgestellt worden: Merkmalsklassen absolute Häufigkeiten

10 - u. 12 150

12 - u. 14 250

14 - u. 16 400

16 - u. 18 500

18 - u. 20 450

a) Berechnen Sie die mittlere absolute Abweichung vom Zentralwert. b) Trennen Sie 75% der Verteilung in der Weise ab, dass in dem abgetrennten Teil nur Werte liegen, die größer sind als im Rest der Verteilung. Bei welchem Merkmalswert liegt die Trennstelle? c) Welche Aussage lässt sich aus einem Vergleich von häufigstem Wert, Zentralwert und arithmetischem Mittel über die Schiefe der Verteilung machen?

56

Lösungen: Aufgabe 1 a) Abteilung K 1: x = 3,95 EUR; Abteilung K 2: x = 36,80 EUR b) Zur Überprüfung der Aussage ist für beide Abteilungen der Variationskoeffizient zu ermitteln: 1,16 Abt. K1: σ = 1,16 EUR; V = 3,95 . 100% = 29% 12,11 Abt. K2: σ = 12,11 EUR; V = 36,80 . 100% = 33% D.h. die Aussage ist falsch. Aufgabe 2 a) Z = 16,28 16,34; d = 2,12 2,11 b) Die Trennstelle liegt bei 14,26 14,17 (= Q1) c) D = 17; Z = 16,28 16,34; x = 15,97; folglich: D > Z > x , d.h. linksschiefe Verteilung.

57

IV

Zweidimensionale Häufigkeitsverteilungen

Während wir uns bisher mit der Darstellung und Beschreibung eindimensionaler (univariater) Häufigkeitsverteilungen beschäftigt haben, sollen nun zweidimensionale (bivariate) Häufigkeitsverteilungen behandelt werden. Eine zweidimensionale Häufigkeitsverteilung liegt dann vor, wenn für jede statistische Einheit einer Grundgesamtheit oder Stichprobe zwei Untersuchungsmerkmale (auch Variable genannt) betrachtet werden. Ein weiterer Schritt in der Datenanalyse besteht darin, eine dritte oder weitere Variablen heranzuziehen (mehrdimensionale Häufigkeitsverteilung). Zweidimensionale Verteilungen sind ein wichtiges Instrument der beschreibenden Statistik. Sie ermöglichen die Beantwortung von Fragen nach dem Zusammenhang zwischen zwei Variablen. Dabei sind folgende Fragestellungen von vorrangigem Interesse: - Besteht ein Zusammenhang zwischen den Variablen? Wenn ja, wie stark ist dieser Zusammenhang? - Durch welche mathematische Funktion kann ein existierender Zusammenhang beschrieben werden? Die Beantwortung dieser Fragen hängt von dem Messniveau der Variablen ab. Sind beide Variablen nominal skaliert, dann sind den Auswertungsmöglichkeiten enge Grenzen gesetzt. Der Zusammenhang lässt sich ausschließlich aufgrund der Häufigkeiten erschließen, mit denen bestimmte Merkmalspaarungen auftreten. Als statistische Maßzahl steht der Kontingenzkoeffizient zur Verfügung. Handelt es sich dagegen um ordinal skalierte Variablen, dann kann die Stärke des Zusammenhangs durch den Rangkorrelationskoeffizienten nach Spearman ermittelt werden. Im Falle metrisch skalierter Variablen steht hierfür der Produkt-MomentKorrelationskoeffizient (auch Korrelationskoeffizient nach Bravais-Pearson genannt) zur Verfügung. Als weitere statistische Methode kann die Regressionsrechnung angewandt werden, mit deren Hilfe der Zusammenhang zwischen metrisch skalierten Variablen durch eine Regressionsfunktion beschrieben wird. Hinweis: Hierbei ist zu beachten, dass die Skalentypen im Sinne einer aufsteigenden Hierarchie zu verstehen sind. Höherwertige Skalierungen können grundsätzlich in Skalen niedrigeren Messniveaus transformiert werden. So lassen sich zum Beispiel metrische Merkmalswerte nach ihrer Größe ohne weiteres in eine Rangfolge bringen. Nach einer solchen Transformation kann dann auch für metrische Merkmale ein Rangkorrelationskoeffizient berechnet werden. Grundsätzlich gilt jedoch, dass derartige Transformationen zu einem Informationsverlust führen und deshalb möglichst unterlassen werden sollten. Zunächst wollen wir uns kurz mit den tabellarischen und grafischen Darstellungsmöglichkeiten zweidimensionaler Verteilungen befassen. 58

1

Darstellung zweidimensionaler Häufigkeitsverteilungen

Als "roten Faden" für die weiteren Ausführungen wählen wir - vereinfachend die Unterscheidung zwischen den Darstellungsmöglichkeiten nominal skalierter (qualitativer) Merkmale und metrisch skalierter (quantitativer) Merkmale. Was qualitative Merkmale betrifft, so betrachten wir aus unserem Standardbeispiel die Untersuchungsmerkmale "Geschlecht" (im folgenden: Merkmal A) und "Einstellung zur Statistik" (Merkmal: B). Die Einstellung zur Statistik wurde nur in "positiv", "indifferent" und und "negativ" erfragt. in den denAlternativen Ausprägungen "positiv", "indifferent" "negativ" erfragt. Jedem Seminarteilnehmer lässt sich nun ein Merkmalspaar zuordnen. Durch Auszählen der absoluten Häufigkeiten pro Merkmalspaar erhalten wir eine zweidimensionale Häufigkeitstabelle oder Häufigkeitsmatrix. In den Randleisten der Tabelle werden die Merkmalsausprägungen der beiden Variablen eingetragen. Das Ergebnis unserer Erhebung ist in Tab. 8 dargestellt. Da es sich bei beiden Untersuchungsmerkmalen um nominalskalierte Variablen handelt, spricht man von einer Kontingenztabelle. Tab. 8 Zweidimensionale Häufigkeitstabelle (absolute Häufigkeiten) Einstellung zur Statistik (B) Geschlecht (A)

positiv (b1)

indifferent (b2)

negativ (b3)

Summe

weiblich (a1) männlich (a2)

24 20

8 12

4 12

3 6 44

Summe

44

20

16

80

Die Zahlen in den Feldern der Tabelle geben die absoluten Häufigkeiten wieder, mit der die einzelnen Merkmalspaarungen auftreten. Beispiel: die zweidimensionale Häufigkeit h(a1, b1) besagt, dass 24 weibliche Seminarteilnehmer eine positive Einstellung zur Statistik äußerten. In der letzten Spalte und der untersten Zeile sind die Zeilensummen bzw. Spaltensummen eingetragen. Man bezeichnet diese Angaben als Randverteilungen. Sie ergeben sich durch Summation der Häufigkeiten über alle Ausprägungen des anderen Merkmals. Bilden wir in Tab. 8 die Zeilensummen, so erhalten wir in der Randspalte die aus Tabelle 1 bereits bekannte eindimensionale Häufigkeitsverteilung des Untersuchungsmerkmals "Geschlecht". Entsprechend geben die Spaltensummen die eindimensionale Häufigkeitsverteilung des Merkmals "Einstellung zur Statistik" wieder. Wie bei eindimensionalen Häufigkeitsverteilungen kann man die absoluten Häufigkeiten in relative Häufigkeiten umrechnen und erhält dann eine zweidimensionale Verteilung von relativen Häufigkeiten. 59

Tab. 9 Zweidimensionale Häufigkeitstabelle (relative Häufigkeiten) Einstellung zur Statistik (B) positiv (b1) indifferent (b2) negativ (b3) 0,30 0,10 0,05 0,25 0,15 0,15 0,55 0,25 0,20

Geschlecht (A) weiblich (a1) männlich (a2) Summe

Summe 0,45 0,55 1,00

Liegen allgemein zwei Merkmale A und B mit den Ausprägungen ai (für i = 1, 2, ..., m) und bj (für j = 1, 2, ..., s) vor, dann hat der Aufbau einer zweidimensionalen Häufigkeitstabelle folgende Form: Tab. 10 Allgemeiner Aufbau einer zweidimensionalen Häufigkeitstabelle

Merkmal A a1 a2 . . . ai . . . am Spaltensumme

b1 h11 h21 . . . hi1 . . . hm1 h.1

b2 h12 h22 . . . hi2 . . . hm2 h.2

... ... ... ... ... ... ... ... ... ... ... ...

Merkmal B bj h1j h2j . . . hij . . . hmj h.j

... ... ... ... ... ... ... ... ... ... ... ...

bs h1s h2s . . . his . . . hms h.s

Zeilensumme h1. h2. . . . hi. . . . hm. h..=N

Anmerkung: Der Punkt in den Symbolen der Spalten- bzw. Zeilensummen zeigt an, über welche Merkmalsausprägungen summiert wird. Beispiel: Beispiel: h.1 gibt die Verteilung der Merkmalsausprägung b1 über alle Ausprägungen des Merkmals A an. Es gilt: h i. =

s

∑ h ij

j =1

h j. =

m

∑ h ij

i =1

und h = ..

m

s

∑ ∑ h ij = N

i =1 j =1

Anmerkung: Der Wert der Doppelsumme ist unabhängig davon, über welchen Summationsindex zuerst summiert wird. Man kann erst die Zeilensummen bil-

60

den und diese summieren oder zuerst die Spaltensummen bilden und dann diese summieren. Auch bei metrisch skalierten (quantitativen) Merkmalen ist es in gleicher Weise möglich, eine zweidimensionale Häufigkeitsverteilung zu erstellen. Aus unserem Standardbeispiel betrachten wir die Untersuchungsmerkmale "Verfügbares Monatseinkommen" (Merkmal X) und "Alter" (Merkmal Y). Da es sich bei beiden Merkmalen um quantitativ-stetige Merkmale handelt, werden die Merkmalswerte durch Größenklassen definiert. Jedem Größenklassenpaar können dann die Teilnehmer zugeordnet werden, welche die Merkmalskombination (xi, yj) aufweisen. Auf diese Weise erhalten wir die absoluten Häufigkeiten h(xi, yj) = hij bzw. die relativen Häufigkeiten f(xi, yj) = fij. Tab. 11 Zweidimensionale Häufigkeitsverteilung des verfügbaren Monatseinkommens und des Alters der Seminarteilnehmer

Verfügbares Monatseinkommen (X) (in EUR)

Alter (Y) (in Jahren) (1) 20- u.25

(2) 25- u.30

(3) 30- u.35

Zeilensumme

12 16 4 4

4 8 12 4

4 8 4

16 28 24 12

36

28

16

80

(1) 500 bis u. 900 (2) 900 bis u. 1.300 (3) 1.300 bis u. 1.700 (4) 1.700 bis u. 2.100 Spaltensumme

Die Zahlen in der Tabelle geben die absoluten Häufigkeiten hij wieder, mit der die einzelnen Größenklassenkombinationen auftreten. An Stelle der absoluten Häufigkeiten können könnenauch wiederum die relativen Häufigkeiten fij eingetragen figkeiten die relativen Häufigkeiten fij eingetragen werden. werden. Neben der Spaltensumme und der Zeilensumme können auch die einzelnen Felder der zweidimensionalen Häufigkeitstabelle näher betrachtet werden. So können die absoluten Häufigkeiten jeder Spalte durch die Randhäufigkeit h.j dividiert werden. Folgende Schreibweise ist üblich: f (x i | y j ) =

h(x i , y j ) h(y j )

=

h ij h .j

Die Gesamtheit dieser r elativen Häufigkeiten einer Spalte wird als bedingte Häufigkeitsverteilung bezeichnet, da diese Verteilung nur für die zugehörige Merkmalsausprägung (hier: Größenklasse) der Kopfzeile gilt (vgl. Tab. 12). In gleicher 61

Weise ist es möglich, die Größenklasse des Merkmals X vorzugeben und die bedingte Verteilung des Merkmals Y zu errechnen, d.h. f (y j | x i ) =

h(x i , y j ) h(x i )

=

h ij

h i.

Die bedingte Häufigkeitsverteilung ist jeweils die eindimensionale Häufigkeitsverteilung von X (bzw. Y) bei gegebenem Y (bzw. X). Beispiel: Tab. 12 Bedingte Häufigkeitsverteilung des verfügbaren Monatseinkommens Alter (Y) Verfügbares Monatseinkommen (X) 500 bis u. 900 bis u. 1300 bis u. 1700 bis u.

900 1300 1700 2100

f(xi|y1) 20-u.25 12 : 36 = 16 : 36 = 4 : 36 = 4 : 36 =

f(xi|y2) f(xi|y3) 25-u.30 30-u.35

Randverteilung von x

0,33 0,45 0,11 0,11

0,14 0,29 0,43 0,14

0,25 0,50 0,25

0,20 0,35 0,30 0,15

1,00

1,00

1,00

1,00

Die Berechnung der bedingten Verteilungen liefert einen Hinweis darauf, ob die beiden Untersuchungsmerkmale statistisch unabhängig voneinander sind. Von statistischer Unabhängigkeit wird gesprochen, wenn die relativen Häufigkeiten der bedingten Verteilungen des Merkmals X (bzw. des Merkmals Y) untereinander gleich sind. In diesem Fall sind die bedingten Verteilungen gleich der zugehörigen Randverteilung. Die Verteilung des einen Merkmals ist somit unabhängig davon, welche spezielle Ausprägung des anderen Merkmals als Bedingung angegeben ist. Besteht keine Unabhängigkeit, so kann aus den Abweichungen zwischen den beobachteten Häufigkeiten hij und den bei Unabhängigkeit erwarteten Häufigkeiten hˆ ij eine Maßzahl für die Stärke der Abhängigkeit konstruiert werquadratische Kontingenz, die folgt sich den. Dazu verwendet verwendet man man die die sogenannte quadratische Kontingenz, die sich wie wie folgt errechnet: errechnet: K=

s (h - hˆ ) 2 ij ij . ˆh ij i =1 j =1 m

∑ ∑

Die Berechnung der quadratischen Kontingenz ist jedoch in erster Linie bei qualitativen Merkmalen sinnvoll, da hier die Abgrenzung der Merkmale vorgegeben ist und nicht (wie bei quantitativen Merkmalen) von der Art der Klassenbildung

62

abhängt (vgl. dazu Hansen 1985). In der schließenden Statistik spielt die quadratische Kontingenz als Größe Chi-Quadrat eine Rolle (vgl. Abschnitt VII. 4.3.). Die grafische Darstellung zweidimensionaler Häufigkeitsverteilungen klassifizierter Daten erfordert ein dreidimensionales Histogramm. Die Merkmalsausprägungen der beiden Variablen lassen sich als Flächen in einem zweidimensionalen Diagramm darstellen; einer Fläche muss nun die Häufigkeit zugeordnet werden. Verwenden wir relative Häufigkeiten, so muss der flächenproportionalen Darstellung eines quantitativ-stetigen Merkmals eine volumenproportionale Darstellung entsprechen. Eine weniger aufwendige Art der Darstellung besteht darin, die Besetzung der Tabellenfelder durch schraffierte, punktierte oder gefärbte Quadrate optisch zu verdeutlichen. Abb. 10

f

Dreidimensionales Histogramm der Merkmale "Verfügbares Monatseinkommen" und "Alter"

ij

0,20 0,15 y

0,10

j

3 2

0,05 1

0 1

2

3

xi

4

Die relativen Häufigkeiten in Abb.10 lassen sich aus Tab.11 berechnen. Für zahlreiche Zwecke, insbesondere für Regressions- und Korrelationsrechnungen ist es jedoch von Vorteil, eine andere als die bisher erörterte Darstellungsform zu wählen. Die Beobachtungswerte metrisch skalierter (quantitativer) Merkmale lassen sich in ein zweidimensionales Koordinatensystem eintragen, und man erhält dann ein Streuungsdiagramm. Dabei wird im Sinne einer schematischen Vereinfachung außer acht gelassen, dass Messwertpaare auch mehrfach auftreten können (sonst müssten die Punkte ein unterschiedliches Gewicht haben). Tritt in einer zweidimensionalen Häufigkeitstabelle jedes Beobachtungspaar nur mit der 63

absoluten Häufigkeit 1 auf, d.h. unterscheiden sich alle Beobachtungspaare voneinander, dann sind Streuungsdiagramme exakte Darstellungsformen zweidimensionaler Verteilungen. 2

Analyse zweidimensionaler Verteilungen

Wie bereits erwähnt, lassen sich zweidimensionale Verteilungen quantitativer Merkmale mithilfe der Regressions- und Korrelationsrechnung näher untersuchen. Vor allem im Hinblick auf die Analyse ökonomischer Zusammenhänge ist die Regressionsanalyse von grundlegender Bedeutung. 2.1

Regressionsanalyse

Zu unterscheiden sind Einfachregression und Mehrfachregression (multiple Regression). Während bei der Einfachregression nur der Zusammenhang zwischen zwei Variablen untersucht wird, werden bei der Mehrfachregression die Zusammenhänge zwischen drei und mehreren Variablen analysiert. Obwohl die in der Realität beobachteten Änderungen einer ökonomischen Größe zumeist nur durch weitere Variablen hinreichend erklärt werden können, erfolgt aus Vereinfachungsgründen eine Beschränkung auf das Modell der Einfachregression. Im Fall der dass dieder beiden Variablen voneinder Einfachregression Einfachregressionwird wirdunterstellt, die Veränderung statistischen Variablen ander abhängig sind, wobei die abhängige VariableDa (Regressand) Y und die Y in Abhängigkeit von der Variablen X dargestellt. mithilfe dermit Regressionsunabhängige Variable (Regressor) X bezeichnet wird. Da mithilfe r Refunktion die Werte von Y durch die mit Werte von X erklärt werden sollen,de spricht gressionsfunktion die der Werte von Y durch die Werteund vonXXals erklärt werden sollen, man von Y auch als abhängigen Variablen der unabhängigen spricht man von Y auch als der "zu erklärenden" und X als der "erklärenden" VaVariablen. riable. Vermutungen bzw. Hypothesen über Beziehungen zwischen Variablen gründen sich zumeist auf theoretische Konstrukte, beispielsweise Modelle der ökonomischen Theorie oder Plausibilitätsüberlegungen. Hinweis: Wenn wir den Zusammenhang zwischen verfügbarem Monatseinkommen und Alter (vgl. Tab. 11) durch eine Regressionsfunktion beschreiben wollten, dann wäre im Gegensatz zur dort gewählten Bezeichnung das Alter mit X und das verfügbare Monatseinkommen mit Y zu benennen, da das Einkommen als abhängig vom Alter angenommen wird und nicht umgekehrt das Einkommen als Bestimmungsfaktor des Alters. 2.1.1 Streuungsdiagramm Die erste Vorarbeit für jede Regressionsanalyse besteht in der Anfertigung eines Streuungsdiagramms. Liegen N beobachtete Wertepaare vor und werden die Merkmalswerte der unabhängigen Variablen mit xi, die der abhängigen Variablen

64

mit yi (für i = 1, 2, ..., N) bezeichnet, so lässt sich zunächst folgende Tabelle erstellen: i

1

2

3

...

N

xi

x1

x2

x3

...

xN

yi

y1

y2

y3

...

yN

Wir gehen im folgenden stets davon aus, dass die Merkmalswerte in unklassifizierter Form vorliegen. Trägt man die N Wertepaare (xi, yi) als Punkte in ein rechtwinkliges xy-Koordinatensystem ein, so ergibt sich ein aus N Punkten bestehendes Streuungsdiagramm (auch Punktwolke genannt). Aus diesem Streuungsdiagramm werden erste Hinweise darauf gewonnen, ob überhaupt ein Zusammenhang zwischen x und y vorliegt und welcher Art und Stärke dieser Zusammenhang ist. In den Abb. 11a - 11c sind einige Streuungsdiagramme modellhaft dargestellt: Abb. 11 a:

Abb. 11 b:

Abb. 11 c: y

y

y

● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ●● ● ●

● ●● ● ●

●● ● ● ● ● ●●

● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ● ●● ●●



●● ● ● ●



x

x



x

Abb. 11a lässt keinen Zusammenhang zwischen den beiden Variablen vermuten, Abb. 11b deutet auf einen linearen Zusammenhang hin, während Abb.11c einen nicht-linearen Zusammenhang erkennen lässt. In der Regressionsanalyse geht es nun darum, eine mathematische Funktion zu finden, die sich der Punktwolke möglichst optimal anpasst. Werden mehrere Funktionstypen als geeignet betrachtet, so sollte man die mathematisch einfachste auswählen. Da sich in der Ökonomie viele Zusammenhänge durch lineare Funktionen recht gut approximieren lassen, beschränken wir uns auf lineare Regressionsfunktionen. 65

Eine lineare Regressionsfunktion (Regressionsgerade) lässt sich für die Beobachtungswerte darstellen als: Eine lineare Regressionsfunktion (Regressionsgerade) lässt sich darstellen als:

(1)

yˆi = a + b ⋅ x i .

a und b werden als Regressionskoeffizienten bezeichnet; a kennzeichnet den Schnittpunkt der Regressionsgerade mit der Ordinate (y-Achse), b die Steigung der Regressionsgeraden; yˆ i ist der durch die Regressionsfunktion ermittelte y-Wert auf der Geraden. Da wir eine Regressionsgerade die sich den Schätzwert. Da wir eine Regressionsgerade suchen, die sichsuchen, den Beobachtungswerten möglichst gut anpasst, muss Anpassungskriterium näher präBeobachtungswerten möglichst gutzunächst anpasst, das muss zunächst das Anpassungskrizisiert Die Gütewerden. der Anpassung kann die Abweichungen di der emteriumwerden. näher präzisiert Die Güte der durch Anpassung kann durch die Abweipirischen Werte y von den geschätzten Werten yˆ i bestimmt werchungen d(beobachteten) der empirischen (beobachteten) Werte y von den y ˆ -Werten bestimmt i i i i werden. Es gilt: den. Es gilt: (2)

d i = y i - yˆ i

für i = 1, 2, ..., N.

Eine optimale Anpassung ist dann gegeben, wenn die Summe der quadrierten Abweichungen minimiert wird, d.h. man legt die Regressionsgerade so, dass die Summe der Quadrate aller vertikalen Abstände zwischen der Geraden und den Punkten des Streuungsdiagramms möglichst klein wird: (3)

N

N

i =1

i =1

∑ d i2 = ∑ (yi - yˆi )2



Minimum.

Auf eine nähere Begründung dieses Kriteriums soll hier verzichtet werden (vgl. dazu Bleymüller/Gehlert/Gülicher 2008). 2002). 2.1.2 Bestimmung einer (linearen) Regressionsfunktion nach der Methode der kleinsten Quadrate Die Minimierung der Summe der quadrierten Abweichungen wird als Methode der kleinsten Quadrate bezeichnet und stellt die am häufigsten verwendete Methode zur Bestimmung von Regressionsfunktionen dar. Im Falle yˆ i = a + b · xi müssen a und b so gewählt werden, dass die Funktion (4)

f (a , b ) =

N

N

N

i =1

i =1

i =1

∑ (yi - yˆi )2 = ∑ [yi - (a + b ⋅ x i )]2 = ∑ (yi - a - bx i )2

ihr Minimum annimmt. Da wir es hier mit einer Funktion mit zwei Veränderlichen (a und b) zu tun haben, müssen zur Bestimmung des Minimums die ersten partiellen Ableitungen nach a und b gebildet und gleich Null gesetzt werden. Als Ergebnis erhält man die sogenannten Normalgleichungen:

66 66

(5)

(6)

N

N

i =1

i =1

∑ yi = N a + b ⋅ ∑ x i N

N N x y = a x + b ∑ i i ∑ i ∑ x i2 . i=1 i =1 i =1

Das Auflösen der beiden Normalgleichungen nach a und b ergibt: (7)

a=

(8)

b=

∑ x i2 ⋅ ∑ yi - ∑ x i ⋅ ∑ x i ⋅ yi 2 N ⋅ ∑ x i2 - (∑ x i ) N ⋅ ∑ x i ⋅ yi - ∑ x i ⋅ ∑ yi N ⋅ ∑ x i2 -

(∑ x i )2

Auf die Angabe der Summationsgrenzen wurde verzichtet. Durch Bildung der zweiten partiellen Ableitungen lässt sich die Minimumeigenschaft der Funktion überprüfen. Beispiel zur Berechnung einer linearen Regressionsfunktion: Für ein Unternehmen der pharmazeutischen Industrie sind die Entwicklung des Jahresumsatzes sowie der Ausgaben für Forschung und Entwicklung (F & E) bekannt. Der Zusammenhang soll durch eine lineare Regressionsfunktion beschrieben werden. Für einen Zehnjahreszeitraum liegen folgende Daten in Mio. EUR vor: Jahr

F&E

Jahresumsatz

1 2 3 4 5 6 7 8 9 10

2 2 3 3 4 4 5 6 6 7

21 20 25 25 30 35 40 45 43 50

Es wird davon ausgegangen, dass die Ausgaben Forschung Entwicklung Als Erklärungsmodell wird unterstellt, dass diefür Ausgaben fürund Forschung und (yi) vom Jahresumsatz (xi) abhängig(xsind. Entwicklung (yi) vom Jahresumsatz i) abhängig sind.

Zur Berechnung der für die Formeln (7) und (8) notwendigen Summen wird folgende Arbeitstabelle empfohlen:

67

Tab. 13 Arbeitstabelle zur Berechnung einer linearen Regressionsfunktion xi

yi

21 20 25 25 30 35 40 45 43 50 334

2 2 3 3 4 4 5 6 6 7 42

x i2

441 400 625 625 900 1.225 1.600 2.025 1.849 2.500 12.190

xi yi 42 40 75 75 120 140 200 270 258 350 1.570

Durch Einsetzen ergibt sich: a=

b=

12.190 ⋅ 42 - 334 ⋅ 1570 10 ⋅ 12.190 - (334)

10 ⋅ 1.570 - 334 ⋅ 42

10 ⋅ 12.190 - (334 )

2

2

=

=

- 12.400 = - 1,2 10.344

1.672 = 0,16 10.344

Die lineare Regressionsfunktion lautet somit:

yˆ i = - 1,2 + 0,16x i . Zur Interpretation: der Wert b gibt die Steigung der Regressionsgeraden an. Man kann daraus ersehen, um wie viel sich der Merkmalswert von y durchschnittlich ändern würde, wenn der Merkmalswert von x um eine Einheit erhöht würde. In unserem Beispiel würde eine Erhöhung des Jahresumsatzes um 1 Mio. EUR eine Steigerung der F&E-Ausgaben um durchschnittlich 0,16 Mio. EUR bewirken. Bei der Deutung von a ist zu beachten, dass die Regressionsgerade nur für den Wertebereich des Datenmaterials aussagefähig ist. Die Existenz eines Schnittpunktes mit der Ordinate ist durch den linearen Ansatz bedingt. Eine Aussage in der Art, dass die F&E-Ausgaben -1,2 Mio. EUR betragen, wenn der Jahresumsatz auf Null reduziert wird, wäre wenig sinnvoll. In Abb. 12 sind das Streuungsdiagramm und die Regressionsgerade zu dem Beispiel grafisch dargestellt.

68

F&E(Y ) A us gaben in Mio. Euro 8 F&E(Y ) A us gaben 7 in Mio. Euro 8

6 7 5 6 4 5 3 4 2 3 1 2 0 1 -1 0 -2 -1 -2

● ● ● ● ●

● ● ●●

10

20

30

40

50

10

20

30

40

50

X Jahres umsatz X in Mio. Euro Jahres umsatz in Mio. Euro

Exkurs: Im Rahmen der Regressionsanalyse können die beobachteten Wertepaare auch als Stichprobe aus einer r ealen oder hypothetischen zweidimensioExkurs: Im Rahmen der Regressionsanalyse können die beobachteten Wertenalen Grundgesamtheit interpretiert werden. Es geht dann darum, die "wahre" paare auch als Stichprobe aus einer r ealen oder hypothetischen zweidimensioRegressionsfunktion der Grundgesamtheit zu schätzen. Dabei wird unterstellt, nalen Grundgesamtheit interpretiert werden. Es geht dann darum, die "wahre" dass diese Regressionsfunktion yˆ i = a + b xi durch eine Störkomponente ui Regressionsfunktion der Grundgesamtheit zu schätzen. Dabei wird unterstellt, überlagert wird, die dazu führt, yˆdass ui beobachtet wird yˆ i + Störkomponente dass diese Regressionsfunktion Regressionsfunktion yˆ= a=nicht bi ,xsondern eine ui + ba x+i yˆdurch eine Störvariable ui überlagert i durch i i die Störkomponente darstellt). (wobei u wird, die dazu führt, dass nicht y ˆ , sondern y ˆ + u beobachtet wird. i ˆ ˆ i i überlagert wird, die dazu führt, dass nicht yii , sondern y i + ui beobachtet wird Das in der Regressionsanalyse unterstellte stochastische Modell soll in seinen (wobei ui die Störkomponente darstellt). Annahmen kurz beschrieben werden. Die Werte der unabhängigen Variablen xi Das in der Regressionsanalyse unterstellte stochastische Modell soll in seinen werden als feste (nicht zufällige) Größen definiert, d.h. bei fortlaufender WieAnnahmen kurz beschrieben werden. Die Werte der unabhängigen Variablen x derholung der Stichprobe behalten sie ihren Wert bei. Dagegen variieren diei werden als feste (nicht zufällige) Größen definiert, d.h. bei fortlaufender WieWerte der abhängigen Variablen yi von Stichprobe zu Stichprobe. Ferner wird derholung der Stichprobe behalten sie ihren Wert bei. Dagegen variieren die angenommen, dass die Werte der abhängigen Variablen erklärt werden können Werte der abhängigen Variablen yi von Stichprobe zu Stichprobe. Ferner wird aus einer systematischen (deterministischen) Komponente der Regressionsgleiangenommen, dass die Werte der abhängigen Variablen erklärt werden können chung (a + bxi) und einer nicht-systematischen (stochastischen) Komponente aus einer systematischen (deterministischen) Komponente der Regressionsgleiwird als Realisation Zufallsvariablen interpretiert, die auch (uii). Letztere Die Störkomponente wird alseiner Realisation einer Zufallsvariablen interprechung (a + bxi) und einer nicht-systematischen (stochastischen) Komponente als Störvariable bezeichnet wird.bezeichnet Auch hinsichtlich der Verteilung derde Zufallsvatiert, die auch als Störvariable wird. Auch hinsichtlich r Vertei(ui). Die Störkomponente wird als Realisation einer Zufallsvariablen interpreriablen bestimmte werden Annahmen gemacht, auf die hier nicht näher eingelung derwerden Zufallsvariablen bestimmte Annahmen gemacht, auf die hier tiert, die auch als Störvariable bezeichnet wird. Auch hinsichtlich der Verteinicht näher wird, da das stochastische Modell der Regressionsanagangen wird,eingegangen da das stochastische Modell der Regressionsanalyse nicht Gegenlung der Zufallsvariablen werden bestimmte Annahmen gemacht, auf die hier lyse Gegenstand dieses Buches ist. standnicht dieses Buches ist. nicht näher eingegangen wird, da das stochastische Modell der Regressionsanalyse nicht Gegenstand dieses Buches ist. 2.1.3 Bestimmtheitsmaß 2.1.3 Bestimmtheitsmaß Die unter 2.1.2. behandelte Regressionsanalyse liefert uns im Fall einer linearen Einfachregression die Zahlenwerte für die Regressionskoeffizienten a und b. Im Die unter 2.1.2. behandelte Regressionsanalyse liefert uns im Fall einer linearen folgenden geht es um ein Maß für die Qualität unserer Regressionsschätzung. Einfachregression die Zahlenwerte für die Regressionskoeffizienten a und b. Im Vereinfacht ausgedrückt können wir formulieren, je enger sich die Beobachfolgenden geht es um ein Maß für die Qualität unserer Regressionsschätzung. Vereinfacht ausgedrückt können wir formulieren, je enger sich die Beobach69 69

tungswerte (xi, yi) um die Regressionsgerade scharen, desto besser ist die Güte unserer Regressionsschätzung. Eine Maßzahl hierfür das Bestimmtheitsmaß tungswerte (xi, yi) um die Regressionsgerade scharen,istdesto besser ist die Güte (B bzw.Regressionsschätzung. r2), auch Determinationskoeffizient genannt. wir später noch seunserer Eine Maßzahl hierfür ist Wie das Bestimmtheitsmaß henbzw. werden, stimmt die Quadratwurzel aus dem Bestimmtheitsmaß rr2). Wie wir später noch sehen werden, stimmt die wir Quadratwurzel aus (B ), auch Determinationskoeffizient genannt. Wie später mit nochdem seKorrelationskoeffizienten nach Bravais-Pearson überein. hen stimmt diemit Quadratwurzel aus dem Bestimmtheitsmaß mit dem dem werden, Bestimmtheitsmaß dem Korrelationskoeffizienten nach Bravais-PearKorrelationskoeffizienten nach Bravais-Pearson überein. son überein. Der Wertebereich des Bestimmtheitsmaßes ist wie folgt definiert: Der des Bestimmtheitsmaßes wieund folgt definiert: Das Wertebereich Bestimmtheitsmaß liegt stets zwischenist Null Eins: 0 ≤ r2 ≤ 1. 2 0 ≤ r ≤ 1. Der Grenzwert r2 = 1 wird dann erreicht, wenn sämtliche Beobachtungswerte 2 im auf der Regressionsgeraden liegen. In diesem Fall wer= 1 wird dann erreicht, wenn sämtliche Beobachtungswerte Der Grenzwert Im Streuungsdiagramm Fall r2 = 1 rliegen sämtliche Beobachtungswerte im Streuungsdiagramm den die Beobachtungswerte deDie r Regressionsgeraden abhängigen Variablen yi vollständig die im auf der liegen. In diesem durch Fall werauf Streuungsdiagramm der Regressionsgeraden. Beobachtungswerte der abhängigen Variabˆ den Beobachtungswerte de r abhängigen Variablen y vollständig durch die len ydie werden vollständig durch die Regressionsfunktion erklärt. Es gilt somit: Regressionsfunktion erklärt. Es gilt somit: y = y . i i i i ˆJei =stärke y yi. r die Abweichungen Regressionsfunktion erklärt. Eszwischen gilt somit:yˆ yˆ iund = yyi.i werden, desto mehr nähert i

yˆ i Der und Grenzwert yi werden, Null destotritt meh r nähert Je stärke die Abweichungen zwischen sich das rBestimmtheitsmaß dem Wert Null. ein, wenn Je stärker die Abweichungen zwischen yˆi und yi werden, desto mehr nähert sich die Beobachtungswerte um dem eine parallel zur Der x-Achse verlaufende Regressionssich das Bestimmtheitsmaß Wert Null. Grenzwert Null tritt ein, wenn das Bestimmtheitsmaß dem Wert Null. In diesem Fall liefert die Regressionsgegerade streuen. Die Regressionsgerade dann keinen Beitrag zur Erklädie Beobachtungswerte um eine parallelliefert zur x-Achse verlaufende Regressionsrade keinen Beitrag zur Erklärung der abhängigen Variablen. rung derstreuen. abhängigen gerade Die Variablen. Regressionsgerade liefert dann keinen Beitrag zur Erklärung der abhängigen Variablen. Zur näheren Erläuterung des Bestimmtheitsmaßes wird von folgender Überlegung ausgegangen: der Schnittpunkt der x -Achse (= arithmetisches der Zu r näheren Erläuterung des Bestimmtheitsmaßes wird von folgendeMittel r Überlex-Werte) mit der y der -Achse (= arithmetisches Mittel(=der y-Werte) wird als Urgung ausgegangen: Schnittpunkt der x -Achse arithmetisches Mittel der x-Werte) mit neuen der y Koordinatensystems -Achse (= arithmetisches Mittel der y-Werte) wird alswird Ursprung eines definiert, m.a.W.: der Punkt (0,0) (x, y ) verschoben. Eine (hierdefiniert, nicht weiter ausgeführte) in den Punkt sprung eines neuen Koordinatensystems m.a.W.: der PunktEigenschaft (0,0) wird ( ) x , y verschoben. Eine (hier nicht weiter ausgeführte) Eigenschaft in den Punkt der linearen Einfachregression besteht darin, dass die Regressionsgerade immer (x, y ) verläuft.besteht durch den Punkt Will man eine Aussage über die Güte de r Reder linearen Einfachregression darin, dass die Regressionsgerade immer durch den Punkt (xmachen, , y ) verläuft. eine Aussage über die Güte der Redie gressionsrechnung dannWill liegtman es nahe, für die einzelnen xi-Werte Abweichungen der yyi-Werte von ihrem arithmetischen Mittel zu betrachten (vgl. -Werte die gressionsrechnung dann liegt es nahe, fü r die einzelnen x der machen, -Werte von ihrem arithmetischen Mittel y zu betrachten i ̅ i Abb.13). DieseDiese Abweichungen durchdurch die Regressionsgerade in zwei Abweichungen der yi-Werte von werden ihremwerden arithmetischen Mittel zu betrachten (vgl. (vgl. Abb.13). Abweichungen die Regressionsgerade in Teile zerlegt. Abb.13). Diese Abweichungen werden durch die Regressionsgerade in zwei zwei Teile zerlegt. Teile zerlegt. Als durch die Regressionsfunktion erklärt kann die Abweichung yˆ i - y angeAls durch die Regressionsfunktion erklärt die Abweichung - y angesehen werden. Sie wird deshalb auch als kann "erklärte Abweichung"yˆ ibezeichnet. sehenverbleibende werden. SieTeil wird(yideshalb auch dementsprechend als "erklärte Abweichung" bezeichnet. Der - yˆ i ) wird als "nichterklärte Abˆ Der verbleibende Teil (y y ) wird dementsprechend als "nichterklärte Abi i weichung" definiert. Somit setzt sich die "zu erklärende Abweichung" zusammen aus "erklärter" "nichterklärter" Abweichung, d.h. Abweichung" zusamweichung" definiert.und Somit setzt sich die "zu erklärende men aus "erklärter" und "nichterklärter" Abweichung, d.h. (yi - y ) = ( yˆ i - y ) + (yi - yˆ i ). (yi - y ) = ( yˆ i - y ) + (yi - yˆ i ).

70 70 70

Abb.13 Zerlegung der zu erklärenden Abweichung _

y y

x

i

_ yi - y

^y

i

y - ^y i

y^i = a + b x i

i

_ y^i - y

_

y

x

0

Diese Gleichung gilt auch dann noch, wenn über alle Beobachtungswerte summiert und statt der einfachen Abweichungen die quadrierten Abweichungen verwandt werden. Man erhält folgende Zerlegung der Summe der quadrierten Abweichungen der abhängigen Variablen von ihrem Mittelwert y : (9)

N

N

N

i =1

i =1

i =1

∑ (yi - y)2 = ∑ (yˆi - y)2 + ∑ (yi - yˆi )2 .

Je kleiner die Quadratsumme der nicht erklärten Abweichungen ist, desto besser passt sich die Regressionsgerade den Beobachtungswerten yi an. Ausgehend von der Streuungszerlegung lässt sich das Bestimmtheitsmaß ermitteln. Zunächst werden die Summen der Abweichungsquadrate durch N dividiert: (10)

1 N

N

1

N

1

N

∑ (yi - y)2 = N ∑ (yˆi - y )2 + N ∑ (yi - yˆi )2 .

i =1

i =1

i =1

Auf der linken Seite der Gleichung erhalten wir so die Varianz σ 2y der Beobachtungswerte yi. Der erste Ausdruck auf der rechten Seite stellt die Varianz σ yˆ2 der Regressionswerte yˆ i dar, der zweite Ausdruck die Varianz der Reststreuung, die mit σ R2 bezeichnet wird. Für Gleichung (10) lässt sich dann schreiben:

71

(11)

σ y2 = σ yˆ2 + σ R2

Die Varianz der Reststreuung lässt sich aus Zufallseinflüssen sowie aus der Abhängigkeit der zu erklärenden Variablen y von anderen Variablen (außer x) deuten. Wird nun der Quotient aus der Varianz der Regressionswerte und der Gesamtvarianz der Beobachtungswerte gebildet, dann erhält man das Bestimmtheitsmaß, d.h. (12)

B=

σ yˆ2 σ y2

Das Bestimmtheitsmaß gibt somit den Anteil der erklärten Varianz an der Gesamtvarianz der zu erklärenden Variablen wieder. Es gilt wiederum: Je größer dieser Anteil ist - je näher B also bei 1 liegt -, desto besser passt sich die Regressionsgerade der Punktwolke im Streuungsdiagramm an. Der Anteil der nichterklärten Varianz an der Gesamtvarianz wird in der Literatur teilweise als Unbestimmtheitsmaß bezeichnet. 2.2

Korrelationsanalyse

Die Korrelationsanalyse versucht, eine Antwort auf die Frage zu geben, wie stark (stramm, eng) der Zusammenhang zwischen den Variablen X und Y ist. Zur Beantwortung dieser Frage wurden Maßzahlen entwickelt, die als Korrelationskoeffizienten bezeichnet werden. Dabei sollte stets beachtet werden, dass mithilfe der Korrelationsanalyse nur ein formal-statistischer Zusammenhang "nachgewiesen" werden kann. Ob sich dahinter auch ein kausaler Zusammenhang verbirgt, lässt sich nicht ohne weiteres schlussfolgern. Die Problematik, von einem korrelativen Zusammenhang auf einen Kausalzusammenhang zu schließen, zeigt sich besonders deutlich im Fall der sogenannten NonsensKorrelationen. In der Literatur gibt es dazu ein erheiterndes Beispiel: in einer statistischen Untersuchung wurde für eine bestimmte Region der Zusammenhang zwischen den jährlichen Geburtenziffern und der Anzahl der besetzten Storchennester geprüft. Der errechnete Korrelationskoeffizient wies auf eine positive Korrelation mittlerer Stärke hin. Gleichwohl wird niemand einen sachlichen Zusammenhang vermuten. Ähnliches gilt für den Zusammenhang zwischen der Rocklänge in der Damenmode und der Wirtschaftskonjunktur. Korrelationen ohne sachlichen Zusammenhang der Variablen werden auch als Scheinkorrelationen bezeichnet.

72

2.2.1 Korrelationskoeffizient nach Bravais-Pearson Liegen für beide Variablen metrisch skalierte Merkmalswerte vor, dann kann die Stärke ihres Zusammenhangs durch den Korrelationskoeffizienten nach Bravais-Pearson (auch Produkt-Moment-Korrelationskoeffizient genannt) beschrieben werden. werden. Dabei Dabeiwird wirdein das Modell eines linearenzwischen Zusammenhangs linearer Zusammenhang den beizwischen den beiden Variablen unterstellt. Als Korrelationskoeffizienten Symbol dieses Korrelationskoefden Variablen unterstellt. Als Symbol dieses wird r fizienten wird gewählt. Er ist eine dimensionslose kann Werte zwigewählt. Er istreine dimensionslose Größe und kannGröße Werteund zwischen +1 und -1 annehmen (-1-1≤ annehmen r ≤ +1). Das liefert einen Hinweis auf den Richschen +1 und (-1 Vorzeichen ≤ r ≤ +1). Das Vorzeichen liefert einen Hinweis tungssinn des Zusammenhangs (vgl. Abb.14(vgl. a und 14 b):a Ist auf den Richtungssinn des Zusammenhangs Abb.14 unddas 14Vorzeichen b): Ist das positiv (r > 0), dann(rspricht man von einer positiven Korrelation VariaVorzeichen positiv > 0), dann spricht man von eine r positivenbeider Korrelation blen (hohen xi-Werten in dersind Regel hohe yi-Werte Im Fall beider Variablen (hohensind xi-Werten in der Regel hohe yzugeordnet). i-Werte zugeordnet). eines negativen Vorzeichens (r < 0) wird einervon negativen KorrelaIm Fall eines negativen Vorzeichens (r PPLP >; PPLP>; P P ;

da der nachnach Laspeyres keinekeine mengenmäßigen Reaktionen auf PreisändaPreisindex der Laspeyres mengenmäßigen Reaktionen auf PreisändaPreisindex der Preisindex nach Laspeyres keine mengenmäßigen Reaktionen auf Preisänderungen unterstellt, überzeichnet er in er derinRegel dieRegel Preissteigerung. derungen unterstellt, überzeichnet derinRegel die Preissteigerung. derungen unterstellt, überzeichnet er der die Preissteigerung. L L L b) Qb) 97,32 97,06 b) 97,32 Q=03,05 = 97,32 03,05Q= 03,05

Aufgabe 2Aufgabe Aufgabe 2 2 L L L =00,05 104,63 a) Pa) 104,63 P=00,05 = 104,63 a) 00,05 P

900 900 900 . 420 .420 .420 . 580 .580 .580 . 630 630 .b) . 100630 . 100 . 100 100. 100 = 818; 100 100 = 375; 100 =100 504; = 553; b) 110 504,35; 552,63; = 375; = 553; b) 110 = 818; = 504; = 553; 100 = 818; 100 = 375; 100 = 504; 112 115 114 112 112 115 115 114 114 110 818,18; . . ∑ p95∑⋅ qp0595∑=⋅ qp2250,16 05 95 ⋅=q2250,16 05 = .2250,16

112 112 112

VII Schließende Statistik Während es in der beschreibenden Statistik nicht zulässig ist, über den Beobachtungsbereich hinaus Schlussfolgerungen zu ziehen, geht es bei der schließenden Statistik darum, aus den Daten einer Stichprobe auf die zugrundeliegende Grundgesamtheit zu schließen. Für schließende Statistik werden auch die Bezeichnungen beurteilende, induktive, analytische oder mathematische Statistik verwendet. Der Schluss auf die Grundgesamtheit erfolgt mithilfe von Vertrauensbereichen (Schätzverfahren) und statistischen Tests (Testverfahren). Da wir es bei derartigen Schlussfolgerungen mit zufallsbestimmten Vorgängen zu tun haben, sind gewisse Grundkenntnisse der Wahrscheinlichkeitsrechnung unentbehrlich. Von daher ist der Aufbau dieses Abschnitts vorgezeichnet: Zunächst werden einige wichtige Grundlagen der Wahrscheinlichkeitsrechnung behandelt, danach beschäftigen wir uns mit Schätzverfahren und anschließend mit statistischen Tests. Beide Verfahren bilden den Kern der schließenden Statistik.

1

Grundlagen der Wahrscheinlichkeitsrechnung

Die Geschichte der Wahrscheinlichkeitsrechnung reicht in das 16. und 17. Jahrhundert zurück und beginnt in einer ungewöhnlichen Umgebung, nämlich mit der Analyse von Glücksspielen, vor allem Würfel- und Kartenspiele. Im Prinzip geht es um die Frage von Regelmäßigkeiten zufallsgesteuerter Prozesse. Als Begründer der Wahrscheinlichkeitsrechnung werden die Franzosen Blaise Pascal (16231662) und Pierre de Fermat genannt, denen denen es gelang, WahrscheinFermat (1601-1665) (1607/1608-1665) genannt, es gelang, Wahrlichkeiten für diefür Erfolgsaussichten bestimmter Glücksspiele abzuleiten. Als bescheinlichkeiten die Erfolgsaussichten bestimmter Glücksspiele abzuleiten. deutendster Vertreter gilt Jacob Bernoulli (1654-1705), dessendessen Hauptwerk "Ars Als bedeutendster Vertreter gilt Jacob Bernoulli (1655-1705), Hauptwerk conjectandi" (1713)der derWahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung gewidmet gewidmet ist. ist. Ferner Ferner sind "Ars conjectandi" Laplace, Gauß Gauß und undPoisson Poissonzuzuerwähnen. erwähnen. Ausgangspunkt der Wahrscheinlichkeitsrechnung ist der Begriff des Zufallsexperiments. Man versteht darunter einen Vorgang, der beliebig oft wiederholt werden kann und zwar unter gleichen Versuchsbedingungen. Das Ergebnis des Experiments kann dabei im voraus nicht eindeutig bestimmt werden, da zufällige Faktoren wirksam sind. Beispiele für Zufallsexperimente sind das Werfen einer Münze, eines Würfels oder das Ziehen der Gewinnzahlen im Lotto; die Entnahme einer Zufallsstichprobe im Rahmen der Qualitätskontrolle einer Produktionsserie kann ebenfalls als Zufallsexperiment aufgefasst werden. Die möglichen elementaren Ergebnisse eines solchen Experiments werden als Elementarereignisse bezeichnet. Bei jedem einzelnen Vorgang kann nur ein einziges dieser Elementarereignisse auftreten. Besitzt ein Zufallsexperiment N mögliche ElementarereigBeim Wernisse, dann bildet die die Menge Menge dieser dieserEreignisse Ereignisseden denEreignisraum Ereignisraum.(S). Beim Werfen fen einer Münze, die der auf einen der einen Wappen undder aufanderen der anderen einer Münze, die auf SeiteSeite Wappen (W) (W) und auf Seite Seite Zahl 113

Zahlzeigt, (Z) zeigt, sind die Elementarereignisse "W" "Z".Werfen Beim eines Werfen eines (Z) sind die Elementarereignisse "W" und "Z".und Beim Würfels Würfelsdie stellen die möglichen Augenzahlen den Ereignisraum stellen möglichen Augenzahlen 1,2,3,4,5,61,2,3,4,5,6 den Ereignisraum dar. Vom dar. BeVom des Begriff des Elementarereignisses ist der allgemeinere Begriff des Ereignisgriff Elementarereignisses ist der allgemeinere Begriff des Ereignisses zu unses zu unterscheiden. Ein setzt Ereignis sich aus oder mehreren Elementerscheiden. Ein Ereignis sich setzt aus einem odereinem mehreren Elementarereignistarereignissen stellt einedes Teilmenge des Ereignisraumes dar. sen zusammen,zusammen, d.h. es stelltd.h. eineesTeilmenge Ereignisraumes dar. Aus Ereignissen lassen sich durch Vereinigung (im Fall zweier Ereignisse: A ∪ B; gelesen A oder B) und Durchschnittsbildung (bei wiederum zwei Ereignissen: A ∩ B; gelesen A und B) neue Ereignisse bilden. Mit dem Komplementärereignis A werden alle Elementarereignisse erfasst, die nicht in Ereignis A liegen. In einem weiteren Schritt geht es darum, Erwartungen über das Eintreten zufälliger Ereignisse zu formulieren und diese Erwartungen zu quantifizieren. Dazu dient der Begriff der Wahrscheinlichkeit. Im folgenden wird kurz auf die wichtigsten Wahrscheinlichkeitsbegriffe eingegangen.

1.1

Wahrscheinlichkeitsbegriffe

Von Laplace stammt der klassische Wahrscheinlichkeitsbegriff. Danach errechnet sich die Wahrscheinlichkeit für ein Zufallsereignis wie folgt: Anzahl der für das Ereignis günstigen Fälle in Relation zur Anzahl aller in gleicher Weise möglichen Fälle. Die Wahrscheinlichkeit (P; englisch: probability) für ein Ereignis A ist somit P (A) =

Zahl der günstigen Fälle Zahl aller gleichmöglichen Fälle

Beispiel: Fragt man nach der Wahrscheinlichkeit für das Werfen einer 6 beim einmaligen Wurf eines Würfels, dann ist die Anzahl der günstigen Fälle mit 1 anzusetzen und die Anzahl aller in gleicher Weise möglichen Fälle mit 6, d.h. die Wahrscheinlichkeit beträgt 1/6 oder 0,1666. Die Wahrscheinlichkeit, mit einer Münze "Wappen" zu werfen, ist demnach 1/2 oder 0,5. Der klassische Wahrscheinlichkeitsbegriff ist jedoch nur auf solche Zufallsexperimente anwendbar, deren Ereignisse gleichmöglich sind. Beim statistischen Wahrscheinlichkeitsbegriff geht man von einem Zufallsexperiment aus, das aus einer Vielzahl voneinander unabhängiger Versuche besteht. Die Wahrscheinlichkeit des Zufallsereignisses A ist dann als der Grenzwert definiert, dem die relative Häufigkeit des Auftretens von A bei wachsender Zahl n der Versuche zustrebt: P (A) = lim

n→∞

h n (A) n

wobei hn(A) die absolute Häufigkeit des Zufallsereignisses bei n Versuchen und hn(A)/n die relative Häufigkeit darstellt.

114

Problematisch ist hier, dass eine unendlich lange Versuchsreihe empirisch nicht beobachtbar ist. Geht man von einer endlichen Anzahl aus, müsste festgelegt werden, bei welchem n der Grenzwert erreicht ist. Beispiel: Würde man beim 100maligen Werfen einer Münze feststellen, dass die relative Häufigkeit des Zufallsereignisses "Wappen" dem Wert 0,5 zustrebt, dann kann dieser Grenzwert als Wahrscheinlichkeit des Zufallsereignisses "W" bestimmt werden. Lassen sich die Wahrscheinlichkeiten zufälliger Ereignisse objektiv nicht bestimmen, dann besteht die Möglichkeit, auf subjektive Wahrscheinlichkeiten zurückzugreifen. Vor allem in Entscheidungssituationen unter Unsicherheit spielen subjektive Wahrscheinlichkeiten eine große Rolle. Die Wahrscheinlichkeit wird hier entweder direkt aufgrund eigener Einschätzungen oder indirekt über Wettchancen bestimmt. Durch mehrmaliges Befragen einer Gruppe von Experten (sogenannte Delphi-Methode) kann man versuchen, den Bereich der subjektiven Wahrscheinlichkeiten einzugrenzen. Beispiel: Die Marktchancen eines Produktes, das bisher noch nicht auf dem Markt war, lassen sich nur über subjektive Wahrscheinlichkeiten beurteilen. Der axiomatische Wahrscheinlichkeitsbegriff (nach Kolmogorov) definiert die Wahrscheinlichkeit durch ein System von Axiomen (Axiome sind Grundsätze, die keines Beweises bedürfen). Daraus lassen sich dann alle anderen Aussagen der Wahrscheinlichkeitstheorie ableiten. Dieses Axiomensystem stellt die Grundlage der modernen Wahrscheinlichkeitsrechnung dar. Das erste Axiom (Axiom I) lautet: Jedem Zufallsereignis ist eine eindeutig bestimmte Zahl zugeordnet, die der Bedingung 0 ≤ P (A) ≤ 1 genügt. Diese Zahl heißt die Wahrscheinlichkeit für das Ereignis A. Das zweite Axiom (Axiom II) bestimmt die Wahrscheinlichkeit des sicheren Ereignisses - das sind alle möglichen Ereignisse eines Zufallsexperiments - mit 1: P (S) = 1 Das dritte Axiom (Axiom III) lautet: Schließen sich zwei Zufallsereignisse A und B gegenseitig aus, so ist die Wahrscheinlichkeit, dass entweder A oder B eintritt, gleich der Summe der ihnen zugeordneten Einzelwahrscheinlichkeiten: P (A ∪ B) = P (A) + P (B). Die linke Seite der Gleichung wird wie folgt gelesen: Wahrscheinlichkeit von A oder B. Dieser Sachverhalt bezieht sich nicht nur auf zwei Ereignisse, sondern auf alle k Zufallsereignisse, die sich gegenseitig ausschließen.

115

Beispiel zu Axiom III: Die Wahrscheinlichkeit beim einmaligen Werfen eines Würfels eine "5" oder eine "6" zu bekommen, ist gleich der Summe der Einzelwahrscheinlichkeiten, d.h. 1/6 + 1/6 = 2/6 = 1/3. Aus den Axiomen lassen sich weitere Sätze ableiten: Additionssatz: Sind A und B zwei Ereignisse eines Zufallsexperimentes, dann ist die Wahrscheinlichkeit des Ereignisses A ∪ B: P (A ∪ B) = P (A) + P (B) P(A ∩ B). Für den Fall sich gegenseitig ausschließender Ereignisse ist der Additionssatz mit dem dritten Axiom der Wahrscheinlichkeitsrechnung identisch. Satz über komplementäre Ereignisse: Die Summe der Wahrscheinlichkeiten des Zufallsereignisses A und des zu A komplementären Ereignisses A ist gleich 1. Das komplementäre Ereignis bedeutet das Nichteintreten des Ereignisses A. Es gilt somit: P(A) = 1 - P (A) Beispiel: Zufallsereignis "Werfen einer 6"; Komplementärereignis "Keine 6" (also die Augenzahlen 1,2,3,4,5). Damit ergibt sich: P(A) = 1 - 1/6 = 5/6 Die Wahrscheinlichkeit für ein Ereignis B unter der Voraussetzung, dass ein anderes Ereignis A vorher eingetreten ist, wird als bedingte Wahrscheinlichkeit bezeichnet: (B/A) = P(A ∩ B)/P(A). P (B|A) Daraus folgt unmittelbar der Multiplikationssatz: (B|A), P (A ∩ B) = P(A) · P (B/A),

wobei P (B/A) die Wahrscheinlichkeit für B unter der Voraussetzung darstellt, dass das Ereignis A vorher eingetreten ist. Ebenso gilt: P (B|A) P (A ∩ B) = P(B)·P(A/B)

Sind die Ereignisse A und B stochastisch unabhängig voneinander, was bedeutet P(B/A ), PP(B/A) (B|A) = P (B|Ā), vereinfacht sich der Multiplikationssatz zu: P (A ∩ B) = P(A) · P (B) 116

Die linke Seite der Gleichung wird gelesen: Wahrscheinlichkeit von A und B. Auch dieser Sachverhalt gilt für alle k Zufallsereignisse, die sich gegenseitig ausschließen. Die linke Seite der Gleichung wird gelesen: Wahrscheinlichkeit von A und B. Auch dieser Sachverhalt gilt für alle k Zufallsereignisse, die sich gegenseitig ausBeispiel: Die Wahrscheinlichkeit, dass beim einmaligen Wurf mit zwei gleichen schließen. Würfeln der erste die Augenzahl "5" und der zweite die Augenzahl "6" zeigt, ist gleich Die Wahrscheinlichkeit, dass beim einmaligen Wurf mit zwei gleichen Beispiel: Würfeln der erste die Augenzahl "5" und der zweite die Augenzahl "6" zeigt, ist 1/6 · 1/6 = 1/36 = 0,0277. gleich 1.2

1/6 · 1/6 = 1/36 = 0,0277. Wahrscheinlichkeitsverteilungen

Während in der beschreibenden Statistik den Merkmalswerten die empirisch beo1.2 Wahrscheinlichkeitsverteilungen bachteten (absoluten oder relativen) Häufigkeiten zugeordnet wurden, werden nunmehr diebeschreibenden Ereignisse bestimmter (theoretische) WahrWährend für in der Statistik Zufallsexperimente den Merkmalswerten die empirisch beoscheinlichkeiten angegeben. Analog zur empirischenzugeordnet Häufigkeitsverteilung lässt bachteten (absoluten oder relativen) Häufigkeiten wurden, werden sich mithilfe derEreignisse Wahrscheinlichkeiten eine theoretische Häufigkeitsverteilung nunmehr für die bestimmter Zufallsexperimente (theoretische) Wahroder Wahrscheinlichkeitsverteilung Die Gesamtheit der Wahrscheinscheinlichkeiten angegeben. Analogdefinieren. zur empirischen Häufigkeitsverteilung lässt lichkeiten für die Werte oder Wertebereiche einer Häufigkeitsverteilung Zufallsvariablen wird sich mithilfe der einzelnen Wahrscheinlichkeiten eine theoretische als oderWahrscheinlichkeitsverteilung Wahrscheinlichkeitsverteilung bezeichnet. definieren. Die Gesamtheit der Wahrscheinlichkeiten für die einzelnen Werte oder Wertebereiche einer Zufallsvariablen wird WirWahrscheinlichkeitsverteilung befassen uns zunächst mit dem bezeichnet. Begriff der Zufallsvariablen, einem zentraals len Begriff der Wahrscheinlichkeitsrechnung. Dazu ein Beispiel: Beim Werfen eines Würfels uns sindzunächst als geworfene Augenzahlen ganzen Zahlen zwischen 1 und Wir befassen mit dem Begriff derdie Zufallsvariablen, einem zentra6 möglich. Zahl tatsächlich realisiert Dazu wird, hängt vom Zufall len Begriff Welche der Wahrscheinlichkeitsrechnung. Man ein Beispiel: Beimab. Werfen spricht deshalbsind vonals einer Zufallsvariablen. Die die beim einzelnen Wurf beobachtete eines Würfels geworfene Augenzahlen ganzen Zahlen zwischen 1 und Zahl ist der Welche Zahlenwert, die Zufallsvariable annimmt. Menge 6 möglich. Zahlden tatsächlich realisiert wird, hängtDie vom Zufallderab.Werte, Man d.h. diedeshalb Augenzahlen 1, 2,Zufallsvariablen. 3, 4, 5, 6, welche Zufallsvariable bei der Realisaspricht von einer Diedie beim einzelnen Wurf beobachtete tion des Zufallsexperiments annehmen kann, bezeichnet manMenge als Wertebereich Zahl ist der Zahlenwert, den die Zufallsvariable annimmt. Die der Werte, dieser folgenden werden die Zufallsvariablen Buchd.h. dieZufallsvariablen. Augenzahlen 1, Im 2, 3, 4, 5, 6, welche Zufallsvariablemit beigroßen der Realisastaben X) und die Zahlenwerte, sich bezeichnet als Realisation tion des(z.B. Zufallsexperiments annehmendiekann, mandes als ZufallsexperiWertebereich ments ergeben, mit kleinen (z.B. x)Zufallsvariablen gekennzeichnet.mit In unserem Würdieser Zufallsvariablen. Im Buchstaben folgenden werden großen Buchfelspiel(z.B. würde beim einmaligen Wurf mit X, der Zahstaben X)die undAugenzahl die Zahlenwerte, die sich als Realisation desrealisierte Zufallsexperilenwertergeben, mit x bezeichnet werden. ments mit kleinen Buchstaben (z.B. x) gekennzeichnet. In unserem Würfelspiel würde die Augenzahl beim einmaligen Wurf mit X, der realisierte ZahWas diemit Zufallsvariable lenwert x bezeichnet betrifft, werden.so wird zwischen diskreten und stetigen Zufallsvariablen unterschieden. Eine diskrete Zufallsvariable liegt vor, wenn ihr Wertebereich endlich vielebetrifft, oder abzählbar unendlichdiskreten viele Werte kann. Was dienur Zufallsvariable so wird zwischen und annehmen stetigen ZufallsBeispiel: Die AugenzahlEine beimdiskrete einmaligen Wurf eines Würfels endlich viele variablen unterschieden. Zufallsvariable liegt vor,hat wenn ihr WerteWerte, die Personen bei einem Open-Air-Festival im Prinzip abbereich nurAnzahl endlichder viele oder abzählbar unendlich viele Wertehatannehmen kann. zählbar unendlich viele Werte. Beispiel: Die Augenzahl beim einmaligen Wurf eines Würfels hat endlich viele Von einer Zufallsvariablen sprichtOpen-Air-Festival man, wenn ihr Wertebereich jeden Werte, die stetigen Anzahl der Personen bei einem hat im Prinzip abbeliebigen Zahlenwert bestimmten Intervalls annehmen kann. Beispiele sind zählbar unendlich vieleeines Werte. Von einer stetigen Zufallsvariablen spricht man, wenn ihr Wertebereich jeden beliebigen Zahlenwert eines bestimmten Intervalls annehmen kann. Beispiele sind 117 117 117

Körpergrößen, Haltbarkeit von Stoffen u.a., immer vorausgesetzt, die Messgenauigkeit lässt sich beliebig verbessern. Im Fall einer diskreten Zufallsvariablen können den Merkmalswerten oder Merkmalsausprägungen Wahrscheinlichkeiten für ihr Eintreten zugeordnet werden. Das Symbol P(X=xi) gibt dann die Wahrscheinlichkeit dafür an, dass die Zufallsvariable X den Wert xi annimmt. Wir können deshalb auch schreiben: P(X = xi) = pi, wobei pi die Wahrscheinlichkeiten sind, mit denen die Zufallsvariable X die Werte xi annimmt. Diese Beziehung wird als Wahrscheinlichkeitsfunktion der Zufallsvariablen X bezeichnet. Führen wir ferner den Begriff der Verteilungsfunktion ein, den wir aus der beschreibenden Statistik bereits kennen, so gilt für die Verteilungsfunktion einer diskreten Zufallsvariablen: P (X  x). F (x) = ∑ P (X ≤ x).

Die Summation ist über alle Werte der Zufallsvariablen zu erstrecken, die kleiner gleich x sind. Lassen sich im Fall diskreter Zufallsvariablen die Wahrscheinlichkeiten mithilfe eines Stabdiagramms grafisch darstellen, so liegen bei stetigen Zufallsvariablen die Stäbe so dicht beieinander, dass der Abstand zwischen ihnen gleich Null ist. Verbinden wir die oberen Punkte der Stäbe durch eine Linie, dann erhalten wir als grafische Darstellung der Wahrscheinlichkeitsfunktion eine kontinuierliche Kurve. Man bezeichnet die Wahrscheinlichkeitsfunktion im stetigen Fall als Dichtefunktion. Mathematisch ergibt sich die Dichtefunktion durch Differentiation der Verteilungsfunktion der stetigen Zufallsvariablen. Umgekehrt ergibt sich die Verteilungsfunktion durch Integration der Dichtefunktion. Wahrscheinlichkeiten sind bei stetigen Zufallsvariablen als Flächen unter der Dichtefunktion interpretierbar. Betrachten wir in Abb. 20 das Intervall [a, b], so entspricht die Wahrscheinlichkeit dafür, dass die Zufallsvariable X einen Wert annimmt, der in diesem Intervall liegt, der Fläche zwischen der Kurve und der Abszissenachse begrenzt durch die beiden Stellen a und b. Berechnet werden kann die Wahrscheinlichkeit P (a ≤ X ≤ b) durch Integration der Dichtefunktion über alle x im Intervall [a, b]. Wird über alle x im Bereich von - ∞ bis + ∞ integriert, so wird die gesamte Fläche unter der Dichtefunktion erfasst. Der Wert dieser Fläche ist gleich 1. Folgende Schreibweise ist üblich: +∞

∫ f(x) dx = 1 .

-∞

118

Das Zeichen



ist ein stilisiertes S und deutet die "unendliche Summierung" an,

und zwar von der unteren Grenze -∞ bis zur oberen Grenze +∞. Für das in Abb. 20 gekennzeichnete Intervall ergibt sich: P (a ≤ X ≤ b) =

b

∫ f(x) dx . a

Diese Wahrscheinlichkeit ist gleich der schraffierten Fläche unter der Dichtefunktion. Abb. 20

Dichtefunktion (Wahrscheinlichkeitsdichte) einer stetigen Zufallsvariablen

f (x)

0

a

x

b

Die Wahrscheinlichkeitsverteilungen von Zufallsvariablen lassen sich (wie empirische Häufigkeitsverteilungen) durch Maßzahlen genauer kennzeichnen. Diese Maßzahlen dienen dazu, die wichtigsten Eigenschaften einer Wahrscheinlichkeitsverteilung auszudrücken. Zur Beantwortung der Frage, welchen Wert die Zufallsvariable im Durchschnitt annimmt, wird der Erwartungswert herangezogen. Er entspricht dem arithmetischen Mittel in der beschreibenden Statistik. Für den Erwartungswert einer Zufallsvariablen X verwendet man das Symbol E(X). Der Erwartungswert allein reicht häufig nicht aus, um die Eigenschaften einer Wahrscheinlichkeitsverteilung zu charakterisieren. Ein weiteres Maß ist die Streuung der Werte einer Zufallsvariablen um den Erwartungswert. Dazu wird die Varianz berechnet. Man bezeichnet sie mit dem Symbol Var (X). Berechnet wird die Varianz (vgl. Abschnitt III 2.2.4) als gewogener Mittelwert aus den quadrierten Abständen aller Werte, die die Zufallsvariable annehmen kann, von ihrem Erwartungswert. Die Quadratwurzel aus der Varianz ist die Standardabweichung. Je nachdem, ob eine diskrete o der eine stetige Zufallsvariable vorliegt, sind

119

unterschiedliche Berechnungsformeln anzuwenden (vgl. Bleymüller/Gehlert/Gülicher 2008). 2004). Nachdem wir Wahrscheinlichkeitsverteilungen bisher in einer mehr allgemeinen Form behandelt haben, werden wir uns jetzt zwei speziellen Wahrscheinlichkeitsverteilungen zuwenden. Die Binomialverteilung dient als Beispiel für die Wahrscheinlichkeitsverteilung einer diskreten Zufallsvariablen, während die Normalverteilung als Verteilungsmodell einer stetigen Zufallsvariablen behandelt wird. In beiden Fällen handelt es sich um Verteilungen einer einzigen Zufallsvariablen; die Verteilungen mehrerer Zufallsvariablen bleiben unberücksichtigt. 1.2.1 Binomialverteilung Die Binomialverteilung ist eine der ältesten statistischen Verteilungen und geht auf Jacob Bernoulli (1655-1705) (1654-1705) zurück. Ihr liegt folgendes Versuchsschema zugrunde: Bei n Versuchen (beispielsweise zehnmaliges Werfen einer Münze), deren n Ergebnisse alle zufällig sind, kann entweder das Zufallsereignis A mit der -

Wahrscheinlichkeit p oder das zu A komplementäre Ereignis A mit der Wahrscheinlichkeit 1 - p = q eintreten. Die Ergebnisse der n Versuche sind unabhängig voneinander. Greifen wir den Begriff der Zufallsvariablen auf, dann bezeichnet die Zufallsvariable X die Anzahl des Auftretens von A (z.B. Wappen) bei den n Versuchen. Welche Zahlenwerte die Zufallsvariable dabei annimmt, hängt vom Zufall ab. Für die Realisationen der Zufallsvariablen lassen sich die Wahrscheinlichkeiten nach der Wahrscheinlichkeitsfunktion der Binomialverteilung berechnen. Zur konkreten Berechnung der Wahrscheinlichkeiten einer Binomialverteilung verwenden wir im folgenden das Urnenmodell, das auch in die Stichprobentheorie Anwendung findet. Aus einer Urne, die mit roten und weißen Kugeln gefüllt ist, wird eine Zufallsstichprobe von n Kugeln gezogen. Nach der Notierung der Farbe wird jede Kugel in die Urne zurückgelegt ("Ziehen mit Zurücklegen"). Eine derartige Versuchsanordnung stellt ein sogenanntes Bernoulli-Experiment dar, da es folgenden drei Bedingungen genügt: 1. Für jeden Versuch gibt es nur zwei Zufallsereignisse A und A ; hier die beiden Ereignisse A (rote Kugel) und A (keine rote Kugel bzw. weiße Kugel). 2. Die Wahrscheinlichkeiten p bzw. 1 - p = q der beiden Ereignisse ändern sich von Versuch zu Versuch nicht, d.h. sie sind stets gleich. 3. Die einzelnen Versuche sind voneinander unabhängig. Die Ziehung einer bestimmten Anzahl von Kugeln (n) kann somit als BernoulliExperiment mit n einzelnen Versuchen aufgefasst werden. Wie die dazu gehörigen Wahrscheinlichkeiten bestimmt werden, soll an einem Beispiel verdeutlicht werden. Beispiel: In einer Urne von N=1.000 Kugeln befinden sich 500 rote Kugeln und 500 weiße Kugeln. Der Anteilswert der roten Kugeln beträgt somit 0,5, der der 120

weißen ebenfalls 0,5. Die Wahrscheinlichkeit für das Ziehen einer roten Kugel ist somit P(A) = p = 1/2, die Wahrscheinlichkeit für das Ziehen einer weißen Kugel P(A) = l - p = q = 1/2 . Die Zufallsvariable X ist die Zahl, die angibt, wie oft in der Stichprobe das Ereignis A (rote Kugel) eingetreten ist. Es handelt sich um eine diskrete Zufallsvariable, die n + 1 verschiedene Werte annehmen kann. Wir fragen nun nach den möglichen Ereignissen mit ihren Wahrscheinlichkeiten bei Stichproben des Umfangs n = 1, n = 2 und n = 3 (mit Zurücklegen) aus unserer Urne. Der Übersichtlichkeit wegen sind die verschiedenen Stichproben in der nachfolgenden Tabelle zusammengestellt: n

mögliche Ereignisse

1

r (1 rote Kugel) w (0 rote Kugeln) rr (2 rote Kugeln) rw -wr (1 rote Kugel) ww (0 rote Kugeln) rrr (3 rote Kugeln) rrw-rwr-wrr (2 rote Kugeln) wwr-wrw-rww (1 rote Kugel) www (0 rote Kugeln)

2

3

zugehörige Wahrscheinlichkeiten 1/2 1/2 1/4 1/4 + 1/4 = 1/2 1/4 1/8 1/8 + 1/8 + 1/8 = 3/8 1/8 + 1/8 + 1/8 = 3/8 1/8

Zur Bestimmung der Wahrscheinlichkeiten können wir auf den Additionssatz und den Multiplikationssatz der Wahrscheinlichkeitsrechnung zurückgreifen. Die Wahrscheinlichkeit dafür, dass bei 2 Ziehungen zweimal eine rote Kugel gezogen wird, ist gleich dem Produkt der Einzelwahrscheinlichkeiten (bei n = 2 ergibt sich somit 1/2 . 1/2 = 1/4 oder allgemein: p2). Fragen wir dagegen nach der Wahrscheinlichkeit, dass bei 2 Ziehungen eine rote Kugel gezogen wird, wobei uns die Reihenfolge egal ist, so ergibt sich die Wahrscheinlichkeit aus der Addition der Einzelwahrscheinlichkeiten der möglichen Ereignisse, d.h. 1/4 + 1/4 = 1/2; anders formuliert: die Wahrscheinlichkeit, entweder die Kombination rw oder wr zu ziehen, ist gleich der Summe der Einzelwahrscheinlichkeiten. Weiterhin erkennen wir, dass die Summe der Einzelwahrscheinlichkeiten stets gleich 1 ist. Die Wahrscheinlichkeiten der n+1 möglichen Ergebnisse bei n = 2 Ziehungen lassen sich auch wie folgt schreiben: 121

p2 + 2 p q + q2 = (p + q)2. Das Binom (p+q)n ermöglicht somit bei n Ziehungen die Berechnung der Wahrscheinlichkeiten der n+1-möglichen Ergebnisse und liefert die jeweilige Wahrscheinlichkeitsverteilung, die man nach ihrer Ableitung Binomialverteilung nennt. Bei großem n ist jedoch die Entwicklung des Binoms kompliziert, weshalb die Berechnung der Wahrscheinlichkeiten nach der Wahrscheinlichkeitsfunktion von Vorteil sind. Will man die Wahrscheinlichkeit für eine bestimmte Anzahl (=k) roter Kugeln bei n Ziehungen bestimmen, ohne auf die Reihenfolge der roten Kugeln zu achten, so ergibt sich die Wahrscheinlichkeit als Summe der Einzelwahrscheinlichkeiten aller gleichmöglichen Reihenfolgen. Für jede dieser Reihenfolgen kann die Wahrscheinlichkeit nach dem Multiplikationssatz berechnet werden: p k . q (n-k) Beispiel: die Wahrscheinlichkeit dafür, bei 4 Ziehungen aus unserer Urne mit p = q = 1/2 zuerst zwei rote und dann zwei weiße Kugeln zu ziehen, beträgt: 2

2

1 1   ⋅   = 1 / 4 ⋅ 1 / 4 = 1 / 16 = 0,0625 . 2 2

Zur Erfassung der verschiedenen Reihenfolgen von k roten Kugeln wird auf Regeln der Kombinatorik zurückgegriffen. Mit ihrer Hilfe lässt sich bestimmen, wie viele Möglichkeiten es gibt, bei n Versuchen k mal das Zufallsereignis A (hier: rote Kugel) zu erhalten. Aus der Kombinatorik ist bekannt, dass die Anzahl der verschiedenen Möglichkeiten, k Elemente aus n Elementen zu kombinieren (ohne Wiederholung und ohne Berücksichtigung der Anordnung der Elemente) n n! =   k! ⋅ ( n - k)!  k 

beträgt.

n Anmerkung: n! wird gelesen als n-Fakultät,   als n über k. Für Null-Fakultät k gilt: 0! = 1.

Betrachten wir eine Stichprobe vom Umfang n = 5 und fragen nach der Anzahl der verschiedenen Möglichkeiten, die es gibt, an beliebigen Positionen drei rote Kugeln und zwei weiße Kugeln zu erhalten, so folgt:  5  5 ⋅ 4 ⋅ 3 ⋅ 2 ⋅1 5! = 10 = = 3! (5 - 3)!  3  3 ⋅ 2 ⋅ 1 ⋅ 2 ⋅ 1

122

n Der Ausdruck   wird als Binomialkoeffizient bezeichnet. k Die Wahrscheinlichkeit, bei n Ziehungen aus einer Urne mit roten und weißen Kugeln k rote Kugeln zu ziehen, ist somit n   · pk · q(n-k) für k = 0, 1, 2, ..., n k

fBV(k/n;p) = P (X = k) =

0 für sonst Man bezeichnet diese Funktion, die jedem Wert k die Wahrscheinlichkeit P (X = k) zuordnet, als Wahrscheinlichkeitsfunktion der Binominalverteilung. Die Summe der nach der Wahrscheinlichkeitsfunktion errechneten Einzelwahrscheinlichkeiten für alle n + 1 möglichen Ergebnisse muss gleich 1 sein: n

n

k =0

k = 0

n

∑ P(X = k ) = ∑  k  ⋅ p k ⋅ q ( n - k ) = (p + q ) n = 1 

Die Verteilungsfunktion der Binomialverteilung erhält man durch Kumulierung der Wahrscheinlichkeiten P(X=k): k n   FBV ( k / n; p) = P( X ≤ k ) = ∑   p i ⋅ q ( n - i) , i i =0  

wobei i als Summationsindex neu eingeführt wird. Betrachten wir nun die Gestalt der Binomialverteilung, wenn wir aus unserer Urne eine Stichprobe des Umfangs n = 6 ziehen und die Wahrscheinlichkeiten für das Ziehen roter Kugeln berechnen (unverändert gilt p = q = 1/2): P(X=0) =

6 1   ·   0 2  

P(X=1) =

6 1   ·   2 1

P(X=2) =

6 1   ·   2 2  

P(X=3) =

6 1   ·   3 2  

P(X=4) =

6 1   ·   2 4

0

1

2

3

4

1 ·   2 1 ·   2 1 ·   2 1 ·   2 1 ·   2

6

1 = 64

=

0,0156

5

6 = 64

=

0,0938

4

15 = 64

=

0,2344

3

20 = 64

=

0,3125

2

15 = 64

=

0,2344

123

P(X=5) =

6 1   ·   2 5

P(X=6) =

6 1   ·   2 6

5

6

1

6 = 64

=

0,0938

0

1 = 64

=

0,0156

1 ·   2 1 ·   2

Da die Binomialverteilung die Verteilung einer diskreten Zufallsvariablen ist, wird als grafische Darstellung der Wahrscheinlichkeitsfunktion ein Stabdiagramm verwendet (vgl. Abb. 21) Abb. 21 Binomialverteilung mit n = 6 und p = 1/2 P(X P (X = = xxk))

k

0,4 0,3 0,2 0,1 0

0

1

2

3

4

5

6

x k (rote Kugeln)

Um die Wahrscheinlichkeiten zu berechnen, kann man die angegebenen Formeln verwenden. Wegen der oft umständlichen Berechnung des Binomialkoeffizienten ist dies jedoch zeitraubend. Daher ist die Binomialverteilung für ausgewählte Werte von n und p tabelliert worden. Hierzu wird auf die entsprechenden Tabellen verwiesen. verwiesen (vgl. Bleymüller/Gehlert 2011). Der Erwartungswert der Binomialverteilung gibt an, wie oft man im Durchschnitt das Zufallsereignis "rote Kugeln" erhält. Er ist definiert als E(X) = n · p; in unserem Beispiel beträgt er E (X) = n · p = 6 · 1/2 = 3; d.h. wiederholen wir eine Stichprobe des Umfanges n = 6 beliebig oft, so können wir im Durchschnitt drei rote Kugeln erwarten. Die Varianz der Binomialverteilung ist definiert als Var(X) = n · p · q, im Beispiel: 6 · 1/2 · 1/2 = 1,5. Für die weiteren Ausführungen sind folgende Gesetzmäßigkeiten der Binomialverteilung von Bedeutung:

124

-

Die Gestalt der Binomialverteilung hängt von n und p ab. Bei p = 0,5 verläuft die Binomialverteilung symmetrisch, je weiter sich p von 0,5 entfernt, desto asymmetrischer ist der Verlauf. Wird n vergrößert (n → ∞), so nähert sich die Binomialverteilung immer mehr der Glockenform einer Normalverteilung an (vgl. Abschnitt 1.2.2). Diese Annäherung erfolgt um so schneller, je näher p bei 0,5 liegt. Als Faustregel gilt, dass eine Approximation dann zulässig ist, wenn npq ≥ 9. Als Erwartungswert der approximierenden Normalverteilung wird der Erwartungswert der Binomialverteilung verwendet, d.h. µ = n · p (das Symbol µ wird im nächsten Abschnitt erklärt), als Varianz wird gleichfalls die Varianz der Binomialverteilung herangezogen, d.h. σ2 = n · p · q.

Variieren wir unser Urnenmodell insoweit, dass eine einmal gezogene Kugel nicht wieder in die Urne zurückgelegt wird ("Ziehen ohne Zurücklegen"), dann ergeben sich die Wahrscheinlichkeiten aus der Verteilungsfunktion der Hypergeometrischen Verteilung. Ein Grenzfall der Binomialverteilung ist die Poisson-Verteilung; sie gilt für eine sehr große Zahl n von Versuchen und für eine sehr geringe Wahrscheinlichkeit p für das Auftreten eines Zufallsereignisses. Die Poisson-Verteilung dient zur Modellierung seltener Ereignisse. Auf beide Verteilungen wird in diesem Buch nicht näher eingegangen. 1.2.2 Normalverteilung Während es bei der Binomialverteilung um die Wahrscheinlichkeitsverteilung einer diskreten Zufallsvariablen ging, handelt es sich bei der Normalverteilung um die Wahrscheinlichkeitsverteilung einer stetigen Zufallsvariablen. Nach Carl Friedrich Gauß (1777-1855), der grundlegende Arbeiten über die Normalverteilung veröffentlichte, wird sie häufig auch als Gaußsche Normalverteilung bezeichnet. Die Normalverteilung ist das wichtigste statistische Verteilungsmodell. Normalverteilungen durch die Parameter µ (= Mittelwert) und σ (=und StanNormalverteilungen werden (NV) werden durch die Parameter μ (= Mittelwert) σ (= Standardabweichung) charakterisiert. Siedie haben dieeiner Formum einer um μ symmedardabweichung) charakterisiert. Sie haben Form µ symmetrischen trischen Glockenkurve. Glockenkurve. Bei der Normalverteilung werden nicht mehr die Wahrscheinlichkeiten für die einzelnen Werte der Zufallsvariablen berechnet, sondern die Wahrscheinlichkeiten für die Differenzen zwischen x und dem Mittelwert µ der Normalverteilung. Eine stetige Verteilung wird dann als normalverteilt bezeichnet, wenn die zufällige Variable x die Dichtefunktion f (x) =

1 σ 2π

1x -µ -   ⋅e 2 σ 

2

125

hat. Dabei gilt: - ∞ < x < + ∞ und σ > 0 ( π = 3,14159... und e = 2,71828). Betrachten wir die Dichtefunktion näher, so wird deutlich, dass die Normalverteilung von µ und σ abhängt. Der Parameter µ ist der Erwartungswert und gibt die Lage der Verteilung auf der x-Achse an; die Standardabweichung kennzeichnet ihre Streuung. Je stärker die Werte streuen, desto größer ist σ und um so flacher verläuft die Normalverteilung (vgl. Abb. 22 a und 22 b) . Abb. 22 a Normalverteilungen mit unterschiedlichem µ und gleichem σ f (x )

µ

µ

2

1

µ

x

3

Abb. 22 b Normalverteilungen mit gleichem µ und unterschiedlichem σ f (x )

x

µ

126

Weiterhin lässt sich zeigen, dass die Normalverteilung ihr Maximum bei x = µ hat und die beiden Wendepunkte der Normalverteilung an den Stellen x = µ - σ und x = µ + σ liegen (vgl. Abb. 23). Abb. 23 Wendepunkte der Normalverteilung mit µ und σ f (x)

Wendepunkt

µ−σ

Wendepunkt

µ

µ+σ

x

Für die weitere Verwendung der Normalverteilung als Modell ist wichtig, dass in dem Bereich µ - 1,96 σ bis µ + 1,96 σ 95% aller Werte liegen. Die Wahrscheinlichkeit, dass ein Wert kleiner oder größer ist, d.h. außerhalb des angegebenen Bereiches liegt, beträgt 5% (zu beiden Seiten jeweils 2,5%). Wir können auch formulieren: Werden Werte außerhalb dieses Bereichs nicht der betrachteten Grundgesamtheit zugeordnet, so beträgt die Wahrscheinlichkeit, einen Irrtum zu begehen, 5%. Deshalb wird diese Wahrscheinlichkeit auch als Irrtumswahrscheinlichkeit bezeichnet und mit dem Symbol α versehen. Folgende Schreibweise ist üblich: α = 5% oder α = 0,05. Die Gesamtfläche unter der Normalverteilung ( theoretisch von - ∞ bis + - ∞) entspricht der Gesamtwahrscheinlichkeit und ist gleich 1. Alle Normalverteilungen lassen sich durch Transformation auf die Standardnormalverteilung (normierte Normalverteilung) mit dem Parametern µ = 0 und σ = 1 zurückführen. Statt N(µ,σ) schreiben wir jetzt N(0,1). Die Transformation oder Normierung geschieht wie folgt (vgl. dazu auch Abschnitt III 2.2.4): Z=

X -µ . σ

Durch die Normierung wird die normalverteilte Zufallsvariable X in die standardnormalverteilte Zufallsvariable Z überführt. Die standardisierte Zufallsva127

riable drückt die Differenz zwischen x und µ in Einheiten der Standardabweichung aus. Für x = µ ± 1,96 σ lässt sich schreiben: z = ± 1,96. Dieser Bereich umfasst wiederum 95% der Gesamtfläche unter der Kurve der Standardnormalverteilung; recht und links dieses Bereichs liegen jeweils 2,5%, also insgesamt 5% der Gesamtfläche. Die Kurve der Standardnormalverteilung, N(0,1), kann in einem Koordinatensystem dargestellt werden, auf dessen Abszisse die z-Werte und auf dessen Ordinate die Wahrscheinlichkeitsdichte f (z) abgetragen werden (vgl. Abb. 24). Abb. 24

Wahrscheinlichkeitsdichte der Standardnormalverteilung (Ordinatenwerte)

f (z) 0,3989 0,2420

0,0540 0,0044 -3

-2

-1

0

+1

+2

+3

z

Die Standardnormalverteilung erreicht bereits an den Stellen z = -3,5 und z = +3,5 Ordinatenwerte, die kleiner als 0,001 sind, d.h. zwischen beiden Grenzen befinden sich mehr als 99,8% aller Werte. Betrachten wir die mittleren Flächenanteile der Standardnormalverteilung näher, so ergeben sich folgende zentrale Bereiche (vgl. Abb. 25): - zwischen z = -1 und z = +1 liegen rund 68,27% aller Werte einer standardisierten Zufallsvariablen; - zwischen z = -2 und z = +2 liegen rund 95,45%; - zwischen z = -3 und z = +3 liegen rund 99,73%; - zwischen z = -4 und z = +4 liegen rund 100%.

128

Abb. 25

Wahrscheinlichkeitsdichte der Standardnormalverteilung mit ausgewählten Flächenanteilen

f (z)

WP

-3

-2

WP

-1

0

+1

+2

+3

z

68,27 % 95,45 % 99,73 %

Andere Flächenanteile unter der Kurve der Standardnormalverteilung sind in Tab. A 1 (Anhang) tabelliert. Angegeben wird der Anteil der Flächen oberhalb von z (vgl. Abb. 26). Für z > 1,96 können wir der Tabelle die Wahrscheinlichkeit P = 0,025 (= 2,5%) entnehmen. Abb. 26

Standardnormalverteilung - Fläche unter der Kurve oberhalb von z

P

z

0

129

z

Wegen der strengen Symmetrie der Normalverteilung haben die negativen Werte von z die gleichen Wahrscheinlichkeiten. Mithilfe der Transformationsgleichung und Tab. A1 können wir für normalverteilte Zufallsvariablen die Wahrscheinlichkeit für den Wertebereich angeben, der größer ist als ein bestimmter Wert x. Beispiel: Für eine normalverteilte Grundgesamtheit mit µ = 18 und σ = 3 wird die Wahrscheinlichkeit für den Wertebereich größer als x = 22,5 gesucht. Durch Einsetzen in die Transformationsgleichung ergibt sich für z: z=

22,5 - 18 = 1,5. 3

Aus Tab. A1 (siehe Anhang) folgt für z > 1,5 eine Wahrscheinlichkeit von P = 0,0668. Wir können somit formulieren: Die Wahrscheinlichkeit, dass x größer als 22,5 ist, beträgt 6,68%. Anders formuliert: 6,68% aller Werte der Grundgesamtheit sind größer als 22,5. Ferner gilt (aus Gründen der Symmetrie): 6,68% aller Werte sind kleiner als 13,5 (z < -1,5); 93,32% (= 100% - 6,68%) aller Werte sind nicht größer als 22,5; 86,64% (= 100% - 2 · 6,68%) aller Werte liegen im Bereich zwischen 13,5 und 22,5. Die Normalverteilung hat in der schließenden Statistik eine große Bedeutung, da Verteilungen von Zufallsvariablen in ihren wesentlichen Bereichen oft annähernd normalverteilt sind. Eine wichtige Eigenschaft der Normalverteilung besteht deshalb darin, dass man mit ihr andere Verteilungen gut approximieren kann. Darauf wurde bereits bei der Behandlung der Binomialverteilung hingewiesen. Die näherungsweise Berechnung der Wahrscheinlichkeiten einer binomialverteilten Zufallsvariablen über die Standardnormalverteilung ist um so genauer, je größer n ist. Nach dem dem Zentralen ZentralenGrenzwertsatz Grenzwertsatzgilt, giltdass allgemein, dass die Verteilungsdie Verteilungsfunktionen aller Zufallsvariablen für n gegen unendlich (n→ unendlich ∞) gegen die funktionen aller Zufallsvariablen für n gegen (n→Verteilungsfunktion ∞) gegen die Verder Normalverteilung konvergieren. Zwar gibt es in der Empirie Normalteilungsfunktion der Normalverteilung konvergieren. Zwar gibt eskeine in der Empiverteilung im strengen Sinne, lassen sich viele lassen empirische Verteilungen rie keine Normalverteilung imjedoch strengen Sinne, jedoch sich viele empirizumindest in ihremzumindest mittleren Bereich annähernd normalverteilt auffassen. sche Verteilungen in ihremals mittleren Bereich als annähernd normalverteilt auffassen.

130

2

Stichproben und Stichprobenverteilungen

2.1

Grundgesamtheit und Stichprobe

In der beschreibenden Statistik wurde die Menge aller für eine Untersuchung relevanten statistischen Einheiten als statistische Masse bezeichnet. Hierfür wird in der schließenden Statistik der Begriff Grundgesamtheit verwendet. Will man Informationen über die charakteristischen Eigenschaften statistischer Grundgesamtheiten gewinnen, so ist es häufig ausreichend, statt einer Vollerhebung eine Teilerhebung durchzuführen. Die wichtigsten Gründe für die Durchführung von Teilerhebungen sind: Kostenersparnis Zeitgewinn Gründlichere Durchführung Praktische Unmöglichkeit von Vollerhebungen (z.B. bei "zerstörender Prüfung"). Aus den Ergebnissen der Teilerhebungen werden Rückschlüsse auf die Eigenschaften der Grundgesamtheit gezogen. Ein solcher Rückschluss (indirekter Schluss) ist aber nur dann sinnvoll, wenn die Auswahl der in die Teilerhebung gelangenden statistischen Einheiten so gestaltet wird, dass die Teilgesamtheit als repräsentativ für die Grundgesamtheit angesehen werden kann. Liegt ein derartiges Abbild vor, dann spricht man von einer Stichprobenerhebung oder (verkürzt) einer Stichprobe. Was das Auswahlverfahren bei Teilerhebungen betrifft, so lassen sich zwei Arten unterscheiden: Zufallsauswahlverfahren und Verfahren der bewussten Auswahl Bei den den Zufallsauswahlverfahren Zufallsauswahlverfahrenhathatjede jede statistische Einheit der GrundgeBei statistische Einheit der Grundgesamtsamtheit bestimmte die Stichprobe zu gelangen. Die heit eine eine bestimmte (vonWahrscheinlichkeit, Null verschiedene)inWahrscheinlichkeit, in die StichVerfahren der Zufallsauswahl können wiederumunterteilt in unterteilt einfache probe zu gelangen. Die Verfahren der Zufallsauswahl könnenwerden wiederum Zufallswahl, geschichtete Zufallsauswahl, und mehrstufige werden in einfache Zufallswahl, geschichteteKlumpenauswahl Zufallsauswahl, Klumpenauswahl Auswahl. und mehrstufige Auswahl. Im Fall einer einfachen Zufallsauswahl ist ein Verfahren zu gewährleisten, dass jeder statistischen Einheit der Grundgesamtheit die gleiche Chance (Wahrscheinlichkeit) einräumt, in die Stichprobe zu gelangen. Realisiert werden kann dies beispielsweise mithilfe von Zufallszahlen. Diese können speziellen "Zufallszahlentafeln" entnommen werden, in denen mehrstellige Zahlen in regelloser Folge aufgelistet sind, so dass sich kein Bildungsgesetz angeben lässt, nach dem aufeinanderfolgende Zahlen berechnet werden können. Voraussetzung ist aller131

dings, dass die statistischen Einheiten der Grundgesamtheit lückenlos durchnumeriert sind. Weitere Möglichkeiten der einfachen Zufallsauswahl sind das Schlussziffernverfahren, die Buchstaben- oder die Geburtstagsauswahl. Beim Schlussziffernverfahren gelangen alle Einheiten in die Stichprobe, die eine bestimmte Schlussziffer oder Schlussziffernkombination aufweisen. Demgegenüber werden bei der Buchstabenauswahl die Einheiten ausgewählt, deren Namen mit einem bestimmten Buchstaben bzw. einer bestimmten Buchstabenkombination beginnen. Ähnlich verfährt die Geburtstagsauswahl, die all jene Einheiten in die Stichprobe einschließt, die an einem bestimmten Tag oder an bestimmten Tagen Geburtstag haben. Auf die weiteren Zufallsausfallverfahren wird in diesem Buch nicht näher eingegangen. Im folgenden wird stets einfache Zufallsauswahl unterstellt. Als Beispiel für ein Verfahren der bewussten Auswahl soll das Quotenauswahlverfahren erwähnt werden, das von Markt- und Meinungsforschungsinstituten häufig verwendet wird. Dabei hat der Interviewer (Beobachter, etc.) mehr oder weniger freie Hand bei der Auswahl der Fälle (Personen), es werden ihm aber einige Vorgaben gemacht, die eine Repräsentativität der Auswahl garantieren sollen, zum Beispiel gewisse Quotenmerkmale, wie Geschlechterverteilung, Altersaufbau, Schulabschluss usw. Um ein repräsentatives Ergebnis zu erreichen, müssen die Quoten eng vorgeschrieben und die Einhaltung garantiert werden. Ansonsten kann das Verhalten der Interviewer erhebliche verzerrende Wirkungen ausüben. Bisher ging es vorrangig um die Frage, nach welchen Prinzipien und auf welchen Wegen man zu Stichproben gelangen kann, die eine gute Repräsentation der Grundgesamtheit sicherstellen. Damit sind aber die statistischen Probleme noch nicht erschöpft. In der Regel soll aus den Resultaten der Stichprobenerhebungen auf die unbekannten Parameter der Grundgesamtheit geschlossen werden. Übersicht 2

Die beiden Schlussweisen in der Statistik direkter Schluss

Grundgesamtheit

Stichprobe indirekter Schluss

Der indirekte Schluss ist stets fehlerbehaftet, da nicht alle, sondern nur ein Teil der statistischen Einheiten hinsichtlich ihrer Merkmalsausprägungen untersucht werden. Dieser Stichprobenfehler ist unvermeidbar und muss in Kauf genommen werden. Man kann aber, sofern eine Zufallsstichprobe vorliegt, den Stich132

probenfehler unter Anwendung der Wahrscheinlichkeitsrechnung quantifizieren. Dabei sind zwei Fragestellungen zu unterscheiden. Haben wir es mit einem nominalskalierten Merkmal zu tun, das lediglich in zwei Ausprägungen vorkommt (dichotomes Merkmal), dann spricht man von einer homograden Fragestellung. In diesem Fall besteht das Ziel einer Stichprobenerhebung darin, Aussagen über den unbekannten Anteilswert in der Grundgesamtheit zu gewinnen. Entnimmt man der Grundgesamtheit mehrere Stichproben, so werden sich die Stichprobenanteilswerte - von Zufall abhängig - mehr oder weniger stark voneinander unterscheiden. Um Aussagen über den Anteilswert der Grundgesamtheit zu machen, ist es deshalb von Interesse, wie sich die Zufallsvariable Stichprobenanteilswert verteilt (→ Stichprobenverteilung des Anteilswertes). Handelt es sich um metrisch skalierte Merkmale, dann spricht man von einer heterograden Fragestellung. Auch hier besteht das Ziel darin, Aussagen über die unbekannten Parameter der Grundgesamtheit, insbesondere das arithmetische Mittel, zu machen. Deshalb interessiert man sich für die Verteilung der Zufallsvariable arithmetisches Mittel der Stichprobe (→ Stichprobenverteilung des arithmetischen Mittels). Die Stichprobenverteilung der Varianz wird nicht behandelt. 2.2

Stichprobenverteilungen

Im folgenden wird stets unterstellt, dass die Voraussetzungen einer einfachen Zufallsstichprobe erfüllt sind. Eine Stichprobe besteht aus n Stichprobenwerten, wobei n den Stichprobenumfang angibt. Der Umfang der Grundgesamtheit wird mit N bezeichnet. Das Verhältnis n/N stellt den Auswahlsatz dar. Die Stichprobe enthält konkrete oder realisierte Werte der Zufallsvariablen (Anteilswert, arithmetisches Mittel). Zum besseren Verständnis der Symbole, die für den Leser vielleicht verwirrend erscheinen, sei nochmals angemerkt, dass für die Zufallsvariablen große Buchstaben verwendet werden, die Realisationen der Zufallsvariablen dagegen mit kleinen Buchstaben gekennzeichnet werden. Bei der Ableitung der Stichprobenverteilungen ist das Verfahren der Entnahme von Bedeutung. Zu unterscheiden ist zwischen Ziehen mit Zurücklegen und Ziehen ohne Zurücklegen. Beim Ziehen mit Zurücklegen kann eine statistische Einheit (Merkmalsträger) mehrfach in der Stichprobe enthalten sein. Die Grundgesamtheit hat vor jeder Zufallsauswahl eines Merkmalsträgers die gleiche Zusammensetzung. Da wegen des Zurücklegens nachfolgende Ziehungen nicht von vorhergehenden Ziehungen beeinflusst werden, sind die Zufallsvariablen der Stichprobe unabhängig voneinander. Außerdem verändert sich die Wahrscheinlichkeit nicht, mit der die Zufallsvariable bestimmte Werte annimmt. Das Ziehen ohne Zurücklegen ist in der praktischen Anwendung der häufigere Fall. Hier ändert sich die Zusammensetzung der Grundgesamtheit mit jeder weite133

ren Entnahme einer Einheit. Die Ziehungen und damit die Zufallsvariablen der Stichprobe sind deshalb voneinander abhängig. Man kann jedoch bei großem Umfang der Grundgesamtheit (N) und kleinem Stichprobenumfang (n) davon ausgehen, dass sich die Zusammensetzung in der Grundgesamtheit nach jeder Ziehung nur geringfügig ändert. 2.2.1 Stichprobenverteilung des Anteilswertes Zur Ableitung dieser Stichprobenverteilung wird auf das bereits behandelte Urnenmodell für ein dichotomes Merkmal zurückgegriffen. Dieses Modell lässt sich auf jede dichotome Grundgesamtheit vom Umfang N übertragen, die dadurch charakterisiert ist, dass M Einheiten eine bestimmte Eigenschaft A besitzen. Der M Anteilswert p = N ist zugleich die Wahrscheinlichkeit dafür, dass an einer zufällig ausgewählten Einheit die Eigenschaft A beobachtet wird. Der Anteilswert der roten Kugeln in der Grundgesamtheit wird mit p, die Zufalls∼ variable "Stichprobenanteilswert" mit P (gelesen: P Schlange) und der realisierte Anteilswert in der Stichprobe mit p- bezeichnet; für das Komplementärereignis

"Anteilswert der weißen Kugeln" in der Grundgesamtheit gilt 1 - p = q. Werden nun fortlaufend Stichproben des Umfangs n gezogen, wobei wir von einem Ziehen mit Zurücklegen ausgehen, dann erhalten wir die Verteilung der Zufallsvari∼ ablen P. Die Wahrscheinlichkeitsverteilung dieser Zufallsvariablen kann mithilfe der Binomialverteilung bestimmt werden. Sofern der Stichprobenumfang n groß genug ist, gilt wiederum der zentrale Grenzwertsatz, nach dem sich die Binomialverteilung durch eine Normalverteilung approximieren lässt. Bei größerem n kann ebenfalls die Stetigkeitskorrektur (ersetzen diskreter Werte durch Intervalle) unterlassen werden, die sonst erforderlich ist, wenn eine diskrete Verteilung durch ~∼ eine stetige Verteilung approximiert approximiert wird. wird. Die Die Zufallsvariable Zufallsvariable PP ist ist annähernd daher annähernd normalverteilt den Parametern: normalverteilt mit den mit Parametern: ∼ E (P) = p und ~ σ(P) =

p ⋅ (1 - p) . n

∼ ~ σ( P) wird auch als Standardfehler der Zufallsvariablen (P) bezeichnet. Ist der Anteilswert in der Grundgesamtheit bekannt, dann lässt sich die Wahrscheinlich-

134

∼ keit dafür berechnen, dass die Zufallsvariable (P) in einer Stichprobe Werte an∼ nimmt, die kleiner oder gleich einem vorgegebenen Wert p sind. Dazu ist (P) wie folgt zu standardisieren: Z=

~ P−p

( )

p⋅ 1− p n

Damit können bei bekanntem Anteilswert der Grundgesamtheit die gesuchten Wahrscheinlichkeiten über die Standardnormalverteilung berechnet werden. Zu beachten ist, dass der wahre Anteilswert bekannt sein muss, d.h. es handelt sich nicht um einen indirekten, sondern um einen direkten Schluss. Beispiel: In einer Urne, die mit roten und weißen Kugel gefüllt ist, beträgt der Anteilswert der roten Kugel p=0,60. Wir ziehen eine Stichprobe des Umfangs n=200 und fragen, wie groß ist die Wahrscheinlichkeit dafür, dass der Anteil der roten Kugeln in der Stichprobe größer als 66% ist? Durch Einsetzen in die Transformationsgleichung erhalten wir: z =

0,66 − 0,60 0, 6 ⋅ 0, 4 200

=

0, 06 0, 0012

=

0, 06 = 1,73. 0, 0346

Aus der Tabelle der Standardnormalverteilung (siehe Anhang) folgt: P (z > 1,73) = 0,0418 Die Wahrscheinlichkeit dafür, dass der Anteil der roten Kugeln in der Stichprobe größer als 66% ist, beträgt somit 4,18%. Abschließend soll noch kurz auf den "Fall ohne Zurücklegen" eingegangen werden. Die für den Fall mit Zurücklegen entwickelten Formeln für den Stichprobenfehler haben bei unendlicher Grundgesamtheit (N → ∞) auch im Fall ohne Zurücklegen Gültigkeit. Im Fall einer endlichen Grundgesamtheit sind sie zu modifizieren und zwar in der Weise, dass beim Standardfehler des Anteilswertes ein Korrekturfaktor berücksichtigt wird. Die Formel für den Standardfehler beim Ziehen ohne Zurücklegen lautet dann: ∼ σ(P) =

p.(1-p) . n

N-n N-1

135

In praktischen Anwendungsfällen wird der Ausdruck - 1 im Nenner des Korrekturfaktors nicht berücksichtigt, da er gegenüber N kaum ins Gewicht fällt. Der Korrekturfaktor kann dann wie folgt vereinfacht werden: 1-

n . N

Ist der Auswahlsatz n/N nicht größer als 5% (n/N < 0,05), kann der Korrekturfaktor gleich 1 gesetzt werden, d.h. man verwendet im Fall ohne Zurücklegen die einfache Formel für den Fall mit Zurücklegen. 2.2.2 Stichprobenverteilung des arithmetischen Mittels In diesem Abschnitt geht es um den heterograden Fall, d.h. das Untersuchungsmerkmal ist metrisch skaliert (quantitatives Merkmal). Als Gedankenstütze können wir ebenfalls unser Urnenmodell verwenden: Die Kugeln sind nicht mehr durch unterschiedliche Farben gekennzeichnet, sondern durch Merkmalswerte, die aufgedruckt sind. Aus der Grundgesamtheit N wird eine Stichprobe vom Umfang n entnommen (Ziehen mit Zurücklegen). Das arithmetische Mittel x- der rea-

lisierten Stichprobenwerte x1, x2, ..., xn wird berechnet nach n 1 x- = . ∑ xi. n i=1

Die konkreten Stichprobenwerte xi können wiederum als Realisation der Zufallsvariablen Xi aufgefasst werden. Damit ist das arithmetische Mittel als Funktion von n Zufallsvariablen ebenfalls eine Zufallsvariable. Wir können somit schreiben:

X =

n 1 . ∑ Xi. n i=1

Betrachtet werden soll nun die Stichprobenverteilung der Zufallsvariablen X . Gehen wir zunächst davon aus, dass die Zufallsvariable X in der Grundgesamtheit normalverteilt ist mit den Parametern µ (arithmetisches Mittel der Grundgesamtheit) und σ2 (Varianz der Grundgesamtheit), dann erhalten wir als Erwartungswert der Verteilung des arithmetischen Mittels der Stichprobe E( X ) = µ und für die Varianz Var( X ) =

σ2 . n

136

Was die Verteilung von X betrifft, so gilt, dass bei einer normalverteilten Grundgesamtheit auch das arithmetische Mittel der Stichprobe X normalverteilt ist. Die Quadratwurzel der Varianz von X σ( X ) =

σ n

wird als Standardfehler des Stichprobenmittelwertes, einfacher noch: als Standardfehler, bezeichnet. Bei gegebenem σ nimmt der Standardfehler ab, wenn der Stichprobenumfang erhöht wird. Umgekehrt heißt dies: Der Standardfehler wächst, wenn der Stichprobenumfang verringert wird. Sind die Parameter der Grundgesamtheit bekannt, dann lässt sich zu einer vorgegebenen Wahrscheinlichkeit 1-α ein symmetrisches Schwankungsintervall um den Erwartungswert µ angeben. Die Wahrscheinlichkeit 1-α gibt die Wahrscheinlichkeit dafür an, dass die Zufallsvariable X in das Intervall fällt, während α die Wahrscheinlichkeit dafür ist, dass X außerhalb des Intervalls liegt. Ebenso können wir Wahrscheinlichkeiten dafür berechnen, dass X in einer Stichprobe Werte annimmt, die kleiner oder gleich einem vorgegebenen Stichprobenmittelwert x sind. Dazu wird X zunächst standardisiert und zwar durch Z =

X-µ . σ n

Das Schwankungsintervall lautet dann: P (µ - z .

σ σ ≤X≤µ+z. ) = 1-α n n

In dem so bestimmten Schwankungsintervall (oder Wahrscheinlichkeitsintervall) liegt das arithmetische Mittel der Stichprobe X mit einer Wahrscheinlichkeit von 1- α (vgl. Abb. 27). Korrekterweise müssten wir schreiben: z α und z α 2

1-

2

137

Da die Zufallsvariable Z standardnormalverteilt ist, können wir aber vereinfachen: z α = -z 2

Abb. 27

1-

α 2

= - z und z

1-

α 2

=z

Stichprobenverteilung des arithmetischen Mittels X

_

f(X)

1- α α 2

α 2

_

µ −z ·σ (X ) zα=-z 2

= 1- α 2

-z

µ

_

µ+z· σ(X )

0

z

1- α 2

=z

_

X

_

X − _µ Z = σ(X )

Im nächsten Abschnitt (Schätzverfahren) werden wir sehen, dass die Aussagen des direkten Schlusses (von der bekannten Grundgesamtheit auf die daraus gezogene Stichprobe) verwendet werden können, um Vertrauensbereiche für das unbekannte arithmetische Mittel der Grundgesamtheit zu konstruieren. Man spricht dann nicht mehr von einem Wahrscheinlichkeitsintervall, sondern von einem Konfidenzintervall. Bei nicht normalverteilter Grundgesamtheit lässt sich in gleicher Weise ein Wahrscheinlichkeitsintervall für den Stichprobenmittelwert abstecken, vorausgesetzt der Stichprobenumfang ist genügend groß. Die Verteilung der Stichprobenmittelwerte nähert sich nämlich mit wachsendem Stichprobenumfang einer Normalverteilung an, unabhängig davon, wie die Zufallsvariable X in der Grundgesamtheit verteilt ist (zentraler Grenzwertsatz). Als Faustregel gilt, dass für n größer 30 (n>30) eine annähernde Normalverteilung der Stichprobenmittelwerte gewährleistet ist. Die Zufallsvariable Z ist dann "asymptotisch standardnormalverteilt" und das arithmetische Mittel der Stichprobe X fällt "näherungsweise" in das Schwankungsintervall mit der vorgegebenen Wahrscheinlichkeit 1- α (man schreibt dann: ≈1- α).

138

Betrachten wir abschließend den Fall o hne Zurücklegen, so kann der KorN-n rekturfaktor N-1 für den Standardfehler des arithmetischen Mittels wiederum vernachlässigt werden, wenn der Auswahlsatz n/N kleiner 0,05 ist. Beispiel: Ein Reifenhersteller kann davon ausgehen, dass die Laufleistung seiner Automobilreifen der Marke Y normalverteilt ist mit µ = 60.000 km und einer Standardabweichung von 5.000 km. Aus der laufenden Produktion werden 100 Reifen nach dem Zufallsprinzip ausgewählt und auf ihre Laufleistung getestet. Wie groß ist das Intervall, in das die durchschnittliche Laufleistung der in die Stichprobe einbezogenen Reifen mit einer Wahrscheinlichkeit von 95,45% hineinfällt? Der Standardfehler des arithmetischen Mittels der Stichprobe berechnet sich nach σ 5.000 σ (x- ) = = = 500 km. n 100 α Da 1-α = 0,9545 ist und 2 = 0,02275 ≈ 0,0228, erhalten wir aus Tab. A1 z = 2. Die Länge des Intervalls bestimmt sich nach P (60.000 -2 . 500 ≤ X ≤ 60.000 + 2 . 500) = 0,9545, so dass P (59.000 ≤ X ≤ 61.000) = 0,9545 folgt, d.h. mit einer Wahrscheinlichkeit von 95,45% ist die durchschnittliche Laufleistung der in der Stichprobe getesteten Reifen im Intervall zwischen 59.000 km und 61.000 km zu erwarten. Betrachten wir den Standardfehler des arithmetischen Mittels etwas näher, so können wir erkennen, dass der Standardfehler mit zunehmendem Stichprobenumfang geringer wird. Erhöht man beispielsweise den Stichprobenumfang auf n = 150, dann verringert sich der Standardfehler σ (x- ) auf 408,25 km. Eine andere Fragestellung wäre: Mit welcher Wahrscheinlichkeit wird die Stichprobe eine durchschnittliche Laufleistung von mehr als 61.250 km aufweisen? Durch Einsetzen erhält man: x- - µ 61.250 - 60.000 z = = 2,5 - = σ(x) 500 5000

139

Aus Tab. A 1 folgt: P(z > 2,5) = 0,0062. Mit einer Wahrscheinlichkeit von 0,62% ist zu erwarten, dass die durchschnittliche Laufleistung in der Stichprobe mehr als 61.250 km beträgt.

3

Schätzverfahren

Im Rahmen der bisherigen Erörterungen sind wir stets davon ausgegangen, dass die Parameter der Grundgesamtheiten bekannt sind. Aus dieser Kenntnis wurde auf die Verteilung der Stichprobengrößen (Stichprobenanteilswert, Stichprobenmittelwert) geschlossen (direkter Schluss). In der Praxis geht es jedoch zumeist darum, ausgehend von einem Stichprobenbefund die unbekannten Parameter der Grundgesamtheit zu schätzen (indirekter Schluss). Was die Aufgabenstellung von Schätzverfahren angeht, so ist zwischen Punktschätzung und Intervallschätzung zu unterscheiden. Die Aufgabe der Punktschätzung besteht darin, aufgrund eines Stichprobenergebnisses eine möglichst genaue Schätzung für den unbekannten Parameter der Grundgesamtheit vorzunehmen. Im Gegensatz dazu geht es bei der Intervallschätzung darum, Bereiche abzustecken, in denen der unbekannte Parameter zu erwarten ist. Ein solcher Bereich heißt Konfidenzintervall, Schätzintervall oder Vertrauensbereich. Die Genauigkeit der Schätzung kann dabei durch die Länge des Intervalls und die Sicherheit der Schätzung durch die Wahrscheinlichkeit ausgedrückt werden, mit der das Intervall den unbekannten Parameter der Grundgesamtheit enthält. Wählen wir bei gegebenem Stichprobenumfang eine hohe Sicherheit, dann wird der Vertrauensbereich breiter. Die Aussage ist aber um so weniger präzise, je breiter der Vertrauensbereich ist. Zwischen Genauigkeit und Sicherheit besteht somit ein Zielkonflikt, der bei jeder Intervallschätzung zu entscheiden ist. Wir beschränken uns hier auf Intervallschätzungen für das arithmetische Mittel und den Anteilswert der Grundgesamtheit. 3.1

Konfidenzintervall für das arithmetische Mittel der Grundgesamtheit

Zunächst wollen wir das Konfidenzintervall für den unbekannten Parameter der Grundgesamtheit bestimmen. Dabei wird von folgenden Annahmen ausgegangen: - die Grundgesamtheit ist normalverteilt - die Varianz bzw. Standardabweichung der Grundgesamtheit ist bekannt.

140

Ausgangspunkt ist das Wahrscheinlichkeitsintervall für den standardnormalverteilten Stichprobenmittelwert: P (µ - z .

σ σ ≤ X ≤µ+z. ) = 1-α n n

Durch Umformung (auf die Darlegung der einzelnen Schritte wird verzichtet; vgl. Bleymüller/Gehlert/Gülicher 2008) 2004) erhält man daraus das gesuchte Konfidenzintervall für das unbekannte µ: σ σ P (X - z . ≤µ≤X+z. ) = 1-α n n Ein Intervall, das mit einer Wahrscheinlichkeit von 1-α den unbekannten Parameter µ der Grundgesamtheit enthält, heißt Konfidenzintervall für µ zum Niveau 1- α. Für einen konkreten Stichprobenmittelwert x- (= Realisation der Zufallsvariablen

X ) gilt das Konfidenzintervall:

σ . σ ≤ µ ≤ x- + z . x- - z . n n Nach der Ziehung der Stichprobe liegt ein konkretes Konfidenzintervall vor. Da die Grenzen dieses Intervalls nun feste Größen sind, lassen sich keine Wahrscheinlichkeitsaussagen mehr machen. Der unbekannte Parameter µ liegt entweder innerhalb des konkreten Intervalls oder außerhalb. Nehmen wir aber einmal an, dass eine große Zahl von Stichproben gezogen würde. In diesem Fall würde sich von Stichprobe zu Stichprobe ein anderes Konfidenzintervall für µ ergeben, da sich die Stichprobenmittelwerte zufallsbedingt unterscheiden. Der Anteil der Konfidenzintervalle, in denen µ nicht enthalten ist, lässt sich nun mit α · 100% angeben. Dementsprechend ist der Anteil der Konfidenzintervalle, in denen µ enthalten ist, (1-α) · 100%. Man bezeichnet deshalb 1-α als Konfidenzniveau. Für eine konkrete Stichprobe bedeutet dies, dass angenommen wird, dass das realisierte Konfidenzintervall in (1-α) · 100% aller Fälle den unbekannten Parameter einschließt. Der durchschnittliche prozentuale Fehler, der sich unter dieser Annahme ergibt, ist somit α · 100%. Beispiel: Geschätzt werden soll die durchschnittliche Brenndauer von Glühlampen einer Produktionsserie. Eine Zufallsstichprobe des Umfangs n=100 ergibt eine durchschnittliche Brenndauer von 1.200 Stunden. Die Standardabweichung der Grundgesamtheit sei mit σ = 110 Stunden bekannt. Bestimmt werden soll ein 98%-Konfidenzintervall für die durchschnittliche Brenndauer der Glühlampen in der Grundgesamtheit.

141

Die Standardabweichung des arithmetischen Mittel ergibt: σ 110 σ (x- ) = = = 11. n Die Standardabweichung des100 arithmetischen Mittel ergibt: Aus Tab. A1 ist fürσ die Wahrscheinlichkeit P = 0,01 (=α/2) zu entnehmen: z = 110 = 11. = σ (x- ) = 2,32. 100 n Unter der Annahme n/N < 0,05 kann auf den Korrekturfaktor verzichtet werden. Damit kann Konfidenzintervall abgesteckt werden: Aus Tab. A1das istgesuchte für die Wahrscheinlichkeit P = 0,01 (=α/2) zu entnehmen: z = 2,32. - - z . σ (x- ) ≤ µ ≤kannx-auf+ den z . σKorrekturfaktor (x- ) Unter derxAnnahme n/N < 0,05 verzichtet werden. Damit kann das gesuchte Konfidenzintervall abgesteckt werden: 1.200 - 2,32 . 11 ≤ µ ≤ 1.200 + 2,32 . 11 x- - z . σ (x- ) ≤ µ ≤ x- + z . σ (x- ) 1.174,48 ≤ µ ≤ 1.225,52 1.200 - 2,32 . 11 ≤ µ ≤ 1.200 + 2,32 . 11 Die durchschnittliche Brenndauer der Glühlampen in der Grundgesamtheit liegt mit einem Konfidenzgrad von 98% zwischen 1.174,48 und 1.225,52 Stunden. 1.174,48 ≤ µ ≤ 1.225,52 Kommen wir zu unseren Annahmen zurück. Auch fürGrundgesamtheit nicht-normalverteilte Die durchschnittliche Brenndauer der Glühlampen in der liegt Grundgesamtheiten (aber von noch bekannter Standardabweichung) mit einem Konfidenzgrad 98% zwischenVarianz 1.174,48bzw. und 1.225,52 Stunden. lässt sich in gleicher Weise ein Konfidenzintervall für den unbekannten Parameter abstecken, wir sofern Umfang der Stichprobe großAuch genugfür ist (n > 30). Bei großem Kommen zuder unseren Annahmen zurück. nicht-normalverteilte Stichprobenumfang wiederum der zentrale Grenzwertsatz zur Geltung. Grundgesamtheiten kommt (aber noch bekannter Varianz bzw. Standardabweichung) lässt sich in gleicher Weise ein Konfidenzintervall für den unbekannten Parameter Wir variieren nun der die Umfang zweite Annahme und gehen die Bei Varianz der abstecken, sofern der Stichprobe großdavon genugaus, ist (ndass > 30). großem Grundgesamtheit unbekannt bzw. der der Stichprobenumfang so gering ist, dass die Stichprobenumfang kommt wiederum zentrale Grenzwertsatz zur Geltung. Voraussetzung für den zentralen Grenzwertsatz nicht mehr erfüllt ist. Wir können nun variieren nicht mehr davon ausgehen, dass der Stichprobenmittelwert näherungsweise Wir nun die und gehen davon aus,aus, dassdass die Varianz der variieren nun diezweite zweiteAnnahme Annahme und gehen davon die Varianz normalverteilt ist.unbekannt Betrachten wirBetrachten die Stichprobenumfang standardnormalverteilte Zufallsvariable Z Grundgesamtheit bzw. der so gering ist, dass Zudie der Grundgesamtheit unbekannt. wir die standardnormalverteilte Voraussetzung zentralen Grenzwertsatz mehr ist. Wirauch können fallsvariable Z für näher, so muss die unbekannte Varianz σ2erfüllt (und damit die näher, so muss dieden unbekannte Varianz σ2 (undnicht damit auch die Standardabweinun nicht mehr davon ausgehen, dass der Stichprobenmittelwert näherungsweise Standardabweichung σ) geschätzt werden. Als Schätzformel wird die die chung σ) geschätzt werden. Als erwartungstreue Schätzfunktionfür fürσσ2 2 wird normalverteilt ist. Betrachten wir die standardnormalverteilte Zufallsvariable Z Stichprobenvarianz Stichprobenvarianz näher, so muss die unbekannte Varianz σ2 (und damit auch die Standardabwei2 1 nwerden. Als 2 chung σ)Sgeschätzt 2 ( = X i - X ) erwartungstreue Schätzfunktion für σ wird die ∑ Stichprobenvarianz n - 1 i =1 n

1 kann die Standardabweichung 2 verwendet.2Folglich der Stichprobe S = ∑ (X i - X ) n - 1 i =1 1 n (X idie- XStandardabweichung )2 S= ∑ verwendet. Folglich kann der Stichprobe n - 1 i=1

1 n Standardabweichung als Schätzwert der Grundgesamtheit eingesetzt wer(X i - X )2 S = für die ∑ n - 1 i=1 den.

als Schätzwert für die Standardabweichung der Grundgesamtheit eingesetzt werden. 142 142 142

Wir erhalten dann eine neue Zufallsvariable, die mit dem Symbol T versehen wird: Wir erhalten dann eine neue Zufallsvariable, die mit dem Symbol T versehen X -µ wird: T= S X -nµ T= S Diese Zufallsvariable ist nicht mehr standardnormalverteilt, sondern folgt einer tn Verteilung mit ν = n - 1 Freiheitsgraden. Der Begriff "Anzahl der Freiheitsgranicht mehr standardnormalverteilt, sondern folgt einer tDiese Zufallsvariable ist nicht mehrdarunter standardnormalverteilt, sondern folgt einer de" seiZufallsvariable kurz erläutert: ist Man versteht die Differenz aus dem Stichprobent-Verteilung mit νAnzahl 1k Freiheitsgraden. Die "Anzahl derberechneten Freiheitsgrade" Verteilung mit ν= n= -n1-Freiheitsgraden. Begriff "Anzahl der Freiheitsgraumfang n und der der aus den nDer Stichprobenwerten Parabegründet dadurch, dass in diedarunter Berechnung der t-Werte nMittelwert Beobachtungsde" seiνkurz erläutert: Man versteht die Differenz Stichprobenmeter: = sich n-k. Wird beispielsweise für eine Stichprobe n=6aus derdem x- bewerte eingehen, dieAnzahl durch die Vergabe desn Mittelwertes x̅ einerberechneten einschränkenden umfang n und der k der aus den Stichprobenwerten Pararechnet, so beträgt in diesem Fall die Anzahl der Freiheitsgrade ν = n - k = 6 - 1 Bedingung unterliegen. Mit der Berechnung des Stichprobenmittelwertes ist meter: = Parameter n-k. Wird bereits beispielsweise fürist. eine Stichprobe n=6 der Mittelwert x- be= 5, da νein berechnet "quasi ein Freiheitsgrad verbraucht". rechnet, so beträgt in diesem Fall die Anzahl der Freiheitsgrade ν = n - k = 6 - 1 Die wirdbereits auch als Student-Verteilung bezeichnet, da der Engländer = 5, t-Verteilung da ein Parameter berechnet ist. W. S. Gosset diese Verteilung 1908 unter dem Pseudonym "Student" veröffentlicht hat. Die wird t-Verteilung zu den stetigenbezeichnet, WahrscheinlichkeitsverteiDie t-Verteilung auch als gehört Student-Verteilung da der Engländer lungen verläuft denunter Nullpunkt. Der wesentliche Unterschied W. S. und Gosset diesesymmetrisch Verteilung um 1908 dem Pseudonym "Student" veröfzur Standardnormalverteilung dasszudie der t-Verteilung (die fentlicht hat. Die t-Verteilung ist, gehört denDichtefunktion stetigen Wahrscheinlichkeitsverteivon derund Anzahl der symmetrisch Freiheitsgradeum abhängt) flacher verläuft als die der Standardlungen verläuft den Nullpunkt. Der wesentliche Unterschied normalverteilung. Die Werte der sind also weniger stark um (die den zur Standardnormalverteilung ist, t-Verteilung dass die Dichtefunktion der t-Verteilung Nullpunkt konzentriert. Vor allem abhängt) bei kleinen Stichprobenumfängen die tvon der Anzahl der Freiheitsgrade flacher verläuft als die derweist StandardVerteilung deutliche Abweichungen von der Standardnormalverteilung auf.um den normalverteilung. Die Werte der t-Verteilung sind also weniger stark Nullpunkt konzentriert. Vor allem bei kleinen Stichprobenumfängen weist die tVerteilung deutliche Abweichungen von derµStandardnormalverteilung auf.sich bei Als Konfidenzintervall für das unbekannte der Grundgesamtheit lässt unbekannter Varianz schreiben: Als Konfidenzintervall für das unbekannte µ der Grundgesamtheit lässt sich bei S S unbekannter P ( XVarianz ≤µ≤X+t. ) = 1-α - t . schreiben: n n S . S ≤ µ ≤gilt: P ( X - t Stichprobe ) = 1-α X+t. Für eine realisierte n n s s . Für eine realisierte x- - t . Stichprobe ≤ µ ≤ x- gilt: +t. n n -x - t . s ≤ µ ≤ x- + t . s . s ^ (x- ) (dasn^ steht für geschätzt), so lässt sich auch ndurch σ Ersetzt man n s ^ (x- ) (das ^ steht für geschätzt), so lässt sich auch schreiben: Ersetzt man durch σ n ^ (x- ) ≤ µ ≤ x- + t . σ ^ (x- ). x- - t . σ schreiben: ^ (x- ) ≤ µ ≤ x- + t . σ ^ (x- ). x- - t . σ Beispiel: Aus der laufenden Produktion der Glühlampen werden nun nicht mehr n=100, sondern nur noch n=25 Glühlampen auf ihre Brenndauer geprüft. Die Beispiel: Aus der laufenden Produktion der Glühlampen werden nun nicht mehr n=100, sondern nur noch n=25 Glühlampen auf ihre Brenndauer geprüft. Die 143 143 143

Stichprobe ergibt wiederum eine durchschnittliche Brenndauer von 1.200 Stunden mit einer Standardabweichung von 110 Stunden (Um die Konfidenzintervalle in Abhängigkeit vom Stichprobenumfang zu betrachten, wurde hier für die Standardabweichung der Stichprobe der gleiche Wert wie für die Standardabweichung der Grundgesamtheit gewählt). Wie groß ist jetzt das 98%-Konfidenzintervall für das unbekannte µ der Grundgesamtheit? Aus Tab. A3 (Prozentpunkte der t-Verteilung) ist für ν = 25-1 = 24 und α = 0,02 ein t-Wert von 2,492 zu entnehmen. Damit lautet das Konfidenzintervall: 1.200 - 2,492 .

110 25

1.200 - 2,492 . 22 1.200 - 54,824 1.145,176

110 25 1.200 + 2.492 . 22

≤µ≤

1.200 + 2.492

≤µ≤ ≤µ≤ ≤µ≤

1.200 + 54,824 1.254,824.

Der Vergleich der Konfidenzintervalle zeigt, dass der kleinere Stichprobenumfang ein größeres Konfidenzintervall zur Folge hat. Da für Freiheitsgrade von ν ≥ 30 die Normalverteilung eine gute Approximation der t-Verteilung darstellt, kann in diesen Fällen auf die tabellierten Werte der Standardnormalverteilung zurückgegriffen werden. 3.2

Konfidenzintervall für den Anteilswert der Grundgesamtheit

In diesem Abschnitt geht es darum, ein Konfidenzintervall für den unbekannten Anteilswert p einer binomialverteilten Zufallsvariablen zu konstruieren. Wie bei ∼ der Stichprobenverteilung des Anteilswertes dargelegt, ist der Anteilswert P einer Stichprobe aus einer dichotomen Grundgesamtheit bei Erfüllung der Approximationsregel npq ≥ 9 näherungsweise normalverteilt mit dem Erwartungswert ∼ ∼ p (1-p) E(P) = p und der Varianz σ² (P) = . n ∼ P wird als eine erwartungstreue Schätzung für p definiert. Analog zum vorhergehenden Abschnitt lässt sich aus der standardnormalverteilten Zufallsvariablen

144

∼ P-p Z = ∼ σ (P) ein Konfidenzintervall für den Anteilswert der Grundgesamtheit in Abhängigkeit vom Konfidenzniveau 1- α abstecken: ∼ ∼ ∼ ∼ P (P - z . σ(P) ≤ p ≤ P + z σ(P)) = 1-α. Für eine realisierte Stichprobe gilt: ∼ ∼ p- - z . σ (P) ≤ p ≤ p- + z . σ (P) wobei p- den beobachteten Anteilswert der Stichprobe darstellt. ∼ ∼ Wir sehen jedoch, dass sich σ(P) nicht berechnen lässt, da in der Formel für σ(P) der unbekannte Parameter p enthalten ist. Ausgehend vom Stichprobenanteilswert ∼ P wird als Schätzwert für den Standardfehler des Anteilswertes verwendet: ~ σˆ ( P) =

~ ~ P ⋅ (1 - P) n -1

Für eine konkrete Stichprobe gilt: ~ σˆ ( P) =

p ⋅ (1 - p ) n -1

Als Konfidenzintervall für den unbekannten Anteilswert p zum Niveau 1- α erhält man bei großen Stichproben: ∼ ∼ ∼ ∼ ^ (P ^ (P P (P - z . σ )≤p≤ P+z.σ )) = 1-α Das konkrete Konfidenzintervall erhalten wir wiederum, wenn die Zufallsvariable ∼ P durch den empirisch festgestellten Anteilswert p- in einer Stichprobe vom Umfang n ersetzt wird: ∼ ∼ ^ (P ^ (P p- - z . σ ) ≤ p ≤ p- + z . σ ) Beispiel: Für eine Grundgesamtheit von N=100.000 Frauen soll der Anteil der nicht erwerbstätigen Frauen bestimmt werden. Dazu wird eine Stichprobe des Umfangs n=900 durchgeführt. Als Ergebnis wird festgestellt, dass 360 Frauen nicht erwerbstätig sind. Wie hoch ist bei einem Konfidenzniveau von 98,8 % der Anteil der nicht erwerbstätigen Frauen in der Grundgesamtheit?

145

Der Stichprobenanteilswert p- beträgt 0,4; für den Standardfehler errechnet sich folgender Schätzwert: ∼ ^ (P σ ) =

0,4 ⋅ 0,6 = 0,0163. 899

Wegen n/N < 0,05 kann der Korrekturfaktor entfallen. α Da 1-α = 0,988 und 2 = 0,006, liefert Tab. A 1 den Wert z = 2,51. Durch Einsetzen der Werte folgt 0,4 - 2,51 . 0,0163 ≤ p ≤ 0,4 + 2,51 . 0,0163 oder 0,3591 ≤ p ≤ 0,4409. Der Anteil der nicht erwerbstätigen Frauen in der Grundgesamteit liegt mit einem Konfidenzgrad von 98,8% zwischen 35,9% und 44,1%.

4

Testverfahren

Wie die gehen auch Wie die Schätzverfahren Schätzverfahren gehen auch die die Testverfahren Testverfahren von von einer einer vorliegenden vorliegenden Stichprobe aus. aus. Ihre Ihre zentrale zentrale Problemstellung Problemstellunglautet: lautet:wie wiekann kannauf mander aufBasis der Basis Stichprobe einer einer Stichprobe entscheiden, bestimmte Hypothesen Hypothesenüber überdiediezugrundeliezugrundeStichprobe entschieden werden, ob ob bestimmte liegende Grundgesamtheit beibehalten odersind. verworfen Werdenüber Hypogende Grundgesamtheit richtig oder falsch Werdenwerden. Hypothesen die thesen über die unbekannten Parameter (Anteilswert, Mittelwert) der Grundunbekannten Parameter (Anteilswert, Mittelwert) der Grundgesamtheit überprüft, gesamtheit spricht man vonparametrischen Parametertests (bzw. parametrischen spricht man überprüft, von Parametertests (bzw. Testverfahren). Tests, die Testverfahren). Tests, dievon nicht der Überprüfung von Parameterhypothesen dienicht der Überprüfung Parameterhypothesen dienen, werden dementsprenen, werden dementsprechend Verfahren als nichtparametrische Verfahren bezeichnet (vgl. chend als nichtparametrische bezeichnet (vgl. Eckey/Kosfeld/Türck Eckey/Kosfeld/Türck 2011).behandeln Als Beispiel behandeln wir imAbschnitts letzten Punkt 2005b). Als Beispiel hierfür wirhierfür im letzten Punkt dieses den dieses Abschnitts den Chi-Quadrat-Unabhängigkeitstest. Chi-Quadrat-Unabhängigkeitstest.

4.1

Grundstruktur von Hypothesentests

Ausgangspunkt eines Hypothesentests ist zunächst die Formulierung einer statistischen Hypothese (Annahme, Behauptung) über die Grundgesamtheit. Die Hypothese ist dabei die Vermutung des Anwenders über bestimmte Eigenschaften der Grundgesamtheit. Es ist üblich, die zu prüfende Hypothese als Nullhypothese zu bezeichnen und mit dem Symbol H0 zu kennzeichnen. Sie beinhaltet den status quo, d.h. sie drückt beispielsweise die Vermutung aus, dass Unterschiede zwischen der Annahme über bestimmte Eigenschaften der Grundgesamtheit und dem Stichprobenergebnis nur zufälliger Art sind. Wenn die Nullhypothese lediglich 146

einen einzigen Parameter einschließt, spricht man von einer Punkthypothese oder einfachen Hypothese. Wird dagegen für den unbekannten Parameter ein ganzer Wertebereich zugelassen, dann handelt es sich um eine Bereichshypothese oder zusammengesetzte Hypothese. Ein Hypothesentest ist ein Verfahren, bei dem auf der Grundlage einer vorliegenden Stichprobe entschieden wird, ob die Nullhypothese angenommen oder abgelehnt wird. Für den Fall der Ablehnung muss festgelegt werden, welche Alternativhypothese dann gilt. Die Alternativhypothese wird mit dem Symbol H1 gekennzeichnet. Sie wird in Abhängigkeit von der Nullhypothese formuliert. Die auftretenden Unterschiede resultieren nicht mehr aus Zufallsschwankungen. Insofern ist ein Hypothesentest eine Regel zur Entscheidung zwischen zwei Hypothesen, der Nullhypothese (H0) und der Alternativhypothese (H1). Entscheidet sich der Anwender für die Annahme der Nullhypothese, dann ist die Alternativhypothese abgelehnt. Entscheidet er sich für die Ablehnung der Nullhypothese, dann wird die Alternativhypothese angenommen. Zu unterscheiden ist zwischen einseitigen und zweiseitigen Tests. Sind für die Entscheidung über Annahme oder Ablehnung der Nullhypothese Abweichungen nur in einer Richtung relevant, dann spricht man von einem einseitigen Test. Ist dagegen eine Abweichung nach beiden Seiten relevant, so liegt ein zweiseitiger Test vor. Beispiel: Wir unterstellen, dass es sich bei der Erhebung in unserem Standardbeispiel um eine Zufallsstichprobe aus einer größeren Grundgesamtheit handelt. Ferner nehmen wir an, dass der Anteil der weiblichen Teilnehmer in der Grundgesamtheit (p) in der Vergangenheit 40% betrug. Die Stichprobe (n=80) ergab einen Anteil von 45% (vgl. Tab. 1). Eine mögliche Fragestellung wäre nun, ob diese Abweichung nur zufällig ist oder nicht. Es könnte nämlich durchaus sein, dass der Anteil der weiblichen Teilnehmer in der Grundgesamtheit gestiegen ist. Formulieren wir als Nullhypothese, dass die Stichprobe aus einer Grundgesamtheit mit p=0,40 stammt, so ist im Fall einer Punkthypothese folgende Schreibweise üblich: H0 : p = 0,40. Die Alternativhypothese lautet dementsprechend: H1 : p ≠ 0,40. Wir sehen, dass bei H1 eine Abweichung nach beiden Seiten relevant ist (zweiseitiger Test). Formulieren wir dagegen als Nullhypothese, dass die Stichprobe aus einer Grundgesamtheit stammt, in der der Anteil der weiblichen Teilnehmer nicht größer als 40% ist (Bereichshypothese), ist H0 durch

147

H0 : p ≤ 0,40 gegeben. Als Gegenhypothese wird dann H1 : p > 0,40 verwendet (einseitiger Test). Nachdem die zu testende Nullhypothese und abhängig davon die Alternativhypothese festgelegt wurden, ist eine geeignete Prüfgröße festzulegen, anhand derer auf Basis der Stichprobeninformationen zwischen H0 und H1 entschieden werden kann. Wird die Nullhypothese angenommen, so ist damit jedoch noch nichts über ihre Richtigkeit ausgesagt. Die Annahme von H0 bedeutet nur, dass sie nicht im Widerspruch zum vorliegenden Beobachtungsmaterial steht. Auch die Ablehnung einer Hypothese schließt nicht die Aussage ein, dass die Hypothese falsch ist. Wenden wir uns nun der Prüfgröße zu, die für statistische Testverfahren von zentraler Bedeutung ist. Die Prüfgröße wird nach einer bestimmten Vorschrift aus den Werten der Stichprobe berechnet. Mit der Prüfgröße wird ihre Verteilung (Testverteilung) bestimmt. Der Test besteht dann darin, diese Prüfgröße (unter der Angabe einer bestimmten Irrtums- oder Signifikanzwahrscheinlichkeit α) mit einem kritischen Wert zu vergleichen. Dieser Vergleich ermöglicht die Entscheidung, ob die Nullhypothese angenommen oder abgelehnt wird. Bei Hypothesentests können zwei Arten von Fehlern auftreten (vgl. Übersicht 3 und Abb. 28): - wird die Nullhypothese abgelehnt, obwohl sie richtig ist, begeht man einen Fehler erster Art, auch α-Fehler genannt oder - die Nullhypothese wird angenommen, obwohl sie falsch ist, dann liegt ein Fehler zweiter Art vor, ein sogenannter ß-Fehler.

Übersicht 3:

Fehler beim Testen von Hypothesen

Richtig ist H0 Entscheidung für H1

H0

H1

Richtige Entscheidung

Fehler 2. Art (ß-Fehler)

Fehler 1. Art (α-Fehler)

Richtige Entscheidung

148

Abb. 28

Schematische Darstellung von α- und ß-Fehler beim Hypothesentest

Ho

H1

β

α

p = po

p=p

1

α- Fehler

β - Fehler

Bei der Entscheidung über die Gültigkeit der Null-Hypothese können unterschiedlich strenge Maßstäbe hinsichtlich des α-Fehlers angelegt werden. Man spricht in diesem Fall von Signifikanzniveau (oder Irrtumswahrscheinlichkeit). Ist man beispielsweise bereit, in 5 von 100 Fällen einen Fehler 1. Art zu begehen, d.h. eine richtige Hypothese abzulehnen, dann beträgt das Signifikanzniveau α=0,05. Aussagen, denen eine Wahrscheinlichkeit von 95% zugrunde liegt, nennt man in der Prüfstatistik signifikant. Erhöht man das Signifikanzniveau auf α=0,01, wird von sehr signifikant gesprochen; bei α=0,001 von hoch signifikant. Symbolisiert wird das jeweilige Signifikanzniveau durch die Angabe von ein, zwei oder drei Sternchen (*, **, ***). Zu beachten ist, dass α und β nicht komplementär sind, d.h. man muss von Fall zu Fall entscheiden, welcher Fehler eher in Kauf genommen werden kann. Im wirtschaftlichen Bereich wird man sich beispielsweise an den ökonomischen Folgen orientieren, die mögliche Fehlentscheidungen mit sich bringen. Ist es sehr folgenschwer, die Nullhypothese fälschlicherweise abzulehnen, wird man das Risiko, einen Fehler 1. Art zu begehen, möglichst gering halten, d.h. ein hohes Signifikanzniveau wählen. Ist es dagegen sehr folgenschwer, die Nullhypothese fälschlicherweise anzunehmen, wird man das Signifikanzniveau geringer ansetzen. In der Literatur wird der Fehler 1. Art auch als Fabrikanten- bzw. Produzentenrisiko, der Fehler 2. Art als Kunden- bzw. Konsumentenrisiko bezeichnet. Bei der Durchführung von Hypothesentests wird folgende Vorgehensweise empfohlen:

149

1. Formulierung von Nullhypothese und Alternativhypothese sowie Festlegung des Signifikanzniveaus; 2. Festlegung einer geeigneten Prüfgröße und Bestimmung der Testverteilung bei Gültigkeit der Nullhypothese; 3. Bestimmung des kritischen Bereichs 4. Bestimmung des Wertes der Prüfgröße; 5. Entscheidung und Interpretation. 4.2

Parametertests

Im folgenden werden Parametertests für den Anteilswert (p) und das arithmetische Mittel (µ) der Grundgesamtheit behandelt und zwar jeweils für die zweiseitige und einseitige Fragestellung. Testverfahren für die Varianz bleiben unberücksichtigt. Wir beschränken uns ferner auf Einstichproben-Tests, d.h. mit Hypothesentests, die auf der Grundlage einer einzigen Stichprobe durchgeführt werden. Soll dagegen getestet werden, ob zwei unabhängige Stichproben, in denen dieselben Parametergrößen untersucht werden, aus der gleichen Grundgesamtheit stammen oder nicht, so wird von einem Zweistichproben-Test gesprochen. 4.2.1 Hypothesentest für den Anteilswert Für den Fall des zweiseitigen Tests lautet die Nullhypothese: H0 : p = p0, d.h. der unbekannte Parameter p der Grundgesamtheit ist gleich dem Anteilswert p0. Das kann ein empirischer, ein hypothetischer Wert oder eine Normgröße sein. Für die Alternativhypothese gilt: H1 : p ≠ p0, d.h. der unbekannte Parameter der Grundgesamtheit ist ungleich p0. Da wir H0 gegen H1 testen, muss festgelegt werden, wann eine Abweichung als statistisch signifikant gelten soll (Bestimmung des Signifikanzniveaus oder der Irrtumswahrscheinlichkeit). Im nächsten Schritt geht es um die Festlegung einer geeigneten Prüfgröße und die Bestimmung der Testverteilung bei Gültigkeit der Nullhypothese. Unterstellen wir, dass npq ≥ 9 gilt, dann ist der Stichprobenan∼ teilswert P näherungsweise normalverteilt. Als Prüfgröße verwendet man deshalb die standardisierte Zufallsvariable Z: ~ P - p0 Z= p 0 ⋅ (1 - p 0 ) n ∼ Anmerkung: Die Realisation von P ist der in der Stichprobe ermittelte Wert p-.

150

Da die Zufallsvariable Z standardnormalverteilt ist, kann als Stichprobenverteilung der Prüfgröße (Testverteilung) die Standardnormalverteilung herangezogen werden. Fortsetzung unseres Beispiels (Anteil der weiblichen Teilnehmer in der Grundgesamtheit): Wir gehen von der zweiseitigen Fragestellung aus. Es gilt somit: H0 : p = 0,40 H1 : p ≠ 0,40 Da npq ≥ 9 (80 · 0,40 · 0,60 = 19,2) ist, können wir annehmen, dass der Stichprobenanteilswert normalverteilt ist mit ∼ ∼ E (P) = p0 = 0,40 und σ² (P) = p0 · (1-p0)/n = 0,40 · 0,60/80 = 0,003. Der Korrekturfaktor bleibt unbeachtet unter der Annahme, dass n/N < 0,05 ist. Durch Einsetzen erhalten wir als Realisation der Prüfgröße Z z =

0,45 - 0,40 0,40 (1-0,40) 80

=

0,05 = 0,91. 0,24 80

Wählen wir als Signifikanzniveau α = 0,05, dann ist der Annahmebereich der Nullhypothese durch das Intervall z = ± 1,96 gegeben. Wir bezeichnen diesen kri-

tischen Wert mit zk, wobei z uk = -1,96 der untere kritische Wert und z ok = 1,96 der obere kritische Wert ist. Übertragen auf die Stichprobenverteilung des Anteilswertes ergibt sich der untere kritische Anteilswert aus ∼ u u p = p0 - z . σ (P) = 0,40 - 1,96 . 0,055 = 0,2922 k k und der obere kritische Anteilswert aus ∼ o o p = p0 + z . σ (P) = 0,40 + 1,96 . 0,055 = 0,5078 (vgl. Abb. 29). k k

Da in unserem Beispiel |z| ≤ zk ist, wird die Nullhypothese angenommen und die Alternativhypothese verworfen.

151

Abb. 29

Kritischer Bereich bei einem zweiseitigen Test 2

f (p/0,40; 0,055 )

α = 0,025 2 0

1 - α = 0,95

p u = 0,2922

p0 = 0,40

k

z

u k

= - 1,96

0

α = 0,025 2 p o = 0,5078 k

o

z k = 1,96

kritischer

Annahme -

kritischer

Bereich

Bereich

Bereich

H 0 ablehnen

H

0

annehmen

p z

H 0 ablehnen

Die Länge des Annahmebereichs hängt von dem vorgegebenen Signifikanzniveau ab. Es gibt die Wahrscheinlichkeit an, einen Fehler 1. Art zu begehen, d.h. H0 abzulehnen, obwohl H0 richtig ist. Bei einem einseitigen Test unterscheidet man einen rechtsseitigen und einen linksseitigen Fall. Beim rechtsseitigen Test wird die Nullhypothese H0 : p ≤ p0 gegen die Alternativhypothese H1 : p > p 0 getestet. Der Annahmebereich ist durch z ≤ zk und der Ablehnungsbereich durch z > zk gegeben (vgl. Abb. 30 )

152

Abb. 30

Kritischer Bereich beim rechtsseitigen Test

f (z)

1 - α = 0,95 α = 0,05

z

0 Annahme -

kritischer

Bereich

Bereich

H 0 annehmen

Abb. 31

z

k

H 0 ablehnen

Kritischer Bereich beim linksseitigen Test

f (z)

1 - α = 0,95 α = 0,05

-zk kritischer

Annahme -

Bereich

Bereich

H 0 ablehnen

z

0

H 0 annehmen

153

Analog ergibt sich der Annahme- und Ablehnungsbereich beim linksseitigen Test, bei dem die Hypothesen H 0 : p ≥ p 0 , H1 : p < p 0 gegeneinander getestet werden (vgl. Abb. 31 ) 4.2.2 Hypothesentest für das arithmetische Mittel Wir diskutieren wiederum zunächst die zweiseitige Fragestellung. Gegeben sei eine normalverteilte Grundgesamtheit mit den uns bekannten Parametern µ und σ. Außerdem liegt eine Zufallsstichprobe aus einer normalverteilten Grundgesamtheit mit unbekanntem Parameter µ vor. Die Standardabweichungen σ beider Grundgesamtheiten sind gleich. Getestet werden soll, ob die Stichprobe aus derselben Grundgesamtheit stammt. Die Nullhypothese und die Alternativhypothese lauten somit: H0 : µ = µ0

(d.h. µ - µ0 = 0)

H 1 : µ ≠ µ0

(d.h. µ - µ0 ≠ 0).

Wie bereits dargelegt, ist das arithmetische Mittel der Stichprobenwerte eine erwartungstreue Schätzung für den unbekannten Mittelwert µ der Grundgesamtheit. Als Prüfgröße wird die standardisierte Zufallsvariable X - µ0 Z= σ(X) gewählt, wobei σ ( X ) = σ/ n ist. Diese Größe ist standardnormalverteilt. Die kritischen Werte für den zweiseitigen Test ergeben sich somit aus der Tabelle der Standardnormalverteilung. Wird beispielsweise ein Test zum Signifikanzniveau α = 0,05 durchgeführt, dann ist der Annahmebereich der Nullhypothese wiederum durch das Intervall z = ± 1,96 gegeben. Beim einseitigen Test wird entweder H0 :

µ ≤ µ0

H1 :

µ > µ0

getestet oder H0 :

µ ≥ µ0

H1 :

µ < µ0

154

Im ersten Fall (rechtsseitiger Test) wird der Annahmebereich bei vorgebenem Signifikanzniveau α durch z ≤ zk bestimmt, im zweiten Fall (linksseitiger Test)

durch z ≥ -zk bzw. z ≤ |zk|.

Beispiel: In einer Verpackungsanlage werden Pakete abgefüllt, die ein Gewicht von 1000 Gramm haben sollen (Soll-Gewicht). Das tatsächliche Gewicht unterliegt gewissen Schwankungen. Es soll geprüft werden, ob das gegenwärtige Abfüllgewicht, das unbekannt ist, noch mit dem Sollgewicht übereinstimmt. Die Standardabweichung hingegen ist bekannt und beträgt 10 Gramm. Eine Stichprobe des Umfangs 90 ergibt ein durchschnittliches Abfüllgewicht von 1002 Gramm. Da Abweichungen vom Soll-Gewicht nach oben und nach unten gleichermaßen relevant sind, gehen wir von einem zweiseitigen Test aus. Als Nullhypothese und Alternativhypothese wird formuliert: H0 : µ = 1.000 H1 : µ ≠ 1.000 Das Signifikanzniveau wird mit α = 0,05 angesetzt, d.h. wir sind bereit, in 5 von 100 Fällen einen Fehler 1. Art zu begehen. Die Voraussetzung, dass das tatsächliche Gewicht der Pakete eine normalverteilte Zufallsvariable ist, betrachten wir als erfüllt. Als Prüfgröße verwenden wir deshalb: Z =

X-µ . σ(X)

Durch Einsetzen erhalten wir: z =

1.002 - 1.000 2 2 = = = 1,9 . 10 10 1,05 9,49 90

Da es sich um einen zweiseitigen Test mit dem Signifikanzniveau α = 0,05 handelt, ergeben sich aus Tab. A 1 die kritischen Werte, d.h. die Grenzen des Annahmebereichs von H0. Es gilt z = ± 1,96. Übertragen auf die Stichprobenverteilung des arithmetischen Mittels ergibt sich der untere kritische Wert aus bere kritische Wert x uk = 1.000 - 1,96 . 1,05 = 1.000 - 2,058 = 997,94 und der o

x ok = 1.000 + 1,96 . 1,05 = 1.000 + 2,058 = 1.002,06 (vgl. Abb. 32). Da |z| ≤ zk ist, wird die Nullhypothese angenommen. Die Maschine muss nicht neu eingestellt werden.

155

Abb. 32 Abb. 32

Kritischer Bereich bei einem zweiseitigen Test Kritischer Bereich bei einem zweiseitigen Test

_ 2 f ( x /1000; 1,05 ) _ 2 f ( x /1000; 1,05 )

0 0

1 - α = 0,95 1 - α = 0,95

α = 0,025 2 α = 0,025 2 _u x = 997,94 _ uk x k = 997,94 u

z = - 1,96 uk z = - 1,96 kritischer k kritischer Bereich

Bereich H 0 ablehnen H 0 ablehnen

µ = 1000 µ = 1000 0 0 Annahme Annahme Bereich -

Bereich H annehmen 0 H annehmen 0

α = 0,025 2 α = 0,025 2 _ x ok = 1002,06 _ x ok = 1002,06

_ x _ x

z k = 1,96 o z k = 1,96 kritischer kritischer Bereich

z z

o

Bereich H 0 ablehnen H 0 ablehnen

Bisher wurde davon ausgegangen, dass die Standardabweichung σ der GrundgeBisher davon σ der Grundgesamtheitwurde bekannt ist.ausgegangen, Wir nehmen dass nun die an, Standardabweichung dass die Standardabweichung unbekannt ist. bekannt Damit inist. diesem Fall die Prüfgröße berechnet werden kann, gilt es, eisamtheit Wir nehmen nun an, dass die Standardabweichung unbenen Wie wir berechnet bei der Intervallschätzung kanntgeeigneten ist. DamitSchätzwert in diesem zu Fallfinden. die Prüfgröße werden kann, giltgesehen es, einen geeigneten Schätzwert zuSchätzformel finden. Wiefür wir gesehen haben, verwendet manalsals für σ der die Intervallschätzung Standardabweichung der haben, verwendet man Schätzfunktion σbei Stichprobe haben, verwendet man als Schätzfunktion für σ 2 1 S= Xi - X ) , ( ∑ 2 1 S = n - 1 ∑ ( X i - X ) ., n -1 da diese Größe eine erwartungstreue Schätzung für das unbekannte σ darstellt. da diese Größe erwartungstreue Ersetzen wir in eine der Prüfgröße σ durchSchätzung S, so gilt: für das unbekannte σ darstellt. Ersetzen wir in der Prüfgröße σ durch S, so gilt: X-µ T = XS- µ T = Sn n Diese Zufallsvariable folgt wiederum einer t-Verteilung mit n-1 Freiheitsgraden. Die Werte (Rückweisungspunkte) bei einem zweiseitigen Test sind in Diesekritischen Zufallsvariable folgt wiederum einer t-Verteilung mit n-1 Freiheitsgraden. Die kritischen Werte Beispiel: (Rückweisungspunkte) zweiseitigen Test sind in Tab. A 3 enthalten. Für α = 0,05 bei undeinem ν = 10 ist der kritische Wert Tab. A 3 Man enthalten. Beispiel: FürTest α =auch 0,05alsund ν = 10 ist der kritische Wert tk = 2,228. bezeichnet diesen t-Test. tk = 2,228. Man bezeichnet diesen Test auch als t-Test.

156 156 156

4.3

Chi-Quadrat-Unabhängigkeitstest

Ein in den Sozialwissenschaften weit verbreitetes Testverfahren ist der Chi-Quadrat-Unabhängigkeitstest (χ2-Test). Der Chi-Quadrat-Test ist ein nicht parametrischer Test. Mit ihm lässt sich testen, ob zwei nominal skalierte (qualitative) Merkmale stochastisch voneinander unabhängig sind oder nicht. Die Vorgehensweise des Chi-Quadrat-Unabhängigkeitstests soll an dem Beispiel aus Tab. 8 erläutert werden. Dort wurden die Untersuchungsmerkmale "Geschlecht" und "Einstellung zur Statistik" in einer Kontingenztabelle dargestellt. Es geht nun darum zu prüfen, ob die Einstellung zur Statistik unabhängig davon ist, ob die Seminarteilnehmer weiblich oder männlich sind. Dabei wird unterstellt, dass es sich bei den Teilnehmern um eine Zufallsstichprobe aus einer größeren Grundgesamtheit handelt. Als Nullhypothese (H0) formulieren wir, dass die beiden Merkmale voneinander unabhängig sind. Die Alternativhypothese (H1) lautet dementsprechend: Die beiden Merkmale sind voneinander abhängig, d.h. es besteht eine stochastische Abhängigkeit. Diese Formulierung von H0 und H1 entspricht der Logik statistischer Signifikanztests: die Nullhypothese unterstellt keinen Zusammenhang zwischen den untersuchten Variablen, während die Alternativhypothese einen solchen Zusammenhang annimmt. Das Signifikanzniveau wird mit α = 0,05 vorgegeben. In einem weiteren Schritt sind die beobachteten absoluten Häufigkeiten der Merkmalspaarungen hij den bei Gültigkeit der Nullhypothese erwarteten absoluten Häufigkeiten hˆ ij gegenüberzustellen. Dazu folgende Überlegung: Die eindih.j hi. mensionalen relativen Häufigkeiten n und n (= Randverteilungen) können als Schätzwerte für die unbekannten Wahrscheinlichkeiten interpretiert werden. Aus der Wahrscheinlichkeitsrechnung ist bekannt, dass für den Fall der Unabhängigkeit der Multiplikationssatz der Wahrscheinlichkeitsrechnung herangezogen werden kann. Die bei Gültigkeit der Nullhypothese zu erwartenden relativen Häufigkeiten der Merkmalskombinationen lassen sich somit aus dem Produkt der relativen Häufigkeiten berechnen: hi. h.j hi. . h.j ^ . f ij = = . n n n2 Multiplizieren wir mit n, so erhalten wir die bei Gültigkeit von H0 zu erwartenden absoluten Häufigkeiten: h i. ^ . f ij n = h^ij =

. h. j n 157

(i = 1, 2, ..., m; j = 1, 2, ..., s). Aus Tab. 8 lassen sich mithilfe der Spalten- und Zeilensummen die bei Unabhängigkeit erwarteten absoluten Häufigkeiten hˆ berechnen. Für das linke obere ij

Tabellenfeld gilt beispielsweise: hi. . h.j 44 . 36 = = 19,8 80 n In der folgenden Tabelle sind alle Werte zusammengestellt (in Klammern die erwarteten absoluten Häufigkeiten): Tab. 18

Beobachtete und erwartete Häufigkeiten Einstellung zur Statistik (B)

Geschlecht A)

positiv (b1)

weibl. (a1)

24

männl. (a2)

20

Summe

(19,8) (24,2) 44

indifferent (b2) 8

(9)

12

(11)

negativ (b3) 4

(7,2)

12

20

(8,8) 16

Summe 36 44 80

Als Prüfgröße χ² wird folgende Beziehung genommen: s (hij - h^ij)² χ² = ∑ ∑ h^ij i=1 j=1 m

Es lässt sich zeigen, dass diese Größe näherungsweise einer Chi-Quadrat-Verteilung mit ν = (m-1) · (s-1) Freiheitsgraden folgt. Voraussetzung für die Anwendung der Chi-Quadrat-Verteilung ist, dass die erwarteten Häufigkeiten hˆ ij nicht zu klein sind. Als Faustregel gilt: hˆ ij ≥ 5. Diese Bedingung ist in unserem Beispiel in jedem der sechs Tabellenfelder erfüllt. Wir berechnen nun die Prüfgröße: χ² =

(-1)² (-3,2)² (-4,2)² (1)² (3,2)² (4,2)² + + + + + = 4,4076. 9 7,2 24,2 11 8,8 19,8

Aus der Tabelle der Chi-Quadrat-Verteilung (vgl. Tab. A 2) können wir die kritischen Werte in Abhängigkeit von verschiedenen Signifikanzniveaus und Frei158

heitsgraden entnehmen. Für unser Beispiel ist die Anzahl der Freiheitsgrade ν = (2-1) · (3-1) = 2. Da das Signifikanzniveau von α = 0,05 vorgegeben wurde, erhalten wir aus der Tabelle den kritischen Wert χ 2k = 5,99146. Wäre unsere errechnete Prüfgröße χ 2 > 5,99146, würde die Nullhypothese abgelehnt. Im konkreten Fall gilt jedoch χ 2 ≤ χ 2k , d.h. die Nullhypothese wird angenommen. Man kann davon ausgehen, dass die Einstellung zur Statistik nicht vom Geschlecht der Befragten abhängt.

159

4.4

Übungsaufgaben

Aufgabe 1 In einer Abfüllanlage für Fruchtsäfte ist der Sollwert auf 0,75 l pro Flasche eingestellt worden. Die tatsächliche Füllmenge schwankt mit einer Standardabweichung von 0,005 l um den Sollwert. Nach längerer Zeit wird überprüft, ob die Abfüllanlage noch den gesetzten Bedingungen entspricht oder neu eingestellt werden muss. Dazu wird eine Stichprobe von 100 Flaschen entnommen und auf ihre Abfüllmenge untersucht. Festgestellt wurde eine durchschnittliche Füllmenge von 0,752 l. Bestimmen Sie ein 95%-Konfidenzintervall für die durchschnittliche Abfüllmenge der Gesamtproduktion. Muss die Maschine neu eingestellt werden? (unterstellt wird, dass die Abfüllmenge eine Zufallsvariable ist, die einer Normalverteilung folgt). Aufgabe 2 Eine Stichprobenerhebung hat für 100 Arbeitnehmerhaushalte eines bestimmten Typs (4-Personen-Haushalt mit mittlerem Einkommen) ergeben, dass pro Jahr im Durchschnitt 2.800 EUR für Urlaubsreisen ausgegeben werden. Eine frühere Totalerhebung ergab einen durchschnittlichen Betrag von 2.850 EUR mit einer Standardabweichung von 300 EUR. Prüfen Sie, ob die in der Stichprobe beobachtete Abweichung zufällig zustande gekommen ist oder ob die Abweichung signifikant ist, d.h die Stichprobe stammt aus einer Grundgesamtheit mit einem anderen Mittelwert. Lösungen: Aufgabe 1 0,005 z = 1,96; σ(x- ) = = 0,0005 100 Konfidenzintervall 1-α = 0,95: 0,752 - 1,96 . 0,0005 ≤µ≤ 0,752 - 0,001 ≤µ≤ 0,751 ≤µ≤

0,752 + 1,96 . 0,0005 0,752 + 0,001 0,753

Da dieses Intervall den Sollwert von 0,75 l nicht mehr enthält, muss die Maschine neu eingestellt werden.

160

Aufgabe 2 Signifikanzniveau Nullhypothese: Alternativhypothese: Berechnung der Prüfgröße: Z=

X −µ σ/ n

=

α = 0,05 H0 : µ = µ0 = 2850 H1 : µ ≠ µ0 = 2850 ( zweiseitiger Test)

-50 2800 - 2850 = 30 = -1,67 300 / 100

Aus Tab. A1 ergeben sich die Grenzen des Annahmebereichs:

z uk = -1,96 und z ok = 1,96. Da beide Beträge absolut gleich sind, gilt vereinfacht

| z uk | = | z ok | = zk.

Da |z| ≤ zk ist, wird die Nullhypothese nicht abgelehnt, d.h. es kann angenommen werden, dass sich der durchschnittliche Ausgabenbetrag für Reisen in der Grundgesamtheit nicht geändert hat.

161

Anhang

236 162

Tabellen A 1. Standardnormalverteilung z

.00

.01

.02

.03

.04

.05

.06

.07

.08

.09

0.0

.5000

.4960

.4920

.4880

.4840

.4801

.4761

.4721

.4681

.4641

0.1

.4602

.4562

.4522

.4483

.4443

.4404

.4364

.4325

.4286

.4247

0.2

.4207

.4168

.4129

.4090

.4052

.4013

.3974

.3936

.3897

.3859

0.3

.3821

.3783

.3745

.3707

.3669

.3632

.3594

.3557

.3520

.3483

0.4

.3446

.3409

.3372

.3336

.3300

.3264

.3228

.3192

.3156

.3121

0.5

.3085

.3050

.3015

.2981

.2946

.2912

.2877

.2843

.2810

.2776

0.6

.2743

.2709

.2676

.2643

.2611

.2578

.2546

.2514

.2483

.2451

0.7

.2420

.2389

.2358

.2327

.2296

.2266

.2236

.2206

.2177

.2148

0.8

.2119

.2090

.2061

.2033

.2005

.1977

.1949

.1922

.1894

.1867

0.9

.1841

.1814

.1788

.1762

.1736

.1711

.1685

.1660

.1635

.1611

1.0

.1587

.1562

.1539

.1515

.1492

.1469

.1446

.1423

.1401

.1379

1.1

.1357

.1335

.1314

.1292

.1271

.1251

.1230

.1210

.1190

.1170

1.2

.1151

.1131

.1112

.1093

.1075

.1056

.1038

.1020

.1003

.0985

1.3

.0968

.0951

.0934

.0918

.0901

.0885

.0869

.0853

.0838

.0823

1.4

.0808

.0793

.0778

.0764

.0749

.0735

.0721

.0708

.0694

.0681

1.5

.0668

.0655

.0643

.0630

.0618

.0606

.0594

.0582

.0571

.0559

1.6

.0548

.0537

.0526

.0516

.0505

.0495

.0485

.0475

.0465

.0455

1.7

.0446

.0436

.0427

.0418

.0409

.0401

.0392

.0384

.0375

.0367

1.8

.0359

.0351

.0344

.0336

.0329

.0322

.0314

.0307

.0301

.0294

1.9

.0287

.0281

.0274

.0268

.0262

.0256

.0250

.0244

.0239

.0233

2.0

.0228

.0222

.0217

.0212

.0207

.0202

.0197

.0192

.0188

.0183

2.1

.0179

.0174

.0170

.0166

.0162

.0158

.0154

.0150

.0146

.0143

2.2

.0139

.0136

.0132

.0129

.0125

.0122

.0119

.0116

.0113

.0110

2.3

.0107

.0104

.0102

.0099

.0096

.0094

.0091

.0089

.0087

.0084

2.4

.0082

.0080

.0078

.0075

.0073

.0071

.0069

.0068

.0066

.0064

2.5

.0062

.0060

.0059

.0057

.0055

.0054

.0052

.0051

.0049

.0048

2.6

.0047

.0045

.0044

.0043

.0041

.0040

.0039

.0038

.0037

.0036

2.7

.0035

.0034

.0033

.0032

.0031

.0030

.0029

.0028

.0027

.0026

2.8

.0026

.0025

.0024

.0023

.0023

.0022

.0021

.0021

.0020

.0019

2.9

.0019

.0018

.0018

.0017

.0016

.0016

.0015

.0015

.0014

.0014

3.0

.0013

.0013

.0013

.0012

.0012

.0011

.0011

.0011

.0010

.0010

Quelle: Yamane (1964), Appendix, Table I

163 237

A 2. Chi-Quadrat (χ2)-Verteilung 5%-, 1%- und 0,1%-Schranken der χ2-Verteilung ν 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 60 70 80 90 100

χ20,05

χ20,01

3,84146 5,99146 7,81473 9,48773 11,0705 12,592 14,067 15,507 16,919 18,307 19,67 21,03 22,36 23,68 25,00 26,30 27,59 28,87 30,14 31,41 32,67 33,92 35,17 36,42 37,65 38,89 40,11 41,34 42,56 43,77 55,76 67,51 79,08 90,53 101,88 113,15 124,34

6,635 9,210 11,3449 13,2767 15,0863 16,81 18,48 20,09 21,67 23,21 24,72 26,22 27,69 29,14 30,58 32,00 33,41 34,81 36,19 37,57 38,93 40,29 41,64 42,98 44,31 45,64 46,96 48,28 49,59 50,89 63,69 76,15 88,38 100,42 112,33 124,12 135,81

Quelle: Sachs (1993), Tabelle A4.

164 238

χ20,001 10,83 13,82 16,27 18,47 20,52 22,46 24,32 26,13 27,88 29,59 31,26 32,91 34,53 36,12 37,70 39,25 40,79 42,31 43,82 45,31 46,80 48,27 49,73 51,18 52,62 54,05 55,48 56,89 58,30 59,70 73,40 86,66 99,61 112,32 124,84 137,21 149,45

A 3. Prozentpunkte der t-Verteilung (zweiseitige Verteilung)

ν 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 ∞

α

.10

.05

.02

.01

6.314 2.920 2.353 2.132 2.015 1.943 1.895 1.860 1.833 1.812 1.796 1.782 1.771 1.761 1.753 1.746 1.740 1.734 1.729 1.725 1.721 1.717 1.714 1.711 1.708 1.706 1.703 1.701 1.699 1.697 1.684 1.671 1.658 1.645

12.706 4.303 3.182 2.776 2.571 2.447 2.365 2.306 2.262 2.228 2.201 2.179 2.160 2.145 2.131 2.120 2.110 2.101 2.093 2.086 2.080 2.074 2.069 2.064 2.060 2.056 2.052 2.048 2.045 2.042 2.021 2.000 1.980 1.960

31.821 6.965 4.541 3.747 3.365 3.143 2.998 2.896 2.821 2.764 2.718 2.681 2.650 2.624 2.602 2.583 2.567 2.552 2.539 2.528 2.518 2.508 2.500 2.492 2.485 2.479 2.473 2.467 2.462 2.457 2.423 2.390 2.358 2.326

63.657 9.925 5.841 4.604 4.032 3.707 3.499 3.355 3.250 3.169 3.106 3.055 3.012 2.977 2.947 2.921 2.898 2.878 2.861 2.845 2.831 2.819 2.807 2.797 2.787 2.779 2.771 2.763 2.756 2.750 2.704 2.660 2.617 2.576

Quelle: Tab. A 3: Fisher and Yates: Statistical Tables for Biological, Agricultural and Medical Research, Edinburgh, entnommen aus: Senter (1969), S. 492.

165 239

Griechisches Alphabet Buchstabe Α Β Γ Δ

Name

Ζ Η

α β γ δ ε ζ η

Alpha Beta Gamma Delta Epsilon Zeta Eta

Θ Ι Κ Λ Μ Ν Ξ Ο Π Ρ Σ Τ Υ Φ Χ Ψ Ω

ϑ ι κ λ µ ν ξ ο π ρ σ, ς τ υ ϕ χ ψ ω

Theta Jota Kappa Lambda My Ny Xi Omikron Pi Rho Sigma Tau ypsilon Phi Chi Psi Omega

Ε

Lautwert a b g d e. z e-

th i k l m n x o . p r s t y ph ch ps

ο

166 240

Literaturverzeichnis Literaturverzeichnis Auer, B., Rottmann, H., W., Anderson, O., Popp,

Statistik und Ökonometrie WirtschaftswissenGrundlagen der Statistik.für Amtliche Statistik schaftler, Wiesbaden 2010. und beschreibende Methoden. Berlin u.a.

Backhaus, K., Erichson, B., Plinke, W., Weiber, R.,

Multivariate Analysemethoden, Berlin, Heidelberg 2010.

Schaffranek, M., Strenger, H., Szameitat, K. (1988),

Anderson, O., Popp, W., Schaffranek, M. (1997), Bamberg, G., Baur, F., Krapp, M. (2009),

Schätzen und Testen. Eine Einführung in Wahrscheinlichkeitsrechnung und Statistik. München. schließende Statistik. Berlin u.a.

Bamberg, G., Baur, F.G., (2006), Bleymüller, J., Gehlert, Gülicher, H. (2008),

Statistik. Statistik fürMünchen. Wirtschaftswissenschaftler. München.

Bleymüller, J., Gehlert, G. Bleymüller, J., Gehlert, G., (2011),

Statistische Formeln, Tabellen und Statistik für Wirtschaftswissenschaftler. Statistik-Software. München.

Bortz, J. (2005),

Statistik für Sozialwissenschaftler. Berlin/Heidelberg/NewYork. Statistische Formeln, Tabellen und

Bausch, Th. (1990),

Gülicher, H. (2004),

Bleymüller, J., Gehlert, G. (2003),

Bourier, G. (2010),

Bohley, P. (2000),

Stichprobenverfahren. München. München.

Programme. München.

Beschreibende Statistik. Wiesbaden.

Statistik - Einführendes Lehrbuch für Wirt-

Bourier, G. (2006),

Wahrscheinlichkeitsrechnung und schafts- und Sozialwissenschaftler. München. schließende Statistik. Wiesbaden.

Bortz, J. (2004),

Statistik für Human- und Sozialwissenschaft-

Bosch, K. (2003),

Statistik für Nicht-Statistiker. München.

Clauß, G., Finze, F.-R., Statistik Grundlagen. Für Soziologen, ler. Berlin/Heidelberg/New York. Partzsch, L. (2011), Pädagogen, Psychologen und Mediziner. Frankfurt/Main. Eckey, H.-F., Kosfeld, R., Bourier, (2005), Türck, M. G. (2008),

Deskriptive Statistik. Wiesbaden.

Bourier, G. Kosfeld, (2006), R., Eckey, H.-F., Türck, M. (2011)

Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung undund Induktive schließende Statistik. Wiesbaden. Statistik. Wiesbaden.

Fahrmeir, Künstler, R., Bühl, A. L., (2006), Pigeot, I., Tutz, G. (2009)

Statistik – Der Weg Datenanalyse. SPSS Version 14 -zurEinführung in die Berlin/Heidelberg/NewYork. moderne Datenanalyse unter Windows.

Hansen, G. (1985),

Methodenlehre der Statistik. München.

Clauß, G., Finze, F.-R.,

Beschreibende Statistik. Wiesbaden.

München.

Statistik Grundlagen. Für Soziologen,

Kreyszig, Partzsch,E.L.(1998), (2004),

Statistische Methoden und ihre Pädagogen, Psychologen undAnwendungen. Mediziner. Göttingen. Frankfurt/Main.

Kriz, J (1983),

Statistik in den Sozialwissenschaften. Opladen.

Eckey, H.-F., Kosfeld, R. (2005 a),

Deskriptive Statistik. Wiesbaden.

167 241

Sachs, (1993), Eckey,L.H.-F., Kosfeld, R., Türck, M. (2005 b)

Statistische Methoden: Planung und Wahrscheinlichkeitsrechnung undAuswerInduktive tung. Berlin u.a. Statistik. Wiesbaden.

Sachs, L.H.-F., (2003), Eckey, Kosfeld, R., Türck, M. (2002),

Angewandte MultivariateStatistik. Statistik.Berlin/Heidelberg/ Wiesbaden. NewYork.

Schira, I. (2009),

Statistische Methoden der VWL und BWL, Statistik. Berlin/Heidelberg/New York. München.

Hansen, G. (1985),

Schwarze, J. (2009a),

Grundlagen der Statistik I – Beschreibende Methodenlehre der Statistik. München. Verfahren. Herne/Berlin.

Hochstädter, D. (1996), Schwarze, J. (2009b),

Statistische Methodenlehre. Frankfurt/Main. Grundlagen der Statistik II – Wahrscheinlich-

Holland, H., Scharnbacher, K. (2003),

Grundlagen der Statistik. Wiesbaden. Berlin.

Janssen, J., Laatz, W. (2005),

Statistische Datenanalyse mit SPSS für Statistics, An Analyses. Windows. 5.,Introductory neu bearbeitete und New York/ London/Tokyo. erweiterte Auflage. Berlin.

Kellerer, H. (1966),

Statistik im moderen Wirtschafts- und Sozialleben. Hamburg.

Kinnear, P. R., Gray, C. D. (2006),

SPSS 14 made simple. Oxford.

Kreyszig, E. (1998),

Statistische Methoden und ihre Anwendungen. Göttingen.

Kriz, J (1983),

Statistik in den Sozialwissenschaften. Opladen.

Lehmann, G. (2002),

Statistik. Einführung in die mathematischen Grundlagen für Psychologen, Wirtschaftsund Sozialwissenschaftler. Heidelberg/Berlin.

Monka, M., Voß, W. (2005),

Statistik am PC. Lösungen mit Excel 97, 2000, 2002 und 2003. München/Wien.

Sachs, L. (1993),

Statistische Methoden: Planung und Auswertung. Berlin u.a.

Sachs, L., Hedderich, J. (2006),

Angewandte Statistik. Berlin/Heidelberg/ New York.

Fahrmeir, L., Künstler, R., Pigeot, I., Tutz, G. (2004)

Senter, R. J. (1969), Yamane, T. (1964),

keitsrechnung und induktive Statistik. Herne/ Analysis of Data. Illinois.

168 242

Stichwortverzeichnis

Deflationierung  108 f. Delphi-Methode 115 Dezile 43 Dichtefunktion  118, 123 Dichtester Wert (siehe Modus) Direkter Schluss  131, 138, 140

Abweichung - absolute  47 f. - erklärte  70 - nicht erklärte  70 Adäquationsproblem 17 Additionssatz  116, 119 Alpha-Fehler 148 Alternativhypothese 147 Annahmebereich 151 Approximation - Binomialverteilung durch Normalverteilung 125 - t-Verteilung durch ­Normalverteilung  144 Arithmetisches Mittel  39 ff., 94, 133, 136 Aufbereitung  23 f. Ausreißer  41, 42 Auswahlverfahren 131 Auswahlsatz 133 Axiome der Wahrscheinlichkeitsrechnung 115

Einfachregression  64 ff. Einheit, statistische  16 Elementarereignis 113 Ereignis - sicheres  114 - Komplementär-  116 Erhebung 23 Erwartungswert  119, 124, 126 explorative Statistik  14 Exzess 52 Fakultät 122 Fehler - erster Art  148 - zweiter Art  148 Fisherscher Idealindex  106 Fragestellung - einseitige  147, 150 - homograde  133 - heterograde  133 - zweiseitige  147, 150, 151, 154 Freiheitsgrade 143

Basisperiode 98 Bedingte Häufigkeitsverteilungen  61 Befragung 23 Beobachtung 23 Berichtsperiode 98 Bernoulli-Experiment 120 Bestandsfortschreibung  16 f. Bestandsmasse 15 Bestimmtheitsmaß  69 ff. Beta-Fehler 148 Bewegungsmasse 15 Binomialkoeffizient 123 Binomialverteilung  120 ff. Box-and-Whisker Plot  47

Geometrisches Mittel  45, 106 Gesamtheit, statistische  16 Gewichtung bei Indizes  101 f. Gini-Koeffizient 54 Gleichverteilungsgerade 53 Gleitende Durchschnitte  85 ff. Grundgesamtheit  16, 113, 131 Häufigkeit - absolute  27 - erwartete  62, 158 f.

Chi-Quadrat-Unabhängigkeitstest  157 ff.

169

- kumulierte absolute  30 - kumulierte relative  30 - relative  27 Häufigkeitsdichte 35 Häufigkeitstabelle  27, 30 f., 33 f., 59, 60 Häufigkeitspolygon 35 Häufigkeitsverteilung - bedingte  61 f. - eindimensionale  26 ff. - mehrdimensionale  26, 58 - zweidimensionale  58 ff. Häufigster Wert  44 Herfindahl-Index 53 Histogramm  34, 36 Hypergeometrische Verteilung  125 Hypothese - Alternativ-  147 - Bereichs-  147 - Null-  146 - Punkt-  147 Indexzahlen  98 ff., 109 f. Indirekter Schluss  131 f., 140 Intervallschätzung (siehe Konfidenzintervall) Intervallskala 20 Irrtumswahrscheinlichkeit 126, 149f. Klassenbildung  25, 32 f. Klassenmitte 33 Klassifizierte Daten  34 Kombinatorik 122 Komponenten - einer Zeitreihe  82 ff. Konfidenzintervall - für das arithmetische Mittel  140 - für den Anteilswert  144 ff. Konfidenzniveau 141 Kontingenz, quadratische  62 Kontingenztabelle 59

Konzentration - absolute  52 - maximale  53 - minimale  53 - relative  52 Konzentrationsmaße 52 Konzentrationsziffern  52 f. Korrekturfaktor  135 f. Korrelationsanalyse  72 ff. Korrelationskoeffizient - nach Bravais-Pearson  58, 73 ff. Kovarianz  74 f. Kreisdiagramm  28 f. Kritischer Bereich  152, 153, 154, 156 Kritischer Wert  151, 158 Kurtosis 51 Lageparameter  (siehe Mittelwerte) Lageregel 44 Lineare Einfachregression  66 Logarithmische Darstellung  95 Lorenzkurve  53 ff. Masse - Bestands-  16 f. - Bewegungs-  16 f. - korrespondierende  16 - statistische  16 Maßzahlen, statistische  39 f. Median  (siehe Zentralwert) Mehrfachregression 64 Mengenindex - nach Laspeyres  105 - nach Paasche  105 Merkmale - approximativ-stetige  19 - dichotome  133 f. - diskrete  17, 29 ff. - häufbare  18 - klassifikatorische  18 - metrische  17, 39,

170

- nicht häufbare  18 - ordinale  18 - qualitative  17 f. - quantitative  18 f. - stetige  18 Merkmalsausprägungen 17 Merkmalssumme 39 Merkmalsträger 16 Merkmalswert  24 f., 29 Messniveau  19 ff. Messziffern 98 Methode der - gleitenden Durchschnitte  85 ff. - kleinsten Quadrate  66 f., 88 ff. Mittel - arithmetisches  39, 98, 133, 136 ff. - geometrisches  45, 106 Mittelwerte  39 ff. Mittlerer Quartilsabstand  46 f. Modus 44 Momente  51 f. Multiplikationssatz 116  

Nominalskala 19 Normalgleichungen  66 f. Normalverteilung  125 ff. Nullhypothese 146 Ordinalskala  19 f. Parametertests  146, 150 ff. Perzentile 43 Phasendurchschnittsverfahren  92 ff. Poisson-Verteilung 125 Preisindex - nach Laspeyres  102 - nach Lowev106 - nach Paasche  104 Preisindizes  100 ff. Preismessziffern  100 f. Produkt-Moment-Korrelationskoef­ fizient  (siehe Korrelationskoeffizient nach Bravais-Pearson)

Quantile 47 Quartile  43, 46 Quartilsabstand - mittlerer  46 Quotenauswahlverfahren 132 Randverteilungen 59 Rangkorrelationskoeffizient nach Spearman  58, 77 ff. Regression - Einfachregression  64 ff. - Mehrfachregression  64 Regressionsanalyse  64 ff. - stochastisches Modell  69 Regressionsfunktion  66 ff. Reststreuung 71 Saisonindexziffern 94 Saisonkomponente  83, 92 ff. Saisonnormale 94 Schätzverfahren  140 ff. Schätzung - Intervall-  140 - Punkt-  140 Schiefe einer Verteilung  44 f., 47, 51 Signifikanzniveau  149 f. Skalentypen  19 ff. Spannweite 46 Stabdiagramm  28, 31, 124 Standardabweichung  49 f. Standardfehler  134, 137 Standardisierung 50 Standardnormalverteilung  127 ff. Statistik - amtliche  13, 109 - nicht amtliche  13 - beschreibende  13, 26 ff. - internationale  14 - schließende  14, 113 Stetigkeitskorrektur 134 Stichprobe  113, 131 Stichprobenanteilswert  133 ff.

171

Stichprobenfehler 132 Streuungsdiagramm  63 ff. Streuungsmaße  46 ff. Strichliste 24 Student-Verteilung 143 Summenhäufigkeiten - absolute  30 - relative  30 Summenhäufigkeitsfunktion 30, 35 Summenpolygon 36 Tabelle 25 Teilerhebung  21, 129 Testverfahren  146 ff. Trendfunktionen  88 ff. Trendextrapolation 92 Treppenfunktion  31 f. t-Test 156 Umbasieren  99, 107 Umsatzindizes 106 Unabhängigkeit - statistische  62 - stochastische  157 Urmaterial 24 Urnenmodell  120 ff., 135 Variable - abhängige  64 - unabhängige  64 Varianz  49 f., 119 Variationskoeffizient  50 f. Verhältnisskala 20 Verkettung  107 f. Verteilung - Binomial-  120

- Normal-  125 - t-  143 f. Vertrauensbereich (siehe Konfidenzintervall) Vollerhebung 23 Wägungsschema  103, 109 f. Wahrscheinlichkeitsbegriff - axiomatischer  115 - klassischer  114 - statistischer  114 - subjektiver  115 Wahrscheinlichkeitsdichte  128 f. Wahrscheinlichkeitsintervall 137 Wahrscheinlichkeitsrechnung - Additionssatz  116 - Multiplikationssatz  116 Wahrscheinlichkeitsverteilung  117 ff. Warenkorb  100, 103 Wertindizes  (siehe Umsatzindizes) Wölbung 52 Zeitreihenanalyse  82 ff. Zentraler Grenzwertsatz  130, 137 Zentralwert  42 ff. Ziehen - mit Zurücklegen  120, 133 - ohne Zurücklegen  125, 133 Zufallsauswahlverfahren 131 Zufallsereignis 113 Zufallsexperiment 113 Zufallsvariable - Begriff  117 - diskrete  117 - standardnormalverteilte  127 - stetige  117

172