Kleines Lehrbuch der Statistik: Für Naturwissenschaftler, Mediziner, Psychologen, Sozialwissenschaftler und Pädagogen [Reprint 2018 ed.] 9783111639826, 9783111257181


194 94 18MB

German Pages 263 [264] Year 1965

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Aus dem Vorwort zur ersten Auflage
Vorwort zur zweiten Auflage
Inhaltsübersicht
Einführung: Weltdeutung, Statistik und Selbstverständnis
I . TEIL: Statistische Aufbereitung
II. TEIL: Statistische Beschreibung
III. TEIL: Statistische Schätzungs- und Prüfverfahren
IV. TEIL: Statistische Analyse
V. TEIL: Übungen und Arbeitshilfen
Literatur
Sachregister
Recommend Papers

Kleines Lehrbuch der Statistik: Für Naturwissenschaftler, Mediziner, Psychologen, Sozialwissenschaftler und Pädagogen [Reprint 2018 ed.]
 9783111639826, 9783111257181

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

HASELOFF — HOFFMANN K L E I N E S L E H R B U C H DER

STATISTIK

KLEINES LEHRBUCH DER STATISTIK FÜR NATURWISSENSCHAFTLER, MEDIZINER, PSYCHOLOGEN, SOZIALWISSENSCHAFTLER UND PÄDAGOGEN VON

P R O F . D R . MED. O . W . HASELOFF

D I P L . - P S Y C H . H . J . HOFFMANN

BERLIN

BEELIN

2., neubearbeitete und erweiterte Auflage, mit 49 Figuren und einem Anhang statistischer Tafeln

W A L T E R

D E

G R U Y T E R

& C O .

VORMALS G. J . GÖSCHEN'SCHE VERLAGSHANDLUNG — J. GUTTENTAG VERLAGSBUCHHANDLUNG — GEORG REIMER — KARL J . TRÜBNER VEIT & COMP. B E R L I N

1965

Die erste Auflage dieses Buches entstand aus der Bearbeitung und Erweiterung von: Sten Henrysson, Elementar statistik; © der schwedischen Ausgabe by Ahnquist & Wikseil / Gebers Förlag A B Stockholm, 1957 Die Übersetzung besorgte Dipl. Psychologe Teut Wallner, Saltsjöbaden/Schweden

© Copyright 1965 b y Walter de Gruyter «Ss Co., vormals G. J. Göschen'sche Verlagshandlung, J. Guttentag, Verlagsbuchhandlung, Georg Reimer, Karl J. Trübner, Veit & Comp. Berlin 30, Genthiner Straße 13. Alle Rechte, auch die des auszugsweisen Nachdrucks, der fotomechanischen "Wiedergabe, der Herstellung v o n Mikrofilmen und der Übersetzung vorbehalten. Archiv-Nr. 6417651 — Printed in Germany. Satz und Druck: Walter de Gruyter & Co., Berlin 30

Aus dem Vorwort zur ersten Auflage Die hier vorliegende Einführung in die Statistik soll die Kenntnis der in der Psychologie, in den Sozialwissenschaften und in Biologie und Medizin gebräuchlichsten statistischen Methoden vermitteln. Diese Einführung wurde besonders mit dem Blick auf solche Leser geschrieben, die der Mathematik fernstehen und sich dennoch mit den grundlegenden Begriffen und Methoden der Statistik vertraut machen müssen. Abstrakte mathematische Überlegungen und Ableitungen wurden deshalb, soweit möglich, vermieden oder durch instruktive Beispiele erläutert, die sich ihrerseits auf praktische Probleme beziehen. Um die statistischen Methoden verstehen und anwenden zu können, ist es notwendig, die Lektüre durch das selbständige Durchrechnen von Beispielen zu ergänzen. In eister Linie sollte sich der Leser natürlich den in den Text eingearbeiteten Beispielen zuwenden, wobei er zur Übung die notwendigen Berechnungen selbst dann noch einmal durchführen sollte, wenn sie im Buche schon ausgeführt sind. Außerdem wäre es für den Leser ratsam, wenigstens einige der Übungsaufgaben am Ende des Buches durchzuarbeiten, um sich davon zu überzeugen, ob er die jeweils entsprechenden Methoden auch wirklich beherrscht. Die gesamte Darstellung ist zunächst hervorgegangen aus S T E N H E N R Y S S O N , Elementär statistik, 2. Auflage, Uppsala, 1959. Herr T E T J T W A L L N E R , Saltsjöbaden/Schweden, hat in kompetenter Weise die Übersetzung übernommen. Für die andersartigen Verhältnisse in Deutschland erwies es sich als zweckmäßig, den ursprünglichen Text zu erweitern, um eine Reihe statistischer Verfahren zu vermehren und durch weitere Rechenbeispiele zu erläutern. Darüber hinaus wurde das Buch durch drei weitere Kapitel vervollständigt, die in Theorie und Technik der Zeitreihen, der Varianzanalyse und des Planexperimentes sowie der Faktorenanalyse einführen. Berlin, Juli 1960

OTTO W .

HASELOFF

Vorwort zur zweiten Auflage Schon seit einiger Zeit ist die erste Auflage des ,,Kleinep Lehrbuchs der Statistik" vollständig vergriffen. Die Fertigstellung der hier nun vorliegenden zweiten Auflage hat sich deshalb etwas verzögert, da umfangreiche Erweiterungen, Präzisierungen und Neufassungen des Textes vorgenommen wurden. Die zweite Auflage stellt somit eine völlige Neubearbeitung des ,,Kleinen Lehrbuches der Statistik" dar. Die tabellarische Gegenüberstellung einiger Zahlen macht diese informationelle Erweiterung deutlich: 1. Auflage Formeln . . . . Tabellen . . . . Figuren . . . . Arbeitstabellen . Übungsaufgaben

57 51 31 7 37

2. Auflage 81 77 49 13 50

Insgesamt wurde der Anwendungsbereich der mitgeteilten Informationen und Arbeitstechniken erheblich erweitert. Dabei ging es im einzelnen um vermehrte Anwendung statistischer Denkmodelle auf konkrete Probleme und um einen Zuwachs an Anschaulichkeit und zugleich an Einsicht. Neue Arbeitstabellen und Übungsaufgaben sollen speziell für Anfänger eine Hilfe sein. Dabei verdanken wir viele den Verwendungswert des Buches verbessernde Anregungen den insgesamt 238 Besprechungen. Die Terminologie wurde dem internationalen Standard angepaßt. Dabei haben wir den Versuch unternommen, die in der Praxis der Sozialforschung üblichen Benennungen sowohl an Hand der DIN-Vorschriften, als auch an K E N D A L L und B U C K L A N D 1 ) ZU orientieren. Gleichfalls wurde bei der Festlegung der Begriffe das von der Deutschen Akademie für Bevölkerungswissenschaft herausgegebene ,, Wörterbuch demographischer Grundbegriff e"i) berücksichtigt. Allerdings stimmen diese drei Richtpunkte der Orientierung keineswegs überein. Dennoch hoffen wir, eine sinnvolle, praxis1 ) M. G. RENDAL U. W. R. BUCKLAND, A Dictionary of Statistical Terms, 2. Auflage, Oliver and Boyd, Edinburgh, London 1960. 2 ) W . WINKLEB, Mehrsprachiges demographisches Wörterbuch, Hamburg 1960.

VIII orientierte und damit sachgerechte Terminologie gefunden zu haben. Dies alles hat uns veranlaßt, sieben Kapitel neu zu verfassen. Dabei handelt es sich um folgende Teile des Buches: Kapitel Kapitel Kapitel Kapitel Kapitel Kapitel Kapitel

1: 2: 7: 9: 12: 14: 15:

Statistisches Zählen und Messen Skalierung Verteilungen Stichproben Prüfverteilungen Tendenzmaße Varianzanalyse.

Neu ist weiter in Kapitel 16 der Abschnitt „Faktorenanalytische Beschreibungsmodelle", sowie in Kapitel 17 der Abschnitt „Statistische Analyse von Zeitreihen". Wir hoffen, daß die 2. Auflage unseres „Kleinen Lehrbuches der Statistik" dem Leser einen guten Weg eröffnet, sich lernend, erkennend und übend in die Erkenntnismöglichkeiten und Leistungsformen der Statistik einzuarbeiten. Der Inhalt des vorliegenden Buches findet eine detaillierte Ergänzung. Diese betrifft besonders die Problemanalyse, die Anlage und Planung statistischer Untersuchungen sowie die Technik ihrer Durchführung, Auswertung und Interpretation, siehe hierzu unser demnächst erscheinendes: „Kleines Lehrbuch der praktischen Sozialforschung". OTTO W .

B e r l i n , Juni

1965

H.

J.

HASELOFE

HOFFMANN

Inhaltsübersicht Aus dem Vorwort zur ersten Auflage Vorwort zur zweiten Auflage Einführung: Weltdeutung, Statistik und Selbstverständnis

V VII 1

I. Teil: Statistische Aufbereitung Kapitel 1: Statistisches Zählen und Messen Kapitel 2 : Skalierung Kapitel 3 : Tabulierung

23 26 29

I I . Teil: Statistische Beschreibung Kapitel 4 : Mittelwerte

43

Kapitel 5 : Streuungsmaße Varianz Standardabweichung Variabilitätskoeffizient

51 53 54 56

Kapitel 6 : Vorteile provisorischer Skalen

58

Kapitel 7 : Verteilungen Empirische Verteilungen Binomialverteilung Poisson Verteilung Normalverteilung Standardisierte Normalverteilung t-Verteilung

64 64 68 72 75 80 86

Kapitel 8 : Korrelationsmaße Regression Produktmomentkorrelation Partielle Korrelationen Zwei-Zeilen-Korrelationen Punkt-Zwei-Zeilen-Korrelationen Vierfelderkorrelation und Phi-Koeffizient Rangkorrelationen Scheinkorrelationen

87 88 90 97 99 101 102 104 105

I I I . Teil: Statistische Schätzungs- und Prüfverfahren Kapitel 9 : Stichproben Stichprobe und Grundgesamtheit Stichprobentechnik Stichproben Verteilung

109 109 111 113

Kapitel 10: Mutungsbereiche Mutungsbereiche für Mittelwerte Mutungsbereich für Unterschiede zwischen Mittelwerten Mutungsbereich für Standardabweichungen

117 117 123 127

X Mutungsbereich für Prozentwerte Mutungsbereich f ü r Korrelationskoeffizienten

128 129

Kapitel 11: Hypothesenprüfung Nullhypothese und Alternativhypothese Signifikanz von Unterschieden zwischen Mittelwerten paarweise geordneten Gruppen Standardabweichungen Prozentwerten Signifikanz von Korrelationskoeffizienten

131 131 135 139 141 142 143

Kapitel 12: Prüfverteilungen ^-Verteilung -F-Verteilung

145 145 146

Kapitel 13: Übereinstimmung empirischer und theoretischer Verteilungen (Chi-Quadrat-Test) 148 IV. Teil: Statistische Analyse Kapitel 14: Tendenzmaße Majoritätsmaß Ambitendenz- und Konvergenzmaß Konformitätsmaß

157 158 159 161

Kapitel 15: Varianzanalyse 165 Einfache Varianzanalyse 165 Regressionslinien und ihre Prüfung mit Hilfe der Varianzanalyse 171 Planexperiment 180 Kapitel 16: Faktorenanalyse Faktorenanalytische Beschreibungsmodelle Rechengang der Paktorenanalyse Deutung der Faktoren Rotation

182 182 189 194 195

Kapitel 17: Zeitreihen Interpolation und Extrapolation Zeitreihenzerlegung Statistische Analyse von Zeitreihen

199 201 203 208

V. Teil: Übungen und Arbeitshilfen Kapitel 18: Übungsaufgaben

217

Kapitel 19: Arbeitstabellen A. Log 1—1000 B. Log 1000—2000 C. Quadrate D. Dritte Potenzen E . Normalverteilung P. Binomialkoeffizienten G. z-Werte (unterhalb) H. z-Werte (zwischen) J . t-Verteilung

226 226 228 231 233 236 238 239 239 240

XI K. L. M. N.

Umrechnungstafel für r in z (nach FJSHER) . . . . Chi-Quadrat-Verteilung .F-Tabelle für p = 5% .F-Tabelle für p = 1%

Kapitel 20: Lösungen der Übungsaufgaben

241 242 243 244 245

VI. Teü: Anhang Literatur Sachregister

248 251

Einführung Weltdeutung, Statistik und Selbstverständnis v o n 0 . W . HASELOFF,

Berlin

Statistik ist, wie manches andere in der Welt, zugleich sehr alt und sehr jung. Die Zählung von Personen, Vieh oder Vorräten ist bereits im Altertum durchgeführt worden. Etwa 3000 v. Christus fand in Ägypten eine Volkszählung statt, die die personellen Voraussetzungen für den Bau von Pyramiden zu sichern hatte. Der römische Zensus und die in Lucas I I , 1 erwähnte Volkszählung sind weitere Beispiele dafür, daß im Institutionsgefüge von Staaten seit jeher ein Bedarf nach einer eindeutigen, zahlenmäßig formulierten Information bestanden hat. Auch in China sind sehr früh Volkszählungen durchgeführt worden. Das frühe Mittelalter verfaßte in Gestalt der Kapitularien bereits zur Zeit Karls des Großen Güter- und Besitz Verzeichnisse, die nicht nur Personen, sondern auch Wohnräume aller Art, Getreidebestände und Vieh nach Arten und Alter getrennt aufführten. Elemente der Volkszählung enthält dann auch das Domesdaybook, die von Wilhelm dem Eroberer 1085 durchgeführte Erhebung der Einwohnerzahlen (aufgegliedert nach Ständen), der Viehzahlen und des Grundbesitzes. Im 14. Jahrhundert entstanden dann in Deutschland die sogenannten Landbücher, die gleichfalls quantitative Angaben über die Bevölkerung mit einem Grundstückskataster verbinden. Zu Beginn der Neuzeit konstituierte sich eine empirisch orientierte Staatslehre als selbständiger Wissenszweig. Dieses Ereignis war eine Folge der neuen, die theokratische Reichsidee des Mittelalters mehr und mehr verdrängenden Erkenntnis, daß Staaten weltliche, durch weltliche Herrscher regierte Sozialgefüge sind. Keineswegs zufällig war das neue Staatsdenken eng mit sozialökonomischen Wandlungen verbunden, die im Übergang von meist engräumigen, selbstgenügsamen und noch nicht bilanzierenden Naturalwirtschaften zu einem weltweiten Fernhandel gipfelten. Mit dieser Entwicklung ging eine außerordentliche Erweiterung individueller Daseinserfahrung einher. 1

Haseloff, Statistik, 2. Aufl.

2

Einführung

Die allmählich wachsende Kenntnis anderer Staaten und fremdartiger Kulturen ließ immer mehr an der Berechtigung der bis dahin vorherrschenden ethnozentrischen Bewertung alles Fremden zweifeln. Während eine traditionalistische Gegenströmung überall in Europa um die Verteidigung der ethnozentrischen Weltdeutung und der in ihr verankerten Vorurteile bemüht war, nahm die durch Fernhandel und wachsende Weltkenntnis ausgelöste Neuorientierung ihren Fortgang; dabei wurde auch das Bedürfnis immer dringlicher, die Lebensformen, die Produktion und den staatlichen Aufbau des eigenen Volkes mit der Größe, dem Wirtschaftsleben und den Organisationsformen anderer Völker vorurteilsfrei zu vergleichen. Der unterschiedlichen Struktur der Sozialgebilde wegen aber konnten solche Vergleiche zuverlässig nur in Form einer verläßlich abzählenden Inventarisierung gelingen. Der die Expansion Europas einleitende Außenhandel und der in der Mitte des 16. Jahrhunderts einsetzende Merkantilismus wurden dadurch entscheidend gefördert, daß viele, ihrer Art und Beschaffenheit nach unterschiedliche Waren und Dienstleistungen in dem abstrakten Medium des Brief- und Termingeldes gegeneinander austauschbar wurden. Das radikal Neuartige hieran war die Abbildung einer anschaulichen Mannigfaltigkeit konkreter Dinge und Leistungen auf unanschauliche, homogene und eindeutig aufeinander abbildbare Geldsysteme. Die damit erreichte Stufe eines die anschauliche Welt auf quantitativ-metrische Strukturen reduzierenden Denkens stellt, in seiner Übertragung auf außerökonomische Erfahrungsbereiche, zugleich die unerläßliche Voraussetzung für die Entstehung der neuzeitlichen Naturwissenschaft dar1). Der Aufstieg der von G A L I L E I konzipierten scientia nuova folgte im wesentlichen dem Abbau jener Hindernisse gegen die Einführung der „Rechenkunst" als Unterrichtsfach an den hohen Schulen, die sich aus der mittelalterlichen Weltdeutung2) ergaben. Eine neue Stufe des abstrakten Denkens wurde gegen 1580 mit der Erfindung des Buchstabenrechnens und der mathematischen Formelsprache durch FBAÜCOIS V I E T A erreicht. Sehr rasch wurde dann die verfeinerte Rechenkunst ein Mittel auch zur genaueren *) Eine der ersten praktischen Anwendungen der neuen naturwissenschaftlichen Methode, qualitative Phänomene durch ihre Reduktion auf quantitative Verhältnisse zu erklären, waren — worauf MAX WEBER hinweist — Untersuchungen an sog. Experimentierklavieren, mit deren Hilfe die regelhaften Beziehungen zwischen Tonhöhe und Saitenlänge zahlenmäßig erfaßt werden konnten. 2 ) Zur genaueren Strukturanalyse der mittelalterlichen Kosmologie, die die unbelebte Welt mit Hilfe der Sozialmodelle der damaligen Herrschaftsordnung deutete, siehe vor allem ERNST TOPITSCH, Vom Ursprung und Ende der Metaphysik, Wien 1958.

Einführung

3

Bestandsaufnahme der Bevölkerung und der Wirtschaft innerhalb der sich festigenden Nationalstaaten. Für die zunehmend rational und merkantilistisch sich organisierenden Wirtschaftsgefüge wurde es wichtig, langfristige und möglichst verläßliche Prognosen des wirtschaftlichen Bedarfs, der Produktions- und Steuerkapazität sowie damit auch der Bevölkerungsbewegung stellen zu können. 1 6 5 7 hatte H U Y G E N S mit den Anfängen einer „Theorie des Zufalls" die hierzu erforderliche Grundlage der Wahrscheinlichkeitsrechnung geschaffen, die in ihren konkreten Anwendungen gestattete, Grad und Richtung von Veränderungen der sozialen Wirklichkeit im voraus abzuschätzen. Fast gleichzeitig, im Jahre 1 6 6 0 , begründete CONBING an der Universität Helmstedt die Sozialstatistik und führte die empirische Erfassung staatswichtiger Sachverhalte unter dem Titel „Notitia rerum publicarum" als akademisches Fach an den deutschen Universitäten ein. Auch A C H E N W A L L und SCHLÖZEB in Göttingen sowie B Ü S C H I N G in Berlin beschäftigten sich mit Statistik als der „Wissenschaft von den Staatsmerkwürdigkeiten". Diese vor quantitative Staatswissenschaft läßt bereits das neue Bedürfnis nach empirischer Durchdringung des politisch-sozialen Raumes erkennen. Detaillierte und zugleich quantitative Untersuchungen der Bevölkerungs- und Wirtschaftsstruktur eines großen Gemeinwesens führte der Kurzwarenhändler und Stadtrat von London J . G K A U N T durch. 1662 erschien sein Werk „Natural and political observations mentioned in a following index and made upon the bills of morality". Der Untertitel dieser Schrift lautet charakteristischerweise: „Chiefly with Reference to the Government, Religion, Trade, Growth, Air, Disease etc. of the City of London". Die fünfte Auflage dieses grundlegenden Werkes wurde nach dem Tode G B A U N T S von Lord P E T T Y — einem der ersten Verfasser einer „politischen Arithmetik" — dem neuesten Stand entsprechend herausgegeben. Wie eng in der Ursprungssituation des empirisch-rationalen Denkens die Beziehungen von Naturforschung, Sozialwissenschaft und Wirtschaft noch waren, zeigt die Tatsache, daß H A L L E T — der Entdecker des nach ihm benannten Kometen — mit einer versicherungsstatistischen Arbeit 3 ) hervortrat. Die durch den Fernhandel ausgelöste sozialkulturelle Entwicklung hatte auf allen Gebieten des Lebens das Bestreben erweckt, unvermeidliche Risiken durch kalkulierte Schätzungsverfahren 3 ) E. HALLEY, First Life Insurance Tables. In: „Philosophical Transactions", Vol. XII, London 1693. HALLEY führte hierzu eine sozialstatistische Untersuchung der Stadt Breslau durch, um im Vergleich zur Seestadt London die Bedeutung der Tuchindustrie beider Städte für die Bevölkerungsbewegung zu prüfen.

l*

4

Einführung

tragbar zu machen. So erschienen 1696 erstmals die Schiffahrtsnachrichten der im „Lloyd" vereinigten privaten Versicherungsunternehmer. In den dem Seehandel abgewandten Staaten setzten sich derartige Interessen und Denkweisen dagegen erst mit einer Verzögerung von einigen Jahrzehnten durch. Nachdem 1713 J A C O B B E R N O U L L I S „Ars conjectandi" als eine erste formalisierte Zusammenfassung der mathematischen Kombinatorik und Wahrscheinlichkeitslehre posthum erschien, begann auch in Deutschland — parallel zu einer „Statistik" 4 ) im Sinne A C H E N W A L L S — die Entwicklung einer „politischen Arithmetik". Als deren theoretischer Begründer darf neben dem vor allem praktischen Fragen zugewandten P E T T Y der Pfarrer J . P . S Ü S S MILCH gelten. In seinem 1741 erschienenen Hauptwerk „Göttliche Ordnung in den Veränderungen des menschlichen Geschlechts aus der Geburt, dem Tode und der Fortpflanzung desselben erwiesen" entwickelt S Ü S S M I L C H bereits viele leistungfähige Methoden der beschreibenden Statistik. Dieses Werk wurde von C H R I S T I A N W O L F F „als Probe, wie die Wahrscheinlichkeitstheorie zum Gebrauch im menschlichen Leben verwertet werden könne", bezeichnet. I n der Widmung seines Werkes an F R I E D R I C H II. von Preußen betont S Ü S S M I L C H , daß die von ihm vorgetragenen Ergebnisse auf „Anmerkungen" (d. h. auf Beobachtungsdaten) beruhen, „ohne welche alles Nachdenken vergeblich sein würde". Während bei S Ü S S M I L C H Methodik und Beweistechnik seiner „politischen Arithmetik" empirisch und mathematisch orientiert sind, beziehen sich die Motive seiner Forschung auf den Nachweis einer gottgewollten Naturordnung. Dem gegenüber standen die englischen Begründer der „politischen Arithmetik" pragmatischen und wirtschaftlich bedingten Fragestellungen (Versicherungswesen usw.) näher. Dennoch war auch in England die empirische Untersuchung der Bevölkerung durch religiöse Bürokratie behindert. Erst 1801 wurden — im Zuge der industriellen Revolution und der mit ihr verbundenen Neueinschätzung der Arbeitskraft — in einer großen Volkszählung erstmalig auch Dissidenten und Agnostiker mitgezählt. Bis zum Ende des 18. Jahrhunderts beschränkte sich die „politische Arithmetik" auf die quantitative Erforschung direkt überschaubarer sozialer Prozesse. Mit dem Aufkommen der modernen industriellen Massengesellschaft und der wachsenden Abstraktheit und Verwickeltheit ihrer sozialökonomischen Wirkungsgefüge dagegen treten die Probleme der Großzahlforschung (Variations4 ) GOTTFRIED ACHENWALL führte 1748 den Begriff „Statistik" ein, definierte ihn jedoch rechtsnormativ als „die Lehre von der Staatsverfassung eines oder mehrerer Staaten".

Einführung

5

statistik) und der Sticliprobenmethoden immer mehr in den Vordergrund. Insbesondere wurde eine Neufassung des Wahrscheinlichkeitsbegriffes dergestalt notwendig, daß seine Definition prinzipiell eine unendliche Zahl von Ereignissen mit einbezieht. Dem Übergang zur industriellen Massengesellschaft entsprach also keineswegs zufällig die Entwicklung neuartiger statistischer Verfahren, die vor allem Induktionsschlüsse von erreichbaren Stichproben auf die nicht mehr insgesamt erfaßbare Gesamtpopulation methodisch zu sichern suchten. Während die frühe Sozialstatistik ihre logischen Operationen im Rahmen vollständig abzählbarer Mengen vollzog, wurde es nun notwendig, das mathematische Wahrscheinlichkeitskalkül zum Fundament einer Statistik zu machen, deren Hauptaufgabe das Finden möglichst verläßlicher Schätzungen aus nicht mehr vollständig abzählbaren Populationen und Ereignissen geworden war. Daß bei hinreichend gleichbleibenden Bedingungen die bisher festgestellte Häufigkeit eines Ereignisses innerhalb bestimmter Grenzen auch für die Zukunft zu erwarten ist, hatte als erster A B R A H A M D E M O I V R E ( 1 6 6 7 — 1 7 5 4 ) erkannt. M O I V E E war nach London geflüchtet und bestritt seinen Lebensunterhalt durch den Verkauf von Gewinnsystemen für das Roulette-Spiel. Bei seiner Analyse des Glücksspiels erkannte er, daß beispielsweise bei lange fortgesetztem Hochwerfen von Münzen die Anzahl der Vorderseiten eine Zufallsstreuung zeigt, die der binomischen Entwicklung (0,5 + 0,5)™ entspricht und sich mit wachsendem n einer konstanten Größe nähert. Praktische Konsequenzen dieser Entdeckung blieben zunächst aus, da hinreichend große Serien empirischer Daten noch nicht zur Verfügung standen. Keineswegs im Bereich staatswichtiger Sachverhalte, vielmehr im Erfahrungsraum der Astronomie vollzog sich die Anwendung dieser neuen statistischen Betrachtung durch L A P L A C E 6 ) ( 1 7 4 9 — 1 8 2 7 ) und C . F . G A U S S ( 1 7 7 7 — 1 8 5 5 ) . 1 8 2 3 schufen dann C . F . G A U S S mit seinen fehlertheoretischen Forschungen 8 ) und später G. T H . F E C H NER mit seiner „Kollektivmaßlehre" 7 ) die heute noch leistungsfähigen Grundlagen moderner Statistik. Bei vielfältig differenzierten und präzisierenden Entwicklungen ist die Grundstruktur der statistischen Verfahren seit dieser Zeit im wesentlichen die gleiche geblieben. Zugleich hat sich seit dieser Zeit die Statistik immer erneut mit dem gefühlsbedingten Einwand auseinanderzusetzen, daß ihre seelenlosen, mechanistischen Denkweisen auf das mensch5

) LAPLACE, Essai philosophique des probabilités (1814). ) A. BORSCH und P. SIMON, Abhandlungen zur Methode der kleinsten Quadrate von Carl Friedrich Gauß, Berlin 1887. 7 ) G. T. FECHNER, Kollektivmaßlehre, herausgegeben von LIPPS, Leipzig 6

1897.

Einführung

6

liehe Handeln überhaupt nicht angewendet werden dürfen. So hat sich 1 8 7 7 der bedeutende Statistiker W I L H E L M L E X I S 8 ) selbst die Frage gestellt: „Aber sind wir erfahrungsmäßig jemals wirklich berechtigt, mit derselben Bestimmtheit in dieser Weise das menschliche Handeln vorauszusagen, wie wir z. B. behaupten dürfen, daß sooft ein elektrischer Strom ein Stück Eisen umkreist, das letztere magnetisch wird?" Er gelangt zu der bejahenden Antwort: „Die concreten Massenerscheinungen des Menschenlebens sind nun offenbar analog jenen unauflöslichen Massenerscheinungen der Natur". I n den Naturwissenschaften, insbesondere in der Physik, ist die verstärkte Anwendung statistischer Methoden auf sehr viel weniger Bedenklichkeit als in den Sozialwissenschaften gestoßen. Dies dürfte darin mitbegründet sein, daß die Mehrzahl der Menschen heute kaum mehr den Anspruch erhebt, aus eigener Erfahrung zu physikalischen Gesetzen, Methoden und Theorien Stellung nehmen zu können. Dies war keineswegs immer so: Theologen und Schriftsteller, Staatsmänner und Künstler haben sich durchaus kompetent gefühlt, sich zu schwierigen astronomisch-physikalischen Problemen argumentierend und überzeugt zu äußern. Die endgültige Durchsetzung des heliozentrischen Weltbildes gegen Ende des 17. Jahrhunderts hatte für Weltdeutung und Selbstverständnis entscheidende Folgen: die Unzulänglichkeit einer Erklärung der Natur mittels soziomorpher (von der Familie, der Kirchenhierarchie und der traditionalen Herrschaftsordnung abgeleiteter) Denkmodelle war beweisbar geworden. Die Verbreitung der Einsicht in diese Tatsache brachte die seitdem bestehende Abwendung der Allgemeingebildeten von den großen Fragen der Naturforschung mit sich. Insgesamt resultierte aus dieser Entwicklung, daß die statistischen Verfahren, ursprünglich zur Klärung sozialer Fragestellungen erarbeitet, im Laufe der Zeit ihre erfolgreichste Bewährung und Weiterentwicklung zunächst im Bereich der Physik fanden. Der Aufbau einer kinetischen Theorie der Gase stellt eine erste große Leistung der statistischen Betrachtung in der Physik dar. Mit Hilfe einer statistischen Interpretation auch thermodynamischer Prozesse gelang es dann 1 8 7 7 B O L T Z M A N N , die Nichtumkehrbarkeit dieser Prozesse genauer klar zu machen. Die Zunahme an Entropie in allen thermodynamischen Prozessen erwies sich nun als nur wahrscheinlichkeitstheoretisch ableitbar. Die rasch einsetzende Bewährung der modernen Quantenmechanik seit dem Beginn unseres Jahrhunderts machte dann deutlich, daß Ereignisse im atomaren Bereich nicht dynamisch8

) W. LEXIS, Zur Theorie der Massenerscheinungen in der menschlichen Gesellschaft, Freiburg/Br. 1877.

Einführung

7

9

kausal ) interpretiert werden können, daß sie adäquat vielmehr nur mit Hilfe der sogenannten Quantenstatistik zu beschreiben sind. Darüber hinaus werden auch die „Gesetze" der klassischen Mechanik heute von den weitaus meisten Physikern als Grenzfall statistischer Regelmäßigkeiten angesehen. Der Nachweis der Notwendigkeit und Überlegenheit statistischer Denkmodelle für die Physik ist ebenso unabsehbar folgenreich für Weltdeutung und Selbstverständnis des zeitgenössischen Menschen wie für das Mittelalter die Auflösung des geozentrischen Kosmos und der mit ihm verbundenen Idee des „kosmischen Königtums". Die dem mittelalterlichen Weltbild entgegengesetzte klassische Mechanik konstituierte dann Natur-„Gesetze" und folgte damit der Erwartung, daß die Geregeltheit der Natur analog ist der Ordnung menschlichen Zusammenlebens durch Gesetz und Institution. Der anschaulich-geschlossene mittelalterliche Kosmos hatte seine Gestalt und seine Sinngehalte aus der Projektion der theokratischpersonalen Sozialordnung auf die unbelebte Natur gewonnen. Die Aufklärung und das Weltbild der klassischen Mechanik konzipierten demgegenüber eine unendliche und damit unanschauliche Welt, die die Sinnfrage nicht zuläßt, die dafür aber die Vorgänge der unbelebten Natur zu erklären vermag. Dieser Revolution des Weltbildes entspricht sozialhistorisch eine Machtverschiebung vom personalen Herrscher „von Gottes Gnaden" auf unpersönliche, allgemeingeltende Gesetze. Die im 20. Jahrhundert von der Physik bis zur Biologie hin sich durchsetzende statistische Betrachtungsweise aber erzwingt nun die Einsicht, daß auch in der Erwartung von „Gesetzen" die vorausgesetzte Geordnetheit der Welt 10 ) noch überschätzt wird. Zugleich aber mit dem prinzipiellen Zweifel an der Legitimität der soziomorphen Modellfragmente in der Naturforschung haben die erkenntnistheoretischen Konsequenzen der Quantenstatistik auch der uneingeschränkten Anwendbarkeit des Kausalmodells den Boden entzogen. Dies nun bedeutet nicht weniger als den unwiederbringlichen Verlust einer Weltdeutung, die gewohnt war, sich alles Angetroffene mit Hilfe des von der menschlichen Handlung abgeleiteten Verursachungsmodells zu erklären. Der Beginn des 20. Jahrhunderts ist also mit dem gleichzeitigen Legitimitätsverlust der anthropomorphen und der soziomorphen 9 ) M A X PLANCK, Wege zur physikalischen Erkenntnis, Leipzig 1 9 3 4 . PLANCK teilt die physikalischen Vorgänge in entweder dynamische oder

statistische ein. Nach ihm ist ein Vorgang nur dann als dynamisch-kausal bestimmt anzusehen, wenn er sich als Einzelereignis mit prinzipiell unbeschränkter Genauigkeit voraussagen läßt. 10 ) Dem menschlichen Bedürfnis nach eindeutiger anschaulicher Ordnung folgend

8

Einführung

Weltdeutung verbunden. Es ist keineswegs ein Zufall, daß seitdem die „Heimatlosigkeit" und „Ungeborgenheit" des Menschen in der Welt zusammen mit dem „Verlust der Mitte" (SEDLMAYR) ZU einem dauernden Thema bekümmerter Selbstreflektion geworden ist 11 ). Während in unserer modernen Gesellschaft traditionell Gebildete die statistische Betrachtungsweise der heutigen Naturwissenschaft hinzunehmen genötigt sind, finden sie sich andererseits kompetent, die gleiche Betrachtungsweise ungeprüft abzulehnen, sobald sie sich auf menschliches Verhalten bezieht. Diese Unterschiedlichkeit des Stellungnehmens wird zweifellos mitbedingt durch die Kompliziertheit der Wissenschaftssprache und der Denkmodelle moderner Naturwissenschaften. Wichtiger aber dürfte in diesem Zusammenhang doch die verbreitete Überzeugung sein, daß Naturforschung die Sache einseitiger Spezialisten ist. Geht es jedoch um die Kenntnis der „Gesetze" menschlichen Handelns und Zusammenlebens, so fühlt sich jeder nicht nur zuständig, sondern meist auch schon vorweg im Besitz des abschließend „richtigen" Urteils. Jede Betrachtungsweise, die es unternimmt, das emotional Bedeutungsvolle der erlebten Welt und des menschlichen Miteinanders zählend und messend zu durchforschen, stößt daher regelmäßig auf eine intensive gefühlsmäßige Aversion. Hier wirkt sich das dem Mittelalter entstammende Relikt eines affektiven Mißtrauens gegen die traditionsfeindliche und „alles gleichmachende Rechenkunst" aus. Viel stärker aber als gegen die „Entzauberung" (MAX W E B E R ) der Außenwelt mit Hilfe der Zahl wendet sich der Gefühlswiderstand gegen die quantifizierende Einordnung der Persönlichkeit und besonders gegen jede wahrscheinlichkeitstheoretisch begründete Voraussage menschlicher Handlungen, Stellungnahmen und Entscheidungen. In den Ergebnissen der Sozialstatistik begegnet sich nämlich der Einzelne als Träger von mehr oder weniger häufig vorkommenden Eigenschaften, Leistungsqualifikationen undMerkmalen. Zweifellos ergeben sich hier höchst schmerzhafte Widersprüche zu einer Selbstdeutung, die jedem das Bewußtsein gibt, ein einmaliges, unvertauschbares und damit auch unersetzbares Individuum zu sein. Da nun aber seit Beginn der Neuzeit die Gesellschaft „Individualität" als ein ubiquitäres soziales Rollenmuster nahelegt, muß die statistische Betrachtung des Einzelmenschen diesem als ein Versuch der „Entpersönlichung" erscheinen. Die statistische Theorie n ) Je mehr dabei eingesehen wird, daß das soziomorphe Modell der „Gesetzlichkeit" seinen Erklärungswert zunehmend verliert, um so mehr wächst die Neigung spezifisch engagierter Denker, den Atomen nun das entgegengesetzte, aber gleichfalls soziomorphe Prädikat der „Freiheit" zuzuschreiben.

Einführung

9

atomarer Prozesse wird nicht mehr als Kränkung der Selbstachtung erlebt, wohl aber die zahlenmäßige Subsumption des eigenen Verhaltens unter „bloße" statistische Regelmäßigkeiten. Charakteristisch hierfür ist die beharrliche Polemik gegen den etwas sorglos konzipierten statistischen Begriff des „mittleren Menschen" 12 ), gegen den immer wieder emphatisch eingewendet wird, daß dieser „Durchschnittsmensch" doch in Wirklichkeit niemals anzutreffen sei. Hier ist nicht nur das gewohnheitsmäßige Mißverständnis aufschlußreich, daß statistische Begriffsbildung automatisch zur Egalisierung und Atomisierung des Einzelmenschen führe. Nicht beachtet wird bezeichnenderweise, daß der gleiche Vorwurf berechtigt gegen alle Typologien und idealtypischen Konstruktionen der vorwissenschaftlichen Menschenkunde und der geisteswissenschaftlichen Psychologie zu erheben ist. Die Frage der konkreten Antreffbarkeit der frei konstruierten und dann sekundär veranschaulichten Menschenbilder beunruhigt die Kritiker statistischer Verfahren nicht. So führt eine Typologie der „Lebensformen" ( S P R A N G E K ) oder der „Grundformen menschlichen Seins" (E. R . J A E N S C H ) viel eher zu einer einebnenden Klassifikation von Menschen als die statistische Forschung. Mit der Statistik wird vielmehr der Versuch unternommen, vermöge einer methodischen Analyse der Variabilität menschlicher Eigenart zugleich auch die Unterschiede zwischen Individuen oder Gruppen in mathematisch gesicherter Form herauszuarbeiten. Im Widerspruch zur tendenziösen Abwertung exakt ermittelter statistischer Befunde steht die Tatsache, daß wir Wörter wie „häufig" und „selten", „regelmäßig" und „zufällig", „viel" und „wenig", „schnell" und „langsam" sowie „groß" und „klein" ständig benutzen. Wir treffen hier auf ein meist unbeachtetes, aber dennoch sehr wichtiges erkenntnistheoretisches Problem: Diese und viele ähnliche Formulierungen drängen sich uns immer dann auf, wenn wir darauf angewiesen sind, die uns begegnenden Dinge, Ereignisse und Handlungen derart zu interpretieren, daß wir alles Begegnende fast automatisch mit dem Gewohnten vergleichen und dadurch nach erfahrungsbedingten Maßstäben in unsere Erwartung einordnen. Was dabei eigentlich eine Relation zwischen zwei Erfahrungstatsachen ist, wird durch ihre Auffassung etwa als „groß" 12 ) QUETELET, "Sur l'homme et le Développement de ses facultés, ou essai de physique sociale", Paris 1835. Als einer der ersten hatte QUETELET erkannt, daß wegen der Vielfalt und Verwickeltheit menschlicher Handlungen und Wechselbeziehungen die psychologischen und sozialen Probleme am adäquatesten statistisch zu behandeln sind, da nur diese Betrachtungsweise Raum für die Variabilität und Mannigfaltigkeit der menschlichen Natur läßt.

10

Einführung

oder „langsam" zu einer einzigen, der Sache oder dem Ereignis nun anhaftenden Eigenschaft. So wurden unreflektierte, „privatstatistische" Verallgemeinerungen oder den Gruppenerfordernissen entsprechend genormte Wahrnehmungsschemata zum Bezugssystem des Handelns und der Orientierung. Ob wir wollen oder nicht gestaltet sich unser gefühlsmäßiges Reagieren auf die Welt und unsere Orientierung in ihr gemäß statistischer Regelmäßigkeiten. Sie konstituieren jene Parameter und Bezugssysteme, mit deren Hilfe wir uns in einer widersprüchlichen und undurchschaubaren Welt zurechtfinden. Oft genug aber führen diese sozialbedingten Wahrnehmungsnormen doch zu keiner befriedigenden Deutbarkeit und Eindeutigkeit der begegneten Ereignismannigfaltigkeit. In dieser durch Ungewißheit belasteten Situation bieten sich dann „unmittelbar einleuchtende" Gewißheiten und als „natürlich" empfundene Grundüberzeugungen an. Auch diese basalen, gruppieneinigenden Überzeugungen sind ein Ergebnis langfristiger, zunehmend vereindeutigender Selektion. Sie gehen aus einer Vielfalt zunächst variabler Motive, Erwartungen und Erfahrungen gemäß der statistischen Regeln des Lernens nach „Versuch und Irrtum" hervor. Die statistische Analyse ermöglicht im Bereich der Psychologie und der Sozialwissenschaften nun zweierlei: einmal die Einsicht in die recht monotone Konformität der zur Selbstverständlichkeit erhobenen Überzeugungen, Werturteile und Gewißheiten und zum anderen die Erkenntnis ihrer häufig prüfbaren Unrichtigkeit und nicht seltenen Unzulänglichkeit gegenüber neuartigen Entscheidungssituationen. Statistische Ergebnisse widersprechen daher auffällig häufig dem, was die Mehrzahl der Menschen als „natürlich", als „unmittelbar einleuchtend" und als „selbstverständlich" erlebt. Nach dem „unmittelbar Einleuchtenden", dem „Selbstverständlichen" und „Natürlichen" aber sollte man besser nicht fragen 13 ). Demgemäß wurde neuerlich ausdrücklich die Überzeugung vertreten, daß vorrangig die „primäre Erfahrung" kompetent ist, um auch die komplizierteren Wirkungszusammenhänge der modernen Sozialwelt voll zu erfassen14). Philosophierende Soziologen 13 ) Die kulturanthropologisch vergleichende Betrachtung erweist, daß die Selbstverständlichkeiten von Kultur zu Kultur offensichtlich wechseln. Und die Geschichte des Denkens zeigt, daß hinter dem jeweils gerade „Selbstverständlichen" und „Natürlichen" stets die ungelösten Probleme einer Epoche verborgen sind. u ) Wie die Mitglieder jenes deutschen Rechnungshofes, die unter Berufung auf Adorno die Verwendung von Etatmitteln für sozial-wissenschaftliche Erhebungen mit der Begründung untersagten, derartige Untersuchungen erbrächten ja nur, was jeder ohnehin wisse und seien daher unwissenschaftlich (s. H. Schelsky, Ortsbestimmung der deutschen Soziologie, Düsseldorf-Köln 1959).

Einführung

11

wie Th. W . Adorno gelangen sogar zu der Meinung, daß die primäre Umgangserfahrung eine kompetentere Realitätserkenntnis der modernen Gesellschaft vermittle als die erfahrungswissenschaftliche, methodisch sich kontrollierende Tatsachenforschung. Allerdings läßt die ADORNOsche These weitgehend offen, ob diese überlegene Erkenntnischance der „primären" Erfahrung jedem, also neben Philosophen und Soziologen auch Industrie- und Landarbeitern oder Handwerkern gleichermaßen zugänglich ist. In seiner Kritik der empirisch-statistischen Sozialforschung wendet Adorno 15 ) weiterhin ein, sie erbringe eine bloße „Verdoppelung der Wirklichkeit", eine Wiederholung der Fakten, die jedoch gerade dadurch entstellt würden. Zur Unterstützung dieser These legt er die Tiefenpsychologie so aus, als hätte Fkettd die Theorie vertreten, daß der Erkenntnisgehalt der Erfahrungen innerhalb sozialer Strukturen entsprechend der Intensität des subjektiven Anteils der Erkenntnis wachse16). Die auch sonst gelegentlich vorgetragene Behauptung einer Überlegenheit unmethodisierter Erfahrung des gelebten Lebens dient — mindestens in vielen Fällen — zur scheinrationalen Rechtfertigung des Anspruchs, vermittels ungeprüfter Privatstatistik zu abschließend allgemeingültigem, gewißheitschaffendem Wissen zu gelangen. Während von den Naturwissenschaften durchaus ein stetiger Fortschritt erwartet wird, sind grundlegend neue Einsichten in die eigene Person, in den Mitmenschen und in die Gesetze des sozialen Wandels unerwünscht. Allzu leicht könnten sie das sicherheitsgewährende Gefühl stören, man wisse Bescheid und gehöre zu den Menschen mit der richtigen Überzeugung. In dieser Haltung darf man unreflektiert der Gewohnheit folgen, sich in seinen persönlichen Ansichten, Überzeugungen und Behauptungen mit gutem Gewissen auf subjektive Gefühlseindrücke, auf die Erwartungen und Anschauungen führender Persönlichkeiten und auf die für den Einzelnen jeweils „zuständigen" Überzeugungsgemeinschaften zu verlassen. Dabei ist entscheidend, daß Menschen — wenn auch in unterschiedlichem Grade — stets ein nur begrenztes Maß an Ungewiß15

) Th. W. Adorno, Soziologie und empirische Forschung. In: Wesen

und Wirklichkeit des Menschen; Festschrift für Hellmtjt Plessner, Göt-

tingen 1957. 16 ) Gerade Frettd sah jedoch gemäß seiner häufig formulierten Wissenschaftsauffassung eine der wichtigsten Funktionen der Psychoanalyse in der Kontrolle und Korrektur emotional-subjektiv bedingter Erkenntnisverzerrungen. In diesem Zusammenhang kommt seinen Theorien von der unbewußten Projektion und von der sekundären Rationalisierung gefühlsbestimmter „primärer" Erfahrungen auch heute noch besondere Bedeutung zu.

12

Einführung

heit ertragen. Diese Begrenzung der persönlichen Ungewißheitstoleranz schafft ein dauerndes Bedürfnis nach sofortigen und mühelos zu adoptierenden Gewißheitserlebnissen und Apriorismen aller Art. Dabei ist die Belastungsgrenze eines Menschen gegenüber Ungewißheiten und Entscheidungsnotwendigkeiten um so niedriger, je mehr er sich von persönlichkeitswichtigen Ereignissen und Bedingungen abhängig fühlt, die er selbst nicht wirksam bestimmen kann. Die Ungewißheitstoleranz ist daher herabgesetzt gegenüber den Fragen der eigenen Gesundheit und Krankheit, bei den Problemen des sozialen Erfolgs oder Mißerfolgs und gegenüber Glück und Unglück ganz allgemein. Verfestigte, als „Selbstverständlichkeit" kritikentzogene und überbetonte Überzeugungen bestimmen darüber hinaus vielfach das politische Engagement des Einzelnen, seine soziale und ökonomische Lebensplanung, aber auch die Suche und Wahl des Lebenspartners und die Erziehung der Kinder. Dabei besteht meist eine umgekehrt proportionale Beziehung von Überzeugungsstärke und Orientiertheit. Daher ist die Einschätzung der Eigenart des Wertes der Menschen anderer Schichten, fremder Rassen und Nationalitäten 17 ) um so verfestigter und entschiedener, je weniger der Urteilende von diesen Menschen weiß. Damit eine Überzeugung dergestalt Ungewißheit aus dem Bewußtsein zu verdrängen vermag, muß sie einfach, anschaulich, ganzheitlich und allgültig sein. Demgemäß bleibt Ungewißheit am zuverlässigsten abgewehrt, wenn eine Sache entweder als schwarz oder als weiß, ein Mensch, eine Gruppe oder ein Volk entweder als gut oder als schlecht, eine Entscheidung sogleich als richtig oder als zum Scheitern verurteilt erlebt wird. Insgesamt steht — wissenschaftstheoretisch betrachtet — hinter allen solchen unmittelbar evidenten Urteilen der Wunsch, über absolut sichere Prognosen zu verfügen, die uns sagen, ob bestimmte subjektiv wichtige Ereignisse eintreffen werden oder nicht. Allerdings vermag der Einzelne diesem starken Bedürfnis nach eindeutiger Gewißheit und zwingender Voraussage nur dann vollständig zu folgen, wenn eine empirische Bewährungsprüfung der entsprechenden Prognosen und Hypothesen entweder praktisch nicht möglich oder mit erheblichen persönlichen Nachteilen verbunden ist. Während das antistatistische Vorurteil mit einer gefühlsbedingten Überschätzung der Konstanz und vor allem der Geordnetheit der Welt 18 ) verbunden ist, vermag eine wissenschaftliche Weltorientierung heute anzuerkennen, daß allen induktiv aus Beobach17

) R. BERGIUS und K. S. SODHI, Nationale Vorurteile, Berlin 1953. ) Eklatant wird diese aus Gefühlsbedürfnissen erwachsende Übersehätzung im heute auflebenden Aberglauben und in der magischen Weltdeutung der Astrologie. 18

Einführung

13

tungsserien erschlossenen Voraussagen stets eine nur mehr oder weniger große Wahrscheinlichkeit zukommt. Im 19. Jahrhundert stand der Typus der nach unverbrüchlichen Gesetzen suchenden „exakten" Wissenschaften noch dem Typus der den Einzelfall hermeneutisch erhellenden „Geistes"-Wissenschaften gegenüber. Mit dem Anfang des 20. Jahrhunderts begann sich dann eine konvergierende Neuorientierung des Methodenbewußtseins sowohl der Naturwissenschaften wie der Sozialwissenschaften durchzusetzen. Diese Entwicklung wurde durch die bereits auf BBAVAIS 1 9 ) zurückgehenden korrelationsstatistischen Verfahren bedeutungsvoll unterstützt. Diese in eine praktisch anwendbare Form gebracht zu haben, ist das Verdienst von K. PEABSON 2 0 ). Mit der Korrelation als einem statistisch-wahrscheinlichkeitstheoretischen Maß der Kovariation von Meß- oder Ereignisreihen stand nun ein exaktes Denkmodell zur Verfügung, das auch dort leistungsfähig war, wo sich das Kausalmodell wegen der Komplexität des Forschungsgegenstandes als unzulänglich erwies21). Ein weiterer wesentlicher Fortschritt kam zustande, als es gelang, Faktoren als optimale Beschreibungsdimensionen einer Mannigfaltigkeit von Korrelationen auf mathematisch-exaktem Wege herauszulösen. Durch die Analyse der zwischen den Ergebnissen unterschiedlicher Intelligenztests bestehenden Korrelationen gelang es SPEABMAN 2 2 ), an die Stelle der bisher nur verbal-spekulativen Interpretationen der Intelligenz das funktionale Modell eines mehrfaktoriellen Gefüges kooperativer Fähigkeiten zu setzen. Die von S P E A R M A N entwickelte und dann von L. L. T H U B S T O N E 2 3 ) verbesserte Faktorenanalyse findet heute einen sich dauernd er19 ) A. BRAVAIS, Analyse mathématique sur les probalités des erreurs de situation d'un point. Même présances par divers savants. II. sér (1846). 20 ) K. PEABSON, On Further Methods of Determining Corrélation. Biometrie Sériés IV (1907). 21 ) P E A E S O N hat diese Entwicklung und ihre Konsequenzen anschaulich beschrieben: „Bis dahin hatten die Wissenschaftler einzig in Begriffen der Kausalität gedacht; von nun ab mußten sie einräumen, daß noch eine andere Kategorie wirksam war: die Korrelation. Dadurch wurden weite Gebiete der medizinischen, psychologischen und soziologischen Forschung der quantitativen Analyse eröffnet. . . Philosophisch hat man das Universum seither als ein Korrelationssystem von Gruppen von Variablen betrachtet, das der vollkommenen Korrelation, d. h. der Kausalität, sehr nahe kommt, ohne sie aber wirklich ganz zu erreichen, nicht einmal bei jener Gruppe von Erscheinungen, die die physikalische Welt ausmachen. Man hat eingesehen, daß biologische, ökonomische und soziale Phänomene bezüglich ihrer numerischen Bestimmungen sich von den physikalischen nur der Intensität der Korrelation nach unterscheiden". Zitiert nach H. WALKER, Statistische Methoden für Psychologen und Pädagogen, Berlin 1954. 22 ) SPEARMAN, General Intelligence, Amer. J. Psychol. 15 (1904). 23 ) L. L. THURSTONE, Multiple Factor Analysis, Chicago 1947.

14

Einführung

weiternden Anwendungsbereich. Sie hat zur Entscheidbarkeit von Problemen in den Bereichen der Psychologie, der Pädagogik und der Sozialwissenschaften geführt, die vordem gewohnheitsmäßig noch aus „selbstverständlich" einleuchtender „primärer Erfahrung" entschieden wurden. Eine weitere für die methodologische Selbstklärung moderner Wissenschaften wichtige Entwicklung hat im Ausbau der Theorie des Planexperiments ihren Ausdruck gefunden. R . A. F I S H E R 2 4 ) hat durch eine systematische Weiterführung der im wesentlichen auf ihn zurückgehenden Varianzanalyse die Technik des Planexperimentes vervollkommnet. Alle Ergebnisse dieser neuartigenVerfahren unterliegen wiederum statistischen Methoden, die der exakten „Hypothesenprüfling'' dienen: Aus den formalen Bedingungen des statistischen Materials (Zahl der Beobachtungen, Repräsentationsfunktion, Zahl der Freiheitsgrade usw.) lassen sich die Grenzen der Verallgemeinerungsfähigkeit und der jeweilige Sicherheitsgrad der ermittelten Ergebnisse präzise berechnen. Dadurch erst ermöglicht die analytische Statistik vermöge ihres Systems logisch-mathematischer Operationen die kontrollierbare und vor allem erwartungsunabhängige Aufdeckung funktionaler Strukturen der Wirklichkeit. So gestatten die statistischen Methoden in ihrem Zusammenwirken die Erarbeitung eines Wissens, das neben seinem prüfbaren Sachgehalt vor allem auch seine innere Verläßlichkeit und seinen Anwendungs- und Geltungsbereich offenlegt. Erst die Anerkennung und strenge Einhaltung der wahrscheinlichkeitstheoretisch begründeten formalen Operationsanweisungen hat den statistischen Verfahren ihre weitreichenden und der modernen Gesellschaft völlig unentbehrlichen Anwendungsmöglichkeiten eröffnet. Diese reichen von theoretischer Physik und Astronomie über die Trefferstatistik der Biophysik und weiter bis zur Erblehre und Züchtungsforschung. Aber nicht nur die moderne Naturwissenschaft, sondern in gleichem Umfang auch die anthropologische Forschung und die Probleme des sich immer mehr komplizierenden Zusammenlebens fordern statistische Methoden, die in Gestalt der Meinungs-, Haltungs- und Motivforschung zur exakten Analyse unserer politischen, sozialökonomischen und kulturellen Daseinsbedingungen beitragen 26 ). Eine vor24 ) R . A. FISHER, The Design of Experiments, 6. Auflage, EdinburghLondon 1951. 25 ) Eine fortlaufende gedankliche Bewältigung der komplizierten Probleme einer verläßlichen Prognostizierung wirtschaftlicher, politischer und selbst militärischer Entwicklungen wird heute durch elektronische Großrechenanlagen wesentlich erleichtert, deren Prinzip in der statistischwahrscheinlichkeitstheoretischen Auswertung einer großen Zahl von logistisch aufbereiteten Erfahrungsdaten besteht.

Einführung

15

zugsweise praktische Bedeutung haben die statistischen Methoden in den Bereichen der öffentlichen Gesundheitsfürsorge und in der vorausschauenden Lenkung der Altersversorgung der Bevölkerung gewonnen. Auch die in der modernen Gesellschaft immer wichtiger werdenden Aufgaben vorsorglicher Verkehrs-, Stadt- und Landesplanung sind hinreichend allein mit Hilfe statistischer Methoden zu bewältigen. Eine ebenso grundlegende — für die Forschungstechnik wie für die praktische Therapie gleichermaßen unentbehrliche — Funktion hat das statistische Planexperiment in der Medizin, in der Hygiene und in der Pharmakologie gewonnen. Einen Gestaltwandel, vor allem hinsichtlich des Methodenbewußtseins, der Denkmodelle und des zugänglichen Problembereichs —• haben Psychologie und Soziologie durch die Aufnahme statistischer Verfahren und Exaktheitskriterien erfahren. An die Stelle subjektiver, affektiv und ideologisch verzerrter Erfahrung und ihrer spekulativen Ausdeutung tritt damit in allen diesen Bereichen zunehmend ein vermöge seiner eindeutigen Formulierbarkeit und seiner exakten Prüfbarkeit intersubjektives Wissen. Insgesamt ist die Statistik zu einem unentbehrlichen Organon der Selbsterkenntnis unserer modernen Gesellschaft geworden. Daher setzt sich auch in unserem Land die moderne Methodologie der Analyse und Beweistechnik zunehmend im Forschungsbetrieb durch, während sich ein traditionales Denken bereits mit Hilfe des irrationalen Dogmas von der prinzipiellen Nicht-Analysierbarkeit aller „wesentlichen" Untersuchungsgegenstände zu verteidigen sucht. Auch die Fehldeutung der Statistik als geist- und wahllose Zählmaschinerie dient der Rechtfertigung vielfältiger Vorurteile des „gesunden Menschenverstandes" und einer gehobenen „primären" Erfahrung. Der populärste Vorbehalt gegen Statistik aber bedient sich der Redensart von der „statistischen Lüge". Diese bereits zum Fetisch gewordene „statistische Lüge" ist denjenigen als selbstwertsicherndes Argument unentbehrlich, die fehlendes mathematisches Verständnis mit der vorsorglichen Abwehr überraschender und unbequemer Einsicht zu verbinden gewohnt sind. Wie jedes Werkzeug, jede Technik und jede Methode ist auch die Statistik den Gefahren einer mißbräuchlichen Anwendung ausgesetzt. Wenn also auch statistische Ergebnisse manipulierbar sind und gelegentlich von partikularen Interessengruppen zur Manipulation der öffentlichen Meinung eingesetzt werden, so ist doch auf zweierlei nachdrücklich hinzuweisen: im Gegensatz zu den vielfältigen Formen der Unwahrheit — von der schlichten Lüge des Alltags bis zu den komplizierten und schwer durchschaubaren

16

Einführung

Erkermtnisverzerrungen eines „falschen Bewußtseins" — ist die statistische Aussageverzerrung jederzeit prüfbar. Zweitens ist hervorzuheben, daß ein ähnücher Widerstand gegenüber den meist ganz beweislosen Postulaten und Argumentationen beispielsweise der Politik, des Rechtsdenkens oder der Erziehung kaum auftritt 2 6 ). Die Lebensdienlichkeit einer Wissenschaft dagegen ist davon abhängig, daß sie sich selbst festlegt gegenüber den Fragen, was in ihrem Erkenntnisbereich als eine Tatsache, was als ein zulässiger Schluß und was als ein zwingender Beweis zu gelten habe. I m täglichen Leben besteht ein nur sehr diffuser und schwankender Konsensus darüber, was als „tatsächlich" hinzunehmen sei, was als eine vernünftige Folgerung akzeptabel ist und durch welche Logik einem anderen etwas schlüssig bewiesen wird. Was in diesen unausgesprochenen Übereinkünften als „unmittelbar einleuchtend", als „völlig schlüssig" und als unbedingt beweiskräftig zur Wirkung kommt, erweist sich bei genauerer Analyse vielfach als eingewöhnte persönliche Meinung oder als unbewußte Denkanpassung an die Erwartungen und Überzeugungen der Gruppe, in der man lebt und arbeitet. Die unreflektierten Muster für „Tatsache", „Schluß" und „Beweis" konstituieren sich also zumeist aus stereotypen Überzeugungen, die dem vitalen und sozialen Engagement des Einzelnen oder dem inneren Zusammenhalt einer bestimmten Gruppe dienstbar sind. Während sich das spekulative Denken über die menschliche Natur und über die menschliche Gesellschaft vorzugsweise im Horizont engagierter Überzeugungen und gruppensolidarischer Meinungen vollzieht, kennzeichnet nicht mehr allein die Naturwissenschaften, sondern auch die modernen Sozialwissenschaften ein andersartiger erkennender Zugriff: sie akzeptieren, daß Wissenschaft keine überzeitlichen, kontrollentzogenen und allgültigen Gewißheiten zu vermitteln vermag. Nur in traditionsgelenkten Gesellschaften durfte man glauben, im Besitz jener Grundwahrheiten zu sein, die die menschlichen Ordnungen abschließend bestimmen. Heute aber kann man nicht mehr unmittelbar vom Gewohnten auf das Zukünftige schließen. Die hochgradige Unanschaulichkeit, Verflochtenheit und Kompliziertheit moderner 26 ) Hier handelt es sich um eine der mannigfachen Auswirkungen des „cultural lag" (Ogburn, Barnes), jener fundamentalen Tatsache der disproportionalen Entwicklung der Erfahrungswissenschaften, der Technik und der Wirtschaft einerseits und der ihnen nicht adäquat korrespondierenden Entwicklung der Bewußtseinserhellung und des sozialkulturellen Institutionsgefüges andererseits. Gegenwartswichtige Manifestationen des „cultural lag" in Gestalt der gleichzeitig wachsenden funktionalen Unentbehrlichkeit und emotionalen Diskriminierung empirisch-rationalen Wissens, in: Hasel o f f / S t a c h o w i a k , Physik im sozialkulturellen Spannungsfeld. In: Schriften zur wissenschaftlichen Weltorientierung, Bd. III/IV, Berlin 1958.

Einführung

17

Gesellschaften erzwingt Wissensformen, die dem vorbildlos neuartigen und rasch sich wandelnden Daseinskonstellierungen der industriellen Großgesellschaft entsprechen. In traditionsbestimmten Sozialordnungen, in denen das Leben auf langfristig gleichbleibende Anpassungsforderungen eingespielt ist, wird Wissen gewohnheitsmäßig durch induktives Schließen von zurückliegenden Erfahrungen auf eine als gleichbleibend gedachte Zukunft gewonnen. Es ist deshalb keineswegs ein Zufall, daß erst mit der das mittelalterliche Sozialdenken ablösenden Aufklärung die logische Rechtfertigung induktiven Schließens ausdrücklich zum Problem geworden ist. Besonders H U M E hat in seiner „Untersuchung über den menschlichen Verstand" (1748) den Nachweis geführt, daß aus einer noch so großen Reibung von übereinstimmenden Einzelbeobachtungen kein zwingender Schluß auf das nächste beobachtbare Ereignis der gleichen Art gezogen werden darf. Die aus den Umgangserfahrungen des Lebens ebenso wie die aus der systematischen Beobachtung von Einzelereignissen abstrahierte Erkenntnis f ü h r t vielmehr stets zu Aussagen von mehr oder weniger großer Wahrscheinlichkeit. Für anspruchsvolle Menschen aber, insbesondere für jene Denker, die von der Wünschbarkeit einer Sache auf ihre Notwendigkeit und von dieser weiter auf ihre Existenz zu schließen gewohnt sind, erweisen sich „bloße" Wahrscheinlichkeiten als zu wenig. Ihnen geht es um absolute Gewißheit. Diese findet sich jedoch nur innerhalb der erfahrungsfreien tautologischen Zeichensysteme der strengen Mathematik und symbolischen Logik. Die konkreten Entscheidungsnotwendigkeiten gegenüber der angetroffenen Welt aber können nicht aus axiomatisierten Symbolsystemen deduziert werden. Zu wissen, daß man gezwungen ist, nach mehr oder weniger wahrscheinlichen Setzungen zu handeln, ist zweifellos subjektiv belastend. So erklärt sich das große Interesse an dem Versuch K A N T S , die aus Beobachtungen induzierten synthetischen Urteile als „aus der Vernunft abgeleitet und deshalb notwendigerweise wahr" zu postulieren. Er glaubte, die Lehrsätze der EuKLinischen Geometrie, das „Gesetz der Erhaltung der Masse", sowie das „Gesetz der Kausalität" als aus der menschlichen Vernunft apriori hervorgehend nachgewiesen zu haben. Die Mathematik seiner Zeit und die NEWTONsche Physik waren jedoch nicht — wie K A N T überzeugt war —• der Endpunkt der wissenschaftlichen Entwicklung. Verabsolutierungen zeitgebundener Forschungsergebnisse aber sind im Bereich der Naturwissenschaften nicht zuletzt gerade durch die fortschreitende Anwendung statistischer Methoden korrigiert worden. Die sichtbare praktische Bewährung der die klassische Mechanik N E W T O N S hinter sich lassenden modernen Naturforschung erfolgt unter ausdrücklicher Anerkennung der Tat2

Haseloff, Statistik, 2. Aufl.

18

Einführung

sache, daß ein logisch zwingender Beweis für den Induktionsschluß nicht zur Verfügung steht. Aber auch in den sozialwissenschaftlichen und kulturanthropologischen Erkenntnisbereichen ist die gefühlsbedingte Forderung einer apriorischen Sicherheit allgültigen und überzeitlichen Wissens zu einer anachronistischen Fehlerwartung geworden. Dennoch wird der Anspruch immer wieder auf spontane Zustimmung treffen, daß unser Wissen überall dort, wo es das Handeln unmittelbar bestimmt, durch unumstößlich allgemeine Geltung gesichert sei. Aus der Intensität dieses persönlichen Bedürfnisses nach Gewißheit folgt jedoch nichts hinsichtlich der tatsächlichen Bewährung dogmatisierter „Selbstverständlichkeiten". Vielmehr zeigt die Erfahrung, daß es fast immer gerade die durchaus zeit- und standortgebundenen Vorurteile sind, die im Gewände und unter dem Anspruch eines allgültigen und unbestreitbaren Wissens auftreten. Jeder Tag im Dasein der modernen Gesellschaft erweist jedoch, daß die mit Hilfe statistisch-methodisierter Induktion erarbeiteten Wahrscheinlichkeitsaussagen eine weit größere Leistungfähigkeit und einen höheren Bewährungsgrad besitzen als noch so evidente und scharfsinnige apriorische Deduktionen über die Natur des Seins und des Wesens des Menschen. Prüf bare Bewährung zeichnet nur dasjenige Wissen aus, das aus dem Zusammenwirken von Erfahrung und Logik hervorgeht. Logik ohne Erfahrung aber bleibt leer; sie bietet nicht mehr als tautologische Gleichgewichtssysteme von Zeichen. Und Erfahrung ohne Logik bleibt subjektiv, niemals eindeutig mitteilbar und vor allem von ungewissem Bestätigungsgrad 27 ). Jeder nicht nur in subjektiver Überzeugtheit und persönlichem Evidenzgefühl verankerte Induktionsschluß von der bisherigen Erfahrung auf das künftige Geschehen aber nimmt die Gestalt der statistischen Aussage an. Dabei stellt die Statistik — für sich betrachtet — ein wahrscheinlichkeitstheoretisch begründetes System von formalen Operationsanweisungen dar. Ihre Anwendung führt von einer Vielzahl von Einzelbeobachtungen zu einem Wissen, dessen Geltungsbereich, dessen Verallgemeinerungsfähigkeit und dessen Sicherungsgrenzen präzise prüfbar sind. Dieses so gewonnene Wissen ist zugleich — vermöge seiner Formalisierung — mit andersartigem, gleichfalls präzisierbarem Wissen verbindbar. So wird es möglich, auch in einer fast unüberschaubar gewordenen Welt Ereignisse, die der Anschauung nach voneinander unabhängig scheinen, in ihren statistischen Abhängigkeiten als mehr oder weniger wahrscheinlich vorherzusagen. 27

) S . R . CABNAP

lichkeit, Wien 1959

und W.

STEGMÜLLER,

Induktive Logik und Wahrschein-

Einführung

19

In jüngster Zeit vollzieht sich eine bedeutsame Erweiterung der statistischen Denkmodelle. Sie wurde eingeleitet durch die mathematische „Theorie der Spiele"28). Von hier aus kam es zur Entwicklung der Dezisionsstatistik, in der zum Beispiel das Bayes'sche Theorem die Berücksichtigung subjektiver Hypothesen im Bereich der Prognosefindung möglich macht. Die Dezisionsstatistik gewinnt überall dort an Bedeutung, wo einerseits komplexe Strategien geplant und verwirklicht werden, also im Bereich vorausschauender Optimierung militärischer, politischer und wirtschaftlicher Entscheidungen, wo andererseits aber auch in einem hochkomplexen Ereignisfeld operiert werden muß, also Entscheidungsmöglichkeiten schwer gegeneinander abwägbar sind. In der Auseinandersetzung mit den Chancen und Gefahren des Lebens und vor die Notwendigkeit der Entscheidung gestellt, können wir nicht besser als nach unseren jeweils wahrscheinlichsten Setzungen handeln. Daher wird derjenige am besten beraten sein, der gegenüber den Verführungen und Drohungen der Gegenwart nach seinen besten Setzungen handelt und dabei Furcht und Hoffnung unter Kontrolle zu halten vermag, obwohl er sich „nur" auf Wahrscheinlichkeiten stützen kann. 28 ) In jüngster Zeit vollzieht sich eine bedeutsame Erweiterung der statistischen Denkmodelle durch die mathematische „Theorie der Spiele", durch die Informationstheorie und durch die sogenannten Netz- und, Entscheidungstheorien. S. hierzu besonders: J . v. N E U M A N N and 0. MORGENSTERN, Theory of Games and Economic Behavior, Princeton 1953. R . D. L U C E and H. R A I F F A , Games and Decisions, New York 1957, E. BTJRGER, Einführung in die Theorie der Spiele. Walter de Gruyter & Co., Berlin 1959 sowie H . ZEMANEK, Elementare Informationstheorie, 1959.

2*

I. TEIL

Statistische Aufbereitung

KAPITEL 1

Statistisches Zählen und Messen Einfache, für die unmittelbaren Bedürfnisse des praktischen Lebens erstellte Statistiken haben es im allgemeinen mit ganzen Zahlen zu tun. Wir zählen die Obstbäume in Gärten, die Konsumenten eines Markenartikels oder die Wähler einer Partei. Immer erhalten wir ganze positive Zahlen. Es hat keinen rechten Sinn, von 32,903 Schulkindern zu sprechen, selbst wenn dies die durchschnittliche Schüleranzahl in allen deutschen Schulklassen sein sollte. In den empirischen Wissenschaften gehen die grundlegenden Beobachtungsdaten neben der Zählung, vor allem auch aus Messungen hervor. Wir haben also zu unterscheiden zwischen Ergebnissen, die durch Abzählen, und solchen, die durch Messen Zustandekommen. „Messen" bedeutet dabei, daß wir die Größe unseres jeweiligen Untersuchungsgegenstandes mit der Größe eines normierten Einheitsgegenstandes vergleichen. Die Messung führt prinzipiell zu einer Maßzahl, die angibt, wie häufig die Einheitsgröße auf der Meßgröße abzubilden ist. Wir können auch sagen, daß die Meßgröße 0 gleich ist dem Produkt aus der Maßzahl M und der Maßeinheit E: G = M x E. Genaue Messungen sind oft schwierig, was sich manchmal aus der Natur des zu messenden Gegenstandes, manchmal aber auch aus dem ganzen zur Messung erforderliehen System ergibt. Zu einem solchen System gehören mehr oder weniger komplizierte Apparaturen, Vorschriften und Regeln zu ihrer Anwendung sowie der Untersucher selbst 1 ). So wird es verständlich, daß wichtige Fortschritte der Statistik mit der theoretischen Bearbeitung von Meßfehlern verbunden sind. Bei Messungen treten nicht nur ganze positive Zahlen auf. Hier sind vielmehr Skalen mit viel komplizierteren Unterteilungen möglich. Das Vielfache der Einheitsgröße kann sich bis in den Bereich negativer Zahlen erstrecken. Häufig haben wir es mit Brüchen zu tun. Selbst irrationalen Zahlen, wie zum Bei1 ) Entscheidende Anregungen für die Entstehung der erfahrungswissenschaftlichen Psychologie waren Auseinandersetzungen, die sieh aus Klärungsversuchen von zunächst unverständlichen persönlichen Meßabweichungen in der astronomischen Observation ergaben.

24

Statistische Aufbereitung

spiel der Wurzel aus 5, kann bei der Messung eine Aussagefunktion zukommen. Der Statistiker hat es einerseits mit ganzen Zahlen zu tun, die unteilbaren Zähl- und Beobachtungseinheiten — den „Fällen" seines Ausgangsmaterials — zugeordnet sind. Diese ganzen Zahlen sind Teile diskreter Folgen. Daraus ergeben sich bestimmte Einschränkungen bei der statistischen Verrechnung eines solchen Materials. Andererseits hat der Statistiker es mit Annäherungszahlen zu tun, die er aus einem Ausgangsmaterial durch Messung gewinnt. Die diesen Zahlen entsprechenden Folgen sind stetig und heißen jeweils Kontinuum. Die meisten statistischen Verfahren beziehen sich auf Häufigkeiten, die sich in unterschiedlicher Weise über das Kontinuum verteilen. Manche dieser Verfahren werden aber nicht selten bei statistischen Untersuchungen recht unbekümmert auch auf Folgen ganzer Zahlen angewendet. So früh wie möglich sollte man sich jedoch einprägen, daß jede statistische Methode nur dann zu gesicherten und verallgemeinerungsfähigen Aussagen führen kann, wenn ihre Anwendung erst erfolgt, nachdem geprüft ist, ob ihre methodischen Voraussetzungen auch im gegebenen statistischen Material erfüllt sind. Neben dieser Unterscheidung zwischen der Anzahl2) in der diskreten Zahlenfolge und der Maßzahl in dem stetigen Kontinuum begegnet uns in der Statistik noch eine Vielzahl anderer Zahlen, die alle Vergleichszwecken dienen. Hier sind zunächst die Verhältniszahlen oder Proportionen zu nennen, die durch p symbolisiert werden. Sie zeigen das Verhältnis einer Teilmenge zu einer Gesamtmenge an. Beispiel: Von insgesamt 684 Studierenden haben 112 Studenten im letzten Semester ein Stipendium bezogen. Die Proportion beträgt * = m

= °>164

Viele statistisch Arbeitenden ziehen gegenüber der Proportion die sogenannte Prozentzahl vor. Diese ist nichts anderes, als das Hundertfache der Proportion. Die Prozentzahl wird mit einem P symbolisiert. Es ist also f = 1

Q 0 . ^

100-Teilmenge Gesamtmenge

In unserem Beispiel sind es also 16,4% der Studierenden, die ein Stipendium bezogen haben. In einer sehr anschaulichen Formulierungsweise sagt man auch: auf 100 Studenten kommen 16 bis 17 Studierende, die ein Stipendium bezogen haben. 2

) In der Mengenlehre würde man hier von einer Kardinalzahl sprechen.

Statistisches Zählen und Messen

25

Die Prozentzahl gestattet es auch, den Prozentrangplatz (PR) einer Beobachtung (Ereignis, Objekt oder Mensch) in einer größeren Gruppe anzugeben. Dabei gibt der Prozentrangplatz die relative Stellung der Beobachtung in der Gesamtgruppe an. Prozentrangplätze können von Gruppe zu Gruppe verglichen werden. Der Prozentrangplatz PR wird nach folgender Formel berechnet, in der R den Rangplatz der Beobachtung und N die Anzahl aller Beobachtungen darstellt: PR = 100 • -J

(2)

Beispiel: Liegt jemand seiner Leistung im Weitsprung nach an 52. Stelle in einer Gruppe, die 94 Individuen umfaßt, so beträgt sein Prozentrangplatz: 100 • 52 :94 = 55,3%. Diese Zahl gibt an, wieviel Prozent in seiner Gruppe weniger weit gesprungen sind. Allerdings sagt die Zahl nichts über die tatsächliche Leistung aus, da die faktischen Differenzen zwischen den Personen unberücksichtigt bleiben. Das primäre Erhebungsmaterial wird in der Statistik in sogenannte Häufigkeitszahlen zusammengefaßt. Diese Zahlen geben an, wie häufig eine Meßgröße, ein bestimmtes Merkmal oder bestimmte Gegenstände, Vorkommnisse oder Personen im Erhebungsmaterial anzutreffen sind. Es ist üblich, diese Häufigkeit mit einem / (Frequenz) zu symbolisieren. Wir werden diesem Symbol noch vielfach begegnen. Schließlich bedient sich der Statistiker einer Vielzahl besonderer Indexzahlen. Das sind Zahlen, die für bestimmte Erkenntniszwecke definiert als Maßgröße festgesetzt werden. So gibt es beispielsweise einen Index für die Lebenshaltungskosten. Indizes spielen auch bei sogenannten „Zeitreihen" eine Rolle, in denen beispielsweise Börsenkurse oder Lernfortschritte zeitbezogen dargestellt werden (s. Kapitel 17). Allgemein kann gesagt werden: Die Statistik hat es mit Zahlen zu tun, die entweder aus Abzählvorgängen oder aus Messungen gewonnen wurden. Ihre Aufgabe ist es, ein solches Zahlenmaterial in eine optimal übersichtliche und informationsreiche Form zu bringen, aus ihnen methodische Schlußfolgerungen zu ziehen und gegebenenfalls auch die Ursachen der analysierten Zahlenverhältnisse mit sachlichen Methoden aufzudecken.

KAPITEL 2

Skalierung Wir hatten im ersten Kapitel bereits zwischen diskreten Zahlenfolgen und stetigen Kontinua zu unterscheiden. Der Grund hierfür liegt in der Tatsache, daß die Beobachtungen, die Fälle und ihre Merkmale unterschiedlichen Zahlenfolgen zugeordnet werden können. Diese Zahlenfolgen können als eine sehr grobmaschige oder auch als eine sehr feine Unterteilung des Beobachtungsmaterials wirksam werden. Sehen wir uns dieses Problem ein wenig genauer an. Werden Versuchspersonen nach ihrer Berufszugehörigkeit oder Konfession gefragt, so beruhen die Ergebnisse nicht nur auf den mehr oder weniger vollständig ermittelten Tatbeständen selbst, sondern auch auf ihrer mehr oder weniger eindeutigen und sachgerechten Zuordnung zu bestimmten Berufen oder Konfessionen. Dabei gewinnen wir jedoch nicht die Möglichkeit, unsere Versuchspersonen in eine von der Sache her bestimmte und zugleich aufschlußreiche Reihenfolge zu bringen. So viele Berufe oder Konfessionen genannt werden, so viele Gruppen entstehen, die jedoch weder unabhängig und vollständig sein müssen. Es gibt keine eindeutige Zuordnungsregel, die die Fälle auf eine geordnete Folge eindeutig zu verteilen vermöchte. Wir können bestenfalls willkürliche Ordnung schaffen, die wir jedoch statistisch nicht verrechnen dürfen. So wäre es etwa möglich, die Versuchspersonen nach den Anfangsbuchstaben ihrer Berufe zu ordnen und innerhalb dieses alphabetischen Systems die Untergruppen nach dem Lebensalter. Die sich ergebende Reihenfolge wäre zweifellos eindeutig aber ohne Aussagefunktion. Eine solche primitive Ordnung, die durch eine einfache Nummerierungsvorschrift entsteht, bezeichnet man als eine Nummernshala. Sie hat vor allem den Vorteil, rasch und sicher bestimmte Fälle aus dem Untersuchungsgesamt herausfinden zu können. Daher ist es durchaus sinnvoll, die Häuser einer Straße oder die Kraftwagen eines Regierungsbezirks nach dem oben angegebenen Prinzip durch Stellenverteilung auf der Normenskala zu kennzeichnen. Noch einmal ist aber darauf hinzuweisen, daß Hausoder Kraftwagennummern oder andere Normenskalen nicht statistisch verrechnet werden können.

Skalierung

27

Häufig bietet sich jedoch zwanglos eine sachbestimmte Ordnung an. So können wir Untersuchungsgegenstände nach ihrer Größe, Intensität, Alter oder Gewicht ordnen. Hier wirkt die Ordnungsvorschrift dergestalt, daß Fall 1 größer ist als Fall 2, dieser größer als Fall 3 usw. Die so an den Merkmalen der Beobachtungen oder Fällen orientierte Reihenfolge wird als Rangskala bezeichnet. Die im Sinne einer Rangskala geordneten Sachverhalte dürfen nur mit besonderen statistischen Methoden bearbeitet werden 1 ). Das liegt daran, daß die im Sinne der Rangskala geordneten Größen keine einheitlichen Realabstände aufweisen: Der faktische Abstand zwischen dem 16. und 17. Fall muß keineswegs — wie es die Rangskala vortäuscht — der gleiche sein, wie zwischen dem 92. und 93. Fall. So kann der erste Abstand bei einer nach der Körpergröße geordneten Menschengruppe 1,3 mm und der zweite Abstand (zwischen dem 92. und 93. Fall) 4,2 mm betragen. Dem entspricht die Unmöglichkeit, durch die alte Sitzordnung (vom Primus bis zum Schlechtesten) ein adäquates Bild der Leistungsverteilung in einer Schulklasse zu präsentieren. Dies würde nur gelingen, wenn man die faktischen Abstände zwischen den Schülern testet. Danach könnte zum Beispiel eine Sitzordnung eingeführt werden. Allerdings müßten dann viele Schüler engstens gedrängt sitzen, während nach beiden Seiten hin eine Reihe von Schülern durch viele Meter lange Abstände von den Schülern des am häufigsten vertretenen Leistungsniveaus getrennt sind. Der Einheitsabstand der traditionellen Sitzordnung könnte die wahren Leistungsdifferenzen nicht wiedergeben. Der Mehrzahl der vorgegebenen Rangskalen liegt ein subjektives Klassifikationsschema zugrunde. Die praktische Anwendung eines solchen Schemas —wie sie sich etwa beim Zensurengeben vollzieht — bedingt unvermeidlich eine gleichfalls subjektive Bewertungsreihenfolge. Der faktische Abstand zwischen den Prädikaten „sehr g u t " und „ g u t " entspricht bei der Mehrzahl der Lehrer nicht dem Abstand zwischen den Noten „befriedigend" und „ausreichend". Ein Schüler, der in Mathematik das Prädikat „ausreichend" erzielt hat, hat also nicht die halbe Rechenfertigkeit, wie sie einem Schüler mit dem Prädikat „ g u t " zur Verfügung steht. Schulzensuren und andere durch intuitive Bewertungerfolgende Normierungen dürfen weder addiert und subtrahiert noch multipliziert werden. Alle statistischen Verfahren, die Grundrechnungsarten innerhalb der Skala anwenden, sind auf Rangskalen nicht anwendbar. 1

) Hier sind die sogenannten parameterfreien Methoden anzuwenden.

28

Statistische Aufbereitung

In den Sozialwissenschaften und in der Psychologie hat man zur Lösung besonderer Probleme Verfahren entwickelt,die Einstellungsintensitäten auf Rangskalen abbildbar machen 2 ). Die leistungsfähigste Skala ist die Rationalskala. Intervall- 3 ) und Rationalskala konstituieren zusammen die Gruppe der sogenannten metrischen Skalen, im Gegensatz zu den bloß topologischen Skalen. Topologische Skalen, die die Nummern- und Rangskalen umfassen, stellen wohl eine eindeutige Ordnung durch Reihung und Rangfestlegung dar, sie geben jedoch keine Information über die Abstände, Intervalle oder Verhältnisse der beurteilten Sachverhalte und Alternativen. Auf der Rationalskala sind demgegenüber nicht nur wie bei der Intervallskala Abstände konstant und deshalb identisch. Vielmehr ermöglicht die Rationalskala sinnvolle Vergleiche: Während es bei der Intervallskala, beispielsweise der konventionellen Temperaturmessung nach Celsius, inkorrekt ist, zu behaupten, daß 10 Grad Celsius doppelt so warm sei wie 5 Grad Celsius, kann ein solcher Vergleich mit Hilfe einer Rationalskala vorgenommen werden. Eine Rationalskala ist eine Intervallskala mit absolutem Nullpunkt. Zahlenmäßige Merkmale, für die ein solcher Nullpunkt angegeben werden kann sind etwa: Zeit, Gewicht, Länge, Stromstärke sowie alle anderen Maßskalen des cgs-Systems. Aber auch ein Währungssystem stellt eine Rationalskala dar. Aussagen, die sich auf Rationalskalen beziehen, sind sinnvoll in informative Vergleichsbeziehungen zu setzen: 3 kg ist das Doppelte von 1,5 kg. Wenn die Temperatur entsprechend auf einer Rationalskala gemessen werden soll, so muß diese wie bei Kelvin am absoluten Nullpunkt beginnen. Da die Intelligenz auf einer Intervallskala gemessen wird, ist es nicht richtig zu sagen, daß Herr Schultz etwas mehr als halb so intelligent ist wie Albert Einstein. Ebenso wenig wäre es korrekt zu behaupten, daß der Politiker X. achtmal so beliebt ist wie der Politiker Y. 2

) Zu diesen Skalen, ihren Weiterentwicklungen und Prüfmethoden vgl. W. H A S E L O F F und H . - J . H O F F M A N N „Kleines Lehrbuch der praktischen Sozialforschung", Walter de Gruyter u. Co., Berlin 1966. 3 ) Intervallskalen werden zuweilen auch Einheitsskalen genannt, da sie nicht nur über gleichmäßig gute und konstante Intervalle verfügen, sondern weil ihnen auch eine meist genau definierte Einheit zugrunde liegt. O.

KAPITEL 3

Tabulierung Die anschauliche Mannigfaltigkeit der begegnenden Welt kann von uns vielfach am schnellsten und informationsreichsten durch einfaches Abzählen oder durch das bereits präzisere Messen geordnet werden. Durch Vergleich und Unterscheidung läßt sich dann die so gewonnene Ordnung beliebig verbessern. Die Statistik nun gibt uns die Denkmittel und Modelle, die Beschreibungsformen und Prüfungstechniken, um auch dasjenige Zahlenmaterial in Erkenntnis zu verwandeln, das durch Zufälle, Fehler und Schwankungen zunächst ohne klaren Aussagewert bleibt. Jede Einheit eines statistisch zu bearbeitenden Zahlenmaterials wird „Beobachtung" oder „Fall" genannt, ganz gleich, ob es sich dabei um die Ergebnisse einer Versuchsperson in einem Test, um meßbare Entscheidungen vom Charakter der Wahl, um die Reaktionszeit eines Tieres in einem Experiment oder um andere durch die Fragestellung definierte Daten handelt. Die verschiedenen Beobachtungen ergeben unterschiedliche Werte innerhalb einer Variable, die untersucht werden soll. Während in der Mathematik der Begriff „Variable" die veränderliche Unbekannte einer Funktion bezeichnet, bedeutet der gleiche Begriff in der Statistik fast einen entgegengesetzten Sachverhalt: Hier bezeichnet „Variable" abzählbare, meßbare, mindestens aber als groß oder klein, häufig oder selten zu charakterisierende Merkmale oder Eigenschaften von Dingen oder Personen. Innerhalb eines größeren Systems kann auch die Anzahl von Personen oder Dingen selbst als Variable fungieren, sofern diese Anzahlen die Zustände des Systems in einer Dimension kennzeichnen. In jedem Falle handelt es sich also um bekannte oder durch Zählung bzw. Messung bekanntwerdende Größen 1 ). Manchmal werden „Variable" auch in weniger präziser Weise verwendet, um nicht gemessene, sondern nur „qualitativ" unterschiedene Charakteristika zu bezeichnen. In einem solchen Falle ist beispielsweise nur eine Unterscheidung zwischen zwei Variablewerten wie „männlich—weiblich", „lebend geboren—tot geboren" 1 ) „Unbekannte, zu errechnende Größen" sind in der Statistik dagegen die sogenannten Parameter (Kap. 11).

30

Statistische Aufbereitung

oder zwischen mehreren Variablewerten wie Zugehörigkeit zu Konfessionen, Nationen oder Fakultäten möglich. Variable werden mit dem Buchstaben X bezeichnet. Beispiel: 28 Kinder hatten in einer Rechenprobe für jede richtige Lösung einen Punkt erhalten. Die dabei für jedes Kind anfallenden Punktzahlen stellen Beobachtungsdaten dar, die unten zunächst in einer Urliste zusammengestellt werden. Dabei enthält die Urliste die Beobachtungsdaten in der Reihenfolge, wie sie in der Untersuchung anfallen. Tabelle 1: Punktzahlen in der Rechenprobe Urliste 8

7

1 0

1 0

7

9

7

8

1 0

6

8

9

6

7

9

7

8

5

5

6

8

8

7

7

6

8

9

9

Das statistische Material besteht hier aus 28 Beobachtungsdaten hinsichtlich der Variable „Punktzahl in der Rechenprobe". Geht man diese 28 Zahlen durch, so findet man z. B., daß der niedrigste Wert innerhalb der Variable 5 beträgt, der höchste 10, und daß die meisten Kinder 7 oder 8 Punkte erreicht haben. Eine bessere Übersicht erhält man jedoch, wenn man eine Häufigkeitstabelle2) aufstellt, in deren Spalten man einträgt, wie viele Beobachtungen auf jeden einzelnen Variablewert entfallen. In Tabelle 2 sind die 28 Werte unseres Beispiels auf eine solche Tabelle übertragen worden. Tabelle 2

(1)

(2)

Punktzahl „ , , . vBeobachtungen 1 0

9

III

(3)

, / 3

IHI

5

8

IIIIII

7

7

IHI II

7

6

Uli

4

5

II

2 28

2 ) Anstelle von „Häufigkeit", „Häufigkeitstabelle", „Häufigkeitsverteilung" usw. wird gelegentlich auch von „Frequenz", „Frequenztabelle" usw. gesprochen.

31

Tabulierung

Die erste Spalte in der Tabelle 2 ist die Variablenspalte. Sie enthält diejenigen Werte, die die unstetige Variable annimmt; in unserem Beispiel also die Punktzahlen von 5 bis 10, die zweite Spalte ist die Strichliste, in der die Variablenwerte aus der Urliste geordnet sind. Die Spalte 3, auch primäre Verteilungsspalte genannt, konstituiert (zusammen mit Spalte 1) die Häufigkeitstabelle. In der Spalte 2 wird jede Beobachtung durch einen Strich vermerkt, wobei jeder fünfte Strich quer über die anderen gezogen wird, um das Zusammenzählen zu erleichtern. So erhält man die sogenannten Häufigkeiten oder Frequenzen, /, d. h. die Anzahl der Beobachtungen oder Fälle, die auf jeden der Variablewerte entfallen. Diese Häufigkeiten werden dann in Spalte 3 als Zahlen ausgeschrieben. Die Summe der Häufigkeiten der Spalte 3 muß 28 ergeben, was der Anzahl der Fälle entspricht, die das Gesamtmaterial ausmachen. Diese Anzahl bezeichnet man mit N. Will man die Verteilung3) der Punktzahlen anschaulich darstellen, so zeichnet man am einfachsten ein Histogramm: f-Freguenz

7

6S*' 32 - 1

10

5 t5

6 ts

T es

6 7.S

3 8,5

10 $S

ras

x= Anzahl der erzielten Punkte

Fig. 1 Zuerst stellt man die Variable in Form einer waagerechten Linie dar und teilt diese den vorkommenden Werten entsprechend in gleichlange Abschnitte. In unserem Beispiel kommen Werte von 5 bis einschließlich 10 vor. Wäre die Zuteilung der Punkte bis auf eine Dezimale erfolgt, so müßte sich dann der erste Abschnitt von der Klassengrenze4) 4,5 bis zur Klassengrenze 5,5 mit der Klassenmitte 5 erstrecken. Der nächste Abschnitt reicht dann von 5,5 bis 6,5 3 ) Unter „Verteilung" versteht man die Anordnung unterschiedlicher Häufigkeiten innerhalb einer Variablen. In der Statistik unterscheidet man zwischen einer größeren Zahl unterschiedlicher Verteilungstypen. Die wichtigste unter ihnen ist die Gaußsche der Normalverteilung. Von „Gleichverteilung" spricht man, wenn die Häufigkeiten der einzelnen Variablewerte sich decken. 4 ) Unter einer „Klasse" versteht man die Zusammenfassung einer Anzahl von Variablewerten nach einer bestimmten Regel. So können immer zwei oder immer fünf nebeneinanderliegende, sich aber nicht überschneidende Variable werte zu einer Klasse vereinigt werden.

32

Statistische Aufbereitung

usw. Auf dieser Skala werden bei der Herstellung eines Histogramms „Blöcke" errichtet, deren Höhe der Anzahl der in ihren Abschnitt fallenden Beobachtungen entspricht. Aus dem auf diese Weise erarbeiteten Histogramm ersieht man nun (wie in Figur 1) ohne weiteres, daß die Beobachtungen sich hauptsächlich auf die Variablewerte 7 und 8 fallen. Variablen können kontinuierlich oder diskontinuierlich sein. Eine kontinuierliche Variable kann beliebig fein unterteilt werden. Die Körperlänge z. B. könnte beliebig genau gemessen werden. In der Praxis hingegen begnügt man sich mit cm-Einheiten. Viele Variable sind also ursprünglich kontinuierlich, können aber durch eine grobe Grenzziehung in diskontinuierliche Variable transformiert werden. Andererseits steht die Feinheit der Graduierung in einem bestimmten Verhältnis zu derjenigen Differenzierung eines Beobachtungsmaterials, die in angemessener Weise dem jeweiligen Untersuchungszweck sowie den derzeitigen technischen Möglichkeiten der Untersuchung angepaßt ist. So hängt z. B . der Aussagewert eines Intelligenztests unter anderem davon ab, ob die in ihm enthaltene Anzahl unterschiedlich schwerer Aufgaben so hinreichend groß ist, daß einerseits den untersuchten Personen so häufig unterschiedliche Ergebnisse zuzuordnen sind, daß Unterscheidung zustandekommt, und daß andererseits zwei benachbarte Variablewerte tatsächlich unterschiedliche Sachverhalte ausdrücken. Diskontinuierliche Variable können nicht über eine bestimmte Grenze hinaus graduiert werden. Die Variable „Anzahl Kinder in einer Familie" beispielsweise kann nur in ganzen Zahlen ausgedrückt werden. Es kommt nun oft vor, daß die Beobachtungsdaten, die aus Variablewerten bestehen, stark von einander abweichen: Beispiel: Tabelle 3 enthält eine Anzahl Intelligenzquotienten 5 ), von denen der niedrigste 71 und der höchste 130 beträgt. Eine Häufigkeitstabelle, die eine Stufe für jeden einzelnen vorkommenden Intelligenzquotienten vorsehen würde, wäre mit ihren 60 Stufen sowohl schwierig zu bearbeiten als auch sehr unübersichtlich. In einem solchen Falle nimmt man eine Klasseneinteilung vor, d. h. man teilt die Häufigkeitstabelle in Klassen ein, die jeweils mehrere Variablewerte umfassen. Im allgemeinen ist es ratsam, die Klasseneinteilung der Häufigkeitstabelle so anzulegen, daß sie etwa aus 10 bis 20 Klassen besteht. Dabei geht zweifellos ein Teil der feineren 5 ) Die individuelle Ausprägung der Intelligenz wird mittels des Intelligenzquotienten gemessen. Er ist der Quotient aus Intelligenzalter und Lebensalter : IA IQ = 100 • j - j - '

Tabulierung

33

Nuancen des Materials verloren. Dieser Verlust wird aber dadurch aufgewogen, daß man eine viel bessere Übersicht gewinnt. Der Unterschied zwischen dem höchsten und dem nie- Tabelle 3 (1) (2) drigsten Wert der Tabelle 3 beX / trägt 130—71 = 59. Läßt man 2 126—130 in jede Klasse 5 Werte ein121—125 3 gehen, dann erhält man in 116—120 5 diesem Falle eine Häufigkeits111—115 5 tabelle mit 12 Klassen. 106—110 7 11 101—105 Die erste Klasse in dieser 12 96—100 Tabelle enthält somit dieWerte 91 95 9 71, 72, 73, 74 und 75. Der mit86—90 7 telste dieser Werte, d. h. 73, 81—85 8 76—80 4 repräsentiert in diesem Falle 71—75 3 die Klassenmitte. Die untere Klassengrenze liegt bei 70,5 N =76 und die obere bei 75,5 Untere Klassengrenze 78J9

I

71

1

Obere Klassengrenze

Klassenmitte

72

I

73 73

I

71

I

75,5

75

I

Fig. 2

Die nächste Klasse hat die untere Klassengrenze 75,5 und die obere Klassengrenze 80,5. Die Klassenmitte beträgt 78. Die Anzahl der Werte in jeder Klasse, in diesem Fall 5, bestimmt das Intervall oder die Klassenbreite; sie wird meist mit dem Buchstaben i bezeichnet. Das Histogramm des Materials der Tabelle 3 hat dann folgendes Aussehen: Tabelle 3 mit ihren 12 Klassen ist recht übersichtlich. Häufig ergeben sich jedoch Tabellen, die eine viel größere Anzahl von Klassen enthalten, da von einer zu kleinen Klassenbreite ausgegangen worden war. In einem solchen Falle ist eine weitere Reduktion durchzuführen, damit die dem Untersuchungszweck entsprechende Information aus dem Material entnommen werden kann. Außer der Klassenbreite 5 bestehen für die Daten der Tabelle 3 insgesamt neun weitere Reduktionslagen. Es sind dies die Klassenbreiten 2, 3, 4, 6, 10, 12, 15, 20 und 30 Bei größter Korrektheit müßten übrigens in der Tabelle 3 auch die leeren Klassen am oberen und unteren Ende der Verteilung mit aufgeführt werden. So beispielsweise die Klassen 66—70 oder 131 3

Haseloff, Statistik,

2. Aufl.

34

Statistische Aufbereitung

i

SP

Fig. 8 bis 135. Hervorzuheben ist in diesem Zusammenhange auch der Begriff der „offenen Klasse". In unserem Beispiel wären es z. B . die Klassen „bis 7 5 " oder „über 126". Offene Klassen finden bei der tabellarischen Erfassung empirischer Verteilungen häufig Verwendung, da die Beobachtungen an den „Rändern" solcher Verteilungen immer seltener werden. Die Tabelle 3 könnte bei anderer Reduktionslage unter Verwendung offener Klassen auch folgendes Aussehen annehmen: Durch die Reduktion wird hier deutlich, daß die unterTabelle 4 (1) (2) suchten Personen eine Gruppe / bilden, in der das zahlenmäßige Verhältnis der Klugen zu bis 82 9 83— 94 17 den Dummen ungünstiger ist 95—106 30 als in der Gesamtbevölkerung. 107—118 13 I n manchen Fällen interes119 und darüber 7 siert uns aber nicht die VerteiN = 76 lung der Werte auf die verschiedenen Klassen; wir wollen vielmehr wissen, wie viele Beobachtungen in einem Material unterhalb einer bestimmten Grenze liegen. So kann es beispielsweise wichtig sein, wie viele Schüler einer Schulklasse unter dem Intelligenzquotienten 90 bleiben. Zu diesem Zweck errechnete man die sogenannten kumulativen Häufigkeiten. Sie geben an, wie viele Beobachtungen auf einem Variablewert und unter ihm liegen. Ein ganz ähnliches Problem war uns übrigens schon in Kapitel 1 (S. 25) begegnet. Dort wurden zur Beantwortung der Frage nach der prozentualen Häufigkeit diejenigen Fälle, die unterhalb eines

Tabulierung

35

bestimmten Wertes bleiben, der sogenannte Prozentrangplatz, berechnet. Beispiel: Tabelle 5 Spalte 2 enthält die Häufigkeitsverteilung der Punktzahlen, die die 28 Kinder in der Rechenprobe erzielt haben. Die Werte wurden der Tabelle 2 auf Seite 30 entnommen. Die kumulativen Häufigkeiten (cf) sind in der Spalte 3 ein- Tabelle 5 (1) (2) (3) getragen. X cf / Zwei Kinder erzielten 5 10 3 28 Punkte, was dem niedrigsten 9 5 25 vorkommenden Variablewert 7 20 8 und einer kumulativen Häu7 13 7 4 6 6 figkeit von 2 entspricht. Vier 2 2 5 weitere Kinder erreichten 6 Punkte. Die Resultate dieser N = 28 sechs Kinder zusammengefaßt, ergeben die kumulative Häufigkeit 6 für die Punktzahl 6. Für die Punktzahl 7 beträgt 2 + 4 + 7 = 13. Beim Wert 8 kommen weitere 7 Kinder hinzu, so daß die kumulative Häufigkeit dann auf 20 steigt usw. Die Verteilung der kumulativen Häufigkeiten kann durch ein Summenpolygon (Fig. 4) anschaulich gemacht werden.

Fig. 4 In dieser Figur steigt die Höhe der Blöcke sukzessiv dadurch an, daß die neuen Beobachtungen den Häufigkeiten aller niedrigeren Variablewerte zugeschlagen werden. Eine andere Art graphischer Darstellung bietet das Häufigkeitspolygon. Man verwendet es unter anderem, wenn mehrere Verteilungen in das gleiche Diagramm gezeichnet werden sollen. Beim Häufigkeitspolygon werden die verschiedenen Häufigkeiten auf ein. 3*

36

Statistische Aufbereitung

Koordinatensystem bezogen. Die Abzissenach.se repräsentiert die Variable, die Ordinatenachse dagegen die Häufigkeiten. Die den einzelnen Variablewerten zugeordneten Häufigkeitsordinaten werden nun miteinander verbunden. Das Häufigkeitspolygon für die 28 Werte der Tabelle 2 sieht folgendermaßen aus 6 ):

Es ist hier zu beachten, daß die linke Grenze des Häufigkeitspolygoms in der Mitte der Klasse 4 liegt und die rechte Grenze in der Mitte der Klasse 11, weil in diesen Randintervallen die Häufigkeiten „Null" dargestellt werden müssen. Die bisher besprochenen Verfahren der Tabulierung bezogen sich auf Untersuchungsergebnisse, die zur Feststellung unterschiedlicher Größen einer einzigen Variable gelangen. Diese quantitative Betrachtung ist jedoch nicht bei jedem statistischen Material möglich. Eine solche rein quantitative Betrachtung muß versagen, wenn die untersuchte Variable nicht in unterschiedlicher Größe oder Stärke, sondern ausschließlich in qualitativ unterschiedlichen Formen auftritt 7 ). Die an den Patienten eines Krankenhauses ermittelten Befunde können wir quantitativ z. B. hinsichtlich der Variablen Alter, Größe, Gewicht, Temperatur, Puls oder Grundumsatz tabulieren. Ihre Krankheiten jedoch lassen sieh nur in qualitative Klassen ordnen. Immer dann, wenn die statistische Masse in qualitativen Klassen variiert, bedient man sich mit Vorteil der prozentualen Aufgliederung. An die Stelle der kumulativen Häufigkeit der quantitativen Variable tritt damit die prozentuale Häufigkeit einer qualitativen Klasse. In unserem Beispiel wäre das die prozentuale Häufigkeit 6 ) Dabei ist jedoch zu beachten, daß Häufigkeitspolygone korrekt nur für die Darstellung kontinuierlicher Variabler zulässig sind. Unser Beispiel ist hier zulässig, weil auch gebrochene Werte (halbe, viertel u. ä. Punktzahlen) auftreten können. ') Dabei ist „qualitativ" nicht etwas von „quantitativ" grundsätzlich Verschiedenes. Es ist nur derjenige Sonderfall von „quantitativ", in dem eine Nummernskala (seltener eine Rangskala) zugrunde liegt.

37

Tabulierung

der einzelnen Krankheiten. Eine prozentuale Häufigkeit berechnet sich nach der Formel: p

%--ir

1 0 0

Die anschauliche Darstellung prozentualer Verteilungen bedient sich anstelle des Histogramms und des Häufigkeitspolygons der Säulen- und der Sektordarstellung (s. Fig. 6 bis 9). Beispiel: 265 ungelernte jugendliche Handarbeiter 8 ) wurden befragt, wovon ihrer Überzeugung nach der Erfolg im Leben abhängig sei. Es ergab sich folgende prozentuale Verteilung der persönlichen Erfolgskonzeptionen ungelernter jugendlicher Handarbeiter : (1)

(2)

X

/

Können und Tüchtigkeit Glück und Beziehungen Sparsamkeit Rücksichtslosigkeit

161 48 45 11

N = 265

(3) P0/ /o 60,7 18,2 17,0 4,1 100,0%

Die sich hier ergebende prozentuale Verteilung sieht im Säulendiagramm folgendermaßen aus:

V SO 5010 302010~

Können

Glück

Spar-

Rucksichts-

und

und Be-

somkeit

losigkeit

Tüchtigkeit Ziehungen

Fig. 6 8

) OTTO W A L T E R H A S E L O F F ,

Berlin (im Druck).

Jugend und Arbeit, Walter de Gruyter &Co.,

Statistische Aufbereitung

38

Die Darstellungsform des Säulen- oder Stabdiagramms bietet zahlreiche Möglichkeiten, Informationen auf instruktive Weise zu übermitteln. So können unterschiedliche prozentuale Aufgliederungen zweier oder mehrerer Gesamtheiten vergleichend dargestellt werden. Beispiel: Eine Anzeige wurde in der BRD und in den USA getestet. Dabei wurde jedesmal verglichen, wie sich die Beurteilung der Anzeige änderte, nachdem die Betrachter den Text der Anzeige genauer gelesen hatten: Beurteilung einer Anzeige in P0

Tabelle 7 (1)

vor dem Lesen BRD USA positiv keine Meinung negativ

%

(3)

(2)

(4)

nach dem Lesen BRD USA

40 41 19

54 35 11

59 39 2

71 26 3

100%

100%

100%

100%

Diese zum Vergleich anregenden prozentualen Verteilungen können wir uns in folgender Weise mit Hilfe der Technik des Säulendiagramms veranschaulichen:

| | positiv beurteilt negativ beurteilt I keine Meinung

BRD USA wr dem Lesen

BRD USA nachdem Lesen Fig. 7

Mehrere Informationen werden auf diese Weise gleichzeitig dargestellt:

Tabulierung

39

1. Die getestete Anzeige erfuhr in beiden Vergleichsländern eine bessere Beurteilung nachdem der Text gelesen worden war. 2. In den USA wurde die Anzeige sowohl vor, als auch nach dem Lesen des Anzeigentextes günstiger als in der BRD beurteilt. 3. Die Zahl der Meinungslosen wird in Folge des Durchlesens des Anzeigentextes in der BRD kaum, in den USA dagegen sehr deutlich vermindert. 4. Die Kenntnisnahme des Textes führt in der BRD zu einer weit stärkeren Verminderung des Anteils negativer Urteile als in den USA.

Durch eine andere Vei Wendung der Technik des Säulendiagramms läßt sich vor allem die Richtungsänderung in der Verteilung der Urteile durch die genauere Kenntnisnahme des Anzeigentextes zeigen: «

BRD

USA

«ah P% so-

20

0

-20

-40 Lesen

Fig. 8 Alle vier oben formulierten Einsichten werden in dieser, die Verteilungen sinnvoll um eine Nullinie herum einordnendenDiagrammform der Figur 8 weit eindringlicher demonstriert als in Figur 7, die die nämlichen Tatbestände darstellt. Oft noch anschaulicher ist die Sektordarstellung prozentualer Verteilungen, die übrigens gelegentlich in gleicher Weise auch für die Darstellung quantitativer Variablen geeignet ist. I n Sektordarstellung nimmt die prozentuale Verteilung der Tabelle 6 die folgende Gestalt an:

40

Statistische Aufbereitung

Der dem Mittelpunkt des Kreises anliegende Winkel (Zentriwinkel) des einzelnen Sektors berechnet sich nach der Formel: Min.

Für diesen Fall muß die 1. Ableitung 0 sein:

y' = 2 27 (X—M) = 0.

Lösen wir die Klammer auf, so nimmt die Gleichung folgende Gestalt an:

2 E X—2 EM = 0.

44

Statistische Beschreibung

Die Berechnung des arithmetischen Mittels M erfolgt also durch die Ermittlung der Summe aller Beobachtungen, geteilt durch die Anzahl dieser Beobachtungen. Der griechische Buchstabe S (sigma) bedeutet „Summe von". £ X ist also eine verkürzte Schreibweise für „Summe aller XWerte". Wenn wir das arithmetische Mittel der 28 Fälle des Beispiels der Tabelle 1 bilden wollen, ergibt Formel (5) „

M =

8 + 7 + 10 + 6 +

28

••• + 7 + 9

=

214

~28~ =

'

Liegen viele Beobachtungen vor und sind diese bereits in eine Häufigkeitstabelle eingetragen, so kann man das arithmetische Mittel schneller errechnen, indem man den Umstand nutzt, daß in der Häufigkeitstabelle Beobachtungen gleichen Variablewertes zusammengefaßt sind. Im obenstehenden Beispiel erhält man £ X als Summe aus 28 Werten. In Tabelle 5, in der wieder die in einer Rechenprobe errechneten Punktzahlen mitgeteilt werden, sind zwei Werte der Größe X = 5, vier der Größe X — 6 usw. zusammengefaßt. Die Summe der 28 Werte kann daher aus der Summe von 2 x 5, 4 x 6 usw. ermittelt werden. Diese Berechnung geschieht in der Tabelle am leichtesten dadurch, daß man in jeder Zeile / • X bildet, d. h. die Häufigkeitszahl mit dem entsprechenden X-Wert multipliziert. Tabelle 8

(3)

(1)

(2)

X

/

f-x

10 9 8 7 6 5

3 5 7 7 4 2

30 45 56 49 24 10

28

214 =

214

M= —

= 1M

EfX

Da wir die Häufigkeit der Fälle, in denen eine jeweils bestimmte Punktzahl erreicht wurde, als Zwischenglied für die Berechnung Teilen wir beide Seiten der Gleichung durch 2 und setzen wir gleichzeitig E M = N • M, so ergibt sich: E X — N • M = 0. Ziehen wir auf beiden Seiten E X ab, so gelangen wir zu:

— N-M

=

—EX.

Teilen wir schließlich durch — N, so erhalten wir

^

— N

Hieraus ergibt sich die abzuleitende Berechnungsformel:

EX

^

^ ^

—N-

Mittelwerte

45

benutzen, erhält die rechnerisch zweckmäßigere Formel für das arithmetische Mittel folgendes Aussehen: M =

2 f •X N

(6)

Die gleiche Methode kann auch bei bereits klassifiziertem Material2) verwendet werden. Als X-Wert verwendet man dabei die Klassenmitte der jeweiligen Klasse. Tabelle 9, die die Häufigkeitsverteilung von Intelligenzquotienten beschreibt, gibt hierzu ein Beispiel: Tabelle 9

(1)

(2)

(3)

(4)

IQ

Klassenmitte

/

f-x

126—130 121—125 116—120 111—115 106—110 101—105 96—100 91—95 86—90 81—85 76—80 71—75

128 123 118 113 108 103 98 93 88 83 78 73

2 3 5 5 7 11 12 9 7 8 4 3

256 369 590 565 756 1133 1176 837 616 664 312 219

76

7493

t

N

3

E f - X

^

= 98,6

Tabelle 9 zeigt im übrigen, daß die hier untersuchte Menschengruppe eine der Gesamtbevölkerung gegenüber etwas verminderte Intelligenz aufweist, da 98,6 unter 100 bleibt, und dies obgleich 15 Vpn der vergleichsweise kleinen Probandengruppe deutlich überdurchschnittliche Intelligenzquotienten aufweisen. Die an Tabelle 9 gezeigte Berechnungsmethode erweist sich als sehr umständlich, sobald eine große Zahl von Beobachtungen vorliegt. Man bedient sich dann statt dessen mit Vorteil einer provisorischen Skala, wie dies in Kapitel 6 noch näher besprochen wird. Bei dieser Methode spielt der sogenannte geschätzte Mittelwert eine wichtige Rolle. Nicht selten kommt es vor, daß mehrere Beobachtungsreihen mit unterschiedlichen Mittelwerten vorliegen, die einer zusammenfassenden Betrachtung unterzogen werden sollen. Hier hilft uns das 2

) Bei einem Material also mit unangemessen feiner Wertklassenaufteilung.

46

Statistische Beschreibung

sog. gewogene Mittel. Dieses wird der Tatsache gerecht, daß die zur Zusammenfassung anstehenden Mittelwerte aus unterschiedlich großen Beobachtungsreihen stammen. Die Berechnung des gewogenen Mittels erfolgt nach der folgenden Formel: 1/ =

N1-M1+Ni-M,+...+Nk-Mk

Hier bedeutet k die Anzahl der Beobachtungsreihen, die von 1 bis k numeriert wurden. Jeder Mittelwert der am Gesamtergebnis beteiligten Beobachtungsreihen fällt in dem Maße ins Gewicht, in dem die jeweilige Beobachtungsreihe einzelne Fälle oder Beobachtungen umfaßt. Aus diesem Grunde wird jeder Mittelwert M mit der zugehörigen Anzahl der Beobachtungen N multipliziert. Die entstehenden Produkte sind dann zu addieren und durch die zusammengefaßte Anzahl aller Einzelbeobachtungen zu dividieren3). Beispiel: Unter den Interessenten für einen neuen Kraftwagen befanden sich sowohl Autobesitzer wie auch Nichtautobesitzer. Da es sich um ein relativ aufwendiges Fahrzeug handelte, sollte ermittelt werden, wie sich die bekundete Kaufneigung zur Kaufkraft verhielt. Bei jedem einzelnen Interessenten beider Teilgruppen war hierzu das Jahreseinkommen ermittelt worden. Dabei ergab sich für die Autobesitzer ein durchschnittliches Jahreseinkommen von 11.692,86 DM, dem bei den Nichtautobesitzern ein Durchschnittseinkommen von 8.945,65 DM gegenüberstand. Der Kreis der befragten Interessenten für den neuen Kraftwagen setzte sich aus 98 Autobesitzern und 46 Nichtautobesitzern zusammen. Demnach berechnet sich gemäß Formel (7) das durchschnittliche Jahreseinkommen aller befragten Interessenten in folgender Weise : M=

98 • 11692,86 + 46 • 8945,65 98 + 46 1145900,28 + 411499,90 10 815,28DM. 144

Das gewogene Mittel der Angehörigen des gesamten Befragtenkreises liegt also um etwa 500,— DM höher als dies ohne Berücksichtigung des Umfangs der Teilgruppen der Fall gewesen wäre. Liegt in einer Verteilung ein Teil der beoabachteten Werte sehr weit auseinander, während andere Werte dicht beieinander stehen, dann kann das arithmetische Mittel ein Bild des Materials geben, 8 ) Genauer betrachtet handelt es sich allerdings darum, daß jeder Mittelwert an Stelle der Fälle seiner Beobachtungsreihe benutzt wird / 2X \ (dennN • M — N • ^ = 2 Xj. Durch diese Substitution werden im

Zähler alle Fälle quasi neu addiert. Danach wird der (gewogene) Gesamtmittelwert bestimmt.

Mittelwerte

47

das zu ausgeprägten Fehlerwartungen in bezug auf den Einzelfall führen kann. Ein viel zitiertes Beispiel hierfür ist die Einkommensverteilung in einem Lande. Das Einkommen der meisten Arbeitnehmer liegt in Deutschland unter 8000,— DM pro Jahr. Es gibt aber doch viele Arbeitnehmer, die ein höheres Einkommen haben, und selbst Einkommen über 100000,— DM pro Jahr kommen vereinzelt vor. Diese letzteren bekämen ein allzu großes Gewicht, wenn das Durchschnittseinkommen mit Hilfe des arithmetischen Mittels berechnet werden würde. Ein zutreffenderes Bild gibt in diesem Falle der Zentralwert Z, der in der angelsächsischen Literatur auch Median genannt wird. Er gibt denjenigen beobachteten Wert an, der die Verteilung in zwei gleich große Hälften teilt, so daß jeder Teil 50% aller Fälle enthält. Im Beispiel der Einkommensverteilung bezeichnet der Zentralwert also die Grenze zwischen der Hälfte der Personen mit dem höheren und der Hälfte mit dem niedrigeren Einkommen. Der Zentralwert der Einkommen ist hier kleiner als das arithmetische Mittel der Einkommen. Bei einer ungeraden Anzahl von ihrer Größe nach geordneten Beobachtungen, beispielsweise 16, 19, 23, 32, 36 repräsentiert der Wert der genau in der Mitte stehenden Beobachtung, d. i. hier 23, den Zentralwert. Liegt dagegen eine gerade Anzahl von ihrem Wert nach geordneten Beobachtungen vor, z. B. 10, 13, 15, 18, 23, 28, dann ist der Zentralwert gleich dem arithmetischen Mittel der beiden mittelsten Werte, hier also 16,5. Die Bestimmung des Zentralwertes als eines wichtigen Mittelwertes wird etwas umständlicher, wenn die Werte in einer Häufigkeitstabelle geordnet sind. Als angenäherten Zentralwert kann man die Klassenmitte derjenigen Klasse nehmen, in welcher der oder die mittelsten Fälle liegen. Im Beispiel der Tabelle 10, die 28 Beobachtungen enthält, sind die vierzehnte und fünfzehnte Beobachtung die beiden mittelsten. Diese liegen in Klasse X = 8. Also ist der Zentralwert — gemäß der beiden wichtigsten von uns oben mitgeteilten Konventionen zu seiner Bestimmung — gleich 8. Will man den Zentralwert genauer berechnen, muß man denjenigen Punkt in der Klasse X = 8 bestimmen, der die Grenze zwischen der vierzehnten und fünfzehnten Beobachtung darstellt. Hierzu sind die kumulativen Häufigkeiten erforderlich, die wir der Tabelle 10, die weiterhin die statistische Beschreibung der Rechenprobe (Tab. 1) behandelt, entnehmen können.

Statistische Beschreibung

48 Tabelle 10

(1) (1)

(2) (2)

(3)

In unserem Beispiel haben dreizehn Versuchspersonen X cf / (Vpn) die Punktzahl 7 oder 10 3 28 weniger erreicht. In Klasse 9 5 25 X == 8 befinden sich weitere 7 8 7 20 Beobachtungswerte. Der Zen7 7 13 6 4 6 tralwert liegt an der Grenze 5 2 2 zwischen dem niedrigsten von N = 28 ihnen und den sechs übrigen Werten. Die Klasse X = 8 erstreckt sich, wie unten in Figur 10 gezeigt wird, vom Wert 7,5, also der unteren Klassengrenze, bis zur oberen Grenze bei 8,5. Die sieben Beobachtungen nehmen jeweils

der Strecke von

7,5 bis 8,5 ein. Daher müssen wir zum Wert der unteren Klassengrenze

hinzuzählen, um zum Zentralwert zu gelangen.

Anzahl der Beobachtungen unter 7,5 = 13 Vpn 6,5

7,5

Anzahl der Beobachtungen zwischen 7,5 und 8,5 = 7 Vpn

Fig. 10

8,5

Anzahl der Beobachtungen über 8,5 = 8 Vpn 9,5

Wie die Figur 10 veranschaulicht, muß hier zur Bestimmung des Zentralwertes die Klasse um denjenigen Variablewert, in dem der mittelste Fall liegt, so aufgeteilt werden, daß die Teilung dem Verhältnis der über dem Zentralwert liegenden zu der unter ihm liegenden Anzahl von Fällen in dieser Klasse entspricht. In unserem Beispiel hegt der mittelste Fall beim Variablewert 8, also in der Klasse 7,5 bis 8,5. In dieser Klasse befinden sich insgesamt 7 Fälle. Davon liegt 1 Fall unter und 6 Fälle über der vorzunehmenden Teilung, da (13 + 1) und (6 + 8) der Hälftung unserer Beobachtungsreihe entsprechen. Demnach können wir hier den Zentralwert auf folgende Weise berechnen Z = 7,5 + y = 7,64.

Das arithmetische Mittel in diesem Beispiel ist hier zufällig ebenfalls 7,64. Eine solche Übereinstimmung von Zentralwert und arithmetischem Mittel kommt unter anderem dann zustande, wenn die Verteilung symmetrisch ist. Die größte praktische Bedeutung in der heutigen Statistik hat das arithmetische Mittel (Mittelwert). Seltener findet der Zentral-

Mittelwerte

49

wert noch Verwendung. E r hat seine besondere Bedeutung für die Darstellung der Haupttendenz diskontinuierlicher Variabler. Früher wurde häufiger der sogenannte „Qipfdwert" (G; engl, mode) errechnet, der denjenigen Wert in einer Verteilung repräsentiert, auf den die meisten Fälle oder Beobachtungen entfallen. Dieser Gipfelwert ist bei in Klassen aufgeteilten kontinuierlichen Variablen mit Vorsicht zu verwenden, da dann sein Wert von der willkürlichen Wahl der Klasseneinteilung abhängig ist. Interessant ist schließlich noch, daß die den Schwerpunkt von Verteilungen beschreibenden Maßgrößen M, Z und G meist dicht beieinander stehen. Im Falle einer symmetrischen Verteilung, vor allem der Normalverteilung (Kap. 7) stimmen ihre Werte genau überein. J e „schiefer" jedoch eine Verteilung ist, um so größer sind die Unterschiede zwischen den verschiedenen Mittelwerten. Und zwar ist der Gipfelwert meist am stärksten von der Schiefe betroffen, während das arithmetische Mittel am unempfindlichsten gegen die Lage des häufigsten Wertes ist. Beispiel: In einer Befragung wurde nach der Anzahl der Illustrierten gefragt, die in der letzten Woche gelesen worden sind. X ist also die Anzahl der wöchentlich gelesenen Illustrierten, / gibt die Anzahl der Befragten an, die die jeweilige Lesehäufigkeit von sich behaupteten. Tabelle 11 (1)

(2)

(3)

X

t

x-f

0 1

8 23 28 17

2 3 4 5 6

7

8

9 10

11

8 5 7 3 2 7

Z = 2,56 (der 60. Fall = 2,5 + ^ = 2,56) 17

4

Hascloff, Statistik,

2. Aufl.

0

23 56 51 44 40 30 49 24 18 70

Statistische Beschreibung. Mittelwerte

50

Die Aussagefunktion der verschiedenen Mittelwerte können wir uns verdeutlichen, wenn wir die in Tabelle 11 wiedergegebene Verteilung anschaulich darstellen: fk



20-

10-

0

1

2 ft^t

3

i

5

6

Aft

7

8

S

V

X

{wöchentlichgelesene Illustriertenonzahl)

Fig. 11 Noch deutlicher wird die unterschiedliche Lage der drei Mittelwerte, wenn wir die Verteilung der Illustriertenleser auf die Stufen der Leseaktivitäten (gemessen an der Anzahl der wöchentlich gelesenen Illustrierten) in einem Häufigkeitspolygon darstellen (Figur 12):

Die praktische Bedeutung der hier diskutierten Mittelwerte zeigt sich darin, daß sie häufig in der Literatur unter der abkürzenden Bezeichnung „Statistika" zusammengefaßt werden.

KAPITEL 5

Streuungsmaße Vergleichen wir zwei Schulklassen hinsichtlich ihrer Schulerfolge in einem bestimmten Fach. Dabei können sich trotz ungefähr gleicher Durchschnittszensur die Zensurenverteilungen in den beiden Gruppen dennoch stark unterscheiden. In der einen Klasse hat beispielsweise die Mehrzahl der Schüler die gleiche Note erzielt, während in der Vergleichsklasse sehr unterschiedliche Zensuren gegeben wurden. Die Zensuren konzentrieren sich also in der einen Klasse stärker um den Mittelwert als in der anderen. In diesem Falle befriedigt es uns nicht, wenn wir nur den Mittelwert des vorhegenden Materials kennen. In unserem Beispiel würde es sich darum handeln, zu beschreiben, in welcher Dichte in den beiden Klassen die Zensuren in dem fraglichen Fach um das arithmetische Mittel streuen: Wir wollen die S t r e u u n g der verschiedenen Beobachtungen um den Mittelwert feststellen 1 ). Um diesen Sachverhalt zahlenmäßig beschreiben zu können, benötigt man ein Streuungsmaß. Das einfachste Maß für die Streuung ist die Variationsbreite (engl.: ränge). Diese gibt an, wie groß der Abstand zwischen dem höchsten und dem niedrigsten Wert der Verteilung ist. Im Beispiel der Tabelle 1 war der höchste Wert 10 und der niedrigste 5. Die Variationsbreite ist also 10 — 5 = 5. Sicher läßt sich die Variationsbreite auf diese Weise leicht berechnen; nachteilig ist dabei jedoch, daß das so ermittelte Maß allzusehr von den extremen Werten der Verteilung abhängt. Ein Streuungsmaß, das diese Schwäche nicht aufweist, ist der halbe Quartilabstand Q. (engl.: semiinterquartile ränge) 2 ). Q ist definiert 1 ) D. h. -wir wollen etwas darüber erfahren, wie unterschiedlich dicht sich die beobachteten Werte um den aus ihnen berechneten Mittelwert gruppieren. 2 ) Die Fälle jeder Beobachtungsreihe lassen sich der Größe nach ordnen. Teilen wir die so gewonnene Reihe in vier gleiche Abschnitte auf, so enthält jeder Abschnitt 25% der Fälle. Ein so definierter Abschnitt wird ein Quartil genannt. Er ist der praktisch wichtigste Sonderfall der sogenannten Quantile. Quantile zerlegen die Gesamtzahl der Fälle in eine gegebene Anzahl gleicher Teile. Bei Quintilen sind es 5, bei Dezilen 10 und bei Perzentilen 100 gleiche Teile. 4*

52

Statistische Beschreibung. Streuungsmaße

als Hälfte desjenigen Bereiches der Werte, innerhalb dessen die mittelsten 50% der Beobachtungen einer Verteilung liegen. Dabei wird der halbe Quartilabstand auf folgende Weise berechnet : Zuerst bestimmt man die Lage des oberen Quartiis, das oft auch 75. Perzentil (P 75 ) genannt wird. Es gibt an, wo die Grenze zwischen denjenigen 25% der Beobachtungen mit den höchsten Meßwerten und den restlichen 75% Beobachtungen mit den niedrigeren Meßwerten liegt. Danach wird die Lage des unteren Quartiis in umgekehrter Weise bestimmt (P25). Dieses 25. Perzentil bezeichnet die Grenze zwischen den oberen 75% und den niedrigsten 25% der Beobachtungen. Der halbe Quartilabstand ist dann die Hälfte der Differenz zwischen diesen beiden Werten oder — in einer Formel ausgedrückt —

Im Beispiel der Tabelle 10 ist das obere Quartil gleich 8,70 und das untere gleich 6,64. Wenn die Anzahl der Fälle N nicht durch 4 teilbar ist, also die Perzentile nicht genau zwischen zwei Fällen liegen, ist es notwendig, ihre Lage auf die gleiche Weise zu berechnen wie den Zentralwert. In unserem Beispiel der Tabelle 10 trennt das obere Quartil die 28 Beobachtungen zwischen der 21. und der 22. Diese Grenze ist gleich 8,5 +

= 8,7. Die Grenze des unteren

Quartiis liegt dann zwischen der 7. und 8. Beobachtung. Diese Grenze ist gleich 6,5 +

= 6,64. Der halbe Quartilabstand ist also

Ein früher häufig verwendetes Streuungsmaß ist die durchschnittliche Abweichung DA (engl.: average deviation) vom Mittelwert. Dieses Maß errechnet sich als das arithmetische Mittel aller Abstände der einzelnen Fälle von ihrem arithmetischen Mittel. Bei dieser Berechnung ergibt sich die Schwierigkeit, daß etwa die Hälfte aller Abweichungen negativ sind. Dies kann durch Zeichenänderung 3 ) korrigiert werden. Die Formel lautet deshalb: x - E i ,

(9)

3 ) Die zwei lotrechten Striche in | X — M \ bedeuten, daß das Ergebnis der Subtraktion ohne Rücksicht auf das Vorzeichen weiter verwandt werden soll. In unserem Falle müssen also die Subtraktionsergebnisse ohne Bücksicht auf ihre Vorzeichen addiert und dann durch N dividiert werden.

53

Varianz

Varianz Der Wert der durchschnittlichen Abweichung für die statistische Arbeit wird dadurch eingeschränkt, daß eine Formel mit Absolutzeichen (durch die Beseitigung der Vorzeichen) in weiterreichenden statistischen Berechnungen nicht verwendbar bleibt. Deshalb ist es vorteilhafter als ein Maß für die Streuung die mittlere quadratische Abweichung zu verwenden. Diese mittlere quadratische Abweichung wird in der Statistik Varianz (s2) genannt. Dabei handelt es sich genauer um das arithmetische Mittel der quadratischen Abweichungen der Fälle von ihrem arithmetischen Mittel. Die Varianz berechnet sich nach der Formel: 2

_ ^ (X

N

M) 2

bzw. bei einer größeren Zahl von Fällen

2_

^ f (X N

M) 2

'

1

'

Da besonders in der Sozialstatistik (zum Beispiel der Vergleich der Einkommensverhältnisse zweier Gruppen) oder in der Biologie (z. B . Vergleich der Wirkung von Medikamenten bei mehreren Gruppen von Versuchstieren) sehr häufig Streuungen verglichen werden müssen, ist als ein wichtiger Zweig der Statistik die Varianz analyse (vgl. Kap. 15) entstanden. Beispiel: In einem Experiment zur Intensitätsanalyse von Vorurteilen wurde u. a. Studenten unterschiedlicher Fachrichtungen eine Reihe von 20 häufig anzutreffender Vorurteile in Gestalt von Sprichwörtern vorgelegt. Die Vpn wurden aufgefordert, jedes dieser Sprichwörter entweder als richtig oder als falsch zu beurteilen. In der untenstehenden Tabelle 12 wurden in die JT-Spalte die Anzahl der jeweils akzeptierten Vorurteile sowie in die /-Spalte die Häufigkeit der auf sie jeweils entfallenden Vpn eingetragen. In den nachfolgenden vier Spalten folgt die Berechnung der Varianz gemäß der Formel (10). Tabelle 12 (1)

(2)

X

/

6 7 8 9 10 11 12 13 14 15

1 3 3 8 17 26 18 11 5 1

6 21 24 72 170 286 216 143 70 15

93

1023

N =

(3)

(4)

t - x

(X-M) —5 —4 —3 —2 —1 0 1 2 3 4

(5) (X—Mf 25 16 9 4 1 0 1 4 9 16

(6) f(X—M)2 25 48 27 32 17 0 18 44 45 16 272

54

Statistische Beschreibung. Streuungsmaße

Die Varianz beträgt in unserem Beispiel also 2,93. Diese Zahl besagt für sich allein noch nichts. Vielmehr ist die Varianz vor allem für Vergleiche wertvoll. In unserem Beispiel könnte es etwa um die Klärung der Frage gehen, ob die Tendenzen zur Akzeptierung von Vorurteilen bei Studenten naturwissenschaftlicher Fächer ihrem Ausprägungsgrad nach einheitlicher sind, als bei Studenten geisteswissenschaftlicher Fächer. Wollen wir dagegen über die Streuung allein in dieser speziellen Untersuchung genaueres wissen, so müssen wir uns eines anderen Streuungsmaßes bedienen: der Standardabweichung. Standardabweichung Die Varianz ist, ohne daß sie mit anderen Varianzen verglichen wird, kein geeignetes Maß zur direkten Schätzung der Streuung, da sie nicht die einfachen Abweichungen vom Mittelwert verarbeitet, sondern deren Quadrate. Dies müssen wir jetzt rückgängig machen, indem wir die Wurzel aus s 2 ziehen. Wir gelangen auf diesem Wege zu dem heute gebräuchlichsten Streuungsmaß, der Standardabweichung (s):

(11) Die Standardabweichung ist also gleich der Wurzel aus dem Mittelwert der quadrierten Abweichungen vom arithmetischen Mittel. Tabelle 13 zeigt die Berechnung der Standardabweichung (an einem Teilergebnis). Die Testleistungen der Vpn A bis G wurden nach Punkten X bewertet: Tabelle 13

Vp

X

A B C

15 14 11

E P G

9 7 4

D

10

Summe:

70

N= 7

t ¿X

X — M(X — Mf + 5 + 4

25 16

— 3 — 6

9 36

±0

88

+ 1 + 0 — 1

1 0 1

t

Z(X — Mf

Standardabweichung

N

55

7

Zuerst berechnet man die Summe der erzielten Testergebnisse: E X = 70. Danach bestimmt man das arithmetische Mittel, hier M = 10. Dies ermöglicht die Berechnung der Abweichungen vom Mittelwert, d. h. X — M l ) . Diese Abweichungen werden quadriert, wodurch die negativen Vorzeichen verschwinden. Die Summe der Quadrate der Abweichung, S (X — M)2 — 88, wird dann durch die Anzahl der Personen, N — 7, dividiert. Das Resultat lautet 12,57. Die positive Quadratwurzel aus diesem Wert ergibt dann die Standardabweichung s = 3,55. Bei einem größeren Material wird die Berechnung dadurch erleichtert, daß man eine Häufigkeitstabelle benutzt. Die Tabelle 14 bietet hierzu ein Beispiel. Es handelt sich hier um die weitergeführte Darstellung der Ergebnisse der Rechenprobe (s. Tab. 1). Tabelle 14 (1)

(2)

(3)

X

/

X—M

10 9 8 7 6 5

3 5 7 7 4 2

2,36 1,36 0,36 —0,64 —1,64 —2,64

28

N = 28

(4)

(5)

(X—M)*

/•(Z-Jf)1 16,71 9,25 0,91 2,87 10,76 13,94

5,57 1,85 0,13 0,41 2,69 6,97

54,44

M = 7,64

t

Zf(X — Mf

Das arithmetische Mittel in diesem Beispiel wurde bereits auf S. 44 berechnet und beträgt 7,64. Die Spalte 3 enthält die Abweichungen der -Y-Werte von diesem Mittelwert. In Spalte 4 sind die Quadrate dieser Abweichungen aufgeführt. Die negativen Vorzeichen sind durch die Quadrierung weggefallen. Es muß darauf Rücksicht genommen werden, wie viele Abweichungen im Material vorkommen. Deshalb werden die quadrierten Abweichungen mit den zugehörigen Häufigkeiten multipliziert. Die Resultate dieser Operation finden sich dann in Spalte 5. 4 ) Dabei muß die Summe der Abweichungen stets = 0 sein. Hierin liegt zugleich die Möglichkeit, die vorangegangene Rechnung zu überprüfen.

56

Statistische Beschreibung. Streuungsmaße

Die Summe der Werte in Spalte 5, d.h. S f • (X - Mf = 54,44, ist die gesuchte Summe der quadrierten Abweichungen. Diese Summe entspricht dem Zähler in der unten stehenden Formel 12 für die Standardabweichung. Nach der Division durch N und anschließendem Wurzelziehen erhält man s = 1,39. Die Berechnung erfolgt also nach der Formel: (12)

Wenn die Zahl der Fälle hundert und mehr beträgt und die graphische Darstellung ihrer Verteilung im Häufigkeitspolygon 2

sich der Glockenform annähert, fallen ungefähr -g- aller Beobachtungen in denjenigen Bereich der Skala, der zwischen einem Punkt mit dem Abstand der Standardabweichung links vom Mittelwert und einem anderen Punkt, der genauso weit rechts von ihm liegt. Variabilitätskoeffizient Bestimmte Fragestellungen fordern zu ihrer Lösung, daß man Streuungen miteinander vergleicht. Wenn aber zwei Verteilungen sehr unterschiedliche Mittelwerte aufweisen, ist es nicht immer ratsam, die Streuungsmaße einfach einander gegenüberzustellen. Selbst wenn sie aus der gleichen Skala hervorgehen, ist dies unzweckmäßig. Die Streuung der Körperlänge bei Neugeborenen zum Beispiel ist, in absoluten Maßen gemessen natürlich kleiner als diejenige bei Erwachsenen. Es kann jedoch beispielsweise für einen Wirtschaftspolitiker von Interesse sein, die Streuung der Höhe der Sparguthaben bei einer Stadtbevölkerung zu vergleichen mit der entsprechenden Streuung der Sparguthaben bei einer Landbevölkerung. Ein anderes Beispiel wäre die unterschiedliche Streuung der Krankheitsdauer (in Tagen) wie es sich bei zwei Gruppen von Patienten ergeben kann, die mit unterschiedlichen Medikamenten behandelt wurden. In jedem Falle müssen bei dem Vergleich von Streuungen empirische Normen berücksichtigt werden, da bei einem in einer Gruppe zufällig hohem Mittelwert die Wahrscheinlichkeit einer großen Streuung unangemessen erhöht ist. Aus diesem Grunde muß die Streuung in Beziehung zum Mittelwert gesetzt werden. Will man also Vergleiche der oben geschilderten Art durchführen, so berechnet man am vorteilhaftesten den Variabilitätskoeffizienten (V), der das Hundertfache der Standardabweichung, dividiert durch den zugehörigen Mittelwert darstellt. Die Multiplikation mit 100 erfolgt, um die Dezimalen zu vermeiden. Die Formel für den Variabilitätskoeffizienten lautet also:

Variabilitätskoeffizient

r =

57 dB)

Der Variabilitätskoeffizient kann nur verwendet werden, wenn die folgenden beiden Voraussetzungen erfüllt sind: 1. Die zur Quantifizierung der Beobachtungen dienende Skala muß einen absoluten Nullpunkt haben. 2. Diese Skala muß konstante Klassengrößen aufweisen. I n psychologischen Untersuchungen sowie in den methodisch und thematisch verwandten Forschungsgebieten sind diese beiden Bedingungen verhältnismäßig selten erfüllt 5 ). Beispiel: I n Untersuchungen zur „social perception" bedient man sich gern des Tachistoskops, eines Gerätes mit einer Vorrichtung zur sehr kurzen Darbietung von Wörtern und Bildern. I m vorliegenden Falle waren zwei Gruppen von Studierenden untersucht worden: die Eltern der ersten Gruppe blieben mit ihrem monatlichen Einkommen unter 500,— DM, die Eltern der 2. Gruppe lagen über 1000,— DM. Beiden Studentengruppen wurde im Rahmen einer Reihe neutraler Wörter u. a. das Wort „Sparsamkeit" im Tachistoskop angeboten. Für die durchschnittlich erforderliche Zeit zum Erkennen des Wortes ergaben sich folgende Werte: Gruppe 1: Ml = 5,4 msec 6 ) Gruppe 2: i f 2 = 3,1 msec

= 2,9 msec s2 = 1,6 msec

Die Gruppe 1 benötigt also eine durchschnittlich längere Auffassungszeit. Außerdem scheint der Vergleich beider Streuungen zu zeigen, daß die Vpn der Gruppe 1 in ihren Auffassungen weniger einheitlich waren. Doch zeigt die Verwendung des Variabilitätskoeffizienten, daß die Streuungen der Lesezeiten für das Testwort bei beiden Gruppen nahezu identisch sind:

Ob der geringe Unterschied beider Werte mit hinreichender Sicherheit eine Aussagefunktion hat oder aber zufällig ist, kann hier zunächst nicht entschieden werden. Wir werden später Probleme solcher Art ausführlich behandeln. 5 ) Während die Forderung nach konstanten Klassengrößen meist aus methodischer Sorglosigkeit unbeachtet bleibt, ist das Fehlen eines absoluten Nullpunktes oft im untersuchten Gegenstandsbereich begründet. T h u k s t o n e hat eine Methode zur Bestimmung eines „künstlichen" absoluten Nullpunktes entwickelt und zwar für den Bereich der Intelligenzforschung, die jedoch auf inhaltlich andersartige Skalen und ihre Meßwerte anwendbar ist. L. L. T h u r s t o n e , The Absolute Zero of Intelligence Measurement, Psychol. Rev. 35 (1928). 6 ) 1 msec (Millisekunde) ist der tausendste Teil einer Sekunde. 3,1 msec sind also 0,0031 sec oder etwas weniger als eine dreihundertstel Sekunde.

KAPITEL 6

Vorteile provisorischer Skalen Wenn die Beobachtungen aus vielen hohen stark gebrochenen und/oder stark variierenden Werten bestehen, kann die Berechnung von Mittelwert und Standardabweichung bei Verwendung der bisher besprochenen Formeln sehr langwierig werden. Die notwendige Rechenarbeit kann dann gegebenenfalls mit Hilfe der hier angegebenen Methoden abgekürzt werden. Alle diese Rechenverfahren beruhen auf dem Grundgedanken, die ursprünglich der Variable X zugeordnete Skala zwischenzeitlich durch eine x-Skala zu ersetzen. Zu dieser x-Skala gelangen wir, indem wir den erwarteten Mittelwert provisorisch = 0 setzen. Durch diese Transformation werden die Werte in der ar-Spalte unterhalb des provisorischen Mittelwertes (m) negativ. Die oberhalb des Mittelwertes liegenden Werte werden um dessen Betrag reduziert. Die so aus der X-Skala hervorgegangene ¡r-Skala muß in ihren Meßwerten dann am Ende des Rechenganges wieder in die ursprüngliche X-Skala überführt werden. Dabei ist sorgfältig darauf zu achten, daß bei der Aufstellung der Tabelle für die Umrechnung auf eine provisorische Skala die Spalte (1) die Variablewerte so enthält, daß der höchste Wert am Anfang der Tabelle zu stehen kommt 1 ). Die Anwendungsweise dieser Methode soll an der Bearbeitung des Beispiels in Tabelle 15 gezeigt werden. Beispiel: Die Studenten einer Hochschule für Leibesübungen wurden von einem Arzt untersucht. Dabei wurde auch ihre Körperlänge gemessen. Die Meßergebnisse sind in der folgenden Tabelle zusammengestellt : 1 ) Möglich wäre auch die entgegengesetzte Reihenfolge der Variablewerte. Dann ist allerdings in Formel (14) das Pluszeichen durch ein Minus zu ersetzen.

Provisorischer Skalen

59

Tabelle 16 (1)

(2)

(3)

(4)

(5)

(6)

X

/

X

fx

z2

fx2

191 188 187 185 183 182 180 179 178 177 176 175 174 173 172 171 170 169 168 167 166 164 163 161 159 158

1 1 1 2 3 11 5 12 29 36 52 49 78 83 64 62 45 31 33 22 8 12 4 1 1 1

324 225 196 144 100 81 49 36 25 16 9 4 1 0 1 4 9 16 25 36 49 81 100 144 196 225

324 225 196 288 300 891 245 432 725 576 468 196 78 0 64 248 405 496 825 792 392 972 400 144 196 225

18 15 14 12 10 9 7 6 5 4 3 2 1 0 — 1 — 2 — 3 — 4 — 5 — 6 — 7 — 9 —10 —12 —14 —15

18 15 14 24 30 99 35 72 145 144 156 98 78 0 — 64 —124 —135 —124 —165 —132 — 56 —108 — 40 — 12 — 14 — 15

647

— 61

t N

m = 173 M = 11

iV

10103

t fx

+ ™> = -¡r^r- + b47

t /x 2 173

=

172 91 cm

>

-

isf • x\* 1/1ÖIÖ3 /—61\2 „OK = 3 ' 9 5 c m h H =F"6« ( w )

Wir wählen zunächst den provisorischen Mittelwert. Dabei sollte derjenige Variablewert als provisorischer Mittelwert gewählt werden, dem allgemein die größte Häufigkeit entspricht, also der Gipfelwert. Dieser Wert wird als provisorischer Mittelwert m zum Nullpunkt der neuen »-Skala. In unserem Fall der Tabelle 15 wählen wir demgemäß versuchsweise m = 173. Die ar-Skala entsteht nun dadurch, daß wir m von jedem X-Wert abziehen: x = X — m. Die so entstandenen »-Werte der Spalte (3) werden mit den jeweiligen Häufigkeiten / multipliziert (Spalte 4). Die Spaltensumme beträgt in unserem Beispiel — 61.

60

Statistische Beschreibung

Der Mittelwert — ausgedrückt in den neuen Skalenwerten wird dann Z f x _ —61 —0,094.

647

N

Danach muß der Mittelwert der «-Skala wieder in die ursprüngliche Skala überführt werden, deren Nullpunkt ja tiefer liegt. Dies geschieht einfach durch Addition des provisorischen Mittelwertes zu dem in der «-Skala errechneten Mittelwert: M =

+ m.

(14)

Für das Beispiel der Tabelle 15 ergibt sich dann £¡1 M =

+ 173 = 172,91 cm.

Die Standardabweichung der in Tabelle 15 erfaßten Meßwerte wird auf analoge Weise berechnet. I / 27 / (X.

Nach Formel (12) ist s = 1/ —

N

M)2

— • Für M wird auch hier

m in die Formel eingesetzt. In der gleichen Weise wie bei der üblichen Berechnung von s sind die provisorischen «-Werte zu quadrieren. In Tabelle 15 finden wir diese quadrierten Werte in Spalte (5). Danach werden in Spalte (6) die entsprechenden Werte / • x2 gebildet, deren Summe ~ £ f x2 = 10103 beträgt. Zur weiteren Berechnung der Standardabweichung muß diese Summe durch N dividiert werden: L f (xf N

10103 = 15,615. 647

Y15,615 ist noch nicht die gesuchte Standardabweichung. Dieser Wert ist zu hoch, da die Abweichungen von m und nicht vom wahren Mittelwert M berechnet wurden. Deshalb subtrahieren wir 2] t 'X

Zf.x2

— —— von (M - m)2. Da aber M — —

b "» ist, beträgt die

Differenz zwischen M und m 2 f•x

IS f • x\2

M—tti = —jj—oder auch, nun quadriert, (M—m) 2 = I ^

j .

Die Formel für die Standardabweichung nach dieser Kurzmethode lautet also

In unserem Beispiel der Tabelle 15 beträgt die Standardabweichung nach der Formel (15) 1/10103 7-547

/—61\2 (ei7) = 6 1 5 - 0 , 0 0 9

= 3,95 cm.

61

Provisorische Skalen

Ist das Material in Klassen eingeteilt, muß das statistische Vorgehen jedoch etwas modifiziert werden: Man wird am besten diese Klassen so betrachten, als repräsentierten sie einzelne Variablewerte. Dadurch wird es möglich, die gesamte, am häufigsten besetzte Klasse provisorisch = 0 zu setzen. Tabelle 16 soll das Gesagte anschaulich machen. Tabelle 16 (1)

(2)

(3)

X

(5)

(6)

f-x

(4)

x2

f-x2

12 15 20 15 14 11 0 — 9 —14 —24 —16 —14

36 25 16 9 4 1 0 1 4 9 16 25

72 75 80 45 28 11 0 9 28 72 64 75

/

X

126—130 121—125 116—120 111—115 106—110 101—105 96—100 91—95 86—90 81—85 76—80 71—75

2 3 5 5 7 11 12 9 7 8 4 3

6 5 4 3 2 1 0 —1 —2 —3

Summa:

76

+ 9

m, = 98 i = 5

N

Sfx

M = i

—5

559

t

£ f x

N

+ m = 5 •

t

Sfx2 =

98,6

In der Tabelle 16 ist wieder die Verteilung der Intelligenzquotienten von 76 Probanden erfaßt. Dabei sind immer fünf Skaleneinheiten des Intelligenzquotienten zu einer Klasse zusammengestellt. Die Klassenbreite i beträgt also — wie auch Spalte (1) der Tabelle zeigt —5. Die Klassenmitte wird in der Klasse 96—100 zum provisorischen Mittelwert gewählt. Da 98 der mittelste der fünf Werte dieser Klasse ist, schreiben wir m = 98. Dieser Wert wird der Nullpunkt in der neuen «-Skala. Die Berechnung von Mittelwert und Standardabweichung geschieht dann auf gleiche Weise, wie im vorangegangenen Beispiel, nur daß man bei der endgültigen Korrektur außerdem auf die 2 fx

Klassenbreite Rücksicht nehmen muß. Der Ausdruck

— i n

Formel (14) gibt zwar an, wieviel zu m hinzugezählt werden muß,

62

Statistische Beschreibung

um zu M zu gelangen. Jedoch ist dieser Wert in einer ¿-Skala ausgedrückt, die wesentlich weniger differenziert ist als die eigentliche Skala (Klassenbreite i = 5). £ t•x Der Ausdruck — ^ — muß daher mit der Klassenbreite i multiN pliziert werden. Damit erhält man eine allgemeinere Berechnungsformel für den Mittelwert eines in Klassen eingeteilten Materials: M = i•

+ m.

(16)

Die Formel zur Berechnung des Mittelwertes mit Hilfe einer provisorischen Skala (14) erweist sich als ein Sonderfall der Formel (16) bei der die Klassenbreite i = 1 beträgt. Wie die Berechnung vorzunehmen ist, geht aus den Spalten 4—6 der Tabelle 16 hervor. Die Summe der fx-Werte in Spalte (4) gibt S f x = 9. Danach berechnet man M = 5 - - ^ - + 98 = 98,6. Die Berechnung der Standardabweichung bei in Klassen zusammengefaßtem Material geschieht nach Formel (15), nur daß der Wurzelausdruck mit der jeweiligen Klassenbreite multipliziert werden muß. Die generelle Berechnungsformel für s lautet also

Da der Ausdruck unter dem Wurzelzeichen nur in provisorischen «-Einheiten ausgedrückte Werte enthält, die infolge ihrer Zusammenfassung zu Klassen fünfmal gröber als die Werte der ursprünglichen X-Skala sind, muß der so berechnete s-Wert um das i-fache zu klein ausfallen. Die Korrektur geschieht einfach dadurch, daß man den Wurzelausdruck mit der jeweiligen Klassenbreite multipliziert. Die näheren Einzelheiten gehen aus den Spalten (5) und (6) der Tabelle 16 hervor. Die Spalte (5) enthält die quadratischen Abweichungen vom provisorischen Mittelwert, gemessen in «-Einheiten, und die Spalte (6) das Produkt aus diesen Werten und den zugehörigen Häufigkeiten. Die Summe der Spalte (6) gibt dann das gesuchte Z f x * = 559. Die Standardabweichung beträgt nun nach Formel (17)

Das Rechnen mit provisorischen Mittelwerten und provisorischen Skalen ist besonders vorteilhaft, wenn die Variablewerte Dezimalbrüche sind. Hierzu das folgende

Provisorische Skalen

63

Beispiel: I n einem Werk wurden die Höchstgeschwindigkeiten einer Serie von 193 Kraftfahrzeugen eines neuen Typs gemessen. Zu berechnen ist hier die mittlere Höchstgeschwindigkeit der getesteten Fahrzeuge sowie die Streuungen der erreichten Geschwindigkeiten : Tabelle 17

(1)

(2)

X

/

146,9—149,0 144,7—146,8 142,5—144,6 140,3—142,4 138,1—140,2 135,9—138,0 133,7—135,8 131,5—133,6 129,3—131,4 127,1—129,2

1 5 12 29 48 45 33 14 4 2

(3)

(4)

(5)

X

fx

s2

fx2

4 15 24 29 0 —45 —66 —42 —16 —10

16 9 4 1 0 1 4 9 16 25

16 45 48 29 0 45 132 126 64 50

4 3 2 1 0 —1 —2 —3 —5

193

h

(6)

—107

555

z\x

zfU

m = 139,15

i = 2,2

M = 2,2 T ^

7

+ 139,15 = 137,93 km/h

Die Klassenbreite war in unserem Beispiel recht ungewöhnlich gewählt, ohne provisorische Skala würde die Rechnung zusätzlich erschwert sein. Sie beträgt i = 2,2. Als provisorischer Mittelwert wurde wieder die Klassenmitte desjenigen Intervalls gewählt, das die meisten Fälle enthält: m = 139,15. Die Rechnung nach den Formeln (16) und (17) führt dann zu einem niedrigeren Mittelwert M = 137,93 km/h sowie einer relativ kleinen Streuung s = 3,53 km/h.

KAPITEL 7

Verteilungen Empirische Verteilungen Wir waren davon ausgegangen, daß in Gestalt von Zahlen oder Meinungsäußerungen vorliegende Untersuchungsergebnisse statistisch aufbereitet und ausgewertet werden können, wenn diese Fälle oder Beobachtungen über mehrere Variablewerte oder Klassen verteilt sind. Betrachten wir noch einmal die Verteilungen, die uns in den Beispielen begegnet sind, so hatten sie meist annähernd eine Glockenform. Dieser Form sind auch sonst die in Untersuchungen meist anfallenden Verteilungen ähnlich. Doch gibt es hiervon auch mehr oder weniger grobe Abweichungen. Die wichtigsten Abweichungen sind: 1. Schiefe Verteilungen: Die Fälle verteilen sich hier also asymmetrisch um den Mittelwert. Der Gipfel der Verteilung liegt dann weiter rechts oder auch links von der Mitte. Wir sagen, die Verteilung sei „schief". Bei solchen Verteilungen liegt der größere Teil der Werte auf der einen Seite vom Mittelwert, während eine geringere Anzahl von Werten über den anderen Teil der Skala breit streut. Dabei unterscheidet man zwischen positiver und negativer Schiefe. Einer Verteilung, deren Hauptanteil auf der linken Seite der Skala konzentriert ist, spricht man eine positive Schiefe zu, sofern links auf der Skala die kleineren Variablewerte angeordnet sind. Siehe Verteilung A in Figur 13. Die Verteilung C der gleichen Figur ist

Fig. 18

Empirische Verteilungen

65

dagegen negativ schief, da sich das Beobachtungsmaterial auf der rechten Seite, bei den höheren Variablewerten häuft. Die Schiefe wirkt sich dahingehend aus, daß das arithmetische Mittel und der Zentralwert unterschiedliche Werte ergeben. Je größer der Unterschied zwischen ihnen ist, um so größer ist auch die Schiefe. Diese Tatsache kann zur Erstellung eines Maßes für die Verlagerung einer Verteilung verwendet werden1). 2. Flache und steile Verteilungen: Die Glockenform kann sehr flach, aber auch sehr steil ausfallen. Diese Abflachung oder „Übertreibung" der Glockenform wird als Exzeß bezeichnet. Der Exzeß gibt darüber Aufschluß, ob sich das Material spitz um die Mitte der Verteilung sammelt oder ob die Verteilung vergleichsweise abgeflacht ist. Dabei verwendet man die Normalverteilung als Vergleichsmaßstab. Eine Verteilung, die spitzer als die Normalverteilung ist, zeigt einen positiven Exzeß. Ist sie dagegen abgeflachter als die Normalverteilung, so spricht man von einem negativen Exzeß. 3. Mehrgipflige Verteilungen: Eine empirische Verteilung muß keineswegs nur einen Gipfel haben. Sie kann, wie man sagt, auch „zweigipflig" oder gar „mehrgipflig" sein. Meist deutet sich in der Zwei- oder Mehrgipfligkeit die Tatsache an, daß wir es mit der Überlagerung mehrerer Verteilungen zu tun haben. Empirisch gefundene Verteilungen lassen sich mehr oder weniger zwanglos als Abweichungen von der symmetrisch, eingipfligen Glokkenform beschreiben. Daher stellt diese Idealform, wenn wir sie einmal so nennen dürfen, den theoretisch wichtigsten Fall einer Verteilung dar. Er steht am historischen, aber auch am praktischen Ausgangspunkt aller wahrscheinlichkeitstheoretischen Überlegungen über das Zustandekommen von Verteilungen. Die mathematischen Modelle jener symmetrischen eingipfligen Verteilung liegen den meisten statistischen Rechenvorschriften zugrunde, die uns im folgenden noch begegnen werden. Ihnen entsprechen die binomialen, hypergeometrischen, normalen oder Gauß-Laplaceschen Verteilungen2). Die häufigsten Abweichungen von der eingipfligen Glockenform zeigen das Merkmal der Asymmetrie. Sie sind vor allem bei einseitigen Begrenzungen anzutreffen, wenn z. B. Null nicht in negativer Richtung unterschritten werden kann. In diesem Falle ist Als Maß für die Schiefe einer Verteilung benutzt man nach K . PEAKSON eine Größe, die sich folgendermaßen errechnet: Man zieht vom arithmetischen Mittel den Wert mit der größten Frequenz ab und dividiert das erhaltene Ergebnis durch die Standardabweichung. Im Fall A (Fig. 18) ist der erhaltene Wert positiv, im Fall B — der symmetrischen Verteilung —• gleich Null und für den Fall C negativ. 2 ) Wir werden die wichtigsten Eigenschaften dieser Verteilungen diskutieren. Wer aber an ihrer wahrscheinlichkeitstheoretischen Ableitung interessiert ist, sei auf die weiterführende Literatur verwiesen. 5

Haseloff, Statistik,

2. Aufl.

66

Statistische Beschreibung. Verteilungen

unter Umständen eine so extreme Schiefe zu beobachten, daß der Abstieg auf der einen Seite praktisch wegfällt. Dies beobachten wir zum Beispiel bei der Alters- oder Einkommenverteilung in der Bevölkerung, oder auch bei Unfallhäufigkeiten begegnen uns gleichfalls diese J-förmigen Verteilungen. Wir haben es in diesen Fällen häufig mit sogenannten Poissonschen Verteilungen zu tun, auf die wir weiter unten noch zu sprechen kommen. Beispiel: Typisch J-förmige Verteilungen begegnen uns beispielsweise auch in soziometrischen Untersuchungen, und allgemein in der sogenannten Kleingruppenforschung. Hier geht es darum, die Kontakte zwischen den Mitgliedern einer Gruppe quantitativ zu analysieren. Auf Befragen geben hierzu die Gruppenmitglieder über ihre wechselseitigen Kontaktwünsche und -erwartungen Auskunft. So wurde zum Beispiel eine größere Gruppe von Studenten gefragt, wem der Kommilitonen sie ein Geheimnis anvertrauen würden. Es ergab sich dabei folgende Verteilung der Studenten hinsichtlich der Häufigkeit, mit der jeder einzelne Gruppenangehörige von anderen Gruppenmitgliedern genannt wurde : Die Ergebnisse der sozio_ . „ , _ . . , — — metrischen Untersuchung TabeUe 18 Memungshaufigkdt P % ^ ^ ^ ^ ^ 0 1 2 3 4 5 6 7 8 9 10 11 12

mal „ „ „ „ „ „

34 32 15 7 4 3 1 2 0 1 0 0 1

der Angehörigen der Gruppe ungenannt bleibt, daß ihnen also kein Gruppenmitglied ein Geheimnis anvertrauen möchte. Ein weiteres Drittel wird genau einmal genannt. Es handelt „ sich dabei meist um dieje„ nigen Gruppenmitglieder, „ die in stabilen Einzelkon„ „ takten stehen. Studierende mit mehr als sieben Nen100 nungen sind selten. Es sind meist Gruppenmitglieder, die auch in anderer Hinsicht den Mittelpunkt der Gruppe bilden. Graphisch übersetzt stellt sich die gefundene Verteilung in Fig. 14 auf Seite 67 dar. Einen interessanten und nicht so seltenen Fall stellt schließlich die zweigipflige U-förmige Verteilung dar. Das am häufigsten für sie angeführte Beispiel ist die Verteilung der Grippesterblichkeit auf die Altersklassen der Bevölkerung. An dieser Krankheit sterben nämlich am häufigsten Säuglinge und sehr alte Menschen. Es gibt jedoch auch typische Urteils- und Meinungsverteilungen, bei denen dieser Verteilungstypus sich herausstellt. Meist handelt es sich

Empirische Verteilungen

67

30

20

10

0

e

ï

6

8

10

12

Nennungshäufigkeit

Fig. 14

dabei um Stellungnahmen und Urteile zu einem peniblen oder wirklich wichtigen Problem, über das jedoch eine nur sehr unvollständige Information zur Verfügimg steht. Beispiele wären: „Es gibt ein Fortleben nach dem Tode", „Der Mars ist von menschenähnlichen Wesen bewohnt" oder „Durch den technischen und wirtschaftlichen Fortschritt sind die Menschen heute glücklicher geworden". Beispiel: Im folgenden Beispiel sollten 326 Vpn u. a. beantworten, für wie wahrscheinlich sie es halten, daß Menschen ferne Sterne des Milchstraßensystems jemals besuchen werden: Die Eintrittswahrscheinlichkeiten wurden in verbaler Form vorgegeben : Tabelle 19: P%

bestimmt wahrscheinlich möglicherweise WN vermutlich nicht sicher niemals es ist unmöglich

34 15 7 8 4 9 23

100 Der typische Charakter dieser Verteilung wird in graphischer Darstellung besonders deutlich (Fig. 15). 5*

68

Statistische Beschreibung. Verteilungen

Fig. 15 Binomialverteilung Unter den Glockenkurven k o m m t den symmetrisch geformten die g r ö ß t e B e d e u t u n g zu. M a n n e n n t sie deshalb a u c h n o r m a l e Verteilungen. Sie bilden sich ü b e r a l l d o r t heraus, wo Ereignisse n u r d u r c h Zufälle b e s t i m m t , u m eine Zielgröße s t r e u e n . D i e s ist z u m Beispiel der Fall, w e n n ein Schütze vielfach h i n t e r e i n a n d e r auf eine Schießscheibe schießt oder w e n n eine ganze R e i h e v o n Messungen a n ein u n d d e m s e l b e n O b j e k t a u s g e f ü h r t werden 3 ). W i r k ö n n e n u n s dies i m kleinen M a ß s t a b besonders a n der Galt o n s c h e n Zufallsmaschine v e r a n s c h a u l i c h e n : M a n schlägt i n ein B r e t t eine größere A n z a h l v o n N ä g e l n so ein, d a ß sie R e i h e f ü r R e i h e g e n a u „auf L ü c k e " s t e h e n (vgl. Fig. 16): 3

) Es ist in diesem Zusammenhang von gutem heuristischem Wert, Treffgenauigkeit („Akkuranz") und Wiederholungsgenauigkeit („Präzision") zu unterscheiden. Im ersten Falle handelt es sich um die durchschnittliche Abweichung von der Zielgröße, im zweiten Fall dagegen um zweierlei: Erstens um die Abweichungen der geschätzten Werte vom wahren Wert oder die Abweichung der Treffer vom Ziel. Zweitens um die Streuung der Nennungen um einen Zielpunkt im bestimmten Grade verfehlenden Wert. Beim Schießen z. B. würde einer hohen Treffgenauigkeit eine enge Streuung um die 12 entsprechen. Die Wiederholungsgenauigkeit besagt demgegenüber, daß die Waffe einen systematischen Fehler erzeugt, so daß beispielsweise die Mehrzahl der Treffer im Bereich von „zwei oben rechts" hegen. In Kurzform könnte man sagen: Wiederholungsgenauigkeit ist gleich Treffgenauigkeit am falschen Ort.

Binomialverteilung

69

' o o oN 'O o o o x v 'o o o o o ' 0 0 0 0 0 0" ' o o o o o • o o 'N 'o o o o o o o o ^ o o o o o o o o o ' / o o o o o o o o o o \

msm

11I

M

Fig. 16

Stellt man dieses Nagelbrett dann schief und leitet von einer trichterförmigen Öffnung aus Kugeln (die mögliehst nur wenig kleiner sind, als der Nagelabstand) in das Quadrat ein, so sammeln sich die Kugeln in unten angebrachten Fächern. Im mittleren Fach kommen stets die meisten Kugeln zu liegen, während nach den Seiten hin die rechten und linken Fächer immer weniger gefüllt sind. Es bildet sich auf diesem Wege eine Zufallsverteilung heraus. Allerdings geschieht dies nur, wenn die Anzahl der Kugeln hinreichend groß ist und der Einfüllvorgang keinen Einfluß auf den Weg der einzelnen Kugel zu nehmen vermag. Die so entstehende Zufallsverteilung läßt sich mathematisch darstellen. Und zwar gelingt dies, wenn wir den zweigliedrigen Ausdruck, das sogenannte Binom ( a + b ) der Reihe nach lmal, 2mal, 3 mal usf. mit sich selbst multiplizieren. Wir erhalten so: (a+6) 1 = a+b (a+bf = a2 + 2ab + b2 a 3 + 3a 2 &+ 3a6 2 + b3 (a+6) s = 4 4 a + 4 a3b + 6a 2 6 2 + 4ab 3 + b* (a+&) = und so fort bis: (a+b)- =

a"b°-

an~1b1 -

Statistische Beschreibung. Verteilungen

70

Die Beizahlen der Summanden bezeichnet man also als Binomialkoeffizienten 4 ). Sie lauten in der zweiten Zeile z. B. 1 2 1 oder in der vierten Zeile 1 4 6 4 1. Jede einzelne Zahl stellt dabei die Summe der beiden, über ihr stehenden Zahlen dar, in deren Lücke sie steht. Diese Binomialkoeffizienten lassen sich in Form des sogenannten Pascalschen Dreiecks anordnen: Binomialkoeffizienten

für die Potenz n

1

0 1

1

1

1 2 1 1 3 3 1 1 4 6 4 1 1 5 10 10 5 1 1 6 15 20 15 6 1 1 7 21 35 35 21 7 1

2 3 4 5 6 7

Jede Zeile in diesem Pascalschen Dreieck entspricht der Verteilung in einer speziellen Galtonschen Zufallsmaschine: Die erste Zeile käme zustande, wenn die Kugeln nur in ein Fach fallen können, die vierte Zeile dagegen würde sich ergeben, wenn fünf Fächer zur Verfügung stehen und die dreiundzwanzigste Zeile schließlich resultiert bei einer Zufallsmaschine mit vierundzwanzig Fächern. Die Binomialkoeffizienten müssen hierbei als Verhältniszahlen verstanden werden: Angenommen, wir haben ein Galtonbrett mit vier Fächern und lassen genügend viele Kugeln hinunter rollen. E s werden sich die Anzahlen der Kugeln in den einzelnen Fächern wie 1 : 3 : 3 : 1 verhalten. Diese Verteilung wird eine Binomialverteilung genannt. Beispiel: Nehmen wir an, wir hätten 2000 Familien mit je vier Kindern. Wie viele Familien werden wahrscheinlich keine Jungen, einen Jungen usw. bis schließlich vier Jungen haben ? Logisch gibt es insgesamt fünf Möglichkeiten: 4

) Hierin ist z. B. Qj lies „sieben über drei" eine abgekürzte Schreibweise

7•6•5 für ——-—— = 35. Dementsprechend bedeutet der Binomialkoeffizient

/U\ ' \ 41//

ILIO-9.8_ 1- 2 • 3 • 4 1-

w a

Dabei bestimmt sich die Anzahl der Faktoren im Zähler durch den Wert der untenstehenden Zahl, wobei im Nenner prinzipiell mit 1 zu zählen begonnen wird. Der Zähler des Binomialkoeffizienten beginnt prinzipiell mit der angegebenen Zahl und erreicht in fallender Reihe so viele Glieder wie im Nenner angegeben sind.

Binomialverteilung 4 Jungen 3 Jungen 2 Jungen 1 Junge kein Junge

71

kein Mädchen 1 Mädchen 2 Mädchen 3 Mädchen 4 Mädchen

Wir können davon ausgehen, daß es praktisch zufällig ist, ob ein Junge oder ein Mädchen geboren wird. Demnach ist jede der fünf Aufteilungsmöglichkeiten einem Fach in der Galtonschen Zufallsmaschine vergleichbar. Wir hätten demnach ein Brett mit fünf Fächern und 2000 Kugeln. Wie sich die Kugeln etwa verteilen würden, sagt uns die fünfte Zeile im Pascalschen Dreieck, nämlich 1: 4 : 6 : 4 : 1 . Diese Zahlen hätten wir dann so umzurechnen, daß ihre Summe 2000 ergibt: Tabelle 20 (1)

(3) f

(2)

F 1 2 3 4 5

0 Jungen und 4 Mädchen 1 Junge und 3 Mädchen 2 Jungen und 2 Mädchen 3 Jungen und 1 Mädchen 4 Jungen und 0 Mädchen

125 Familien 500 Familien 750 Familien 500 Familien 125 Familien

N = 2000 Familien

In komplizierteren Fällen ist es geboten, die jeweilige Häufigkeit / direkt zu berechnen. Dies ist mit folgender (unseren didaktischen Prinzipien entsprechend geschriebener) Formel möglich5). f = N-(F-1).pX-{l-vf-z-i

(18)

F ist hier die Anzahl der Variationsmöglichkeiten von X. In unserem Beispiel ist F = 5. p dagegen stellt die Wahrscheinlichkeit dar, mit der eine der Alternativen tatsächlich realisiert wird, hier also die Wahrscheinlichkeit, daß die Eltern einen Jungen bekommen. p — 1 würde bedeuten, daß es in jedem Falle ein Junge wird. Jungen und Mädchen sind aber praktisch fast gleichwahrscheinlich. Also beträgt in unserem Beispiel p = 0,5; würde dagegen nur jedes zehnte Kind ein Junge werden, so wäre^» = 0 , 1 . Deshalb lautet die Berechnungsformel (18) für unser Beispiel: • 0,5^ • 0,5 4 " x .

/ = 2000 •

5 ) Die Formel (18) geht aus der Wahrscheinlichkeit W hervor, in jV-Fällen -Xmal ein bestimmtes Ereignis anzutreffen, wenn die Einzelwahrscheinlich-

keit p ist: Wm . x — ( j i ) '

• (1

72

Statistische Beschreibung. Verteilungen

Der Rechengang geht aus folgender Tabelle hervor: Tabelle 21 (1)

(2) 4

(3)

(4)

(5)

X

X

0,5*

0,54-X

/

0 1 2 3 4

1 4 6 4 1

1 0,5 0,25 0,125 0,0625

0,0625 0,125 0,25 0,5 1

125 500 750 500 125

F =

5

N = 2000

(6)

P% 6,25 25,0 37,5 25,0 6,25 100

Die Spalte (6) enthält die prozentuale Häufigkeitsverteilung. In der ersten Reihe beträgt P% = 6,25. Dieser Wert besagt zweierlei : Erstens ist es die prozentuale Häufigkeit des Falles, daß alle Rinder Mädchen sind. Zweitens drückt P % zugleich die Wahrscheinlichkeit aus, daß wir in einer zufällig aus der untersuchten Gruppe herausgelösten Familie mit vier Kindern ausschließlich Mädchen antreffen. Wegen der forschungstechnischen Wichtigkeit derartiger prozentualer Zufallsverteilungen teilen wir einige davon im Anhang mit (Tafel A). Poisson-Verteilung Innerhalb einer großen Reihe von Beobachtungen, Messungen oder Testergebnissen können die jeweils untersuchungswichtigen Klassen von Ereignissen sich als nur selten besetzt herausstellen, die erwarteten Fälle oder die untersuchungswichtigen Aussagen werden dann nur in kleiner Anzahl angetroffen. Mit diesem Problem hat sich der französische Mathematiker und Physiker P O I S S O N 6 ) schon sehr früh (1837) beschäftigt. Er fand für die Behandlung des Problems eine geeignete Formel. Diese blieb 61 Jahre lang unbeachtet und wurde erst im Jahr 1898 durch L . v. B O B T 7 K I E W I C Z wiederentdeckt ). 1907 hat dann der Chemiker W. S. G Ö S S E T , der seine bedeutenden statistischen Arbeiten unter dem Pseudonym „Student" veröffentlichte, die Formel zum dritten Male entdeckt 8 ). 6 ) QUBTBLET (Seite 9) hielt das G A U S S - L A P L A C I S C H E Fehlergesetz für ein fundamentales Naturgesetz, von dem er erwartete, daß es sich auch in allen Ereignisverteilungen des sozialen Lebens durchsetzen müßte. K. POISSON, der selbst für das Fehlergesetz die heute noch übliche Bezeichnung „Normalverteilung" eingeführt hat, erkannte demgegenüber, daß mindestens für die Sozialstatistik die Gaußsche Verteilung keineswegs die Regel, sondern eine Ausnahme darstellt. Er demonstrierte viele Verteilungstypen, die in Kurvendarstellung durchaus asymmetrische und auch zweigipflige Formen aufweisen. ') L. v. BORTKIEWICZ „Das Gesetz der kleinen Zahlen", Leipzig (1898). 8 ) Student „On the error of counting with haemaeitometer", Biometrica

V o l . V , (1907).

73

Poisson-Verteilung

Weigen unter 2000 Fällen nur 50 das Merkmal X auf, dann ist die Wahrscheinlichkeit sehr klein, daß in einer zufälligen Auswahl dieses Merkmal X angetroffen wird. Wir bezeichnen diesen Sachverhalt als „seltenes Ereignis". Hier wird die Binomialverteilung zu einer Verteilung

seltener Ereignisse,

wie sie P o i s s o n b e s c h r i e b e n h a t .

Diese sogenannte „Poisson-Verteilung" ist also dadurch charakterisiert, daß p gegen Null geht, ohne diesen Wert jedoch zu erreichen, während F unendlich groß wird. Jedoch behält das Produkt von p und F stets einen konstanten, kleinen Wert. Klein ist also nicht p allein, sondern F • p9). Die Poissonsche Formel findet heute in der Physik, aber beispielsweise auch in der Treffertheorie der Biologie, in der Bevölkerungsstatistik und in der modernen psychologischen Testtheorie wichtige Anwendungen. Dabei ist die Verteilung nach Poisson durchaus als Spezialfall aus der Binomialverteilung abzuleiten. Erinnern wir uns zunächst an die Formel der Binomialverteilung:

M

Für die Poisson-Verteilung können wir p = -y- setzen, wenn M (z. B. in der GALTONschen Zufallsmaschine) die mittlere Anzahl von Kugeln pro Fach bedeutet, dabei beschreibt F die Anzahl der Fächer, also den der Variationsmöglichkeit. M

Setzen wir in der Formel der Binomialverteilung p = ^ . so ist /F—1 \

!M

1

l

In der Verteilung der seltenen Ereignisse soll nun F, wie wir gesehen haben, sehr groß sein. Wir lassen deshalb F unendlich groß werden. Dann geht der Ausdruck

(F—1\

gegen e

(-f)

und

1 _

1 X\

F—1 F

F—2 F

F—3 F

da alle anderen Faktoren gleich 1 werden. Beachten wir beides beim Grenzübergang als Formel für die Poissonsche Verteilung:

F—X F

gegen

1 X!

oo, so erhalten wir

N • Mx A. le 9

) Demgegenüber ist das Vorliegen einer Normalverteilung daran gebunden, daß F • p sehr groß ist.

74

Statistische Beschreibung. Verteilungen

Hier ist hervorzuheben, daß sich die Parameter der PoissonVerteilung vergleichsweise leicht bestimmen lassen, da die als die Elemente der Formel sich manifestierenden Realbedingungen mit den Parametern der Grundgesamtheit direkt verknüpft sind. So stellt sich vor allem das arithmetische Mittel als das Produkt von Variationsmöglichkeit und Eintrittswahrscheinlichkeit dar10). M = F •p

(20)

Die Standardabweichung der Poisson-Verteilung ist dann die Quadratwurzel aus dem arithmetischen Mittel der Verteilung: 8 = VW

= V F - p .

(21)

Die Aussagefunktion der Poisson-Verteilung soll das folgende Beispiel verdeutlichen. Beispiel: Zur Erfolgskontrolle einer Werbeaktion und zur Überprüfung der Prognose wurden Werbemittel in N = 472 gleichgroßen Ortschaften der B R D gestreut. Als Erfolg wurde die Einsendung eines Coupons gezählt. Es kam zu 441 Coupon-Reaktionen. Die mittlere Anzahl von Coupon-Reaktionen pro Ort beträgt also M = 441:472 = 0,9343. Für den Fall, daß die Bevölkerungsstruktur der Ortschaft für den Erfolg der Werbeaktion bedeutungslos wäre, müßte die Verteilung der Coupon-Reaktionen zufällig sein, d. h. in diesem Falle der Poisson-Verteilung folgen. Für diesen Fall müßte die tatsächliche Verteilung der Coupon-Reaktionen hinreichend mit der Verteilung nach Formel (19) übereinstimmen. F

(Z) =

0,9343*. e ^ 8 ' 3 . ^

=

.

^

JL ! I Hier sei jedoch hervorgehoben, daß die Rechenarbeit durch die Verwendung von Logarithmen stark vereinfacht werden kann. Die hierzu erforderliche Formel lautet: log F (X) = X • log 0,9343 + log 185,389 — log (X!). Danach berechnen sich die Werte der Spalte (2) in der Tabelle 22. Unser Beispiel zeigt, daß die Übereinstimmung der empirischen und der nach Poisson errechneten Daten so groß ist, daß tatsächlich angenommen werden kann, daß der Erfolg der Werbeaktion nicht von Einflußgrößen abhängig ist, die mit der Größe, dem Charakter oder der Struktur der beworbenen Ortschaften verknüpft sind. Diese Erkenntnis schließt natürlich nicht aus, daß die Zufallsverteilung Ausdruck einer großen Anzahl anderer Einflußgrößen ist, die beispielsweise mit dem Alter, Geschlecht oder Einkommen 10 ) Hier ist allerdings zu beachten, daß wir es im folgenden nicht mit den aus der Stichprobe bestimmten Maßwerten zu tun haben, sondern eben mit den Parametern der Population. Sie müßten eigentlich —• wie wir es später auch tun werden — mit griechischen Buchstaben symbolisiert werden.

Normalverteilung Tabelle 22 (1)

(2)

(3)

(5)

W

X

/(*)

/

0 1 2 3 4 5 6 7

185,4 173,2 80,9 25,2 5,9 1,1 0,2 0,0

186 171 76 28 9 1 0 1

0 171 152 84 36 5 0 7

471,9 N = 472

455

f-x

0,92 0,00 1,08 4,16 9,24 16,32 25,40 36,48

171 0 82 116 83 16 0 36 504

M =

= 0,93

M•

= 0,97

. -

.

(7)

( X — M f f(X-M)

0,96 0,04 1,04 2,04 3,04 4.04 5,04 6,04

empirisch ermittelt:

2f • X

(6)

(X-M)

nach POISSON errechnet:

N

75

455 472

0,96

= | / g i ~ / i ö ä r ^ 1,03.

der umworbenen Individuen zusammenhängen. Nur die Frage der Ortsabhängigkeit des Werbeeinsatzes wurde geklärt. Normalverteilung Die Normalverteilung ist für die Statistik von größter Bedeutung. Sie wurde nach MOIVRE (1733) und LAPLACB (1774) von GAUSS (1823) berechnet. GAUSS gab ihr damals den Namen „Fehlerkurve", weil er sie im Zusammenhang mit den bei physikalischen Messungen entstehenden Fehlern erarbeitete. Auch heute noch wird bei entsprechenden Problemen von „Fehlerkurve" gesprochen. Ein typisches Problem solcher Art ist die vielfache Wiederholung von Messungen an ein und demselben Objekt, zum Beispiel der Abstand eines Doppelsterns. Alle diese Messungen weichen mehr oder weniger stark voneinander ab. Bei hinreichend großer Anzahl ist jede der Abweichungen von dem zu suchenden tatsächlichen Wert als zufällig zu betrachten, sofern keine systematischen Fehler auftreten (durch Temperaturschwankungen, Wechsel des Versuchsleiters u. ä.). Alle Meßwerte gruppieren sich dabei wie einer Regel entsprechend um einen Mittelwert. Eine wichtige Leistung von C. F. GAUSS ist es nun, diese „Regel" als eine mathematische Gesetzmäßigkeit formuliert zu haben, die die Gruppierung der Meßwerte um den Mittelwert aufzeigt. Es gibt viele theoretische und praktische Anlässe dafür, eine große Zahl von Messungen an ein und demselben Objekt zu vollziehen. Jedoch besteht ein wichtiger Unterschied zwischen biologischen, anthropologischen und verhaltenswissenschaftlichen Mes-

76

Statistische Beschreibung. Verteilungen

sungen einerseits und denjenigen der klassischen Physik andererseits 11 ). I m ersten Falle werden die Messungen nämlich an einem Objekt nicht tausende Male wiederholt. Vielmehr konstituiert jede Messung ein neues Objekt, da der „Gegenstand" der Messung im theoretischen Kontext nur als Meßwert figuriert. Denken wir an die Verteilung von Intelligenzquotienten, die mit Hilfe eines Tests ermittelt wurden, so sind die dabei sich ergebenden Verteilungen der gaussschen Fehlerkurve in anderer Hinsicht hinreichend ähnlich. Die Unterschiede der jeweils ermittelten Intelligenzmaße resultieren aus einer Fülle unterschiedlicher Einflußgrößen. Hier sind die unterschiedlichen biologischen Leistungsdeterminationen hervorzuheben ; hinzu kommen stark differierende Erziehungsverhältnisse und Ausbildungsmöglichkeiten, schließlich fügt die Testbatterie selbst einige (nur teilweise kontrollierbare) Bedingungen hinzu. Alle diese Einflußgrößen wirken in ihrem Zusammenspiel wie die Nägel auf dem GALTONbrett und bedingen daher, sofern allerdings genügend viele Fälle vorhanden sind, eine G A t r s s s c h e Normalverteilung. Immer natürlich vorausgesetzt, daß keine systematischen — z. B. im Untersuchungsverfahren oder in der Auswahl der Untersuchungspersonen begründeten — Fehler den Kurvenverlauf der Ergebnisse verzerren. Die Normalverteilung stellt nun den weitaus wichtigsten Grenzfall der Binomialverteilung dar. Allgemein kann gesagt werden: Die Binomialverteilung geht dann in die Normalverteilung über, wenn F gegen Unendlich geht und p = 0,5 ist. Bedingungen f ü r das Auftreten der Normalverteilung sind, daß unendlich viele Variationsmöglichkeiten zugänglich sind und daß die Abweichung vom Mittelwert nach jeder Seite hin gleichwahrscheinlich ist. Die dabei entstehende Verteilungskurve ist durch eine Exponentialfunktion 1 2 ) beschreibbar. I n der hier verwendeten Symbolsprache hat die die Normalverteilung betreffende Exponentialfunktion folgendes Aussehen : _ (X-Af)» 282 / = fn " e • (22) Dabei ist e — wie schon gesagt — die Basis der natürlichen Logarithmen, also e = 2,7183. fm ist die Höhe der Ordinate am Mittelwert M. I n der Normalverteilung beträgt fM gleich 1/s Y2n, f ü r den Fall, daß die Fläche zwischen Kurve und Abszissenachse gleich 1 ist. Die Gestalt dieses Ausdrucks für die Höhe der Gaußschen Verteilung im Mittelwert hängt damit zusammen, daß in der Fehn ) In der modernen Atomphysik haben wir entsprechende Verhältnisse, die gleichfalls keine wiederholten Messungen am selben Objekt erlauben. 12 ) Exponentialfunktionen sind von der Art / (2) = e 2 .Die hier hochgestellte Veränderliche 2 ist der Exponent.

Normalverteilung

77

lertheorie die Treffgenauigkeit („Akkuranz", Anm. 3, S. 68) das Reziprok der Standardabweichung multipliziert mit j/2~ ist. Dieses Maß entspricht dem Wert h. Damit gewinnt die Formel für die Normalverteilung folgende Gestalt:

/=

Vn

• e-h'(X-M)'

Dabei ist h = — — . Wenn h anwächst, wird die Normalvertei8-V2 lung schmaler, d. h. sie bekommt einen positiven Exzeß. Demgemäß mißt h auch die Dichte, mit der die Beobachtungen um M streuen. Die wichtigsten Eigenschaften der Normalverteilung werden in der Figur 17 veranschaulicht. Diese wichtigen Eigenschaften sind die folgenden : 1. Die Kurve reicht auf der x-Achse von — oo bis + Das bedeutet, daß die Normalverteilung — anders als die Binomialverteilung — unendlich viele Variationsmöglichkeiten F aufweist. Da jede einzelne Variationsmöglichkeit besetzt sein muß, muß zwangsläufig auch N unendlich groß sein. 2. Die Kurve hat ihr Maximum bei M und fällt von dort aus nach beiden Seiten symmetrisch ab. 3. Die beiden steilsten Anstiege der Kurve (ihre sogenannten Wendepunkte) liegen bei M — s und bei M -)so daß der zwischen ihnen liegende Abszissenabschnitt gleich 2 s ist. 4. Die Tangenten in den Wendepunkten schneiden die Abszissenachse in den Punkten M— 2 s und M + 2 s.

78

Statistische Beschreibung. Verteilungen

5. Es ist genau bekannt, wieviel Prozent der Fälle oder Beobachtungen in bestimmten Abschnitten der Normalverteilung zu liegen kommen.

Mit Hilfe der Berechnung der Standardabweichung gelangen wir zu einer statistisch wichtigen und praktischen Ordnung der Fälle: 68,3% aller Beobachtungen hegen um den Mittelwert M und innerhalb der Grenzen, die durch (M + s) und (M — s) definiert sind. 95,5% aller Fälle oder Beobachtungen liegen zwischen den Grenzen {M -f 2 s) und (M — 2 s). Bis auf 0,3% liegen schließlich alle Beobachtungen zwischen den Grenzen (M + 3 s) und (M — 3s). Dies geht aus Figur 18 hervor, aus der man auch ersehen kann, welche Anteile zwischen anderen Werten der Skala liegen. Zwischen 2 s und 3 s liegen in der GAUSSSchen Verteilung also 2,1 % und oberhalb 3 s nur noch 0,1% der Beobachtungen.

/T\ Fig. 18

Eine andere wichtige Eigenschaft der Normalverteilung liegt in der Möglichkeit, kumulative Häufigkeiten auszudrücken. Zum Beispiel wird die Beurteilung von Menschen mit Hilfe exakter psychologischer Methoden erleichtert und präzisiert, wenn man den gewonnenen Ergebnissen einen Ort innerhalb der nach kumulativen Häufigkeiten geordneten Gesamtergebnisse zuweist. Die GATTSSsche Kurve gewinnt als Summenkurve folgendes Aussehen (Fig. 19): 99,9%

100%

50%

50%

-3s

-2$

-IS

M

-+1S

~*2s

+3S

Fig. 19

Diese Kurve gibt an, wieviel Prozent der Verteilung jeweils unter einem bestimmten Wert liegen. Die Prozentwerte der Kurve

Normalverteilung

79

erhält man durch Summierimg der Prozentzahlen der Figur 18. Dementsprechend liegen 84% der Verteilung unter dem Wert + l s . Diesen Wert erhält man durch Addition der Prozentzahlen links von + 1 s in Figur 18, d. h. 0,1 + 2 + 14 + 34 + 34 = 84,1 oder abgerundet 84%. Die verschiedenen Werte der Kurve werden in Tabelle 6 auf S.239 detailliert angegeben. Die Tabelle G wird sich für uns bei der Bearbeitung vieler Aufgaben als sehr nützlich erweisen. Es ist übrigens interessant sich klar zu machen, welche Formen die Normalverteilung bei unterschiedlicher Streuung anzunehmen vermag. Die folgende Figur zeigt die Normalverteilung für M = 2 sowie drei unterschiedliche Werte für s = 0,5, s = 1 und s =2. Setzen wir die jeweiligen Werte für M und s in die Formel (22) ein, so ergibt sich für die unterschiedlichen Werte von s: / = ]/|.e-2(X-2>'

(für 8 = 0,5)

(X-2)' (für s = 1)

1/2^ ( X - 2) 3

/=

2J/27T

(für s = 2)

80

Statistische Beschreibung. Verteilungen

Abschließend wollen wir darauf hinweisen, daß eine der Normalverteilung ausreichend ähnliche Verteilung immer dann möglich und also auch zu erwarten ist: 1. wenn eine für den Untersuchungsansatz hinreichend große Zahl von Messungen, Beobachtungen oder Fällen vorliegt. 2. wenn das zu Messende nicht vorausgelesen ist, sondern ausschließlich dem Zufall unterliegt sowie 3. wenn die Variablewerte durch mehrere unabhängige Faktoren bestimmt sind.

Standardisierte Normalverteilung So unterschiedliche Kurvenverläufe Normalverteilungen annehmen können, lassen sie sich stets so transformieren, daß sie alle das gleiche Aussehen gewinnen. Dadurch werden sie auch alle besser miteinander vergleichbar. Dies geschieht — wie beim Rechnen mit provisorischen Skalen (Kap. 6) — durch eine Transformation der -X-Skala. Wir ersetzen diese X-Skala durch eine sogenannte «-Skala. Hierbei ist zu beachten: 1. Das M in der X-Skala wird zum Nullpunkt der z-Skala. Dies wird leicht erreicht, indem wir von jedem X-Wert M abziehen. 2. Wir machen die Strecke a zur Einheit der neuen z-Skala. Dies geschieht dadurch, daß wir alle auftretenden Strecken durch s dividieren. Dadurch bekommt die Strecke s die Länge 1.

Die untenstehende Formel beschreibt die Verwandlung von X in z:

I n einer hiermit transformierten NormalVerteilung gilt: M — 0 und s = l. Wir nennen diese spezielle Normalverteilung die Standardisierte Normalverteilung. Sie ist das praktikable Kernstück der Anwendung der NormalVerteilung. Wir kommen auf sie noch genauer zurück. (Kap. 9 und die folgenden.) Zunächst soll noch ein empirisches Beispiel für eine Verteilung gegeben werden, die annähernd der Normal Verteilung folgt. Beispiel: Nehmen wir an, in einem psychologischen Testverfahren h ä t t e eine Gruppe von Studenten 35 Aufgaben zu lösen. Die Tabelle 23 (S. 82) gibt die jeweilige Anzahl von richtigen Lösungen (X) wieder. Der erste Schritt zur Normierung besteht darin, die Abweichungen der Variablewerte X vom Mittelwert, also X — M, zu errechnen (Spalte (4)). Diese Abweichungen sollen im Anschluß an die englische Bezeichnung ,,raw deviation" als Rohabweichungen bezeichnet werden. Durch die Überführung der Rohwerte in Werte der Rohabweichung ist die Skala auf den Nullpunkt normiert. N u n muß noch

Standardisierte Normalverteilung

81

die Länge der Skalenabschnitte normiert werden. Dies kann dadurch geschehen, daß man die Länge der Skalenabschnitte an der Standardabweichung mißt. Der Mittelwert ist gleich Null, und derjenige Wert der Rohabweichung, der eine Standardabweichung oberhalb des Mittelwerts liegt, wird dadurch gleich 1 gesetzt. Diese Überführung der Rohabweichung in Standardwerte z (engl.: Standard score) geschieht also auf dem Wege, daß man die Rohabweichung durch die Standardabweichung der Verteilung dividiert. Auch die in Tabelle 23 aufgeführten Werte sind so normiert worden, daß sie den Mittelwert = 0 und die Standardabweichung = 1 haben. Der Rohwert 10 z. B. ergibt in Standardwerten ausgedrückt 1 0 - 2 0

_

- 1 0

_

3,30

~

3,30

-

Das bedeutet, daß der Rohwert 10 unter dem Mittelwert hegt und von ihm um einen 3,04fachen Betrag der Standardabweichung entfernt ist. Der Standardwert erfüllt eine Reihe von Anforderungen im Hinblick auf die Vergleichbarkeit verschiedener Werte; in der Praxis hat er jedoch einige Schwächen. Teils muß man mit Dezimalen arbeiten, um hinreichend genaue Werte zu erhalten, teils kommen auch negative Werte vor. Die Anzahl der Dezimalen kann dadurch verringert werden, daß man alle Werte mit einer Konstanten, z. B. mit 10, multipliziert. Der Standardwert 3,04 ergäbe dann — 30,4. Um die negativen Vorzeichen zu vermeiden, kann man zu allen Werten eine geeignete Konstante, z. B. 50, hinzuzählen. Unser Standardwert wird dann — 30,4 + 50 = 19,6. Nach diesem Verfahren erhält man eine Verteilung, die den Mittelwert 50 und die Standardabweichung 10 besitzt, und die im allgemeinen ohne Dezimalen eine zufriedenstellende Genauigkeit zeigt (Tab. 23, Spalte (8)). Selbstverständlich können auch andere Werte als 50 und 10 für die Umrechnung verwendet werden, aber gerade diese Werte erweisen sich oft als recht praktisch und erfreuen sich daher einer häufigen Anwendung. Das Standardwert-Verfahren löst allerdings nur das Problem der Vergleichbarkeit im Hinblick auf den Mittelwert und die Streuung. Haben dagegen die zu vergleichenden Verteilungen ein wesentlich verschiedenes Aussehen, ist z. B. die eine positiv und die andere negativ schief, dann sind die gleichlautenden Standardwerte beider Verteilungen dennoch nicht in jeder Hinsicht vergleichbar. So kann beispielsweise der prozentuale Anteil des Materials, der unterhalb eines bestimmten gegebenen Standardwertes liegt, von Verteilung zu Verteilung variieren. 6

Hnseloff, Statistik,

2. Aufl.

82

Statistische Beschreibung. Verteilungen Tabelle 28 (1)

(2)

(3)

(4)

X

f

f-X

X—M

8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

1 0 0 1 8 9 27 34 58 82 112 126 119 113 108 68 55 35 24 11 8 6 3 1

8 0 0 11 96 117 378 510 928 1394 2016 2394 2380 2373 2376 1564 1320 875 624 297 224 174 90 31

—12 —11 —10 — 9 — 8 — 7 — 6 — 5 — 4 — 3 — 2 — 1 0 1 2 3 4 5 6 7 8 9 10 11

N =1009 ,, =

SfX N

(5)

(X—Mf 144 121 100 81 64 49 36 25 16 9 4 1 0 1 4 9 16 25 36 49 64 81 100 121

20180 =

(6)

/• (X—M)2 144 0 0 81 512 441 972 850 928 738 448 126 0 113 432 612 880 875 864 539 512 486 300 121 10974

20180 ~10Ö9-

nnnn =

'

Es gibt verschiedene Möglichkeiten, auch für diese Fälle eine Vergleichsbasis zu schaffen. Eine oft verwendete Methode besteht in der Überführung der Rohwerte in Perzentile (vgl. Kap. 5, Streuungsmaße). So ist z. B . das zehnte Perzentil (P 1 0 ) der Wert, unterhalb dessen die niedrigsten 1 0 % aller Fälle innerhalb einer Verteilung liegen. Das zwanzigste Perzentil (P20) ist derjenige Wert, unter dem die niedrigsten 2 0 % liegen usw. Am besten vergegenwärtigt man sich an einem Beispiel, wie die Perzentilwerte berechnet werden (Tabelle 23). Zuerst gilt es, die Anzahl der Vpn. zu errechnen, die auf einem bestimmten Wert oder darunter liegen. Darüber geben die kumulativen Frequenzen Aufschluß, die in Spalte (9) aufgeführt sind. Diese Werte entsprechen jedoch den oberen Grenzen der verschiedenen Klassen. Die kumulative Frequenz 19 gibt z. B. die Anzahl Vpn. an, die unterhalb des

Standardisierte Normalverteihmg

88

Tabelle 23

z=

(7)

(8)

X—M s

z-10+50

—3,64 —3,34 —3,04 —2,73 —2,42 —2,12 —1,82 —1,52 —1,21 —0,91 —0,61 —0,30 0 0,30 0,61 0,91 1,21 1,52 1,82 2,12 2,42 2,73 3,04 3,34

13,6 16,6 19,6 22,7 25,8 28,8 31,8 34,8 37,9 40,9 43,9 47,0 50,0 53,0 56,1 59,1 62,1 65,2 68,2 71,2 74,2 77,3 80,4 83,4

- 1 /

(9)

1 1 1 2 10 19 46 80 138 220 332 458 577 690 798 866 921 956 980 991 999 1005 1008 1009

Ef(X—My N

(10)

(11)

c/korr.

Perzentil

0,5 1,0 1,0 1,5 6,0 14,5 32,5 63,0 109,0 179,0 276,0 395,0 517,5 633,5 744,0 832,0 893,5 938,5 968,0 985,5 995,0 1002,0 1006,5 1008,5

0,05 0,10 0,10 0,15 0,59 1,44 3,22 6,25 10,80 17,73 27,36 39,18 51,30 62,76 73,70 82,50 88,55 93,00 95,95 97,65 98,55 99,40 99,60 99,90

1/10974 = 1/10,876 = 3,30 \ 1009

Meßwertes 13,5 liegen (13,5 ist die obere Grenze des Intervalls von 12,5 bis 13,5). Was man jedoch kennen möchte, ist die Anzahl der Vpn., die unterhalb der Klassenmitte, d. h. unterhalb von 13,0 liegt. Man nimmt nun an, daß die eine Hälfte der Vpn. des Intervalls von 12,5 bis 13,5 oberhalb der Klassenmitte 13,0 liegt und die andere Hälfte darunter. Von den kumulativen Frequenzen wird daher die Hälfte von / abgezogen, was in unserem Beispiel 19—4,5 = 14,5 ergibt. Die Formel für die derart korrigierten kumulativen Frequenzen lautete demnach ehorr.

=

cf-~f.

(24)

Die auf diese Art berechneten Werte finden sich in Spalte (10). In Spalte (11) sind sie nach der üblichen Prozentberechnung in 6*

84

Statistische Beschreibung. Verteilungen

Perzentilwerte überführt, indem die Werte der Spalte (10) mit 100 multipliziert und dann durch die Zahl der Fälle dividiert werden: 100 (c/ Perzentil

i- /) (25)

N

Die Umwandlung von Rohwerten in Perzentile bedeutet eine Überführung in die sogenannte rechteckige Verteilung, die gegenüber der Normalverteilung jetzt folgendes Aussehen annimmt :

/, 0

10

20

30

40

50

60

70

80

90

100%

Fig. 21 I n psychologischen und erziehungswissenschaftlichen Untersuchungen, in der experimentellen Sozialforschung sowie in Biologie und Medizin ist die rechteckige Verteilung oft unangemessen. Vielfach zieht man es daher vor, die Rohwerte in eine Skala zu überführen, der eine Normalverteilung zugrunde liegt. Eine solche Skala ist unter anderen die Stanine-Skala, so genannt nach der Zusammenziehung der englischen Wörter „Standard nine". Diese Skala besteht aus neun Stufen und hat dadurch den Vorteil, auf Lochkarten in einer Kolonne Platz zu finden. Sie ist außerdem f ü r die meisten vorkommenden statistischen Berechnungen ausreichend genau. U m der Normalverteilung folgen zu können, muß die Stanine-Skala die in Figur 22 angeführte prozentuale Verteilung aufweisen:

Fig. 22 Die in den neun Spalten angegebenen Prozentwerte ergeben sich daraus, daß die Strecke zwischen —2,25 z und + 2 , 2 5 z, auf der praktisch die gesamte Normalverteilung liegt, in 9 gleich lange Skaleneinheiten aufgeteilt wird. I n der Tabelle G auf S. 239 kann man leicht ablesen, wie viele Prozente der Verteilung auf jede einzelne Skalenstufe entfallen.

Standardisierte Normalverteilung

85

Die Rohwertverteilung wird also dadurch in Stanine überführt, daß man sie in 9 möglichst der Prozentverteilung in Figur 22 entsprechende Teile aufteilt.

Beispiel: In Figur 23 verteilen sich die Rohwerte aus einer Untersuchung von 400 Kindern, die dreißig Aufgaben zu lösen hatten, nach dem obenstehenden Histogramm. Faßt man die hierbei anfallenden Werte der Prozentverteilung — nach dem Vorbild der Figur 22 — auf die günstigste Weise in 9 Stufen zusammen, dann ergibt sich eine Verteilung der Stanine in Gestalt des unteren Histogramms der Figur 23, die der Normalverteilung so nahe kommt, wie das Material es zuläßt 13 ). 13 ) Eine andere Methode der Normierung von Rohwerten besteht in ihrer Umrechnung in sog. T-Werte. T-Werte folgen einer Normalverteilung mit dem Mittelwert 50 und der Standardabweichung 10. Die T-Skala darf nicht mit der auf Seite 81 genannten Skala verwechselt werden. Letztere hat zwar den gleichen Mittelwert und die gleiche Standardabweichung, jedoch ist sie nicht auf eine Normalverteilung bezogen.

86

Statistische Beschreibving. Verteilungen

t-Verteilung Der wichtigste Gegenstand der noch zu behandelnden analytischen Statistik ist der Schluß von der Stichprobe auf die Population. Dieser ist eng mit der NormalVerteilung verknüpft. Und zwar wird angenommen, daß die Verteilung der geschätzten Parameter der NormalVerteilung folgt. Es wird weiter meist die Annahme gemacht, daß die Stichprobe groß genug ist, um sie mit der Normalverteilung vergleichen zu können. Aber in vielen Untersuchungsprojekten kann nicht mit ausreichend großen Stichproben gerechnet werden. Damit ist jedoch eine wichtige Bedingung für die Normalverteilung nicht erfüllt, die ja streng nur dann gilt, wenn unendlich viele Werte vorliegen. Für diesen Fall der kleinen Stichprobe gilt eine andere Verteilung, die t- Verteilung. G Ö S S E T fand das Verteilungsgesetz für Wertereihen von kleinem Umfang und veröffentlichte sie unter dem Pseudonym S T U D E N T . Deshalb wird auch häufig von der „Verteilung nach Student" gesprochen. Sie folgt der Formel: (26)

Diese theoretische Verteilung ist symmetrisch um t = 0. Bei wachsendem N geht die i-Verteilung zunehmend in die Normalverteilung über. Bereits bei N = 10 sind sich die Verteilungen recht ähnlich. J e kleiner N ist, um so flacher ist die Verteilung. Zwischen zwei Werten von t liegt entsprechend der Normalverteilung ein genau definierter Flächenanteil. Allerdings müssen die Abstände zwischen zwei t- Werten größer als bei der Normalverteilung sein, um einen entsprechenden Flächenanteil zu erreichen. Dies ist um so ausgeprägter, je kleiner N ist. Dies hat zur Folge, daß für jeden Wert von N eine eigene i-Tabelle angelegt werden muß. I n zusammengefaßter Form können wir die t-Verteilungen entsprechend unserer Tabelle I, S. 240 tabellieren. Anstelle von N finden wir dort den jeweiligen Freiheitsgrad.

KAPITEL 8

Korrelationsmaße Bisher haben wir uns mit den Problemen der Verteilung einzelner Variabler innerhalb von Stichproben beschäftigt. Im folgenden wollen wir uns nun der statistischen Beschreibung derjenigen Zusammenhänge zuwenden, die zwischen zwei oder mehreren Variablen bestehen. Die Ergebnisse, die Kinder sowohl in einem Intelligenztest als auch in einer Rechenprobe erreicht haben, können wir zu der folgenden Tabelle zusammenfassen: Tabelle 24 Kind

Ergebnisse IntelliRechengenztest probe

A B C D E

7 2 4 9 5

G usw.

7

F

1

8 2 5 7 4

2

9

Bereits ein kurzer Blick auf die Tabelle zeigt, daß hohen Punktzahlen im Intelligenztest im allgemeinen auch hohe Punktzahlen in der Rechenprobe entsprechen. In gleicher Weise entsprechen niedrigen Werten im Intelligenztest meist auch schwache Ergebnisse in der Rechenprobe. Um nun einen besseren Überblick zu gewinnen, wird man eine sogenannte Stricheltabelle erstellen, in die die verschiedenen, von den Vpn. erreichten Punktzahlen eingetragen werden. Eine Stricheltabelle ist eine Art Koordinatensystem, in dem die waagerechte Achse (x-Achse genannt) der einen Variablen entspricht, während die lotrechte Achse («/-Achse) die andere Variable repräsentiert. Für das obenstehende Beispiel bekommt das Schema für die Strichelung folgendes Aussehen:

88

Statistische Beschreibung. Korrelationsmaße Rechen- Y probe $

II

ii MI MI im M MI 1 IUI

m in

im

UV IUI IL IHl IUI MI INI im III il Uli III MI HU m IUI im ii im IM im im ini INI 1: IM IUI IUI IUI III 1 i U mi IM IM «1 M mi IH IHl im iui IUI IUI IUI IUI 1 IUI Uli i im IM M « M W INI IN im im MI II Uli im INI INI ML MI DU IM IUI IUI II II II im M II MI n im m IW im III W II im III i IUI lllt ii 1

l

Z

i

B II

7 6 S f 3 2

1

in

Iii im INI

3

im

III IN1

V

f

f

7

B S InM/igenzpnobe

Fig. 24

Vpn., die im Intelligenztest die erreichbare Höchstzahl von 9 Punkten erzielt haben, bekamen demnach 7, 8 oder 9 Punkte in der Rechenprobe, wie aus der äußersten rechten Spalte der Figur 24 hervorgeht. Die weitere Bearbeitung der Stricheltabelle kann dadurch erleichtert werden, daß man die Striche in der Tafel durch Zahlen ersetzt. Figur 25 zeigt diese verbesserte Darstellungsform. Regression Auffällige Zusammenhänge, wie sie zwischen den Ergebnissen des Intelligenztests und denjenigen der Rechenprobe bestehen, sind keineswegs selten. Statistisch exakt erfaßte Zusammenhänge zwischen thematisch unterschiedlichen Meßreihen geben uns die Möglichkeit, daß eine Variable mit einer jeweils bestimmten Wahrscheinlichkeit aus der anderen vorhergesagt werden kann. Man verfügt beispielsweise über die Ergebnisse der oben aufgeführten Intelligenzprobe und möchte — davon ausgehend — voraussagen, welche Resultate bei den Getesteten im Rechnen zu erwarten sind. In der Sprache der Statistik nennt man dies ein Regressionsproblem1). Die Lösung des Problems erfolgt in der Weise, daß an den *) Der Ausdruck „Regression" stammt aus der Erbforschung. Dort fand daß die Größe der Eltern mit der Größe der Kinder hoch korreliert; allerdings weicht die Größe der Kinder immer etwas in Richtung auf die Durchschnittsgröße der Bevölkerung ab. Diese Tatsache wurde mit dem „Regressionsprinzip" in Zusammenhang gebracht. GALTON,

Regression

89

Vpn., die in der einen Variable den gleichen Wert erreichen oder das gleiche Merkmal aufweisen, untersucht wird, welche Leistungsund Merkmalsverteilung ihnen in der anderen Variable zukommt. Ein solcher Zusammenhang — wie er auch unserem Beispiel (Fig. 24) zugrunde liegt — läßt sich anhand der Figur 25 in folgender Weise analysieren: ¿f

3,0

3.S

¥,2

f,S

Rechen- Y probe 3 1

7

2

3

13 S3

8

2

3

12

S *

1

¥

¡7

3 5

2 1

XY

M

7.0

r/ 9

¥

¥

10

n

9

f

1

7

7

2

11

8

3

2

1

¥

s

V

y-x

3

2

17 /10

3

n

t

r*

/

7

/

'Ii

/

15,

8

/

8,0

/ y?y 4, /

8

J

5,¥

e

Fig. 25 F ü r jede Gruppe, die einen bestimmten Wert X im Intelligenztest erreicht hat, errechnet man zunächst das arithmetische Mittel der Leistungen, die die Angehörigen dieser Gruppe in der Rechenprobe erzielten. Dieser Mittelwert wird mit Mx . y bezeichnet und bedeutet den Mittelwert derjenigen Y-Werte, die einem bestimmten X-Wert zugeordnet sind. X bezeichnet man dabei als die unabhängige Variable. Für die 17 Vpn., die in dem Intelligenztest den Wert X = 1 erhalten haben, wird der Mittelwert der Rechenprobe Mx. r — 2,4. Dieser und die übrigen Mx. y-Werte f ü r die verschiedenen X-Werte sind in der obersten Zeile der Figur 25 als Zahlen und außerdem in die darunter liegenden Spalten als Punkte eingetragen und zu einer Regressionslinie ausgezogen worden. Diese Linie verbindet die 9 Mittelwerte derjenigen Gruppen von Vpn., die im Intelligenztest jeweils gleiche Punktzahlen erreicht haben, bezogen auf die Ergebnisse in der Rechenprobe. Wenn man von einer Vp. nichts anderes als ihre Leistimg im Intelligenztest kennt, kann man

90

Statistische Beschreibung. Korrelationsmaße

ihre Rechenfähigkeit am besten unter Zuhilfenahme dieser Regressionslinie schätzen. F ü r eine Vp. mit dem Wert 1 in dem Intelligenztest beträgt also die zuverlässigste Schätzung f ü r die Rechenfähigkeit 2,4 Punkte. Für eine Vp. mit dem Wert 9 im Intelligenztest beträgt die wahrscheinlichste Schätzung der Rechenfähigkeit 8 Punkte. Die Werte in jeder Spalte verteilen sich jeweils um einen Mittelwert. Die Streuung einer solchen Verteilung kann z. B. als Standardabweichung berechnet werden und wird dann mit s x . Y bezeichnet. Dieser Ausdruck bedeutet: Standardabweichung f ü r die Y-Werte, die sich in der Untersuchung für einen jeweils bestimmten X-Wert ergeben haben. Diese Standardabweichung (also die Streuung um die Regressionslinie) kann als Maß f ü r die Unsicherheit der Voraussagen verwendet werden. Die Regressionslinie verläuft in gewissen Fällen ausgesprochen im Zickzack oder nimmt auch gelegentlich die Form einer Parabel an. I n Figur 25 ist sie jedoch auffallend geradlinig und kann, ohne daß m a n den Daten der Figur Gewalt antut, zu einer geraden Regressionslinie (Y • X in Fig. 25) ausgezogen werden 2 ). Diese Linie repräsentiert die Haupttendenz der Beziehung zwischen der unabhängigen Variable X und der abhängigen Variable Y. Während also durch die Bestimmung dieser ersten Regressionslinie von X auf Y geschlossen werden konnte, läßt das Material der Figur 25 auch den umgekehrten Weg zu. Aus der gleichen Figur läßt sich auch eine Regressionslinie berechnen, bei der Y die unabhängige und X die abhängige Variable darstellt (X • Y in Fig. 25). Entgegengesetzt dem ersten Vorgang wird hier also an H a n d der Rechenprobe die Prognose auf die zu erwartenden Werte im Intelligenztest gestellt. Welche der beiden Regressionslinien im einzelnen Falle für den Untersucher besonders interessant ist, hängt von der jeweiligen Fragestellung ab. (Weiteres siehein Kap. 15, Seite 171 ff.) Produktmomentkorrelation Wenn die Regressionslinie annähernd gerade ist, k a n n m a n die Stärke des Zusammenhanges zwischen zwei Variablen in einer einzigen Maßzahl ausdrücken. Der Korrelationskoeffizient ist eine solche Maßzahl 3 ). Die meisten Korrelationskoeffizienten können 2 ) Die Mehrzahl nicht formalisierter Aussagen über einfache Beziehungen zwischen empirischen Daten folgt in den meisten Erfahrungswissenschaften der vorausgesetzten, aber unausgesprochenen Hypothese einer linearen Regression. 3 ) Es gibt auch Korrelationskoeffizienten für den Grad des Zusammenhanges zwischen zwei Variablen, deren Regressionslinien gekrümmt sind (s. z. B. GUILFORD, Seite 288 ff.).

Produktmomentkorrelation

91

aus ihrer Formel heraus nur Werte zwischen + 1 und — 1 annehmen. Eine Korrelation von + 1 sagt aus, daß die Übereinstimmung zwischen den beiden Variablen vollständig ist. Deshalb kann in diesem Falle aus den Ergebnissen der einen Variablen mit völliger Sicherheit auf die Werte der anderen Variablen geschlossen werden. Das bedeutet zugleich, daß diejenigen, die im Intelligenztest besonders erfolgreich waren, auch zu den Besten in der Rechenprobe gehören werden. Die Werte der verschiedenen Vpn. liegen dann alle auf einer geraden Regressionslinie, die keinerlei Streuung aufweist. Werte zwischen + 1 und 0 geben einen positiven Zusammenhang geringerer Stärke an. Die Korrelation 0 bedeutet, daß überhaupt kein Zusammenhang vorliegt. Die Kenntnis des von einer Vp. erreichten Punktwertes in der einen Variable bietet dann keinerlei Anhaltspunkte für die Voraussage ihrer Leistung in der anderen Variable. Korrelationen zwischen 0 und — 1 geben die verschiedenen Grade eines negativen Zusammenhanges an. Hohe Werte in einer Variable fallen dann mit niederen Werten in der anderen zusammen. Die Korrelation — 1 endlich besagt, daß dem höchsten Resultat in A

B

p-i-0,6

r-+0,3

Fig. 26

92

Statistische Beschreibung. Korrelationsmaße

einer Variablen das niedrigste in der anderen entspricht. Figur 26 bietet einige Beispiele f ü r den Grad der Streuung der Beobachtungen um die gedachte Regressionslinie im Falle unterschiedlich starker positiver Korrelationen. Korrelationskoeffizienten können nach verschiedenen Formeln berechnet werden. Am bekanntesten ist die Formel nach P E A B S O N , die sogenannte P r o d u k t m o m e n t k o r r e l a t i o n . Die Formel lautet: _

X(X

— MJ~) N . S

TXY

• (Y X

. 8



MY) '

Y

( 2 7 )

(X — MX) und (Y — MY) sind die jeweiligen Abweichungen der X- und Y- Werte von ihren zugehörigen Mittelwerten MX und MY, N ist die Anzahl der Beobachtungen und s x und s r sind die zugehörigen Standardabweichungen. Beispiel: Wie die erforderlichen Berechnungen durchgeführt werden, geht aus folgendem Beispiel hervor: Die Ergebnisse, die 10 Vpn. (A—J) sowohl im Intelligenztest (X) wie in der Rechenprobe (Y) erreicht haben, stellen das Ausgangsmaterial für die Bestimmung des Korrelationskoeffizienten nach P E A K S O N dar 4 ). TabeUe 26 Vp.

(1)

(2)

X

Y

A B C D E F G H I J Summa:

16 14 13 10 8 7 6 4 2 1 80

14 17 11 5 8 lö 6 9 2 3 90

N

ZX

=

10

(5) (X—Mx) 2

8 6 5 2 0 —1 —3 —4 —6 —7 0

64 36 25 4 0 1 9 16 36 49 240

5 8 2 —4 —1 6 —3 0 —7 —6 0

80

X X

~~N~ = "TÖ~ X

25 64 4 16 1 36 9 0 49 36 240

..

a

M r =

X

y

) ( Y - M Y )

N-SX-sy

40 48 10 — 8 0 — 6 9 0 42 42 177

XY

~N~

=

2

90



X ( X - M X ) X ( Y - M Y )

V

= =

N

Q

=

9

=

|/ "lö"

l/24Ö

]/2J(Y-MY)* '

Z ( X - M

(7) ( X - M X ) ( Y - M Y )

X ( Y - M Y )

l/24Ö~

) * =

x r

(6) (Y—MYY

X(X—Mxf

x =

] / £ { X - M

4

(4) Y— M Y

XY „

" ^ K

(3) X—Mx



177

10-4,9-4,9

=

4

'

9

=

'

) Aus Gründen der Übersichtlichkeit bringen wir in Tabelle 25 den Rechengang am Beispiel einer ungewöhnlich kleinen Stichprobe.

Produktmomentkorrelation

93

I n den Spalten (1) und (2) werden die von jeder Vp. in den beiden Testverfahren jeweils erzielten Ergebnisse mitgeteilt. Die Summen der beiden Spalten, S X und Z Y, ergeben die Grundlage für die Berechnung der Mittelwerte M x und M Y . Danach werden die Abweichungen von diesen Mittelwerten errechnet. Die Abweichungen vom entsprechenden Mittelwert sind in die Spalten (3) und (4) eingetragen. Die Spalten (5) und (6) enthalten die Quadrate dieser Abweichungen. Die Summen der quadrierten Abweichungen führen dann zuden Standardab wei chungen s x und . I n Spalte (7) ist das Produkt der Abweichungen von (X — Mx) und (Y — My) für jede Vp. eingetragen. Wenn die Korrelation hoch ist, folgt im allgemeinen einer negativen Abweichung in der X- Variable auch eine negative Abweichung in der Y-Variable, während eine positive X-Abweichung von einer positiven Y-Abweichung begleitet wird. I n diesen Fällen werden die Produkte (X— Mx) • (Y — My) positiv und die Produktsumme £ (X — Mx) • (Y — My) erhält einen positiven Wert. Die Größe der Korrelation ist, wie aus der Formel hervorgeht, direkt abhängig von dieser Produktsumme. Die Werte s x , s F und N haben die Aufgabe, normierend zu wirken, damit der Korrelationskoeffizient prinzipiell zwischen — 1 und + 1 , variiert. In unserem Beispiel sind 8 vor» 10 Produkten (X — Mx). (Y — My) positiv oder 0. Die Produktsumme S (X — Mx) • (Y — MY) ist ebenfalls positiv und hat den Wert 177. In die Formel eingesetzt, ergibt dies rXT = 0,74. F ü r ein großes Material ist die Formel (27) zu umständlich 5 ). Vielfach bedient man sich im Falle eines bereits klassifizierten Materials einer Kurzmethode unter Verwendung der provisorischen Mittelwerte m x und m r . Die Formel gewinnt dann folgendes Aussehen : S f ( x y ) r

X Y

= ix iy

N

.

— -•

(28)

I n dieser Formel sind ix und iY die Klassenbreiten der X- und YVariablen. x und y sind die Abweichungen von den entsprechenden provisorischen Mittelwerten mx und mY in Skalen mit den Skalen5 ) In der Praxis hat sich folgende Formel zur Errechnung des Koeffizienten bewährt: =

~

Z{X y Z(X

— Mx)-(Y — Mxf

— £(Y

Sie macht die Errechnung von s überflüssig.

MY)

— My

f

'

VEAP.SON-

Statistische Beschreibung. Korrelationsmaße

94

stufen ix und iy. Als geschätzte Variablen ergeben sich demnach (S. 61): X — mr , Y — my - — und y = ty »x Der Rechengang geht aus dem Beispiel der Tabellen 26 a-e hervor: Das Material ist in Klassen eingeteilt. Die Klassenbreite für die X-Variable beträgt ix = 5 und für die F-Variable iY = 10. Zum provisorischen Mittelwert für die X-Variable wird die Klassenmitte des Intervalls 36—40 gewählt, d. h. mx = 38. F ü r die Y-Variable wird die Klassenmitte des Intervalls 91 — 100 gewählt, d . h . m r = 95,5. Tabelle 26 a Korrelation zwischen Leseprobe und Intelligenztest bei 61 Kindern 10

/

11

13

9

8

3

61 =

N

(1) (2) (3) (4) y

—3 —2 —1

3

4

1

1

1

1

1

3

1

2

2

1

0

131-140 121-130 111-120 101-110

1

2

3

2

2

91-100

2

3

4

2

1

1

y

f

f-x

xy

9

36

1

3 6 16

48

1

2 7 13

26

+ 1 10 12

12

4 3

0 12

9

0

0

0

—2 8 —6

12

81-90

1

2

3

2

71-80

2

3

2

1

2

1

—3 4 —8

24

1

—4 2 —4

16

61-70

1

51-60

1

—19

21-25 26-30 31-35 36-40 41-45 46-50 51-55 56-60X

61 41 174 N

2fx

Exy

Die Standardabweichungen s und sy werden in den Tabellen 26 b und 26 c nach der Kurzmethode für die Berechnung der Streuung (Formel (17)) getrennt ausgerechnet ]/£f

(x)*

(£fx\*

Produktmomentkorrelation

95

Als Nebenprodukt der Berechnung der Standardabweichungen erhält man die in der weiteren Rechnung notwendigen

Diese beiden Werte werden im Zähler der Korrelationsformel (28) benötigt ^N -

Sfx N

Zfy\ N

Tabelle 26 b r

/

131—140 3 121—130 6 111—120 7 101—110 10 91—100 12 9 81—90 71—80 8 4 61—70 51—60 2 61

y

fy

(y?

t(yf

4 3 2 1 0 —1 —2 —3 —4

12 18 14 10 0 — 9 — 16 — 12 — 8 9

16 9 4 1 0 1 4 9 16

48 54 28 10 0 9 32 36 32 249

fx

(xf

mv = 95,5 iy = 10 s

t*

_

9

0 Ifi

/ 9 \g = _]/249 = 0,15 ' \

61

[öl)

»= 10-1/^-1^1

=20,1.

Tabelle 26 c X

/

56—60 51—55 46—50 41—45 36—40 31—35 26—30 21—25

3 8 9 13 11 10 5 2 61

X

4 3 2 1 0 —1 —2 —3

12 24 18' 13 0 — 10 — 10 — 6 41

16 9 4 1 0 1 4 9

f(xf

48 72 36 13 0 10 20 18 217

% = 38 ix = 5 Zfx 41 N = 61 = 0,67

,

17 1/217 \ 61

ZZTW /41\2 Ulj

8,8.

Der Ausdruck = E f (x y) wird auf folgende Weise berechnet: über sowie rechts von der in Zahlen übertragenen Stricheltabelle (Tab. 26a) trägt man die x- bzw. y-Skala ein. I n der Spalte (2) werden die Häufigkeiten der verschiedenen y-Werte eingetragen. Diese erhält man durch Summierung jeder Zeile der Ausgangstabelle. Die Werte der Spalte (2) enthalten die Häufigkeiten der y-Variable. Diese Werte werden in die Tabelle 26 b übertragen, wo man die Standardabweichung sy gesondert ausrechnet. Die Verteilung der X- oder «-Variable erhält man aus der Zeile / oberhalb der Ausgangstabelle 26 a. Diese Werte überträgt man auf Tabelle 26 c, wo die Standardabweichung sx für sich berechnet wird. Danach f ü h r t

96

Statistische Beschreibung. Korrelationsmaße

man in Spalte (3) die Summe der «-Werte aller Ypn. ein. In der obersten Zeile der Tabelle 26 a ist diese Summe 2 + 3 + 4 = 9. In der nächsten Zeile haben 3 Ypn. den «-Wert 3, weshalb die gesucht Summe 1 + 2 + (3 • 3) + 4 = 16 beträgt usw. Dieser Teil der Berechnung kann durch einen Papierstreifen erleichtert werden, auf den die »-Skala aufgetragen ist. Diesen Streifen legt man unter diejenige Zeile, deren „Zeilensumme x" berechnet werden soll; sodann kann man die notwendigen Multiplikationen leicht ausführen. Die Summe der Spalte (3) ergibt E f x = 41, was mit dem entsprechenden Wert in Tabelle 26 c übereinstimmen muß. Endlich erhält man die Summe von x • y für jede Zeile in der Spalte (4) durch Multiplikation der Spalten (1) und (3). Die Summe der Werte von Spalte (4) ist der gesuchte Wert Z f (x y) = 174. Danach kann die Korrelation nach Formel (28) Z f ^ - N . ^ L . ^ L x

v

x v

N-sx-sr

berechnet werden. Setzt man die Werte unseres Beispiels in die Formel ein, dann gelangt man zu folgendem Ergebnis:

» x y — 5 • 10 •

61-8,8-20,1

~~ ° ' 7 8 "

So viel zur Berechnung von r aus einer sehr großen Zahl von Beobachtungen oder Fällen. Erst bei mehr als fünfzig Beobachtungen oder Fällen beginnt sich dieses „vereinfachte" Verfahren zu bewähren. Im folgenden wenden wir uns nun wieder der Erörterung der allgemeinen Problematik der Korrelation zu. Ein einzelner Korrelationskoeffizient darf nicht uneingeschränkt verallgemeinert werden. Vielmehr hängen Korrelationskoeffizienten in unterschiedlichem Grade von der Zusammensetzung der untersuchten Gruppe ab. Bei im übrigen gleichen Gregebenheiten wird die Korrelation zwischen zwei Variablen für diejenige Gruppe kleiner, die die geringere Streuung aufweist. Ein Beispiel dafür bietet der Vergleich a) einer Korrelation zwischen den Schulzeugnissen in Mathematik und den Intelligenzquotienten von Schülern von Volksschulklassen, aus denen noch keine Anwärter für die höhere Schule ausgewählt wurden Fig. 27 mit b) einer entsprechenden Korrelation für bereits ausgewählte Anwärter der höheren Schule Fig. 28

Wie aus den beiden Darstellungen hervorgeht, zeigen die Anwärter für höhere Schulen eine bedeutend geringere Streuung als

Partielle Korrelationen

97

die unausgelesenen Volksschüler, da praktisch alle Schüler unterhalb eines bestimmten Leistungsniveaus für die höhere Schule von vornherein nicht in Frage kamen. Das bedeutet, daß Korrelationen, die an diesen Gruppen berechnet wurden, zwar miteinander vergleichbar sind, daß aber nicht von den an der einen Gruppe ermittelten Korrelationen auf die Verhältnisse der anderen Gruppe geschlossen werden darf. ^ Intelligenz

Volksschule

,,'¡v,'•:•','.:

*.

—4 0 5 —3 —2 1 2 1

1 9 16 0 25 !)

4 1 4 1

220

£(X1 — Mj* 1

Ai

=

10

22.0 , "liest) - J /

j^ — i

N1 = 10 ] / " T O " __ , | 10 — I

Mittelwert und Standardabweichung der Abiturienten errechnen sich zu: M1 — 22 und erbest) = 2,79. Für die Gruppe „Nicht-Abiturienten" betragen die entsprechenden Werte M2 = 19 und CT 2(est)

=

2,53.

126

Schätzungs- und Prüfverfahren. Mutungsbereiche

Tabelle 36

X2 NichtAbiturienten

(X, — M2)

19 18 22 23 17 17 16

0 —1 3 4 —2 —2 —3

0 1 9 16 4 4 9

19 23 19 20 22 17 15 285

0 4 0 1 3 —2 —_4

0 16 0 1 9 4 jm 90

18

— 1

t

=

=

15

= 19,0

1

t

£X2 M i2

(X2 — Mtf

Z(X2 — M2Y 2(est)

N2 = 15

_ ] / ! ? ( * , - * , ) ' _ j/ 90 _ -|/15_1

2

gg.

Wir interessieren uns jedoch für die Differenz der Mittelwerte unserer beiden Stichproben nur so weit, als sie uns mit prüfbarer Verläßlichkeit Aufschluß über die entsprechenden Populationen geben. Die Schätzung der Differenz zwischen den Mittelwerten der Populationen muß von den Mittelwerten unserer Stichproben ausgehen. M1 — Mi = 22 — 19 = 3. Nach (Formel 39) ist dann die Standardabweichung für diese Differenz der Mittelwerte 1/(2,79)» (2,53p" . , ft ffÄ - Mit = (/ —1Ö~ + 15 = 1 ' 10 " Wir entscheiden uns, für die Mittelwertdiffercnz einen Mutungsbereich auf dem 90%-Niveau der Signivikanz zu fordern1). Da die Zahl der Freiheitsgrade in unserem Beispiel N1 -4- N2 — 2 = 23 ist, haben wir nun in Tabelle I den entsprechenden, zu t gehörenden Wert aufzusuchen. Er beträgt auf dem 90%-Niveau der Signifikanz (Spalte 2 in Tab. I) t = 1,71. Der Mutungsbereich reicht also von \M1 — Mi\ — 1,71 a(Mi _ Mi) bis | M1 — Mt | + 1,71 p > 1%

— 2,7 — 4,7 — 0,7 0,3 1,3 0,3 3,3 — 2,7 2,3 0,3 3,3 — 0,7

7,29 22,09 0,49 0,09 1,69 0,09 10,89 7,29 5,29 0,09 10,89 0,49

Jf, =

= 18,7.

138

Schätzungs- und Prüfverfahren. Hypothesenprüfung

Da die Stichproben in dieser Untersuchung klein sind, muß für die Signifikanzbeurteilung der Alternativhypothese statt der Normalverteilung die ¿-Verteilung verwendet werden. Bei einem Freiheitsgrad von N t + iV2 •— 2 = 2 2 liegen entsprechend der Tabelle 3 2% der Stichprobenverteilung der Differenzen außerhalb des Bereichs —2,51 t bis + 2,511. Darüber hinaus liegt 1 % der Stichprobenverteilung außerhalb des Intervalls —2,821 bis + 2,821. Auf dem 2%-Niveau der Verläßlichkeit ist der Unterschied also signifikant, nicht aber auf dem 1%-Niveau. Ob man die Nullhypothese zugunsten der Alternativhypothese zurückweisen will, hängt im vorliegenden Falle also von den Anforderungen an die Sicherheit ab. Mit welchem Signifikanzniveau man sich zufrieden geben darf, bestimmen Fragestellung und Untersuchuiigsplanung. Soll die Differenz der Mittelwerte zweier wesentlich unhandlicherer (oder auch aus größeren Stichproben stammender) Variablen auf ihre Signifikanz hin geprüft werden, so empfiehlt sich die Anwendung der Formel: ¿(est) = * \

^ +

*

(52

>

Es wird hier eine provisorische x-Skala mit dem Nullpunkt beim vorläufigen Mittelwert m und mit der Klassenbreite i eingeführt. Die Berechnungen werden auf die gleiche Weise wie bei den Mittelwerten und Standardabweichungen von Stichproben mit Hilfe eines provisorischen Mittelwertes durchgeführt. Wendet man die Formel (52) auf unser letztes Beispiel an, dann ergeben sich folgende Rechenschritte: Tabelle 45

(1) Xj

(2) X2

(3) x1

(4) (xi)2

(5) x 2

21 24 19 16 22 25 28 24 20 19 22 21

16 14 18 19 20 19 22 16 21 19 22 18

6 9 4 1 7 10 13 9 5 4 7 6

36 81 16 1 49 100 169 81 25 16 49 36

1 —1 3 4 5 4 7 1 6 4 7 3

1 1 9 16 25 16 49 1 36 16 49 9

81

659

44

228

t \ = N2 = 12 Xx1

t 2(XlY

(6)

Zx2 i ••

Paarweise geordnete Gruppen ST

M,1 = -=± + m = 8112 + 15 = 21,8 N 1 659 — -

t =

_21 2

'

z

8 5

2

1

ST

Jf 22 = — N2

139

=

44

12

15 = 18,7

/ 44 \ 2 — l-rs-l " 1 2 12/ " = 2,85 12+12 — 2

8-18^

+

2

228

2% > P > 1%

= 266

1 / i + i

Sind die Stichproben groß (jV > 30) und •s1 und s2 ungefähr gleich groß, kann Formel (39) H - M . )

«!(est) _ l/«|(e3 -

\

«l(est)

N,

im allgemeinen als angenäherter Nenner in Formel (48) angewendet werden. Dabei ist die Annahme gemacht, daß = s 2 = a ist. Signifikanz von Unterschieden zwischen paarweise geordneten Gruppen Beim Vergleichen zweier Stichproben kann ein irrelevanter Faktor einen Unterschied zwischen den Mittelwerten verursachen, ohne daß ein für die Fragestellung bedeutsamer Unterschied besteht. Will man z. B. die Wirkung zweier Unterrichtsmethoden untersuchen, dann kann die eine Methode schon deshalb bessere Resultate ergeben, weil die nach ihr unterrichteten Schüler intelligenter als die Schüler der anderen Gruppe sind, bessere Vorkenntnisse haben usw. Diese Fehlerquelle läßt sich dadurch unter Kontrolle halten, daß man die beiden Stichproben nach dem Zufall auswählt. Eine andere und oft besonders effektive Kontrollmöglichkeit bietet die Auswahl solcher Vpn, die paarweise in den Merkmalen oder Eigenschaften übereinstimmen, die für die Untersuchung wichtig sind. Diese Paare werden getrennt und zwei verschiedenen Stichproben zugeteilt. Die Paare sollen in jeder Hinsicht so ähnlich wie möglich sein, außer natürlich in der Variablen, die untersucht werden soll. Ein typisches Beispiel für derartige Untersuchungspaare bilden eineiige Zwillinge. Bei der Überprüfung der Differenz (d) zwischen paarweise aufgeteilten Gruppen bedient man sich der Formel

Schätzungs- und Prüfverfahren. Hypothesenprüfung

140

M d ist der Mittelwert der Differenzen zwischen N Paaren und d die Differenz zwischen den einzelnen Paaren im Hinblick auf untersuchungsrelevante Merkmale, Eigenschaften oder Leistungen. "tyest) = 1 1 s c h ä t z t die Standardabweichung der Unterschiede zwischen Paaren. Diese muß mit )/#" dividiert werden, um die Standardabweichung in der Stichprobenverteilung der Durchschnittsabweichungen M d errechnen zu können. Der Freiheitsgrad beträgt auch in diesem Falle N — 1. Beispiel: I n einem Vergleich zweier Erziehungsmethoden wurden 10 Paare eineiiger Zwillinge in zwei Gruppen aufgeteilt, so daß jede Gruppe jeweils einen Zwilling jeden Paares erhielt. Die eine Stichprobe wurde nach Methode A, die andere nach Methode B unterwiesen, um feststellen zu können, welche der beiden Methoden die besten Erfolge erzielt. Die Ergebnisse nach Methode A finden wir in Spalte 1 der Tabelle 40 und die Ergebnisse der Methode B in Spalte 2. Tabelle 40 (1)



(2)

(3)

Xs

d

26 20 8 15 34 3 23 18 0 20

19 16 13 25 29 15 24 20 0 20

— — + + — + + +

7 4 5 10 5 12 1 2 0 0

(4)

(5)

d-Md

(d-Mtf

— — + + — + — + — —

8,4 5,4 3,6 8,6 6,4 10,6 0,4 0,6 1,4 1,4

14 M

Md

-

~

Z d

-

14

" lö

- i 4

-

1,4

70,56 29,16 12,96 73,96 40,96 112,36 0,16 0,36 1,96 1,96

49 16 25 100 25 144 1 4 0 0

344,40

364

}IZ{.d-MdY

]/ NlN-1)

(6)

d2

_ ] / 344,4

~ \ TfTxlT

=

Freiheitsgrad = 10 — 1 = 9 p > 20%. I n Spalte 3 sind die Differenzen zwischen den Werten der Spalte 1 und 2 aufgeführt. Spalte 4 enthält die Abweichungen dieser Differenzen vom Durchschnittsunterschied M d = 1,4 P u n k t e und Spalte 5 die Quadrate dieser Abweichungen. Der durchschnittliche Unterschied erweist sich als nicht signifikant, da der i-Wert nur 0,71 beträgt. Wie man Tabelle J entnehmen kann, beträgt bei

Standardabweichungen

141

9 Freiheitsgraden die Wahrscheinlichkeit 20%, daß man einen i-Wert größer als +1,38 oder kleiner als —1,38 erhält. Der Wert E(d — Md)2 in Formel (53) läßt sich leichter berechnen nach der Formel Zd2 Die Formel (53) erhält damit folgendes Aussehen: I-

,

=

(55)

1 h ' - m - » \ N(N — \) Das Beispiel der Tabelle 40 ergibt nach dieser Formel 1,4 1,4 1,4 = 0,71. 4" 1,96 10-9 £d erhält man dabei aus Spalte 6 der Tabelle 40. Im übrigen geschieht die Berechnung nach Formel (53). 2

Signifikanz von Unterschieden zwischen Standardabweichungen Die Nullhypothese cr1 — a 2 = 0 wird bei größeren Stichproben6) (N > 30) nach Formel _ Öltest) — 20%

150

Schätzungs- u. Prüfverfahren. Empirische u. theoret. Verteilungen

Summe dieser Werte ergibt dann den gesuchten ^ 2 -Wert. Die Formel für ^-Berechnungen lautet also: =

^

(.B — Ef E

(65)

yf-Werte sind immer positiv, da sie aus Summen quadrierter Werte hervorgehen. Sie bieten prinzipiell ein zusammenfassendes und standardisiertes Maß für die Abweichungen der Beobachtungen von der Nullhypothese. Ehe man das errechnete y 2 zur Bestätigung oder Abweisung der gesetzten Nullhypothese verwenden kann, muß man die Anzahl der Freiheitsgrade bestimmen; denn y2 variiert mit der Anzahl der Freiheitsgrade. Nun ist aber die Häufigkeit einer Alternative festgelegt. Ist N gegeben und kennen wir drei der vier Häufigkeiten, so gibt es für die restliche Häufigkeit keine Variationsfreiheit mehr, d. h. ihr Wert steht von vornherein fest. In Tabelle 41 ist N = 120. Kennen wir die Häufigkeiten der ersten drei Zeilen (d. h. 27, 35 und 24), so muß der vierte Wert 120 — (27 + 35 + 24) = 34 betragen. Das bedeutet aber, daß der von uns gesuchte Freiheitsgrad genau um 1 kleiner ist als die Anzahl der vorgegebenen Alternative. Die Anzahl der Freiheitsgrade wird also bestimmt nach der Formel: Anzahl der Alternativen — 1. In unserem Beispiel beträgt die Anzahl der Freiheitsgrade demnach = 3. Die Stichprobenverteilung von y2 bei 3 Freiheitsgraden geht aus Figur 38 hervor. Der Figur 38 entsprechend kann y2 in 5% aller Fälle rein zufällig einem Wert von 7,82 oder höher erreichen; dies können wir auch der Tabelle L entnehmen. In 1 % aller Fälle erreicht der ^ 2 -Wert 11,34 oder mehr. Damit die Chi-Quadrat-Methode einwandfrei funktionieren kann, bedarf es relativ großer Stichproben. Keine der erwarteten Häufigkeiten darf kleiner als 5 sein. Sollte dieser Fall aber dennoch eintreten, so kann die zu kleine Häufigkeit einer anderen Fig. 88 hinzugezählt werden 1 ). s. MCNEMAR, Seite 122; vgl. auch A. LINDER, Seite 57ff., 368ff.

Empirische und theoretische Verteilungen

151

Die Berechnung des ^ - W e r t e s in Tabelle 41 kann auch direkt nach der Formel (B-Ef x E vorgenommen werden. Setzten wir die Werte für die vier Fächer der Tabelle 41 in die Formel (65) ein, so ergibt sich: x

(27-30)* 30

(35-30)2 30

(24 — 80)» 30

(34-30)* 30

'

Der Freiheitsgrad beträgt, wie schon früher gesagt, 3. Nach Tabelle L beträgt bei 3 Freiheitsgraden die Wahrscheinlichkeit p = 2 0 % , daß man in einer Stichprobe einen größeren % 2 -Wert findet als 4,64. Ein ^ 2 -Wert von 2,86 besagt dann also, daß in weit mehr als 2 0 % der Fälle die zu beobachtenden Differenzen rein zufällig bedingt sein könnten. Ein signifikanter Unterschied im Hinblick auf das Interesse für die verschiedenen Schulfächer konnte in unserer Untersuchung also nicht festgestellt werden. Die ^-Methode kann also zur Überprüfung der Frage herangezogen werden, ob eine empirische Verteilung mit einer erwarteten Verteilung (z. B . einer theoretischen Zufallsverteilung) annähernd übereinstimmt. Hinreichende Übereinstimmung mit der Zufallsverteilung macht dann die Wirksamkeit des entsprechenden Zufallsgesetzes bei der Bildung der empirisch angetroffenen Verteilung wahrscheinlich. Darüber hinaus ermöglicht die ^-Methode auch eine Signifikanzprobe hinsichtlich des Zusammenhanges zwischen zwei Variablen. Sie gestattet darüber hinaus die Klärung der Frage, ob zwei oder mehrere Stichproben in einer bestimmten Variable die gleiche Verteilung innerhalb der Grenzen des Stichprobenfehlers aufweisen. I n beiden Fällen erstellt man eine Tabelle der theoretisch zu erwartenden Werte (z. B . Tab. 43), die in den ZeilenSummen die gleichen Häufigkeiten wie die beobachteten Werte der Tabelle 42 aufweist. In diesem Falle lautet die Formel für den Freiheitsgrad: (Spaltenzahl — 1) x (Zeüenzahl — 1) = (2 — 1) • (3 — 1) = 2. I n einer 3 • 4-Tabelle würde der Freiheitsgrad = ( 3 — 1) • ( 4 — 1 ) = 6 betragen und in einer 2 • 2-Tabelle (2 — 1) • (2 — 1) = l 2 ). 2 ) Daß hier eine andere Formel zur Errechnung der Freiheitsgrade als früher verwendet werden muß, beruht darauf, daß der Spielraum, in der die Häufigkeiten variieren können, außer durch N auch noch durch die den beobachteten und den erwarteten Tabellen gemeinsamen Zeilensummen eingeschränkt wird. Liegen z. B. alle diese genannten Werte für eine Tabelle mit 2 Spalten und 2 Zeilen vor und ist uns eine einzige der Häufigkeiten innerhalb der Tabelle bekannt, dann sind auch die anderen Häufigkeiten festgelegt. Die Tabelle hat also nur einen Freiheitsgrad.

152

Schätzungs- u. Prüfverfahren. Empirische u. theoret. Verteilungen

Beispiel: Man will prüfen, ob ein psychologisch relevanter Zusammenhang zwischen der Geschlechtszugehörigkeit und dem jeweiligen Freizeitinteresse besteht. Zu diesem Zweck sollen 120 Jungen und 80 Mädchen auf die Frage antworten: „Womit verbringst Du am liebsten Deine Freizeit: Mit Tanz, Sport oder Literatur ?" Ihre Antworten werden in eine Tabelle eingetragen: Tabelle 42 Beobachtete Verteilung Jungen

Mädchen

Zeilensumme

Tanz . . . . Sport.... Literatur . .

32 73 15

46 22 12

78 95 27

Spaltensumme

120

80

200

Dann wird eine Tabelle (43) hergestellt, die die erwarteten Häufigkeiten wiedergibt. Hierbei muß beachtet werden, daß die Verteilung der Interessen bei beiden Geschlechtern proportional sein muß. In dieser Tabelle soll z. B. die Proportion „tanzinteressiert" für die Gruppe der Jungen, für die Gruppe der Mädchen und für die gesamte Gruppe die gleiche sein. Die erwartete Verteilung für ein bestimmtes Feld erhält man dadurch, daß man die Zeilensumme des in Frage stehenden Feldes mit der entsprechenden Spaltensumme multipliziert und dann durch die Gesamtzahl N beider Stichproben dividiert. Die erwartete Häufigkeit für an Tanz interessierten Jungen beträgt ,

,

78-120

demnach —^qq—

=

Die auf diesem Wege gewonnenen Werte werden in eine neue Tabelle (Tab. 43) eingetragen. Tabelle 43 Für den Fall der Nullhypothese erwartete Verteilung Jungen

Mädchen

Zeilensumme

Tanz . . . . Sport.... Literatur . .

47 57 16

31 38 11

78 95 27

Spaltensumme

120

80

200

Die weiteren Berechnungen folgen dann dem Schema auf S. 151.

Empirische und theoretische Verteilungen

153

Tabelle 44 Frequenzen der TaDifferenzenquadrate belle 42 minus der Differenzen- dividiert durch die Frequenzen der Taquadrate Frequenzen der Tabelle 43 belle 48 —15 16

— 1

15 — 16

1

225 256

1

225 256

1

4,8 4,5

0,1 9,4

Es ist also Freiheitsgrade = 2

f

= E

( B

~E E

) 2

7,3 6,7

0,1 +

14,1 = 23,5

= 23,5.

p < 0,1%.

Nach Tabelle L beträgt bei 2 Freiheitsgraden die Wahrscheinlichkeit p = 0 , 1 % , daß man zufällig ein y 1 = 13,81 oder größer erhält. Bei y^ = 23,5 oder mehr ist die Wahrscheinlichkeit noch geringer (p < 0,1%). Der von uns gewonnene Wert bzw. die Abweichungen von der versuchsweise eingesetzten hypothetischen Gleichverteilung können also nicKt rein zufällig sein. Der Zusammenhang zwischen Geschlechtszugehörigkeit und Freizeitinteresse ist damit auf dem 0,1%-Niveau signifikant. Als ein weiteres Beispiel für den Vergleich einer empirischen mit einer theoretischen Verteilung sei auf Tabelle 22 verwiesen. Dort ergibt sich ein %2 = 2,51; bei einem Freiheitsgrad von FG = 4 zeigt sich, daß die Wahrscheinlichkeit für ein zufälliges Zustandekommen der Differenzen wesentlich größer als 20% ist. Jedenfalls kann nicht gesagt werden, daß die empirisch gefundene Verteilung mit Sicherheit keine Poisson-Verteilung ist. Die £ 2 -Methode gibt jedoch keinen Aufschluß über die Verursachungen und Auswirkungen des geprüften Zusammenhanges. Um hier genauere Einblicke zu erreichen, stehen zwei Wege zur Verfügung: Nicht selten ist es notwendig, die nun differenzierte Fragestellung durch gezielte empirisch-experimentelle Untersuchungen der Klärung näherzubringen. Vielfach dagegen wird es sich als zweckmäßig erweisen, zunächst eine tieferdringende statistisch-mathematische Analyse durchzuführen, wie sie uns in Gestalt der Varianzanalyse oder der Faktorenanalyse zur Verfügung steht.

IV. TEIL

Statistische Analyse

KAPITEL

14

Tendenzmaße Die Umrechnung von Häufigkeiten in Prozentwerte stellt eine gebräuchliche Transformation eines Rohmaterials zum Zwecke größerer Übersichtlichkeit und Vergleichbarkeit dar. Ähnlich wie wir Rohwerte zweckmäßigerweise in Standardwerte oder Perzentile überführen, ist auch unter bestimmten Voraussetzungen eine informative Transformation wiederum der Prozentwerte geboten. Hiermit wollen wir uns im folgenden Abschnitt genauer beschäftigen. Eine besondere Überlegung erfordert dabei die statistische Auswertung derjenigen prozentualen Verteilungen, die sich auf alternative Fragestellungen beziehen. Diese Verteilungen lassen nicht ohne weiteres den unmittelbaren Vergleich der Ergebnisse aus zwei Stichproben zu. Vergegenwärtigen wir uns diese Schwierigkeit an folgendem Befragungsergebnis 1 ): Tabelle 45

Männer Frauen

ja (P+%)

keine Meinung (P0%)

nein (P-%)

20% 30%

40% 20%

40% 50%

= =

100% 100%

Es ist hier schwer zu entscheiden, ob bei den befragten Männern oder bei den Frauen die Gesamttendenz größer ist, sich gegenüber der Möglichkeit einer raschen Wandlung der Mode ablehnend zu verhalten. Die Schwierigkeit des Vergleichs ist im Beispiel der Tabelle 45 und in vielen ähnlichen Fällen folgendermaßen begründet : zwar nehmen Frauen deutlich häufiger als Männer verneinend Stellung. Jedoch sind sie auch in nicht zu vernachlässigendem Umfang häufiger bereit, Modewandlungen zu bejahen. Wir benötigen daher eine Transformation der ermittelten Prozentwerte dergestalt, daß ihre jeweilige Gesamttendenz deutlich erkennbar Zwei wenn auch kleine und daher nicht repräsentative Stichproben von durchschnittlich 35jährigen Männern und Frauen wurden befragt: Sollte sich die Mode rascher und stärker ändern als bisher ?

158

Statistische Analyse. Tendenzmaße

wird. Zu diesem Zweck bedienen wir uns des sogenannten Majoritätsmaßes (MA). Oder es ist nicht einwandfrei auszumachen, welche Gruppe mit widersprechenderen Meinungsäußerungen reagiert, ob also Männer oder Frauen gegenüber möglichen Änderungen der Mode innerlich zwiespältig und mit widersprüchlichen Verhaltensbereitschaften (Ambitendenz) reagieren werden. Dieser Sachverhalt wird im sogenannten Ambitendenzmaß (A) erfaßt. Bei manchen Untersuchungsproblemen ist es dagegen aufschlußreicher, den reziproken Sachverhalt in einem anschaulichen Maß auszudrücken. In unserem Beispiel ginge es also um die Klärung der Frage, ob Männer oder Frauen objektiver und gefühlsmäßig neutraler auf Modeänderungen reagieren. Das entsprechende Maß sollte zweckmäßigerweise Konvergenzmaß (Ä)2) genannt werden. Schließlich ist es bei vielen sozialwissenschaftlichen Untersuchungen von größtem Interesse, die Konformität kennenzulernen, mit der die Gesamtheit oder bestimmte Teilgruppen der Befragten auf bestimmte Sachverhalte reagieren. Dabei kann es durchaus auch einer konformen „Reaktion" entsprechen, wenn ein erheblicher Teil der Befragten nicht antwortet bzw. bekundet, er habe über einen bestimmten Sachverhalt noch nicht nachgedacht. Allerdings kann es auch sein, daß die Befragten eine Verhaltenskonformität dergestalt entwickeln, daß sie sich tatsächlich über den erfragten Sachverhalt nicht informiert haben. Auch in der Nicht-Stellungnahme oder in der selektiven Nicht-Informiertheit können sich wichtige, mentalitätskennzeichnende Gruppenmerkmale ausdrücken. Die Stärke der Konformität von Meinungen oder Reaktionen einer Gruppe läßt sich mit dem sogenannten Konformitätsmaß (K) messen. Majoritätsmaß Das Majoritätsmaß (MA) gibt Richtung und Intensität der jeweiligen Majoritätsmeinung einer Stichprobe wieder. Sind Prozentwerte auf zwei Alternativen sowie auf eine dazwischenliegende, nichtengagierte Reaktion oder Meinung verteilt, dann läßt sich MA stets errechnen. Die Formel für das Majoritätsmaß lautet:

(66) Hierin entspricht P+ der prozentualen Häufigkeit der einen und P_ derjenigen der anderen Alternative. Für die beiden Stichproben unseres Beispiels (S. 157) ergibt sich demnach: Männer MA = —12,0 und für Frauen MA = —16,0. Die Richtung der Majoritätsmeinung ist hier also in beiden Stichproben „negativ", doch erweist sich die Ablehnung bei den befragten Frauen als stärker. 2)

Lies: „A überstrichen".

Ambitendenz- und Konvergenzmaß

159

Das Majoritätsmaß kann auch aufgefaßt werden als die Differenz zwischen den quadrierten alternativen Reaktionen j a und nein. Denn es ist PL = (P+ + P-) • (P+ —

P-).

Da in der rechten Seite der Gleichung größere Zahlen vermieden werden, ist sie zur Berechnung geeigneter. Deshalb steht sie in Formel (66). Nun würde aber das Maß den Wert 10000 annehmen, falls alle Befragten mit j a oder n e i n reagierten ( = 100%). Deshalb wird durch 100 dividiert. Dies hat zur Folge, daß MA nur Werte zwischen + 1 0 0 und — 1 0 0 annehmen kann. Sind P+ und P_ gleich stark besetzt, so wird MA = 0. Überwiegt P+, so ist der Wert positiv, im entgegengesetzten Fall P_ > P+ wird der Wert MA negativ. Am Ende dieses Kapitels werden wir die praktische Bedeutung dieses Maßes an Hand eines Beispiels vorgeführt bekommen. Ambitendenz- und Konvergenzmaß Für die Beantwortung vieler Untersuchungsprobleme ist es außerordentlich interessant zu wissen, wie widersprüchlich die Urteils- und Verhaltenstendenzen einer Gruppe sind. Handelt es sich um Meinungen, so wird an der Ambitendenz im allgemeinen die Aktualität des Befragungsgegenstandes deutlich3). Sind es jedoch unreflektierte Einstellungen, die mit der Untersuchung indirekt erfaßt werden, so ist der entsprechende Sachverhalt in der Gruppe nicht ausdrücklich erlebnismäßig aktuell. Nur an der Art des Handelns kann dann für einen neutralen Beobachter die ,,Aktualität" sichtbar werden. Handelt es sich nicht um Einstellungen und Meinungen, so kann überhaupt nicht mehr von „Aktualität" gesprochen werden. Deshalb ziehen wir den besser treffenden Ausdruck „Ambitendenzmaß" vor. Zur Berechnung des Ambitendenzmaßes muß einerseits die Häufigkeit der nicht-engagierten, z. B. der „Weiß nicht"-Antworten (P 0 %), andererseits aber auch der Grad der Einheitlichkeit berücksichtigt werden, mit der die Angehörigen der Gruppe entweder mit ja oder mit nein reagieren. Diesen beiden Bedingungen entsprechend errechnet sich das Ambitendenzmaß (A) gemäß folgender Formel: ^ = J

^r . («7) 0 Wieder auf unsere Tabelle 46 angewandt, erweist sich die bei den befragten Frauen weit größere „Ambitendenz" gegenüber der 3 ) Dies hat P. R. HOFSTÄTTER verleitet, dem entsprechenden Maß den Namen „Aktualitätsmaß" zu geben. (Einführung in die quantitativen Methoden der Psychologie S. 68ff., München 1953.)

160

Statistische Analyse. Tendenzmaße

Fragestellung unseres Beispiels. Das Ergebnis errechnet sich nach Formel (67) auf folgende Weise: Männer: 4 =

_ 0,71.

Frauen:

A =

= 1,94.

Die Differenz zwischen Männern und Frauen zeigt, daß Frauen deutlich ambitendenter auf mögliche Modeänderungen reagieren als Männer. Das oben dargestellte Maß selbst nützt die Tatsache aus, daß zwei Zahlen (bei konstanter Summe) miteinander multipliziert das höchste Produkt haben, wenn sie gleich sind. Als Beispiel die folgende Reihe (Summe gleich 10): 1x9 = 9 wird a l s o a m größten, wenn P+ = P_ ist. 2 x 8 = 16 Damit das Produkt mit P0 vergleichbar wird, wird 3 x 7 = 21 das Produkt durch die Wurzel quasi rückgängig ge5 X 5 — 25 m a c ^ l t - Wird P0 zu Null, so geht A gegen unend~~ ' lieh. Ist P+ und P0 oder P_ und P0 gleich Null, so kann A nicht unmittelbar berechnet werden. Es läßt sich jedoch zeigen, daß dann A = 0 ist. Es ist wichtig, daß dieses Maß bei kleinem N nicht verwendbar ist. Wir können uns diese Tatsache leicht deutlich machen, wenn wir uns überlegen, wie groß die Wahrscheinlichkeit ist, daß bei einer Befragung P0 unbesetzt bleibt. Gehen wir davon aus, daß jede Alternative gleich wahrscheinlich ist, also für den einzelnen Fall die Wahrscheinlichkeit 1 / 3 beträgt, so ist die wahrscheinlichste Häufigkeit für eine Alternative, gleich N/3. Oder: die Wahrscheinlichkeit für die Alternativen P + und P_ zusammen beträgt (2/3) N. Dies ist aber gleichzeitig die Wahrscheinlichkeit p dafür, daß P 0 unbesetzt bleibt, A also unendlich groß wird. Dieser Zusammenhang zwischen N und p wird in der Figur 39 sichtbar:

Konformitätsmaß

161

Bei N = 17 unterschreitet p den Wert 0,001. Hier wird man mit Sicherheit davon sprechen können, daß die Gefahr klein genug ist, daß A (gemessen an der Population) durch Zufall unrealistisch groß wird. In vielen Untersuchungen ist es aufschlußreicher, statt das Ambitendenzmaß zu berechnen, zu prüfen, welche Neigung besteht, neutral zu reagieren bzw. nicht zu antworten. Hier kann mit Erfolg der reziproke Wert von A als ein Konvergenzmaß benützt werden: A=

A

=

/ P" ]/P+-P-

(68)

Das Konvergenzmaß bringt prinzipiell zum Audsruck, wie einheitlich die Urteils- oder Reaktionstendenzen der Angehörigen einer Gruppe gegenüber dem Befragungsgegenstand sind. In unserem Beispiel ergeben sich die Werte Männer: Frauen:

Ä = 1,41 A = 0,52.

Sie spiegeln den beinahe selbstverständlichen Tatbestand wider, daß Männer auf einen möglichen Modewechsel affektiv neutraler als Frauen reagieren. Konformitätsmaß Neben den bisher besprochenen Tendenzmaßen ist es von größter Wichtigkeit, ein Maß für die Konformität der Urteils- und Reaktionstendenzen zu haben. Vor allem in sozialwissenschaftlichen Untersuchungen ist die Kenntnis der Konformität beinahe immer von Bedeutung. Nun ist es für die Konformität von Reaktionen charakteristisch, daß im maximalen Falle alle Befragten nur eine Alternative wählen. Konformität aber kann umgekehrt auch dadurch zum Ausdruck kommen, daß sämtliche Befragten nicht reagieren, also eine Nullreaktion zeigen. Deshalb kann übrigens auch unser Konvergenzmaß kein Maß für die Konformität sein. Geringe Konvergenz liegt vor, wenn sich alle Reaktionen auf die entgegengesetzten Alternativen verteilen. Geringe Konformität dagegen ist gegeben, wenn alle zugänglichen Alternativen gleich stark besetzt sind. Unser Konformitätsmaß kann von vn+PI+

P?l

ausgehen. In der Tat wird diese Wurzel besonders klein, wenn sich die Fälle gleichmäßig über alle Werte verteilen {a = j/3 • 33,3 2 = 57,735). 11

Haseloff, Statistik, 2. Aufl.

Statistische Analyse. Tendenzmaße

162

Und umgekehrt: er wird besonders groß, wenn alle Fälle auf nur eine Alternative entfallen ( / i P = 100). Als Maß wäre diese Wurzel dann verwendbar, wenn der geringste Wert nicht a, sondern 0 betragen würde. Letzteres ist erreichbar, indem prinzipiell a subtrahiert wird. Allerdings muß wieder mit einem entsprechenden Faktor multipliziert werden, wenn 100 als obere Grenze erhalten bleiben soll. Dies führt schließlich zur folgenden Formel für das Konformitätsmaß: oder

K = 2,37 • (]/P\ + PI + PI — 57,7).

(69)

Wenden wir dies zunächst auf unser Beispiel an (Tab. 45), so ergeben sich folgende Werte: Männer: Frauen:

K = 2,37 • (202 + 402 + 402 — 67,7) = 5,4 K = 2,37 • (302 + 202 + 502 — 57,7) = 9,5.

Hier wird deutlich, daß Frauen auf erwartbare Modeänderungen konformer reagieren als Männer. Dies weist darauf hin, daß Frauen im allgemeinen ausgeprägtere Verhaltensnormen für diesen Lebenssektor aufbauen als Männer. Bevor wir uns noch einem Beispiel zuwenden, an dem wir alle Tendenzmaße einander gegenüberstellen, wollen wir uns die allgemeinere Bedeutung des Konformitätsmaßes klarmachen: Es ist durchaus häufig der Fall, daß nicht zwei oder drei Alternativen einander gegenüberstehen, sondern eine erheblich größere Anzahl. So beispielsweise Alternativen von der Anzahl K. Hierfür nimmt unsere Formel folgende Gestalt an (für K > 1 und K = 2, 3 , 4 )

K= ^rAVPl+Pi + -+Pi~Wy

(70)

Die Konstanten haben folgende Größe bei unterschiedlichen Alternativen: Tabelle 46 K joo yg (/K l/K —1 2 3 4 5 6 7 8 9 10

70,6 57,7 50,0 44,7 40,8 37,8 35,4 33,3 31,6

3,42 2,37 2,00 1,81 1,69 1,61 1,55 1,50 1,46

Konformitätsmaß

163

Allerdings wird vor einer Anwendung dieser Formel prinzipiell zu prüfen sein — und dies gilt für andere Tendenzmaße gleichfalls — ob die Alternativen gegeneinander als gleichwertige Wahlchance aufgefaßt werden können. Man darf sich dabei unter keinen Umständen von der Tatsache täuschen lassen, daß unsere Kultur und Gesellschaftsordnung eine Entscheidungs- und Erklärungsalternative als unwahrscheinlicher einschätzt, weil sie für einen bestimmten Personenkreis als „unnormal" gilt. Gerade die Beurteilung als „unnormal" bietet typische Beispiele für bestehende Konformität. Abschließend nun ein Beispiel, in dem die Tendenzmaße nicht mehr ohne weiteres im voraus eingeschätzt werden können. Beispiel: Im Rahmen einer von uns durchgeführten Untersuchimg über die Auseinandersetzung Jugendlicher mit der modernen Arbeitswelt4) wurden die unterschiedliche Art und Häufigkeit von Kindheitserinnerungen arbeitsloser und ungelernter Jugendlicher genau analysiert. Dabei ergab sich die folgende Verteilung: Tabelle 47

Es nennen Kindheitserinnerungen positiver Art P

arbeitslose Jugendliche ungelernt® Jugendliche

+

35% 22%

keine

negativer Art

P„

31% 60%

P_

34% 18%

Hier läßt sich zunächst ungefähr abschätzen, daß Kindheitserinnerungen für die arbeitslosen Jugendlichen offenbar persönlich bedeutsamer sind und deshalb häufiger erinnert werden als von ungelernten jugendlichen Handarbeitern. Dagegen ist die stärkere Gesamttendenz zu positiven Erinnerungen keiner der beiden Gruppen ohne weiteres zuzuordnen. Hier helfen uns die Tendenzmaße weiter. Ihre Größe können wir der Tabelle 48 entnehmen. Tabelle 48

Die Gruppentendenzen beim Erinnern von Kindheitserlebnissen Majorität MA arbeitslose Jugendl. ungelernte Jugendl.

0,69 1,60

Ambitendenz Konvergenz Konformität A Ä K 1,11 0,33

0,90 3,03

0,17 20,52

Das Majoritätsmaß zeigt, daß die Tendenz, sich positiver Kindheitserlebnisse zu erinnern, bei den ungelernten Jugendlichen doch 4) O T T O W A L T E R H A S E L O F F „Jugend und Arbeit. Zur Psychologie und Soziologie der modernen Jugendlichen". Walter de Gruyter & Co., Berlin 1965 (im Druck).

11*

164

Statistische Analyse. Tendenzmaße

stärker als bei den jugendlichen Arbeitslosen ist. Dies legt die Hypothese nahe, daß die ungelernten Jugendlichen über eine optimistischere Lebenseinstellung verfügen, die es ihnen erleichtert, mit ihrer Vergangenheit positive statt negative Bewußtseinsinhalte zu verbinden. Allerdings sind bei beiden Gruppen von Jugendlichen die Majoritätswerte relativ gering. Dies könnte darauf aufmerksam machen, daß arbeitslose wie ungelernte Jugendliche auf Befragen vorwiegend individuelle Erinnerungen bringen. Diese Tendenz zur individuellen Assoziation ist, wie das Konformitätsmaß wahrscheinlich macht, bei den arbeitslosen Jugendlichen besonders ausgeprägt. Denn das Konformitätsmaß ist bei den ungelernten Jugendlichen bedeutend höher als bei den arbeitslosen. Demgemäß signalisiert hier das Konformitätsmaß gemeinsam mit dem Majoritätsmaß, daß ungelernte Jugendliche in konformer Weise zur Verdrängung von Kindheitserinnerungen neigen. Und zwar geschieht dies augenscheinlich mit dem Ziel, die eigene Vergangenheit und damit auch das Bild der persönlichen Daseinsentfaltung in einem möglichst positiven Licht erscheinen zu lassen. Aus den bisherigen Überlegungen erklärt sich auch zwanglos das niedrige Konvergenzmaß bei den arbeitslosen Jugendlichen: Ihre Kindheitserinnerungen sind wesentlich individueller und konvergieren dementsprechend wesentlich weniger. Sie sind unverkennbar in einem nur schwächeren Grade an Gruppennormen angepaßt. Damit könnte zugleich ein Erklärungsansatz für ihre verminderte Neigungsreife hinsichtlich der Berufswahl gefunden sein. Diese Hypothese bestätigte sich in den unterschiedlichsten Zusammenhängen und vor allem bei einem Vergleich mit denjenigen Jugendlichen, die den Weg der handwerklichen Berufslehre gewählt haben. Schließlich können wir bei der Interpretation der Tabelle 48 noch folgende Erfahrung berücksichtigen: Bei Befragungen der Großstadtbevölkerung zeigt sich eine höhere Ambitendenz und eine geringere Konvergenz der Stellungnahmen als bei kleinstädtischer oder ländlicher Bevölkerung. Ein gleiches Verhältnis besteht zwischen den ökonomisch besser gestellten Bevölkerungsschichten gegenüber Befragten mit geringerem Einkommen. Dies deutet gleichfalls auf eine geringere horizontale Gebundenheit, wie wir sie bereits den arbeitslosen Jugendlichen versuchsweise zuschrieben. Es wird deutlich, daß die unterschiedlichen Tendenzmaße in der Lage sind, aus der Verteilung von Wahlen, Meinungen oder Entscheidungen durchaus charakteristische Informationen zu gewinnen, die durch eine intuitive Betrachtung der Verteilung und durch freie Interpretation nicht erzielt werden können.

KAPITEL

15

Varianzanalyse Die bisher diskutierten Verfahren zur Prüfung von Differenzen, z. B. Differenzen zwischen Mittelwerten oder Standardabweichungen fordern zu ihrer Anwendung die Erfüllung einer wichtigen Bedingung: Die fragliche Differenz darf nur von einem einzigen Faktor verursacht sein. Nicht immer vermag jedoch das experimentelle Arrangement dieser Bedingung zu genügen. Besonders in psychologischen und sozialwissenschaftlichen Untersuchungen muß oft angenommen werden, daß eine zunächst hypothetisch konzipierte Gesamtursache für einen erklärungsbedürftigen Tatbestand in Wahrheit für ein ganzes Bündel von durchaus isolierbaren Faktoren steht. Die Einstellungen von Menschen sind z. B. prinzipiell Ausdruck unterschiedlichster entwicklungsbiologischer oder in persönlicher Vorgeschichte begründete Persönlichkeitszüge, aber auch -gruppen und/oder situationscharakteristischer Faktoren. Bei der Prüfung von Differenzen zwischen solchen Einstellungen bzw. ihren Mittelwerten kann nicht der z- oder f-Test angewandt werden. Hier haben wir es mit einem typischen Anwendungsbereich der Varianzanalyse zu tun. Einfache Varianzanalyse Eine Varianzanalyse kann immer dann durchgeführt werden, wenn die einzelnen Fälle in geeigneter Weise in Stichproben zusammengefaßt oder aufgegliedert sind. Ihr Rechenablauf knüpft an die Tatsache an, daß Varianzen «j sich additiv zu einer Gesamtvarianz s 2 zusammenfügen: oder or2 = a\ + or| + or| + . . . Diese Formel bedeutet: Ein Merkmal variiert durch die Einwirkung vieler Faktoren. Der Faktor 1 erzeugt die Varianz sj, der Faktor 2 für sich allein erzeugt die Varianz usf. Dann ist die Gesamtvarianz s2 des Merkmals gleich der Summe einer Reihe von Einzelvarianzen. Dieser Zusammenhang besteht definitionsgemäß auch zwischen den Streuungsquadraten.

166

Statistische Analyse. Varianzanalyse

Der Varianzanalyse geht es um die Zerlegung einer Gesamtvarianz in die Einzelvarianzen der verursachenden Faktoren. Dies kann immer dann geschehen, wenn wir es mit quantitativen Messungen zu tun haben. Allerdings ist auf folgendes zu achten: Schiefe Verteilungen oder ungleiche Varianzen in den Stichproben bedürfen prinzipiell vorher einer Transformation zum Normalen. Dies gilt vor allem für Häufigkeiten, die als Beobachtungswerte bzw. Fälle gewonnen werden. Große Streuungen lassen sich beispielsweise durch Logarithmierung korrigieren. Wird eine Häufigkeit Null beobachtet, so muß durch Addition von 1 zu jedem Fall das Material vor der Logarithmierung bearbeitbar gemacht werden. Nun zu den Grundgedanken des Rechenablaufes der Varianzanalyse: Nehmen wir an, es liegen k Stichproben von stochastisch unabhängigen Beobachtungen aus normal verteilten Populationen vor. Alle Stichproben seien gleich groß und enthielten jeweils n Beobachtungen. Die Mittelwerte der Populationen mögen fi v fi2, . . . n k sein, während alle Standardabweichungen gleich a, und dementsprechend alle Varianzen gleich a 2 seien. In den einzelnen Stichproben liegen nun folgende Werte vor. Tabelle 49 Stichproben Nr.

Summe der Beobachtungswerte

Größe

1 2 3

«i s*

n n n

M1

n

Mk

k Summe

S

Mittelwerte

M3

k •n = N

Hiernach beträgt das arithmetische Mittel aller Beobaehtungswerte: M = = "Jr- Die Abweichung des einzelnen Beobachtungswertes von diesem Gesamtmittelwert kann nun gleich X — M = (X — Mi) + (Mi — M) gesetzt werden, wenn Mi der Mittelwert jener Stichprobe ist, zu der der Beobachtungswert X gehört. Durch wenige rechnerische Operationen läßt sich hieraus die folgende wichtige Gleichung ableiten: 2(X — M)2 = Z(X — M(f + n •

— Mf.

(71)

Auf der linken Seite der Gleichung (71) steht die Summe der quadratischen Abweichungen der Beobachtungswerte vom Gesamtmittelwert. Diese Summe wird „Summe der Abweichungs-

Einfache Varianzanalyse

167

quadrate insgesamt"' genannt (SQ insgesamt). Die Summe hat N — 1 Freiheitsgrade. Die erste Summe auf der rechten Seite der Gleichung (71) ist die Summe der quadratischen Abweichungen der Beobachtungswerte einer Stichprobe vom Mittelwert eben dieser Stichprobe. Sie wird „Summe der Abweichungsquadrate innerhalb der Stichproben" genannt (SQ innerhalb). Sie hat k • (n —1) Freiheitsgrade. Die zweite Summe auf der rechten Seite stellt die Summe der quadratischen Abweichungen der Stichprobenmittelwerte vom Gesamtmittelwert dar. Sie wird „Summe der Abweichungsquadrate zwischen den Stichproben genannt (SQ zwischen). Die Zahl der Freiheitsgrade beträgt hier k — 1. Würden wir nun die Beobachtungen aller Stichproben als eine große Stichprobe betrachten, so könnten wir aus ihr M und s 2 direkt berechnen. Von hier aus wäre es dann auch möglich, ¡x und e io" «i •df ^f t i eo* n s i e i e i ri ec cq' in n « N o> ei H H p| •5"

a

00

Hffloso^o^eo^üo^fflHfDioeooject^flsooaH ooeOT*ooeqpHoo©^©>OpHoot~o^eo_eqeqpHcsoocqiq ® os r-^ Tji © oo CD « 0 i O " O " D ! ' ' ^ i ' i i e i e i e i e i e i e i e i e i e i e i e i io O N H H

CO

OieOHHN^Ol^OOiNCOH^CbffieOt^OSOOOlO io eo^ o> e) ® h m oo n oo eq oo q o o « h o oo_ S^ 2 os o sw i >H i dH ©oot^cDidid^^'^rTi'eoeieoeieoeieieieiei

io

^0"ieit-«)oeoiiii®a«iooo)ON®OHHon eoeiioas^t-^Tflcqoco o q - i e q ^ f f l o ^ o o t - ^ t ^ i o ^ e q © fr oT00U5O00i>5050 U 3 i 0 ^ r i i ' ' > d ' ' ' < t e i e i e i e i e i e i e i e i e i «OllNHH

o >

ioiOrt00fflioiOHMo>He0f00e0H5i'>jit-(se0iMHN eq « t», q eo_ oo o, ^ o ^ o^ t- " 1 1 . 1 H . ^ "i, 1 co oToiiii—ToTt^'t^co^to'io'io'^r^r^ji' ^T e i e i e i ei io a N H H

® ®

£ e i e i i o ö e o a o i o eipHOsoot^cqioeopHOScq 2~OSCOe|i-Hr-(r-(r—(r-li—I oo" TU* pH CO ei e i rt* o" O*ffl"oo" ®" t>" t-" t-" c-*t~* t-^ cd cd HNeoTtioo^KfflONiioxoeqiioxoooo o HHHHHNMNNNM^OO o

KAPITEL

20

Lösungen der Übungsaufgaben Aufgabe

1: 19,95%

Aufgabe 2: PR = 15,2 Aufgabe 3: 452 Aufgabe 4 : Lösung siehe Aufgabe 7 Aufgabe 5: Lösung siehe Aufgabe 8 Aufgabe 6: 212,4° 140,4° 7,2° 360,0° Aufgabe 7: M = 4,71 Aufgabe 8: M = 51,5 Aufgabe 9: G = 5 Aufgabe 10: Z = 4,79 Aufgabe 11: VB = 5 Aufgabe 12: Quartilab weichung = 1,20 Aufgabe 13: s 2 = 2,22 Aufgabe 14: s = 1,49 Aufgabe 15: Variabilitätskoeffizient = 32 Aufgabe 16: M = 4,71, s = 1,49 Aufgabe 17: M = 51,5, s = 7,26 Aufgabe 18: M = 60,85, s = 4,96

246

Übungen und Arbeitshilfen. Lösungen der Übungsaufgaben

Aufgabe 19: Richtig gelöste Aufgaben 7 6 5 4 3 2

Standardwert 1,54 0,87 0,19 —0,48 —1,15 —1,82

Aufgabe 20: Standardwert = 1,84 Aufgabe 21: Richtig gelöste Aufgaben

Perzentil

7 6 5 4 3 2

93 77 55 34 16 4

Anzahl richtiger Antworten

Perzentil

24 23 22 21 20 19 18

79 48 29 15 7 3 1

Aufgabe 22:

Aufgabe 23: r = 0,90 Aufgabe 24: r = 0,24 Aufgabe 25:

Tgw.a

=

0,64

Aufgabe 26: r«rt = —0,42 Aufgabe 27:

rP.zzk

=

0,68

Aufgabe 28: Phi = 0,48 Aufgabe 29: Rho = —0,10 Aufgabe 30: Rho = 0,92 Aufgabe 31: 85,4 bis 88,6 Aufgabe 32: 23,4 bis 26,6

Lösungen der Übungsaufgaben

Aufgabe 33: —1,2 bis 4,2 Aufgabe 34: 8,6 bis 13,4 Aufgabe 35: 67,5 bis 72,5% Aufgabe 36: 6,4 bis 23,6 Aufgabe 37: t = 1,34 Aufgabe 38: t = —2,74 Aufgabe 39: t = 0,88 Aufgabe 40: t = —2,19 Aufgabe 41: z = —2,5

20% > p > 10% 1 % > p > 0,5% p > 20% 10% > p > 5% 2% > p > 1 %

Aufgabe 42: z = 4,58

p < 0,5%

Aufgabe 43: t = 1,46

20% >p>

Aufgabe 44: z = 0,94

p > 20%

10%

Aufgabe 45: z = 1,73

10% > p > 5%

Aufgabe 46: f = 5,4

FG = 2

Aufgabe 47: f- = 5,13 Aufgabe 48: f = 7,1

FG = 2 FG = 1

10% >p>

5%

10% >p>

1 % > p > 0,1 %

Aufgabe 49: y = 0,9a; — 0,6 Fi K L M N

.87 .35 .83 —.37 .62 .36 .51 —.59

5%

Fi .43 .84 —.87 .27 .71 —.13 .77 -- . 1 1 (rotierte Faktoren)

Literatur J . K . : Basic Statistical Concepts, New York 1955. A D O R N O , T H . W.: Soziologie und empirische Forschung. I n : Wesen und Wirklichkeit des Menschen; Festschrift für H E L L M U T P L E S S NER. Göttingen 1957. A N D E R S O N , O . : Probleme der statistischen Methodenlehre in den Sozialwissenschaften. 3. Auflage Physica-Verlag, Würzburg 1957. ADAMS,

ANDERSON, R . L . a . T . A . BANCROFT :

Statistical Theory in Research, New York 1952. B A B T L E T T , M . S.: An Introduction to Stochastic Processus. Cambridge 1955. B O R S C H , A. U. P. S I M O N : Abhandlungen zur Methode der kleinsten Quadrate von C A R L F R I E D R I C H G A U S S . Berlin 1 8 8 7 . B U R G E R , E. : Einführung in die Theorie der Spiele. Mit Anwendungsbeispielen insbesondere aus Wirtschaft und Soziologie. Walter de Gruyter & Co., Berlin 1959. BUSH, R . R . a . C. F .

MOSTELLER:

Stochastic Models for Learning. New York 1955. CARNAP, R . U. W . STEGMÜLLER: I n -

duktive Logik und Wahrscheinlichkeit. Wien 1959. CATTELL, R. B . : Factor Analysis. New York 1952. CHESIRE,

L., M.

SAETTO, a .

L.

L.

: Computing Diagrams for the Tetrachoric Corre-

THURSTONE

lation Coefficient. Univ. Chicago Bookstore, Chicago 1933. COCHRAN, W. G.: Sampling Techniques. Wiley, New York 1953. D A V I D , F . N.: Probability Theory for Statistical Methods. University Press, Cambridge 1951. D A V I E S , 0 . L . : Statistical Methods in Research and Production. 2. Aufl., London 1957. DIXON, W . J .

a . F . J . MASSEY :

In-

troduction to Statistical Analysis. 3. Auflage. McGraw-Hill, New York 1957. E D W A R D S , A. L.: Statistical Methods in the Behavioral Sciences, New York 1954. F E C H N E R , G. T.: Kollektivmaßlehre, herausgegeben von L I P P S , Leipzig 1897. F I S H E R , R. A.: Statistical Methods for Research Workers. Oliver a. Boyd. London 1950. F I S H E R , R. A.: The Design of Experiments. 6. Auflage. EdinburghLondon 1954. F R Ä S E R , D. A. S.: Non-parametric Methods in Statistics, New York 1957. F R E U D E N T H A L , H.: Wahrscheinlichkeit und Statistik. R. Oldenbourg, München 1963. G A R R E T , H. E.: Statistics in Psychology and Education. 4. Auflage. Longmans, New York 1954. G N E D E N K O , B. W.: Lehrbuch der Wahrscheinlichkeitsrechnung. Berlin 1957.

Literatur G N E D E N K O , B . W . U. A . J .

CHINT-

CHIN: Elementare Einführung in die Wahrscheinlichkeitsrechnung. Berlin 1955. G O U L D E N , C. H . : Methods of Statistical Analysis. 2. Aufl., New York 1952. G R A T , U . U. H . J . H E N N I N G : Formeln und Tabellen der mathematischen Statistik. Berlin 1953. G U I L F O R D , J . P.: Fundamental Statistical in Psychology and Education. 3. Auflage. McGraw-Hill. New York 1956. HALD, A.: Statistiske metoder. Tabel-ogFormelsamling. Det private ingeniörsfond, Kopenhagen 1948. HANSEN, M . H . , W . N . HUBWITZ, a .

W. G. M A D O W : Sample Survey Methods and Theory, Vol. I. Wiley, New York 1953. H A S E L O F F , 0 . W.: Jugend und Arbeit. Walter de Gruyter & Co., Berlin 1965. (Im Druck). H O F S T Ä T T E R , P. R.: Einführung in die quantitativen Methoden der Psychologie. Barth,Münchenl953. H O G B E N , L.: Zahl und Zufall. R. 01denbourg, München 1956. H O S E M A N N , H . : Die Grundlagen der statistischen Methoden für Mediziner und Biologen. Thieme, Stuttgart 1949. K E L L E B E B , H . : Statistik im modernen Wirtschafts- und Sozialleben. rowohlts deutsche enzyklopädie Bd. 103/104, Hamburg 1960. K E N D A L L , M. G.: Rank Correlations Methods. 2. Auflage. Griffin, London 1955. KENDALL, M . G . a . W . R . BUCKLAND :

A dictionary of statistical terms. 2. Auflage, Oliver and Boyd, London 1960. K O L L E R , S.: Graphische Tafeln zur Beurteilung statistischer Zahlen. 3. Aufl., Darmstadt 1953.

249

Essai philosophiques sur les probilités (1819). L A Z A R S F E L D , P . F.: Die Panel-Befragung. I n : Praktische Sozialforschung, Bd. I. Dortmund — Zürich 1950. L E X I S , W.: Zur Theroie der Massenerscheinungen in der menschlichen Gesellschaft. Freiburg/Br. 1877. L I N D E R , A.: Statistische Methoden. 3. Auflage, Birkhäuser Verlag, Basel, Stuttgart 1960. L O R E N Z , P.: Anschauungsunterricht in mathematischer Statistik. I, Leipzig 1955, und I I / l (Der Schluß vom Teil aufs Ganze), Leipzig 1959. MACKENROTH, G. X. : Methodenlehre der Statistik. Vandenhoeck & Ruprecht, Göttingen 1949. LA P L A C E :

Q . : Psychological Statistics. 2. Auflage. Wiley, New York 1953.

MCNEWAR,

v.

M I S E S , R . : Wahrscheinlichkeitsrechnung. Deuticke, Wien 1931.

v.

M J S E S , R . : Wahrscheinlichkeit, Statistik und Wahrheit. 3. Aufl., Wien 1951.

E.: Planung und statistische Auswertung von Experimenten. 2. Auflage. Deuticke, Wien 1958.

MITTENECKER,

MUELLER, J . H . a . K . F .

SCHUESS-

LER: Statistical Reasoning in Sociology, Boston 1961. J . : Allgemeine Methodenlehre der Statistik, Sammlung Göschen, Bd. 746/746a, Berlin 1960.

PFLANZAGL,

Sur L'homme et le développement de ses facultes, ou essai de physique sociale. Paris 1835.

QUETELET:

Theorie und Technik der Korrelationsanalyse. Berlin 1932.

RICHTER-ALTSCHAFFER, H . :

250

Literatur

L.: Einführung in die mathematische Statistik. Springer Wien 1956. SCHWARZ, A.: Statistik durch Anschauung. Orell Füssli, Zürich 1945. S I E G E L , S.: Nonparametric Statistics for the Behavioral Sciences, London 1956. S P Ä T H , W.: Zahl — Maß — Bild. Gentner KG, Stuttgart 1960. STATISTISCHES B U N D E S A M T (Herausgeber): Stichproben in der amtlichen Statistik. W. KohlhammerVerlag, Wiesbaden 1960. T H U R S T O N E , L. L.: Multiple Factor Analysis. Chicago 1947. T I P P E T T , L. H. C.: Einführung in die Statistik, Wien u. Stuttgart 1952. T O P I T S C H , E . : Vom Ursprung und Ende der Metaphysik. Wien 1958.

SCHMETTERER,

B. L.: Mathematische Statistik. Springer, Berlin — Göttingen —• Heidelberg 1957.

VAN D E R W A E R D E N ,

E.: Narrenspiegel der Statistik. Hanseatische Verlagsanstalt, Hamburg 1935.

WAGEMANN,

H. M.: Statistische Methoden für Psychologen und Pädagogen. Beltz, Weinheim u. Berlin 1954.

WALKER,

W A L L I S , W . A . U. H . V .

ROBERTS:

Methoden der Statistik, 2. Aufl., R. Harfe-Verlag, Freiburg/Br., 1962. E.: Grundriß der biologischen Statistik. 4. Aufl., G. Fischer, Jena 1961. W I L K E S , S. S.: Elementary Statistical Analysis. Princeton Univ. Press, Princeton 1954. WEBER,

Sachregister Abweichung, durchschnittliche 52 —, mittlere quadratische 53 Akkuranz 68 Aktualitätsmaß 159 Alternativhypothese 131 f. Ambitendenzmaß 159ff., 163 Arithmetik, politische 4 Astronomie 5, 14 Aufgabenanalyse 99

Exponentialfunktion 76 Grundgesamtheit 109f., Extrapolation 201 ff. 113 Exzeß 65 Gruppenfaktor 186

Faktoren 183, 188 —, Anzahl der 187 —, Bipolar- 195 —, Deutung der 194 f. —, schiefwinklige 197 —, spezifische 193 f. Faktorenanalyse 13, 99, 153, 182 ff. —, Anwendung der 198 •—, FundamentalBeobachtung 29 theorem der 189 Beobachtungsanzahl 43 Faktorentabelle Bestätigungsgrad 18 (-matrix) 193 Bewährungsgrad 18 Fall 29 Beweis 16 Fehler 5, 29, 77 Bewußtsein, falsches 16 —, mittlerer 120 Binom 69 Fehlerkurve 75 Binomialkoeffizient 70 Freiheitsgrad 121, 125, Binomialverteilung 150 f. 68 ff., 148 Frequenz 25, 30 Biophysik 14 Frequenztabelle 30 Blockanlage 180 F-Test 170, 179f. F-Verteilung 146 f. Centroid-Methode 189 Chi-Quadrat-Test 102, Galtonsche Zufalls148 ff. maschine 68 ff. Chi-Quadrat-Verteilung Gaußsche Verteilung 72, 145 ff. 75, 100 communality 186, 189f. Gesamtheit 110 cultural lag 16 Denkmodelle, anthropo- Gesetz 7 Gewichtszahl 188 morphe 7f. Gewißheit, absolute 10 —, soziomorphe 6 ff. g-Faktor 184f. Durchschnitt 43 Gipfelwert 49 —, gleitender 212 f. Gleichverteilung 31 Glockenkurve 65 Einheitsskalen 28 Entscheidungstheorie 19 Glücksspiel 5 GMT 194 „Entzauberung der GrenzwahrscheinlichWelt" 8 keit 131 Ereignisse, seltene 73 Großzahlforschung 4 error factor 193

Häufigkeit 25,30,44 —, kumulative 34f., 47 Häufigkeitspolygon 35 f. Häufigkeitstabeile 30f., 44 Häufigkeitsverteilung 30 Haupttendenz 43 Hierarchie 183 Histogramm 31 f. Hochrechnung 109 Hypothesenprüfung 14, 131 ff. Indexzahlen 25, 200, 207 f. Induktionsschluß 109 Informationstheorie 19 Intelligenzquotient 32, 208 Interpolation 201 ff. Intervall 33 Intervallskala 28 Interview 112 Irrtumswahrscheinlichkeit 117, 119 Iteration 209ff. J-Verteilung 66 Kardinalzahl 24 Klasse 31, 33, 36, 48 —, offene 34 Klassengrenze 31, 33 Kollektiv 110 Kollektivmaßlehre 5 Kombinatorik 4 Konformitätsmaß 161 ff. Konjunkturbewegung 204 Kontingenzkoeffizient 104 Kontinuum 24

252 Konvergenzmaß 159 ff., 163ff. Korrelation, partielle 13, 97 ff. —, biseriale 99 —, Interpretation von 105 f., 183 Korrelationskoeffizient 90, 93,129, 143,175 Korrelationsmaße 87ff., 151 Korrelationstabelle (-matrix) 186ff. Kritischer Bruch 135 lateinisches Quadrat 180 f. Lüge, statistische 15 Majoritätsmaß 158 f., 163 f. Masse 110 Maßzahl 23f. Mathematik 2, 17 Median 47 Mensch, mittlerer 9 Messen 23, 76,166 Mittel, arithmetisches 43ff., 59ff., 111 —, gewogenes 46 Mittelwerte 43 ff., 117 ff., 132 ff. —, provisorische 58ff. —, Unterschiede zwischen 123 ff., 135 ff. Multiplikationstabelle 191 Mutungsbereich 117 ff. —, für Korrelationskoeffizienten 129f. —, für Mittelwerte 117ff. —, für Prozentwerte 128 —, für Standardabweichungen 127 —, für Unterschiede zwischen Mittelwerten 123 ff. —, für Unterschiede zwischen Prozentwerten 128 f. Mutungsgrenze 118 Normalität 163 Normalverteilung 31,49, 72, 75ff., 86,100, 114, 118,121,145 f. —, standardisierte 80 ff.

Sachregister Regressionslinie —, Prüfung von 178 ff. Reihen, Frequenz- 199 —, kategoriale —199 —, Zeit — 199 ff. Paarweise geordnete Reihenkorrelation Gruppen 139 208ff. Panel-Technik 208 Resttabelle 192 Parameter 29, 111 Rho-Koeffizient 104f. Parameterfreie Statistik Rohabweichung 80 27 Rohwert, normierter 80 f Pascalsches Dreieck 70 Rotation 195 ff. Pearson-Korrelation R-Technik 198 92 f. Perzentile 51f.,82ff. Phi-Koeffizient 102f. Säulendiagramm 37 f. Planexperiment 15, Saisonbewegung 204 180 f. Schätzung 113 Poissonsche Verteilung Scheinkorrelation 105f. 66, 72ff., 149 Schellingsche KorrelaPopulation 109 ff. tion 103 Präzision 68, 77 Schiefe 49, 64f. ProduktmomentSektordarstellung 37, korrelation90ff., 129f. 39f. Proportion 24,100 Sicherungsgrenze 118 Prozentrangplatz 25 Signifikanz von Prozentwert 24, 38, 106, — Korrelationskoeffi128 zienten 143 —, Differenz zwischen — Unterschiede 128f., 142 zwischen Mittelwerten Psychologie 8ff., 13ff. 135 ff. Punkt-Zwei-Zeilen- Kor- — Unterschiede relation 101 zwischen Prozentwerten 142 Q-Technik 198 Signifikanzniveau 117, Quartilabstand, halber 119,132 51 f. simple structure 196 Quota-Technik 112f. Simulatoren 213 Q-Wert 170 Skala 26, 57 —, metrische 28 random-Technik 113 Rangkorrelation 104f., —, provisorische 58 ff. —, topologische 28 111 Skalierung 26 Rangskala 27 Sozialwissenschaften Rationalskala 28 lOff. Reduktion 33 Reduktionslagen 33 Spiele, Theorie der 19 Reflexion 192 Stabdiagramm 38 Regression 88 ff. Standardabweichung Regressionsgerade 90f., 54ff., 60ff., 74, 78, 111, 120, 127, 141 97, 171 ff. —, Gleichung der 172 ff. Standardwert 80f., 118 Stanine-Skala 84, 97 Regressionskoeffizient Statistik 25 173 Regressionslinie 89 ff. —, historische Entwick—, Gültigkeitsbereich lung der l f f . der 176f. Statistika 50 Nullhypothese 131 f., 149 Nullpunkt 57 Nummernskala 26